Comparison of the Model Selection Criteria for Multiple Regression Based on Kullback-Leibler’s Information
This paper presents the derivations to unify the justifications of the criteria based on Kullback’s divergence; AIC, AICc, KIC, KICcC, KICcSB, and KICcHM. The results show that KICcC has the strongest penalty function under some condition, followed, respectively, by KICcSB, KICcHM, KIC and AIC. Also...
محفوظ في:
المؤلفون الرئيسيون: | Warangkhana Keerativibool, Pachitjanut Siripanich |
---|---|
التنسيق: | บทความวารสาร |
اللغة: | English |
منشور في: |
Science Faculty of Chiang Mai University
2019
|
الوصول للمادة أونلاين: | http://it.science.cmu.ac.th/ejournal/dl.php?journal_id=8044 http://cmuir.cmu.ac.th/jspui/handle/6653943832/63897 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
المؤسسة: | Chiang Mai University |
اللغة: | English |
مواد مشابهة
-
Model Selection Criterion Based on Kullback-Leibler’s Symmetric Divergence for Simultaneous Equations Model
بواسطة: Warangkhana Keerativibool, وآخرون
منشور في: (2019) -
Minimum Kullback-Leibler turbo multiuser detector for CDMA system
بواسطة: Tuchsanai Ploysuwan
منشور في: (2008) -
An Alternative Goodness-of-fit Test for a Gamma Distribution Based on the Independence Property
بواسطة: Bandhita Plubin, وآخرون
منشور في: (2019) -
Model criteria selection for predictive purpose in logistic regression
بواسطة: Pattharapon Yuttharsaknukul
منشور في: (2023) -
Extended Bayesian information criteria for model selection with large model spaces
بواسطة: Chen, J., وآخرون
منشور في: (2014)