A comparison of Cohen's Kappa and Gwet's AC1 when calculating inter-rater reliability coefficients: A study conducted with personality disorder samples

Background: Rater agreement is important in clinical research, and Cohen's Kappa is a widely used method for assessing inter-rater reliability; however, there are well documented statistical problems associated with the measure. In order to assess its utility, we evaluated it against Gwet'...

وصف كامل

محفوظ في:
التفاصيل البيبلوغرافية
المؤلفون الرئيسيون: Nahathai Wongpakaran, Tinakon Wongpakaran, Danny Wedding, Kilem L. Gwet
التنسيق: دورية
منشور في: 2018
الموضوعات:
الوصول للمادة أونلاين:https://www.scopus.com/inward/record.uri?partnerID=HzOxMe3b&scp=84876804850&origin=inward
http://cmuir.cmu.ac.th/jspui/handle/6653943832/52864
الوسوم: إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!