Kappa Testi
Yıl: 2015 Cilt: 5 Sayı: 3 Sayfa Aralığı: 142 - 144 Metin Dili: Türkçe İndeks Tarihi: 29-07-2022
Kappa Testi
Öz: Kappa katsayısı kategorik maddelerin değerlendirilmesinde iki gözlemci arasındaki uyumu ölçen istatistiktir. Kappa testigözlemciler arasındaki uyumun şans eseri olabileceğini de dikkate aldığı için, iki gözlemci arasındaki yüzde orantı olarakbulunan uyumdan daha güçlü bir sonuç olarak değerlendirilir. Cohenin kappa katsayısı sadece iki gözlemci arasındakiuyumu ele alırken, uyumun ölçüldüğü gözlemci sayısı ikiden fazla ise Fleissin kappa katsayısı kullanılır. κ (Kappa) -1ile +1 arasında bir değer alabilir. Kappa değeri +1 olduğunda iki gözlemci arasında mükemmel uyum olduğunu göste- rirken, -1 değeri iki gözlemci arasındaki uyumsuzluğun mükemmel olduğunu belirtir. Eğer kappa değeri 0 bulunursa,bu iki gözlemci arasındaki uyumun şansa bağlı olabilecek uyumdan farklı olmadığını belirtir.
Anahtar Kelime: Konular:
Kappa test
Öz: Kappa coefficient is a statistic which measures inter-rater agreement for categorical items. It is generally thought to bea more robust measure than simple percent agreement calculation, since κ takes into account the agreement occurringby chance. Cohen s kappa measures agreement between two raters only but Fleiss kappa is used when there aremore than two raters. κ may have a value between -1 and +1. A value of kappa equal to +1 implies perfect agreementbetween the two raters, while that of -1 implies perfect disagreement. If kappa assumes the value 0, then this impliesthat there is no relationship between the ratings of the two observers, and any agreement or disagreement is due tochance alone.
Anahtar Kelime: Konular:
Belge Türü: Makale Makale Türü: Diğer Erişim Türü: Erişime Açık
- 1. Cohen J. A coefficient of agreement for nominal scales, Educational and Psychological Measurement. 1960; 20:37-46.
- 2. Gordis L. Epidemiology Fifth Edition, Elsevier Saunders Inc., 2014, 107-10.
- 3. Fleiss JL. Measuring nominal scale agreement among many raters. Psychological Bulletin. 1971;7:378-382.
- 4. Dawson B, Trap RG. Basic and Clinical Biostatistics, Lange Medical Books/McGraw-Hill, Third Edition, 2004;115-16.
- 5. Sim J; Wright CC. The Kappa Statistic in Reliability Studies: Use, Interpretation, and Sample Size Requirements. Physical Therapy. 2005;85:257-68.
- 6. Landis JR, Koch GG. The measurement of observer agreement for categorical data. Biometrics.1977;33:159-74.
- 7. Fleiss JL. Statistical Methods for Rates and Proportions. 2nd ed. New York, NY: John Wiley & Sons Inc; 1981 .
- 8. Gwet K. Handbook of Inter-Rater Reliability (2.Ed.), 2010.
- 9. Viera AJ, Garrett JM. Understanding interobserver agreement: the kappa statistic. Family Medicine. 2005;37:360-3.
APA | KILIC S (2015). Kappa Testi. , 142 - 144. |
Chicago | KILIC Selim Kappa Testi. (2015): 142 - 144. |
MLA | KILIC Selim Kappa Testi. , 2015, ss.142 - 144. |
AMA | KILIC S Kappa Testi. . 2015; 142 - 144. |
Vancouver | KILIC S Kappa Testi. . 2015; 142 - 144. |
IEEE | KILIC S "Kappa Testi." , ss.142 - 144, 2015. |
ISNAD | KILIC, Selim. "Kappa Testi". (2015), 142-144. |
APA | KILIC S (2015). Kappa Testi. Journal of Mood Disorders, 5(3), 142 - 144. |
Chicago | KILIC Selim Kappa Testi. Journal of Mood Disorders 5, no.3 (2015): 142 - 144. |
MLA | KILIC Selim Kappa Testi. Journal of Mood Disorders, vol.5, no.3, 2015, ss.142 - 144. |
AMA | KILIC S Kappa Testi. Journal of Mood Disorders. 2015; 5(3): 142 - 144. |
Vancouver | KILIC S Kappa Testi. Journal of Mood Disorders. 2015; 5(3): 142 - 144. |
IEEE | KILIC S "Kappa Testi." Journal of Mood Disorders, 5, ss.142 - 144, 2015. |
ISNAD | KILIC, Selim. "Kappa Testi". Journal of Mood Disorders 5/3 (2015), 142-144. |