Yıl: 2015 Cilt: 5 Sayı: 3 Sayfa Aralığı: 142 - 144 Metin Dili: Türkçe İndeks Tarihi: 29-07-2022

Kappa Testi

Öz:
Kappa katsayısı kategorik maddelerin değerlendirilmesinde iki gözlemci arasındaki uyumu ölçen istatistiktir. Kappa testigözlemciler arasındaki uyumun şans eseri olabileceğini de dikkate aldığı için, iki gözlemci arasındaki yüzde orantı olarakbulunan uyumdan daha güçlü bir sonuç olarak değerlendirilir. Cohenin kappa katsayısı sadece iki gözlemci arasındakiuyumu ele alırken, uyumun ölçüldüğü gözlemci sayısı ikiden fazla ise Fleissin kappa katsayısı kullanılır. κ (Kappa) -1ile +1 arasında bir değer alabilir. Kappa değeri +1 olduğunda iki gözlemci arasında mükemmel uyum olduğunu göste- rirken, -1 değeri iki gözlemci arasındaki uyumsuzluğun mükemmel olduğunu belirtir. Eğer kappa değeri 0 bulunursa,bu iki gözlemci arasındaki uyumun şansa bağlı olabilecek uyumdan farklı olmadığını belirtir.
Anahtar Kelime:

Konular: Psikiyatri

Kappa test

Öz:
Kappa coefficient is a statistic which measures inter-rater agreement for categorical items. It is generally thought to bea more robust measure than simple percent agreement calculation, since κ takes into account the agreement occurringby chance. Cohen s kappa measures agreement between two raters only but Fleiss kappa is used when there aremore than two raters. κ may have a value between -1 and +1. A value of kappa equal to +1 implies perfect agreementbetween the two raters, while that of -1 implies perfect disagreement. If kappa assumes the value 0, then this impliesthat there is no relationship between the ratings of the two observers, and any agreement or disagreement is due tochance alone.
Anahtar Kelime:

Konular: Psikiyatri
Belge Türü: Makale Makale Türü: Diğer Erişim Türü: Erişime Açık
  • 1. Cohen J. A coefficient of agreement for nominal scales, Educational and Psychological Measurement. 1960; 20:37-46.
  • 2. Gordis L. Epidemiology Fifth Edition, Elsevier Saunders Inc., 2014, 107-10.
  • 3. Fleiss JL. Measuring nominal scale agreement among many raters. Psychological Bulletin. 1971;7:378-382.
  • 4. Dawson B, Trap RG. Basic and Clinical Biostatistics, Lange Medical Books/McGraw-Hill, Third Edition, 2004;115-16.
  • 5. Sim J; Wright CC. The Kappa Statistic in Reliability Studies: Use, Interpretation, and Sample Size Requirements. Physical Therapy. 2005;85:257-68.
  • 6. Landis JR, Koch GG. The measurement of observer agreement for categorical data. Biometrics.1977;33:159-74.
  • 7. Fleiss JL. Statistical Methods for Rates and Proportions. 2nd ed. New York, NY: John Wiley & Sons Inc; 1981 .
  • 8. Gwet K. Handbook of Inter-Rater Reliability (2.Ed.), 2010.
  • 9. Viera AJ, Garrett JM. Understanding interobserver agreement: the kappa statistic. Family Medicine. 2005;37:360-3.
APA KILIC S (2015). Kappa Testi. , 142 - 144.
Chicago KILIC Selim Kappa Testi. (2015): 142 - 144.
MLA KILIC Selim Kappa Testi. , 2015, ss.142 - 144.
AMA KILIC S Kappa Testi. . 2015; 142 - 144.
Vancouver KILIC S Kappa Testi. . 2015; 142 - 144.
IEEE KILIC S "Kappa Testi." , ss.142 - 144, 2015.
ISNAD KILIC, Selim. "Kappa Testi". (2015), 142-144.
APA KILIC S (2015). Kappa Testi. Journal of Mood Disorders, 5(3), 142 - 144.
Chicago KILIC Selim Kappa Testi. Journal of Mood Disorders 5, no.3 (2015): 142 - 144.
MLA KILIC Selim Kappa Testi. Journal of Mood Disorders, vol.5, no.3, 2015, ss.142 - 144.
AMA KILIC S Kappa Testi. Journal of Mood Disorders. 2015; 5(3): 142 - 144.
Vancouver KILIC S Kappa Testi. Journal of Mood Disorders. 2015; 5(3): 142 - 144.
IEEE KILIC S "Kappa Testi." Journal of Mood Disorders, 5, ss.142 - 144, 2015.
ISNAD KILIC, Selim. "Kappa Testi". Journal of Mood Disorders 5/3 (2015), 142-144.