코헨의 Kappa(Cohen's kappa)
CODEDRAGON ㆍDevelopment/AI
반응형
카파계수 등급
· 카파계수 등급은 1977년에 발표한 Landis and Koch의 해석을 주로 따릅니다.
· 카파계수 값이 0과 0.2 사이로 나오면 Slight agreement로서 약간의 일치도를 보이는 것으로 판단하고, 0.8 이상으로 나오면 Almost Perfect agreement로 완벽한 일치도로 판단할 수 있습니다.
Cohen's Kappa Coefficient |
Strength of Agreement |
Agreement |
< 0.000 |
Poor |
거의 일치 안하는 상태 |
0.000 ~ 0.200 |
Slight |
약간의 일치 상태 |
0.201 ~ 0.400 |
Fair |
어느 정도 일치 상태 |
0.401 ~ 0.600 |
Moderate |
적당한 일치 상태 |
0.601 ~ 0.800 |
Substantial |
상당한 일치 상태 |
0.801 ~ 1.000 |
Almost Perfect |
완벽한 일치 상태 |
https://codedragon.tistory.com/9737
'Development > AI' 카테고리의 다른 글
교사 학습 분석 과정 도식도 (0) | 2019.12.04 |
---|---|
교사 학습(Supervised Learning) (0) | 2019.12.04 |
Square Error (0) | 2019.12.04 |
데이터 마이닝 수행 절차 (0) | 2019.12.04 |
데이터 분석 시장 전망 (0) | 2019.12.03 |