평가자 간 일치도

🏷️ 정보 LLM

평가자 간 일치도

평가자 간 일치도(Inter-rater Agreement)는 동일한 항목에 대해 여러 평가자들이 독립적으로 내린 판단이 얼마나 일치하는지를 정량적으로 측정하는 지표이다. LLM 평가의 신뢰성을 검증하는 데 사용된다.

핵심

수식

코헨의 카파: \(\kappa = \frac{p_o - p_e}{1 - p_e}\)

여기서 \(p_o\)는 실제 일치율, \(p_e\)는 우연 일치 기댓값이다.