Kappa

表示在评估相同样本时多名检验员所做名义或顺序评估的一致程度。Kappa 统计量常用于交叉分组表(表)应用,或用在属性一致性分析中。

例如,两名医生对 45 位病人是否患有某种特定疾病进行检查。医生诊断病情(阳性或阴性)一致的频率有多大?另一个名义评估的示例是检验员对电视屏幕上缺陷的评级。他们是否对气泡、起皮和尘土的分类保持意见一致?

Kappa 值介于 -1 和 +1 之间。kappa 值越高,一致性就越强。

当:

·    Kappa = 1 时,表明完全一致。

·    Kappa = 0 时,则一致性与偶然预期的相同。

·    Kappa < 0 时,一致性比偶然预期的还要弱,不过这种情况很少发生。

通常,kappa 值至少应该为 0.70,但 kappa 值最好接近 0.90。

当进行顺序评级时(比如按 1 到 5 个等级对缺陷严重性进行评定),Kendall 系数(考虑了排序因素)通常比单独使用 kappa 更适合用来评估关联度。

Minitab 可以计算 Fleiss 的 kappa 和 Cohen 的 kappa。Cohen 的 kappa 用于评估两个评定员对一次试验或一个评定员对两次试验进行评定时的一致性程度。在属性一致性分析中,默认情况下,Minitab 计算 Fleiss 的 kappa 并适时提供计算 Cohen 的 kappa 的选项。在交叉分组表和卡方中,Minitab 只计算 Cohen 的 kappa。

Fleiss 的 kappa 和 Cohen 的 kappa 使用不同方法估计偶然出现一致性的概率。有关计算 kappa 统计量的详细信息,请参见“方法和公式 - 交叉分组表和卡方”以及“方法和公式 - 属性一致性分析”。