![](https://static.isu.pub/fe/default-story-images/news.jpg?width=720&quality=85%2C50)
1 minute read
Tabla 3-7 Valoración del Coeficiente Kappa
from 104932
del clasificador. A partir de la matriz de confusión pueden deducirse varios índices relativos a la exactitud de la clasificación.
El proceso de validación se realizó con el índice Kappa, método utilizado y aceptado dentro de los programas colaborativos de las naciones unidas, el cual, define la exactitud lograda en la clasificación con un software y la exactitud de lograr una clasificación correcta con una clasificación visual (ONU-REDD+, 2016).
Advertisement
El índice de Kappa es la proporción de coincidencias obtenidas en un producto cartográfico. Es una medida de la diferencia entre la exactitud lograda en la clasificación con un software y la exactitud de lograr una clasificación correcta con una clasificación visual (en campo e imágenes de alta resolución generadas en paralelo) (Cohen, 1986).
K = (Po - Pe) / (1 - Pe) Donde: Po = Número de aciertos/ Número total de clases Pe = Calculo generado desde la matriz de confusión. 3-3
A la hora de interpretar el valor de k es útil disponer de una escala como la que queda presentada en la tabla 3.7 (Cohen, 1986).
Tabla 3-7 Valoración del Coeficiente Kappa Coeficiente de kappa (k) Fuerza de concordancia
< 0.00 Pobre 0.00 – 0.20 Leve 0.21 – 0.40 Aceptable 0.41 – 0.60 Moderada 0.61 – 0.80 Considerable 0.81 – 1.00 Casi perfecta