72
del clasificador. A partir de la matriz de confusión pueden deducirse varios índices relativos a la exactitud de la clasificación. El proceso de validación se realizó con el índice Kappa, método utilizado y aceptado dentro de los programas colaborativos de las naciones unidas, el cual, define la exactitud lograda en la clasificación con un software y la exactitud de lograr una clasificación correcta con una clasificación visual (ONU-REDD+, 2016). El índice de Kappa es la proporción de coincidencias obtenidas en un producto cartográfico. Es una medida de la diferencia entre la exactitud lograda en la clasificación con un software y la exactitud de lograr una clasificación correcta con una clasificación visual (en campo e imágenes de alta resolución generadas en paralelo) (Cohen, 1986). K = (Po - Pe) / (1 - Pe) Donde: Po = Número de aciertos/ Número total de clases Pe = Calculo generado desde la matriz de confusión.
3-3
A la hora de interpretar el valor de k es útil disponer de una escala como la que queda presentada en la tabla 3.7 (Cohen, 1986). Tabla 3-7 Valoración del Coeficiente Kappa Coeficiente de kappa (k) Fuerza de concordancia < 0.00 Pobre 0.00 – 0.20 Leve 0.21 – 0.40 Aceptable 0.41 – 0.60 Moderada 0.61 – 0.80 Considerable 0.81 – 1.00 Casi perfecta Fuente: Cohen (1986)