Clasificacion Digital PDF
Document Details
Uploaded by PamperedSarod
Tags
Summary
This document discusses digital image processing techniques, specifically for thematic mapping. It covers different classification methods, the importance of image corrections, and considerations like spectral and spatial dimensions. The text also touches on the use of supporting (auxiliary) data and the process of creating thematic maps.
Full Transcript
12. CLASIFICACION DIGITAL Hace ya bastante tempo, desde los años 70 hasta nuestros días, la generación de mapas temáticos es un producto final importante en el procesamiento digital de imágenes. Esta cartografía es preferentemente asociada con identificar áreas homogéneas al interior de una imagen,...
12. CLASIFICACION DIGITAL Hace ya bastante tempo, desde los años 70 hasta nuestros días, la generación de mapas temáticos es un producto final importante en el procesamiento digital de imágenes. Esta cartografía es preferentemente asociada con identificar áreas homogéneas al interior de una imagen, sin embargo, también es de interés el conocimiento de variables continuas, por ejemplo, la temperatura superficial o la evapotranspiración. En el caso de la cartografía temática, consideraremos el paisaje como un conjunto de unidades discretas en el espacio, donde cada una de las unidades discretas pertenece a una sola categoría temática. Esta identificación de cada unidad que compone el paisaje es identificada digitalmente a partir de algoritmos matemáticos de técnicas de clasificación, de tal forma que, los resultados de la clasificación asignarán a una sola clase cada píxel en la imagen, conformándose así, unidades o entidades homogéneas. Si recordamos el enfoque del procesamiento visual de imágenes, era posible para un usuario reconocer patrones y formas en una imagen que eran asignadas a clases específicas, con el objetivo final de generar un mapa temático. Este enfoque permitió el trabajo sobre imágenes aéreas y satelitales, ya sea impresas o en la pantalla de un computador. Con la suficiente experiencia, un usuario podría realizar un excelente trabajo y lograr una precisión notable, sin embargo, el tiempo empleado normalmente es alto. Ahora, si realizamos este mismo trabajo utilizando técnicas de clasificación digital, podríamos obtener los mismos resultados en un menor tiempo, donde el análisis visual podría ser aplicado sobre los resultados de la clasificación automática como una especie de validación del proceso. Las técnicas de clasificación digital tienen un profundo fundamento teórico y entregan al usuario muchas herramientas distintas y complementarias, pero consistentes, que permitirán generar mapas temáticos de excelente calidad a partir de imágenes digitales obtenidas por sistemas remotos. Estas técnicas de clasificación pueden ser aplicadas directamente con los datos brutos, sin embargo, muchos autores recomiendan primeramente realizar las calibraciones y correcciones en la imagen para eliminar fuentes de error. Nos referimos a la corrección geométrica, radiométrica, normalización topográfica y atmosférica. Por otra parte, trabajar con valores físicos de la imagen (Reflectividad y temperatura) genera muchos beneficios, ya que proporcional al usuario formas más consistentes al usar estos métodos de clasificación automáticos. Cuando se aplica cualquier método de clasificación digital, el resultado será una matriz numérica monobanda que tendrá las mismas características (Estructura espacial) de la imagen original, pero ahora los ND de los pixeles representarán una variable cualitativa o categórica. A pesar de que los números digitales asociados al píxel son de naturaleza numérica, no poseen una asociación a una variable cuantitativa. Otra característica importante, es que las imágenes clasificadas no podrán utilizarse directamente para operaciones matemáticas o analíticas con otras imágenes, por lo menos directamente. Ahora bien, como la clasificación en sí, es una variable cualitativa, si pueden ser usadas como variables categóricas en modelos estadísticos. También una aproximación similar puede aplicarse cuando clasificamos las imágenes en alguna escala orinal, por ejemplo, alto, medio y bajo. El resultado de una clasificación digital a una imagen puede ser llevado a una cartografía temática, transformado de formato raster a vectorial o directamente con el formato raster. Este proceso es un poco más complejo de lo que hemos explicado hasta aquí, pero ya lo explicaremos con mucho más detalle más adelante (Ver figura 11.1). Los algoritmos de clasificación digital de imágenes de satélite operan directamente con las bandas y sus valores espectrales (ND) en las imágenes de entrada. Sin embargo, debido a su resolución espectral, los algoritmos no siempre logran separar adecuadamente todas las clases, sino que podría haber errores producto de que dos clases diferentes podrían poseer un comportamiento espectral muy similar. Por ello, algunos autores recomiendan que, para separar adecuadamente las clases al interior de una imagen, se deben considerar las dimensiones: (a)Espacial: Capacidad de identificar adecuadamente una categoría de otras muy similares en el espacio de la imagen. (b)Espectral: El número de bandas que posee la imagen que permitirán discriminar mejor entre las categorías identificadas mediante el uso su firma espectral. (c) Temporal: La variabilidad temporal se encuentra relacionada con la estacionalidad en las categorías presentes en la imagen. Es posible que, aunque hayamos aplicado correctamente las tres dimensiones para una clasificación digital exitosa, debamos recurrir a variables auxiliares para mejorar la separabilidad entre categorías presentes en la imagen, por ejemplo, elevación, exposición, suelos, vegetación, etc. La figura 11.1 muestra un esquema metodológico de una clasificación digital a partir de un conjunto de bandas espectrales e información auxiliar, donde se han obviado algunos pasos para simplificar la comprensión del método. Figura 11.1.- Esquema metodológico de una clasificación digital. 11.1.- Clasificación no supervisada Este método de clasificación está concebido para encontrar las clases espectrales presentes en la imagen en forma automática, es decir, aplicar un algoritmo que sea capaz de encontrar grupos de píxeles con ND semejantes. El usuario o consultor no requiere un conocimiento previo del área de estudio, sino más bien criterio para reconocer a que pertenece cada clase identificada por el algoritmo numérico aplicado. El usuario no proporciona información de entrada al algoritmo de agrupamiento, por lo que se simplifica mucho su trabajo en la preclasificación. El algoritmo numérico está programado de tal forma que se basa en el hecho que al interior de la imagen existen grupos únicos e identificables, con características espectrales similares al interior de cada uno de ellos que les permiten ocupar un área al interior de la imagen, sin embargo, este problema de la separabilidad entre las clases es complejo. El problema radica en que al interior de una sola clase los individuos poseen características espectrales similares, pero o idénticas, lo cual podría complicar la homogeneidad al interior de cada clase. En estos casos, el consultor deberá dar sentido y estructura a las clases encontradas por el algoritmo de clasificación automático, lo que significa que será necesario modificarlas para identificarlas correctamente. Este método se basa en seleccionar el conjunto de bandas que se utilizarán para la agrupación y el algoritmo automático de agrupamiento. Las variables utilizadas para realizar la clasificación no-supervisada, pueden ser las bandas originales o también un grupo de bandas que provengan de alguna transformación, como las componentes principales CP, las cuales poseen la ventaja de no estar correlacionadas. El método preferido por muchos autores es el llamado análisis de conglomerados o Cluster Analysis. Los clústeres a priori son agrupaciones de pixeles con características similares, o áreas de comportamiento espectral homogéneo, donde la característica que los une es una especie de parentesco espectral. Figura 11.2.- Agrupamiento de los pixeles con comportamiento homogéneo observado en un gráfico NIR v/s RED. La figura 11.2 muestra un ejemplo de un agrupamiento de los pixeles con comportamiento homogéneo observado en un gráfico NIR v/s RED. Este gráfico es de tipo bivariado y corresponde a un diagrama de dispersión entre dos bandas espectrales, donde se observan los grupos de píxeles que poseen ND similares en esas dos bandas. Los grupos que se forman en este tipo de gráficos se encuentran relacionados con clases temáticas de interés por parte del consultor, sin embargo, deben ser interpretadas y contrastadas con información de terreno para su correcta identificación. Por ejemplo, el Clúster (a) corresponden a pixeles con alta reflectancia en el NIR y baja en el rojo (Podría ser vegetación), pero el Clúster (b) muestra una baja reflectividad en el NIR y el RED (Podría ser agua o suelo húmedo), y finalmente el Clúster (c) posee alta reflectividad en el NIR y el RED (Podría ser un suelo desnudo). En estos casos es conveniente ir a terreno y verificar a que corresponden los tres Clústeres identificados por el algoritmo numérico. Para encontrar correctamente los clústeres en la imagen, se requiere conocer el grado de similitud entre los píxeles y cómo pueden ser agrupados. Una forma simple de encontrar el grado de similitud entre los pixeles es utilizando distancias espectrales, por ejemplo, la distancia euclidiana, ecuación mostrada en la ecuación 11.1. 𝑚 (11.1) 2 𝑑𝑎,𝑏 = √∑(𝑁𝐷𝑎,𝑖 − 𝑁𝐷𝑏,𝑖 ) 𝑖=1 donde da,b indica la distancia espectral entre dos píxeles a y b; NDa,i y NDb,i corresponde a los niveles digitales de esos píxeles en la banda i; y m el número de bandas. A pesar de que la distancia euclidiana es la más usada, también es posible utilizar otras distancias espectrales entre pixeles, como la distancia de bloque o la distancia de Mahalanobis. La distancia de Mahalanobis es similar a la distancia euclidiana, sin embargo, conceptualmente distinta. Su objetivo es determinar el grado de similitud entre dos variables aleatorias multidimensionales, y tiene en cuenta la correlación entre las variables aleatorias. La distancia de Mahalanobis entre dos variables aleatorias con la misma distribución de probabilidad se puede calcular a partir de la ecuación 11.2. 𝑑𝑥⃗,𝑦⃗⃗ = √(𝑥⃗ − 𝑦⃗)𝑇 ∙ 𝑆 −1 ∙ (𝑥⃗ − 𝑦⃗) (11.2) Donde S es la matriz de covarianza, 𝑥⃗ e 𝑦⃗ corresponden a los vectores con los ND espectrales de dos pixeles, en cada una de las bandas de la imagen. Un ejemplo y buena aproximación para el cálculo de la distancia de Mahalanobis para dos pixeles (x,y) en una imagen se muestra en la ecuación 11.3. (𝑥1 − 𝑦1 )2 (𝑥2 − 𝑦2 )2 (𝑥3 − 𝑦3 )2 (𝑥𝑛 − 𝑦𝑛 )2 (11.3) 𝑑𝑥,𝑦 = √ + + +∙∙∙∙∙ + 𝜎12 𝜎22 𝜎32 𝜎𝑛2 Donde x1, x2,….,xn son los niveles digitales del pixel x en las n bandas; y1, y2,….,yn son los niveles digitales del pixel y en las n bandas; σ1, σ2,…. σ1 son las desviaciones estándar en cada una de las bandas. Otro algoritmo de agrupamiento muy usado es el ISODATA (Duda y Hart 1973), el cual nos proporciona un método iterativo robusto y flexible. El algoritmo ISODATA puede ser descrito metodológicamente a partir de varias fases secuenciales que se muestran a continuación: (1) Inicialmente se calculan en forma aleatoria una serie de centros para cada conglomerado (Clúster), donde el número de ellos es especificado por el consultor. (2) Los píxeles de la imagen se asignan al clúster cuyo centro es el más cercano, utilizando un criterio de similitud seleccionado por el consultor. Este agrupamiento se puede realizar con todos los píxeles de la imagen o, con un grupo. (3) Cuando se completa la primera iteración, se recalculan los centros de cada clúster, a partir de los ND de todos los píxeles que se han incorporado en la fase (2). (4) A continuación, se inicia la segunda iteración, donde los pixeles se clasifican con relación al centro del clúster más cercano. Podría ocurrir en esta iteración que la clasificación de muchos píxeles cambie con respecto a su asignación anterior. (5) En esta fase los centros se vuelven a calcular nuevamente y comienza una nueva iteración. Las iteraciones terminan cuando el número de píxeles que cambiaron de categoría después de una iteración se encuentra por debajo de un umbral definido por el consultor. Un problema crítico al que se enfrenta el consultor al usar este algoritmo es el ajuste previo o las condiciones iniciales con las cuales se aplicará ISODATA en una imagen. El consultor no conoce el número de conglomerados totales, o los umbrales apropiados para aplicarlos en la asignación del píxel a un conglomerado específico. Por ello, el análisis no supervisado es considerado por muchos autores solamente un método exploratorio, donde posteriormente los resultados son modificados en función de los datos de terreno (Mather 1998; Tso y Mather 2001). Figura 11.3.- Esquema metodológico de una clasificación digital ISODATA. 11.2.- Clasificación supervisada En la clasificación no supervisada, el consultor es requerido al mínimo en la clasificación digital de la imagen, sin embargo, ahora en una clasificación supervisada, el consultor interviene de manera más activa en todo el proceso. Efectivamente, es ahora el consultor quien lleva a cabo todo el proceso, decidiendo en cada caso las indicaciones que debe introducir en el software para realizar el proceso. Una de las características esenciales de la clasificación supervisada, es que el consultor entrega al software los patrones espectrales (Firmas espectrales) específicos que debe buscar al interior de la imagen y que corresponden a las clases identificadas por el consultor previamente en terreno. Estos patrones o firmas espectrales son extraídos desde bibliotecas espectrales o desde áreas de entrenamiento (Training áreas) definidas a priori por el consultor, como ya lo habíamos mencionado. La clasificación digital de imágenes tradicionalmente se realiza sobre imágenes Multiespectrales o Hiperespectrales (Se sugiere tres bandas como mínimo), a partir de las cuales extraeremos información temática de una forma semiautomática. Por lo tanto, la primera etapa en la clasificación supervisada comprende una fase llamada de entrenamiento, la cual debe ser llevada con extremo cuidado y planificación. En efecto, el consultor revisa la imagen con mucho detalle, reconociendo grupos de pixeles que pertenecen a una determinada clase. Posteriormente, podemos extraer los patrones espectrales directamente de la imagen o usar unos prexistentes desde bibliotecas espectrales, los cuales servirán de base para que el algoritmo de clasificación los reconozca en la imagen y asigne los respectivos pixeles a una clase específica de entrenamiento. De esta forma reconoceremos todos los pixeles de la imagen y serán asignados a una clase específica, inclusive a una que contenga los pixeles no asignados a ninguna clase. Figura 11.4.- Identificación de áreas de entrenamiento al interior de una imagen satelital, en los alrededores del embalse Convento Viejo, Región del Libertador General Bernardo O´Higgins, Chile. 11.2.1.- Fase de entrenamiento La figura 11.4 muestra el reconocimiento de posibles áreas de entrenamiento al interior de una imagen satelital. La identificación preliminar no se encuentra exenta de problemas de selección de las áreas de entrenamiento, porque las zonas seleccionadas podrían corresponder a: (a) áreas homogéneas (Esto es lo ideal que podría pasar en terreno), (b) áreas heterogéneas, (c) categorías heterogéneas. Una vez definidas las clases a identificar en la imagen, es posible realizar un análisis preliminar con el método ISODATA para poder conocer a priori la separabilidad espectral en la imagen. A pesar de que podamos tener muy claro las clases, es necesario conocer además que las áreas seleccionadas a posteriori sean representativas, en efecto, debemos ser capaces de recoger la variabilidad interna de cada clase. Por ello, las áreas de entrenamiento elegidas al interior de la imagen podrían entregar además información complementaria que nos pueda explicar cuantitativamente la variabilidad interna de cada clase, como sus parámetros topográficos (altitud, pendiente, exposición), iluminación, tipo de suelo, humedad, etc. Si consideramos el número y distribución de las áreas de entrenamiento, es riesgoso el utilizar una sola área para cada clase reconocida, pues se puede cometer el riesgo de idealizar sus características espectrales. Se pueden cometer errores tipo 1 y 2, por ejemplo, el algoritmo de clasificación podría no identificar zonas en la imagen que corresponden a una misma clase, o identificarlas como tal cuándo corresponde a una clase diferente. Este error es común al momento de identificar cultivos agrícolas, por ello conviene tomar varios campos de entrenamiento en los que se incluyan pixeles que contiene un mismo cultivo en distintos manejos, por ejemplo, tradicionales, intensivos, secano, regadío, sobre series de suelos diferentes, en diferentes orientaciones (Ladera norte y sur), con diferentes clases de pendientes, etc. El número de pixeles necesario para establecer una clase en el entrenamiento depende de la variabilidad interna de la clase. Recordemos que esta aproximación hace referencia al elegir las áreas de entrenamiento en la imagen satelital, donde posteriormente serán extraídas las firmas espectrales de cada clase. Para ello, consideraremos que los ND correspondientes a cada píxel en cada clase pueden ser ajustados a una distribución normal, entonces, el número mínimo de pixeles a considerar para calcular un ND promedio y representativo para esa clase queda definido por la ecuación 11.4. 2 𝑍𝛼/2 ∙ 𝜎2 (11.4) 𝑛≥ 𝜀2 Donde 𝑍𝛼/2 es el percentil de la distribución normal N(0,1) equivalente a la mitad del nivel del intervalo de confianza calculado en la estimación, 𝜎 2 es la varianza de cada clase en la banda más desfavorable y ε es el error que se está dispuesto a admitir en la estimación del ND promedio. Por ejemplo, supongamos que consideramos un intervalo de confianza del 95 %, lo que equivale a considerar α=0,05, entonces zα/2 = 1,96. Consideremos, para nuestra imagen de ejemplo, una desviación estándar de los ND en una imagen es de 15 unidades (En unidades de ND) y un error máximo de 2 ND, por lo tanto, para la estimación del ND promedio, se necesita una muestra de al menos n ≥ 1,962 ·152 /22 = 216 celdas. Pero, para un nivel de confianza del 99 %, se necesitarían n ≥ 371 celdas. Este ejemplo nos muestra que las clases muy uniformes quedan bien descritas con pocos pixeles, en cambio, para caracterizar adecuadamente las clases muy heterogéneas se necesitará un mayor número de pixeles para realizar las estimaciones. Figura 11.5.- Ejemplo de áreas de entrenamiento para realizar una clasificación digital. Cuando no se disponga de mucha información, es posible utilizar una aproximación razonable, esto es, se pueden considerar entre 10 y 100 celdas por banda para cada una de las clases contenidas en la imagen. También los pixeles usados para entrenamiento deben formar polígonos de entrenamiento, considerando un mayor número de ellos, aunque sean de menor tamaño. Por ningún motivo considerar una sola área de entrenamiento. Las áreas de entrenamiento deben distribuirse adecuándose a la variabilidad de la imagen. Resumiendo, las áreas para el entrenamiento del algoritmo deben estar adecuadamente identificadas, tanto en su localización como bien actualizadas. Las áreas deben ser lo más homogénea posible para evitar errores. Finalmente, las áreas de entrenamiento deben cubrir todas las clases y poseer suficientes réplicas. La figura 11.5 muestra un ejemplo gráfico de áreas de entrenamiento para realizar posteriormente una clasificación digital. 11.2.2.- Fase de asignación La fase de asignación corresponde a un paso metodológico donde es necesario asignar a cada píxel una correspondiente categoría con el objetivo de conformar grupos coherentes que se agrupen por similaridad espectral, o simplemente por parecido. Finalmente, cada píxel pertenecerá solo a una clase y el resultado final será una imagen monobanda con todos los pixeles asignados, por supuesto, si esto fuese posible. Para realizar la asignación de un píxel con éxito, es necesario establecer una función de similaridad, la cual permita asegurar la pertenencia de un píxel a un grupo. Las funciones de similaridad más habituales en la clasificación digital son de distancia mínima, distancia máxima, Distancia media y Distancia Euclidiana. Figura 11.6.- Asignación usando el clasificador de mínima distancia (Adaptado de Chuvieco y Huete, 2009). 11.2.2.1.- Clasificador de mínima distancia: Asigna la pertenencia de un píxel a una categoría usando como criterio la distancia espectral Euclidiana. La función de similaridad utilizada, por lo tanto, es la distancia euclidiana calculada entre el vector de características de la celda y el centro de la clase, representado por su vector de respuesta espectral promedio (Ver ecuación 11.5 y Figura 11.6. 𝑚 (11.5) 2 ̅̅̅̅𝐶,𝑖 ) 𝑑𝑥,𝐶 = √∑(𝑁𝐷𝑥,𝑖 − 𝑁𝐷 𝑖=1 Donde dx,C es la distancia espectral entre el píxel x y la categoría C; NDx,i es el valor del píxel ̅̅̅̅𝐶,𝑖 es el valor medio de los ND de la categoría C en la misma banda; y objetivo en la banda i; 𝑁𝐷 m el número de bandas de entrada. El píxel es asignado a la categoría que minimiza la distancia espectral al centro de cada clase dx,C. La ecuación 11.5 puede ser modificada, por ejemplo, eliminando la raíz cuadrada, o también usando el valor absoluto de las diferencias, porque el objetivo del algoritmo es comparar entre categorías. También, este algoritmo no considera la dispersión al interior de cada categoría y tampoco el efecto de la correlación entre bandas. El método de asignación de mínima distancia es un algoritmo bastante simple y rápido, es decir, ocupa pocos recursos de un computador. Además, ofrece buenos resultados cuando las categorías elegidas posee poca superposición. El método asigna todos los pixeles a una determinada clase, por lo que todos los pixeles son clasificados, porque siempre hay una clase a una distancia mínima, aunque ella se encuentre lejos. Este hecho podría causar muchos errores tipo 2 o llamados también errores de comisión. Este método es utilizado con mucha frecuencia en aplicaciones temáticas, esto es, hacer cartografía, sin embargo, algunos autores han sugerido modificaciones de forma que también se introduzca la varianza en cada categoría. A modo de sugerencia, este método se ha utilizado con mucho éxito cuándo se trabaja con áreas más homogéneas. Figura 11.7.- Asignación usando el clasificador por paralelepípedos (Adaptado de Chuvieco y Huete, 2009). 11.2.2.2.- Clasificador por paralelepípedos: Realiza una asignación de pertenencia para un píxel más bien usando por criterios lógicos. Específicamente, este método consiste en definir áreas de dominio para cada categoría, donde un píxel será asignado posteriormente a una de ellas. Por lo tanto, un píxel que posee un nivel digital ND en la banda k de las n bandas que posee la imagen, será asignado a la clase C si se verifica que: ̅̅̅̅𝐶 (𝑘) − 𝑅𝐶 (𝑘) < 𝑁𝐷(𝑘) < 𝑁𝐷 𝑁𝐷 ̅̅̅̅𝐶 (𝑘) + 𝑅𝐶 (𝑘) (11.6) Ecuación válida Ɐ 1≤ k ≤ n, donde RC es un rango de dispersión asignado alrededor del valor medio del grupo. Tradicionalmente el rango de dispersión se calcula como un múltiplo de la desviación estándar en cada banda. Cuanto mayor sea el rango usado como umbral de clasificación, mayor será el número de pixeles asignados a una categoría específica, lo que podría aumentar los errores tipo 2. Ahora en el caso contrario, si el umbral considerado es muy pequeño, el error será mucho menor, sin embargo, muchos pixeles no serán clasificados. Este clasificador es muy rápido, porque el algoritmo numérico es muy sencillo, sin embargo, se recomienda usarlo para una primera aproximación en la identificación de las categorías en la imagen. Es importante recalcar que el cálculo de los umbrales es fundamental para una correcta asignación de los pixeles a su respectiva clase. Lo anterior podría generar que un píxel sea asignado simultáneamente a dos categorías, pero también que no sea asignado a ninguna. 11.2.2.3.- Máxima probabilidad o de máxima verosimilitud: El algoritmo de máxima probabilidad asigna un píxel a una categoría por mayor probabilidad de pertenencia. El método parte de la hipótesis que los ND se pueden ajustar a una distribución normal al interior de cada clase, y es mucho más complejo que los dos métodos predecesores, por lo ocupa un mayor tiempo de computador para ejecutarse. A presar de esta dificultad, es el método más usado para realizar una clasificación digital, por ende, hay un gran número de aplicaciones en percepción remota, y su éxito radica en que proporciona un enfoque más consistente de análisis porque incorpora la variabilidad de los datos. La figura 11.8 muestra la distribución normal bivariada, usada por este algoritmo de asignación. Figura 11.8.- Distribución normal bivariada. Por ejemplo, en el análisis univariante, un píxel cualquiera presenta un ND que tendrá una probabilidad p de pertenecer a una determinada categoría C1 identificada al interior de la imagen, la cual quedará establecida por la ecuación 11.7. 𝑧−𝜇1 2 𝑧 1 −0.5( ) (11.7) 𝑝( ) = 𝑒 𝜎1 𝐶1 𝜎1 √2𝜋 Donde μ1 y σ1 corresponden a los parámetros de la media y la desviación estándar que son característicos de una determinada categoría, por ejemplo, C1. Entonces, si ahora analizamos la pertenencia del mismo píxel a otra clase C2, entonces, la probabilidad de verosimilitud se calcula de acuerdo con la ecuación 11.8. Posteriormente se compararán las dos probabilidades de pertenencia, entonces se concluirá que para pertenecer a la categoría C1, debe cumplirse que 𝑧 𝑧 (11.8) 𝑝( ) > 𝑝( ) 𝐶1 𝐶2 Ahora, si generalizamos la ecuación 11.8 a n categorías, entonces la condición 11.8 deberá ser extendida a muchos casos, lo que se muestra en la ecuación 11.9. 𝑧 𝑧 (11.9) 𝑝 ( ) > 𝑝 ( ) ∀ 𝑗 ≠ 𝑖; 𝑗 = 1, ….. , 𝑛 𝐶𝑖 𝐶𝑗 Por lo que la asignación de un píxel a una categoría específica corresponderá a aquella que proporcione una mayor verosimilitud. La figura 11.9 muestra la asignación de un píxel usando el clasificador de mayor probabilidad de pertenencia o verosimilitud. Figura 11.9.- Asignación usando el clasificador de mayor probabilidad de pertenencia (Adaptado de Chuvieco y Huete, 2009). Como la imagen en general es de naturaleza multiespectral, esta se encuentra compuesta por muchas bandas, de tal forma que cualquier tipo de clasificación podría realizarse utilizando todas ellas. Adicionalmente, si los problemas de colinealidad son graves, es recomendable trabajar con las componentes principales ya que no se encuentran correlacionadas. En este escenario, el clasificador de máxima verosimilitud debe ser extendido a todas las bandas que intervendrán en la clasificación digital. Ahora bien, el ND asociado a cada píxel ahora tendrá multidimensionalidad, es decir, corresponderá a un vector de propiedades del píxel en cada banda espectral, dado por los niveles digitales. Denotaremos a este vector de propiedades como 𝑧⃗ , el cual tendrá tantos elementos como bandas se estén utilizando en la clasificación digital. En este caso, la verosimilitud se encuentra dado por la ecuación 11.10. 𝑧⃗ 1 −0.5(𝑧⃗−𝜇𝑖 )𝑇 ∙𝐷𝑉𝑎𝑟 −1 ∙(𝑧⃗−𝜇𝑖 ) (11.10) 𝑝( ) = 𝑚𝑒 𝐶𝑖 √𝐷𝑉𝑎𝑟(√2𝜋) donde m es el número de bandas; |DVar| representa al determinante de la matriz de varianza- covarianza para la clase Ci; 𝑧⃗ es el vector que contiene los ND para un píxel x en todas las bandas espectrales; μi es el vector de valores medios para la clase Ci; y finalmente, las letras simbólicas T y −1 indican la transpuesta y la inversa de la matriz, respectivamente. La función anterior puede ser linealizada expresándola en forma logarítmica, lo que se muestra en la ecuación 11.11. 𝑧⃗ (11.11) 𝐿𝑛 [𝑝 ( )] = −[0.5 ∙ 𝐿𝑛(𝐷𝑉𝑎𝑟)] − [0.5(𝑧⃗ − 𝜇𝑖 )𝑇 ∙ 𝐷𝑉𝑎𝑟 −1 ∙ (𝑧⃗ − 𝜇𝑖 )] 𝐶𝑖 Un aspecto interesante de este algoritmo de máxima verosimilitud es que puede clasificar cada píxel en una categoría específica, a pesar de que la probabilidad sea baja, los cuales evidentemente pueden corresponder a errores tipo 2 o de comisión. Pese a lo anterior, siempre es posible filtrar la información para eliminar estas asignaciones con baja probabilidad, lo cual suele realizarse después de realizada la clasificación, proceso que queda en manos de los consultores. También el consultor podría evaluar los datos de entrenamiento usados para aplicar el algoritmo para explicar los errores de asignación, lo cual puede ser más complejo. Originalmente este algoritmo de asignación se propuso bajo la hipótesis de que era válido para categorías que presentan una distribución normal, sin embargo, algunos autores no lo consideran tan importante y puede perfectamente aplicarse este método a presar que no se distribuyan normalmente (Swain and Davis, 1978). Finalmente, este algoritmo bayesiano asignará un píxel, representado por su vector de propiedades 𝑧⃗ a la clase Ci, si y solo si cumple con la ecuación 11.12. 𝑧⃗ 𝑧⃗ (11.12) 𝑝 ( ) 𝑝(𝐶𝑖 ) > 𝑝 ( ) 𝑝(𝐶𝑗 ) ∀ 𝑗 ≠ 𝑖; 𝑗 = 1, ….. , 𝑛 𝐶𝑖 𝐶𝑗 11.2.2.4.- Árbol de decisiones: Este tipo de algoritmos de asignación identifican la pertenencia a una determinada categoría en forma secuencial, de tal forma que en cada paso de avance del algoritmo pueden utilizar aquellas bandas más apropiadas para una discriminación eficiente. Como otros, este algoritmo se basa en criterios lógicos para una adecuada asignación de un píxel. Intrínsicamente este tipo de algoritmos de asignación suelen estar constituidos por centenares de reglas y, por lo general, suelen proporcionar al usuario buenos resultados en la asignación, siempre que la base de conocimiento sea suficiente. En este tipo de clasificadores se suelen basar los sistemas de experto que, además pueden aprender de los resultados para ser usados posteriormente en sucesivas clasificaciones. Un árbol de decisión es construido a partir de una división del conjunto de datos de entrenamiento en subconjuntos (nodos) cuya homogeneidad creciente. La homogeneidad de cada nodo es medida con el índice de Gini (G), el cual se reduce al mínimo cuando las observaciones pertenecen a la misma clase. Como es un algoritmo iterativo, en cada paso, el nodo con mayor valor de G se divide en función de valores umbrales. Dichos valores umbrales se seleccionan para minimizar el valor de G en los nodos. El proceso continúa iterado hasta que se minimice el índice de Gini (Breiman et al., 1984; Cutler et al., 2007). El resultado final de proceso corresponde a un árbol de clasificación cuyos nodos finales son etiquetados en función de la categoría predominante, pero el resto de los casos se consideran errores de clasificación. Los errores pueden ser usados para generar una mayor capacidad de generalización, una especie de poda al árbol. Debido a la alta sensibilidad del algoritmo, no conviene contar con un solo árbol, por ello se han propuesto mejoras que generan conjuntos de árboles como boosting o Random Forest (Breiman, 1994). La figura 11.10 muestra un ejemplo de un clasificador de árbol de decisiones simple (Adaptado de Chuvieco y Huete, 2009). El algoritmo de árbol de decisión ocupa solo dos parámetros, m y k. El parámetro m, que equivale al número de variables predictivas, y el parámetro k, que es el número de árboles de clasificación. Por defecto, el parámetro k se establece alrededor de 500, básicamente porque a valores mayores que el mencionado no generan un aumento importante en la exactitud de la clasificación (Liaw y Wiener, 2002; Cánovas García, 2012). Como ejemplo de un árbol de decisiones podemos citar al algoritmo Random Forest o RF (Breiman, 2001), el cual se trata de un meta-clasificador. RF utiliza árboles de decisión como clasificadores base, donde cada clasificador contribuye con un voto para la asignación de una categoría específica. RF genera un gran conjunto de árboles distintos, entre 500 a 2000, que son entrenados a partir de diferentes subconjuntos de datos, los cuales forman parte del conjunto inicial de datos. Los subconjuntos son generados mediante el método de bootstrapping, esto es, generación de conjuntos de datos elegidos aleatoriamente, pero se pueden repetir datos en cada subconjunto. Aproximadamente el algoritmo se entrena con el 70% de los datos originales y deja el 30% restante (Out of bag) para el proceso de validación. Por otra parte, cada árbol construido es entrenado a partir de un subconjunto aleatorio de las variables predictoras, proceso que podría añadir aleatoriedad al proceso y disminuir la correlación entre árboles. Sin embargo, esta falta de correlación entre los diferentes árboles, podría ser una característica deseable para que el proceso sea exitoso, es decir, asigne adecuadamente cada píxel a su categoría respectiva. Finalmente, FR en la última parte del proceso genera un sistema de votación por el que se asigna un píxel a la categoría estimada por el mayor número de árboles. En general, RF genera buenos resultados en comparación con otros sistemas de asignación basados o no en árboles de decisión. Un aspecto importante de RF es el hecho de que no se sobreajuste el modelo, obteniéndose una gran capacidad de generalización (Breiman, 2001; Liaw y Wiener, 2002; Ghimire et al., 2010; Breiman, 2001; Pal, 2005; Prasad et al., 2006). Figura 11.10.- Ejemplo de un clasificador de árbol de decisiones simple (Adaptado de Chuvieco y Huete, 2009). Otro de los métodos de construcción de árboles de decisión se denomina Classification and Regression Tree CART (Lawrence y Wright 2001), el cual ha sido implementado en varios paquetes estadísticos comerciales. Funciona de forma muy similar a los algoritmos tradicionales de árboles de regresión, sin embargo, CART actúa dividiendo los datos de entrada sistemáticamente en función de las variables de entrada hasta encontrar un grado de homogeneidad en los nodos terminales del árbol. Las ramas de los árboles se construyen de tal forma que garanticen una máxima homogeneidad intragrupo y separabilidad intergrupos. El resultado final se valida en forma cruzada con muestras que no se utilizan en la construcción del árbol de decisión. El algoritmo CART se ha usado en varias varía aplicaciones de teledetección, como la cobertura terrestre, la evaluación del riesgo de incendios forestales y la clasificación de áreas quemadas (Amatulli et al. 2006; Lawrence y Wright 2001, Stroppiana et al. 2003). Figura 11.11.- Esquema típico de una red neuronal artificial (ANN). 11.2.2.4.- Redes neuronales (ANN): Las redes neuronales artificiales han sido ampliamente utilizadas en los últimos años en teledetección. En efecto, preferentemente han sido usadas para la clasificación de imágenes digitales, sin embargo, también han sido utilizadas para estimar parámetros físicos, ajuste de modelos de predicción y detección de cambios en imágenes multitemporales. Desde el punto de vista de su forma de operar, las ANN se utilizan para predecir una variable (salida) en función de otro conjunto de variables independientes, por ejemplo, una combinación lineal de ellas. Desde su concepción las ANN pretenden simular el comportamiento del cerebro humano, usando múltiples interconexiones entre unidades de activación, llamadas neuronas, distribuidos en capas (Figura 11.11). Las unidades o elementos de una capa se conectan a otras capas vecinas a través de una determinada función, denominadas funciones de activación. Estas ecuaciones pueden ser lineales o no lineales, pero comúnmente se utilizan funciones tipo sigmoides. Estas funciones se utilizan para estimar un valor en la capa de salida a partir de los valores de las capas de entrada. Por lo general, las neuronas están conectadas a otras neuronas a través de las capas intermedias, llamadas capas ocultas. El valor de las salidas depende de las variables de entrada, sin embargo, los valores de entrada pueden tener una importancia relativa en la estimación de la salida, efecto que se logra aplicando los pesos sinápticos(wi,j), los cuales son calculados para cada función de activación. En toda ANN, el cálculo de los pesos sinápticos se realiza a través de un proceso iterativo llamado entrenamiento o también aprendizaje de la red. La etapa de aprendizaje o de entrenamiento de una ANN es la más compleja, ya que incluye la estructura de la red y con la asignación de los pesos de las funciones de activación. Un algoritmo de ANN más utilizado es la retro propagación (backpropagation), que consiste en comparar la salida de la ANN con los valores de salida reales proporcionados por el usuario. En este punto se define qué conjunto de pesos asociados a las diferentes funciones de activación minimiza los errores. 11.2.2.5.- Clasificadores de contexto: Todos los algoritmos de asignación o clasificadores discutidos en estos apuntes clasifican la imagen píxel a píxel, a partir de alguno de los algoritmos anteriores. Sin embargo, en las imágenes obtenidas de la superficie de la tierra por sensores remotos, poseen áreas homogéneas donde los pixeles se agrupan en grupos grandes, pero, además, los pixeles aislados con un comportamiento particular. En este sentido, los clasificadores de contexto asignan los pixeles por grupos, reconocidos mediante algún indicador de similitud por sus ND. 11.2.2.6.- Técnicas Fuzzy: Los clasificadores tradicionales asignan una sola categoría a cada píxel, lo cual puede ser cierto para imágenes de alta resolución, pero para imágenes de resolución media a baja los pixeles se encuentran compuestos por mezcla. Para el caso de las técnicas tradicionales de asignación se considera que el píxel es homogéneo y está preferentemente dominado por la categoría asignada, sin embargo, el píxel está compuesto por varias proporciones de otras categorías. El enfoque de homogeneidad de un píxel puede producir graves errores en algunos casos, por lo tanto, sería más apropiado un enfoque de asignación múltiple. Este enfoque se denomina clasificadores suaves (Mather 1999; Schowengerdt 1997). La clasificación difusa (Fuzzy) es uno de los enfoques más usados para este tipo de clasificadores suaves. Este enfoque diferente, asigna un grado de pertenencia a cada categoría definida por el usuario, en lugar de un valor único para cada píxel. La literatura muestra que en teledetección los métodos más comunes corresponden a la variante difusa de máxima verosimilitud (Maselli et al. 1995; Wang 1990b). Para generar áreas de entrenamiento para la aplicación de la asignación por lógica difusa, están también pueden ser homogéneas y heterogéneas, sin embargo, el usuario debe conocer sus proporciones de mezcla. La lógica difusa es el método más apropiado cuando la superficie de observación posee coberturas mixtas, como las áreas urbanas. Los resultados de la clasificación con lógica difusa se comparan con el análisis de mezcla espectral. 11.2.3.- Fase de validación Una vez realizada la clasificación digital, sin importar el método usado, los resultados se almacenan en una nueva imagen, normalmente monobanda y cuya estructura es similar a la imagen original. Los ND de la imagen de salida contendrá las categorías o clases se ha sido asignadas para cada píxel de la imagen original. Esta nueva imagen clasificada puede ser considerada para un producto final, como una cartografía temática, pero además como una imagen intermedia que ira a otro paso posterior. En el primer caso, la imagen clasificada puede ser exportada a un sistema de información geográfica (SIG) para ser integrado con otras capas espaciales y realizar una cartografía temática, o continuar con otros procesos sobre la imagen. El objetivo de la interpretación digital es proporcionar una aproximación de las condiciones reales que una imagen presenta en un momento determinado de tiempo. Por ello, verificar los resultados encontrados en la clasificación digital de la imagen usada es muy relevante, fundamentalmente conocer si nuestra clasificación se asemeja a las condiciones del terreno, que podríamos interpretar como las condiciones reales, o verdad de terreno como lo llaman algunos. Por lo tanto, evaluar adecuadamente la precisión de nuestra clasificación es una prioridad para asegurar la calidad de la información que estamos entregando a nuestro mandante. Este paso nos entregara información valiosa para comprender el origen de las limitaciones que posee nuestro producto, la imagen clasificada, ya que podría ser usada en otras aplicaciones como información de base. Adicionalmente, este paso nos permite evaluar la fiabilidad del algoritmo usado, ya que a futuro podríamos usar aquel algoritmo que proporcione los mejores resultados. Resumiendo, la verificación de resultados con la información de verdad del terreno incluye las siguientes fases (Chuvieco y Huete, 2009): Diseño de muestreo, indicando cuántas parcelas se deben muestrear y cómo se deben seleccionar. Recopilación de datos de referencia y resultados sobre las parcelas seleccionadas para ser muestreadas. Extraer los resultados de la interpretación para las mismas parcelas utilizadas con los datos de referencia. Comparar datos de referencia e interpretados usando técnicas estadísticas apropiadas. Analizar las causas y distribución de errores; Cuando sea posible, comparar los resultados de diferentes técnicas de interpretación. El análisis de la calidad de los resultados puede ser abordada por varios enfoques. Primeramente, una evaluación subjetiva, basada en la experiencia del consultor o el mandante (Usuario final), estos debieran conocer muy bien el área de estudio para tener una opinión acabada del resultado de la clasificación, lo que llamaremos criterio de experto. Este tipo de validación es bastante criticada, pero corresponden a un tipo de valoración. Esta valoración, desde un punto de vista científico no debe ser aceptada como una forma definitiva de evaluación. El segundo enfoque para evaluar el resultado de la clasificación es realizando una comparación utilizando herramientas proporcionadas por la estadística convencional, pero hay que tener un conjunto de datos independientes para realizarlo. Figura 11.12.- Los receptores de GPS son herramientas importantes para garantizar una ubicación precisa en el trabajo con las parcelas de terreno. Un tercer enfoque para la validación de la precisión de la clasificación digital se basa en las mismas observaciones que se utilizan para entrenar al clasificador. Esta opción disminuye notablemente los costos, sobre todo en terreno, el cual es mucho más caro porque requiere de una planificación y realizar parcelas de validación adicionales, las cuales no estaban originalmente planificadas, pues dependían del resultado de la clasificación. Algunos autores señalan que este tipo de validación puede generar un sesgo positivo en el proceso de evaluación de los resultados de la clasificación. Si consideramos solamente los datos de entrenamiento, estos tendrán una mayor probabilidad de clasificarse correctamente que los otros píxeles al interior de la imagen. Lo anterior ocurre de esta forma porque los algoritmos aplicados con sus reglas de clasificación incluidas se encuentran construidas a partir de los datos de entrenamiento. Desde un punto de vista estadístico no es conveniente validar un modelo de regresión con los mismos datos que fue ajustado, por las razones dadas anteriormente, por lo que se requiere un nuevo grupo de datos para la validación del modelo. La razón radica en que el modelo fue ajustado de tal forma que cada punto de calibración se encuentra a la mínima distancia posible de la curva que fue ajustada, por lo tanto, son necesarios los nuevos datos totalmente independientes. En base al párrafo anterior, la evaluación más recomendable para evaluar la fiabilidad de la clasificación digital consiste en seleccionar una serie de muestras independientes que no fueron utilizadas para producir la clasificación. Como ya habíamos mencionado, esta nueva toma de datos en terreno encarecerá la consultoría, sin embargo, los resultados de ella se encontrarán adecuadamente validados y será muy poco discutible la calidad de los resultados obtenidos (Resultados muy consistentes). Muchos autores y consultores han optado por este método para evaluar los resultados de clasificaciones digitales. 11.2.3.1.- Fuentes de errores en la clasificación La fiabilidad de los resultados dependerá de muchas variables, entre ellas tenemos: (a)Sensor o satélite usado; (b)Procesamiento inicial de la imagen; (c)Complejidad del paisaje; y (d) El método utilizado. Estas tres fuentes de error principales pueden ser considerados al momento de explicar los errores encontrados en el proceso de evaluación. Sin embargo, también hay otras fuentes de error más particulares, por ejemplo, la recopilación de nuevos datos en terreno y el método de muestreo usado. Es importante mencionar, debido a las limitaciones en estos apuntes del curso, que el estudiante sea más curioso. De tal forma de que el mismo consulte los libros que le ayuden a comprender mejor las materias involucradas en este punto, por ejemplo, revisar los conceptos involucrados en el diseño de experimentos. El error común que se puede cometer es una clasificación se encuentra asociado a la asignación de un píxel a una categoría específica. Luego, debemos realizar un control de calidad de los pixeles asignados para conocer la exactitud de la clasificación, donde, desde el punto de vista estadístico se da lugar a dos tipos de error temático, el de omisión y el de comisión. (a)Error de omisión: Este tipo de error también se llama “error tipo I”, el cual se produce cuándo un píxel no es asignado a una categoría perteneciendo efectivamente a ella. (b)Error de comisión: Este tipo de error también se denomina “error tipo II”, el cual se produce cuando la celda es asignada a una categoría a la que realmente no pertenece. Producto de lo anterior, después de realizada la clasificación es necesario realizar un proceso de validación, que realmente corresponde a un proceso de verificación de los resultados. Para realizar lo anterior, es necesario contar con un nuevo conjunto de datos los cuales se recopilan en varias salidas a terreno (Verdad de terreno). También es posible recurrir a trabajos realizados anteriormente (Otras clasificaciones ya realizadas) o fuentes cartográficas de estudios anteriores. Lo anterior puede ser una solución, sin embargo, la recomendación clásica sugiere realizar una campaña de terreno para recopilar nuevos datos. 11.2.3.2.- Proceso de verificación en terreno Como regla general, debemos considerar que la imagen que ha sido clasificada por un algoritmo cualquiera no posee fiabilidad en lo absoluto, solo una garantía de que el algoritmo usado asigno los pixeles a una categoría lo mejor posible. El error más común se encuentra asociado a la separabilidad espectral entre las distintas categorías, más bien el problema es la similitud espectral, ya que las firmas espectarles de cada una de las categorías podrían parecerse demasiado y los algoritmos podrían confundirse debido a este parecido. Como lo habíamos comentado, el proceso de verificación de los resultados podría ser más complejo de lo que parece, porque los errores de la clasificación podrían proceder del proceso del proceso de evaluación de la precisión de los resultados. En efecto, una posible fuente de error es el muestreo final de datos en terreno para el proceso de validación, que en primera aproximación no debiera tener sesgo alguno. Otra fuente de error posible s el tratamiento inicial de la imagen, como las correcciones radiométricas y geométricas, que podrían no haberse realizado con el suficiente detalle requerido. Peso a lo anterior, el proceso de recopilación de datos en terreno (Verdad de terreno) debe ser realizado con la meticulosidad estadística requerida. El aspecto final es el proceso de medición en sí misma, por ejemplo, la temperatura de la superficie, el LAI, potencial xilemático de la planta, o el contenido de clorofila en las hojas. Algunas variables son muy estables en todo el espacio comprendido por la imagen, mientras que otras son muy variables y pueden cambiar en distancias cortas. En el caso de las primeras, no requieren un muestre intenso en el espacio, en cambio las segundas si requieren un muestreo espacial mucho más intenso. Uno de los problemas recurrentes en la evaluación de una clasificación corresponde al grupo humano que realiza las mediciones en terreno. Podría ocurrir que algunas de esas personas sean muy meticulosas, en cambio otras podrían no serlo, generando errores en la toma de los datos. Por esta razón, los profesionales que deber ir a terreno deben se primeramente entrenados adecuadamente para que la toma de muestras sea los más homogénea posible. Con este aspecto se encuentra relacionado la toma sistemática de las muestras, inclusive el llenado de fichas sobre cada punto medido, de tal forma que el conjunto de mediciones sea lo más consistentes posible entre los diferentes equipos de personas involucrados. Para evitar errores geométricos o de ubicación de cada uno de los sitios de validación, sobre todo en imágenes de alta resolución espacial, es necesario contar en terreno con equipos de posicionamiento global GPS confiables, con errores por debajo del tamaño del píxel de la imagen base usada en el proceso de clasificación. Por ejemplo, se podría usar un GPS de alta precisión o un equipo topográfico para ubicar con mucha precisión las parcelas de entrenamiento y de validación; de lo contrario, el consultor podría tener problemas con el proceso de validación y conducir a errores graves. Un último aspecto importante es la relación temporal que existe entre los diferentes productos digitales que se están utilizando (Imágenes aéreas, drones y satélites). Las fechas de cada producto no deben estar muy alejadas entre sí, en caso contrario, las diferencias podrían deberse básicamente a los cambios temporales ocurridos en las fechas más distantes. Para planificar una salida a terreno para realizar el proceso de verificación de la imagen digital clasificada, es necesario aplicar la teoría de muestreo, ya que tenemos varias opciones para realizar la verificación. Necesitamos, primeramente, antes de la salida a terreno para generar un nuevo conjunto de datos, para ello construimos una capa vectorial con los puntos o sitios de muestreo, donde el número total de muestras a considerar se calcularán en función del área de estudio y del error máximo que estamos dispuesto a soportar. Entre los métodos de muestreo más comunes, tenemos los siguientes. 1)Aleatorio simple: Los pixeles a verificar se designan al azar en el área de estudio (Espacio muestral) (Ver figura 11.13a). 2)Aleatorio estratificado: Dividimos el área de estudio en varias subpoblaciones (Estratos) sobre cada una de los cuales se aplica un muestreo aleatorio (Ver figura 11.13b). 3)Sistemático: Corresponde a un muestreo realizado sobre puntos equidistantes del área de estudio, conformando un grillado regular. Teóricamente podemos cuadricular el área de estudio, similar a la hoja de un cuaderno de matemáticas (Grillado), y posteriormente se puede utilizar como punto muestral el centro de cada cuadrado, o también en la unión de las dos líneas que se cruzan en 90 grados (Ver figura 11.13c). 4)Sistemático no alineado: Corresponde a muestreo aleatorio, usando como referencia un grillado del terreno. Específicamente se traza una cuadrícula sistemática, y al interior de cada cuadrado de la grilla se asigna al azar un punto al interior de ella (Ver figura 11.13d). 5)Por conglomerados: Este tipo de muestreo también es de tipo aleatorio, sin embargo, el lugar de seleccionar un solo píxel, se selecciona un grupo de ellos para formar la muestra, siguiendo siempre el mismo patrón geométrico (Ver figura 11.13e). Figura 11.13.- Tipos de muestreos aplicados en el proceso de verificación para una clasificación digital de imágenes. Con los resultados de la salida a terreno realizaremos una estimación de la exactitud de la clasificación, con el objetivo de obtener un nivel de error en la asignación de los pixeles. Como ya lo habíamos mencionado, es muy importante el saber cuál debe ser el tamaño adecuado de las muestras que recogeremos en el terreno. El número de pixeles a muestrear en terreno depende del nivel de confianza que sea deseable, por ejemplo, un 90% o un 95% es una cifra deseable. También es necesario tener presente la información previa que se posea sobre la cada categoría en la imagen (Población). Es posible tener una idea de la dispersión de los ND al interior de cada categoría, es decir, su varianza. Esta nos permite reducir el número de muestras, pero sin alterar el nivel de confianza deseado en la estimación. 11.2.3.2.1.- Tamaño de la muestra En todo muestreo estadístico, el tamaño de la muestra se encuentra relacionado con el nivel de confianza que se desea, cual es el error de estimación tolerable que se está dispuesto a asumir. El tamaño de la muestra, numéricamente, será mayor cuanto más alto es el nivel de confianza que deseamos. El tamaño de la muestra se puede estimar a partir de la ecuación general de inferencia de muestreo, dada por la ecuación 11.12. 𝜇𝑥 = 𝜖𝑚 ± 𝑧 ∙ 𝛿𝑚 (11.13) donde μx es la media de la población, ϵm es el error estimado del muestreo, z es el nivel de probabilidad asignado a la estimación y δm es el error de muestreo. El término (z × δm) indica el intervalo de confianza. Para realizar el cálculo del número de muestras que deben ser tomadas en terreno, necesitamos considerar un nivel de confianza apropiado para la precisión que se desea en el muestreo. Supongamos que designamos un error máximo aceptable como L, en una clasificación particular, entonces para un muestreo aleatorio simple, el número de muestras a realizar se estima a partir de la ecuación 11.14. 𝑧 2 ∙ 𝜎 2 ∙ (𝑁 − 𝑛) (11.14) 𝐿2 = 𝑛∙𝑁 donde z corresponde al eje x de la curva normal estándar para un valor de probabilidad dado, σ² la varianza de muestreo, N el tamaño de la población y n el tamaño de la muestra. En el caso de muestras grandes (n > 30), se puede prescindir del término de corrección para poblaciones finitas. En este caso, el tamaño de la muestra se puede calcular por medio de la ecuación 11.15. 2 𝑧𝛼/2 ∙ 𝜎2 (11.15) 𝑛= 𝑧2 ∙ 𝜎2 𝐿2 + 𝑁 En la ecuación 11.15, el parámetro más difícil de estimar corresponde a la varianza muestral (σ²), lo que se da porque no conocemos la variabilidad de la variable que estamos evaluando en terreno. Es posible hacer una estimación al valor de la varianza, una primera aproximación a partir de muestreos previos, donde se conoce el rango de la variable (rg). La literatura muestra que diferentes autores han propuesto (a) Distribución regular: 𝜎 = 0.29 ∙ 𝑟𝑔 (11.16) (b) Distribución sesgada: 𝜎 = 0.21 ∙ 𝑟𝑔 (11.17) Las ecuaciones 11.16 y 11.17 entregan el valor de la varianza estimada a partir del rango de la variable, que equivale al valor máximo menos el mínimo, para después ser reemplazado en la ecuación 11.15. Ejemplo 1: (Chuvieco y Huete, 2009) Si deseamos estimar la precisión de calcular la temperatura en un área de 5000 km2 con un nivel de probabilidad del 95% (zα/2 = 1.96) y un error estimado aceptado de 1.5°C, habiendo observado un rango de temperaturas de 20,69°C, por lo tanto, tendríamos (1.96)2 ∙ (0.29 ∙ 20.69)2 𝑛= ≅ 61 (1.96)2 ∙ (0.29 ∙ 20.69)2 (1.5)2 + 5000 lo que se interpreta como: Para obtener el nivel de confianza deseado es necesario que tenemos que medir en terreno como mínimo 61 puntos muestrales. Para el caso de una imagen clasificada, donde la variable no es cuantitativa sino categórica, se aconseja utilizar la distribución de probabilidad bimodal. La expresión más sencilla para estimar el tamaño de la muestra se puede estimar a partir de la ecuación 11.18. 2 (11.18) 𝑧𝛼/2 ∙𝑝∙𝑞 𝑛= 𝐿2 donde p es el porcentaje estimado de aciertos; q el porcentaje de errores (q = 1 − p); y L el nivel de error permitido por el usuario final. Los valores de p y q se pueden estimar a partir de datos auxiliares o simplemente se puede suponer que p = q = 0.5 (o también 50 en porcentaje). Ejemplo 2: (Chuvieco y Huete, 2009) Ahora si necesitamos conocer el número de puntos de muestrales en terreno necesarios para estimar con un 95% de probabilidad, el error de una clasificación digital específica, suponiendo que el acierto estimado debe ser del orden del del 85% y el error máximo permitido es del 5%, entonces, aplicando la ecuación 11.18 tenemos (1.96)2 ∙ 85 ∙ (100 − 85) 𝑛= ≅ 196 (5)2 lo que se interpreta como: Para obtener el nivel de confianza deseado es necesario que tenemos que medir en terreno como mínimo 196 puntos muestrales. 11.2.3.2.3.- Error de la medición El análisis de los resultados obtenidos se basa en comparar los valores observados en terreno con los valores estimados por el modelo (Clasificación digital). La comparación de los resultados se realizan píxel a píxel, dependiendo evidentemente de los valores muestrales obtenidos por el equipo de trabajo. Tradicionalmente pueden utilizarse varios estadísticos como: error sistemático (BIAS), valor medio del error absoluto (MAE), error cuadrático medio (RMSE), el índice de acuerdo y el Criterio de Información de Akaike (AIC), el cual es útil para comparar dos o más modelos estadísticos que utilizan la misma variable dependiente. La tabla 11.1 se muestran los estadísticos usados más comúnmente para estimar la performance de un modelo, donde N representa el número de observaciones, O es el valor observado en terreno, P es el valor predicho por el modelo (Clasificación digital), 𝑂̅ es el valor medio de los datos observados, 𝑃̅ es el valor medio de los valores predichos, y k el número de parámetros o variables independientes utilizadas (Willmott et al., 2012; Meek et al., 2009; Deeg et al., 2008; Willmott and Matsuura, 2005; Legates and McCabe, 1999; Willmott et al., 1985; Sakamoto et al, 1986; Burnham and Anderson, 2002; Akaike, 1973). Tabla 11.1.- Criterios estadísticos para evaluar la fiabilidad de un modelo. Descripción Símbolo Formula N° Error sistemático o BIAS BIAS 𝑁 (11.19) 1 ∑(𝑂𝑖 − 𝑃𝑖 ) 𝑁 𝑖=1 Error absoluto medio MAE 𝑁 (11.20) 1 √ ∑|𝑂𝑖 − 𝑃𝑖 | 𝑁 𝑖=1 Error medio cuadrático RMSE 𝑁 (11.21) 1 √ ∑(𝑂𝑖 − 𝑃𝑖 )2 𝑁 𝑖=1 Índice de acuerdo D ∑𝑁 𝑖=1(𝑂𝑖 − 𝑃𝑖 ) 2 (11.22) 1− ∑𝑁 ̅ ̅ 2 𝑖=1(|𝑃𝑖 − 𝑂 | − |𝑂𝑖 − 𝑂 |) Criterio de información de AIC 𝑁 (11.23) 1 Akaike 2 ∙ 𝑘 − 𝑁 ∙ 𝐿𝑛 [ ∑(𝑂𝑖 − 𝑃𝑖 )2 ] 𝑁 𝑖=1 11.2.3.2.4.- Matriz de confusión La verificación de los resultados es un proceso importante al momento de informar sobre la fiabilidad de los resultados de la clasificación digital. Uno de los métodos propuestos en la literatura para hacer esta evaluación es la “matriz de confusión”. Conceptualmente, la matriz de confusión refleja los acuerdos y desacuerdos entre el mapa clasificado y la verdad de terreno. La evaluación de la imagen clasificada se realizará usando los datos colectados en terreno, donde se obtendrá una lista de observaciones con sus categorías clasificadas (satélite) y de referencia (terrestre). A partir de esta lista, podemos calcular la “matriz de confusión”. En resumen, se trata de una tabla de contingencia cuadrada en la que las filas se encuentran las categorías obtenidas en el proceso de clasificación y las columnas la verdad-terreno, es decir, las categorías verificadas en terreno. La matriz de confusión es una matriz cuadrada de n x n, donde n es el número de categorías encontradas. La diagonal de esta matriz representa los puntos en los que existe concordancia entre ambas fuentes (clasificación y terreno), es decir, donde no hay error de clasificación (Los pixeles se encuentran clasificados correctamente). En cambio, en los demás elementos de la matriz poseen errores de clasificación. La precisión global de la clasificación digital puede ser expresada como la relación entre el número de píxeles clasificados correctamente y el número total de píxeles muestreados. Los errores en cada columna indican asignaciones de terreno (reales) que no fueron identificadas en el mapa, en cambio, los errores en las filas indican píxeles clasificados que no corresponden a la realidad. En cada caso, estos representan a los errores de omisión y comisión, respectivamente (Aronoff 1982; Story y Congalton 1986). Los resultados de la matriz de confusión la precisión general del proceso, y también la precisión de cada categoría y los conflictos entre categorías. Figura 11.14.- Estructura de una matriz de confusión para la evaluación de la fiabilidad de una clasificación digital. El error del productor o error de omisión se calcula como la proporción de los residuos por columnas en relación con el total, de acuerdo con la ecuación 11.24. ∑𝑖(𝑥𝑖,𝑗 − 𝑥𝑗,𝑗 ) (11.24) 𝐸𝑂𝑗 = 𝑖≠𝑗 ∑𝑖 𝑥𝑖,𝑗 Por su parte, el error del usuario o error de comisión se calcula como la proporción de los residuos por filas en relación con el total, de acuerdo con la ecuación 11.25. ∑𝑖(𝑥𝑖,𝑗 − 𝑥𝑖,𝑖 ) (11.25) 𝐸𝐶𝑖 = 𝑖≠𝑗 ∑𝑖 𝑥𝑖,𝑗 Los errores complementarios, asociados con los errores de omisión y comisión se llaman comúnmente fiabilidades del productor y del usuario, respectivamente, según los muetran las ecuaciones 11.26 y 11.27. 𝑥𝑖,𝑗 (11.25) 𝐹𝑃𝑗 = ∑𝑖 𝑥𝑖,𝑗 𝑥𝑖,𝑖 (11.26) 𝐹𝑈𝑖 = ∑𝑖 𝑥𝑖,𝑗 Otra forma de expresar la calidad de la clasificación es mediante acuerdo porcentual, que hace referencia a la concordancia observada, esto es, la suma de los elementos situados en la diagonal de la matriz de confusión (Elementos correctamente identificados en la clasificación), en relación con el total de la muestra, lo cual se muestra en la ecuación 11.27. ∑𝑖 𝑥𝑖,𝑖 (11.27) 𝑃𝑎 = 100 𝑛 Y otro índice muy empleado comúnmente para la evaluación de la calidad de la clasificación digital de una imagen es el índice Kappa de Cohen κ, el cual entrega una cuantificación del nivel de acierto atribuible al método de clasificación empleado por el usuario, por encima del que se hubiese obtenido solamente debido al azar, el cual se muestra en la ecuación 11.28. 𝑛 ∑𝑖 𝑥𝑖,𝑖 − ∑(∑𝑖 𝑥𝑖,𝑗 ∙ ∑𝑗 𝑥𝑖,𝑗 ) (11.28) 𝜅= 𝑛2 − ∑(∑𝑖 𝑥𝑖,𝑗 ∙ ∑𝑗 𝑥𝑖,𝑗 ) El índice κ adopta valores comprendidos entre 0 y 1, donde la interpretación cualitativa (Concordancia) de los resultados se muestra en la Tabla 11.2. Tabla 11.2.- Interpretación cualitativa de los valores del índice Kappa de Cohen. Valor de κ Concordancia 0.00 Pobre (Mala) 0.01 – 0.20 Leve (Pobre) 0.21 – 0.40 Aceptable (Débil) 0.41 – 0.60 Moderada (Aceptable) 0.61 – 0.80 Considerable (Bueno) 0.81 – 1.00 Casi perfecta (Excelente) 11.2.4.- Cartografía temática En esta sección del capítulo nos centraremos en la presentación de los resultados de la clasificación temática. Como sabemos el resultado de la clasificación digital corresponde a una imagen monobanda que contiene los ND asignados para cada una de las categorías de la clasificación digital. Cada categoría corresponde a una descripción cualitativa, sin embargo, el valor del píxel es un número entero que a través de una tabla se relaciona con la categoría. A partir de esta tabla de asignación, es posible atribuirle una leyenda y colores a la clasificación. Finalmente, la presentación de los resultados suele realizarse por medio de una cartografía temática, un producto cartográfico que será entregado al usuario final o mandante. La transformación de una imagen digital en una cartografía o mapa no suele se un proceso trivial, pues requiere mucha atención por parte del consultor para que este producto exprese finalmente lo que el usuario final desea. Para que la cartografía tenga el impacto que se desea, es necesario tener en cuenta algunos aspectos esenciales: (a) (b) Figura 11.15.- Ejemplo del proceso de georreferenciación en una imagen digital. (a) Imagen original, y (b) Imagen digital georeferenciada. (a) (b) Figura 11.16.- Asignación de color a una clasificación digital. a)Corrección geométrica: La imagen usada para realizar la clasificación digital, requiere que se encuentre rigurosamente georeferenciada, de tal forma que, posea la validez cartográfica necesaria para la superposición de otra información, por ejemplo, de naturaleza vectorial, que forme parte de las bases geográficas digitales de Chile (IDE). No entraremos en detalle en este punto porque fue discutido en profundidad en otro capítulo. La figura 11.15 muestra un ejemplo del proceso de georreferenciación en una imagen digital. (a) Imagen original, y (b) Imagen digital georeferenciada. b)Asignación de color: La visualización de la imagen clasificada monobanda debe poseer los colores adecuados que tengan relación con las clases temáticas presentes en la escena. Por ello, requiere de un estudio cuidadoso de los colores que serán asignados a cada clase, lo que puede ser hecho a partir de tablas de color asociadas a las categorías encontradas. Se debe tener en cuenta el carácter cuantitativo y cualitativo de la imagen clasificada, por lo tanto, deben se adecuadamente representados y en armonía con las categorías dadas en la cartografía. (a) (b) Figura 11.17.- Aplicación de un filtro de paso bajo o de suavizado modal a una clasificación de una imagen digital. c)Suavizado: El resultado de una clasificación digital puede ser un proceso que genere ruido al interior de la imagen monobanda resultante. Este resultado podría ser confuso para el consultor, que debe interpretad adecuadamente los resultados del proceso. Por ello en muchas oportunidades es preferible aplicar un filtro en la imagen que nos exprese una generalización que nos permita interpretar los resultados obtenidos. Esta generalización nos permite mejorar la dimensión comunicativa de la clasificación digital, la cual posteriormente se transformará en una cartografía temática. Esta simplificación visual se logra aplicando filtros de paso bajo o de suavizamiento, ya que logran el objetivo deseado. Como se trata de una imagen cualitativa, no es posible aplicar algún filtro de promedio, pues los decimales o números intermedios carecen de sentido temático. Para solucionar el problema anterior, se recomienda aplicar ventanas móviles o kernels, los cuales nos permitan realizar la generalización buscada. Los kernels más comunes son de 3x3, 5x5 y 7x7, siendo el primero el más usado. Los filtros que cumplen esta función pueden ser de dos clases: 1)Filtro modal: La ventana móvil de filtrado se ubica sobre un píxel, que corresponderá a aquel que se va a filtrar, después el algoritmo revisa los ND de los demás pixeles en el kernel y asigna al píxel central se asigna a la categoría con mayor frecuencia. 2)Filtro de mayoría: La ventana móvil de filtrado se ubica sobre un píxel, que corresponderá a aquel que se va a filtrar, después el algoritmo revisa los ND de los demás pixeles en el kernel y asigna al píxel central el valor que ocupa la mitad más una de las celdas de la matriz móvil. En caso contrario, el píxel conserva su valor original. Se recomienda el uso del filtro modal ya que su generalización no es tan fuerte como en el caso del filtro de mayoría. La figura 11.17 muestra la aplicación de un filtro de paso bajo o de suavizado modal a una clasificación de una imagen digital. La figura 11.18 muestra unos ejemplos de cartografía temática obtenidas de internet realizadas a partir de una clasificación digital de imágenes. Figura 11.18.- Ejemplos de cartografía temática obtenidas de internet realizadas a partir de una clasificación digital de imágenes.