💡 OBJETIVOS:
Familiarizarse con el uso de R para realizar la clasificación automática de imágenes satelitales multiespectrales, aplicando técnicas de análisis estadístico y visualización espacial, con el fin de interpretar y extraer información temática del territorio.
Interpretación de los resultados y la evaluación de la correspondencia entre clases espectrales y clases de información, enfatizando la importancia del criterio del analista en este proceso.
Diferenciar las técnicas de clasificación de imágenes de satélite basada en píxeles y las orientadas a objetos.
Entender los fundamentos de los procedimientos de clasificación supervisada y no supervisada en R.
Conocer las diferencias, ventajas y limitaciones de los distintos algorítmos de clasificación, evaluando y seleccionando los más apropiados.
Interpretar correctamente (de manera visual y mediante procedimientos estadísticos) los resultados de una clasificación.
Familiarizarse con los procedimientos de validación de clasificaciones de imágenes de satélite.
Analizar los resultados de la clasificación, incluido el etiquetado, la codificación de colores de las clases y el cálculo del área de las clases.
💡 MATERIALES PARA LA ACTIVIDAD:
No es necesario ningún material adicional.
La clasificación de imágenes de satélite es una herramienta fundamental en teledetección, ya que permite agrupar píxeles o segmentos de una imagen en grupos, clases o categorías con características similares. El resultado de este proceso son mapas temáticos que muestran la distribución espacial de las coberturas del suelo o usos del territorio.
En conjunto, la clasificación de imágenes satelitales convierte datos espectrales complejos en información geográfica interpretable, permitiendo pasar de observaciones continuas de reflectancia a representaciones discretas del territorio, muy útiles en la ordenación del territorio, el monitoreo ambiental y el análisis de cambios en la superficie terrestre a lo largo del tiempo.
El objetivo esencial de este laboratorio es que los estudiantes comprendan cómo los valores espectrales de una imagen se traducen en información temática útil y cómo seleccionar la técnica de clasificación más adecuada según la resolución de la imagen y el tipo de análisis requerido.
Cuando se trabaja con clasificación de imágenes, es importante diferenciar entre dos tipos de clases o categorías:
Clases (categorías) de información: son las coberturas reales que se busca identificar en la imagen: cultivos, bosques, cuerpos de agua o unidades geológicas.
Clases (categorías) espectrales: son grupos de píxeles que presentan valores de brillo similares en las distintas bandas de la imagen de satélite. Estas clases se generan automáticamente por los algoritmos y no siempre coinciden directamente con las clases de información de interés. Una misma categoría espectral puede corresponder a varias coberturas reales, y una misma cobertura puede dividirse en múltiples categorías espectrales, debido a variaciones en iluminación, densidad o composición.
Además, cabría señalar el problema de los píxeles mixtos, un fenómeno común en clasificación de imágenes. Hace referencia a un único píxel puede contener más de una cobertura del suelo. Este problema surge del hecho de que la mayoría de los algoritmos de clasificación asumen que cada píxel es homogéneo, es decir, que representa un solo tipo de cobertura. En la realidad, un píxel puede incluir varias coberturas distintas (hierba, árboles, suelo desnudo o edificaciones); como consecuencia, el valor espectral del píxel es un promedio de todas estas coberturas, lo que significa que no representan exactamente ninguna de ellas. Esto puede generar errores de clasificación, especialmente en los límites de diferentes coberturas, en áreas heterogéneas (por ejemplo, las urbanas) o en imágenes con resolución espacial relativamente gruesa.
Se han propuesto diferentes soluciones, no contempladas en este curso:
Clasificación de subpíxeles: estima la proporción de cada cobertura dentro de un píxel (por ejemplo, 70 % bosque y 30 % suelo desnudo).
Clasificación difusa (fuzzy classification): permite que un píxel pertenezca a varias clases con un grado de pertenencia a cada una, abordando la ambigüedad de los píxeles mixtos.
En pocas palabras: el problema de píxeles mixtos surge porque la resolución de la imagen no siempre coincide con la heterogeneidad del terreno, y requiere técnicas especiales para interpretarlos correctamente. Corresponde al analista evaluar la utilidad de las distintas clases espectrales y determinar su correspondencia con las clases de información relevantes para el estudio.
Existen varios enfoques para la clasificación de imágenes. Loss principales son:
Es la forma más rudimentaria de clasificación de imágenes de satélite. Tradicionalmente, la clasificación manual o visual hacía referencia a la interpretación y clasificación de imágenes por parte del ojo humano. La digitalización manual todavía puede resultar útil; tiende a funcionar bien para áreas pequeñas y contiguas, pero no para áreas de estudio grandes y no contiguas. La digitalización también puede llevar mucho tiempo y ser repetitiva, pero cuando se hace correctamente puede producir resultados consistentes.
El “density slicing” (segmentación por niveles de densidad o intensidad) es un método mixto, pero muy utilizado para una clasificación básica de imágenes de satélite. Consiste en establecer una serie de rangos de valores, normalmente de un índice espectral como el NDVI, y asignar a cada rango una clase o categoría.
A diferencia de la interpretación visual, realizada por un analista, la clasificación de imágenes se realiza aquí recurriendo a algoritmos matemáticos. Dentro del conjunto de técnicas de clasificación automática, la clasificación basada en píxeles consiste en asignar una clase o categoría a cada uno de los píxeles de una imagen según los valores espectrales de sus bandas.
Los métodos basados en píxeles se basan en el conocido como feature space, un espacio multidimensional donde cada banda corresponde a una hipotética dimensión. A su vez, cada píxel se representa como un punto en este espacio; teóricamente, los píxeles pertenecientes a una misma cobertura tienden a agruparse en “grupos”, “clases”, “categorías” o “clusters”, lo que permite evaluar qué clases podrían separarse bien y cuáles podrían solaparse.
La figura a continuación muestra un gráfico feature space (izquierda) para las bandas NIR y rojas de una imagen Landsat (derecha). Las áreas que se muestran en rojo representan la distribución de los píxeles de agua. Los píxeles que representan el agua generalmente tienen valores de rojo bajos y valores NIR cercanos a cero. Esto tiene sentido ya que sabemos que el agua se refleja mínimamente en NIR y SWIR.
Existen dos grandes familias:
Es el procedimiento más sencillo de aplicación, ya que el agrupamiento se basa únicamente en los valores numéricos de los píxeles. Los algoritmos agrupan los píxeles según similitud espectral sin requerir información previa sobre las coberturas del suelo; ejemplos de estos algorítmos son k-means e ISODATA.
La clasificación no supervisada requiere cierta intervención humana; el analista:
Elige el algoritmo.
Especifica parámetros como el número de grupos (“clusters”, categorías o conglomerados) y los criterios de separación y de variación entre y dentro de cada grupo.
Asigna las categorías obtenidas a coberturas reales (combinando firmas espectrales, índices derivados y referencias externas, como mapas CORINE o puntos de verificación de campo). El proceso iterativo “a ciegas” puede dar como resultado categorías que el analista podría agrupar posteriormente, o categorías que deberían desglosarse aún más - cada uno de ellos requiere una nueva aplicación del algoritmo de clustering.
En una clasificación supervisada, el usuario selecciona en las imágenes espacios homogéneos representativos (muestras) correspondientes a los distintos tipos de coberturas (clases de información). Estas muestras se denominan áreas de entrenamiento. La firma espectral promedio de estas áreas se utiliza para “entrenar” al algoritmo, que luego asigna cada píxel a la clase a la que más se asemeja.
Este enfoque permite vincular directamente clases espectrales (resultado de la clasificación) con clases de información (la cobertura real de interés).
La selección de estas zonas de entrenamiento se apoya en la familiaridad del usuario con la zona geográfica y en su conocimiento de los tipos de cobertura de superficie reales presentes en ella. De este modo, el usuario «supervisa» el establecimiento del número y de la composición de las clases o categorías, así como qué algoritmo se aplicará.
Cuadro resumen:
| Tema | No Supervisada | Supervisada |
|---|---|---|
| Datos requeridos | Ninguno | Muestras de entrenamiento |
| Resultado inicial | Clases sin etiqueta temática | Clases temáticas |
| Interpretación | Posterior y visual | Incorporada en el proceso |
| Facilidad | Más sencilla, pero menos precisa 1 Más compleja, pero más potente | |
| Uso ideal | Exploración, desconocimiento del área | Estudios detallados, monitoreo |
A diferencia de la clasificación por píxeles, que clasifica cada píxel de forma individual, según sus valores espectrales, los procedimientos de clasificación por objetos consideran el contexto espacial. Este enfoque es especialmente útil para imágenes de alta resolución, donde la información contextual y la forma de los objetos mejora la precisión de la clasificación.
Aunque en esta revisión de los procedimientos de clasificación de imágenes se incluyen en la misma familia, no son procedimientos idénticos.
Constituye una fase previa dentro de OBIA (aunque también puede usarse de forma independiente). Su objetivo es agrupar píxeles contiguos con características similares en objetos o segmentos homogéneos, considerando características espectrales, espaciales y texturales. No realiza directamente la clasificación temática: solo genera los objetos que luego se van a clasificar.Las herramientas típicas son algoritmos como multiresolución, watershed, quadtree o region growing.
Ejemplo: segmentar una imagen de satélite en polígonos de vegetación, suelo desnudo y agua, para luego etiquetarlos según la cobertura real.
Es un enfoque de clasificación que trabaja sobre objetos o segmentos ya predefinidos, no sobre píxeles individuales. Se puede decir que OBIA no existe sin segmentación, pero la segmentación por sí sola no es una clasificación temática, solo produce los objetos que se van a clasificar.
OBIA –> segmentación + análisis de atributos de los objetos + asignación de clases temáticas.
OBIA combina información espectral, espacial y textural de los objetos para clasificarlos, de ahí que se utilicen como criterios de clasificación la forma, el tamaño, la textura y contexto, además de los valores espectrales.
Ejemplo: en una imagen de alta resolución, un área de bosque puede ser un objeto y clasificarse considerando su densidad y textura, no solo su promedio espectral.
Resumen:
| Concepto | Qué hace | Cuándo ocurre | Ejemplo |
|---|---|---|---|
| Segmentación | Divide en objetos homogéneos | Antes de la clasificación | Detectar polígonos de bosque |
| Clasificación por objetos | Asigna categoría a cada objeto | Después de la segmentación | Clasificar los polígonos como bosque, cultivo, agua |
| Clasificación por píxeles | Asigna clase a cada píxel | Directamente sobre la imagen | Cada píxel clasificado como suelo urbano, agua, etc. |
El orden en el que se abordan estos procedimientos de clasificación va de los más sencillos a los más complejos:
Tras practicar estos tres métodos de clasificación basada en píxeles, el temario continuará con:
La evaluación de clasificaciones obtenidas mediante procedimientos de clasificación automática .
La representación y análisis de alguna de las clasificaciones obtenidas .
Finalmente, también se trabajarán los siguientes procedimientos de clasificación basados en objetos: