💡 OBJETIVOS DE LA UNIDAD:

Los objetivos básico son los siguientes:

► Entender los conceptos de resolución espacial, espectral y radiométrica.

► Comprender el papel de los diferentes tamaños de pixel y escala.

► Conocer diferentes tipos de imágenes.

💡 MATERIALES PARA LA ACTIVIDAD:

En esta unidad no son necesarios materiales adicionales.

INTRODUCCIÓN

En este capítulo introductorio también es conveniente definir algunos términos y conceptos fundamentales referidos a las imágenes proporcionadas por los sensores remotos.

En primer lugar, debe señalarse que la energía electromagnética se puede detectar fotográficamente o electrónicamente; por ello, es posible distinguir:

► Una imagen es cualquier representación pictórica, independientemente de qué longitudes de onda o dispositivo se haya utilizado para detectar y registrar la energía electromagnética.

► Una fotografía es una imagen obtenida utilizando un procedimiento fotográfico, el cual utiliza las reacciones químicas en la superficie de una película sensible a la luz para detectar y registrar las variaciones de energía, normalmente procedentes de la parte visible del espectro.

De acuerdo con esas definiciones, todas las fotografías aéreas son imágenes, pero no todas las imágenes son fotografías aéreas.

Las imágenes reproducen la energía electromagnética electrónicamente, mediante una serie de números en formato digital. El área escaneada se subdivide en pequeñas celdas de igual tamaño y forma, denominadas píxeles. El brillo relativo de cada píxel es representado por un valor numérico o Número Digital (ND). La cantidad de números digitales que se puede representar depende de la resolución radiométrica del sensor. Para un sensor con una resolución radiométrica de 8 bit los números digitales varían entre 0 y 255, siendo en la escala de grises el cero igual al color negro y el 255 igual al color blanco. La posición de cada píxel en la imagen satelital está determinada por un eje de coordenadas XYZ.

► X : Nº de columna de la matriz.

► Y : Nº de fila de la matriz.

► Z : Nivel digital (valor de intensidad de la escala de grises).

El ordenador, en consecuencia, representa gráficamente cada valor digital con diferentes niveles tonalidades. Estas dos formas diferentes de representar y mostrar datos, ya sea pictórica o digitalmente, son intercambiables ya que transmiten la misma información (aunque se pueden perder algunos detalles al convertir de un lado a otro). Las imágenes están confeccionadas como matrices, conformadas por un número determinado de pixeles; las dimensiones de cada píxel dependerán de la resolución espacial del sensor.

FIGURA 1: Número digitales y píxeles de una imagen
FIGURA 1: Número digitales y píxeles de una imagen

RESOLUCIÓN ESPACIAL, TAMAÑO DE PIXEL Y ESCALA

La distancia entre el objeto y la plataforma juega un papel importante en el tamaño de la porción de la superficie de la Tierra cuya información es recogida y del nivel de detalle de esa información, estando ambos aspectos inversamente relacionados. Las imágenes procedentes de sensores a bordo de las plataformas muy alejadas de la superfice terrestre (por ejemplo, los satélites) abarcan una superficie muy grande de la Tierra, pero no proporcionan un gran nivel de detalle; por su parte, las fotografías aéreas abarcan una superficie mucho menor, pero el nivel de detalle es muy elevado (por ejemplo las ortofotos más recientes del PNOA).

La relación entre la distancia en una imagen y la distancia real en tierra se conoce como escala. En un mapa con una escala de 1:100000, un objeto de 1 cm de largo en el mapa equivaldría en realidad a un objeto de 100000 cm (1 km) de largo en la realidad.

FIGURA 2: Nueva York desde un avión
FIGURA 2: Nueva York desde un avión
FIGURA 3: La península del Sinaí desde el Space Shuttle
FIGURA 3: La península del Sinaí desde el Space Shuttle

El nivel de detalle perceptible en una imagen depende de la resolución espacial del sensor. Con este término se hace referencia al tamaño de la característica más pequeña posible que se puede detectar. La resolución espacial de los sensores pasivos (veremos el caso especial de los sensores de microondas activos más adelante) depende principalmente de su campo de visión instantáneo (IFOV). El IFOV es el cono angular de visibilidad del sensor y determina el área en la superficie de la Tierra que se “ve” desde una altitud dada en un momento particular en el tiempo.

FIGURA 4: Campo de visión instantáneo
FIGURA 4: Campo de visión instantáneo

https://www.fao.org/3/t0355s/T0355S04.htm

El tamaño del área vista se determina multiplicando el IFOV por la distancia desde el suelo hasta el sensor. Este área se denomina celda de resolución y determina la resolución espacial máxima de un sensor. Para que se detecte un objeto determinado, su tamaño generalmente debe ser igual o mayor que la celda de resolución; si es más pequeño, es posible que no sea detectable ya que se registrará el brillo promedio de todos los objetos de esa celda. Sin embargo, a veces pueden detectarse si su reflectancia domina dentro de una celda.

Es importante distinguir entre el tamaño de píxel y la resolución espacial, ya que no son sinónimos. Si un sensor tiene una resolución espacial de 20 metros y una imagen de ese sensor se muestra a resolución completa, cada píxel representa un área de 20m x 20m. En este caso, el tamaño de píxel y la resolución son idénticos. Sin embargo, es posible mostrar una imagen con un tamaño de píxel diferente a la resolución; por ejemplo, muchas imágenes de satélite promedian sus píxeles para abarcar áreas más grandes, aunque la resolución espacial original del sensor es más alta (las imágenes en las que solo perciben objetos grandes tienen una baja resolución; las imágenes finas o de alta resolución distinguen objetos de pequeño tamaño). Los sensores militares, por ejemplo, están diseñados para ver tantos detalles como sea posible y, por lo tanto, tienen una resolución muy fina. Los satélites comerciales proporcionan imágenes con resoluciones que varían desde unos pocos metros hasta varios kilómetros. En términos generales, cuanto más fina es la resolución, menos área de terreno total se puede ver.

RESOLUCIÓN ESPECTRAL

Indica el número y anchura de las bandas espectrales que puede discriminar el sensor. Cuanto mayor sea esta resolución más información existirá del comportamiento de una misma cobertura en diferentes bandas espectrales.

En el Capítulo 1, aprendimos sobre la respuesta espectral y las curvas de emisividad espectral que caracterizan la reflectancia y/o la emitancia de una característica u objetivo en una variedad de longitudes de onda. Las diferentes clases de características y detalles en una imagen a menudo se pueden distinguir comparando sus respuestas en distintos rangos de longitud de onda. Las clases generales, como el agua y la vegetación, generalmente se pueden separar utilizando rangos de longitud de onda muy amplios, el visible y el infrarrojo cercano, como aprendimos en la sección 1.5. Otras clases más específicas, como diferentes tipos de rocas, pueden no ser fácilmente distinguibles utilizando cualquiera de estos amplios rangos de longitud de onda y requerirían una comparación en rangos de longitud de onda mucho más finos para separarlos. Por lo tanto, necesitaríamos un sensor con mayor resolución espectral. La resolución espectral describe la capacidad de un sensor para definir intervalos finos de longitud de onda. Cuanto más fino es resolución espectral, más estrecho es el rango de longitud de onda para un canal o banda en particular.

La película en blanco y negro registra longitudes de onda que se extienden sobre gran parte o la totalidad de la porción visible del espectro electromagnético. Su resolución espectral es bastante baja, ya que las diversas longitudes de onda del espectro visible no se distinguen individualmente y se registra la reflectancia general en toda la porción visible. La película en color también es sensible a la energía reflejada en la parte visible del espectro, pero tiene una resolución espectral más alta, ya que es individualmente sensible a la energía reflejada en las longitudes de onda azul, verde y roja del espectro. Por lo tanto, puede representar características de varios colores en función de su reflectancia en cada uno de estos distintos rangos de longitud de onda. Muchos sistemas de detección remota registran energía en varios rangos de longitud de onda separados en varias resoluciones espectrales. Estos se conocen como sensores multiespectrales y se describirán con cierto detalle en las siguientes secciones. Los sensores multiespectrales avanzados, llamados sensores hiperespectrales, detectan cientos de bandas espectrales muy estrechas en las porciones visible, del infrarrojo cercano y del infrarrojo medio del espectro electromagnético. Su resolución espectral muy alta facilita la discriminación fina entre diferentes objetivos en función de su respuesta espectral en cada una de las bandas estrechas.

FIGURA 5: Resolución espacial
FIGURA 5: Resolución espacial

RESOLUCIÓN RADIOMÉTRICA

Indica la medida en bits (dígitos binarios), es la gama de valores de brillo disponibles, que en la imagen se corresponden con el alcance máximo de DN; por ejemplo, una imagen con una resolución de 8 bits tiene 256 niveles de brillo (RICHARDS Y JIA, 2006).

En una imagen cada pixel, puede asumir una cantidad de valores específica, dependiendo de su resolución radiométrica, por ejemplo una imagen de 8bits, va a varias de 0 – 255 tonalidades de gris. La fórmula para determinar los nivels de gris es \(2^(número de bits) = niveles de gris\)

Mientras que la disposición de los píxeles describe la estructura espacial de una imagen, las características radiométricas describen el contenido de información real en una imagen. Cada vez que se adquiere una imagen en una película o por un sensor, su sensibilidad a la magnitud de la energía electromagnética determina la resolución radiométrica. La resolución radiométrica de un sistema de imágenes describe su capacidad para discriminar diferencias muy leves en la energía. Cuanto más fina sea la resolución radiométrica de un sensor, más sensible será para detectar pequeñas diferencias en la energía reflejada o emitida.

Los datos de imágenes están representados por números digitales positivos que varían de 0 a (uno menos que) una potencia seleccionada de 2. Este rango corresponde a la cantidad de bits utilizados para codificar números en formato binario. Cada bit registra un exponente de potencia 2 (por ejemplo, 1 bit=2 1=2). El número máximo de niveles de brillo disponibles depende del número de bits utilizados para representar la energía registrada. Por lo tanto, si un sensor usara 8 bits para registrar los datos, habría 28 = 256 valores digitales disponibles, con un rango de 0 a 255. Sin embargo, si solo se usaran 4 bits, entonces solo 24 = 16 valores con un rango de 0 a 15. estar disponible. Así, la resolución radiométrica sería mucho menor. Los datos de imagen generalmente se muestran en una gama de tonos grises, donde el negro representa un número digital de 0 y el blanco representa el valor máximo (por ejemplo, 255 en datos de 8 bits). Al comparar una imagen de 2 bits con una imagen de 8 bits, podemos ver que existe una gran diferencia en el nivel de detalle perceptible según sus resoluciones radiométricas.

FIGURA 6: Imagen de 4 bit
FIGURA 6: Imagen de 4 bit
FIGURA 7: Imagen 16 bit
FIGURA 7: Imagen 16 bit
FIGURA 8: Resolución radiométrica
FIGURA 8: Resolución radiométrica

RESOLUCIÓN TEMPORAL

Además de la resolución espacial, espectral y radiométrica, también es importante considerar el concepto de resolución temporal. Es el tiempo necesario para volver a visitar la misma zona de la Tierra (NASA, 2011). Se refiere a la periodicidad con la que éste adquiere imágenes de la misma porción de la superficie terrestre. El ciclo de cobertura está en función de las características orbitales de la plataforma (altura, velocidad, inclinación), así como del diseño del sensor. Ya se aludió a esta idea previamente, cuando se discutió el concepto de período de revisita, que se refiere al tiempo que tarda un satélite en completar un ciclo orbital completo. El período de revisión de un sensor satelital suele ser de varios días. Por lo tanto, la resolución temporal absoluta de un sistema de detección remota para obtener imágenes de la misma área exacta en el mismo ángulo de visión por segunda vez es igual a este período. Sin embargo, debido a cierto grado de superposición en las franjas de imágenes de órbitas adyacentes para la mayoría de los satélites y el aumento de esta superposición con el aumento de la latitud, algunas áreas de la Tierra tienden a ser re-imágenes con más frecuencia. Además, algunos sistemas satelitales pueden apuntar sus sensores para obtener imágenes de la misma área entre diferentes pases de satélite separados por períodos de uno a cinco días. Por lo tanto, la resolución temporal real de un sensor depende de una variedad de factores, incluidas las capacidades del satélite/sensor, la superposición de franjas y la latitud.

FIGURA 9: Resolución temporal
FIGURA 9: Resolución temporal

En cualquier caso, se suele distinguir 3 categorías:

► Alta resolución temporal: < 1 día - 3 días

► Media resolución temporal: 4 - 16 días

► Baja resolución temporal: > 16 días

La capacidad de recolectar imágenes de la misma área de la superficie de la Tierra en diferentes períodos de tiempo es uno de los elementos más importantes a la hora de trabajar con este tipo de información. Las características espectrales de los objetos situados sobre la superficie terrestre pueden cambiar con el tiempo, y estos cambios se detectan cuando se recopilan y comparan imágenes multitemporales. Al obtener imágenes de forma continua en diferentes momentos del tiempo, se pueden seguir los cambios que tienen lugar en la superficie de la Tierra, ya sea naturales (por ejemplo, en la cubierta vegetal o inundaciones) o inducidos por humanos (como cambios urbanos, deforestación etc…). Por ejemplo, durante la temporada de crecimiento, la vegetación cambia continuamente de estado, por lo que monitorear esos cambios depende de cuándo y con qué frecuencia se recogen las imágenes.

El factor tiempo en la obtención de imágenes es importante cuando:

► Las nubes persistentes ofrecen vistas claras limitadas de la superficie de la Tierra (a menudo en los trópicos)

► Los fenómenos de corta duración (inundaciones, mareas negras, etc.) necesitan ser fotografiados

► Se requieren comparaciones multitemporales (por ejemplo, la propagación de una enfermedad forestal de un año al siguiente)

► La apariencia cambiante de una característica a lo largo del tiempo se puede utilizar para distinguirla de características casi similares (trigo/maíz)

Tipos de imágenes

Imagen multiespectral (MS)

Imagen que lleva asociados varios valores numéricos a cada píxel, tantos como bandas espectrales sea capaz de detectar el sensor. A priori, es el tipo de producto más útil ya que nos proporciona, en cierto modo, la firma espectral de los distintos elementos presentes en la imagen. Es captada mediante un sensor digital que mide la reflectancia en muchas bandas.

IMAGEN 10: Imagen multiespectral del sensor TM (Landsat 5)
IMAGEN 10: Imagen multiespectral del sensor TM (Landsat 5)

Fuente. Felicisimo, Angel. (1994). Modelos Digitales del Terreno. Introducción y Aplicaciones en las Ciencias Ambientales.

Imagen pancromática (PAN)

Dispone de una sola banda espectral que abarca comúnmente gran parte del visible y comienzo del infrarrojo, obteniendo como resultado una imagen que habitualmente se representa en una escala de grises (imagen en blanco y negro). Como contrapartida, tienen la ventaja de poseer mayor resolución espacial que las multiespectrales que proporciona el mismo satélite. Es por ello que son muy interesantes para la detección de pequeños elementos de la superficie terrestre que no son distinguibles en la imagen multiespectral.

IMAGEN 11: Imagen pancromática
IMAGEN 11: Imagen pancromática

Fuente: https://eos.com/es/blog/bandas-landsat-8/

Imagen fusionada (Pan-Sharpened)

Este tipo de imagen se obtiene mediante la fusión de una imagen multiespectral con una pancromática. Básicamente, consiste en asignar a cada píxel de la imagen pancromática los valores procedentes de un algoritmo que combina la imagen pancromática con la multiespectral.

IMAGEN 12: Imagen fusionada
IMAGEN 12: Imagen fusionada

http://www.gisandbeers.com/pansharpening-mejorando-la-resolucion-de-imagenes-satelite/

Imagen estéreo

En realidad, se refiere a dos imágenes de una misma zona tomadas con ángulos de visión distintos. Muchos satélites tienen la capacidad de reorientar el sensor, lo que les permite tomar, en una o en sucesivas pasadas, este tipo de imágenes.

IMAGEN 13: Imagen esteréo
IMAGEN 13: Imagen esteréo

Fuente: Alamy