Los objetivos básico son los siguientes:
Revisar los principios básicos de la teledetección y los procesos de naturaleza física sobre los que descansa.
Conocer su evolución en el tiempo.
Iniciar al alumnado en el manejo de las herramientas y plataformas web para la adquisición y análisis de este tipo de información.
La teledetección (remote sensing) es una disciplina científica que integra un conjunto de conocimientos y tecnologías utilizados para la observación, el análisis y la interpretación de fenómenos terrestres y atmosféricos, a través de una aproximación multidisciplinar (Física, Matemáticas, Geografía). Aunque nacida en el s. XIX, los avances tecnológicos en telecomunicación y soporte informático han propiciado un desarrollo acelerado en las últimas décadas. Se basa en la recogida de información (mediciones, imágenes) obtenida con la ayuda de plataformas aéreas y espaciales.
La teledetección se puede definir como la ciencia capaz de obtener información sin contacto directo entre el “captador” y el “objetivo” (Martínez Vega y Martín Isabel, 2010). El término es relativamente nuevo, siendo acuñado en 1960 por Evelyn Pruitt, una geógrafa que trabajó profesionalmente dentro del Servicio Geográfico de US Navy.
La teledetección ofrece ciertas Ventajas pero también algunos inconvenientes:
Proporciona información sobre zonas inaccesibles y de gran extensión.
Las observaciones son repetibles, regulares y disponibles todo el año (son instrumentos específicos incluso cuando el cielo está cubierto o hay ausencia de luz solar (teledetección activa).
Permite estudios sobre la evolución temporal de sistemas por ejemplo, el deshielo en el Ártico a lo largo de varios años.
Sus observaciones no son invasivas: impacto mínimo sobre los objetivos.
Proporciona grandes volúmenes de datos que puede almacenarse digitalmente, cuantificables, interpretables y analizables por múltiples metodologías (estadísticas…).
Como desventajas cabe señalar:
Los costos totales de una misión satelital son muy elevados (sensores + plataforma + medio de transporte).
La mayoría de los sensores necesitan luz solar (teledetección pasiva): observaciones diurnas y sin nubes
Poca flexibilidad en la repetición de observaciones: intervalos fijos.
Conocimiento previo de la respuesta espectral de los objetos y de la variable física a estudiar: requiere una planificación y un desarrollo de sensores específicos, sin posibilidad de modificarse durante la misión (no puede regresar a la Tierra).
Difícil calibración de los sensores:
Los datos recopilados no suelen ser mediciones directas sino valores relativos (no absolutos) basados en algoritmos diseñados para aproximarse a la medición.
Necesidad de cálculos complejos (correcciones geométricas, etc.) que requieren un conocimiento experto para validar los datos obtenidos, primero sobre el terreno y, posteriormente, en los centros y puestos de tratamiento y análisis de la información satelital.
La política de datos y el costo de licencias para trabajar los datos suelen ser restrictivas y costosas.
La teledetección es costosa en términos de producción o adquisición de tecnología pero tiene ventajas sobre otros sistemas de observación (relación costo-beneficio).
Su evolución ha estado condicionada por cuatro factores:
Las plataformas que albergan esos sensores.
Los sensores que capturan la información.
Los dispositivos para la transmisión de la información.
Los métodos de análisis de dicha información
No obstante, sus antecedentes se remontan a casi 150 años atrás, y comienzan con el desarrollo de la fotografía aérea. Las primeras fotografías aéreas fueron tomadas a mediados del x. XIX, y durante los siguientes 50 años se asistió a numerosos avances tanto en el diseño de las cámaras como en el de las emulsiones de las películas, usando plataformas tan variadas como cometas, globos aerostáticos y palomas mensajeras. La mayoría eran imágenes oblicuas, utilizadas para reproducciones de vistas de las ciudades. Pero, al mismo tiempo, algunos militares y científicos reconocieron el potencial de la fotografía aérea como una herramienta de cartografía.
La Primera Guerra Mundial fue el momento en el que, por primera vez, la fotografía aérea fue utilizada a gran escala y de una manera sistemática, pues la observación casi en tiempo de real de los campos de batalla proporcionaba información para que los Estados Mayores anticiparan los movimientos del enemigo. Esta tarea implicó el diseño de nuevos tipos de cámaras y la creación de instalaciones para procesar un ingente número de fotografías. Tan importantes como los avances tecnológicos fue el desarrollo de técnicas de fotointerpretación, contando todos los ejércitos con un núcleo de personas con experiencia en la adquisición de fotografía aérea y en su utilización. Estos avances tecnológicos en los equipos fotogramétricos y en el personal a cargo permitió que, en los años veinte y treinta, la fotografía aérea vertical se convirtiera en una herramienta fundamental para la elaboración de todo tipo de cartografía.
La Segunda Guerra Mundial constituyó un nuevo hito en el desarrollo de la teledetección. La adquisición de información militar, mediante vuelos de reconocimiento, siguió siendo su principal utilidad, pero con un mayor nivel de sofisticación. Por ejemplo, la planificación de operaciones anfibias se benefició de la incorporación de las primeras imágenes en color, cuya capacidad de penetración en el agua era mucho mayor que de blanco y negro, supliendo la falta de información de la batimetría y de los materiales del fondo marino durante los desemarcos. De hecho, la primera película infrarroja de color fue también desarrollada durante la guerra para detección de camuflaje.
Durante la Segunda Guerra Mundial también se aceleró el desarrollo de otras técnicas de detección, como el radar. Aplicado al principio como sistema de alerta temprana para la detección de aviones, los voluminosos equipos iniciales fueron reemplazados por otros mucho más pequeños y diseñados para cubrir necesidades específicas. Por ejemplo, los radares indicadores de la posición (PPI) proporcionaban una imagen del terreno debajo de la aeronave, independientemente de las condiciones atmosféricas o de la disponibilidad de luz diurna, siendo utilizado para la detección de objetivos durante misiones de bombardeo nocturno o a gran altitud, a través de las nubes.
En los años cincuenta las imágenes térmicas infrarrojas, que proporcionaban una “película de calor” de objetos o terrenos, se popularizaron, ya no dependían de la iluminación del objeto, si bien, a diferencia de los radares, eran incapaces de “ver” a través de las nubes. Otro avance tecnológico relevante fue el desarrollo de los radares aéreos de observación lateral (SLAR), para mejorar las imágenes relativamente bastas producidas por el radar PPI. Ambos sistemas, originalmente diseñados para uso militar, no estarían disponibles para civil hasta mucho más tarde.
El lanzamiento del Sputnik 1 por la U.R.S.S en 1957 marcó el principio de la “era espacial”, y en seguida los satélites comenzaron a proporcionar imágenes de la Tierra vista desde el espacio con un gran nivel de detalle. Misiones posteriores transportaron cámaras cada vez más sofisticadas y equipos diseñados específicamente para la adquisición de imágenes orientadas a la evaluación de recursos naturales.
Por su parte, las misiones tripuladas, aunque reforzaron el valor de las imágenes espaciales, fueron generalmente de corta duración y no proporcionaron una cobertura global uniforme. Sus limitaciones fueron ampliamente superadas con el desarrollo de los satélites de recursos terrestres tales como la serie LANDSAT. Operando en una órbita menor que los satélites meteorológicos, LANDSAT y sistemas posteriores similares, han proporcionado un gran detalle espacial, aunque su cobertura temporal es menos frecuente.
Hoy en día, las aeronaves continúan jugando un gran papel dada su flexibilidad en términos de altitud, programación y complementación de sensores. De hecho, es frecuente que sean utilizadas para probar diseños de sensores antes de que sean instalados en satélites. Dependiendo de los requerimientos de información de los usuarios y de los recursos disponibles, las aeronaves utilizadas oscilan desde pequeñas avionetas que vuelan a baja altura, hasta reactores para vuelos de gran altitud.
Otro aspecto del que se ha beneficiado la teledetección es el progreso en la informática, tanto en hardware como en software. De particular interés es todo lo referido a las técnicas de procesamiento digital desarrolladas para análisis de datos. Existen programas disponibles para corrección geométrica, realce de imágenes y extracción cuantitativa de datos. A su vez, la velocidad de los nuevos equipos informáticos permite a un único operador realizar análisis de datos de grandes áreas geográficas en mucho menos tiempo que sus predecesores.
Grandes hitos de la teledetección
Fecha | La fotografía aérea |
---|---|
1800 | Descubrimiento del infrarrojo por Sir William Herschell |
1839 | Inicios de la práctica de la fotografía |
1847 | A.H.L. Fizeau desvela el espectro infrarrojo y J.B.L. Foucault muestra sus propiedades compartidas con el espectro visible |
1859 | La superficie terrestre fue fotografiada desde un globo por Gaspard Tournachin |
1909 | Wilburg Wright tomó la primera fotografía de la superficie terrestre desde un avión |
1915 | J.T.C. Moore-Brabazon desarrolló la primera cámara aérea diseñada para ser accionada desde un avión |
1945 | Comenzaron a utilizarse las primeras películas en infrarrojo, desarrolladas por Kodak. Introducción de nuevos sensores como el radar |
Fecha | Las imágenes de satélite |
---|---|
1957 | Lanzamiento del primer satélite artificial, el Sputnik, desde la antigua URSS |
1960 | Puesta en órbita por la NASA del primer satélite de observación de la Tierra, TIROS-1, pionero de la investigación meteorológica desde el espacio |
1961 | Alan B. Shepard toma las primeras fotografías de la Tierra desde el espacio durante una de las misiones Mercury |
1972 | Puesta en órbita del primer satélite de la serie ERTS (Earth Resources Technology Satellite), rebautizada Landsat desde 1975 |
1981 | Lanzamiento del transbordador espacial Space Shuttle (45.000 fotografías espaciales, de dominio público) |
1986 | Francia, en colaboración con Bélgica y Suecia, lanzó el satélite SPOT (Système Pour l’Observation de la Terre) |
1991 | La Agencia Espacial Europea (ESA) lanzó su primer satélite de teledetección, el ERS-1 (European Remote Sensing Satellite) |
1995 | La Agencia Espacial Europea (ESA) lanzó el segundo satélite de esta serie, el ERS-2 |
1999 | Se lanza el satélite Ikonos-2, con 1 metro de resolución espacial. La NASA lanza el satélite Terra (parte del ambicioso programa EOS, Earth Observing System, un sistema de observación global de la Tierra) |
2002 | Se pone en órbita el satélite AQUA (parte del ambicioso programa EOS) |
2009 | Deimos Imaging (DMI) (España) lanza, con éxito, el primer satélite de observación de la Tierra, Deimos-1. La ESA (Agencia Espacial Europea) lanzael 2 de noviembre de 2009, el satélite SMOS |
2017 | Planet Labs (EE. UU.) lanza 48 satélites DOVE Flock-2k para la observación de la Tierra |
En las siguientes líneas se describirán los principios físicos de la teledetección y se introducirá al lector en los sistemas y técnicas de análisis en mayor detalle.
Es una palabra compuesta en la que el prefijo “tele” implica recopilación de datos a distancia, razón por la que el término teledetección se utiliza comúnmente como sinónimo de imágenes de satélite. Sin embargo, el términe debería aplicarse también a la fotografía aérea, a datos lidar etc… si bien esta opinión no es general.
Una primera definición es “el conjunto de metodologías que permiten identificar, medir y analizar las características de objetos de interés sin establecer con ellos ningún contacto directo” (JARS, 1993). Otra definición puede ser la de “proceso de detección y monitoreo de las características físicas de un área midiendo su radiación reflejada y emitida a distancia” (USGS 2019).
La teledetección se basa en la medición de la radiación electromagnética utilizando diferentes sensores remotos (es decir, sensores que no están en contacto directo con los objetos que emiten esa energía), normalmente transportados por vehículos que se desplazan dentro (globos, aviones, helicópteros … ) o fuera de la atmósfera terrestre (satélites, estaciones orbitales, naves espaciales … ).
El uso de la información proporcionada por estos sensores remotos se realiza en dos fases:
La fase inicial o de obtención de la información.
La fase posterior, o de análisis de la información.
La primera fase requiere una serie de elementos que conforman un sistema de teledetección (Chuvieco, 1996):
Fuente de energía: el primer requisito es disponer de una fuente que proporcione radiación electromagnética. La principal fuente de energía natural es el sol, a la que se han añadido en los últimos decenios otras fuentes artificiales, sin que existan diferencias físicas significativas entre ambas. Otra diferenciación adicional es la que separa las fuentes de energía pasiva, como la luz solar, que no provienen del sensor, o activa, cuando es emitida primero y captada posteriormente por el mismo sensor (el radar).
La atmósfera: a medida que la energía viaja desde su fuente hasta el objetivo, atraviesa la atmósfera e interactúa con ella; cuando la energía vuelve desde el objetivo hasta el sensor se vuelve a producir una nueva interacción. A causa de la composición gaseosa de la atmósfera, la radiación electromagnética es reflejada, absorbida o reemitida.
La superficie terrestre y sus diferentes elementos (suelo, agua, vegetación, construcciones …): una vez que la energía alcanza la superficie terrestre también interactúa con ella según sus propiedades y las de la radiación, reflejando, absorbiendo o emitiendo energía.
Los sistemas sensores: comprenden el sensor propiamente dicho (cámaras, radar, etc.) y la plataforma que lo alberga (satélite, avión, globo). Su misión es captar la energía electromagnética proveniente de los objetos y almacenarla o enviarla directamente al sistema de recepción.
Sistema de recepción-comercialización: la energía registrada por el sensor debe transmitirse, a menudo en forma electrónica, a una estación de recepción y procesamiento donde los datos se procesan, se transforman en una imagen (copia impresa y/o digital), se guardan en un formato apropiado y se distribuyen entre los usuarios.
La obtención de la información constituye una labor fundamentalmente técnica, mientras que la correspondiente a su análisis e interpretación es una tarea de carácter multidisciplinar que comprende:
La interpretación y análisis de la información, que convierte las imágenes originales en información temática (agricultura, forestal, geografía, catastro, medio ambiente, militar, etc.), y en la que se pueden emplear tanto técnicas tradicionales (análisis visual) como otras basadas en un tratamiento informático. Esta fase puede complementarse con trabajos de campo, para clarificar aquellos aspectos no resueltos mediante el análisis de las imágenes.
Usuario final: como beneficiario de la fase anterior se encarga de decidir las consecuencias que derivan de todo el proceso.
La teledetección se fundamenta en el electromagnetismo, definido como la fuerza que une grupos de átomos para formar moléculas. Cada material de la superficie terrestre (vegetación, rocas, minerales, fauna, etc.) está compuesto por distintas moléculas y estructuras, con características electromagnéticas diferentes. Entre ellos se encuentran los electrones, que ocupan órbitas o capas discretas rodeando al núcleo y cuyo número está determinada por la carga eléctrica del núcleo, que a su vez se debe a la cantidad de protones de ese núcleo. Cuando un electrón se traslada desde una órbita externa a una interna emite un fotón, cuya longitud de onda viene determinada por las órbitas que atraviesa el electrón.
La observación remota es posible debido a la interacción de la energía electromagnética con los objetos de la superficie terrestre.
El primer requisito básico para desarrollar cualquier actividad relacionada con la teledetección es disponer de una fuente de energía. Esta energía es emitida en forma de radiación electromagnética. La radiación electromagnética es una forma de energía que se propaga mediante ondas (onda electromagnética) que se desplazan por el espacio a la velocidad de la luz (300.000 km/s) transportando cantidades discretas de energía (cuantos). A diferencia de otros tipos de onda (sonido), la radiación electromagnética no necesitan un medio material para propagarse (se puede propagar en el vacío). Se caracteriza por longitudes de onda muy diferentes, y éstá longitud de onda condiciona su comportamiento.
El estudio de la radiación EM se aborda desde la física a través de dos teorías: la teoría ondulatoria y la teoría cuántica. Tradicionalmente, estas dos teorías fueron consideradas “contrapuestas”. Actualmente, son consideradas complementarias: se considera que la radiación EM posee una naturaleza dual, corpuscular y ondulatoria.
La teoría ondulatoria, atribuida al físico holandés Christian Huygens (1629-1695), fue propuesta en 1873 por JC Maxwell (1831-1879). La radiación electromagnética es una forma de energía causada por la excitación de una carga eléctrica, que se manifiesta únicamente cuando interactúa con la materia. La radiación electromagnética consiste en un campo eléctrico que varía en magnitud perpendicularmente a la dirección en la que viaja, y un campo magnético orientado perpendicularmente al anterior. Ambos campos viajan a la velocidad de la luz. La radiación EM se propaga en forma de ondas.
Dos conceptos son particularmente importantes para entender la teledetección: la longitud de onda y la frecuencia.
La longitud de onda es la longitud de un ciclo de onda, medida como la distancia entre dos crestas sucesivas de una onda. La longitud de onda generalmente se representa con la letra griega lambda (\(\lambda\)), y se mide en unidades de longitud, tales como metros (m) o en alguno de sus submúltiplos como nanómetros (nm, 10-9 metros) o micrómetros (\(\mu m\), 10-6 metros).
La frecuencia hace referencia al número de ciclos de una onda que pasa por un punto fijo por unidad de tiempo. La frecuencia normalmente se mide en hercios (Hz), equivalente a un ciclo por segundo.
La longitud de onda y la frecuencia están relacionadas por la siguiente fórmula: \(c = \lambda* V\) siendo
\(c\) = velocidad de la luz. \(\lambda\) = longitud de onda. \(V\) = frecuencia
Por lo tanto, ambas características están inversamente relacionadas: cuanto más corta es la longitud de onda, mayor la frecuencia y viceversa.
La teoría ondulatoria no explica completamente algunos fenómenos de interacción entre la radiación EM y la materia. En estos casos, se utiliza la teoría cuántica, formulada por Max Planck, que explica la radiación EM absorbida y emitida en la forma de paquetes discretos o cuantos; a su vez, la energía de cada cuanto depende de la frecuencia de las ondas, según la siguiente fórmula: \(Q = h * f\) siendo
\(Q\) = la cantidad de energía de una onda (cuantos). \(h\) = es una constante (la constante de Planck, equivalente a 6.626x10-34 J/s). \(f\) = frecuencia
Si despejamos la frecuencia (F) queda la siguiente expresión: \(Q = h * (c\lambda)\)
Según esta expresión:
Las ondas electromagnéticas de alta frecuencia tienen una longitud de onda corta y mucha energía
Las ondas de baja frecuencia tienen grandes longitudes de onda y poca energía (dificultad para detectar dichas radiaciones.
Al campo completo de la radiación electromagnética se le conoce como espectro electromagnético. Este abarca desde las longitudes más cortas (por ejemplo, rayos gamma y rayos X, letales para los seres vivos) hasta las más largas (incluidas las microondas y las ondas de radiodifusión).
Fuente:
Wikipedia (https://commons.wikimedia.org/wiki/File:EM_Spectrum_Properties_es.svg)
Este campo se subdivide a su vez en bandas (a veces también llamada región), longitudes de onda con características similares. Sólo ciertas bandas del espectro electromagnético son utilizadas habitualmente en teledetección:
La banda ultravioleta o UV es útil ya que algunos materiales de la superficie de la Tierra, principalmente rocas y minerales, emiten fluorescencia o luz visible cuando se iluminan con radiación ultravioleta.
El banda visible (0.4 - 0.7 \(\mu m\)) lo constituye el rango de frecuencias que es percibido por el ojo humano. Esta circunstancia explica el uso de la teledetección: mucha de la radiación existente es invisible para nuestros ojos, pero puede ser detectada por otros instrumentos.
La siguiente porción del espectro de interés es la banda infrarroja (IR), que cubre el rango de longitud de onda de aproximadamente 0,7 \(\mu m\) a 14. Esta región se puede dividir en dos categorías:
El IR reflejado o infrarrojo cercano o próximo, que abarca longitudes de onda desde aproximadamente 0,7 \(\mu m\) hasta 3,0 \(\mu m\) y se utiliza de manera muy similar a la radiación visible.
El IR emitido o IR térmico equivale a la radiación que se emite desde la superficie de la Tierra en forma de calor. El IR térmico cubre longitudes de onda desde aproximadamente 3,0 \(\mu m\) hasta 14 \(\mu m\).
La porción del espectro de interés más reciente para la teledetección es la región de microondas, que cubre las longitudes de onda más largas utilizadas para la detección remota (desde aproximadamente 1 mm hasta 1 m). Estas longitudes de onda tienen la particularidad de atravesar sin dificultad las nubes y penetrar ligeramente en la superficie terrestre.
Región Espectral (bandas) | Longitud de onda (\(\lambda\)) | Características |
---|---|---|
Rayos Gamma | < 0,03 nm | Radiación absorbida por la alta atmósfera. No se usa en teledetección |
Rayos X | 0,03 - 30 nm | Radiación absorbida por la atmósfera. No se usa en teledetección |
Ultravioleta | 0,03 - 0,4 \(\mu m\) | La radiación con \(\lambda\) <0,3 \(\mu m\) es absorbida por la capa de ozono |
Visible (azul, verde y rojo) | 0,4 - 0,7 \(\mu m\) | Detectada a través de fotodetectores y películas fotosensibles normales (color y B/N) |
Infrarrojo Próximo | 0,7 - 1,3 \(\mu m\) | Discrimina masas vegetales y concentraciones de humedad. |
Infrarrojo Medio | 1,3 - 8 \(\mu m\) | Estimación del contenido de humedad en la vegetación y detección de focos de alta temperatura |
Infrarrojo Térmico | 8 - 14 \(\mu m\) | Detecta el calor proveniente de la mayor parte de la cubierta terrestre |
Micro-Ondas | 0,1 - 100 cm | Radiación de grandes longitudes de onda, capaces de penetrar nubes, nieblas y lluvia |
Ondas de Radio | > 100 cm | Radiación con las mayores longitudes de onda del espectro. Usada en telecomunicaciones |
La principal fuente de radiación electromagnética que alcanza la superficie terrestre es el Sol. Es conocida como radiación solar, y se propaga en todas las direcciones a través del espacio mediante ondas electromagnéticas. Se genera a partir de las reacciones del hidrógeno en el núcleo del sol mediante fusión nuclear. Para conocer la cantidad de radiación emitida por el sol y su espectro electromagnético es necesario acudir a ciertas leyes físicas.
Todo cuerpo con temperatura superior al cero absoluto (-273,15ºC) genera y emite energía en forma de radiación. Un cuerpo que absorbe toda la radiación que le llega y emite la máxima cantidad de energía posible a una temperatura determinada se denomina cuerpo negro. En la naturaleza no existe un cuerpo negro perfecto pero algunas superficies se acercan a esta condición (especialmente para radiaciones de onda larga); es en realidad un concepto útil para la formulación de leyes físicas a través de la comparación entre objetos. La emisión de radiación electromagnética por un cuerpo negro sigue las leyes de Planck y Stefan-Boltzmann.
El espectro electromagnético de un cuerpo negro que se calienta a una temperatura T responde a la siguiente ecuación:
\(Q_{0λ}(T) = C^{1} / λ^{5}(e^{C2/λT}−1)\)
\(Q_{0λ}(T)\) : emisión según la longitud de onda [W/m2]
\(\lambda\): longitud de onda [m]
T: temperatura absoluta [ºK]
\(C^{1}\): 1ª cte. radiación (3,7418·10-16 [W m2])
\(C^{2}\): 2ª cte. radiación (1,4388·10-2 [m ºK])
El resultado es que el espectro electromagnético teórico, es decir la emisión potencial de radiación electromagnética, abarca una amplia gama de longitudes de onda.
Además, de esta ley se deduce también cuál es la longitud de onda con máxima potencia emisiva (Ley de Wien)
\(λ_{pico} T= 2.898⋅10^{−3}m⋅k\)
El flujo total de energía radiante emitida por un cuerpo negro a una temperatura absoluta \(T\) se establece integrando la distribución de Planck para todas las longitudes de onda (Ley de Stefan-Boltzmann): el flujo de radiación es directamente proporcional a su temperatura absoluta elevada a la cuarta potencia.
siendo \(σ = 5.67·10^{-8}\) [W/m2 ºK4] la constante de Stefan-Boltzmann
Resolviendo esa ecuación para una temperatura solar de 5800 K, la energía total emitida por el sol es de aproximadamente 64 millones \(W/m^{2}\), de la cual, la Tierra solo intercepta 1367 \(W/m^{2}\) (la constante solar).
Si bien tanto la Tierra como el Sol emiten radiación, la diferente temperatura de ambos cuerpos celestes determina que el Sol [6000 °K, 5727 °C] emita la mayor parte de su energía en longitudes de onda inferiores a 1,5µm, con un máximo de emisión en la región del espectro visible (alrededor de las 0.5 µm). Por el contrario, la Tierra, mucho más fría (288 °K), emite casi toda su energía entre los 5 y 35 µm, con un pico de intensidad máxima en la región del infrarrojo alrededor de las 10 µm. Es decir, que el Sol emite en longitudes de onda más cortas (radiación de onda corta), mientras que la Tierra emite en longitudes de onda más largas que el Sol (radiación de onda larga).
De acuerdo con la figura situada a la izquierda, el área amarilla representaría el espectro de radiación solar que teóricamente alcanza el tope de la atmósfera, donde el punto más alto de la curva representa la longitud de onda con la mayor energía espectral (0,5mm, equivalente a 500nm) de acuerdo con la Ley de Wien; el área bajo la curva representa la cantidad total de energía recibida (1367 W/m2). Finalmente, el área roja constituye el espectro de la radiación solar a nivel marino para condiciones de cielo claro, después de la absorción atmosférica debida a diferentes gases: la radiación de longitud de onda menor que 0,2 mm es absorbida en la atmósfera por el oxígeno molecular (\(O_{2}\)), ozono (\(O_{3}\)), y el vapor de agua (\(H_{2}O\)).
Una de ellas corresponde a la luz visible (0,4-0,7 micrómetros), que coincide con los colores rojo, verde y azul, y se conoce como espectro visible, y a algunas radiaciones infrarrojas y ultravioletas, lo que se conoce como región óptica del espectro o espectro fotográfico. Cuando la energía de esta región llega a la atmósfera lo hace en forma de luz blanca, compuesta por varias longitudes de onda, principalmente en las porciones ultravioleta, visible e infrarroja del espectro.
Cuando se separa la luz visible en sus diferentes componentes, el resultado son los colores primarios: el azul (0,4-0,5 micrómetros), el verde (0,5-0,6 micrómetros) y el rojo (0,6-0,7 micrómetros). Se definen como “primarios” porque no se puede crear un color primario a partir de los otros dos, pero todos los demás colores sí se forman combinando los primarios en diferentes proporciones. Cuando un objeto refleja más cantidad de alguna longitud de onda determinada el ojo humano lo ve con el color correspondiente: los objetos violetas son los que reflejan principalmente luz con longitud de onda entre 0,395-0,435 micrómetros; los azules entre 0,435-0,500, los verdes entre 0,500-0,570, los amarillos entre 0,570-0,595, los naranjas entre 0,595-0,625 y los rojos entre 0,625-0,740).Por ejemplo, la nieve es blanca porque refleja toda la gama del espectro visible de una forma uniforme.
Fue Newton el que, en 1666, observó que cuando la luz blanca atravesaba un prisma de cristal se separaban las bandas de las distintas longitudes de onda y se descomponía en una gama de colores que iban desde el violeta (longitudes más cortas) al rojo (longitudes más largas).
Del total de energía que llega a la atmósfera, aproximadamente el 50% alcanza la superficie terrestre. Una parte es reflejada por los objetos situados en la superficie (incluida una fracción de la banda del infrarrojo, conocida como infrarrojo reflejado o cercano) y el resto es absorbida por la propia superficie y transformada en calor de baja intensidad, que será emitida de nuevo hacia la atmósfera en forma de energía infrarroja térmica, cuya longitud de onda abarca de los 3 a los 15 micrómetros. Téngase en cuenta que, en comparación con la radiación terrestre, sólo detectable durante el día, la radiación terrestre se emite día y noche.
Los mecanismos atmosféricos que influyen en la radiación solar durante su trayectoria atmosférica son la dispersión y la absorción. Estos mecanismo actúan de manera de manera selectiva (es decir, dependiendo de la longitud de onda). Los componentes de la atmósfera que intervienen en mecanismos son el oxígeno (\(O^{2}\)), el nitrógeno (\(N^{2}\)), el ozono (\(O^{2}\)), el vapor de agua (\(H_20\)) y el anhídrido carbónico (\(CO_2\)).
La dispersión ocurre cuando las partículas o grandes moléculas de gas presentes en la atmósfera (principalmente los aerosoles y el vapor de agua) modifican la radiación electromagnética. La magnitud de la dispersión atmosférica depende de varios factores, incluida la longitud de onda de la radiación, la abundancia de partículas o gases y la distancia que recorre la radiación a través de la atmósfera. Hay 3 tipos de dispersión.
La difusión de Mie se activa cuando las partículas tienen aproximadamente el mismo tamaño que la longitud de onda de la radiación. El polvo, el polen, el humo y el vapor de agua son causas comunes de la dispersión de Mie, que tiende a afectar longitudes de onda más largas. La dispersión de Mie ocurre principalmente en las porciones más bajas de la atmósfera, donde las partículas más grandes son más abundantes, y domina cuando hay muchas nubes.
El último mecanismo de dispersión importante se denomina dispersión no selectiva. Ocurre cuando las partículas son mucho más grandes que la longitud de onda de la radiación, por ejemplo las gotas de agua y las partículas grandes de polvo. La dispersión no selectiva recibe su nombre del hecho de que todas las longitudes de onda se dispersan por igual. Este tipo de dispersión hace que la niebla y las nubes parezcan blancas a nuestros ojos porque la luz azul, verde y roja se dispersan en cantidades aproximadamente iguales (luz azul+verde+roja = luz blanca).
Una consecuencia de los procesos de dispersión atmosférica es que la reflexión, para los sensores situados en la atmósfera, supone un aporte adicional de energía. Los sensores no sólo registran la energía reflejada por los objetos de la superficie terrestre no afectados por la dispersión atmosférica, sino también la energía que, tras llegar a la superficie y ser reflejada, ha sido dispersada por la atmósfera sin haber alcanzado la Tierra. Este aporte adicional de energía produce un efecto de bruma que reduce la visibilidad, y en el caso de las imágenes, ocasiona una pérdida de nitidez y contraste en las fotos en blanco y negro y una acentuación de los tonos azulados en las de color.
La absorción es el otro mecanismo de interacción entre la radiación electromagnética y la atmósfera. La absorción atmosférica filtra algunas ondas electromagnéticas que alcanzan a continuación la superficie terrestre, concretamente aquellas que, por su longitud, pasan a través de la atmósfera aprovechando las ventanas atmosféricas. El ozono, el dióxido de carbono y el vapor de agua son los tres componentes atmosféricos principales que absorben la radiación (aproximadamente el 16 % de la incidente), aunque de forma selectiva.
El ozono absorbe la radiación ultravioleta del Sol (dañina para la mayoría de los seres vivos). Sin esta capa protectora en la atmósfera, nuestra piel se quemaría expuesta a la luz solar.
El dióxido de carbono es uno de los gases de efecto invernadero más importante. Esto se debe a que tiende a absorber la radiación en el infrarrojo lejano, una región del espectro que atrapar el calor de la superficie terrestre dentro de la atmósfera.
Finalmente, el vapor de agua absorbe gran parte de la radiación entrante de onda corta e infrarroja de onda larga (entre 22 \(\mu m\) y 1 m).
Debido a que estos gases absorben la energía electromagnética en regiones muy específicas del espectro (por ejemplo, la acción sobre las longitudes de onda más largas > 0,6 centímetros es mínima), determinan en qué región del espectro se debe “mirar” para usar los diferentes procedimiento de teledetección.
La radiación que no es absorbida ni dispersada en la atmósfera alcanza e interactua con la superficie de la Tierra. Hay tres formas de interacción que pueden tener lugar cuando la energía incide sobre la superficie, según la longitud de onda de la energía y las características del objeto:
La teledetección se basa en la medición de la radiación reflejada por los objetos y superficies. Hay dos tipos de reflexión:
Cuando una superficie es lisa, obtenemos un reflejo especular, similar a un espejo en el que toda (o casi toda) la energía se aleja de la superficie en una sola dirección.
La reflexión difusa ocurre cuando la superficie es rugosa y la energía se refleja casi uniformemente en todas las direcciones.
La mayoría de los objetos y superficies se encuentran en algún lugar entre objetos reflectores perfectamente especulares o perfectamente difusos. Si un objeto en particular se refleja de forma especular o difusa, o en algún punto intermedio, depende de la rugosidad de la superficie y de las longitudes de onda de la radiación entrante. Si las longitudes de onda son mucho más pequeñas que las variaciones de la superficie o los tamaños de las partículas que forman la superficie, dominará la reflexión difusa. Por ejemplo, la arena de grano fino parece bastante suave para las microondas de longitud de onda larga, pero bastante áspera para las longitudes de onda visibles.
Al medir la diversidad de longitudes de onda de la energía reflejada (o emitida) por cualquier objeto en la superficie de la Tierra, se puede reconstruir la respuesta o firma espectral de dicho objeto. La firma espectral es el perfil de radiancia emitida por los diferentes elementos de la superficie de la tierra. Este perfil es el resultado de unir el porcentaje de radiación reflejada más el porcentaje de la absorbida más el porcentaje de la transmitida. Cada superficie interactúa con la radiación de una manera diferente, absorbiendo unas longitudes de onda y reflejando otras, comportamiento que ayuda a diferenciar los distintos tipos de superficies, como por ejemplo el agua, el suelo o la vegetación, sin necesitad de entrar en contacto con ellos (es decir, constituye el fundamento de la teledetección).
Un par de ejemplos muestran que, dependiendo de la naturaleza y composición del objeto que se está analizando y las longitudes de onda de la radiación involucrada, se observan respuestas muy diferentes a los mecanismos de absorción, transmisión y reflexión.
Hojas: la clorofila de las hojas de las plantas absorbe la radiación en las longitudes de onda rojas y azules pero refleja el verde. Las hojas parecen “más verdes” en verano cuando el contenido de clorofila es máximo; en otoño, al haber menos clorofila en las hojas, hay menos absorción y, proporcionalmente, más reflexión de las longitudes de onda rojas, lo que hace que las hojas se vean rojas o amarillas (el amarillo es una combinación de longitudes de onda rojas y verdes). La estructura interna de las hojas sanas actúa como un excelente reflector difuso de las longitudes de onda del infrarrojo cercano. Si nuestros ojos fueran sensibles al infrarrojo cercano, los árboles parecerían extremadamente brillantes en estas longitudes de onda. De hecho, medir y monitorear la reflectancia del IR cercano es una forma en que los científicos pueden determinar cuán saludable (o no saludable) puede ser la vegetación.
Agua: absorbe la radiación visible e infrarroja cercana de longitud de onda más larga frente a las longitudes de onda visibles más cortas. Por eso, el agua tiene un colorz azul o azul verdoso, debido a la mayor reflectancia en estas longitudes de onda más cortas, pero más oscuro si absorbe longitudes de onda rojas o infrarrojas cercanas. Si hay sedimento en suspensión presente en las capas superficiales del cuerpo de agua, mostrará mejor reflectividad y una apariencia más brillante. El color aparente del agua mostrará un ligero cambio a longitudes de onda más largas. El sedimento en suspensión se puede confundir fácilmente con agua poco profunda (pero clara), ya que estos dos fenómenos parecen muy similares. La clorofila en las algas absorbe las longitudes de onda azules y refleja el verde, lo que hace que el agua parezca más verde cuando hay algas presentes. La topografía de la superficie del agua (materiales ásperos, lisos, flotantes, etc.) también puede generar complicaciones para la interpretación relacionada con el agua debido a problemas potenciales de reflexión especular y otras influencias en el color y el brillo.
Al comparar las características de la firma espectral es posible distinguir diferentes objetos de una mnaera más precisa que si sólo se compara una única longitud de onda. Por ejemplo, el agua y la vegetación reflejan de manera similar las longitudes de onda visibles, pero casi siempre son separables en el infrarrojo. La respuesta espectral puede ser bastante variable, incluso para el mismo tipo de objetivo, y también puede variar con el tiempo (por ejemplo, el “verdor” de las hojas), la ubicación etc… Saber dónde “mirar” espectralmente y comprender los factores que influyen en la respuesta espectral son fundamentales para interpretar correctamente la interacción de la radiación electromagnética con la superficie.
Un concepto que deriva de este conjunto de procesos es el de reflectancia. La energía incidente sobre cualquier elemento de la superficie terreste (E_i) es igual a \(E_a\) + \(E_t\) + \(E_r\), es decir, a la suma de la fracción de la energía electromagnética absorbida por ese elemento (\(E_a\)), la transmitida al resto de elementos en contacto con él (\(E_t\)) y a la reflejada por ese elemento (\(E_r\)). Aproximadamente el 51 % de la radiación de onda corta que llega a la atmósfera alcanza la superficie terrestre (\(E_i\)), y, de ella, el 4 % es reflejada (\(E_r\)) y el 47 % es absorbida (\(E_a\) + \(E_t\)), para ser posteriormente reemitida en forma de longitudes de onda larga (infrarrojo térmico). La relación entre \(E_i\) y \(E_r\) es la reflectancia. La reflectancia de cada objeto varía según la longitud de onda de la energía incidente, y la cantidad de energía reflejada por los objetos en un intervalo de longitud de onda concreto se conoce como albedo o reflectancia espectral, expresada normalmente en porcentajes. De esta manera, si disponemos de la reflectancia que corresponde a una serie de longitudes de onda, obtendremos un conjunto de valores que se ordenan siguiendo una curva llamada curva de reflectancia espectral que muestra en dos dimensiones la intensidad de radicación de cada elemento en función de la longitud de onda.
Los apartados anteriores han estado orientados a la descripción de todos aquellos conceptos necesarios para comprender los diversos procedimientos que fundamentan la obtención remota de información espacial, cubriéndose los primeros componentes de esse proceso (fuente de energía e interacciones con la atmósfera, con la superficie terrestre y con los objetos en ella existentes). A continuación se analizarán con más detalles las características de los sensores y de las plataformas que los portan, así como los datos que recopilan. También se revisará cómo se procesa la información, una vez registrada en el sensor.
La primera condición para que un sensor registre correctamente la energía reflejada de forma remota debe estar instalado en una plataforma estable, de la que existen numerosas opciones: un globo, un avión, un satélite etc… Los sensores terrestres registran información más detallada de la superficie terrestre en comparación con la recopilada de los sensores aerotransportados. Por ello, se suelen usar para caracterizar de una manera más detallada los objetos que están siendo evaluados por otros sensores, facilitando su reconocimiento y caracterización. Estos sensores se pueden colocar en una escalera, un andamio, un edificio alto, un camión grúa, una grúa, etc.
Los sensores aerotransportados, también conocidos como plataformas aéreas son fundamentalmente aeronaves de ala estable, aunque ocasionalmente se utilizan helicópteros; todos ellos se desplazan dentro de la atmósfera, a diferentes altitudes. En los márgenes de la atmósfera terrestre se sitúan los satélites, si bien también existen datos procedentes de naves espaciales (por ejemplo, el transbordador Shuttle o la nave Skylab). Los satélites son objetos que giran alrededor de otro objeto, en este caso, la Tierra, siguiendo una órbita que cubren de forma continua la superficie terrestre. Por ello, no sólo se utilizan para la teledetección, sino que tienen otras aplicaciones, como la comuniciación, la telemetría etc…
En las últimas décadas la panoplia de plataformas se ha incrementado con las aeronaves no tripuladas, más comúnmente conocidas como drones. Como su nombre indica, es cualquier tipo de aeronave que no tenga un piloto humano a bordo; su control puede realizarse de forma remota o autónoma, mediante dispositivos a bordo del aparato. Estas plataformas pequeñas y relativamente asequibles son muy utilizadas para el seguimiento de incendios y desastres naturales, observaciones de vida silvestre y agricultura de precisión por su bajo costo y resolución espacial muy alta, pudiendo portar desde cámaras digitales ópticas y sensores multiespectrales, gracias a su miniaturización y precio asequible.
En España, el organismo encargado de regular el uso de drones es la Agencia Estatal de Seguridad Aérea (AESA). Con respecto a la Normativa, actualmente, han comenzado a aplicarse los Reglamentos Europeos RE 2019/947 y RD 2019/945. Para drones a partir de 250 gramos, es obligatorio obtener un certificado que acredite un mínimo de conocimientos, y que permitirá el vuelo de drones en las diferentes categorías establecidas. Así, para volar drones en la categoría abierta de la nueva Normativa UAS, es obligatorio superar el correspondiente examen en AESA, que puede ser de Nivel 1 o Nivel 2, dependiendo del riesgo de la operación. Y, para volar en categoría específica, será necesario superar el examen de AESA de Nivel 3, para operar en los escenarios estándar contemplados en ella.
En líneas generales se establecen las siguients limitaciones:
Volviendo a los sensores, éstos también pueden distinguirse entre activos y pasivos:
Los sistemas de detección remota que miden la energía emitida por el sol y refejada por los objetos y la superficie terrestre se denominan sensores pasivos. Estos sensores sólo registran esa energía durante el tiempo en que el Sol está iluminando la Tierra, es decir, por el día, mientras que la energía que emite naturalmente la Tierra (como el infrarrojo térmico) se puede detectar de día o de noche. La mayoría de los sistemas pasivos utilizan una parte del espectro en la que las longitudes de onda están entre los 0,3 micrómetros (el ultravioleta que puede ser registrado en las fotografías abarca desde 0,3 hasta 0,395) y 15 micrómetros (el infrarrojo reflejado abarca de 0,7 a 3 micrómetros y el infrarrojo térmico de 3 a 15); es decir, son sistemas que pueden registrar la parte superior de la zona ultravioleta, todo el espectro fotográfico y parte del infrarrojo.
Los sensores activos, por otro lado, proporcionan su propia fuente de energía. El sensor emite radiación hacia el objeto a investigar; la radiación reflejada por ese objeto es detectada y medida por el sensor. Entre las ventajas de los sensores activos se incluye la capacidad de obtener mediciones en cualquier momento temporal, independientemente de la hora del día o la estación astronómica. Los sensores activos se pueden usar para examinar longitudes de onda que el Sol no proporciona suficiente energía, como las microondas, o para controlar mejor la forma en que se ilumina un objeto. Sin embargo, los sistemas activos requieren la generación de una cantidad bastante grande de energía para iluminar adecuadamente los objetivos. Algunos ejemplos de sensores activos son un fluorosensor láser y un radar de apertura sintética (SAR).
Fuente: The Mexican Water Forest: benefits of using remote sensing techniques to assess changes in land use and land cover - Scientific Figure on ResearchGate. Available from: https://www.researchgate.net/figure/Differences-between-passive-and-active-sensors_fig1_339726853 [accessed 20 Dec, 2022]
Igualmente, cabe distinguir los sensores electro-ópticos de los sensores de microondas.
Para el diseño de los sensores electro-ópticos, debe tenerse en cuenta que los sensores pasivos registran una energía que ha atravesado la atmósfera utilizando las “ventanas atmosféricas”, para evitar, como se ha señalado antes, su dispersión por diversos agentes (polvo atmosférico, vapor de agua etc…). Dado que, cuanto más corta es la longitud de onda, mayor es la dispersión (la luz azul se dispersa unas seis veces más que la roja), los sensores están diseñados para adquirir las longitudes de onda más largas. Sin embargo, esto choca con el hecho de que, cuanto menor es la longitud de onda, más pequeño es el tamaño de los objetos que pueden ser registrados. Por ello, los resultados óptimos se alcanzan cuando se logra un equilibrio entre el registro de longitudes de onda suficientemente cortas para diferenciar detalles, pero lo suficientemente largas para no ser dispersadas por la atmósfera. Además de las cámaras fotográficas, que recogen información procedente del espectro visible, los sensores electro-ópticos disponen de un instrumental que es sensible a determinadas longitudes de onda, convirtiendo la energía captada en señales eléctricas, que se vuelcan en bandas magnéticas. Esta información es posteriormente tratada y convertida en imágenes bidimensional, que tienen una apariencia similar a las fotografías convencionales. En este grupo se incluyen también los sensores capaces de registrar la energía correspondiente al infrarrojo térmico, que captan las diferencias de temperatura de los objetos. La radiación recibida por el sensor debe hacerse posteriormente visible, para lo cual se le asigna un color distinto a cada sector de calor, utilizando generalmente la gama de los azules para las temperaturas bajas y la de los rojos para las altas.
También cabe mencionar los sensores de microondas, que también pueden ser:
Activos, que emiten ondas ultrasónicas de longitud de onda entre 6 centímetros y un metro aproximadamente y registran la señal reemitida por los objetos de forma analógica o digital (en este último caso existe la posibilidad de tratar posteriormente la información, de manera similar a como se hace con la obtenida con sensores electro-ópticos);
Pasivos, que detectan la radiación de microondas que emite la superficie de la tierra (longitudes de onda entre 0,15 y 30 centímetros).
Tanto los sistemas activos de microondas como los pasivos presentan la particularidad de que pueden ser usados con independencia de las condiciones climáticas, dado que las longitudes de onda con las que operan atraviesan sin dificultad las nubes y el vapor de agua.
También es conveniente definir inicialmente algunos términos y conceptos fundamentales referidos a las imágenes proporcionadas por los sensores remotos.
En primer lugar, debe señalarse que la energía electromagnética se puede detectar fotográficamente o electrónicamente; por ello, es posible distinguir las imágenes de las fotografías:
Una imagen es cualquier representación pictórica, independientemente de qué longitudes de onda o dispositivo se haya utilizado para detectar y registrar la energía electromagnética.
Una fotografía es una imagen obtenida utilizando un procedimiento fotográfico, el cual utiliza las reacciones químicas en la superficie de una película sensible a la luz para detectar y registrar las variaciones de energía, normalmente procedentes de la parte visible del espectro.
De acuerdo con esas definiciones, todas las fotografías aéreas son imágenes, pero no todas las imágenes son fotografías aéreas.
Las imágenes reproducen la energía electromagnética electrónicamente, mediante una serie de números en formato digital. El área escaneada se subdivide en pequeñas celdas de igual tamaño y forma, denominadas píxeles. El brillo relativo de cada píxel es representado por un valor numérico o Número Digital (ND). La cantidad de números digitales que se puede representar depende de la resolución radiométrica del sensor. Para un sensor con una resolución radiométrica de 8 bit los números digitales varían entre 0 y 255, siendo en la escala de grises el cero igual al color negro y el 255 igual al color blanco. La posición de cada píxel en la imagen satelital está determinada por un eje de coordenadas XYZ.
X : Nº de columna de la matriz.
Y : Nº de fila de la matriz.
Z : Nivel digital (valor de intensidad de la escala de grises).
El ordenador, en consecuencia, representa gráficamente cada valor digital con diferentes niveles tonalidades. Estas dos formas diferentes de representar y mostrar datos, ya sea pictóricamente o digitalmente, son intercambiables ya que transmiten la misma información (aunque se pueden perder algunos detalles al convertir de un lado a otro). Las imágenes están confeccionadas como matrices, conformadas por un número determinado de pixeles; las dimensiones de cada píxel dependerán de la resolución espacial del sensor.
La distancia entre el objeto y la plataforma juega un papel importante en el tamaño de la porción de la superficie de la Tierra cuya información es recogida y del nivel de detalle de esa información, estando ambos aspectos inversamente relacionados. Las imágenes procedentes de sensores a bordo de las plataformas muy alejadas de la superfice terrestre (por ejemplo, los satélites) abarcan una superficie muy grande de la Tierra, pero no proporcionan un gran nivel de detalle; por su parte, las fotografías aéreas abarcan una superficie mucho menor, pero el nivel de detalle es muy elevado (por ejemplo las ortofotos más recientes del PNOA).
La relación entre la distancia en una imagen y la distancia real en tierra se conoce como escala. En un mapa con una escala de 1:100000, un objeto de 1 cm de largo en el mapa equivaldría en realidad a un objeto de 100000 cm (1 km) de largo en la realidad.
El nivel de detalle perceptible en una imagen depende de la resolución espacial del sensor. Con este término se hace referencia al tamaño de la característica más pequeña posible que se puede detectar. La resolución espacial de los sensores pasivos (veremos el caso especial de los sensores de microondas activos más adelante) depende principalmente de su campo de visión instantáneo (IFOV). El IFOV es el cono angular de visibilidad del sensor y determina el área en la superficie de la Tierra que se “ve” desde una altitud dada en un momento particular en el tiempo.
El tamaño del área vista se determina multiplicando el IFOV por la distancia desde el suelo hasta el sensor. Este área se denomina celda de resolución y determina la resolución espacial máxima de un sensor. Para que se detecte un objeto determinado, su tamaño generalmente debe ser igual o mayor que la celda de resolución; si es más pequeño, es posible que no sea detectable ya que se registrará el brillo promedio de todos los objetos de esa celda. Sin embargo, a veces pueden detectarse si su reflectancia domina dentro de una celda.
Es importante distinguir entre el tamaño de píxel y la resolución espacial, ya que no son sinónimos. Si un sensor tiene una resolución espacial de 20 metros y una imagen de ese sensor se muestra a resolución completa, cada píxel representa un área de 20m x 20m. En este caso, el tamaño de píxel y la resolución son idénticos. Sin embargo, es posible mostrar una imagen con un tamaño de píxel diferente a la resolución; por ejemplo, muchas imágenes de satélite promedian sus píxeles para abarcar áreas más grandes, aunque la resolución espacial original del sensor es más alta (las imágenes en las que solo perciben objetos grandes tienen una baja resolución; las imágenes finas o de alta resolución distinguen objetos de pequeño tamaño). Los sensores militares, por ejemplo, están diseñados para ver tantos detalles como sea posible y, por lo tanto, tienen una resolución muy fina. Los satélites comerciales proporcionan imágenes con resoluciones que varían desde unos pocos metros hasta varios kilómetros. En términos generales, cuanto más fina es la resolución, menos área de terreno total se puede ver.
Indica el número y anchura de las bandas espectrales que puede discriminar el sensor. Cuanto mayor sea esta resolución más información existirá del comportamiento de una misma cobertura en diferentes bandas espectrales.
En el Capítulo 1, aprendimos sobre la respuesta espectral y las curvas de emisividad espectral que caracterizan la reflectancia y/o la emitancia de una característica u objetivo en una variedad de longitudes de onda. Las diferentes clases de características y detalles en una imagen a menudo se pueden distinguir comparando sus respuestas en distintos rangos de longitud de onda. Las clases generales, como el agua y la vegetación, generalmente se pueden separar utilizando rangos de longitud de onda muy amplios, el visible y el infrarrojo cercano, como aprendimos en la sección 1.5. Otras clases más específicas, como diferentes tipos de rocas, pueden no ser fácilmente distinguibles utilizando cualquiera de estos amplios rangos de longitud de onda y requerirían una comparación en rangos de longitud de onda mucho más finos para separarlos. Por lo tanto, necesitaríamos un sensor con mayor resolución espectral. La resolución espectral describe la capacidad de un sensor para definir intervalos finos de longitud de onda. Cuanto más fino es resolución espectral, más estrecho es el rango de longitud de onda para un canal o banda en particular. La película en blanco y negro registra longitudes de onda que se extienden sobre gran parte o la totalidad de la porción visible del espectro electromagnético. Su resolución espectral es bastante baja, ya que las diversas longitudes de onda del espectro visible no se distinguen individualmente y se registra la reflectancia general en toda la porción visible. La película en color también es sensible a la energía reflejada en la parte visible del espectro, pero tiene una resolución espectral más alta, ya que es individualmente sensible a la energía reflejada en las longitudes de onda azul, verde y roja del espectro. Por lo tanto, puede representar características de varios colores en función de su reflectancia en cada uno de estos distintos rangos de longitud de onda. Muchos sistemas de detección remota registran energía en varios rangos de longitud de onda separados en varias resoluciones espectrales. Estos se conocen como sensores multiespectrales y se describirán con cierto detalle en las siguientes secciones. Los sensores multiespectrales avanzados, llamados sensores hiperespectrales, detectan cientos de bandas espectrales muy estrechas en las porciones visible, del infrarrojo cercano y del infrarrojo medio del espectro electromagnético. Su resolución espectral muy alta facilita la discriminación fina entre diferentes objetivos en función de su respuesta espectral en cada una de las bandas estrechas.
Indica la medida en bits (dígitos binarios), es la gama de valores de brillo disponibles, que en la imagen se corresponden con el alcance máximo de DN; por ejemplo, una imagen con una resolución de 8 bits tiene 256 niveles de brillo (RICHARDS Y JIA, 2006).
En una imagen cada pixel, puede asumir una cantidad de valores específica, dependiendo de su resolución radiométrica, por ejemplo una imagen de 8bits, va a varias de 0 – 255 tonalidades de gris. La fórmula para determinar los nivels de gris es \(2^(número de bits) = niveles de gris\)
Mientras que la disposición de los píxeles describe la estructura espacial de una imagen, las características radiométricas describen el contenido de información real en una imagen. Cada vez que se adquiere una imagen en una película o por un sensor, su sensibilidad a la magnitud de la energía electromagnética determina la resolución radiométrica. La resolución radiométrica de un sistema de imágenes describe su capacidad para discriminar diferencias muy leves en la energía. Cuanto más fina sea la resolución radiométrica de un sensor, más sensible será para detectar pequeñas diferencias en la energía reflejada o emitida. Los datos de imágenes están representados por números digitales positivos que varían de 0 a (uno menos que) una potencia seleccionada de 2. Este rango corresponde a la cantidad de bits utilizados para codificar números en formato binario. Cada bit registra un exponente de potencia 2 (por ejemplo, 1 bit=2 1=2). El número máximo de niveles de brillo disponibles depende del número de bits utilizados para representar la energía registrada. Por lo tanto, si un sensor usara 8 bits para registrar los datos, habría 28 = 256 valores digitales disponibles, con un rango de 0 a 255. Sin embargo, si solo se usaran 4 bits, entonces solo 24 = 16 valores con un rango de 0 a 15. estar disponible. Así, la resolución radiométrica sería mucho menor. Los datos de imagen generalmente se muestran en una gama de tonos grises, donde el negro representa un número digital de 0 y el blanco representa el valor máximo (por ejemplo, 255 en datos de 8 bits). Al comparar una imagen de 2 bits con una imagen de 8 bits, podemos ver que existe una gran diferencia en el nivel de detalle perceptible según sus resoluciones radiométricas.
Además de la resolución espacial, espectral y radiométrica, también es importante considerar el concepto de resolución temporal. Es el tiempo necesario para volver a visitar la misma zona de la Tierra (NASA, 2011). Se refiere a la periodicidad con la que éste adquiere imágenes de la misma porción de la superficie terrestre. El ciclo de cobertura está en función de las características orbitales de la plataforma (altura, velocidad, inclinación), así como del diseño del sensor. Ya se aludió a esta idea previamente, cuando se discutió el concepto de período de revisita, que se refiere al tiempo que tarda un satélite en completar un ciclo orbital completo. El período de revisión de un sensor satelital suele ser de varios días. Por lo tanto, la resolución temporal absoluta de un sistema de detección remota para obtener imágenes de la misma área exacta en el mismo ángulo de visión por segunda vez es igual a este período. Sin embargo, debido a cierto grado de superposición en las franjas de imágenes de órbitas adyacentes para la mayoría de los satélites y el aumento de esta superposición con el aumento de la latitud, algunas áreas de la Tierra tienden a ser re-imágenes con más frecuencia. Además, algunos sistemas satelitales pueden apuntar sus sensores para obtener imágenes de la misma área entre diferentes pases de satélite separados por períodos de uno a cinco días. Por lo tanto, la resolución temporal real de un sensor depende de una variedad de factores, incluidas las capacidades del satélite/sensor, la superposición de franjas y la latitud.
En cualquier caso, se suele distinguir 3 categorías:
La capacidad de recolectar imágenes de la misma área de la superficie de la Tierra en diferentes períodos de tiempo es uno de los elementos más importantes a la hora de trabajar con este tipo de información. Las características espectrales de los objetos situados sobre la superficie terrestre pueden cambiar con el tiempo, y estos cambios se detectan cuando se recopilan y comparan imágenes multitemporales. Al obtener imágenes de forma continua en diferentes momentos del tiempo, se pueden seguir los cambios que tienen lugar en la superficie de la Tierra, ya sea naturales (por ejemplo en la cubierta vegetal o inundaciones) o inducidos por humanos (como cambios urbanos, deforestación etc…). Por ejemplo, durante la temporada de crecimiento, la vegetación cambia continuamente de estado, por lo que monitorear esos cambios depende de cuándo y con qué frecuencia se recogen las imágenes.
El factor tiempo en la obtención de imágenes es importante cuando:
Imagen que lleva asociados varios valores numéricos a cada píxel, tantos como bandas espectrales sea capaz de detectar el sensor. A priori, es el tipo de producto más útil ya que nos proporciona, en cierto modo, la firma espectral de los distintos elementos presentes en la imagen. Es captada mediante un sensor digital que mide la reflectancia en muchas bandas.
Fuente. Felicisimo, Angel. (1994). Modelos Digitales del Terreno. Introducción y Aplicaciones en las Ciencias Ambientales.
Dispone de una sola banda espectral que abarca comúnmente gran parte del visible y comienzo del infrarrojo, obteniendo como resultado una imagen que habitualmente se representa en una escala de grises (imagen en blanco y negro). Como contrapartida, tienen la ventaja de poseer mayor resolución espacial que las multiespectrales que proporciona el mismo satélite. Es por ello que son muy interesantes para la detección de pequeños elementos de la superficie terrestre que no son distinguibles en la imagen multiespectral.
Este tipo de imagen se obtiene mediante la fusión de una imagen multiespectral con una pancromática. Básicamente, consiste en asignar a cada píxel de la imagen pancromática los valores procedentes de un algoritmo que combina la imagen pancromática con la multiespectral.
http://www.gisandbeers.com/pansharpening-mejorando-la-resolucion-de-imagenes-satelite/
En realidad, se refiere a dos imágenes de una misma zona tomadas con ángulos de visión distintos. Muchos satélites tienen la capacidad de reorientar el sensor, lo que les permite tomar, en una o en sucesivas pasadas, este tipo de imágenes.
Fuente: Alamy
La asignación de colores más conocida por los usuarios es la del falso color convencional (R=Red (rojo); G=Green (verde); B=Blue (azul)), la cual asigna el color azul a la banda del verde, el color verde a la banda del rojo y el color rojo a la banda del infrarrojo cercano. |
Podemos combinar y mostrar canales de información digitalmente usando los tres colores primarios (azul, verde y rojo). Los datos de cada canal se representan como uno de los colores primarios y, según el brillo relativo (es decir, el valor digital) de cada píxel en cada canal, los colores primarios se combinan en diferentes proporciones para representar diferentes colores. |
Vemos el color porque nuestros ojos detectan todo el rango visible de longitudes de onda y nuestro cerebro procesa la información en colores separados. |
Cuando se usa este método para mostrar un solo canal o rango de longitudes de onda, en realidad se está mostrando ese canal a través de los tres colores primarios. Debido a que el nivel de brillo de cada píxel es el mismo para cada color primario, se combinan para formar una imagen en blanco y negro, que muestra varios tonos de gris desde el negro hasta el blanco. Cuando se muestra más de un canal, cada uno con un color primario diferente, los niveles de brillo pueden ser diferentes para cada combinación de canal/color primario y se combinarán para formar una imagen en color. |