apuntes teledetecciÓn

Upload: nuria-fernandez-naranjo

Post on 07-Jul-2018

241 views

Category:

Documents


0 download

TRANSCRIPT

  • 8/18/2019 APUNTES TELEDETECCIÓN

    1/68

    Tema 1

    ¿Qué es la Teledetección?

    • 

    ¿Qué es la teledetección?•  Aplicaciones de la teledetección.

    •  Historia de la teledetección.

    •  Ventajas e inconvenientes.

    •  Integración con SIG.

    Teledetección (remote sensing):

    Obtención de información de un objeto, área o fenómeno, a través del análisis

    de la radiación electromagnética emitida o reflejada, adquirida mediante un

    dispositivo o sensor, que no está en contacto directo con el objeto, área o

    fenómeno estudiado.

    1. 

    Obtención de información.

    2.  Transmisión de datos.

    3.  Almacenamiento, tratamiento, análisis y aplicación de esa información.

     Aplicaciones de la teledetección 

    Estudio de la superficie de la tierra

    1.  Detección de incendios

    2. 

    Evaluación de catástrofes

    3. 

    Cartografías temáticas (de vegetación, mapas geológicos, mapasde pendientes, mapas de riesgo…) 

    4.  Usos civiles: ej: ordenación del territorio, catastro… 

    5.  Usos militares y estratégicos

    6.  Estudio de la atmósfera y la meteorología

    Planetología

    Implicaciones científicas, económicas y legales

  • 8/18/2019 APUNTES TELEDETECCIÓN

    2/68

    Muchos usuarios: Gobiernos, organizaciones internacionales, ONGs, empresas,

    centros de investigación…

    Componentes

    Breve historia de la Teledetección

    1840  – Charles Wheatstone. Inventa el estereoscopio. Dos fotografías continuas

    y solapadas, que permiten obtener una imagen en relieve.

    1855 – James Clerk Maxwell, describe la teoría aditiva del color, cómo

    percibimos el color y cómo son creados. Posteriormente, desarrolla la teoría del

    espectro electromagnético, demostrando matemáticamente que la luz, el

    magnetismo y la electricidad son manifestaciones del mismo fenómeno: El

    campo electromagnético.

    1873 – Herman Vogel, descubre films próximos a captar luz infrarroja.

    1858 - Gasper Felix Tournachon “Nadar“ , toma la primera fotografía aérea

    desde un globo sobre París a una altura de 1.200 pies.

    1858 - 1860's – En la guerra civil americana se utilizan globos para realizar

    fotografías con propósitos militares.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    3/68

    1903 - Cuerpo de Palomas Bávaras: Se colocaron en palomas cámaras

    programadas para tomar una fotografía cada 30 segundos a medida que la

    paloma volaba. Desafortunadamente la mayoría de las palomas fueron cazadas

    por las tropas enemigas.

    1906 - Albert Maul , utilizó una cámara adosada a un cohete propulsado por aire

    comprimido. Realizó fotografías aéreas a una altura de 2.600 pies.

    1907 - Auguste y Louis Lumiere , desarrollan un simple sistema de fotografía en

    color.

    1908 – Wilbur Wright, pilotó el primer avión a medida que su pasajero, L.P.

    Bonvillain, tomaba fotos aéreas en Francia.

    1914 – 1918. Durante la Primera Guerra Mundial se montaban cámaras en los

    aviones o eran manejadas por los aviadores. Normalmente esas fotos eran

    utilizadas en misiones de reconocimiento.

    1946 – Durante la Segunda Guerra Mundial el ejército de los Estados Unidos

    lanzó cohetes a alturas anteriormente jamás alcanzadas (100-160 km). Nuevos

    sensores: RADAR

    1957 – Guerra fría. Rusia lanza el Sputnik-1, primer satélite artificial de la

    historia. Comienzo de la carrera espacial.

    • 

  • 8/18/2019 APUNTES TELEDETECCIÓN

    4/68

    Principales ventajas 

    •  Visión global

     –   áreas enormes, zonas inaccesibles… 

    •  Observación a distintas escalas

    •  Cobertura frecuente

     –   estudio de variaciones en el tiempo o bien perfeccionar la

    interpretación de la imagen.

    •  Homogeneidad en la adquisición

    • 

    Regiones no visibles del espectro

     –   IR térmico distribución de temperaturas (mejor en superficies

    marinas)

    •  Formato digital

     –   (se gana tiempo gestión de catástrofes)

    Inconvenientes 

    •  Calibración (medidas absolutas)

    •  Cobertura nubosa (Solución: RADAR)

    •  Frecuencia de adquisición

    •  Resolución espacial

    •  Resolución espectral

    •  Visión estereoscópica

     –   la mayor parte de los sensores espaciales no lo permiten. Sólo

    sensores fotográficos y SPOT. El resto sólo en zonas de solape de

    las órbitas.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    5/68

    Características de las imágenes de Teledetección:

    •  Imagen digital: compuesta por una disposición bidimensional de

    elementos pictóricos o pixeles. En cada píxel, la cantidad de radiación

    electromagnética detectada se cuantifica como un número o valorradiométrico, que se traduce visualmente en distintos grados de brillo o

    intensidad.

    •  El píxel se define a través de su posición (fila/columna) y su valor.

    •  Imagenes con valores byte: es decir, valores radiométricos entre 0 y 255:

     –   0 (0% de reflectividad): Negro

     –  

    255 (100% reflectividad): Blanco

    •  Estas matrices de valores radiométricos se pueden visualizar:

     –   En matices de gris

     –   En composiciones coloreadas (mediante una combinación de

    varias bandas)

    ¿Por qué el rango 0-255?

    El byte (B) es una unidad de información compuesta por 8 bits

    El valor máximo de 255 para un byte viene dado por las posibles combinaciones

    que se pueden formar con 8 bits. Su expresión matemática sería 2 elevado a 8 (

    2^8 = 256 ).

  • 8/18/2019 APUNTES TELEDETECCIÓN

    6/68

    •  Un kilobyte (kB) = 1000 bytes

    •  Un megabyte (MB) = 1000 kB = 1.000.000 bytes

    •  Un gigabyte (GB) = 1000 MB = 1.000.000.000 bytes

    •  Un terabyte (TB) = 1000 GB = 1.000.000.000.000 bytes

    SIG vs. Teledetección

    Teledetección:

    1.- Obtención de información.

    2.- Transmisión de datos.

    3.- Almacenamiento, análisis y aplicación.

    SIG:

    herramienta informática para gestión de bases de datos localizadas

    geográficamente.

    Integración Teledetección y SIG: Ambos utilizan datos georeferenciados y herramientas informáticas semejantes.

    Se desarrollan por y para un mismo tipo de usuario o investigador.

    Se complementan:

    Los SIG aportan un marco geográfico a los datos de teledetección, pero también

    enriquecen el análisis digital de las imágenes ofreciendo mapas climáticos,geológicos, hidrografía, etc.

    La teledetección actúa como fuente de datos de un SIG.

    Software para el tratamiento de imagenes de Teledetección:

    Los trabajos realizados en teledetección a nivel usuario se relacionan

    mayoritariamente con el tratamiento y análisis de imágenes digitales.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    7/68

    Para ello, en el mercado existen numerosos programas informáticos enfocados a

    la teledetección, pero muchas de las funciones típicas de los softwares puros de

    teledetección (técnicas de filtrado, aplicación de contrastes, etc...) se pueden

    realizar con otras aplicaciones de tratamiento general de imágenes como Corel

    Photo-Paint , Corel Draw , Abobe Photoshop , o Adobe Illustrator , entre otros muchos.

    Un software específico para teledetección debe tener, al menos, los siguientes

    módulos:

    •  Tratamiento y análisis digital de imágenes.

    •  Gestión de datos vectoriales.

    •  Tratamiento de datos fotogramétricos y RADAR.

    •  Producción cartográfica.

    Ejemplos de programas teledetección: Idrisi, Erdas.

    SIG: gvSIG (gratuito, universidad de Valencia), Arc Gis (también teledetección).

  • 8/18/2019 APUNTES TELEDETECCIÓN

    8/68

    Tema 2

    Fundamentos de la teledetección:Espectro electromagnético

    • 

    El espectro electromagnético.•  Curvas de reflectividad.

    •  Interacción de la energía electromagnética con la materia o la atmósfera.

    •  El espacio de color RGB.

    •  Combinaciones de bandas.

    El espectro electromagnético.

    Formas de adquirir información

    (1) Reflexión

    (2) Emisión

    (3) Emisión-Reflexión

    Cada superficie refleja o absorbe en distinto grado

  • 8/18/2019 APUNTES TELEDETECCIÓN

    9/68

     

    Obtención de información de un objeto, área o fenómeno, a través del análisis

    de la radiación electromagnética emitida o reflejada, adquirida mediante un

    dispositivo o sensor, que no está en contacto directo con el objeto, área ofenómeno estudiado.

    La Radiación Electromagnética, o la forma en que la Energía Electromagnética

    se propaga, está basada en las teorías básicas de ondas.

    Onda Electromagnética:

    Combinación de dos campos perpendiculares entre sí y oscilantes:

    1. 

    Eléctrico (E)

    2.  Magnético (M)

    Una onda electromagnética es la forma de propagación de la radiación

    electromagnética a través del espacio.

    En un punto del espacio la densidad de energía electromagnética depende de la

    suma de las intensidades de los campos eléctrico y magnético.

    Esquema de una onda electro-magnética

  • 8/18/2019 APUNTES TELEDETECCIÓN

    10/68

     James Clerk Maxwell, desarrolla la teoría del espectro electromagnético,

    demostrando matemáticamente que la luz, el magnetismo y la electricidad son

    manifestaciones del mismo fenómeno: El campo electromagnético.

    El ojo humano se limita a detectar sólo una pequeña

    parte del total del espectro electromagnético (0.4-0.7 μm).

     

    Espectro visible: un objeto es de un color si refleja esa longitud de onda,y absorbe el resto de la energía incidente.

    •  Infrarrojo Cercano (IRC o NIR): discriminar masas vegetales.

    •  Infrarrojo Medio

     –   Primera banda (SWIR  Short wave infrared): contenido de

    humedad en vegetación y suelos.

     –  

    Segunda banda (IRM  Infrarojo Medio): focos de altatemperatura (incendios, erupciones).

    •  Infrarrojo Lejano o Térmico (IRL o IRT): calor que emite cada objeto.

    Microondas (λ > 1mm): atraviesan las nubes  RADAR

  • 8/18/2019 APUNTES TELEDETECCIÓN

    11/68

    El Sol es la mayor fuente de radiación electromagnética usada en teledetección.

    Sin embargo, toda materia con T > 0º K (cero absoluto) emite radiación

    electromagnética. La radiación es proporcional a temperatura de la superficie

    del material.

    Así, todos los o bjetos terrestres (mares, suelos, vegetación, ciudades…) son

    también fuentes de radiación, aunque de magnitud y composición espectral

    muy diferente a la del Sol.

    Transformación del flujo incidente

    La proporción de flujo incidente que es reflejado, absorbido y transmitido

    depende de las características de la superficie y de la longitud de onda

  • 8/18/2019 APUNTES TELEDETECCIÓN

    12/68

    Curvas de reflectividad.

    Bibliotecas espectrales: Colecciones de espectros, tomados en laboratorio, que

    pretenden caracterizar los valores de reflectividad típicos de los materiales

    terrestres: tipos de vegetación, suelos, rocas, etc. Generalmente, los patrones

    espectrales son obtenidos con una resolución espectral muy alta (sensores

    hyperespectrales).

    USGS Y ASTER

  • 8/18/2019 APUNTES TELEDETECCIÓN

    13/68

     

    •  Nieve: alta reflectividad en bandas cortas.

    •  Agua: absorbe la mayor parte de la energía que recibe.

    •  Vegetación: absorbe en el visible, mayor reflectividad en IRC.

    Factores que influyen en la reflectividad de una cubierta:

     

    Elementos que absorben (agua, pigmentos, minerales).

  • 8/18/2019 APUNTES TELEDETECCIÓN

    14/68

    •  Rugosidad superficial (reflectividad lambertiana o especular).

    •  Ángulos de observación e iluminación.

    Estos factores modifican la firma espectral.

    El espectro electromagnético (EM) abarca desde las longitudes de onda más

    cortas (más energéticas  rayos gamma, rayos-X) a las de longitud de onda más

    largas (menos energéticas ondas de radio).

    Es un espectro continuo, por lo que no existen divisiones o líneas de corte

    exactas entre unas regiones y otras.

    La división del EM en diferentes regiones, surge como consecuencia de los

    diferentes métodos utilizados para detectar cada tipo de radiación.

    Dentro del EM, sólo determinadas porciones del mismo se utilizan en

    teledetección:

    · Radiación Ultravioleta (UV). 

    · Espectro visible. 

    · Infrarrojo (IR). 

    · Microondas. 

    Interacción de la energía electromagnética con la materia o la

    atmósfera.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    15/68

     Absorción

    •  Oxígeno molecular (O2): absorción UV < 0,1 m y algo de IRT.

    •  Ozono (O3): absorción UV < 0,3 m y algo micro-ondas (27 mm).

    •  Vapor de agua: absorción en 6 m y 0,6 -2 m.

    •  CO2: IRT (> 15 m), e IRM (2,5-4,5 m).

    •  El ozono se forma gracias a la radiación solar sobre la estratosfera entre

    15-40 Km de altura. La concentración se mide en Dobsons.

    Ventanas atmosféricas 

    Como consecuencia de la absorción la observación espacial de la superficieterrestre se reduce a determinadas zonas del espectro llamadas ventanas

    atmosféricas. Si se pretende observar la atmósfera serían las zonas opuestas.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    16/68

    Refracción

    Las ondas electromagnéticas son las únicas capaces de propagarse a través del

    vacío. Al penetrar en un medio material, como puede ser el aire o la superficie

    terrestre, su velocidad disminuye en relación al índice de refracción delmaterial, y su dirección varía si el ángulo no es perpendicular a la superficie de

    separación de los dos medios (Ley de Snell).

    Índice refracción (n) = velocidad luz vacío (c) / velocidad luz medio (v)

    En el vacio n=1

    En el aire n=1,0002926

    En agua n=1,333

    Refracción y dispersión

    Según la ley de Snell, cuando la luz blanca (suma de todas las radiaciones

    visibles) pasa del aire al vidrio del prisma, disminuye su velocidad y desvía su

    trayectoria, refractándose y dispersándose en cada uno de los colores según sudistinta frecuencia / longitud de onda.

    Fenómeno óptico de refracción: Arco Iris

    El arco iris se produce por la refracción y reflexión total de los rayos solares en

    las gotas de lluvia.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    17/68

     

    Dispersión atmosférica

    • 

    Principales causantes:- Aerosoles (partículas en suspensión como

    polvo en suspensión).

    - Vapor de agua.

    •  Disminuye el contraste de la imagen.

    •  Tipos:

  • 8/18/2019 APUNTES TELEDETECCIÓN

    18/68

     –   Rayleight: afecta a longitudes de onda inferiores al diámetro de la

    partícula.

     –   Mie: partículas con diámetro similar a la longitud de onda.

     –  

    No selectiva: diámetro mayor a la longitud de onda.

    Dispersión Rayleigh

    •  Suelen ser pequeñas partículas de polvo o moléculas de N u O.

    •  Funciona fundamentalmente en la atmósfera superior.

    •  Afecta a la luz visible de longitud de onda corta (de 380 nm a 500 nm

    aproximadamente), como el azul y el violeta.

    Es la causa del cielo azul. Los rayos azules, una vez desviados, vuelven a chocar

    con otras partículas del aire, variando de nuevo su trayectoria. Realizan por

    tanto un recorrido en zigzag a través de la atmósfera, hasta llegar a nosotros. La

    radiación procedente del sol sufre este proceso en el sector del azul, mientras

    que el amarillo prácticamente no se desvía, por lo que el sol nos parece

    amarillo.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    19/68

    Al atardecer, la distancia recorrida por la luz se incrementa, se sufre una mayor

    dispersión y nos llegan longitudes de onda mayores: Rojos, anaranjados… 

    Dispersión Mie

    Aerosoles, polvo atmosférico, vapor de agua, humo, polen...

    Se produce en zonas inferiores de la atmósfera.

    La luz blanca se atenúa hacia colores grises y oscuros. Este efecto se observa en

    días nublados o en las “boinas” sobre las ciudades. 

    Dispersión no selectiva

    Gotas de agua, grandes partículas de polvo...

    Todas las longitudes de onda se dispersan más o menos igual.

    Es la causa por la que vemos la niebla o las nubes blancas (ya que todas las

    longitudes de ondas son reflejadas: R+G+B=blanco).

    El espacio de color RGB

  • 8/18/2019 APUNTES TELEDETECCIÓN

    20/68

    Modelo de síntesis aditiva del color. Basado en la suma de la luz de distintas

    longitudes de ondas y en la teoría del espectro electromagnético.

    La suma de los tres colores básicos (RGB) produce el blanco.

    La total ausencia de luz produce el negro.

    Monitores o televisiones emiten luz y se basan en este modelo.

    El ojo humano consta de distintos tipos de células fotorreceptoras:

    Conos y bastones.

    Bastones (rods):

    Muy sensibles en condiciones de baja luminosidad. No detectan colores.

    Monocromática: B/N.

    Conos: Menos sensibles. Visión diurna. Tenemos 3 tipos de conos que absorben

    la luz en las longitudes de onda del rojo, verde y azul (RGB).

    Distinto número de Conos, diferentes canales de recepción:

    Monocromatas: sólo bastones. Animales nocturnos.

    Bicromatas: Dos tipos de conos. Distinguen algunos colores.

    La mayor parte de los mamíferos (perros, toros).

    Tricromatas: Tres tipos de conos. Humanos y gorilas.

    Tetracromatas: Cuatro tipos de conos. Ven el ultravioleta.

    Muchas especies de peces, aves, reptiles, anfibios, insectos y

    arácnidos.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    21/68

    Combinaciones de bandas.

    En teledetección es común la utilización de combinaciones de bandas, que nos

    permiten destacar las propiedades de reflectancia vs. absorción de losmateriales observados. Algunas combinaciones realzan determinados rasgos.

    Son muy comunes las combinaciones de bandas, formadas por los valores de

    tres bandas diferentes a las que se les asigna un patrón de color RGB.

    De esta manera, una imagen que use la banda siete para el rojo, la banda cuatro

    para el verde, y la banda dos para el azul se designaría (7,4,2).

  • 8/18/2019 APUNTES TELEDETECCIÓN

    22/68

    IRC en el rojo

    rojo en el verde

    verde en el azul

  • 8/18/2019 APUNTES TELEDETECCIÓN

    23/68

     

  • 8/18/2019 APUNTES TELEDETECCIÓN

    24/68

     

    Las imágenes compuestas de colores verdaderos coinciden aproximadamente

    con la gama visual del ojo humano (RGB), por lo que se parecen bastante a lo

    que esperaríamos ver en una fotografía normal en color. Las imágenes de color

    verdadero tienden a presentar un bajo contraste y un aspecto algo borroso. Esto

    es debido a la dispersión del azul por parte de la atmósfera, lo que produce un

    leve tono azulado.

    Una imagen de color falso es una representación artificial de una imagenmultiespectral.

    ¿Por qué las combinaciones de bandas?

    ¿Por qué no usamos sólo la banda 4?

    Porque la exactitud está relacionada con la cantidad de información, y por

    tanto, con el número de bandas utilizadas.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    25/68

    Tema 3

    Fotografía aérea, satélites y sensores

    • 

    Tipos de resolución.•  Tipos de sensores: activos o pasivos.

    •  Tipos de sensores:

    1. Fotográficos. Foto aérea

    2. Óptico electrónicos: exploradores de barrido o de empuje.

    3. De antena.

    •  Plataformas de teledetección.

    •  Satélites y tipos de órbitas.

    •  Tipos de imágenes de satélite.

    •  Distorsiones y correcciones.

    Tipos de resolución.

    RESOLUCIÓN RADIOMÉTRICA

    La resolución radiométrica es la capacidad de un sensor para discriminar las

    variaciones de intensidad de la radiación electromagnética, dentro de un rangoconcreto de longitudes de onda.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    26/68

    Equivalente al “número de niveles de grises”. 

    RESOLUCIÓN TEMPORAL

    La resolución temporal corresponde a la periodicidad orbital del satélite y define el

    número de días u horas que transcurren entre dos observaciones consecutivas de la

    misma porción de la superficie terrestre.

    La resolución temporal es el tiempo que tarda un sensor en registrar un mismo área

    con el mismo ángulo de visión.

    Depende de las capacidades del satélite/sensor, el solapamiento del swath, la latitud… 

    Un sensor instalado en un satélite geoestacionario tendrá una alta resolución temporal.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    27/68

    RESOLUCIÓN ESPACIAL

    Se refiere al grado de detalles visibles en una imagen: se corresponde con el tamaño

    que representa cada píxel en una imagen digital. Cuanto menor es el área terrestre

    representada por cada píxel en una imagen digital, mayores son los detalles que

    pueden ser captados y mayor es la resolución espacial.

    (a) 1 m; (b) 5 m; (c) 10 m; (d) 30 m

    RESOLUCIÓN ESPECTRAL

    La resolución espectral indica el número y anchura de las bandas (intervalo de

    longitudes de onda) que pueden ser detectadas por el sensor.

    En principio, cuantas más bandas incluya un sensor mejor, ya que cada banda

    constituye una variable para caracterizar la superficie captada. Por otro lado es

  • 8/18/2019 APUNTES TELEDETECCIÓN

    28/68

    preferible que estas bandas sean estrechas para que su poder discriminante se

    incremente.

    Si las bandas son muy anchas van a recoger valores promediados que ocultarán

    elementos de diferenciación.

    El número de bandas y su localización en el espectro va a depender de los objetivos

    que se pretendan cubrir con la puesta en funcionamiento del sensor.

    Tipos de sensores

    •  Fotográficos

    • 

    Óptico-electrónicos

     –   Explorador de barrido

     –   Explorador de empuje

    •  Antena

     –   Activos

     – 

     

    Pasivos: radiómetros microondasFotográficos

    •  Plataforma:

     –   aéreos o espaciales.

    •  Película:

     –   pancromática, color natural, infrarrojo b/n, infrarrojo color.

    •  Objetivos:

     –   monobanda, multibanda.

    •  Ángulo:

     –   Vertical: pueden tener hasta 5º de desviación.

    Se emplea en restitución fotogramétrica.

     –   oblicua.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    29/68

    Imagen: cualquier representación pictórica, independientemente del rango de

    energía electromagnética representado, del tipo de sensor o soporte utilizado.

    Fotografía: imagen obtenida mediante un proceso fotográfico.

    Fotografía: Anaglifos

    •  Son imágenes de 2D capaces de provocar un efecto 3D, cuando se ven

    con lentes especiales (lentes de color diferente para cada ojo).

    •  Para conseguir la visión 3D necesitamos ver dos imágenes pero cada una

    por un ojo. Por eso, para hacer un anaglifo se le pone un filtro azul a una

    foto y a la otra un filtro rojo. Con las gafas rojas y verdes se consigue quecada ojo vea sólo una de las fotos, y el cerebro combina las imágenes.

    •  Las imágenes de anaglifo se componen de dos capas de color,

    superimpuestas pero movidas ligeramente una respecto a la otra para

    producir el efecto de profundidad.

    •  Es un método muy barato de generar imágenes 3D, pero son de poca

    calidad visual.

    Fotografía aérea

    Para restitución fotogramétrica sólo se pueden emplear fotos verticales (máx.

    desviación 5º).

    El avión hace fotografías con una zona de solape para permitirnos una visión en

    3D.

    Estas dos imágenes son mezcladas en nuestro cerebro y como consecuencia

    podemos ver una tercera dimensión, esto es lo que se conoce como

    estereoscopía natural.

    -  El vuelo:

    El vuelo fotogramétrico consiste en sobrevolar el territorio con un avión y tomar

    fotografías de eje vertical recubriendo el territorio con fotogramas que se

    solapen tanto longitudinal como transversalmente.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    30/68

    Sobrevolar la zona a una altitud, la cual depende de la escala deseada y de la

    distancia principal de la cámara.

    Cubrir con sus imágenes una determinada zona y para ello es preciso que cada

    fotograma tenga una zona común con las contiguas “zona de recubrimiento”. 

    Las fotos consecutivas en un mismo sentido es lo que se denomina pasada.

    B, es la distancia recorrida entre dos disparos consecutivos (exposiciones

    sucesivas), dos fotos sucesivas tendrán una parte común.

    Los solapes suelen ser del 60% en el eje longitudinal y del 25% en el transversal.

    -  elementos del fotograma

    •  Punto principal o central = Punto de la foto que representa la intersección

    de un eje vertical perpendicular al terreno: es el único ortogonal de la

    foto. Lo encontramos por la intersección de las marcas fiduciales.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    31/68

     

    •  Gráfico de vuelo, es un mapa que muestra gráficamente la distribución

    de las fotos con respecto al territorio.

    •  Los fotogramas resultantes de un vuelo fotogramétrico deben contener la

    siguiente información: 

     –   Organismo contratante del vuelo, empresa que realiza el vuelo.

     –   Zona, fecha y hora de vuelo.

     –   Escala aproximada de los fotogramas.

     –   Número de pasada y foto.

     –   Información sobre la cámara métrica (distancia focal, modelo).

     –   Marcas fiduciales.

     –   Nivel para comprobar la verticalidad del fotograma.

     –   Altímetro, con indicación de la altura aproximada sobre el nivel

    del mar. 

  • 8/18/2019 APUNTES TELEDETECCIÓN

    32/68

     

  • 8/18/2019 APUNTES TELEDETECCIÓN

    33/68

    -  Escalas

    •  La escala varía entre los distintos puntos de la foto.

    •  No se pueden medir distancias de modo directo.

    •  Líneas paralelas en el terreno no tiene porqué ser paralelas sobre la

    fotografía, por tanto, tampoco se pueden utilizar para medir direcciones.

    ¿Cuáles son las diferencias entre un mapa topográfico y una fotografía aérea?

  • 8/18/2019 APUNTES TELEDETECCIÓN

    34/68

    Altura de vuelo (H), Distancia focal (f) y Escala de la Fotografía.

    Fotografía Aérea: problema 1

    1.  Determina la escala de una foto área sabiendo que la altura de vuelo (H)

    es de 5000m y la cota del terreno es de 3500m, siendo la distancia focal

    (f)= 150 mm.

    Desplazamiento por relieve de los objetos

    •  Las fotografías aéreas están tomadas con un sistema de proyección

    cónico, en donde el centro óptico del objetivo es el centro de perspectiva

    o punto de vista. Los objetos representados en la fotografía sufren un

  • 8/18/2019 APUNTES TELEDETECCIÓN

    35/68

    desplazamiento radial con respecto a la posición que tendrían si su

    proyección fuera ortogonal.

    •  Zonas elevadas: desplazamiento hacia los bordes de la foto.

    • 

    Depresiones: hacia el centro

    La distorsión relacionada con el relieve (desplazamiento por el relieve) hace que

    los objetos justo debajo del centro de la lente se vean sólo sus “techos” mientras

    que los adyacentes nos muestran cada vez más su lado.

    Cálculo de la altura de un objeto

  • 8/18/2019 APUNTES TELEDETECCIÓN

    36/68

     

    •  2. A partir del paralaje de la imagen. Entre dos fotos de la misma área los

    puntos más altos cambian más entre una foto a la otra que los puntos

    más bajos. Este cambio de posición relativo se llama paralaje. Se puede

    medir en fotos con áreas superpuestas y a partir de ahí calcular lasalturas.

    Bases de la fotogrametría

    •  Uso de puntos de control. Puntos que puedo situar en la foto de los que

    tengo información independiente de sus coordenadas y altitud (GPS,

    tomados por el topográfo en campo). Nos sirven para calibrar las

    medidas sobre la foto. Ej: determinación de la orientación angular de la

    foto, altura de vuelo o distancia entre los centros de dos fotosconsecutivas.

    Ejercicios de cálculo de escalas de fotografía aéreas

    1.  La distancia entre dos puntos sobre un mapa topográfico 1:45000 es 8 cm.

    Esa misma distancia sobre foto aérea es de 90 mm. Calcular la escala de

    la foto.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    37/68

    2.  Calcula la escala de una fotografía aérea conociendo que fue obtenida

    con una cámara con distancia focal de 210 mm, a una altura de vuelo de

    2500 m y con una altura media del terreno de 400 m.

    3. 

    Un fotograma tiene de superficie 23 x 23 cm ¿Cuál es la superficie deterreno que aparece en el fotograma si la escala de la misma es de

    1:15000?

    Fotografía aérea: tipos de fotos según ángulo

    Tipos de fotos:

    •  Verticales: nunca son totalmente verticales, el avión sufre pequeñas

    variaciones de inclinación

    •  Poco oblicuas (eje de la cámara inclinado 30º respecto a la vertical): no se

    ve el horizonte

    •  Muy oblicuas (60º): se ve el horizonte

    Fotografía Aérea: visión estereoscópica

    Mediante técnicas estereoscópicas se crea sensación de profundidad o relieve: A

    partir de imágenes bidimensionales se consiguen imágenes 3D.Se suele realizar en película pancromática de blanco y negro.

    Técnica muy utilizada en la fotogeología tradicional.

    Presenta deformaciones causadas por la perspectiva de la cámara, la altura o la

    velocidad a la que se mueve el soporte en donde se instala la cámara.

    Separación de las fotos

    En el estereoscopio de bolsillo, tienen que estar muy juntas, siempre solapadas

    (menos de 6 cm). Se aconseja poner el borde grueso por abajo.

    En el estereoscopio de mesa, las fotos se separan la misma distancia de los

    espejos.

    •  ¿Cómo sabemos dónde está el N en la fotografía? Fijándonos en las

    sombras proyectadas y en la hora a la que se hizo la foto. En elhemisferio N la sombra va hacia el N.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    38/68

    Fotografía Aérea: restitución fotogramétrica

    •  La restitución fotogramétrica permite elaborar mapas a partir de un par

    estereoscopico. Se realiza mediante aparatos llamados estereo-

    restituidores. 

    •  la restitución es tanto planimétrica (caminos, ríos, casas etc.), como

    altimétrica (curvas de nivel).

    •  Es distinto de la ortorectificación, que es el proceso por el cual las

    fotografías aéreas son rectificadas para obtener una escala constante en

    ellas (ortofotos). 

    Fotografía Aérea: ortofoto

    •  Una Ortofoto es una fotografía (aérea o satelital) en donde todos sus

    elementos presentan la misma escala y no presentan deformaciones.

    Generalmente la proyección ortogonal se realiza digitalmente

    (programas de fotogrametría, ej: Erdas). Para elaborar una ortofoto se

    requiere un buen MDT.

    •  Georeferenciar implica introducir una deformación a la imagen ya que

    no es posible representar las coordenadas geográficas sobre un plano a

    gran escala. Las ortofotos están georeferenciadas.

    Fotografía Aérea: restitución

    •  Se llama restitución a la búsqueda de la intersección de los rayos

    homólogos de los dos haces. Así se determinaran las coordenadas de los

    puntos del objeto en el sistema de referencia adoptado. 

    •  La restitución consiste en la formación de los pares estereoscópicos, y la

    extracción posterior de los elementos contenidos en ellas mediante unos aparatos llamados estereo-restituidores. 

    Fotos poco oblicuas:

    •  El eje de la cámara está inclinado unos 30º respecto a la vertical.

    •  Cubren un área relativamente pequeña con forma de trapezoide, aunque

    la fotografía sea cuadrada o rectangular.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    39/68

    •  Los objetos se visualizan desde un punto de vista más familiar,

    comparable con la visión desde lo alto de una colina o de un edificio alto.

    •  No se puede aplicar escala a la fotografía entera, y no se pueden medir

    distancias. Líneas paralelas en el terreno no tiene porqué ser paralelassobre la fotografía, por tanto, tampoco se pueden utilizar para medir

    direcciones.

    •  El relieve es apreciable, pero distorsionado.

    •  No aparece el horizonte.

    Fuentes y visores

    •  PNOA: Plan Nacional de ortofotografía aérea (desde avión) del IGN:

    Instituto Geográfico Nacional. Son mosaicos de fotos aéreas con

    resolución máx: 5m. http://www.ign.es/PNOA/. Si sólo quiero descargar

    un topográfico: http://www.centrodedescargas.cnig.es/CentroDescargas

    •  Iberpix: Visor del IGN. Utiliza imágenes de satélite (Landsat y SPOT) y

    fotografía aérea, todo georeferenciado. Puede superponer los mapas

    topográficos del IGN (distintas escala). No 3D. Mapas de usos del suelo(CORINE).

    •  Google Earth: Visor que utiliza fuentes diversas pero siempre foto de

    satélite georeferenciadas. Visión 3D. No es un SIG. No debe usarse en

    trabajos formales. Se puede superponer el mapa geológico nacional

    (MAGNA, del IGME: Instituto Geológico y Minero de España) en

    formato ráster (imagen escaneada).

    • 

    NOTA: Cualquiera de estas fuentes y visores son gratuitos. Paradescargar PNOA o mapas topográficos hay que registrarse en el IGN.

    Para descargar MAGNAS hay que registrarse en el IGME.

    Mapas MAGNA

    •  Mapas geológicos 1:50.000 de España editados por el IGME.

    •  Cada mapa viene con su memoria correspondiente, en la que se explica

    la geología de la zona.

    http://www.ign.es/PNOA/http://www.ign.es/PNOA/http://www.ign.es/PNOA/http://www.ign.es/PNOA/

  • 8/18/2019 APUNTES TELEDETECCIÓN

    40/68

  • 8/18/2019 APUNTES TELEDETECCIÓN

    41/68

    El IFOV (C) y la altitud determinan la resolución de la celda (D). El campo

    angular de vista (FOV) (E) es el que abarca la rotación del espejo y determina el

    swath (F) registrado.

    El sensor convierte la radiación recibida en un valor, no son fotografías, sino imágenesdigitales.

    MODIS: Moderate Resolution Imaging Spectroradiometer, a bordo del Terra y

    del Aqua.

    Exploradores de empuje

    Sin espejo oscilante porque tienen una cadena de detectores que cubre todo elcampo de visión.

    Se excitan con el movimiento del satélite.

    Registran las líneas de escaneo mediante una matriz lineal de sensores (A)

    situados en el plano focal de la imagen (B) formada por el sistema de lentes (C).

    Cada sensor registra los valores de una celda (D).

    El mayor tiempo de escaneo permite una mejor resolución espacial y espectralsin afectar la resolución radiométrica.

    De antena.

    Radiómetros microondas

    •  Sensor pasivo con antena para recepción.

    •  No afectado por atmósfera o iluminación.

    •  Mayor resolución de la imagen a mayor diámetro de la antena.

    •  Poco utilizados en teledetección, puesto que la emitancia de objetos en el

    rango de las micro-ondas es muy escasa y difícil de captar

    •  Cartografía hielo y nieve.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    42/68

    Sensores térmicos

    Utilizan fotodetectores sensibles al contacto directo de fotones sobre su

    superficie para detectar la radiación térmica emitida.

    Son enfriados a temperaturas próximas al 0 absoluto (0º K; -273ºC) para limitar

    sus propias emisiones térmicas.

    Los receptores de imágenes térmicas suelen ser exploradores de barrido que

    detectan la energía sólo en una banda del espectro. Suelen utilizar un patrón de

    referencia.

    Dan T de superficie (las primeras 50 µm), no de todo el volumen del cuerpo.

    Las imágenes obtenidas ofrecen valores “más brillantes” a “más caliente”. 

    Plataformas de teledetección.

    Tres tipos fundamentales:

     –   Satélites: fuera de la atmósfera. Pueden estar muy afectados por

    los parámetros atmosféricos.

     –   Aviones/helicópteros: dentro de la atmósfera. Menos afectados

    por los parámetros atmosféricos.

     –   Estáticos: se sitúan en superficie y se utilizan para contrastar los

    datos aerotransportados con medidas precisas de elementos

    concretos de la superficie.

     –   Terrestres.

     –   Aéreas.

     –   Espaciales:

    Geo-estacionarios

    Órbitas ecuatoriales (36.000 km).

    Heliosincrónicos

    Órbitas cuasi-polares(200-1000 km).

  • 8/18/2019 APUNTES TELEDETECCIÓN

    43/68

    Satélites y tipos de órbitas.

    •  Tipos de órbitas.

    •  Área abarcada (Swath).

    •  Frecuencia de adquisición.

    •  Tipos de sensores.

    Elementos de una órbita

    Los elementos de una órbita son altitud (apogeo y perigeo), inclinación (ángulo

    del plano orbital con el Ecuador) y periodo (duración de una órbita).

    Órbitas geoestacionarias

    El periodo orbital es igual al periodo de rotación de la Tierra. Al orbitar al

    mismo ritmo y en la misma dirección que la Tierra, el satélite está sincronizado

    con respecto a la rotación de la Tierra.

    El satélite se estabiliza a una altura de aprox. 36000 Km, en un plano paralelocon el ecuatorial, proporcionando un panorama de observación muy amplio.

    Son especialmente útiles para observar fenómenos meteorológicos.

    Al estar en el plano ecuatorial, proporciona imágenes distorsionadas de las

    regiones polares.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    44/68

     

    Órbitas heliosíncronas 

    En otros casos lo que se busca es “iluminación” continua. Una órbita

    heliosincrónica permite que la porción de superficie que el satélite cubre

    siempre esté iluminada por el Sol. El satélite siempre pasa por el mismo punto ala misma hora solar. Son órbitas sincrónicas con el sol y permiten una

    recolección regular de datos para comparaciones a largo plazo.

    Se estabilizan a 900 Km. de altura con inclinaciones cerca de 90 grados (suele ser

    orbita polar o casi polar).

    ÓRBITAS CUASI-POLARES: ej: Landsat

    Órbitas N-S. Al sumarse el efecto de la rotación de la tierra (W-E) es posible

    cubrir la mayor parte de la superficie terrestre en un determinado período detiempo.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    45/68

     Los satélites que vuelan en órbitas polares proporcionan una visión más global

    de la Tierra. Orbitan a una altura de 700 u 800 Km, generalmente de manera

    sincronizada con el sol.

    Satélites heliosíncronos de órbita polar o casi polar: el tramo de la órbita S-N se

    llama pasada ascendente y la N-S pasada descendente.

    Lo más probable es que la pasada descendente se realice por la cara iluminada

    por el Sol, y durante las horas de la mañana, momento en que la nubosidad es

    menor. En ese caso, las zonas de sombra aparecerán hacia el oeste (hemisferio

    N). Los sensores térmicos podrán registrar en ambas pasadas.

    CARACTERÍSTICAS ORBITALES:

    La porción (ancho) de la Tierra que el satélite cubre se denomina SWATH.

    En el caso del Landsat los dos términos a conocer son el PATH (número de la

    órbita con respecto a la de inicio) y el ROW (fila de adquisición de la imagen).

    Estas dos “coordenadas” sitúan cada imagen. 

    SATÉLITES LANDSAT

    •  NASA y servicio geológico de EE.UU. Desde 1972. Primer nombre:

    ERTS: Earth Resources Technology Satelites.

    •  Primer satélite de recursos naturales con política de “cielos abiertos”. 

  • 8/18/2019 APUNTES TELEDETECCIÓN

    46/68

    •  Sensor ETM+: Enhanced thematic mapper plus. Canal pancromático con

    alta resolución espacial (15 m) en Landsat 7.

    SATÉLITES SPOT

    - “Sistema para la observación de la Tierra”. 

    - Órbita heliosíncrona circular cuasi polar.

    - Francés, suizo y belga. Desde 1986 hasta ahora: SPOT-1 a 5.

    - Tiene dos sistemas de imagen idénticos, lo que permite adquirir imágenes

    angulares (off-nadir) y la visión estereoscópica de las imágenes.

    Esto permite elaborar modelos digitales del terreno. Ambos pueden operar

    en pancromático (blanco y negro) o multiespectral (color).

    Otros satélites de órbita heliosíncrona y polar:

    •  IRS: Indian Remote Sensing. Desde 1988. Resolución espacial moderada.

    •  IKONOS: empresa EE.UU. Desde 2000. Alta resolución espacial

    (pancromático: 1m, multiespectral: 4 m).

    •  QuickBird: EE.UU. (Digital Globe). Desde 2011. A veces subvencionado

    por la CIA. Órbita baja (450 km) para conseguir mayor resoluciónespacial. La máxima resolución espacial disponible (pancromático:0,61

    m, multiespectral: 2,40 m). También imágenes angulares.

    NASA informa que unos 3.000 satélites operativos y no operativos están

    orbitando el planeta, aunque contabiliza hasta 8.000 objetos orbitando,

    denominados “basura espacial”. 

    Tipos de imágenes de satélite.

    1.  Imágenes pancromáticas:

    Las imágenes pancromáticas se obtienen mediante el registro de

    radiación electromagnética en una sola banda que abarca diferentes

    longitudes de onda del espectro electromagnético (banda de anchura

    elevada) (p.ej. todas las longitudes de onda del espectro visible y el NIR).

    Generalmente, las imágenes pancromáticas son imágenes en blanco y

    negro. Presentan una mejor resolución espacial.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    47/68

    2.  Imágenes multiespectrales:

    Imágenes obtenidas a partir de un sensor multiespectral, que registra bandas

    espectrales discretas, de una anchura variable, no contiguas.

    3. Imágenes hiperespectrales:

    Imágenes obtenidas a partir de un sensor hiperespectral, que registra en bandas

    espectrales generalmente de menor anchura y que son contiguas.

    Características geométricas de imágenes espaciales

    •  Presentan menos errores geométricos que una plataforma aérea como

    consecuencia de la mayor estabilidad de la plataforma y la mayor altura,

    pero siguen teniendo distorsiones, por lo que no pueden superponerse

    directamente sobre una cartografía.

    •  Georeferenciar una imagen es situarla en su posición geográfica, implica

    introducir una deformación a la imagen ya que no es posible representar

    las coordenadas geográficas sobre un plano a gran escala.

    Distorsiones y correcciones.

    Distorsiones geométricas

    Todas las imágenes remotas tienen una distorsión geométrica relacionada con:

    •  La perspectiva de la óptica del sensor (vertical u oblicua).

    • 

    El movimiento del sistema de escaneo.•  El movimiento e inestabilidad de la plataforma.

    •  La altitud de la plataforma (provoca cambios en la escala)

    •  Dirección y velocidad de la plataforma.

    •  El relieve.

    •  La curvatura y rotación de la Tierra.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    48/68

    La distorsión relacionada con el relieve (desplazamiento por el relieve) hace que

    los objetos justo debajo del centro de la lente se vean sólo sus “techos” mientras

    que los adyacentes nos muestran cada vez más su lado. Sucede en la foto y en

    los sistemas de empuje.

    En los sistemas de barrido puede suceder que veamos el desplazamiento por el

    relieve (A) o una deformación tangencial de la escala (B).

    Correcciones de imagen

    Una imagen de satélite está sometida a una serie de interferencias que hacen

    que la información que quiere obtenerse aparezca perturbada por una serie de

    errores.

    •  Fallos en los sensores, generan píxeles incorrectos: líneas anómalas,

    pixeles de aspecto muy contrastado con sus vecinos, efecto “sal y

    pimienta”, imágenes bandeadas (corrección radiométrica). 

    •  Alteraciones en el movimiento del satélite y el mecanismo de captación,

    generan distorsiones en la imagen global (corrección geométrica)

    •  Interferencias de la atmósfera, alteran de forma sistemática los valores de

    los píxeles (corrección atmosférica).

    •  Sombras topográficas (corrección de sombreado topográfico).

    Efecto de la atmósfera

    Gases atmosféricos, componentes químicos como oxígeno, el dióxido de

    carbono, el ozono y el vapor de agua, o partículas de aerosoles causan diversos

    tipos de dispersión (Rayleigh, Mie o no selectiva).

    En el tratamiento digital de la imagen se han modelado diversos métodos decorrección atmosférica.

    Por ejemplo, IDRISI ofrece varias técnicas de corrección atmosférica (modelo de

    substracción de objetos oscuros, modelo de costo, etc..), recogidos en el módulo

    ATMOSC.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    49/68

    Tema 4

    El Espectro Electromágnetico II: RADAR y líder

     

    Espectro infrarrojo:

    -IR cercano.

    -IR medio.

    -IR lejano.

    •  Espectro microondas. Aplicaciones:

    -RADAR.

    •  LIDAR.

    El infrarrojo (IR)

    Cubre de 0,7 µm a 1 mm.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    50/68

    En función de sus propiedades podemos diferenciar el IR reflejado y el IR

    térmico o emitido.

    •  El IR reflejado es radiación solar que se refleja en la superficie de la

    Tierra. Coincide con el IR cercano o próximo.

    •  El IR térmico es energía (radiación) que emite la Tierra en forma de calor.

    Coincide con el IR lejano.(en el IR medio hay mezcla de reflexión y

    emisión)

    Infrarrojo reflejado o cercano (NIR: 0,7 – 1,3 µm)

    La radiación del NIR (Near IR) o IR reflejado se usa en Teledetección de una

    manera muy similar a como usamos la región del visible.

    Las películas de infrarrojo en color obtienen los rangos espectrales del verde,

    rojo y el NIR. Con estas películas se obtienen imágenes en falso color RGB, R=

    NIR, G= rojo, B= verde. Por lo tanto, en películas de IR color, ¿en qué color

    aparecerá la vegetación?

    Especialmente útil en la discriminación de masas vegetales. La vegetación sana

    refleja de manera mucho más potente la radiación del NIR que la banda del

    verde.

    En películas IR en blanco y negro la vegetación se ve blanca porque es muy

    reflectiva.

    Los filtros infrarrojos tienen como misión excluir la radiación ultravioleta y la

    totalidad o gran parte del espectro visible, dejando pasar a través del objetivo

    de la cámara sólamente parte del espectro infrarrojo.

    Las películas infrarrojas están sensibilizadas para trabajar en las longitudes de

    onda comprendidas entre los 700 y los 1.200 nm. Estas películas están tratadasespecialmente para que reaccionen químicamente en estas ondas. Entre las

    películas infrarrojas más usadas tenemos las

    - HIE (película en blanco y negro).

    - EIR (película diapositiva en color).

    Y otras con filtros especiales que simulan efectos, en blanco y negro, falso color,

    o extraños tonos en blanco y negro.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    51/68

    Detectar objetivos camuflados como vegetación

    Otras aplicaciones del NIR en Teledetección:

    - Discriminación entre suelo, vegetación y superficies encharcadas.

    - Identificación de distintas especies de vegetación.

    -  Análisis de stress de la vegetación. Evaluación de impacto de sequías.

    -  Discriminación entre vegetación y cosecha. Productividad.

    - Cartografía de límites tierra-agua. Cartografía de costas.

    - Cartografía geológica.

    El infrarrojo medio (1,3-8 µm)

     –   Primera banda (SWIR  Short wave infrared): contenido de

    humedad en vegetación y suelos.

     –   Segunda banda (IRM  Infrarojo Medio): focos de alta

    temperatura (incendios, erupciones).

    El infrarrojo emitido o térmico o lejano (IRT: 8 – 14 µm)

    Aunque todo objeto por encima del cero absoluto emite por si mismo energía

    electromagnética, la mayor parte de esa energía tiene su origen en la radiación

    solar. Durante el día la superficie terrestre absorbe parte de la energía

    producida por el sol y la emite en forma de radiación térmica. Por la noche la

    absorción es nula, pero la superficie terrestre puede seguir emitiendo esa

    radiación, creándose así un ciclo diario.

    Inercia térmica: resistencia a cambiar de T. Depende de:

    - Densidad del material.

    - Calor específico o capacidad de almacenamiento calor.

    - Conductividad: ritmo de transmisión.

    Inercia térmica

    La inercia térmica del agua es mucho mayor que la de una roca.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    52/68

     Los suelos arenosos y secos presentan baja inercia térmica, y en su temperatura

    se aprecian severos contrastes entre las horas diurnas y nocturnas. En contraste,

    las masas de agua presentan una alta inercia térmica y por ello en la naturaleza

    actúan como termorreguladores del clima.

    El contenido en humedad en suelos es importante. Los suelos húmedos y

    arcillosos presentarán temperaturas diurnas inferiores y nocturnas superiores a

    los suelos secos.Presenta aplicaciones en la cartografía de las superficies terrestres y oceánicas

    así como en estudios meteorológicos.

    A los cuerpos mas fríos les corresponde valores bajos de radiación y a los

    calientes altos; con objeto de comparar los datos del IR con la imagen visible se

    invierte el código de colores de forma que las nubes, que son objetos fríos, se

    vean blancos y los cuerpos calientes (véase la arena del Sahara, por ejemplo) se

    vean oscuros.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    53/68

    Otras aplicaciones: militares, urbanísticas, detección de erupciones e incendios...

    Resumen bandas Landsat ETM

    •  1: Azul. 0,45-0,52 µm. La clorofila la absorbe.

    •  2. Verde. 0,52-0,60 µm

    •  3. Rojo. 0,63-0,69 µm. La clorofila la absorbe.

    •  4. NIR. 0,76-0,90 µm.

    •  5. IR medio. 1,55-1,75 µm

    •  7: IR medio. 2,08-2,35 µm

    •  6: IR térmico. 10,4-12,5 µm

    •  8: Pancromática. 0,52-0,90 µm

    Resolución: 30 m. Excepto: 6 y 8: 15 m. La pancromática se utiliza para

    mezclarla con otras bandas y mejorar la resolución espacial de los datos.

    Espectro microondas. Aplicaciones:-RADAR.

    Las microondas

    Cubre de 1 mm a 1 m

    Son las longitudes de onda más largas empleadas en teledetección

    Es la porción del espectro de interés más reciente.•  Las longitudes de ondas más cortas se comportan como el IR térmico.

    •  Las más largas se aproximan a las ondas de telecomunicaciones.

    •  Son independientes de las condiciones de iluminación y las condiciones

    atmosféricas.

    •  El RADAR, sensor de tipo activo, trabaja dentro del rango de las

    microondas.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    54/68

    RADAR (RAdio Detection And Ranging)

    “DETECCIÓN Y MEDICIÓN DE DISTANCIA POR RADIO” 

    El RADAR emite y recibe radiación electromagnética en pulsos de longitudes

    de onda entre 1mm-1m, por lo tanto funciona dentro del rango de las

    microondas.

    El RADAR estima las distancias hasta la superficie del objeto de estudio en

    función del tiempo que tarda la energía emitida por el sensor en llegar a la

    superficie y volver tras su reflexión.

      RADAR trabaja en longitudes de onda muy superiores al tamaño de las

    gotas de agua (0,1 mm). Por lo tanto, el sensor puede observar a través

    de nubes o humo. Es muy útil para trabajos en zonas polares o tropicales

    (Ej: Cartografía del Amazonas).

      Al tratarse de un sistema activo* , puede operar tanto de día como de

    noche.

      Los sistemas de RADAR pueden producir o no imágenes.

    * Existen sensores pasivos de micro-ondas, denominados radiómetros. Ver tema

    3.

    * Los sensores de micro-ondas activos se dividen en dos:

    •  Los que trabajan con imágenes (2 dimensiones. Ej: RADAR).

    •  Los que sólo trabajan con medidas en 1 dimensión (Ej: altímetros,

    dispersómetros de vientos).

    •  SLAR: RADAR lateral aereo-transportado. Resolución depende del

    diámetro de la antena. Las imágenes se parecen a las de una foto aéreatomada con el sol bajo.

    •  SAR: RADAR de apertura sintética. Basado en el efecto Doppler: se

    registran dos pulsos de un mismo punto de la superficie terrestre en dos

    momentos distintos de la trayectoria, así la resolución es equivalente a la

    de una antena con diámetro igual a la distancia entre ambos puntos. El

    efecto Doppler permite medir la velocidad relativa entre un sensor y un

    reflector. Esto es lo que hacen los radares de tráfico. El efecto Doppler lo

  • 8/18/2019 APUNTES TELEDETECCIÓN

    55/68

    percibimos como el cambio de tono de un claxon en un coche que se

    mueve.

    En la interacción de RADAR con los objetos estudiados, la imagen obtenida

    depende de:

    •  Rugosidad, naturaleza y geometría de la superficie.

    •  Contenido en humedad y propiedades eléctricas del objeto.

    •  Ángulo de incidencia y distancia al objeto.

    •  Polarización la onda.

    Según la naturaleza de la superficie estudiada, el haz de micro-ondas se

    comporta de distintas maneras:

    En afloramientos rocosos o suelos se dispersa al exterior.

    En coberteras vegetales se dispersa en su interior.

    En superficies acuáticas se refleja de forma especular.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    56/68

    Distintos tipos de retro-dispersión

    A mayor retro-dispersión, tonos más claros en la imagen RADAR.

    Reflexión en función de la naturaleza y geometría de los objetos

    Capacidad de penetración del RADAR

    Cuanto mayor es la humedad del suelo, menor es la capacidad de penetración

    de la onda, para una misma longitud de onda.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    57/68

    Bandas RADAR

    El RADAR se diseñó inicialmente para medir distancias y detectar objetos en

    movimiento. La nomenclatura de sus bandas es heredada de su uso militar. Son

    letras mayúsculas.

    Ejemplo:

    •  Banda X = Rojo

    •  Banda L = Azul

    •  Banda C = Verde

  • 8/18/2019 APUNTES TELEDETECCIÓN

    58/68

    Polarización de la onda

    Resolución SLAR

    Longitud del pulso: tiempo que tarda la antena en emitir un pulso.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    59/68

    Si la distancia entre dos objetivos es inferior a la mitad de la longitud del pulso,

    el RADAR no los discrimina.

    •  Slant-range distance: distancia del avión al objetivo.

    • 

    Slant-range resolution: resolución en la línea que une al avión con el

    objetivo. Slant significa inclinación.

    •  Ground range resolution: resolución en la horizontal.

    cos ángulo de depresión = slant resolution/ ground resolution.

    ground resolution = slant resolution/ cos a. depresión= velocidad luz x tiempo/2

    cos a. depresión si la slant resolution es igual a λ/2.

    Por lo tanto la slant resolution no cambia con la distancia del avión al objetivo,

    pero la resolución horizontal sí.

    La resolución en azimut está determinada por la anchura del haz, que se abre a

    medida que aumenta la distancia desde el avión. Esto hace que la resolución sea

    menor a medida que nos alejamos del avión. En R1 el RADAR discrimina los

    puntos A y B, pero en R2 no.

    Resolución en azimut = ángulo beta x distancia GR. (en rad y m)•  Dos fallas están separadas entre sí por 15 m de distancia. Si el sistema

    SLAR tiene una anchura de haz de 1.8 miliradianes, y las fallas se

    encuentran aproximadamente a 12 km del SLAR, ¿Podrán diferenciarse

    las fallas en la imagen obtenida?

    Deformaciones SLAR

    Los SLAR pueden tener dos tipos de sistemas para registrar la imagen:

    •  Sobre la línea que une el avión con el objetivo (slant distance). La

    deformación aumenta al alejarnos del avión.

    •  Sobre la horizontal (ground distance).

  • 8/18/2019 APUNTES TELEDETECCIÓN

    60/68

     

    Para hacer correcciones: Pitágoras: Slant2 = H2 + Ground2 

    Desplazamiento del relieve SLAR

    Es diferente a la foto aérea porque aquí no hay proyección cónica.

    “Acortamiento” ( foreshortening ) •  Si la pendiente del objeto es inferior al ángulo de incidencia.

    •  Se puede corregir con un MDT.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    61/68

    “Solapamiento inverso” (layover ) 

    •  Cuando el haz alcanza antes el techo que la base del objeto. El techo se

    “desplaza” hacia el sensor.

    • 

    Se puede corregir con un MDT.

    Correcciones SLAR

    “Sombras” 

    •  (RADAR shadow) 

    • 

    Cuando el haz es incapaz de “iluminar” la superficie tras un objeto. 

    Efecto de las sombras generadas por el relieve:

    La información de las laderas se pierde, salvo que el satélite esté diseñado para

    pasar por el mismo lugar con dos ángulos diferentes: Pasada ascendente y

    descendente del ERS-1 sobre la Sierra de Gredos

    (abajo el MDT de la misma zona).

    Las imágenes RADAR sufren diferentes tipos de distorsión, dependiendo de laposición del sensor y del ángulo de incidencia (acortamientos, recubrimientos y

    sombreados). Precisamente esta es característica la que hace de RADAR una

    valiosa herramienta para estudios topográficos y elaboración de MDT.

    Interferometría RADAR

    •  Mide la diferencia de fase (A) en el pulso RADAR entre dos

    adquisiciones casi simultáneas.

    •  Se utiliza para detectar la topografía mediante la medida de las

    diferencias en el tiempo de respuesta.

    •  Detecta los cambios en altura o posición (sismología)

    Para obtener pares estereoscópicos conviene que el RADAR obtenga ambas

    fotos desde el mismo lado para que la “iluminación” del RADAR sea igual y

    evitar tener que hacer muchas correcciones.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    62/68

     

    El RADAR se diseñó inicialmente para medir distancias y detectar objetos en

    movimiento. Sin embargo, en la actualidad son numerosas sus aplicaciones:

    Proporcionan una información muy fina sobre la rugosidad de las superficies

    observadas: geometría y textura de las superficies agrícolas y forestales, patrón

    de las olas del océano, micromorfología de suelos...

    Son muy sensibles al contenido en agua de los materiales superficiales:humedad de la vegetación y del suelo.

    Los sistemas RADAR son capaces de obtener imágenes de la superficie terrestre

    cualesquiera que sean las condiciones meteorológicas.

    Se aplica en estudios topográficos, batimétricos, agrícolas y forestales,

    geológicos, hidrológicos, oceanográficos, meteorológicos y de diferenciación

    entre hielo y nieve.

    Aplicaciones RADAR: cartografía

  • 8/18/2019 APUNTES TELEDETECCIÓN

    63/68

    Aplicaciones del RADAR: cartografía geológica

    Aplicaciones de la interferometría RADAR

    • 

    MDT.•  Modelización de terremotos.

    •  Desplazamiento de glaciares.

    Aplicaciones RADAR: capacidad de penetración bajo lluvia intensa

    Aplicaciones radar: Meteorología: Dirección y velocidad del viento

    Aplicaciones radar: oceanografía: corrientes y oleaje

    Aplicaciones RADAR: Oceanografía: Detección de vertidos de petróleo

    Satélites

    Satélites con Radar EE.UU.

    •  Seasat

  • 8/18/2019 APUNTES TELEDETECCIÓN

    64/68

    •  SIR-A

    •  SIR-B

    •  SIR-C

    •  Light SAR

    Otros satélites con RADAR

    •  ERS -1,2 (Europa)

    •   JERS-1 (Japón)

    •  Radarsat (Canadá)

    •  Almaz (Rusia)

    GRACE - Gravity Recovery and Climate Experiment

    El campo gravitatorio de la Tierra es variable en el tiempo y el espacio, siendo

    una función de la distribución de la masa en el planeta. La misión GRACE

    permite (desde 2002) estimar modelos globales del campo gravitatorio terrestre

    cada 30 días y durante los 5 años que durará el proyecto. Se podrán valorar los

    movimientos de masas alrededor y en el interior del globo. Utiliza un sistema

    de medidas basado en microondas con una precisión de 10 micrómetros.

    Cómo funciona?

    Dos satélites idénticos orbitando uno detrás del otro en el mismo plano orbital a

    una distancia de 220 Km. Al sobrevolar áreas con una mayor o menor

    concentración de masa en el planeta, el satélite que viaja primero se ve afectado,

    variando su situación con respecto al otro. Aunque la variación de distancia es

    casi imperceptible, el sistema de medidas con microondas es capaz de detectar

    estos pequeños cambios.

    LIDAR.

    LIDAR (LIght Detection And Ranging)

    El LIDAR es un sistema de teledetección activo como el RADAR, que

    utiliza luz láser en vez de microondas.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    65/68

    La medida de distancias con láser se ha hecho desde los 1960 pero sólo cuando

    los GPS y las Unidades de Medida Inercial (IMU) han sido fácilmente

    disponibles se ha convertido en una herramienta práctica.

    El pulso láser: longitudes de onda de los sensores LIDAR

    Ya que el LIDAR trabaja en estas long. onda, no puede realizar su función bajo

    cualquier condición meteorológica ya que el objetivo ha de ser visible en el

    rango del instrumento. Neblina puede manejarse, niebla no.

    Ventajas de usar láser:

    •  Al tener una longitud de onda específica sabemos cómo interactúa con la

    atmósfera y los materiales.

    •  El pulso láser es muy direccional, se trata de un haz muy estrecho que

    permanece como tal largas distancias, mientras que el RADAR emite en

    muchas direcciones y la energía se dispersa.

    Entre sus ventajas, destaca la cualidad de obtener datos en zonas de sombra yen terrenos con gran pendiente, además de permitir una exacta separación entre

    objetos próximos (suelo y cobertera forestal).

    Aplicaciones LIDAR: Topografía urbana, 

    Generación de MDT, 

    Topografía, 

    arqueología, 

    Urbanismo

    Aplicaciones del LIDAR: bosques/planificación forestal

     

    Alturas, distribución y volumen de biomasa

  • 8/18/2019 APUNTES TELEDETECCIÓN

    66/68

    •  Los MDT permiten hacer predicciones de erosión y proyectos de

    ingeriería (ej: trazado de carreteras)

    Aplicaciones del lidar: tectónica

    Aplicaciones del lidar: minería

    Satélites con LIDAR

    CALIPSO

    -Constelación de satélites. Desde 2006. NASA.

    -Imágenes LIDAR de la atmósfera terrestre. Estudio de la interacción de losaerosoles y las nubes.

  • 8/18/2019 APUNTES TELEDETECCIÓN

    67/68

     

    Teledetección

  • 8/18/2019 APUNTES TELEDETECCIÓN

    68/68