s istar análisis de sensores ópticos embarcados€¦ · tecnologÍas aplicables en sistemas istar...
TRANSCRIPT
Marzo 2018 – Julio 2018
Sistemas ISTAR – Análisis de sensores ópticos embarcados
Estado del Arte de las
Tecnologías Cátedra Isdefe-UPM
Marzo 2018 – Julio 2018
Madrid, julio de 2018
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 1
ÍNDICE
1. INTRODUCCIÓN .................................................................................................................... 2
2. OBJETIVOS ............................................................................................................................. 3
3. TECNOLOGÍAS APLICABLES EN SISTEMAS ISTAR ...................................................... 4
3.1. SENSORES ÓPTICOS ......................................................................................................... 6
3.1.1. TIPOS DE SENSORES ÓPTICOS ........................................................................... 6
3.2. PLATAFORMAS ................................................................................................................. 9
3.2.1. PLATAFORMAS TERRESTRES ............................................................................ 9
3.2.2. PLATAFORMAS NAVALES ................................................................................ 10
3.2.3. PLATAFORMAS AÉREAS ................................................................................... 11
3.2.4. PLATAFORMAS SATELITALES ........................................................................ 12
4. DISEÑO DE LA HERRAMIENTA DE ANÁLISIS .............................................................. 14
4.1. PARÁMETROS TÉCNICOS DE ENTRADA ................................................................... 14
4.1.1. PARÁMETROS DE SENSORES ÓPTICOS ......................................................... 14
4.1.2. PARÁMETROS DE LAS PLATAFORMAS ......................................................... 16
4.2. PARÁMETROS OPERATIVOS DE SALIDA .................................................................. 16
4.3. MODELOS ANALÍTICOS ................................................................................................ 18
4.4. IMPLEMENTACIÓN DE LA HERRAMIENTA .............................................................. 23
5. ANÁLISIS DE ESCENARIOS CON LA HERRAMIENTA ................................................. 26
5.1. ESCENARIO FRONTERIZO ............................................................................................ 27
5.2. ESCENARIO DE INTELIGENCIA SOBRE CONSTRUCCIÓN DE INFRAESTRUCTURAS.. 33
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 2
1. INTRODUCCIÓN
La innovación y la investigación tecnológica siempre han desempeñado un papel esencial en las
estrategias de defensa, buscando nuevos sistemas que permitan cumplir el principal objetivo de
proteger a la población y de hacer frente a las amenazas, de una manera más eficiente.
La gran cantidad de fuentes y volumen de información junto con este crecimiento de nuevas
tecnologías hace que se desarrollen los sistemas ISTAR (Intelligence, Surveillance, Target
Acquisition and Reconnaissance). Estos sistemas integran aquellas tecnologías que apoyan
misiones militares mediante la vigilancia, adquisición y reconocimiento de objetivos. Su función es
obtener información añadida sobre los escenarios de acción de las misiones, complementando el
trabajo que realizan otros sistemas de vigilancia.
Los sistemas ISTAR están formados por conjuntos de sensores, tanto ópticos como de
radiofrecuencia (sensores radar y de guerra electrónica), y por las plataformas en las que se sitúan
dichos sensores, como vehículos terrestres, aeronaves o satélites.
Debido al continuo avance tecnológico y a la mayor complejidad de los sensores, es importante
desarrollar herramientas de análisis que permitan tomar decisiones sobre el diseño de sistemas
ISTAR de una forma más sencilla, relacionando los parámetros y características técnicas de los
sensores con aquellos parámetros operativos que son requeridos en las misiones ISTAR.
En nuestro caso nos centraremos en el análisis de sensores ópticos embarcados en algunas
plataformas concretas como son las aeronaves y los satélites.
Por todo ello, el propósito principal es diseñar y desarrollar una herramienta para el estudio de
distintos sensores ópticos embarcados en plataformas aéreas y satélites, y el análisis del posible uso
de estos sistemas en misiones ISTAR.
El desarrollo de esta herramienta permitirá seguir el flujo de trabajo que se muestra en la Figura 1.
En primer lugar, a partir de las hojas de especificaciones de los distintos sensores y plataformas se
eligen aquellos parámetros técnicos que son útiles para estimar las capacidades operativas de las
combinaciones entre sensores y plataformas (sistema ISTAR). Estos parámetros se introducen en la
herramienta y, a través del análisis de los mismos y del uso de modelos y ecuaciones analíticas, se
estiman para dichas combinaciones los parámetros operativos de interés para misiones ISTAR. Una
vez conseguido esto, se puede realizar una comparación entre los requisitos operativos necesarios
en la misión ISTAR estudiada y los parámetros obtenidos con la herramienta, para poder
seleccionar como resultado el sistema ISTAR más adecuado. De esta forma se consigue simplificar
la toma de decisión en el diseño de sistemas y planificaciones de misiones ISTAR.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 3
Figura 1. Flujo de trabajo para el análisis de sistemas ISTAR (sensor + plataforma) utilizando la herramienta desarrollada.
2. OBJETIVOS
El objetivo principal de este trabajo es el diseño y desarrollo de herramientas que permitan analizar
y evaluar, a partir de sus características técnicas, las capacidades operativas de distintos tipos de
sensores ópticos (cámaras de espectro visible, cámaras infrarrojas y cámaras hiperespectrales)
embarcadas en diferentes plataformas.
Para ello se han planteado los siguientes objetivos:
- Desarrollo de un estado del arte de la tecnología mediante la recopilación de información
sobre los sistemas ISTAR, sus características, sus funciones y sus tecnologías, más
concretamente sobre sensores optrónicos (infrarrojos, de rango visible e hiperespectrales)
embarcados en plataformas como aeronaves o satélites.
- Diseño e implementación de una herramienta de análisis a partir de los parámetros de
distintos sensores optrónicos (field of view, número de pixels, instantaneous field of view,
frames per second, ...) y de las plataformas (velocidad de vuelo, altura de vuelo, etc.) para
obtener como resultado aquellos conjuntos más compatibles para desarrollar un sistema
ISTAR con las especificaciones operativas deseadas (probabilidad de detección,
probabilidad de falsa alarma, probabilidad de identificación, alcance de detección,
resolución espacial, velocidad de refresco de la información, área cubierta, etc.).
- Proponer y analizar escenarios operativos ISTAR con el objetivo de obtener resultados
acerca de qué sensor y plataforma son los que mejor se adaptan a cada uno de los escenarios
o cuáles cumplen algún requisito determinado.
- Analizar los resultados obtenidos e identificar las limitaciones que puedan tener y las
necesidades que no estén cubiertas, proponiendo posibles mejoras para el futuro, para
elaborar las conclusiones del trabajo.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 4
3. TECNOLOGÍAS APLICABLES EN SISTEMAS ISTAR
En un contexto en el que los avances tecnológicos en el ámbito civil se solapan cada vez más con
los militares y debido al gran avance tecnológico del mundo actual, la tecnología utilizada para
defensa y seguridad se ve obligada a actualizarse de forma rápida y desarrollar nuevos mecanismos
y soluciones, como nuevos sistemas ISTAR, que se adapten a cada situación y escenario con el
objetivo de realizar las misiones operativas asociadas de la manera más eficaz [5].
Estos sistemas ISTAR engloban la adquisición de información en misiones militares mediante
inteligencia y vigilancia, detección y reconocimiento de objetivos. Su función principal es obtener
información útil a partir de este reconocimiento y vigilancia para tomar las mejores decisiones en
cada situación. Están estructurados en áreas que realizan las diferentes funciones para obtener esta
información en relación al escenario en el que se encuentren [8]:
a) La adquisición de los datos mediante un sensor incluye todas las fuentes que permiten
captar la información y el procesamiento de estos datos dentro del sensor.
b) El procesamiento y la explotación de los datos incluye las actividades necesarias para
analizar la situación y la información, y, a partir de esta, evaluar el desarrollo de
mejoras sobre el sistema.
c) La distribución de la información es esencial para el buen funcionamiento de los
sistemas en cada momento. Aquí se incluyen los aspectos más relevantes de la
implementación de todo el sistema de transmisión.
Los sistemas ISTAR están formados por la combinación de sensores con las plataformas donde
estos están embarcados.
Un sensor es un dispositivo utilizado para medir algún parámetro físico y, a partir del
procesamiento de esta información, proporcionar datos a un sistema superior. En el ámbito de la
seguridad y la defensa se emplean por su gran capacidad de localizar y detectar ciertas señales u
objetos.
Existen dos tipos principales de sensores:
a) Sensores activos: son aquellos que generan su propia radiación y reciben los ecos que se
producen al reflejarse dichas señales en los blancos. Por ejemplo: el radar o el lidar
(tecnología láser).
b) Sensores pasivos: son aquellos que reciben radiación emitida por otras fuentes, como la
de Sol que se refleja en los objetos o en la superficie terrestre, o la radiación emitida por
los propios cuerpos, como por ejemplo las cámaras de espectro visible o de infrarrojos.
Dentro de los sensores pasivos se encuentran los sensores fotográficos, que son el medio
más utilizado en teledetección, escáneres de barrido y escáneres de empuje (más
utilizados en satélites), y también destacan las cámaras de vídeo y los sensores
radiómetros de microondas [3].
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 5
El uso de sensores pasivos ha aumentado en equipos de defensa y guerra electrónica debido a que
presentan la ventaja de ser menos detectables que los sensores activos, ya que no son fuentes de
radiación. Por este motivo, al no conocer su posición, es más difícil que sean interferidos por
equipos de guerra electrónica. Como desventaja, estos sensores deben ser sensibles a las bandas de
frecuencia determinadas por los objetivos deseados.
Es habitual que en los sistemas existan sensores de ambos tipos para obtener las mejores
prestaciones [1].
En los sistemas ISTAR suelen integrarse distintos tipos de sensores con diferentes principios de
medida y funcionalidades, que se resumen en la Tabla 1:
a) Ópticos: en cuyo análisis se centra este trabajo y cuyas características y tipos se detallan a
continuación.
b) Radar: sensor de tipo activo muy utilizado en misiones ISTAR que se basa en la emisión de
señales de radiofrecuencia y en la recepción de las reflexiones que se producen en los
objetos del escenario. Se distinguen los radares GMTI (Ground Moving Target Indicator),
que se centran en la detección de blancos móviles ocultos en clutter, y los radares SAR
(Synthetic Aperture Radar) embarcados generalmente en plataformas aéreas para obtener
imágenes de la superficie terrestre o marítima. Utilizan, por tanto, ondas electromagnéticas
para medir distancias, altitudes, velocidades de objetos móviles, reflectividad, etc. Estos
sensores, aunque generalmente presentan una menor resolución que los sensores ópticos, se
ven menos afectados por las condiciones meteorológicas y por la situación de luminosidad
(día o noche).
c) Acústicos: utilizados para detectar y clasificar blancos o prevenir amenazas mediante ondas
sonoras, como ruidos de vehículos o de explosiones.
d) Sensores de guerra electrónica: estos son utilizados para la intercepción de señales de RF en
comunicaciones o transmisiones. Por ejemplo, se emplean para la localización de fuentes de
emisiones radar y para la estimación de los parámetros de la forma de onda utilizada.
TIPO DE SENSOR PRINCIPIO DE MEDIDA FUNCIONALIDAD
Ópticos Medida de la radiación en las
bandas ópticas
Localización, identificación y
seguimiento de blancos
Radar
Medida de las reflexiones
producidas en los blancos de la
señal de radiofrecuencia emitida
Localización, clasificación y
seguimiento de blancos
Acústicos Medida de sonidos y señales
acústicas (ondas de presión)
Detección y clasificación de blancos,
explosiones o disparos.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 6
Guerra electrónica Medida de emisiones de
radiofrecuencia
Detección y clasificación de
emisiones de radiofrecuencia.
Interceptación de comunicaciones
Tabla 1. Tipos de sensores que se integran en los sistemas ISTAR
Para mejorar la capacidad del sistema completo y obtener mejores resultados, a la hora de procesar
los datos se utiliza a menudo la fusión de datos obtenidos de distintos tipos de sensores
complementarios (por ejemplo, radar-ópticos-acústicos).
3.1. SENSORES ÓPTICOS
Un sensor óptico es aquella tecnología utilizada para captar imágenes a distancia de diferentes
objetos mediante la emisión de un haz de luz que es reflejado en el objeto que se quiere detectar.
Estos sensores se están utilizando cada vez más en sistemas para defensa y seguridad debido a su
precisión a la hora de localizar objetivos y escenarios. Además, los sensores optoelectrónicos
destacan por su capacidad de trabajar de forma pasiva o activa, permitir formación de imágenes en
tiempo real con técnicas convencionales y su peso y tamaño pequeño, lo que facilita su integración
en equipos.
También presentan algunos inconvenientes. El más significativo es la influencia de las condiciones
ambientales, donde la presencia de lluvia, niebla o humo limita su alcance o los inutiliza. A veces,
este hecho hace necesario el uso de otro tipo de sensores de apoyo como radares, cuyas señales de
menor frecuencia sufren una menor atenuación en dichas situaciones. Además de esto, su
fragilidad, su elevado coste de desarrollo, su pequeña capacidad de penetración en escenarios con
vegetación densa o su limitado tiempo de vida también suponen limitaciones en estos dispositivos.
A pesar de todo esto, su utilización aumenta de forma continua y son numerosas sus aplicaciones
en localización e identificación de objetivos, navegación, teledetección, etc. Destacan equipos
como visores diurnos y nocturnos, cámaras térmicas, seguidores de infrarrojos o radares láser [1].
3.1.1. TIPOS DE SENSORES ÓPTICOS
Los sensores ópticos pueden obtener información de distintas regiones del espectro, en función del
rango espectral existen:
a) Sensores de espectro visible:
Presentan respuestas a la parte del espectro que es visible para el ojo humano, es decir,
toman imágenes de radiación (luz) visible. El espectro de luz visible se encuentra entre
la luz violeta de longitud de onda de 400nm y la luz roja de 700nm [2].
Los sensores de espectro visible se encuentran en una gran variedad de ámbitos, tanto
civiles como militares, y embarcados en distintos tipos de plataformas. Un ejemplo de
este tipo de sensores es el OLCI (Ocean and Land Colour Instrument) que se encuentra
embarcado en el satélite de observación terrestre Sentinel-3, el cual forma parte del
Programa Copernicus desarrollado por la Agencia Espacial Europea (ESA). Este sensor
está basado en el diseño del MERIS (Medium Resolution Imaging Spectrometer)
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 7
embarcado en la plataforma Envisat, cuya misión finalizó en el año 2012, y el cual
recogía información de la superficie terrestre en el rango visible mediante cinco cámaras
repartidas por la plataforma [15]. El sensor OLCI, mostrado en la Figura 2, se encarga
de recoger imágenes de la Tierra también a través de cinco cámaras, ofreciendo un
campo de visión amplio, y trabaja en 21 bandas del espectro tanto de rango visible como
de infrarrojo cercano (0.4-1.02 µm) [14]. Por esto se podría decir que es un sensor
hiperespectral, pero este contiene menos bandas que otros sensores hiperespectrales,
incluyendo su mayor parte en el rango visible. Además de este sensor, el satélite
Sentinel-3 incluye también otros tipos de sensores para obtener la información de la
superficie terrestre y oceánica.
Figura 1. Ejemplo de sensor óptico de espectro visible: (izq.) Sentinel-3 OLCI Instrument [24] y (dcha.) satélite
Sentinel-3 [25].
b) Sensores de infrarrojos:
Estos sensores ofrecen respuesta a aquella parte del espectro que no es visible para el
ojo humano y, además, cuya frecuencia es inferior a la zona visible del espectro. Estos
sensores abarcan longitudes de onda entre 750nm y 1mm [2]. Son capaces de localizar
objetivos a través de la temperatura de los mismos debido a la emisión de los cuerpos en
la banda del infrarrojo.
Como en el caso anterior, también existen multitud de sensores infrarrojos destinados a
diferentes funciones. En el ámbito militar su uso está muy extendido, por ejemplo, el
sistema SeaFLIR 280-HD, que se muestra en la Figura 3, ofrece grandes prestaciones en
vigilancia marítima. Este sensor obtiene toda la información necesaria en misiones
ISTAR en alta definición incluso en situaciones donde haya niebla, bruma o humo, al
contrario que otros sensores. Trabaja con cuatro cámaras simultáneamente junto con tres
láseres y una unidad de medida muy precisa. Además de esto, tiene un buen sistema de
estabilidad por lo que ofrece imágenes con detalles claros, aunque las condiciones del
mar sean extremas [16].
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 8
Figura 2. Ejemplo de sensor de infrarrojos: (izq.) Sensor SeaFLIR 280-HD y (dcha.) Ejemplo de imágenes
obtenidas con el sensor [23].
c) Sensores hiperespectrales:
Se trata de una tecnología emergente de reciente desarrollo y continuo crecimiento.
Ofrecen la ventaja de operar en distintas bandas de frecuencia a la vez, por lo que
solventan algunas limitaciones de otros tipos de sensores, facilitando, por ejemplo, las
tareas de clasificación de los blancos detectados al disponer de una mayor información
espectral.
Normalmente, las plataformas donde van embarcados este tipo de sensores son
plataformas aéreas o plataformas espaciales, ya que de esta forma se puede escanear una
zona (en general toman la información fila a fila de la imagen utilizando un array de
sensores). Aunque, en un principio, la resolución de los sensores en plataformas aéreas
era más alta, cada vez se está equiparando más con la resolución de los sensores
embarcados en satélites [10]. Cada pixel de la imagen obtenida contiene todas las
longitudes de onda del rango del sensor utilizado [10].
Con respecto al procesado de la imagen, este es más complejo que en otros tipos de
sensores ya que al recoger información de varias bandas del espectro para cada píxel, se
requiere una elevada carga computacional y apenas existen sistemas que trabajen en
tiempo real. Como alternativa se podría realizar una observación de la zona, tomar la
información y más adelante procesarla.
Como ejemplo, encontramos el sensor hiperespectral “HyMap”, representado en la
Figura 4. Es un sistema formado por cuatro espectrómetros que abarcan bandas del
espectro entre los 450 nm y los 2450 nm, cubriendo casi 130 bandas con una anchura de
entre 15 y 18 nm. Además, el sensor incluye un sistema de calibración utilizado para
controlar la estabilidad de la señal [11]. Este sensor fue utilizado por el ejército de
Estados Unidos embarcado en un avión WB-57 de la NASA para la detección de
explosivos en una zona de Afganistán, aunque también se ha utilizado para localizar
recursos minerales.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 9
Figura 3. Ejemplo de sensor hiperespectral: (izq.) Sensor HyMap [11] y (dcha.) avión WB-57 de la NASA en el
que se embarca [31].
Para el uso de los sensores pasivos de espectro visible e hiperespectrales hay que tener en cuenta
tanto las horas de luz de cada zona de la Tierra como el ángulo de incidencia y las condiciones de
la atmósfera, ya que la información a obtener de ellos depende de la luz solar reflejada en la
superficie terrestre [10]. Para los sensores infrarrojos no hay que tener en cuenta la luz solar ya que
con ellos se mide la radiación que emiten los propios objetos por su temperatura.
3.2. PLATAFORMAS
Las plataformas de los sistemas ISTAR son el soporte de los sensores para la detección de
objetivos. Según la zona en la que se sitúan estas plataformas para su función, hay distintos tipos
con características específicas en cada caso: plataformas terrestres, plataformas navales,
plataformas aéreas y plataformas espaciales.
Aunque cada tipo de plataforma se suele utilizar en ámbitos diferentes, se está aumentando el uso
de sistemas que incluyen distintos tipos de plataformas con el objetivo de obtener mejores
resultados y para compensar las posibles desventajas de cada uno [9].
Además de estas plataformas, todas ellas tripuladas, actualmente se están desarrollando sistemas
que permiten integrar plataformas con posibilidad de realizar sus funciones sin necesidad de llevar
un piloto a bordo. Esto supone un avance en aquellas misiones que pueden poner en riesgo al ser
humano como el acceso y reconocimiento del terreno en zonas de guerra.
En este trabajo se ofrece información sobre todos los tipos de plataformas pero centraremos el
estudio en las plataformas aéreas y satelitales.
3.2.1. PLATAFORMAS TERRESTRES
Las plataformas terrestres son aquellas plataformas que operan en contacto con el suelo. Son las
plataformas más sencillas de desplegar y ofrecen información del terreno desde una distancia más
corta. Esto provoca que el campo de visión sea más reducido, por lo que en ocasiones estas
plataformas se apoyan en otras como las plataformas aéreas para salvar este inconveniente.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 10
Estos vehículos, como se muestra en la Figura 5, utilizan tecnología que permite tanto reconocer la
zona (cámaras infrarrojas, cámaras de visión nocturna, etc.) como gestionar la navegación del
propio vehículo (sistemas GPS de gran precisión y sistemas de medida inerciales).
También en este caso se desarrollan plataformas no tripuladas, denominadas UGV (Unmanned
Ground Vehicle), donde los sensores embarcados permitirán que tome decisiones de forma
autónoma o controlarlo a distancia a través de un operador humano [9].
Figura 4. Ejemplo de una plataforma terrestre y del sistema ISTAR embarcado compuesto por un sistema
radar y múltiples sensores ópticos desarrollado por INDRA [19].
3.2.2. PLATAFORMAS NAVALES
Estas plataformas tienen el objetivo de reconocer y monitorizar zonas acuáticas, y en ocasiones
sirven de apoyo para equipos de salvamento. Además, se desarrollan sistemas de plataformas
navales como apoyo a plataformas aéreas y viceversa, como el Buque de Proyección Estratégica
Juan Carlos I, mostrado en la Figura 6.
Las plataformas navales se dividen en dos grupos: de superficie (embarcaciones) y submarinas. Al
igual que con otras plataformas, se desarrollan aquellas no tripuladas, también divididas en dos
grupos: USV (Unmanned Surface Vehicle) y UUV (Unmanned Underwater Vehicle) [9].
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 11
Figura 5. Buque de Proyección Estratégica Juan Carlos I como ejemplo de una plataforma naval que permite embarcar
sistemas ISTAR [29].
3.2.3. PLATAFORMAS AÉREAS
Estas incluyen las plataformas aéreas convencionales como aviones o helicópteros cuya función en
misiones ISTAR es la de reconocer el terreno y localizar objetivos. Estas plataformas tienen la
ventaja de realizar su función de una manera más rápida que el resto de plataformas y, además,
obteniendo un campo de visión mucho más amplio para la obtención de información sobre una
zona más extensa y con mayor resolución que otras plataformas como los satélites. Esto permite
que también actúen como plataformas de apoyo a otros tipos como las terrestres o las navales en
sistemas cooperativos.
En este apartado se incluyen también aquellas plataformas aéreas no tripuladas, cuyo desarrollo se
encuentra más avanzado que en otras áreas. Los UAVs (Unmanned Aerial Vehicle) son aeronaves
no tripuladas, cuyo primer desarrollo fueron los RPAS (Remotely Piloted Aircraft System) los
cuales son tripulados a distancia por un operador humano e incluyen tecnologías de detección y de
gestión de posibles problemas [4]. Actualmente existen también UAVs no controlados de forma
remota, si no que sus movimientos y navegación se realizan de manera autónoma a partir de sus
sensores embarcados.
El uso de los UAVs es frecuente y seguirá aumentando tanto en el ámbito civil como en el ámbito
militar. En este último caso se suelen denominar UCAV (Unmanned Combat Aerial Vehicle), su
principal objetivo es realizar vigilancia del terreno de una manera eficaz evitando el riesgo para las
personas que pueden tener las zonas de conflictos, se limitan a cumplir su misión sin que exista la
necesidad de recuperar la plataforma de forma íntegra [9].
Un ejemplo de plataforma aérea es el UAV Predator, mostrado en la Figura 7. Este vehículo no
tripulado ha sido utilizado por operadores de distintos países, pero sobre todo por la Fuerza Aérea
de los Estados Unidos y existen diferentes versiones del mismo. En nuestro caso estudiamos el
MQ-1, el cual es un sistema que, volando a media altura, es utilizado para vigilancia y
reconocimiento del terreno en algunas misiones [13]. Para realizar esta vigilancia, lleva embarcado
el sistema multiespectral AN/AAS-52 MTS (Multi-Spectral Targeting System) en el cual hay
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 12
integrados sensores electro-ópticos, infrarrojos y láser, además de iluminadores o cámaras de color,
lo cual permite obtener imágenes en tiempo real como apoyo a las misiones [12]. Este sistema
también se encuentra integrado en otras plataformas como en los helicópteros MH-60R, también
utilizados por la armada estadounidense.
Figura 6. UAV predator (sup.) [20], sistema multiespectral AN/AAS-52 MTS (inf. Izq.) [21] y helicópteros MH-60R (inf.
dcha.) [22].
3.2.4. PLATAFORMAS SATELITALES
Las plataformas satelitales se utilizan para la vigilancia y la observación de determinadas zonas de
la Tierra además del despliegue de comunicaciones y de sistemas de navegación [7]. La gran
ventaja de estas ante el resto de plataformas es la cobertura global de la Tierra que se puede obtener
en las imágenes y la observación de la misma en diferentes escalas, además de una comunicación y
transmisión de información más segura.
En el ámbito de defensa se busca también el desarrollo de pequeños satélites con el objetivo de que
su desarrollo sea rápido y el coste más bajo, además con esto se quiere conseguir una
disponibilidad y un despliegue de una manera más rápida [4].
En este tipo de plataformas hay que tener en cuenta que los satélites siguen un movimiento
continuo siguiendo su órbita, por lo que captan imágenes de la misma zona de la Tierra cada cierto
tiempo. Esto junto con el movimiento de rotación de la Tierra hace que se pueda cubrir toda la
superficie terrestre dependiendo de la altura y del campo de visión del sensor [3].
Como en otras plataformas, desde los inicios estas tenían embarcados sensores de tipo pasivo,
como cámaras fotográficas, escáneres y cámaras de vídeo multiespectrales; y sensores de tipo
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 13
activo, como radar o lidar [3]. Actualmente estos sensores se han ido desarrollando con tecnologías
nuevas como, por ejemplo, cámaras hiperespectrales que pueden captar imágenes en distintas
bandas de frecuencia simultáneamente.
Como ejemplo de este tipo de plataformas introducimos el satélite Ingenio, mostrado en la Figura
8. Este satélite, aunque principalmente está orientado a ámbitos civiles, servirá de apoyo al satélite
Paz, lanzado recientemente y destinado a seguridad y defensa. Al contrario que el satélite Paz,
dotado con tecnología radar, el satélite Ingenio llevará embarcados sensores ópticos. Su función
consistirá en la captura de imágenes multiespectrales y de alta resolución del territorio español con
un tiempo mínimo de revisita. Se espera que esté operativo en 2020 con un tiempo de vida de siete
años. Como carga útil tendrá embarcado un sistema óptico que tomará las imágenes terrestres en
dos canales, uno pancromático (blanco y negro) y uno multiespectral de cuatro bandas (azul, verde,
rojo y NIR) [17].
Figura 7. Sistema de sensores ópticos del satélite INGENIO (izq.) [27] y representación 3D del futuro satélite INGENIO
(dcha.) [28].
Otro ejemplo es el satélite Tac-Sat-3, representado en la Figura 9. Esta plataforma es la tercera de
una serie de satélites de reconocimiento utilizados por el ejército de Estados Unidos para misiones
ISTAR. Entre otros avances respecto a satélites anteriores de esta serie, el Tac-Sat-3 incluye el
sensor hiperespectral ARTEMIS (Advanced Rasponsive Tactically Effective Military Imaging
Spectrometer). El sensor captura información desde el rango visible hasta parte del rango de
infrarrojos, y puede comparar esta información con el espectro de ciertos objetos conocidos para
identificar zonas de interés de forma muy rápida [18].
Figura 9. Satélite Tac-Sat-3 (izq.) y sensor hiperespectral ARTEMIS (dcha.) [26].
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 14
4. DISEÑO DE LA HERRAMIENTA DE ANÁLISIS
Para el análisis de estos sensores y plataformas descrito en el capítulo anterior, se ha desarrollado
una herramienta en la que, introduciendo parámetros técnicos de entrada, tanto de sensores como
de plataformas, se obtiene de salida determinados parámetros operativos. Estos parámetros
operativos se comparan con aquellos parámetros útiles para los operadores de los sistemas ISTAR
y con los requisitos operativos propios de las misiones ISTAR.
El objetivo de esta herramienta es, a partir de este desarrollo, seleccionar el sistema ISTAR
(combinación de sensor y plataforma) más adecuado para cada misión y escenario.
En las misiones ISTAR se tienen en cuenta algunos parámetros propios de los sistemas de
vigilancia y defensa, necesarios para el desarrollo de las mismas. Algunos de estos son alcance,
probabilidad de detección o velocidad máxima alcanzable.
4.1. PARÁMETROS TÉCNICOS DE ENTRADA
Son los parámetros obtenidos de las hojas de especificaciones de los diferentes sensores y
plataformas utilizados en los sistemas ISTAR. A partir de estos parámetros y mediante modelos y
ecuaciones analíticas se pueden obtener los parámetros operativos adecuados para la selección de
sistemas para misiones ISTAR.
4.1.1. PARÁMETROS DE SENSORES ÓPTICOS
• FOV (Field of view)
El campo de visión mide la amplitud angular del área que un sensor es capaz de visualizar. En los
sensores ópticos la distancia focal del objetivo influye en el campo de visión, ya que un objetivo
con distancia focal pequeña puede captar más escena y por lo tanto muestra un campo de visión
más amplio, mientras que un objetivo con distancia focal más larga amplía más la escena y, por lo
tanto, reduce el campo de visión [31]. En función del FOV, se suelen distinguir dos tipos de
sensores ópticos o dos modos de operación: (1) de FOV ancho, cuando la imagen cubre un sector
angular grande pero generalmente con menor resolución y, por tanto, menor alcance de detección
de objetos, y (2) de FOV estrecho, cuando se aplica un elevado zoom y la imagen cubre un sector
angular reducido pero con mayor resolución, aumentando el alacance de detección del sensor.
• IFOV (Instantaneous field of view)
Es el llamado campo de visión instantáneo del sensor. Corresponde al campo de visión de un píxel
de la imagen y se mide habitualmente en miliradianes (mrad) [35]. El IFOV es una medida de la
resolución angular de la cámara utilizada y se calcula mediante la siguiente expresión, según se
muestra en la Figura 10.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 15
𝐼𝐹𝑂𝑉 [𝑟𝑎𝑑] = 𝐹𝑂𝑉 [𝑟𝑎𝑑]
𝑛𝑝𝑖𝑥𝑒𝑙𝑒𝑠⁄
Figura 10.Relación entre el FOV, el IFOV y el número de píxeles.
Al utilizar plataformas satelitales, debido a que la altura del sensor es constante (altura orbital) y
muy elevada, en algunos casos pueden dar como parámetro la resolución espacial en lugar del
campo de visión instantáneo (IFOV). En estos casos, ambos parámetros se encuentran relacionados
aproximadamente por la siguiente expresión:
∆𝑅 = 𝐼𝐹𝑂𝑉 [𝑟𝑎𝑑] · ℎ𝑜𝑟𝑏𝑖𝑡𝑎
• Número de pixeles
Indica la cantidad de pixeles que contiene la imagen captada por el sensor. Las cámaras de espectro
visible o las cámaras infrarrojas capturan típicamente imágenes en 2D mediante una matriz de
detectores fotosensibles, por lo que las cámaras suelen presentar un número de píxeles para el
ancho y para el largo de las imágenes. Sin embargo, las cámaras hiperespectrales actuales suelen
capturar línea a línea mediante un array de detectores, y la imagen en dos dimensiones se conforma
mediante el movimiento de la plataforma y la captura sucesiva de líneas (modo de operación
pushbroom) [36]. Además, se asumen que los píxeles son cuadrados.
• fps (Frames per second)
También llamado “cuadros por segundo”, indica la velocidad a la que el sensor puede recoger
información del objetivo en forma de imágenes.
• Resolución espectral
Indica el número y el ancho de las bandas del espectro electromagnético en las que trabaja el
sensor. Este parámetro es importante en los sensores hiperespectrales, ya que la información que
ofrecen depende de las bandas que utilizan. Una mayor resolución espectral implica una mayor
información sobre la imagen pero a su vez implica un mayor volumen de datos y más tiempo de
procesamiento [32].
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 16
• Longitud de onda (λ)
Rango de longitudes de onda en las que trabajan los sensores. A partir de este parámetro se hace la
clasificación de los diferentes sensores (visibles, IR e hiperespectrales).
4.1.2. PARÁMETROS DE LAS PLATAFORMAS
• Velocidad
Velocidad del movimiento de la plataforma. Toda plataforma tiene un máximo de velocidad a la
que puede desplazarse. En el caso de los satélites, su velocidad orbital es constante y depende de la
altura a la que se encuentre dicho satélite.
• Altura
Altura con respecto al nivel del mar a la que una plataforma puede ser desplegada, en el caso de
plataformas aéreas, o altura de la órbita, en el caso de los satélites. La posición elevada de las
plataformas aéreas o satelitales permite disminuir drásticamente los problemas de bloqueo de la
línea de visión que se producen en los sensores situados sobre la superficie terrestre o marítima,
además de disponer de un mayor horizonte visual.
• Duración o tiempo de servicio
Tiempo durante el que una plataforma puede estar operando de forma continuada. En el caso de los
satélites indica el tiempo de vida del satélite o el tiempo previsto de la misión espacial. Para las
plataformas aéreas, el tiempo de servicio suele venir limitado por la capacidad de las baterías o los
depósitos de combustible.
• Estabilidad de la plataforma
Además de estos parámetros, se tiene en cuenta que toda plataforma utilizada para misiones ISTAR
tiene una estabilidad adecuada para que el funcionamiento de los sensores embarcados sea óptimo.
4.2. PARÁMETROS OPERATIVOS DE SALIDA
Estos parámetros son los que nos permiten analizar las capacidades de los posibles sistemas ISTAR
y comprobar si son adecuados para cada misión. Esto se realiza mediante la comparación de estos
parámetros operativos con los parámetros que requiere la propia misión para realizarse con éxito.
• Probabilidad de detección, clasificación o identificación
La probabilidad de detección mide la capacidad del sensor determinar la presencia de un objeto a
partir de las imágenes capturadas. A su vez, las probabilidades de clasificación e identificación se
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 17
refieren, respectivamente a la capacidad del sensor de determinar adecuadamente el tipo de blanco
detectado y su identidad. En general, dependen del número de pares de línea que ocupa el objeto en
la imagen. Se consigue una mayor probabilidad de detección, clasificación o identificación cuando
el objeto ocupa un mayor número de pares de líneas.
• Alcances de detección, clasificación o identificación
Mide las distancias máximas a la que se pueden detectar, clasificar o identificar un objetivo de
interés determinado. Depende del tamaño de dicho objetivo y del campo de visión instantáneo
(IFOV).
• Altura máxima
Mide la altura máxima a la que se puede encontrar una plataforma para poder detectar un objetivo
con una resolución deseada.
• Velocidad máxima de vuelo limitada por la velocidad de captura de imágenes
Mide la velocidad máxima que puede alcanzar una plataforma para que el sensor embarcado en ella
pueda obtener suficientes imágenes de un objetivo para que este sea detectado, clasificado e
identificado si las imágenes presentan suficiente resolución para ello. En general, se asume que
para que un operador detecte un objeto en una secuencia de imágenes, se requieren al menos 5
imágenes sucesivas en las que aparezca el objeto. Los algoritmos de detección y clasificación
autónomos permiten trabajar con un menor número de imágenes del objetivo, incluso sólo con una
o dos imágenes. Por tanto, este parámetro depende de los fps que toma el sensor, del FOV y del
número de imágenes sucesivas del objeto que se requieren para su detección, identificación y
clasificación.
• Tamaño mínimo detectable
Este parámetro mide la longitud mínima de un objeto que puede ser detectado por un sensor óptico
embarcado en una plataforma satelital. Este depende de la altura a la que se encuentra dicho sensor,
en este caso la altura orbital, y del campo de visión instantáneo (IFOV).
• Área de cobertura
Mide la parte del terreno que abarca el sensor en cada imagen y depende de la altura a la que se
encuentre dicho sensor. También podemos obtener el ancho del área por unidad de tiempo para el
modo de operación pushbroom de las cámaras hiperespectrales.
• Resolución espacial
Mide la distancia de la superficie terrestre más pequeña que puede ser captada por el sensor. Está
representada por un píxel y normalmente se expresa en metros. Además, depende de la distancia
entre el sensor y la superficie de la Tierra, del ángulo de visión o del campo de visión instantáneo
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 18
(IFOV). En el caso de las plataformas satelitales, los parámetros de los que depende la resolución
espacial son prácticamente fijos, por lo que esta se puede considerar constante [32].
• Tiempo de revisita
Tiempo que tarda la plataforma en pasar por la misma zona del terreno para obtener información
similar de esta. También indica el tiempo que puede tardar una plataforma aérea en recorrer una
cierta área de terreno [32].
4.3. MODELOS ANALÍTICOS
Los modelos definen las ecuaciones analíticas y los cálculos necesarios para obtener los parámetros
operativos de salida a partir de los parámetros técnicos de sensores y plataformas.
• Criterio de Johnson
El Criterio de Johnson se utiliza para estimar los alcances de detección, clasificación e
identificación de un cierto sensor óptico. Como criterio principal se utiliza el número de pares de
líneas (una línea blanca y una negra) necesarias para discriminar un objetivo [33]. Existen
diferentes grados de discriminación (DRI) y el Criterio de Johnson fija el número medio de pares
de líneas necesario para conseguir una probabilidad de acierto del 50% en cada uno de los grados:
- Detección: capacidad de distinguir si hay o no un objeto presente en la zona. Se necesitan
una media de 1 ± 0,25 pares de líneas.
- Reconocimiento: capacidad para clasificar el objetivo entre personas, animales o vehículos,
por ejemplo. En este caso, son necesarias una media de 4 ± 0,8 pares de líneas.
- Identificación: capacidad de diferenciar diferentes detalles en el objeto. De esta manera se
pueden diferenciar distintos objetos de la misma clase. Se necesitan una media de 6,4 ± 1,5
pares de líneas.
Por tanto, a partir del Criterio de Johnson se conoce el mínimo número de pares de líneas
necesarias para discriminar un objeto con una probabilidad del 50%. Sin embargo, para obtener la
probabilidad de discriminación con otros porcentajes se utiliza la siguiente expresión [34]:
𝑃𝑑 =(
𝑁𝑁50
)𝐸
1 + (𝑁
𝑁50)
𝐸 (1)
Siendo 𝑃𝑑 la probabilidad de discriminación obtenida cuando el objeto ocupa 𝑁 pares de líneas y
𝑁50 el número de pares de líneas del criterio de Johnson para conseguir una probabilidad del 50%.
A su vez, 𝐸 es un factor de escala y viene dado por la ecuación:
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 19
𝐸 = 2,7 + 0,7 ·𝑁
𝑁50 (2)
El número de pares de líneas depende del grado de discriminación del blanco, siendo mayor el
número necesario de líneas conforme aumenta la información visual que se requiere del blanco,
como se observa en la Figura 11.
Figura 11. Probabilidad de discriminación de un objeto en función del número de pares de líneas.
Por ejemplo, cuando se requiere una probabilidad de discriminación del 90%, se necesitan
aproximadamente 2 pares de líneas para detección, 7 pares de líneas para reconocimiento y 14
pares de líneas para identificación.
• Determinación del alcance máximo
A partir de los cálculos anteriores con el Criterio de Johnson, se puede calcular el alcance máximo
al que se puede discriminar un objetivo. Esto depende de la longitud más pequeña del objetivo (𝑇𝑥)
en las coordenadas de la imagen, además del número de pares de líneas necesario y las
características del sensor utilizado. Se obtiene mediante la siguiente expresión [35]:
𝑅 =𝑇𝑥
𝐼𝐹𝑂𝑉[𝑟𝑎𝑑] ·2 · 𝑁0,7
[𝑚] (3)
Siendo 𝑁 el número de pares de línea necesarias para conseguir una probabilidad de
discriminación específica, obtenido a partir de las curvas de la Figura 11.
El factor de 0,7 es un valor empírico para transformar el valor de número de líneas necesario a
número de píxeles. El número aproximado de píxeles asociado a un requisito específico de pares de
líneas es, en general, el doble, en condiciones de perfecto alineamiento entre el sensor y el objetivo.
Sin embargo, en condiciones de operación se supone que cada píxel equivale a 0,7 líneas [35].
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
0 2 4 6 8 10 12 14 16 18 20
Pro
bab
ilid
ad d
e d
iscr
imin
ació
n
Número de pares de líneas
Probabilidad dedetección
Probabilidad dereconocimiento
Probabilidad deidentificación
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 20
• Determinación de la altura máxima
Para plataformas aéreas, dada la resolución deseada para discriminar (detectar, reconocer o
identificar) un objetivo (𝑅ℎ), es posible calcular la altura máxima a la que el sensor es capaz de
ofrecer una imagen de dicho objetivo con esa resolución. La máxima altitud a la que el sensor se
puede utilizar en esa situación viene daba por la expresión [34]:
ℎ𝑚𝑎𝑥 =𝑅ℎ
2 · 𝑡𝑎𝑛 (𝐼𝐹𝑂𝑉[𝑟𝑎𝑑]
2 ) [𝑚] (4)
La resolución deseada para discriminar al objetivo viene dada por la longitud mínima del objeto,
relacionada con su tamaño, y el número de píxeles necesarios, dados por el criterio de Johnson:
𝑅ℎ =𝑇𝑥
𝑛𝑝í𝑥𝑒𝑙𝑒𝑠 𝑟𝑒𝑞𝑢𝑖𝑠𝑖𝑡𝑜 [𝑚] (5)
• Determinación de la velocidad máxima
La velocidad máxima que puede alcanzar una plataforma para obtener imágenes de un objetivo con
una resolución deseada (𝑅ℎ) puede estar limitada por la velocidad de la propia plataforma o por el
tipo de sensor que lleve embarcados.
En el caso de los satélites su velocidad viene fijada por la velocidad orbital, ya que su velocidad es
constante a la altura a la que se encuentra la órbita. Sin embargo, en las plataformas aéreas la
velocidad es variable, teniendo siempre una velocidad máxima límite.
Según el tipo de sensor embarcado en la plataforma, la velocidad de esta puede estar limitada de
una manera u otra. En el caso de los sensores hiperespectrales en los que la imagen se obtiene
escaneando línea a línea el terreno (modo de operación pushbroom), la velocidad máxima depende
de la resolución requerida (tamaño de los píxeles) y de la frecuencia de toma de líneas por parte del
sensor, que en este caso corresponde con el parámetro fps de las cámaras hiperespectrales. Si la
velocidad es muy alta pueden quedar zonas del terreno sin visualizar. La velocidad máxima se
calcula mediante la expresión [34]:
𝑣𝑚𝑎𝑥 = 𝑓𝑝𝑠 · 𝑅ℎ [𝑚/𝑠] (6)
Sin embargo, para cámaras de espectro visible e infrarrojo, si la detección de los objetos no se
realiza de forma automática, el operador requiere habitualmente un número determinado de
imágenes consecutivas para detectar el objeto. La velocidad máxima debe ser tal que el objeto a
detectar aparezca en al menos nimágenes imágenes consecutivas, de tal forma que se debe producir un
solapamiento entre ellas (si nimágenes ≥ 2). En este caso, la velocidad se puede obtener mediante la
siguiente expresión, similar a la anterior pero dependiente del número de imágenes y del número de
píxeles de la imagen en la dimensión de desplazamiento de la plataforma (along-track):
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 21
𝑣𝑚𝑎𝑥 =𝑛𝑝𝑖𝑥𝑒𝑙𝑒𝑠 · 𝑓𝑝𝑠 · 𝑅ℎ
𝑛𝑖𝑚𝑎𝑔𝑒𝑛𝑒𝑠 [𝑚/𝑠] (7)
Generalmente, puede asumirse que un operador necesita al menos 5 imágenes consecutivas en las
que se encuentre el objeto, mientras que en el caso de algoritmos de detección automática, es
posible detectar el objeto con una sola imagen. En cualquier caso, la herramienta está
implementada de tal forma que el usuario pueda definir el número de imágenes consecutivas
requeridas para detectar un objeto.
Normalmente, la velocidad máxima de la plataforma se expresa en Km/h, por lo que a los
resultados de las expresiones anteriores hay que multiplicarlos por el factor 3,6.
• Mínimo tamaño detectable
Considerando una cierta altura de vuelo y partiendo de la ecuación (4), se puede obtener la longitud
mínima de un objeto que puede ser detectado en función de la altura a la que se encuentra el sensor.
Este parámetro es útil en el caso de las plataformas satelitales, donde la altura del sensor está fijada
por la altura orbital del satélite y es constante. De esta manera, se obtiene el tamaño mínimo a
través de la expresión:
𝑅ℎ = ℎ · 2 · 𝑡𝑎𝑛 (𝐼𝐹𝑂𝑉[𝑟𝑎𝑑]
2) [𝑚] (8)
𝑇𝑚𝑖𝑛 = 𝑅ℎ · 𝑛𝑝í𝑥𝑒𝑙𝑒𝑠 𝑟𝑒𝑞𝑢𝑖𝑠𝑖𝑡𝑜 [𝑚] (9)
Siendo ℎ la altura orbital del satélite.
• Ancho de área cubierta y área cubierta por unidad de tiempo
Indica la anchura de la porción del terreno que es cubierta por el sensor en cada imagen. Esto
depende de la altura a la que el sensor está operando y del campo de visión (FOV) del mismo [34]
en la dirección perpendicular al movimiento de la plataforma, como se observa en la Figura 12.
𝑠 = 2 · 𝐻 · tan (FOV [rad]
2⁄ ) [Km] (10)
Además, relacionando este cálculo con la velocidad de la plataforma, podemos obtener el área
cubierta por unidad de tiempo [34]:
𝑠′ = 𝑠 · 𝑣 [𝑚2
𝑠⁄ ó 𝐾𝑚2
ℎ⁄ ] (11)
Siendo 𝑠 el ancho cubierto (cálculo anterior) y 𝑣 la velocidad de la plataforma, normalmente
expresada en 𝑚 𝑠⁄ o en 𝐾𝑚ℎ⁄ .
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 22
Figura 12. Ancho del área cubierta en función de la altura y el FOV [34].
• Resolución espacial
Indica la mínima longitud terrestre que puede ser detectada por el sensor. Esta depende de la
distancia entre el sensor y la superficie, representada por la altura a la que se encuentra la
plataforma con el sensor, y del campo de visión instantáneo (IFOV). Por lo tanto, se puede calcular
a partir de la expresión 4, siendo ℎ la altura de la plataforma:
𝑅𝑠 = 2 · ℎ · 𝑡𝑎𝑛 (𝐼𝐹𝑂𝑉[𝑟𝑎𝑑]
2) [𝑚] (12)
• Tiempo de revisita
El cálculo del tiempo de revisita se realiza a partir de la velocidad de la plataforma y de la distancia
que recorre o área que debe cubrir. En el caso de las plataformas satelitales, el tiempo de revisita
viene indicado como parámetro de entrada debido a que depende de la órbita del satélite. Por
ejemplo, los satélites de observación de la tierra suelen tener orbitas polares heliosíncronas con un
tiempo de revisita de 11 días en los que recorre la órbita 167 veces en total.
En cambio, para las plataformas aéreas, el tiempo de revisita también se puede calcular como el
tiempo que tarda la plataforma en recorrer una cierta distancia para vigilar todo el escenario o cubre
una cierta área especificada en el escenario que se debe llevar a cabo la misión ISTAR. Esto se
obtiene mediante la siguiente expresión:
𝑡𝑟𝑒𝑣 = 𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑖𝑎 𝑎 𝑟𝑒𝑐𝑜𝑟𝑟𝑒𝑟𝑣𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 𝑚𝑎𝑥⁄ [𝑢𝑛𝑖𝑑𝑎𝑑 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜] (13)
De la misma manera, podemos obtener el tiempo de revisita medio a partir del cociente entre el
área que debe cubrirse y el área cubierta por unidad de tiempo s’:
𝑡𝑟𝑒𝑣 = á𝑟𝑒𝑎 𝑎 𝑐𝑢𝑏𝑟𝑖𝑟𝑠′⁄ [𝑢𝑛𝑖𝑑𝑎𝑑 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜] (14)
Generalmente, si se desea cubrir una franja de terreno que presenta una mayor anchura que el
ancho de las imágenes tomadas por el sensor óptico, se definirá una cierta trayectoria de vuelo de la
plataforma aérea de tal forma que se consiga cubrir todo el escenario, tal y como se muestra en la
Figura 13. En este ejemplo, teniendo en cuenta el ancho de la imagen tomada (relacionada con el
FOV y la altura de vuelo dada por la ecuación (10), la plataforma deber realizar cuatro pases, para
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 23
cubrir completamente el área a vigilar, y un cierto número de maniobras seguras.
Por tanto, el valor de trev obtenido mediante la ecuación (14) es un límite inferior que habitualmente
se verá incrementado por la necesidad de llevar a cabo trayectorias seguras para las plataformas, de
acuerdo a su maniobrabilidad, y por el tiempo dedicado a volver al punto inicial de adquisición del
escenario. Además, se debe tener en cuenta que dicho parámetro corresponde a un valor medio y
que, en función de la trayectoria que siga la plataforma, puede haber áreas que se cubran con
distintos tiempos de refresco, que pueden ser inferiores o superiores al tiempo medio de refresco.
Figura 13. Ejemplo de trayectoria de vuelo para cubrir el área a vigilar con un cierto ancho de imagen.
Otra opción consiste en tomar las cuatro franjas del ejemplo con un solo pase de la plataforma
aérea, de manera que, a medida que se sigue la trayectoria, se apunta secuencialmente el sensor
óptico y se modifica su FOV para cubrir las cuatro franjas y mantener la resolución espacial. Esta
estrategia supone disminuir la velocidad de la trayectoria en un factor 4, en el caso del ejemplo,
debido a que se debe disponer de tiempo suficiente para tomar las imágenes de las cuatro franjas.
Por tanto, el tiempo de refresco medio es aproximadamente el mismo que el obtenido con la
estrategia anterior. Además, es posible que la plataforma de estabilización y apuntamiento donde
va embarcado el sensor óptico no permita un apuntamiento tan rápido como el necesario para
aplicar esta estrategia de exploración de la zona de interés.
4.4. IMPLEMENTACIÓN DE LA HERRAMIENTA
El desarrollo de la herramienta se ha llevado a cabo en Microsoft Office – Excel, con el objetivo de
que sea fácilmente accesible a usuarios con conocimientos básicos de ofimática.
Tras programar los modelos analíticos descritos en el apartado anterior, con el objetivo de realizar
un ejemplo de uso de la herramienta de análisis, se han introducido los parámetros técnicos dados
en las hojas de especificaciones de distintos sensores y plataformas. En este trabajo se ha
seleccionado un total de ocho sensores y nueve plataformas de diferentes tipos.
Los sensores se han seleccionado entre los distintos tipos descritos en el segundo capítulo
(hiperespectrales, infrarrojos y de rango visible), con el objetivo de poder realizar un análisis de
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 24
todas las variables posibles de sistemas ISTAR. Estos ocho sensores, cuyas características se
pueden observar en la Tabla 2, son: sCMOS (Lente de 140 mm), Hyperion, ETM+, SLIM-6-22,
Pika NIR (Lente de 50 mm), Pika NUV (Lente de 17 mm), FLIR Termovisión 3000 (Lente de 116
mm) y AVD Pearleye P030 LWIR.
NOMBRE TIPO Nota 1
LONGITUD
DE ONDA
[nm]
FOV [deg]
NÚMERO
DE
PÍXELES
IFOV
[mrad] fps
RESOLUCIÓN
ESPECTRAL
[nm]
sCMOS H 380 - 800 o
400 – 1000 5,8 2184 0,04635 100 Nota 2 2,3 - 2,9
Hyperion H 400 – 2500 6,225 256 0,043 220 Nota 2 10
ETM+ H 520-12500 14,949 6139 0,0425 200 Nota 2 400
SLIM-6-22 H (NIR) 520 – 900 26,01 14155 0,03207 357 Nota 2 90
Pika NIR H (NIR) 900 – 1700 11 320 0,6 1000 Nota 2 12,5
Pika NUV
H
(Vis./NIR) 350 – 800 30,8 365 1,47 165 Nota 2 2,3
FLIR
Termovisión 3000 IR 8000 – 9200 7,8 (H) x 5,8 (V) 640 x 480 0,212 25 -
AVD Pearleye
P030 LWIR IR 8000-14000 47,9 (H) x 36,9 (V) 640 x 480 1,319 24 -
Nota 1: H = Hiperespectral; NIR = Infrarrojo cercano; Vis. = De espectro visible; IR = Infrarrojo
Nota 2: En cámaras con modo pushbroom el parámetro fps se refiere a la frecuencia de adquisición de líneas.
Tabla 2. Sensores seleccionados y sus parámetros técnicos.
De entre los tipos de plataformas desarrollados en el segundo capítulo, para el ejemplo de uso de la
herramienta, se han seleccionado solamente plataformas aéreas y satelitales, ya que el estudio se
centra en estos dos tipos. Dentro de las plataformas aéreas distinguimos entre aviones, helicópteros
y UAVs. En la Tabla 3 se pueden observar las nueve plataformas seleccionadas y sus parámetros
técnicos, estas son: LANDSAT 7, INGENIO, MQ-1 Predator, EADS Atlante, un mini drone típico,
SH-60 Seahawk, Eurocopter Panther AS565, Casa C-212 y C295.
NOMBRE TIPO ALTURA
[km]
VELOCIDAD
[Km/h]
TIEMPO DE
SERVICIO
LANDSAT Satélite 705 26991,63743 Nota 1 5 años
INGENIO Satélite 670 27058,64043 Nota 1 7 años
MQ-1 Predator UAV ≤ 7,62 ≤ 129 40 horas Nota 2
EADS Atlante UAV ≤ 6,1 ≤ 150 0,0339 horas Nota 2
Mini drone UAV ≤ 0,5 ≤ 60 0,0083 horas Nota 2
SH-60 Seahawk Helicóptero ≤ 3,58 ≤ 330 2,53 horas Nota 2
Eurocopter Panther Helicóptero ≤ 5,865 ≤ 306 2,78 horas Nota 2
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 25
AS565
Casa C-212 Avión ≤ 7,925 ≤ 370 4,89 horas Nota 2
C295 Avión ≤ 9,144 ≤ 480 11 horas Nota 2
Nota 1: La velocidad en satélites se refiere a la velocidad orbital
Nota 2: El tiempo de servicio en plataformas aéreas se refiere al tiempo máximo en operación antes de tener que repostar o cargar
sus baterías.
Tabla 3. Plataformas seleccionadas y sus parámetros técnicos.
Una vez introducidos los datos anteriores, podemos calcular los parámetros operativos útiles para
seleccionar un sistema ISTAR adecuado para cada misión, utilizando los modelos descritos en el
apartado 3.3.
Para el empleo de los modelos implementados en la herramienta se han de introducir además una
serie de datos de interés necesarios para obtener el resultado de algún parámetro concreto. Estos
datos como, por ejemplo, el tamaño de los blancos de interés o la probabilidad de discriminación
requerida, se definen en función de la misión ISTAR concreta. Como se observa en la Figura 14,
estos datos son:
- Número de imágenes requeridas: Indica el número de imágenes consecutivas que el
operador o el algoritmo de detección automática de blancos requiere para localizar un
objetivo mediante sensores no hiperespectrales. En general, se asume que los operadores
necesitan un mínimo de cinco imágenes en las que se encuentre el blanco para detectarlo,
mientras que los algoritmos de detección automática más avanzados pueden localizar el
blanco con solo dos imágenes en el caso peor. Por tanto, cuando se requiere más de una
imagen para detectar el blanco, las imágenes tomadas por el sensor deben superponerse en
una cierta extensión. Este parámetro se utiliza para calcular la velocidad máxima que puede
alcanzar una plataforma, cuando se encuentra limitada por la frecuencia con la que se toman
las imágenes y el sistema de discriminación del sensor (operario o algoritmo automático).
- Probabilidad de discriminación: Indica la probabilidad de detectar, reconocer y/o identificar
un objetivo. Es un valor variable según el requisito establecido en la misión ISTAR, aunque
en general se utiliza un valor de 0,9 (90%). A partir de este dato, y observando la gráfica de
la Figura 11, podemos obtener el número de pares de líneas requerido y, con ello, el número
de píxeles necesario para discriminar el objeto de interés. Es importante para el cálculo del
alcance máximo de detección, clasificación o identificación.
- Tamaño del objetivo: Definir el tamaño aproximado del objetivo a localizar es importante
para obtener parámetros como el alcance máximo para discriminar el objetivo o la altura y
la velocidad máximas de la plataforma. En este trabajo se definen cuatro posibles objetivos
de interés y sus tamaños típicos correspondientes (Persona: 1 m; Coche: 3 m; Barco: 10 m;
Edificio: 50 m).
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 26
Figura 14. Datos de interés de la misión ISTAR concreta introducidos en la herramienta.
Partiendo de estos datos y de los parámetros técnicos de los sensores y plataformas considerados,
se pueden analizar diferentes escenarios de posibles misiones ISTAR y el sistema necesario para el
adecuado desarrollo de la misma a partir de los parámetros operativos calculados de las distintas
combinaciones de sensores y plataformas.
5. ANÁLISIS DE ESCENARIOS CON LA HERRAMIENTA
El diseño y desarrollo de un sistema ISTAR requiere conocer la descripción de la misión en la que
este tiene que funcionar. Dentro de esta descripción se encuentra la caracterización detallada del
tipo de escenario donde se va a desplegar el sistema ISTAR.
Las características de los escenarios forman parte de los requisitos operativos de cada misión
ISTAR. Estos permiten obtener algunos de los parámetros operativos y realizar comparaciones con
los descritos en el capítulo anterior con el objetivo de seleccionar y desarrollar el sistema ISTAR
más adecuado para cada caso.
Cada escenario está caracterizado por un entorno concreto, donde las características físicas y
geográficas junto con las características sociodemográficas de cada zona hacen que el desarrollo y
despliegue de misiones ISTAR varíe según cada situación. En este capítulo se analizan dos posibles
escenarios:
- Escenario fronterizo: estas zonas terrestres o costeras suelen presentar áreas concretas que
deben ser vigiladas con un tiempo de refresco reducido ya que pueden ser utilizadas por
actividades de contrabando o de inmigración irregular. Por tanto, se refiere a una zona
cambiante de forma continua, que puede estar cerca de áreas con mucha actividad y
movimiento de personas donde la obtención de imágenes debe ser rápida y preferiblemente
en tiempo real.
- Escenario de inteligencia sobre construcción de infraestructuras: en este caso se requiere
obtener información sobre cambios en el terreno debidos a la construcción de
infraestructuras en zonas no accesibles o áreas muy extensas, por ejemplo, en terceros
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 27
países. En este caso, aunque las zonas de interés pueden ser de gran extensión, las
actividades o cambios del terreno se producen a velocidades lentas y a largo plazo. En estos
escenarios, por tanto, las imágenes pueden obtenerse con un tiempo de refresco mayor que
en el caso anterior, ya que no se visualizarán grandes cambios entre ellas.
En este capítulo, además de describir los diferentes escenarios estudiados, se describen los
requisitos operativos de los mismos y se analizan las capacidades de diferentes combinaciones
entre sensores y plataformas para obtener como resultado el sistema ISTAR más adecuado para
cada uno de ellos.
5.1. ESCENARIO FRONTERIZO
El primer caso se basa en un escenario fronterizo con un área de vigilancia limitada en la que
pueden producirse cambios rápidos, situado cerca de zonas pobladas y zonas de costa. En dicho
escenario debe desplegarse un sistema ISTAR para obtener información de los cambios y
movimientos producidos en el terreno con un tiempo de refresco reducido, para detectar de forma
rápida y continua las posibles actividades irregulares que se lleven a cabo. En este trabajo se ha
elegido como escenario de análisis la zona del Estrecho de Gibraltar.
El Estrecho de Gibraltar, cuyo mapa se observa en la Figura 15, es la zona donde se unen el Mar
Mediterráneo y el Océano Atlántico, y la separación natural entre los continentes Europa y África.
En esta parte del mundo se producen grandes movimientos y actividades humanas ya que es una de
las zonas con mayor densidad de tráfico marítimo. Es un punto de paso para los barcos, tanto de
carga como de pasajeros, que unen los puertos del Atlántico y del Mediterráneo y entre los puertos
de la península y el norte de África [37]. Actualmente en esta zona se realiza una vigilancia
extensiva contra el tráfico de drogas y la inmigración irregular y, además, se encuentra próximo a
zonas pobladas y comerciales por lo que la actividad es mayor.
Figura 15. Mapa del entorno del Estrecho de Gibraltar.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 28
Para realizar una misión ISTAR en un escenario como este es necesario desplegar un sistema cuya
plataforma sea rápida y con un tiempo de revisita pequeño para captar el mayor número de
imágenes posibles de la zona y poder detectar las actividades irregulares que se estén llevando a
cabo. El sensor óptico embarcado del sistema ISTAR debe tener la capacidad de detectar,
reconocer e identificar objetivos de diferentes tipos y tamaños como personas, vehículos terrestres
o barcos de tipo lancha motora con una resolución adecuada de las imágenes.
El análisis de este escenario se realiza en una zona determinada de costa dentro de la bahía de
Algeciras, frente a la localidad de Guadacorte y sobre la desembocadura del río Guadarranque,
ocupando una superficie de 19.5 𝑘𝑚2, como se observa en la Figura 16 [39]. Se ha seleccionado
esta área debido a que el “modus operandi” del tráfico de sustancias irregulares sigue una ruta que
atraviesa esta zona, siendo el paso de lanchas hacia el río muy regular por ser el punto más
accesible hacia Campo de Gibraltar, lugar donde se concentran varios puntos de paso de estas
sustancias.
Figura 16. Zona del Estrecho de Gibraltar a analizar para el despliegue del sistema ISTAR.
Debido a que para realizar misiones ISTAR en este tipo de zonas son necesarios sistemas con un
tiempo de revisita reducido, las plataformas satelitales son descartadas ya que no permiten realizar
una vigilancia de la zona para la detección rápida de los blancos de interés.
En primer lugar, se puede determinar la altura máxima de vuelo que impone cada uno de los
sensores debido a su alcance de detección y asumiendo que presenta un apuntamiento hacia el
nadir. Como puede observarse en la Figura 17, las cámaras que presentan un FOV estrecho
presentan un mayor alcance y, por tanto, permiten una altura de vuelo mayor de la plataforma, en
muchas ocasiones por encima de la propia altura máxima de las plataformas. De esta forma, los
sensores con FOV estrechos son más convenientes para plataformas con alturas de vuelo altas,
mientras que los sensores con FOV anchos pueden embarcarse en plataformas que vuelan a baja
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 29
altura.
Figura 17. Altura máxima de vuelo limitada por el alcance de detección del objeto de interés (persona, coche o barca) para
cada uno de los sensores.
Dado que en este escenario el blanco de interés más limitante es la persona, se debe tener en cuenta
la máxima altura de vuelo impuesta por la detección de dicho tipo de blanco a la hora de definir la
altura de vuelo de las plataformas ISTAR. Además, aunque el alcance de reconocimiento e
identificación son más reducidos, los sistemas se diseñan considerando el alcance de detección. De
esta forma, se consigue una mayor área cubierta por unidad de tiempo y, en el caso de detectar un
blanco, se podría aplicar un zoom para reducir el FOV y conseguir reconocer e identificar el
blanco.
Para calcular la velocidad máxima de la plataforma limitada por las características del sensor, se
asume que el objetivo de la misión ISTAR es detectar una persona (1 m de tamaño) y que las
imágenes pueden ser analizadas por un operador humano o por un sistema automático. Esta
decisión influye en el número de imágenes consecutivas requeridas para la detección del objeto y,
por lo tanto, en la velocidad máxima que puede alcanzar la plataforma limitada por el sensor
embarcado. Para el caso del operador humano se consideran 5 imágenes necesarias, mientras que
en el caso del sistema automático se suponen 2 imágenes.
El cálculo de la velocidad limitada por el sensor no depende de ningún parámetro técnico de las
plataformas, por lo que esta será constante para cada sensor sea cual sea la plataforma donde se
embarque. Como se dijo anteriormente, para este escenario, las plataformas satelitales se descartan
debido a su alto tiempo de revisita, inadecuado para este tipo de escenarios.
En la Figura 18, se puede observar el valor de la velocidad limitada por cada sensor en base a las
ecuaciones (6) para cámaras hiperespectrales con modo de adquisición pushbroom o (7) para
10
100
1000
10000
100000
Alt
ura
máx
ima
de
vu
elo
(m
)
Sensor
Altura máxima de vuelo limitada por el alcance de detección del objeto de interés
Detección Personas
Detección coche
Detección barco
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 30
cámaras de espectro visible o infrarrojo que captan imágenes en 2D. Para el análisis de las
imágenes capturadas en 2D se representan los casos de utilización de un operador humano o de un
algoritmo de detección automática. El resultado obtenido es bastante similar para todas las cámaras
hiperespectrales con modo de adquisición pushbroom, limitando la velocidad de las plataformas a
velocidades por debajo de 225 km/h, excepto para el sensor Pika NIR, cuyo límite es
significativamente mayor debido a que presenta una frecuencia muy elevada de adquisición de
líneas. A su vez, se comprueba que las cámaras que capturan imágenes en 2D imponen un límite de
velocidad muy alto, por lo que, en estos casos, la velocidad vendrá limitada por la propia velocidad
de crucero de la plataforma aérea.
Figura 18. Velocidad límite de la plataforma impuesta por cada sensor para la detección de personas.
A partir de estos resultados, se puede obtener la velocidad máxima que cada plataforma puede
alcanzar, representada en la Figura 19, la cual puede estar limitada por los sensores o por la propia
velocidad máxima de la plataforma.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 31
Figura 19. Velocidad límite de las plataformas con distintos sensores embarcados.
En este escenario, en principio se requiere que el sistema ISTAR trabaje a la mayor velocidad
posible porque se obtendría una mayor área cubierta por unidad de tiempo y, por lo tanto, menor
tiempo de revisita. Analizando estos resultados, se observa que la velocidad máxima para la
detección de personas es significativamente mayor al utilizar la plataforma C295, y se sitúa en su
punto máximo (limitado por la propia velocidad de la plataforma) al usar el sensor hiperespectral
PIKA NIR o las cámaras de imágenes 2D FLIR Termovisión 3000 o AVD Pearleye P030 LWIR.
Sin embargo, se debe tener en cuenta el elevado coste, la limitada disponibilidad y la reducida
maniobrabilidad de las plataformas tipo avión como el C295 para llevar a cabo este tipo de
misiones ISTAR. Por este motivo, en este tipo de escenarios podría ser más adecuado utilizar
plataformas de tamaño más reducido y mayor flexibilidad (helicópteros o UAVs), a pesar de que
presenten una velocidad menor. En este caso, es necesario analizar el tiempo de revisita obtenido
con cada plataforma individualmente con el objetivo determinar si se debe realizar un despliegue
simultáneo de varias plataformas para cumplir los requisitos de tiempo de revisita y realizar la
misión con éxito.
Una vez definida el área de interés que se desea vigilar y la velocidad y altura máximas de las
plataformas (limitadas por los sensores o por las plataformas), se puede obtener el tiempo de
revisita de las plataformas aéreas con distintos sensores embarcados, considerando apuntamiento al
nadir. Con respecto a este parámetro se pueden seleccionar aquellas combinaciones sensor-
plataforma que sean más eficientes. En la siguiente Figura 20 se pueden observar los valores de
tiempo de revisita obtenidos para cada sensor y plataforma.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 32
Figura 20. Tiempo de revisita de cada sistema ISTAR (sensor+plataforma) para el escenario fronterizo.
Se observa que el tiempo de revisita menor se obtiene utilizando la plataforma C295 (avión) con
cualquiera de los sensores posibles, debido a su mayor velocidad máxima y altura de vuelo. Sin
embargo, como se dijo anteriormente, este tipo de plataformas no es adecuada para vigilar la zona
de manera continua debido a su gran tamaño y a su poca maniobrabilidad. En lugar de este tipo de
plataformas sería más adecuado utilizar helicópteros o UAVs que, aunque presenten un tiempo de
revisita mayor, presentan una mayor flexibilidad de maniobra y un menor coste de despliegue.
En cuanto a los sensores, puede comprobarse que el sensor SLIM-6-22 como cámara hiperespectral
y el sensor AVD Pearleye P030 como cámara de imágenes en 2D son los que consiguen menor
tiempo de revisita. Utilizando la plataforma Eurocopter Panther AS 565 (tipo helicóptero) se
obtendría un tiempo de revisita inferior a 5 minutos para el sensor SLIM-6-22 y menor a 35
minutos para el sensor AVD Pearleye P030 LWIR.
Además, se puede observar que los drones pequeños tienen un tiempo de revisita
significativamente más alto que el resto de plataformas, ya que su altura y velocidad máximas de
vuelo son menores y, por lo tanto, el área cubierta por unidad de tiempo es menor. Estos tiempos de
revisita no resultan útiles para llevar a cabo la vigilancia continua de la zona de interés, pero dado
el reducido coste de los mini drones esta limitación se puede compensar desplegando más de una
plataforma de este tipo, de tal forma que cada uno capte imágenes de una parte del área, reduciendo
el tiempo de revisita global del sistema. Por ejemplo, para conseguir un tiempo de revisita de 30
minutos, se deberían desplegar tres minidrones con un sensor similar al SLIM-6-22 o seis
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 33
minidrones si embarcan el sensor AVD Pearleye P030 LWIR.
De hecho, teniendo en cuenta el crecimiento de la industria de los mini drones, su disponibilidad,
su gran flexibilidad y su coste reducido, la tendencia para el desarrollo de sistemas de vigilancia
costeros es el despliegue de múltiples plataformas autónomas de reducido coste y tamaño que
lleven a cabo la misión ISTAR especificada.
5.2. ESCENARIO DE INTELIGENCIA SOBRE CONSTRUCCIÓN DE INFRAESTRUCTURAS
Este tipo de escenarios presentan zonas muy extensas, situadas en entornos alejados de zonas
urbanas o cercanas a ellas, que tienen unas características que varían lentamente con el tiempo, de
tal manera que no se producen grandes cambios en un periodo de tiempo corto.
Para este caso se ha elegido la Amazonia, que es la mayor región de bosque tropical del planeta.
Uno de los grandes problemas que sufre esta zona es la deforestación, provocada en su mayoría por
la expansión del cultivo y la ganadería, y por la explotación forestal industrial [38]. Este problema,
entre otros como posibles irregularidades en las fronteras de los países de la zona, se puede
visualizar a través de sensores ópticos embarcados en plataformas a gran altura que facilitan la
localización de objetivos o cambios significativos en alguna parte del terreno. Además, aunque es
una zona boscosa, no es un inconveniente para la utilización de plataformas satelitales o aéreas,
debido a esa gran altura de operación.
Una parte de esta selva amazónica se puede observar en la siguiente figura (Figura 21).
Figura 21. Mapa de la Amazonia y las fronteras entre parte de los países en los que se encuentra.
Para la vigilancia e identificación de blancos en zonas como esta no es necesario utilizar sistemas
ISTAR con un tiempo de revisita muy bajo ni campos de visión muy estrechos, sino que se desea
cubrir áreas extensas para detectar cambios lentos a lo largo del tiempo debidos a la posible
construcción de infraestructuras. El objetivo puede ser detectar variaciones en áreas extensas del
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 34
terreno o cambios en determinadas partes como, por ejemplo, la tala de árboles para la construcción
de vías o de edificaciones.
Por tanto, a la hora de realizar misiones ISTAR en este escenario sería adecuado desplegar un
sistema cuyos sensores puedan abarcar una gran extensión de terreno, en los que la resolución
necesaria para identificar blancos no tiene que ser muy precisa debido a que el interés estará en las
variaciones de gran tamaño que se producen en zonas amplias.
En el análisis de este tipo de escenario, se ha seleccionado una zona amplia de la parte del
Amazonas que ocupa Colombia. Se ha elegido ese terreno porque la deforestación en esa zona es
alta debido a la construcción de infraestructuras como carreteras. Esta zona analizada ocupa un área
de 215294 𝑘𝑚2 representada en la Figura 22 [39].
Figura 22. Zona de interés de la misión ISTAR del escenario de inteligencia sobre construcción de infraestructuras.
Para este tipo de escenario es posible utilizar un sistema ISTAR que obtenga información de la
zona con un tiempo de revisita alto, ya que al localizar y vigilar posibles construcciones de
infraestructuras no se producen grandes cambios en el terreno en un intervalo de tiempo corto. Si se
utilizara un sistema con tiempo de revisita corto, se obtendrían muchas imágenes similares de la
zona lo que supondría tener un exceso de información no necesaria. Sin embargo, tampoco es útil
obtener información cada mucho tiempo porque no se podría sacar conclusiones de la actividad
realizada en el terreno.
De forma similar al análisis de escenarios fronterizos, podemos calcular el tiempo de revisita de las
plataformas para la detección de infraestructuras de interés (longitud 50 m). En el caso de las
plataformas aéreas, del cálculo se obtiene el tiempo de revisita expresado en horas, pero para poder
compararlo de manera adecuada con el tiempo de revisita de los satélites, lo expresamos en días
dividiendo entre 24 el valor obtenido. En la Figura 23 se puede observar los valores del tiempo de
revisita para cada una de las plataformas y los posibles sensores embarcados. A su vez, el tiempo
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 35
de revisita del satélite LANDSAT y del futuro INGENIO son 16 días y 30 días, respectivamente.
Los drones muy pequeños como plataforma para este tipo de escenarios no son adecuados debido a
que su altura máxima de vuelo está muy por debajo de lo necesario y su tiempo de revisita es muy
elevado, por lo que no se muestran sus resultados en la gráfica.
Figura 23. Tiempo de revisita de cada sistema ISTAR (sensor+plataforma) para escenario de construcción de
infraestructuras considerando un blanco de interés de 50 m.
En esta gráfica podemos observar que para determinados sistemas ISTAR el tiempo de revisita es
de unos pocos días. Esto puede ser útil si queremos obtener la mayor cantidad de información en el
menor tiempo posible y podríamos seleccionar un sistema que incluya la plataforma C295 o la
plataforma Casa C-212 con algún sensor que cumpla los requisitos. Sin embargo, el análisis de este
escenario presenta limitaciones para las plataformas aéreas. Esto se debe a que estas plataformas
aéreas tienen como máximo un tiempo de servicio de 40 horas (plataforma MQ-1 Predator) por lo
que no podrían llevar a cabo su misión de manera continuada.
Por lo tanto, para este tipo de escenarios, los sistemas ISTAR más adecuado son aquellos basados
en plataformas satelitales. Estas tienen un tiempo de revisita en función de sus órbitas.
Para demostrar la viabilidad de los sensores embarcados en plataformas satelitales para la detección
de construcciones de infraestructuras se debe determinar el tamaño mínimo del blanco detectable.
Para ello, se analizan los distintos sensores considerados, teniendo en cuenta que el sensor ETM+
es el que se encuentra embarcado en satélite LANDSAT 7. Los resultados de los tamaños mínimos
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 36
de los objetos para ser detectados, reconocidos e identificados se muestran en la Figura 24 para los
sensores que presentan un IFOV más estrecho (sCMOS, Hyperion, ETM+ y SLIM-6-22)
considerando una altura orbital típica para los satélites de observación de la Tierra de 700 km. Este
tamaño mínimo detectable varía significativamente en función del sensor utilizado, por lo que nos
puede ser de ayuda para seleccionar aquel más adecuado para la misión.
Figura 24.Tamaño mínimo para detección, reconocimiento e identificación de un objetivo.
Según estos resultados, con los sensores seleccionados el tamaño mínimo es bastante elevado para
los tres grados de discriminación. Sin embargo, el tamaño mínimo de detección es suficiente para
detectar cambios en la construcción de infraestructuras y en el control de la deforestación, por lo
que los sensores embarcados en satélites son adecuados para este tipo de escenarios. De todas
formas, si se quisiera detectar objetivos de menor tamaño sería necesario embarcar sensores con
IFOVs más estrechos, como es el caso del sensor del futuro satélite INGENIO con una resolución
de 10 m, lo que permitiría detectar objetos de tamaño superior a 60 m con una probabilidad de
detección del 90%.
6. Conclusiones
En este trabajo se ha llevado a cabo el desarrollo de una herramienta de análisis que permite
estimar, a partir de diferentes parámetros técnicos, las capacidades operativas de los sistemas
ISTAR formados por la combinación de un sensor óptico y una plataforma aérea o satelital. De esta
forma, dentro de las actividades de la Cátedra Isdefe-UPM en la que se enmarca este trabajo, se ha
tratado de dar respuesta a la necesidad detectada por Isdefe de disponer de una herramienta que
permitiera traducir los parámetros técnicos de los sensores y plataformas a los parámetros
operativos de interés en una misión ISTAR, con el objetivo de facilitar la toma de decisiones al
personal que planifica dichas misiones y selecciona los sistemas que deben utilizarse.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 37
Para ello, se ha elaborado en primer lugar un estado del arte para describir las tecnologías que
constituyen los sistemas ISTAR (sensores y plataformas), centrándose en los distintos tipos de
sensores ópticos (cámaras de espectro visible, cámaras de infrarrojos o sensores hiperespectrales)
que pueden formar parte de estos sistemas.
A continuación, se ha descrito el diseño de la herramienta destinada a analizar los sistemas ISTAR
para facilitar la elección del sistema más adecuado en función de la misión. Se incluyen los
parámetros técnicos necesarios para realizar este análisis y los modelos utilizados para calcular los
parámetros operativos de salida.
Como ejemplo de utilización de la herramienta se han elegido siete sensores y siete plataformas y
se han obtenido sus características operativas útiles para el desarrollo de las misiones ISTAR.
Para ello, se han definido dos escenarios (escenario fronterizo y escenario de inteligencia sobre
construcción de infraestructuras) con características y requisitos operativos diferentes y se han
analizado los posibles sistemas ISTAR en función de estos parámetros y de los requisitos
operativos.
En el escenario fronterizo elegido (Estrecho de Gibraltar) se ha limitado un área de observación de
19,5 𝑘𝑚2 que abarca zona de costa y zona interior para la vigilancia de posibles movimientos de
embarcaciones o personas para tráfico de drogas. En este tipo de escenarios, los sistemas ISTAR
apropiados para cubrir la vigilancia del terreno están formados por sensores embarcados en
plataformas aéreas con una velocidad alta y tiempo de revisita bajo. Esto se debe a los cambios
constantes que hay sobre el terreno principalmente por el movimiento de personas y vehículos.
Además, se ha detectado que una posible tendencia en los sistemas de vigilancia costera es el
despliegue de múltiples plataformas aéreas autónomas de reducido tamaño (mini drones) con el
objetivo de cubrir completamente el área de interés con un tiempo de revisita reducido. Este tipo de
despliegues presenta una relación mejor entre coste y eficiencia que el empleo de plataformas
aéreas más grandes, que en principio podrían tener una mayor capacidad de vigilancia de forma
individual.
El escenario de inteligencia sobre construcción de infraestructuras se extiende en una zona amplia
donde los movimientos y cambios más significativos se producen en un período de tiempo largo.
La zona escogida para analizar es la Amazonia y para este caso se ha limitado una superficie de
215294 𝑘𝑚2 en la parte del bosque que ocupa Colombia. En este escenario los sistemas ISTAR
más eficaces son aquellos que permiten cubrir un área muy extensa, a pesar de que presenten un
tiempo de revisita elevado, incluso de varios días, ya que los cambios que se desean detectar son
lentos. Por este motivo, el empleo de plataformas aéreas no es eficiente para este tipo de misiones
porque presentan un tiempo de servicio reducido, inferior al requerido, y no consiguen cubrir áreas
muy extensas de terreno. La mejor opción, en este tipo de misiones ISTAR, es el uso de
plataformas satelitales cuya velocidad es constante, cubren una zona muy extensa, y permiten
observar la misma parte del terreno con frecuencia de revisita también constante.
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 38
En este trabajo, se ha podido observar la gran variedad de opciones que son posibles a la hora de
desarrollar estos sistemas en función de la misión a la que estén destinados. Además, la viabilidad
de los sistemas ISTAR en estos escenarios se puede analizar mediante otros parámetros operativos
con el objetivo de encontrar la mejor solución en cada misión ISTAR en función de los requisitos
específicos. De hecho, múltiples parámetros podrían ponderarse para obtener una figura de mérito
global de cada posible opción.
El desarrollo de esta herramienta se puede continuar con el objetivo de aumentar la precisión y la
información obtenida para seleccionar los sistemas ISTAR más apropiados en cada momento. En
estos nuevos casos se podrían realizar análisis en base a otros parámetros operativos como la
estabilidad de las plataformas, las limitaciones por coste de los sistemas o las capacidades de
procesado de algunos algoritmos de detección automática de blancos en imágenes de espectro
visible, de infrarrojo o hiperespectrales. Además, la realimentación obtenida de los propios
usuarios de la herramienta puede dar lugar a futuras versiones de la misma que incluyan nuevas
capacidades de análisis.
Referencias
[1] Félix Pérez Martínez. “Sensores electromagnéticos. Los “sentidos” de los Sistemas para la
Defensa y la Seguridad”. Cuadernos Cátedra ISDEFE-UPM 9. 2011
[2] Ronald W. Waynant, Marwood N. Ediger. “Electro-optics Handbook”. McGraw-Hill. 2000
[3] Emilio Chuvieco, Alfredo Huete. “Fundamentals of satellite remote sensing”. CRC Press.
2010
[4] “Estrategia de Tecnología e Innovación para la Defensa (ETID 2015)”. Dirección General de
Armamento y Material. Subdirección General de Planificación, Tecnología e Innovación.
Ministerio de Defensa.
[5] Ministerio de Defensa. Estrategia de Tecnología e Innovación para la Defensa [Online].
Available: https://www.tecnologiaeinnovacion.defensa.gob.es/es-
es/Estrategia/Paginas/Defensa.aspx
[6] Ministerio de Defensa. Sensores y Sistemas Electrónicos [Online]. Available:
https://www.tecnologiaeinnovacion.defensa.gob.es/es-
es/Estrategia/HojasDeRuta/Paginas/Sensores_SE.aspx
[7] Ministerio de Defensa. Plataformas [Online] Available:
https://www.tecnologiaeinnovacion.defensa.gob.es/es-
es/Estrategia/HojasDeRuta/Paginas/Plataformas.aspx
[8] Ministerio de Defensa. ISTAR [Online]. Available:
http://www.tecnologiaeinnovacion.defensa.gob.es/en-
us/Estrategia/HojasDeRuta/Pages/ISTAR.aspx
[9] Cátedra Isdefe-UPM [Online]. Available:
http://catedraisdefe.etsit.upm.es/webNueva/index.html
[10] Marcus Borengasser, William S. Hungate, Russell Watkins. “Hyperspectral Remote Sensing,
Principles and Applications”. CRC Press. 2008
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 39
[11] NASA Airborne Science Program. HyMap [Online]. Available:
https://airbornescience.nasa.gov/instrument/HyMap
[12] [Online] Available: http://67.225.133.110/~gbpprorg/nfl/an_aas52_mts_ds.pdf
[13] Air Force Technology. Predator RQ-1 / MQ-1 / MQ-9 Reaper UAV [Online]. Available:
https://www.airforce-technology.com/projects/predator-uav/
[14] ESA (European Space Agency). “Sentinel-3 User Handbook”. 2013
[15] ESA. MERIS [Online]. Available: https://earth.esa.int/web/guest/missions/esa-operational-
eo-missions/envisat/instruments/meris
[16] FLIR. SeaFLIR 280-HD [Online]. Available:
http://www.flir.eu/surveillance/display/?id=64523
[17] SENER. SeoSAT/INGENIO. Satélite Español de Observación de la Tierra [Online].
Available: http://www.aeroespacial.sener/pdf-ficha-proyecto/seosat-ingenio-satelite-espanol-
de-observacion-de-la-tierra
[18] Raytheon. [Online] Available: http://investor.raytheon.com/phoenix.zhtml?c=84193&p=irol-
newsArticle&ID=1575277
[19] Indra Sistemas, S.A. “INTACT. Intelligence and surveillance tactical vehicles”.
[20] Raytheon. Multi-spectral Targeting System (MTS) [Online]. Available:
https://www.raytheon.com/capabilities/products/mts
[21] Raytheon, S.A. “AN/AAS-52 Multi-Spectral Targeting System”. 2005
[22] Infodefensa.com [Online]. Available: http://www.infodefensa.com/latam/2018/04/20/noticia-
ultima-venta-mexico-millones.html
[23] FLIR. SeaFLIR 280-HD [Online]. Available:
http://www.flir.eu/surveillance/display/?id=64523
[24] ESA. OLCI Instrument Payload [Online]. Available:
https://sentinel.esa.int/web/sentinel/missions/sentinel-3/instrument-payload/olci
[25] ESA. Mission Summary [Online]. Available:
https://sentinel.esa.int/web/sentinel/missions/sentinel-3/overview/mission-summary
[26] Thomas M. Davis, Stanley D. Straight, Dr. Ronald B. Lockwood. “Tactical Satellite 3”. Air
Force Research Laboratory. 2008
[27] SENER. SeoSAT/INGENIO campana de calificación[Online]. Available:
http://www.revistanoticias.sener/news/seosat-ingenio-campana-de-calificacion/46/
[28] SENER. SeoSAT/INGENIO. Spanish Eath Observation Satellite [Online]. Available:
http://www.aerospace.sener/products/seosat-ingenio-spanish-earth-observation-satellite
[29] OcádizDigital. [Online]. Available: http://ocadizdigital.es/noticia/c%C3%A1diz/la-etapa-
c%C3%A1diz-arcos-se-iniciar%C3%A1-desde-el-buque-insignia-de-la-armada-juan-carlos-i
[30] EnElAire. Nasa utilizará aviones WB-57F para estudiar fenómenos relacionados con el
eclipse [Online]. Available: http://enelaire.mx/nasa-utilizara-aviones-wb-57f-para-estudiar-
fenomenos-relacionados-con-el-eclipse/
[31] Heneywell. Factores que se deben tener en consideración al seleccionar las cámaras de
videovigilancia [Online]. Available:
https://www.security.honeywell.com/es/documents/HVS-CAMTEC-01-ES(0411)GU-E.pdf
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 40
[32] Mauricio Labrador García, Juan Antonio Évora Brondo, Manual Arbelo Pérez. “Satélites de
Teledetección para la Gestión del Territorio”. Proyecto SATELMAC, Programa de
Cooperación Transnacional Madeira-Azores-Canarias -2007-2013 (PCT-MAC). 2012
[33] Donohue, J. Introductory review of target discrimination criteria. Final Report, 16 Apr.-31
Dec. 1991 Dynamics Research Corp., Wilmington, MA..
[34] Cátedra ISDEFE-UPM. “Advanced Technological Integration for Solutions for Under
Foliage Detection and their Potencial Impact on Border Surveillance Study. Analysis of
Possible Deployments with Current Technologies, Sensors and Systems”. Agencia Europea
de la Guardia de Fronteras y Costas (Frontex), Cátedra ISDEFE-UPM. 2014
[35] Friedman, E., & Miller, J. L. Photonics rules of thumb. McGraw-Hill Pub. 2013.
[36] Adão T, Hruška J, Pádua L, Bessa J, Peres E, Morais R, Sousa JJ. Hyperspectral imaging: A
review on UAV-based sensors, data processing and applications for agriculture and forestry.
Remote Sensing, 9, 11. 2017.
[37] Ministerio de Fomento. Modificación del dispositivo de separación de tráfico del Estrecho de
Gibraltar [Online]. Available: http://www.salvamentomaritimo.es/sm/que-
hacemos/controlamos-el-trafico-maritimo/modificacion-del-dispositivo-de-separacion-de-
trafico-del-estrecho-de-gibraltar/?ids=354
[38] Greenpeace. Amazonas[Online]. Available: https://es.greenpeace.org/es/trabajamos-
en/bosques/amazonas/
[39] CalcMaps [Online]. Available: https://www.calcmaps.com/es/map-area/
Para los datos de los sensores y plataformas analizados en la herramienta se han utilizado las
siguientes referencias:
- Army Recognition. MQ-1 Predator Unmanned Aerial Vehicle UAV Drone [Online].
Available:
http://www.armyrecognition.com/us_american_unmanned_aerial_ground_vehicle_uk/mq-
1_predator_unmanned_aerial_vehicle_uav_data_sheet_
specifications_information_description_uk.html
- Mauricio Labrador García, Juan Antonio Évora Brondo, Manual Arbelo Pérez. “Satélites
de Teledetección para la Gestión del Territorio”. Proyecto SATELMAC, Programa de
Cooperación Transnacional Madeira-Azores-Canarias -2007-2013 (PCT-MAC). 2012
- Sistema Español de Observación de la Tierra [Online]. Available:
http://www.idi.mineco.gob.es/stfls/MICINN/investigacion/FICHEROS/SEOSAT-
INGENIO.pdf
- Avia.PRO. Helicóptero Eurocopter Panther AS565. Especificaciones [Online] Available:
http://avia-es.com/blog/vertolyot-eurocopter-as565-panther-tehnicheskie-harakteristiki-
foto
- Avia.PRO. Helicóptero Sikorsky SH-60 Seahawk. Especificaciones [Online] Available:
http://avia-es.com/blog/vertolyot-sikorsky-sh-60-seahawk-tehnicheskie-harakteristiki-foto
- Avia.PRO.CASA C-212 Aviocar. Especificaciones [Online] Available:http://avia-
es.com/blog/casa-c-212-aviocar-tehnicheskie-harakteristiki-foto
- Desarrollo y Defensa. Avión Lockeed P-3 Orion [Online]. Available:
http://desarrolloydefensa.blogspot.com/2009/09/avion-lockheed-p-3-orion-aun-
vigente.html
Estado del arte de las Tecnologías
Marzo 2018 – Julio 2018 41
- Desarrollo y Defensa. El transporte táctico CASA C-295 [Online]. Available:
http://desarrolloydefensa.blogspot.com/2008/04/el-transporte-tctico-casa-c-295.html
- Resonon. Pika NUV – Near Ultraviolet Hyperspectral Imaging Camera [Online].
Available: https://resonon.com/Products/imagers_pika_nuv.html
- Resonon. Pika NIR-f Near Infrared Hyperspectral Imaging Camera [Online] Available
:https://resonon.com/Products/imagers_pika_nir-f.html
- Allied Vision. Pearleye Data sheet P-030 LWIR [Online] Available:
https://www.alliedvision.com/en/products/cameras/detail/Pearleye/P-030%20LWIR.html
- Indra. Avión Táctico de Largo Alcance no Tripulado Español [Online]. Available:
https://www.indracompany.com/es/indra/avion-tactico-largo-alcance-tripulado-espanol-
atlante
- eoPortal Directory. Landsat-7 [Online]. Available:
https://directory.eoportal.org/web/eoportal/satellite-missions/l/landsat-7
- NASA. Sensor ETM+ [Online]. Available: https://landsat.gsfc.nasa.gov/the-enhanced-
thematic-mapper-plus/
- Deimos Imagery S.L.U. “DEIMOS-1 Imagery User Guide”. 2015
- NASA. Sensor Hyperion [Online] Available:
https://eo1.gsfc.nasa.gov/new/validationReport/Technology/TRW_EO1%20Papers_Prese
ntations/10.pdf
- Specim. Spectral Imaging. Sensor sCMOS [Online]. Available:
http://www.specim.fi/products/scmos-50-v8e/
- FLIR. Sensor FLIR ThermoVision 3000 [Online]. Available:
http://www.flir.es/cs/display/?id=42132