capitulo ii marco teÓrico - virtual.urbe.eduvirtual.urbe.edu/tesispub/0092449/cap02.pdf · la...
TRANSCRIPT
CAPITULO II MARCO TEÓRICO
14
CAPITULO II
MARCO TEÓRICO
1.- ANTECEDENTES DE LA INVESTIGACIÓN
A continuación se darán a conocer ciertos antecedentes que se han
considerado previos al desarrollo relacionado directamente con las variables
a trata durante este proceso, que son la Seguridad Informática y la
Tecnología Biométrica, así como parte fundamental para el conocimiento de
los temas a tratar.
Uludag, Universidad del Estado de Michigan – EEUU (2006).Realizó
una investigación titulada “Sistemas de Seguridad Biométrico”. En primer
lugar, se analiza la robustez de ataque de comparadores de huellas
dactilares, y desarrollar algoritmos para eludir ellos. El enfoque propuesto se
muestra como un gran éxito en pasar por la seguridad asociados a los
sistemas de huellas dactilares. Además, desarrollamos métodos para hacer
frente a este ataque. En segundo lugar, el desarrollo de algoritmos para
aumentar la seguridad de la base de imágenes (por ejemplo, huellas
dactilares y rostro) plantillas biométricas, a través de incorporar información
adicional en ellos. Se demuestra que estos algoritmos no reducen el
rendimiento biométrico correspondiente. En tercer lugar, desarrollar un marco
seguro de distribución de contenidos multimedia que incluye el juego de
15
huellas dactilares. Esto proporciona otra línea de defensa contra la piratería
de datos de derechos de autor. Por último, desarrollar un sistema híbrido que
combina la criptografía tradicional con biometría de huella dactilar. La
seguridad asociada a los algoritmos criptográficos y la facilidad de uso de la
biometría coexisten en dichos sistemas.
De estas evidencias con este trabajo de investigación fue de total ayuda
para complementar la investigación en todo lo referente a los procesos de
encriptación/criptación de la validación de varios Sistemas Biométricos, así
como la seguridad de los datos que se procesan internamente y su
vulnerabilidad antes ataques.
Romero, Escuela Politécnica del Ejército de Ecuador (2005). Realizó
una investigación titulada “Definición de un plan de seguridad informática para
la empresa PROMIX”. Primeramente se hace una introducción sobre la
importancia de un Plan de Seguridad Informática para las organizaciones, se
menciona también los Antecedentes, Posicionamiento, Justificación,
Objetivos del Proyecto, Alcance y Metodología para el análisis de riesgos y
para la seguridad de la información para la empresa Promix Ecuador C.A. Se
ha realizado además un marco teórico sobre la seguridad informática,
describiendo las definiciones básicas, los tipos de seguridades, los delitos
informáticos más comunes, las políticas de seguridad que una empresa debe
tener en cuenta, la seguridad en redes e Internet y por último los puntos más
importantes sobre criptografía.
16
Luego de tener en cuenta las definiciones sobre seguridad informática se
realiza un Análisis de la Situación Actual de la empresa tanto en hardware,
software, infraestructura física y comunicaciones y así posteriormente se
identifican los recursos críticos que tienen la empresa. Para el Análisis de
Riesgos e Impactos, se definen los Niveles de Impacto y luego se clasifican
los riesgos según dichos niveles, tanto para hardware, software,
infraestructura física y comunicaciones de la empresa. Posteriormente luego
de un Análisis detallado de lo que posee la empresa, se define un Plan de
Seguridad tomando en cuenta la Seguridad Física y Lógica, y presentando
los controles preventivos, detectivos y correctivos que se deben tomar en
cuenta para prevenir y corregir desastres. Y para concluir, se ha definido las
Conclusiones y Recomendaciones que la empresa Promix Ecuador C.A
deberá tener en cuenta luego de haber realizado el Análisis de la misma y
definido un Plan de Seguridad Informática.
Finalmente se concluye que los resultados de dicha investigación
ayudaron a tener conocimientos claros sobre conceptos de Seguridad
Informática, y todos los componentes necesarios para aplicar protección de
datos, dadas diferentes maneras en que pueda ser atacada la información y
cuál debe ser el plan de evasión, prevención y detección de ataques
informáticos.
Salaiwarakul, Universidad Birmingham – Londres (2010). Realizó una
investigación titulada “Verificación de Seguridad Biométrica Protocolos de
Autentificación”. La tesis presenta la verificación de los protocolos de
17
autenticación biométrica. Los protocolos se analizan en el modelo de
ProVerif. Varios ataques a los protocolos se generan con el fin de verificar si
las propiedades no se pierden en el transcurso del ataque. Se seleccionan
tres protocolos de autenticación biométrica y se propuso un protocolo remoto
de autenticación biométrica para la banca en línea. Cada una de las cuales
tiene diferentes propósitos y propiedades. El primer protocolo de
autenticación es genérico utilizando los datos biométricos. Este protocolo
ofrece tres propiedades: eficacia, exactitud y privacidad de los datos
biométricos. Además, el protocolo se aclara con el fin de verificar la
propiedad de la eficacia. El segundo protocolo es un protocolo de
autenticación biométrica para una aplicación de creación de firma. Este es un
protocolo de propósito específico que requiere autenticación biométrica con
éxito a fin de proceder la solicitud del usuario, la firma de un documento. Las
dos propiedades del protocolo se verifican: la protección de los datos
biométricos y la validación intencional del usuario. Este protocolo se utiliza
para firmar un documento con la clave privada del usuario. Por lo tanto, la
extensión del protocolo es necesaria para que la propiedad de autenticación
intencional pueda ser verificada. Esta propiedad demuestra que solo el
usuario legítimo tiene permiso validar con una firma su documento. La tesis
considera, además, un protocolo remoto de autenticación biométrica.
A continuación, la tesis propone un protocolo remoto de autenticación
biométrica para la banca en línea. El protocolo promete tres propiedades de
18
objeto: la privacidad de los datos biométricos, la validación del usuario y el
comportamiento de los datos de validación. El protocolo se ilustra en detalle
y propiedades deseables del protocolo se verifican. Finalmente, concluye
este estudio con una breve comparación de las propiedades que cada
protocolo de espera. Además, se han identificado las limitaciones de esta
tesis y las posibles áreas para futuras investigaciones.
Medina, Universidad de Chile (2006).Realizó una investigación titulada
“Estándares para la Seguridad de Información Con Tecnologías de
Información”. El presente trabajo está orientado principalmente, a enumerar y
desarrollar algunas políticas y estándares sobre seguridad de la información con
tecnologías de información, que están presentes actualmente.
2. BASES TEÓRICAS
Dentro del presente capitulo se presentan aspectos teóricos conceptuales,
que permitan a la investigación la ubicación dentro del campo específico que
esta trata, que en este caso se encuentra referida a la de Simular un sistema
basado en la sincronización de datos para tecnología UMTS en empresas
de telecomunicaciones.
19
2.1 DEFINICIONES DE TÉRMINOS BÁSICOS
2.1.1 INFORMACIÓN
Según Romero (2006, p. 10) La Información es un conjunto de datos, los
mismos que sirven para tomar una decisión; es un componente vital para el
Control.
Existe información que debe o puede ser pública y aquella que debe ser
privada, en esta segunda debemos maximizar nuestros esfuerzos para
preservarla de ese modo, reconociendo las siguientes características en la
Información:
Es crítica: es indispensable para garantizar la continuidad operativa .
Es valiosa: es un activo con valor en sí misma.
Es sensitiva: debe ser conocida por las personas que la procesan y sólo por
ellas.
2.1.2 SISTEMA INFORMÁTICO
El Sistema Informático es el conjunto de recursos técnicos, financieros y
humanos, que consiste en el almacenamiento, procesamiento y transmisión
de la información de la organización.
Cuando un Sistema Informático se encuentra mal diseñado, este puede
convertirse en una herramienta muy perjudicial para toda la empresa ya que
como las máquinas obedecen las órdenes recibidas, y la modelización de la
empresa está determinada por las computadoras que materializan los
20
Sistemas de Información, la gestión y la organización de la empresa no
puede depender de un Software y Hardware mal diseñados.
2.1.3 DEFINICIÓN DE SEGURIDAD INFORMÁTICA
Según Romero (2006, p. 11) La seguridad Informática es la protección de
la información y los activos relacionados con su captación, almacenamiento,
transmisión, proceso, distribución y uso.
El objetivo de la seguridad informática es mantener ante todo la integridad,
la disponibilidad, la privacidad, el control y la autenticidad de la información
que es manejada mediante una computadora; además de reducir la
probabilidad del impacto a un nivel mínimo aceptable, un costo razonable ,
asegurando la adecuada y pronta recuperación.
2.1.4 CONFIDENCIALIDAD
La confidencialidad denominada también privacidad, es el servicio de
seguridad el cual permite que la información no pueda estar disponible, ni ser
descubierta por terceras personas, entidades o procesos que no se
encuentran autorizados.
Existen algunos mecanismos que se utilizan para salvaguardar la
confidencialidad de los datos como por ejemplo:
- Se utilizan técnicas de control de acceso a cualquier sistema.
- El cifrado de la información confidencial o de las comunicaciones.
21
2.1.5 INTEGRIDAD
Según Romero (2006, p. 12) La integridad es un servicio de seguridad, el
cual garantiza que la información encontrada en un sistema no sea
modificada y destruida por personas no autorizadas.
Una falla de integridad puede estar dada por anomalías en el hardware,
software, virus informáticos y/o modificación por personas que se infiltran en
el sistema. En el ámbito de las redes y las comunicaciones, una variante de
la integridad es la autenticidad.
Se trata de proporcionar los medios para verificar que el origen de los
datos es el correcto, saber quién los envió, conocer la fecha exacta de
cuando fueron enviados y recibidos.
2.1.6 DISPONIBILIDAD
Es el grado donde un dato se encuentra en el lugar, momento y forma en
que es requerido por el usuario autorizado.
Para que un sistema se lo considere seguro, éste debe mantener la
información correctamente almacenada con el hardware y el software
funcionando perfectamente, además debe respetar los formatos para su
recuperación en forma satisfactoria.
22
2.1.7 AUTENTICIDAD
Según Romero (2006, p. 13) La autenticidad permite verificar que la
información requerida es válida, utilizable entiempo, forma y distribución, así
como el de determinar si un usuario tiene el permiso para acceder a un
sistema o red. Normalmente se lo realiza con una contraseña (sólo el usuario
legítimo puede conocer).
2.1.8 TIPOS DE SEGURIDAD
Según Romero (2006, p. 11) existen 2 tipos de seguridad establecidos:
- Seguridad Física
- Seguridad Lógica
2.1.8.1 SEGURIDAD FÍSICA
Debemos tomar en cuenta que aunque nuestra empresa sea la más
segura en cuanto a ataques externos tales como hackers, virus, etc.; la
seguridad de esta misma será nula si no se ha previsto como combatir un
incendio o cualquier otro tipo de desastre natural y no tener presente
políticas claras de recuperación.
La seguridad física consiste en la aplicación de procedimientos de control
y barreras físicas, como medidas de prevención y contramedidas ante
amenazas a los recursos e información confidencial. Se refiere tanto a los
controles, mecanismos de seguridad, y medios de acceso remoto dentro y
23
alrededor del Centro de Cómputo, implementados para proteger el hardware
y medios de almacenamiento de datos.
Tener controlado el ambiente y acceso físico permite:
- Disminuir riesgos.
- Trabajar mejor manteniendo la sensación de seguridad.
- Descartar falsas hipótesis si se produjeran incidentes.
- Tener los medios necesarios para luchar contra accidentes.
2.1.8.2 SEGURIDAD LÓGICA
La información es el activo más valioso que posee cada empresa, y por lo
tanto deben existir técnicas, más allá de la seguridad física, que aseguren
dicha información. Estas técnicas las brinda la Seguridad Lógica.
La Seguridad Lógica se basa en la aplicación de procedimientos que
resguarden el acceso de los datos y sólo se permita acceder a ellos las
personas autorizadas para hacerlo.
Los objetivos que se plantean serán:
- Restringir el acceso a los diferentes programas y archivos que posee
la empresa.
- Asegurar que los operadores puedan trabajar sin una supervisión
minuciosa y no puedan modificar programas, ni archivos que no
correspondan.
- Asegurar que se estén utilizando los datos, archivos y los programas
correctos en y por el procedimiento correcto.
24
- Que la información transmitida sea recibida por el destinatario y no a
otro.
- Que la información recibida sea exactamente la misma transmitida.
- Que existan sistemas alternativos secundarios de transmisión entre
diferentes puntos.
- Que se disponga pasos alternativos de emergencia, para transmitir
dicha información.
2.2 SISTEMAS OPERATIVOS
2.2.1 SISTEMAS OPERATIVOS MÓVILES (SOM)
Un sistema operativo móvil o SO móvil es un sistema operativo el cual
controla un dispositivo móvil, al igual que las computadoras utilizan Windows
o Linux entre otros. Sin embargo, los sistemas operativos móviles son
bastantes simples y están más orientados a la conectividad inalámbrica, los
formatos multimedia para móviles, así como también las diferentes maneras
de introducir información en ellos.
2.2.2 CAPAS DE UN SISTEMA OPERATIVO MOVIL (SOM)
- Kernel. El núcleo o kernel proporciona el acceso a los diferentes
elementos del hardware del dispositivo. Ofrece distintos servicios a las
superiores como son los controladores o drivers para el hardware, la gestión
de procesos, el sistema de archivos y el acceso y gestión de la memoria.
25
- Middleware. es el conjunto de módulos que hacen posible la propia
existencia de aplicaciones a móviles. Es totalmente transparente para los
usuarios, ofrece servicios claves como el motor de mensajera,
comunicaciones, códecs multimedia, intérpretes de páginas web, gestión del
dispositivo y seguridad.
- Aplicaciones. El entorno de ejecución de aplicaciones consiste en un
gestor de aplicaciones y un conjunto de interfaces programables abiertas y
programables por parte de los desarrolladores para facilitar la creación de
software.
- Interfaz de usuario. Las interfaces de usuario facilitan la interacción
con el usuario y el diseño de la presentación visual de la aplicación. Los
servicios que incluye son el de componentes gráficos (botones, pantallas,
listas, etc.) y el del marco de interacción.
2.2.3 TIPOS DE (SOM)
Mientras que en el ámbito de las computadoras hay un sistema operativo
dominador del mercado como Windows, en el mundo de los nuevos
smartphones y tablets no hay un sistema operativo dominador claro sobre el
resto. A continuación mostraremos una breve descripción de los sistemas
operativos móviles más importantes en el mercado actual:
26
2.2.3.1 IOS
Según (Jobs, Steve 2010) El sistema operativo de Apple apareció en junio
de 2007, junto con el iPhone. Derivado de Mac OS X, sólo funciona sobre los
aparatos de Apple, iPhone, iPod Touch y recientemente también iPad. A
partir de 2008 incorpora la posibilidad para terceros de vender aplicaciones a
través de su plataforma iTunes, lo que impulsa un modelo de negocio del que
se hablará más adelante en este informe (apartado 10). Es entonces cuando
comienza a recibir el nombre de iPhone OS. La versión más actual es iOS4,
en el mercado desde junio de 2010 a la vez que el iPhone 4.Para conocer el
funcionamiento del sistema operativo y la navegación es necesario estar al
tanto de las características de sus aparatos: con un solo botón, son todo
pantalla (de 3,5 pulgadas en el caso del iPhone y del iPod Touch y de 9,7 en
el del iPad), multitactil y sin teclado, que es virtual, entre otras.
Las actualizaciones del sistema operativo y la introducción de datos se
realizan a través del software de Apple, iTunes, bien conectando el aparato
al ordenador o directamente a través de la web. La última versión incluye
multitarea. Entre sus limitaciones se encuentran la ausencia de soporte de
Flash, el formato más empleado para vídeo en Internet, y las restricciones
impuestas por un software propietario. Ambas han sido salvadas por los
usuarios, que han encontrado maneras de evitarlas en gran medida. El
diseño de su interfaz se ha convertido en todo un icono que han emulado
27
otros sistemas operativos, incluso algunas páginas web para móviles. Safari
es el navegador de Apple, incorporado por defecto con el sistema operativo.
2.2.3.2 ANDROID
Según (Arroyo, N 2011, pp 14-17) El sistema operativo de Google y la
Open Handset Alliance, basado en Linux, fue anunciado en noviembre de
2007. La primera versión, Android 1.0, se hizo efectiva en septiembre de
2008 con la comercialización de los primeros aparatos con Android. La última
versiones la 3.0, también conocida como Honeycomb (que significa panal de
abejas). En la actualidad son varios los fabricantes de móviles que tienen
algún modelo con Android en su catálogo: HTC, Acer, Motorola, Samsung,
Sony Ericsson… También lo incorporan algunas tabletas (Asus, Archos,
Samsung GalaxyTab, Toshiba Folio 100…) e incluso lectores de libros
electrónicos como el modelo Alex de Papyre, con doble pantalla.
La naturaleza abierta de Android le hace idóneo para aparatos de bajo
coste y el desarrollo de programas y le está situando entre los primeros
sistemas operativos del mercado: según datos publicados en abril de 2011
por la empresa Gartner, Android se perfila como el segundo sistema
operativo en todo el mundo, con un 22,7% de cuota de mercado en 2010,
sólo por detrás de Symbian(37,6%). Por detrás quedan Research in Motion
(16%), iOS (15,7%) y Windows Phone (4,2%).Discípulo directo de iOS en
cuanto a funciona mientoy concepción, uno de sus puntos débiles es la
28
actualización de nuevas versiones, para la que algunos modelos no prestan
soporte. En ese sentido, la separación del vendedor le penaliza.
2.2.3.3 SYMBIAN
Según (Arroyo, N 2011,pp 14-17) Symbian (antes S60) es el sistema
operativo para móviles más extendido del mundo, con una cuota de mercado
del 37,6% en 2010, según datos de Gartner. Es descendiente de una larga
saga de software que se remonta a finales de los ochenta con EPOC, un
sistema operativo gráfico para dispositivos portátiles. Tras varios avatares, en
2008 Symbian se constituyó en fundación con el objetivo de crear una
plataforma abierta de software, de manera que ningún fabricante de telefonía
móvil se viera obligado a encarecer su producto por el pago de licencias. Ha
sido empleado por la mayoría de los grandes fabricantes de móviles (Sony
Ericsson, Nokia, Motorola, Samsung y NTT Do como son sólo algunos de
ellos) y muy popular en Europa y Japón, aunque en la actualidad se
encuentra en claro descenso frente a sus competidores. La última versión es
laSymbian^3.
2.2.3.4 BLACK BERRY OS
Según (Arroyo, N 2011, pp 14-17) La compañía canadiense RIM es una
de las más veteranas en la fabricación de smartphones y PDA, estando
presente en el mercado desde 1999. Sus dispositivos han gozado siempre
de muy buena acogida en el mundo de los negocios gracias a soluciones
29
para enviar y recibir información de forma segura y estar permanentemente
conectado, especialmente en lo que a correo electrónico se refiere, como el
servicio de correo electrónico push (que permitía recibir instantáneamente
alertas una vez entrado un e-mail) y soporte para el correo corporativo.
Las “crackberry” (sobrenombre que recibieron por la adicción que creaban)
ofrecían además otras facilidades para la entrada de datos y la navegación,
como el teclado físico qwerty (que se abandona en nuevos modelos a favor
de pantallas táctiles y teclados virtuales) o soluciones para la navegación y el
scroll, que ha ido variando según dispositivos (trackwheel, trackball, trackpad
o más recientemente la pantalla táctil). También incorpora soluciones
organizativas como calendario o agenda. Funcionan bajo su propio sistema
operativo propietario, RIM OS, compatible con Java ME, cuya última versión,
la 6, data del verano de 2010.
2.2.3.5 WINDOWS PHONE
Según (Arroyo, N 2011,pp 14-17) Sus orígenes se remontan a 2000, con
el lanzamiento del llamado Pocket PC 2000, un sistema operativo ideado
para PDA y sucesor a su vez del PalmSize PC, el primer intento de Microsoft
para PDA. En2003 pasa a llamarse Windows Mobile. Éste vino materializado
en cuatro ediciones: para smartphone, teléfono y en ediciones Premium y
professional. La última versión, la 7, sigue la misma estética del sistema
operativo para escritorio. Si bien hace unos años era el preferido en el ámbito
30
empresarial, al igual que Symbian, está perdiendo cuota de mercado frente a
sus competidores.
2.2.3.6 MEEGO
Según (Arroyo, N 2011,pp 14-17) Fue la unión de los sistemas operativos
Maemo y Moblin, con el que Intel y Nokia pretenden competir con el sistema
Android de Google. El proyecto del nuevo sistema a diferencia de Android
está supervisado por la Linux Foundation. MeeGo se presentó como un
sistema preparado para funcionar en netbooks, dispositivos portátiles,
sistemas en vehículos, televisiones y teléfonos multimedia. Básicamente se
trata de una distribución Linux con soporte para ARM e Intel/Atom que usa Qt
para su interfaz. El software Meego se pueden clasificar en dos categorías: el
sistema operativo (SO) y la experiencia del usuario (UX). El software del
sistema operativo tiene, en una gran mayoría, licencia copyleft para
garantizar la apertura del sistema subyacente, mientras que en el software
UX es predominantemente el uso licencias BSD. Entre las características de
los terminales con MeeGo está la integración con redes sociales, servicios de
localización, sincronización de datos en la nube, soporte de gestos... Entre
las aplicaciones principales está Banshee (reproductor multimedia), Google
Chrome (navegador), Gedit (editor de textos) y Gnome-Terminal (emulador
de terminal).
31
2.2.3.7 BADA
Según (Arroyo, N 2011, pp 14-17) Bada, océano en coreano, es un
sistema operativo para teléfonos móviles desarrollado por Samsung
Electronics. Está diseñado para cubrir tanto los teléfonos Smartphone de
gama alta y de gama baja. Se basa en el sistema operativo propiedad de
Samsung SHP OS. Es la plataforma con un núcleo de arquitectura
configurable, que permite el uso de cualquiera de los kernel de Linux, o
cualquier otro Real-time operating system (RTOS) kernel. El kernel de Linux
es la opción preferida para los Smartphone de gama alta, mientras que
RTOS se utiliza para los Smartphone más asequibles, debido a un consumo
de memoria más pequeña. Ofrece varios controles de interfaz de usuario
para los desarrolladores. Proporciona una variedad de controles básicos en
la interfaz de usuario como cuadro de lista, Selector de color, pestañas, etc.
Además, tiene un control del explorador web basado en el Web Kit de código
abierto, y también cuenta con Adobe Flash y el soporte a Flash 9. Bada
ofrece mapas interactivos con el punto de interés (POI), características que
también puede ser incluida dentro de las aplicaciones. Bada soporta diversos
mecanismos para mejorar la interacción: varios sensores, como sensores de
movimiento, control de vibraciones, detección de rostros, acelerómetro,
magnetómetro, el GPS y pantalla multitactil, que pueden ser incorporados en
aplicaciones. Las aplicaciones son desarrolladas en C++ con el SDK de
Bada. El IDE también contiene la interfaz de usuario Builder, con la que los
32
desarrolladores pueden diseñar la interfaz de sus aplicaciones arrastrando y
colocando controles de interfaz de usuario en los formularios. No se permite
instalar aplicaciones fuera de la tienda y tampoco permite el uso de ningún
tipo de programa de VoIP/SIP.
2.2.3.8 LIMO
Según (Arroyo,N 2011,pp 14-17) Creado por Vodafone la que innova
presentando nuevos servicios y terminales de la mano de Samsung. Como
Android también es de código abierto, como también lo hizo Symbian hace
poco tiempo. Las diferencias se basan en que Limo está más enfocado a un
potencial uso independiente del hardware usado, y pretende que los
desarrolladores tengan más facilidades para crear en su plataforma. Marca la
diferencia con Android, es que no tiene una interfaz de usuario común y esto
se muestra en los nuevos terminales presentados por Vodafone, a los que la
marca inglesa ha incorporado una interfaz propia con los servicios de
Vodafone 360. Aunque el sistema operativo permite, como es obvio, la
instalación de más programas, el hecho de que esté tan controlado por una
operadora, al menos en este caso, podría hacer pensar que es posible que
no sea tan fácil desarrollar y lanzar programas como pueda serlo para el
iPhone o Android, pero al contrario, la propia Vodafone ha anunciado que
pondrá API´s a disposición de los desarrolladores para que creen nuevos
complementos para Limo.
33
2.2.4 ANÁLISIS DE PROTECCIÓN SOM MÁS COMUNES
Actualmente muchos fabricantes o empresas presumen de ser seguros y
los usuarios se quejan de lo inseguro que suele ser la computadora o
Smartphone que usan cotidianamente, o lo más común es que no tengamos
idea de que manera nos protegen. Una manera de saber que tanto una
empresa a invertido en el tema seguridad de nuestro sistema es verificando
las certificaciones que este tiene, ojo esto no asegura que nuestro
dispositivo/gadget/computadora sea más seguro, si no que el sistema fue
evaluado para cumplir ciertos estándares para otorgar mayor confianza al
adquirir un producto. Un organismo dedicado a evaluar la seguridad de los
sistemas informáticos es el CommonCriteria que está aprobado en 14 países.
2.3 AMENAZAS LÓGICAS
Según Borghello, C. (2001,pp 101-143). Los protocolos de comunicación
utilizados carecen (en su mayoría) de seguridad o esta ha sido implementada
en forma de "parche" tiempo después de su creación.
• Existen agujeros de seguridad en los sistemas operativos.
• Existen agujeros de seguridad en las aplicaciones.
• Existen errores en las configuraciones de los sistemas.
• Los usuarios carecen de información respecto al tema.
Esta lista podría seguir extendiéndose a medida que se evalúen mayor
cantidad de elementos de un Sistema Informático.
34
Las empresas u organizaciones no se pueden permitir el lujo de denunciar
ataques a sus sistemas, pues el nivel de confianza de los clientes
(ciudadanos) bajaría enormemente.
Los Administradores tienen cada vez mayor conciencia respecto de la
seguridad de sus sistemas y arreglan por sí mismos las deficiencias
detectadas. A esto hay que añadir las nuevas herramientas de seguridad
disponibles en el mercado.
Los "advisories" (documentos explicativos) sobre los nuevos agujeros de
seguridad detectados y la forma de solucionarlos, lanzados por el CERT, han
dado sus frutos.
2.3.1 ACCESO – USO – AUTORIZACIÓN
Según Borghello, C. (2001,pp 101-143) La identificación de estas palabras
es muy importante ya que el uso de algunas implica un uso desapropiado de
las otras.
Específicamente "Acceso" y "Hacer Uso" no son el mismo concepto
cuando se estudian desde el punto de vista de un usuario y de un intruso.
Por ejemplo:
- Cuando un usuario tiene acceso autorizado, implica que tiene
autorizado el uso de un recurso.
- Cuando un atacante tiene acceso desautorizado está haciendo uso
desautorizado del sistema.
35
- Pero, cuando un atacante hace uso desautorizado de un sistema, esto
implica que el acceso fue autorizado (simulación de usuario).
Luego un Ataque será un intento de acceso, o uso desautorizado de un
recurso, sea satisfactorio o no. Un Incidente envuelve un conjunto de
ataques que pueden ser distinguidos de otro grupo por las características del
mismo (grado, similitud, técnicas utilizadas, tiempos, etc.).
2.3.2 DETECCIÓN DE INTRUSOS
A finales de 1996, Dan Farmer (creador de una de las herramientas más
útiles en la detección de intrusos: SATAN) realizó un estudio sobre seguridad
analizando 2.203 sistemas de sitios en Internet. Los sistemas objeto del
estudio fueron Web Sites orientados al comercio y con contenidos
específicos, además de un conjunto de sistemas informáticos aleatorios con
los que realizar comparaciones.
El estudio se realizó empleando técnicas sencillas y no intrusivas. Se
dividieron los problemas potenciales de seguridad en dos grupos: rojos (red)
y amarillos (yellow) (ver cuadro 2).
Los problemas del grupo rojo son los más serios y suponen que el sistema
está abierto a un atacante potencial, es decir, posee problemas de seguridad
conocidos en disposición de ser explotados. Así por ejemplo, un problema de
seguridad del grupo rojo es un equipo que tiene el servicio de FTP anónimo
mal configurado.
36
Los problemas de seguridad del grupo amarillo son menos serios pero
también reseñables. Implican que el problema detectado no compromete
inmediatamente al sistema pero puede causarle serios daños o bien, que es
necesario realizar tests más intrusivos para determinar si existe o no un
problema del grupo rojo.
Cuadro 1:
Porcentaje de Vulnerabilidades por Tipo de Sitio.
Tipos de sitio #Total sitios testeados %Total Vulnerables %Yellow %Red
Fuente:http://www.trouble.org/survey
2.3.3 IDENTIFICACIÓN DE LAS AMENAZAS
Según Borghello, C. (2001,pp 101-143) La identificación de amenazas
requiere conocer los tipos de ataques, el tipo de acceso, la forma operacional
y los objetivos del atacante.
Las consecuencias de los ataques se podrían clasificar en:
- Data Corruption: la información que no contenía defectos pasa a
tenerlos.
37
- Denial of Service (DoS): servicios que deberían estar disponibles no lo
están.
- Leakage: los datos llegan a destinos a los que no deberían llegar.
Desde 1990 hasta nuestros días, el CERT viene desarrollando una serie
de estadísticas que demuestran que cada día se registran más ataques
informáticos, y estos son cada vez más sofisticados, automáticos y difíciles
de rastrear.
2.3.4 TIPOS DE ATAQUES
En la tesis de Borghello, C. (2001,pp 101-143) se realiza un estudio de
diferentes tipos de amenazas lógicas. A continuación se expondrán
diferentes tipos de ataques perpetrados, principalmente, por Hackers. Estos
ataques pueden ser realizados sobre cualquier tipo de red, sistema
operativo, usando diferentes protocolos, etc.
En los primeros tiempos, los ataques involucraban poca sofisticación
técnica. Los Insiders (operadores, programadores, data entrys) utilizaban sus
permisos para alterar archivos o registros. Los Outsiders ingresaban a la red
simplemente averiguando una password válida. A través de los años se han
desarrollado formas cada vez más sofisticadas de ataque para explotar
"agujeros" en el diseño, configuración y operación de los sistemas.
- Ingeniería Social
- Ingeniería Social Inversa
38
- Trashing (Cartoneo)
- Ataques de Monitorización
- Ataques de Autenticación
- Denial of Service (DoS)
- Ataques de Modificación – Daño
2.3.4.1 INGENIERA SOCIAL
Consiste en la manipulación de las personas para convencerlas de que
ejecuten acciones o actos que normalmente no realizan para que revele todo
lo necesario para superar las barreras de seguridad. Si el atacante tiene la
experiencia suficiente (generalmente es así), puede engañar fácilmente a un
usuario (que desconoce las mínimas medidas de seguridad) en beneficio
propio.
Esta técnica es una de las más usadas y efectivas a la hora de averiguar
nombres de usuarios y passwords.
Por ejemplo, suele llamarse a un usuario haciéndose pasar por
administrador del sistema y requerirle la password con alguna excusa
convincente. O bien, podría enviarse un mail (falsificando la dirección origen
a nombre del administrador) pidiendo al usuario que modifique su password
a una palabra que el atacante suministra.
39
2.3.4.2 INGENIERÍA SOCIAL INVERSA
Consiste en la generación, por parte de los intrusos, de una situación
inversa a la originada en Ingeniería Social.
En este caso el intruso publicita de alguna manera que es capaz de
brindar ayuda a los usuarios, y estos lo llaman ante algún imprevisto. El
intruso aprovechara esta oportunidad para pedir información necesaria para
solucionar el problema del usuario y el suyo propio (la forma de acceso al
sistema).
La Ingeniería Social Inversa es más difícil de llevar a cabo y por lo general
se aplica cuando los usuarios están alertados de acerca de las técnicas de
Ingeniería Social. Puede usarse en algunas situaciones específicas y
después de mucha preparación e investigación por parte del intruso:
- Generación de una falla en el funcionamiento normal del sistema.
Generalmente esta falla es fácil de solucionar pero puede ser difícil de
encontrar por los usuarios inexpertos (sabotaje). Requiere que el
intruso tenga un mínimo contacto con el sistema.
- Comunicación a los usuarios de que la solución es brindada por el
intruso (publicidad).
- Provisión de ayuda por parte del intruso encubierto como servicio
técnico.
40
2.3.4.3 TRASHING (CARTONEO)
Generalmente, un usuario anota su login y password en un papelito y
luego, cuando lo recuerda, lo arroja a la basura. Este procedimiento por más
inocente que parezca es el que puede aprovechar un atacante para hacerse
de una llave para entrar el sistema..."nada se destruye, todo se transforma".
El Trashing puede ser físico (como el caso descripto) o lógico, como
analizar buffers de impresora y memoria, bloques de discos, etc.
El Trashing físico suele ser común en organizaciones que no disponen de
alta confidencialidad, como colegios y universidades.
2.3.4.5 ATAQUES DE MONITORIZACIÓN
Este tipo de ataque se realiza para observar a la víctima y su sistema, con
el objetivo de establecer sus vulnerabilidades y posibles formas de acceso
futuro.
A) SHOULDER SURFING
Consiste en espiar físicamente a los usuarios para obtener el login y su
password correspondiente. El Surfing explota el error de los usuarios de
dejar su login y password anotadas cerca de la computadora (generalmente
en post–it adheridos al monitor o teclado). Cualquier intruso puede pasar por
ahí, verlos y memorizarlos para su posterior uso. Otra técnica relacionada al
41
surfing es aquella mediante la cual se ve, por encima del hombro, al usuario
cuando teclea su nombre y password.
B) DECOY (SEÑUELOS)
Los Decoy son programas diseñados con la misma interface que otro
original. En ellos se imita la solicitud de un logeo y el usuario desprevenido lo
hace. Luego, el programa guardará esta información y dejará paso a las
actividades normales del sistema. La información recopilada será utilizada
por el atacante para futuras "visitas". Una técnica semejante es aquella que,
mediante un programa se guardan todas las teclas presionadas durante una
sesión. Luego solo hará falta estudiar el archivo generado para conocer
nombres de usuarios y claves.
C) SCANNING (BÚSQUEDA)
El Scaneo, como método de descubrir canales de comunicación
susceptibles de ser explotados, lleva en uso mucho tiempo. La idea es
recorrer (scanear) tantos puertos de escucha como sea posible, y guardar
información de aquellos que sean receptivos o de utilidad para cada
necesidad en particular. Muchas utilidades de auditoría también se basan en
este paradigma.
El Scaneo de puertos pertenece a la Seguridad Informática desde que era
utilizado en los sistemas de telefonía. Dado que actualmente existen millones
de números de teléfono a los que se pueden acceder con una simple
42
llamada, la solución lógica (para encontrar números que puedan interesar) es
intentar conectarlos a todos.
La idea básica es simple: llamar a un número y si el módem devuelve un
mensaje de conectado, grabar el número. En otro caso, la computadora
cuelga el teléfono y llama al siguiente número.
Scanear puertos implica las mismas técnicas de fuerza bruta. Se envía
una serie de paquetes para varios protocolos y se deduce que servicios
están "escuchando" por las respuestas recibidas o no recibidas.
D) EAVESDROPPING–PACKET SNIFFING
Muchas redes son vulnerables al Eavesdropping, o a la pasiva
intercepción (sin modificación) del tráfico de red.
Esto se realiza con PacketSniffers, los cuales son programas que
monitorean los paquetes que circulan por la red. Los Sniffers pueden ser
colocados tanto en una estación de trabajo conectada a la red, como a un
equipo Router o a un Gateway de Internet, y esto puede ser realizado por un
usuario con legítimo acceso, o por un intruso que ha ingresado por otras
vías.
Cada máquina conectada a la red (mediante una placa con una dirección
única) verifica la dirección destino de los paquetes TCP. Si estas direcciones
son iguales asume que el paquete enviado es para ella, caso contrario libera
el paquete para que otras placas lo analicen.
43
Un Sniffers consiste en colocar a la placa de red en un modo llamado
promiscuo, el cual desactiva el filtro de verificación de direcciones y por lo
tanto todos los paquetes enviados a la red llegan a esta placa (computadora
donde está instalado el Sniffer).
Inicialmente este tipo de software, era únicamente utilizado por los
administradores de redes locales, aunque con el tiempo llegó a convertirse
en una herramienta muy usada por los intrusos.
Actualmente existen Sniffers para capturar cualquier tipo de
información específica. Por ejemplo passwords de un recurso compartido
o de acceso a una cuenta, que generalmente viajan sin encriptar al ingresar
a sistemas de acceso remoto. También son utilizados para capturar números
de tarjetas de crédito y direcciones de e-mails entrantes y salientes. El
análisis de tráfico puede ser utilizado también para determinar relaciones
entre organizaciones e individuos. Para realizar estas funciones se
analizan las tramas de un segmento de red, y presentan al usuario sólo las
que interesan.
Normalmente, los buenos Sniffers, no se pueden detectar, aunque la
inmensa mayoría, y debido a que están demasiado relacionados con el
protocolo TCP/IP, si pueden ser detectados con algunos trucos.
E) SNOOPING–DOWNLOADING
Los ataques de esta categoría tienen el mismo objetivo que el Sniffing:
obtener la información sin modificarla.
44
Sin embargo los métodos son diferentes. Aquí, además de interceptar el
tráfico de red, el atacante ingresa a los documentos, mensajes de correo
electrónico y otra información guardada, realizando en la mayoría de los
casos un downloading (copia de documentos) de esa información a su propia
computadora, para luego hacer un análisis exhaustivo de la misma.
El Snooping puede ser realizado por simple curiosidad, pero también es
realizado con fines de espionaje y robo de información o software. Los casos
más resonantes de este tipo de ataques fueron: el robo de un archivo con
más de 1700 números de tarjetas de crédito desde una compañía de música
mundialmente famosa, y la difusión ilegal de reportes oficiales reservados de
las Naciones
Unidas, acerca de la violación de derechos humanos en algunos países
europeos en estado de guerra.
2.3.4.6 ATAQUES DE AUTENTIFICACIÓN
Según Borghello, C. (2001,pp 101-143) en su tesis realiza un estudio de
diferentes tipos de amenazas .Este tipo de ataque tiene como objetivo
engañar al sistema de la víctima para ingresar al mismo. Generalmente este
engaño se realiza tomando las sesiones ya establecidas por la víctima u
obteniendo su nombre de usuario y password.
45
A) SPOOFING–LOOPING
Spoofing puede traducirse como "hacerse pasar por otro" y el objetivo de
esta técnica, justamente, es actuar en nombre de otros usuarios, usualmente
para realizar tareas de Snooping o Tampering.
Una forma común de Spoofing es conseguir el nombre y password de un
usuario legítimo para, una vez ingresado al sistema, tomar acciones en
nombre de él.
El intruso usualmente utiliza un sistema para obtener información e
ingresar en otro, y luego utiliza este para entrar en otro, y así sucesivamente.
Este proceso, llamado Looping, tiene la finalidad de "evaporar" la
identificación y la ubicación del atacante.
El camino tomado desde el origen hasta el destino puede tener muchas
estaciones, que exceden obviamente los límites de un país. Otra
consecuencia del Looping es que una compañía o gobierno pueden suponer
que están siendo atacados por un competidor o una agencia de gobierno
extranjera, cuando en realidad están seguramente siendo atacado por un
Insider, o por un estudiante a miles de Kilómetros de distancia, pero que ha
tomado la identidad de otros.
La investigación de procedencia de un Looping es casi imposible, ya que
el investigador debe contar con la colaboración de cada administrador de
cada red utilizada en la ruta.
46
El envío de falsos e-mails es otra forma de Spoofing que las redes
permiten. Aquí el atacante envía e-mails a nombre de otra persona con
cualquier motivo y objetivo.
Muchos ataques de este tipo comienzan con Ingeniería Social, y los
usuarios, por falta de cultura, facilitan a extraños sus identificaciones dentro
del sistema usualmente través de una simple llamada telefónica.
B) SPOOFING
Este tipo de ataques (sobre protocolos) suele implicar un buen
conocimiento del protocolo en el que se va a basar el ataque. Los ataques
tipo Spoofing bastante conocidos son el IP Spoofing y el Web Spoofing.
C) WEB SPOOFING
En el caso Web Spoofing el atacante crea un sitio web completo (falso)
similar al que la víctima desea entrar. Los accesos a este sitio están dirigidos
por el atacante, permitiéndole monitorear todas las acciones de la víctima,
desde sus datos hasta las passwords, números de tarjeta de créditos, etc.
El atacante también es libre de modificar cualquier dato que se esté
transmitiendo entre el servidor original y la víctima o viceversa.
D) IP SPLICING–HIJACKING
47
Se produce cuando un atacante consigue interceptar una sesión ya
establecida.
El atacante espera a que la víctima se identifique ante el sistema y tras
ello le suplanta como usuario autorizado.
E) UTILIZACIÓN DE BACKDOORS
Las puertas traseras son trozos de código en un programa que permiten a
quien las conoce saltarse los métodos usuales de autentificación para
realizar ciertas tareas. Habitualmente son insertados por los programadores
del sistema para agilizar la tarea de probar código durante la fase de
desarrollo .
Esta situación se convierte en una falla de seguridad si se mantiene,
involuntaria o intencionalmente, una vez terminado el producto ya que
cualquiera que conozca el agujero o lo encuentre en su código podrá saltarse
los mecanismos de control normales.
F) UTILIZACIÓN DE EXPLOITS
Es muy frecuente ingresar a un sistema explotando agujeros en los
algoritmos de encriptación utilizados, en la administración de las claves por
parte la empresa, o simplemente encontrando un error en los programas
utilizados.
48
Los programas para explotar estos "agujeros" reciben el nombre de
Exploits y lo que realizan es aprovechar la debilidad, fallo o error hallado en
el sistema (hardware o software) para ingresar al mismo.
Nuevos Exploits (explotando nuevos errores en los sistemas) se publican
cada día por lo que mantenerse informado de los mismos y de las
herramientas para combatirlos es de vital importancia.
G) OBTENCIÓN DE PASSWORDS
Este método comprende la obtención por "Fuerza Bruta" de aquellas
claves que permiten ingresar a los sistemas, aplicaciones, cuentas, etc.
atacados.
Muchas passwords de acceso son obtenidas fácilmente porque involucran
el nombre u otro dato familiar del usuario y, además, esta nunca (o rara vez)
se cambia. En este caso el ataque se simplifica e involucra algún tiempo de
prueba y error. Otras veces se realizan ataques sistemáticos (incluso con
varias computadoras a la vez) con la ayuda de programas especiales y
"diccionarios" que prueban millones de posibles claves hasta encontrar la
password correcta.
2.3.4.7 DENIAL OF SERVICE (DOS)
Borghello, C. (2001) en su tesis menciona que los protocolos existentes
actualmente fueron diseñados para ser empleados en una comunidad abierta
y con una relación de confianza mutua. La realidad indica que es más fácil
49
desorganizar el funcionamiento de un sistema que acceder al mismo; así los
ataques de Negación de Servicio tienen como objetivo saturar los recursos
de la víctima de forma tal que se inhabilita los servicios brindados por la
misma.
Más allá del simple hecho de bloquear los servicios del cliente, existen
algunas razones importantes por las cuales este tipo de ataques pueden ser
útiles a un atacante:
1. Se ha instalado un troyano y se necesita que la víctima reinicie la
máquina para que surta efecto.
2. Se necesita cubrir inmediatamente sus acciones o un uso abusivo de
CPU. Para ello provoca un "crash" del sistema, generando así la sensación
de que ha sido algo pasajero y raro.
3. El intruso cree que actúa bien al dejar fuera de servicio algún sitio web
que le disgusta. Este accionar es común en sitios pornográficos, religiosos o
de abuso de menores.
4. El administrador del sistema quiere comprobar que sus instalaciones
no son vulnerables a este tipo de ataques.
5. El administrador del sistema tiene un proceso que no puede "matar"
en su servidor y, debido a este, no puede acceder al sistema. Para ello, lanza
contra sí mismo un ataque DoS deteniendo los servicios.
50
2.3.4.7.1 JAMMING O FLOODING
Este tipo de ataques desactivan o saturan los recursos del sistema. Por
ejemplo, un atacante puede consumir toda la memoria o espacio en disco
disponible, así como enviar tanto tráfico a la red que nadie más pueda
utilizarla.
Aquí el atacante satura el sistema con mensajes que requieren establecer
conexión. Sin embargo, en vez de proveer la dirección IP del emisor, el
mensaje contiene falsas direcciones IP usando Spoofing y Looping. El
sistema responde al mensaje, pero como no recibe respuesta, acumula
buffers con información de las conexiones abiertas, no dejando lugar a las
conexiones legítimas.
Muchos ISPs (proveedores de Internet) han sufrido bajas temporales del
servicio por ataques que explotan el protocolo TCP. Muchos Hosts de
Internet han sido dados de baja por el "ping de la muerte" (una versión-
trampa del comando ping).
Mientras que el ping normal simplemente verifica si un sistema esta
enlazado a la red, el ping de la muerte causa el bloqueo instantáneo del
equipo. Esta vulnerabilidad ha sido ampliamente utilizada en el pasado pero,
aún hoy pueden encontrarse sistemas vulnerables. Otra acción común es la
de enviar millares de e-mails sin sentido a todos los usuarios posibles en
forma continua, saturando los sistemas destinos.
51
2.3.4.7.2 SYN FLOOD
Como ya se explicó en el TCP SYN Scanning el protocolo TCP se basa en
una conexión en tres pasos. Pero, si el paso final no llega a establecerse, la
conexión permanece en un estado denominado "semiabierto".
El SYN Flood es el más famoso de los ataques del tipo Denial of Service,
publicado por primera vez en la revista underPhrack; y se basa en un
"saludo" incompleto entre los dos hosts.
El Cliente envía un paquete SYN pero no responde al paquete ACK
ocasionando que la pila TCP/IP espere cierta cantidad de tiempo a que el
Host hostil responda antes de cerrar la conexión. Si se crean muchas
peticiones incompletas de conexión (no se responde a ninguna), el Servidor
estará inactivo mucho tiempo esperando respuesta. Esto ocasiona la lentitud
en los demás servicios.
SYN Flood aprovecha la mala implementación del protocolo TCP,
funcionando de la siguiente manera:
Se envía al destino, una serie de paquetes TCP con el bit SYN activado,
(petición de conexión) desde una dirección IP Spoofeada. Esta última debe
ser inexistente para que el destino no pueda completar el saludo con el
cliente.
Aquí radica el fallo de TCP: ICMP reporta que el cliente es inexistente, pero
TCP ignora el mensaje y sigue intentando terminar el saludo con el cliente de
forma continua.
52
Cuando se realiza un Ping a una maquina, esta tiene que procesarlo. Y
aunque se trate de un proceso sencillo, (no es más que ver la dirección de
origen y enviarle un paquete Reply), siempre consume recursos del sistema.
Si no es un Ping, sino que son varios a la vez, la máquina se vuelve más
lenta...si lo que se recibe son miles de solicitudes, puede que el equipo deje
de responder (Flood).
Es obligatorio que la IP origen sea inexistente, ya que sino el objetivo,
logrará responderle al cliente con un SYN/ACK, y como esa IP no pidió
ninguna conexión, le va a responder al objetivo con un RST, y el ataque no
tendrá efecto. El problema es que muchos sistemas operativos tienen un
límite muy bajo en el número de conexiones "semiabiertas" que pueden
manejar en un momento determinado (5 a 30). Si se supera ese límite, el
servidor sencillamente dejará de responder a las nuevas peticiones de
conexión que le vayan llegando. Las conexiones "semiabiertas" van
caducando tras un tiempo, liberando "huecos" para nuevas conexiones, pero
mientras el atacante mantenga el SYN Flood, la probabilidad de que una
conexión recién liberada sea capturada por un nuevo SYN malicioso es muy
alta.
2.3.4.7.3 CONNECTION FLOOD
La mayoría de las empresas que brindan servicios de Internet (ISP) tienen
un límite máximo en el número de conexiones simultáneas. Una vez que se
alcanza ese límite, no se admitirán conexiones nuevas. Así, por ejemplo, un
53
servidor Web puede tener, por ejemplo, capacidad para atender a mil
usuarios simultáneos. Si un atacante establece mil conexiones y no realiza
ninguna petición sobre ellas, monopolizará la capacidad del servidor. Las
conexiones van caducando por inactividad poco a poco, pero el atacante sólo
necesita intentar nuevas conexiones, (como ocurre con el caso del SYN
Flood) para mantener fuera de servicio el servidor.
2.3.4.7.4 NET FLOOD
En estos casos, la red víctima no puede hacer nada. Aunque filtre el tráfico
en sus sistemas, sus líneas estarán saturadas con tráfico malicioso,
incapacitándolas para cursar tráfico útil.
Un ejemplo habitual es el de un teléfono: si alguien quiere molestar, sólo
tiene que llamar, de forma continua. Si se descuelga el teléfono (para que
deje de molestar), tampoco se puede recibir llamadas de otras personas.
Este problema es habitual, por ejemplo, cuando alguien intenta mandar un
fax empleando el número de voz: el fax insiste durante horas, sin que el
usuario llamado pueda hacer nada al respecto.
En el caso de Net Flooding ocurre algo similar. El atacante envía tantos
paquetes de solicitud de conexión que las conexiones auténticas
simplemente no pueden competir.
En casos así el primer paso a realizar es el ponerse en contacto con el
Proveedor del servicio para que intente determinar la fuente del ataque y,
como medida provisional, filtre el ataque en su extremo de la línea.
54
El siguiente paso consiste en localizar las fuentes del ataque e informar a
sus administradores, ya que seguramente se estarán usando sus recursos
sin su conocimiento y consentimiento. Si el atacante emplea IP Spoofing, el
rastreo puede ser casi imposible, ya que en muchos casos la fuente del
ataque es, a su vez, víctima y el origen último puede ser prácticamente
imposible de determinar (Looping).
2.3.4.8 LAND ATTACK
Según Borghello, C. (2001) este ataque consiste en un Bug (error) en la
implementación de la pila TCP/IP de las plataformas Windows©.
El ataque consiste en mandar a algún puerto abierto de un servidor
(generalmente al NetBIOS 113 o 139) un paquete, maliciosamente
construido, con la dirección y puerto origen igua l que la dirección y puerto
destino.
Por ejemplo se envían un mensaje desde la dirección 10.0.0.1:139 hacia ella
misma. El resultado obtenido es que luego de cierta cantidad de mensajes
enviados–recibidos la máquina termina colgándose.
Existen ciertas variantes a este método consistente, por ejemplo, en enviar
el mensaje a una dirección específica sin especificar el puerto.
2.3.4.9 SMURF O BROADCAST STORM
Borghello, C. (2001,pp101-143) en su tesis menciona que este ataque es
bastante simple y a su vez devastador. Consiste en recolectar una serie de
55
direcciones BroadCast para, a continuación, mandar una petición ICMP
(simulando un Ping) a cada una de ellas en serie, varias veces, falsificando la
dirección IP de origen (máquina víctima).
Este paquete maliciosamente manipulado, será repetido en difusión
(Broadcast), y cientos ó miles de hosts mandarán una respuesta a la víctima
cuya dirección IP figura en el paquete ICMP.
Suponiendo que se considere una red de tipo C la dirección de BroadCast
sería .255; por lo que el "simple" envío de un paquete se convierte en un
efecto multiplicador devastador.
Desgraciadamente la víctima no puede hacer nada para evitarlo. La
solución está en manos de los administradores de red, los cuales deben
configurar adecuadamente sus Routers para filtrar los paquetes ICMP de
peticiones indeseadas (Broadcast); o bien configurar sus máquinas para que
no respondan a dichos paquetes. Es decir, que lo que se parchea son las
máquinas/redes que puedan actuar de intermediarias (inocentes) en el
ataque y no la máquina víctima.
También se podría evitar el ataque si el Router/Firewall de salida del
atacante estuviera convenientemente configurado para evitar Spoofing. Esto
se haría filtrando todos los paquetes de salida que tuvieran una dirección de
origen que no perteneciera a la red interna.
56
2.3.4.10 OOB, SUPERNUKE O WINNUKE
Según Borghello, C. (2001) Un ataque característico, y quizás el más
común, de los equipos con Windows© es el Nuke, que hace que los equipos
que escuchan por el puerto NetBIOS sobre TCP/UDP 137 a 139, queden
fuera de servicio, o disminuyan su rendimiento al enviarle paquetes UDP
manipulados.
Generalmente se envían fragmentos de paquetes Out Of Band, que la
máquina víctima detecta como inválidos pasando a un estado inestable. OOB
es el término normal, pero realmente consiste en configurar el bit Urgente
(URG) en los indicadores del encabezamiento TCP, lo que significa que este
bit es válido.
Este ataque puede prevenirse instalando los parches adecuados
suministrado por el fabricante del sistema operativo afectado. Un filtro
efectivo debería garantizar la detección de una inundación de bits Urgentes.
2.3.4.11 TEARDROP I Y II–NEWTEAR–BONK-BOINK
Al igual que el Supernuke, los ataques Teardrop I y Teardrop II afectan a
fragmentos de paquetes. Algunas implementaciones de colas IP no vuelven
a armar correctamente los fragmentos que se superponen, haciendo que el
sistema se cuelgue. Windows NT© 4.0 de Microsoft® es especialmente
vulnerable a este ataque. Aunque existen Patchs (parches) que pueden
aplicarse para solucionar el problema, muchas organizaciones no lo hacen, y
57
las consecuencias pueden ser devastadoras. Los ataques tipo Teardrop son
especialmente peligrosos ya que existen multitud de implementaciones
(algunas de ellas forman paquetes), que explotan esta debilidad. Las más
conocidas son aquellas con el nombre Newtear, Bonk y Boink.
2.3.4.12 ATAQUES DE MODIFICACIÓN–DAÑO
En la tesis de Borghello, C. (2001) realizo un estudio de diferentes tipos de
amenazas lógicas en la cual menciona el tipo de ataques de modificación-
daño.
2.3.4.12.1 TAMPERING O DATA DIDDLING
Esta categoría se refiere a la modificación desautorizada de los datos o el
software instalado en el sistema víctima (incluyendo borrado de archivos).
Son particularmente serios cuando el que lo realiza ha obtenido derechos de
Administrador o Supervisor, con la capacidad de disparar cualquier comando
y por ende alterar o borrar cualquier información que puede incluso terminar
en la baja total del sistema.
Aún así, si no hubo intenciones de "bajar" el sistema por parte del
atacante; el Administrador posiblemente necesite darlo de baja por horas o
días hasta chequear y tratar de recuperar aquella información que ha sido
alterada o borrada.
58
Como siempre, esto puede ser realizado por Insiders u Outsiders,
generalmente con el propósito de fraude o de dejar fuera de servicio a un
competidor.
Son innumerables los casos de este tipo: empleados bancarios (o
externos) que crean falsas cuentas para derivar fondos de otras cuentas,
estudiantes que modifican calificaciones de exámenes, o contribuyentes que
pagan para que se les anule una deuda impositiva.
Múltiples Web Sites han sido víctimas del cambio en sus páginas por
imágenes (o manifiestos) terroristas o humorísticos, como el ataque de The
Mentor, ya visto, a la NASA.
Otras veces se reemplazan versiones de software por otros con el mismo
nombre pero que incorporan código malicioso (virus, troyanos, etc.). La
utilización de programas troyanos y difusión de virus esta dentro de esta
categoría.
2.3.4.12.2 BORRADO DE HUELLAS
El borrado de huellas es una de las tareas más importantes que debe
realizar el intruso después de ingresar en un sistema, ya que, si se detecta
su ingreso, el administrador buscará como conseguir "tapar el hueco" de
seguridad, evitar ataques futuros e incluso rastrear al atacante.
Las Huellas son todas las tareas que realizó el intruso en el sistema y por
lo general son almacenadas en Logs (archivo que guarda la información de
lo que se realiza en el sistema) por el sistema operativo.
59
Los archivos Logs son una de las principales herramientas (y el principal
enemigo del atacante) con las que cuenta un administrador para conocer los
detalles de las tareas realizadas en el sistema y la detección de intrusos.
2.3.4.12.3 ATAQUES MEDIANTE JAVA APPLETS
Java es un lenguaje de programación interpretado, desarrollado
inicialmente por la empresa SUN. Su mayor popularidad la merece por su
alto grado de seguridad.
Los más usados navegadores actuales, implementan Máquinas Virtuales
Java (MVJ) para ser capaces de ejecutar programas (Applets) de Java.
Estos Applets, al fin y al cabo, no son más que código ejecutable y como tal,
susceptible de ser manipulado por intrusos. Sin embargo, partiendo del
diseño, Java siempre ha pensado en la seguridad del sistema. Las
restricciones a las que somete a los Applets son de tal envergadura
(imposibilidad de trabajar con archivos a no ser que el usuario especifique lo
contrario, imposibilidad de acceso a zonas de memoria y disco directamente,
firma digital, etc.) que es muy difícil lanzar ataques.
2.3.4.12.4 ATAQUES MEDIANTE JAVASCRIPT Y VBSCRIPT
JavaScript (de la empresa Netscape®) y VBScript (de Microsoft®) son dos
lenguajes usados por los diseñadores de sitios Web para evitar el uso de
Java.
60
Los programas realizados son interpretados por el navegador.
Aunque los fallos son mucho más numerosos en versiones antiguas de
JavaScript, actualmente se utilizan para explotar vulnerabilidades específicas
de navegadores y servidores de correo ya que no se realiza ninguna
evaluación sobre si el código.
2.3.4.12.5 ATAQUES MEDIANTE ACTIVEX
ActiveXes una de las tecnologías más potentes que ha desarrollado
Microsoft®. Mediante ActiveX es posible reutilizar código, descargar código
totalmente funcional de un sitio remoto, etc. Esta tecnología es considerada
la respuesta de Microsoft® a Java.
ActiveX soluciona los problemas de seguridad mediante certificados y
firmas digitales. Una Autoridad Certificadora (AC) expende un certificado que
acompaña a los controles activos y a una firma digital del programador.
Cuando un usuario descarga una página con un control, se le preguntará
si confía en la AC que expendió el certificado y/o en el control ActiveX. Si el
usuario acepta el control, éste puede pasar a ejecutarse sin ningún tipo de
restricciones (sólo las propias que tenga el usuario en el sistema operativo).
Es decir, la responsabilidad de la seguridad del sistema se deja en manos
del usuario, ya sea este un experto cibernauta consciente de los riesgos que
puede acarrear la acción o un perfecto novato en la materia.
61
Esta última característica es el mayor punto débil de los controles ActiveX
ya que la mayoría de los usuarios aceptan el certificado sin siquiera leerlo,
pudiendo ser esta la fuente de un ataque con un control dañino.
La filosofía ActiveX es que las Autoridades de Certificación se fían de la
palabra del programador del control. Es decir, el programador se
compromete a firmar un documento que asegura que el control no es nocivo.
Evidentemente siempre hay programadores con pocos escrúpulos o con
ganas de experimentar.
Un control ActiveX muy especialmente "malévolo" es aquel que manipula
el código de ciertos exploradores, para que éste no solicite confirmación al
usuario a la hora de descargar otro control activo de la Web. Es decir, deja
totalmente descubierto, el sistema de la víctima, a ataques con tecnología
ActiveX.
2.3.4.12.6 VULNERABILIDADES EN LOS NAVEGADORES
Generalmente los navegadores no fallan por fallos intrínsecos, sino que
fallan las tecnologías que implementan, aunque en este punto analizaremos
realmente fallos intrínsecos de los navegadores, como pueden ser los "Buffer
Overflow".
Los "Buffer Overflows" consisten en explotar una debilidad relacionada
con los buffers que la aplicación usa para almacenar las entradas de usuario.
Por ejemplo, cuando el usuario escribe una dirección en formato URL ésta se
guarda en un buffer para luego procesarla. Si no se realizan las oportunas
62
operaciones de comprobación, un usuario podría manipular estas
direcciones.
Los protocolo usado puede ser HTTP, pero también otros menos
conocidos, internos de cada explorador, como el "res:" o el "mk:".
Precisamente existen fallos de seguridad del tipo "Buffer Overflow" en la
implementación de estos dos protocolos. Además la reciente aparición
(octubre de 2000) de vulnerabilidades del tipo Transversal en el servidor Web
Internet Information Server© de la empresa Microsoft®, explotando fallas en
la traducción de caracteres Unicode, puso de manifiesto cuán fácil puede
resultar explotar una cadena no validada.
2.3.4.13 ERRORES DE DISEÑO, IMPLEMENTACIÓN Y OPERACIÓN
Según Yuri, V. (2007), Muchos sistemas están expuestos a "agujeros" de
seguridad que son explotados para acceder a archivos, obtener privilegios o
realizar sabotaje. Estas vulnerabilidades ocurren por variadas razones, y
miles de “puertas invisibles” son descubiertas (cada día) en sistemas
operativos, aplicaciones de software, protocolos de red, browsers de Internet,
correo electrónico y todas clase de servicios informático disponible. [9]
2.3.4.14 IMPLEMENTACIÓN DE ESTAS TÉCNICAS
En la tesis de Borghello, C. (2001) cada una de las técnicas explicadas (y
más) pueden ser utilizadas por un intruso en un ataque. A continuación se
intentarán establecer el orden de utilización de las mismas, pero siempre
63
remarcando que un ataque insume mucha paciencia, imaginación
acumulación de conocimientos y experiencia dada (en la mayoría de los
casos) por prueba y error.
1. Identificación del problema (víctima): en esta etapa se recopila toda la
información posible de la víctima. Cuanta más información se acumule, más
exacto y preciso será el ataque, más fácil será eliminar las evidencias y más
difícil será su rastreo.
2. Exploración del sistema víctima elegido: en esta etapa se recopila
información sobre los sistemas activos de la víctima, cuales son los más
vulnerables y cuales se encuentran disponibles. Es importante remarcar que
si la victima parece apropiada en la etapa de Identificación, no significa que
esto resulte así en esta segunda etapa.
3. Enumeración: en esta etapa se identificaran las cuentas activas y los
recursos compartidos mal protegidos. La diferencia con las etapas anteriores
es que aquí se establece una conexión activa a los sistemas y la realización
de consultas dirigidas. Estas intrusiones pueden (y deberían) ser registradas,
por el administrador del sistema, o al menos detectadas para luego ser
bloqueadas.
4. Intrusión propiamente dicha: en esta etapa el intruso conoce
perfectamente el sistema y sus debilidades y comienza a realizar las tareas
que lo llevaron a trabajar, en muchas ocasiones, durante meses.
64
Contrariamente a lo que se piensa, los sistemas son difíciles de penetrar si
están bien administrados y configurados. Ocasionalmente los defectos
propios de la arquitectura de los sistemas proporciona un fácil acceso, pero
esto puede ser, en la mayoría de los casos, subsanado aplicando las
soluciones halladas.
2.3.4.15 ¿CÓMO DEFENDERSE DE ESTOS ATAQUES?
Según Borghello, C. (2001) La mayoría de los ataques mencionados se
basan en fallos de diseño inherentes a Internet (y sus protocolos) y a los
sistemas operativos utilizados, por lo que no son "solucionables" en un plazo
breve de tiempo.
La solución inmediata en cada caso es mantenerse informado sobre todos
los tipos de ataques existentes y las actualizaciones que permanentemente
lanzan las empresas desarrolladoras de software, principalmente de sistemas
operativos.
Las siguientes son medidas preventivas. Medidas que toda red y
administrador deben conocer y desplegar cuanto antes:
1. Mantener las máquinas actualizadas y seguras físicamente
2. Mantener personal especializado en cuestiones de seguridad (o
subcontratarlo).
65
3. Aunque una máquina no contenga información valiosa, hay que tener
en cuenta que puede resultar útil para un atacante, a la hora de ser
empleada en un DoS coordinado o para ocultar su verdadera dirección.
4. No permitir el tráfico "broadcast" desde fuera de nuestra red. De esta
forma evitamos ser empleados como "multiplicadores" durante un ataque
Smurf.
5. Filtrar el tráfico IP Spoof.
6. Auditorias de seguridad y sistemas de detección.
7. Mantenerse informado constantemente sobre cada unas de las
vulnerabilidades encontradas y parches lanzados. Para esto es
recomendable estar suscripto a listas que brinden este servicio de
información.
8. Por último, pero quizás lo más importante, la capacitación continúa del
usuario.
2.3.5 CREACIÓN Y DIFUSIÓN DE VIRUS
Según Borghello, C. (2001), quizás uno de los temas más famosos y sobre
los que más mitos e historias fantásticas se corren en el ámbito informático
sean los Virus.
Pero como siempre en esta obscura realidad existe una parte que es
cierta y otra que no lo es tanto. Para aclarar este enigma veamos porque se
eligió la palabra Virus (del latín Veneno) y que son realmente estos
"parásitos".
66
2.3.5.1 VIRUS INFORMÁTICOS VS VIRUS BIOLÓGICOS
Según Borghello, C. (2001), Un análisis comparativo de analogías y
diferencias entre las dos "especies", muestra que las similitudes entre ambos
son poco menos que asombrosas. Para notarlas ante todo debemos saber
con exactitud que es un Virus Informático y que es un Virus Biológico. [9]
VIRUS INFORMÁTICO (VI)
Pequeño programa, invisible para el usuario (no detectable por el sistema
operativo) y de actuar específico y subrepticio, cuyo código incluye
información suficiente y necesaria para que, utilizando los mecanismos de
ejecución que le ofrecen otros programas a través del microprocesador,
puedan reproducirse formando réplicas de sí mismos (completas, en forma
discreta, en un archivo, disco u computadora distinta a la que ocupa),
susceptibles de mutar; resultando de dicho proceso la modificación,
alteración y/o destrucción de los programas, información y/o hardware
afectados (en forma lógica.
VIRUS BIOLÓGICO (VB)
Fragmentos de ADN o ARN cubiertos de una capa proteica. Se
reproducen solo en el interior de células vivas, para lo cual toman el control
de sus enzimas y metabolismo. Sin esto son tan inertes como cualquier otra
macromolécula.
67
Algunas analogías entre ambos son:
1. Los VB están compuestos por ácidos nucleídos que contienen
información (programa dañino o VI) suficiente y necesaria para que utilizando
los ácidos de la célula huésped (programa infectado por los VI) puedan
reproducirse a sí mismos.
2. Los VB no poseen metabolismo propio, por lo tanto no manifiestan
actividad fuera del huésped. Esto también sucede en los VI, por ejemplo, si
se apaga la máquina o si el virus se encuentra en un disquete que está
dentro de un cajón.
3. El tamaño de un VB es relativamente pequeño en comparación con
las células que infectan. Con los VI sucede lo mismo. Tanto los VB como los
VI causan un daño sobre el huésped.
4. Ambos virus inician su actividad en forma oculta y sin conocimiento de
su huésped, y suelen hacerse evidentes luego de que el daño ya es
demasiado alto como para corregirse.
5. La finalidad de un VB (según la ciencia) es la reproducción y eventual
destrucción del huésped como consecuencia. La de los VI pueden ser
muchos los motivos de su creación (por parte de su autor), pero también
terminan destruyendo o modificando de alguna manera a su huésped.
6. Ambos virus contienen la información necesaria para su replicación y
eventual destrucción. La diferencia radica en la forma de contener esta
información: en los VB es un código genético y en los VI es código binario.
68
7. El soporte de la información también es compartida por ambos
"organismos". En los VB el soporte lo brinda el ADN o ARN (soporte
orgánico). En los VI el soporte es un medio magnético (inorgánico).
8. Ambos tipos de virus son propagados de diversa formas (y raramente
en todas ellas). En el caso de los VB su medio de propagación es el aire,
agua, contacto directo, etc. Los VI pueden propagarse introduciendo un
disquete infectado en una computadora sana (y ejecutando la zona infectada,
¡claro está!); o viceversa: de RAM infectada a un disquete sano; o
directamente aprovechando un flujo de electrones: modem, red, etc.
9. En ambos casos sucede que la reproducción es de tipo replicativo del
original y cuya exactitud dependerá de la existencia de mutaciones o no.
10. Ambas entidades cumplen con el patrón de epidemiología médica.
11. El origen de una entidad generalmente es desconocido, pero lo que se
sabe con exactitud es que los VI son producidos por seres humanos y que
los VB son entidades de origen biológico y últimamente de origen humano
(armas biológicas).
Son, sin dudas, muchas más las analogías que pueden encontrarse
haciendo un análisis más exhaustivo de ambas entidades, pero que
trascenderían los límites de este informe. La idea es solamente dejar bien en
claro que no existe ningún extraño, oscuro o sobrenatural motivo que dé
explicación a un VI. Simplemente es un programa más, que cualquiera de
69
nosotros sería capaz de concebir... con las herramientas e intenciones
apropiadas del caso.
2.3.5.2 ORIGEN
Según Borghello, C. (2001), los orígenes de los VI se pueden establecer al
observar investigaciones sobre Inteligencia y Vida Artificial. Estos conceptos
fueron desarrollados por John Von Neuman hacia 1950 estableciendo por
primera vez la idea de programas autor replicables.
Luego, en 1960 en los laboratorios de Bell se desarrollaron juegos
(programas) que "luchaban" entre sí con el objetivo de lograr el mayor
espacio de memoria posible. Estos programas llamados CoreWars hacían
uso de técnicas de ataque, defensa, ocultamiento y reproducción que luego
adoptaron los VI.
En 1970, John Shoch y Jon Hupp elaboraron, en el Palo Alto Research
Center (PARC) de Xerox, programas autor replicables que servían para
controlar la salud de las redes informáticas. Días después de su lanzamiento
el programa se propago en todas las máquinas y sus múltiples (miles) copias
de sí mismo colapsaron la red. Cabe aclarar que el fin de estos programas
era, en un principio, solo experimental y sin fines maléficos.
En los años 80 nacen los primeros VI propiamente dichos y en 1983 se
establece una definición para los mismos. En 1985 infectaban el MS-DOS ©
y en 1986 ya eran destructivos (Brain, Vienna, Viernes 13, etc.). Estos
70
utilizaban disquetes para su propagación y dependían totalmente de la
ignorancia del público que hacia copias indiscriminadas de los mismos.
En palabras del Dr. Fred Cohen:
"El 3 noviembre de 1983, el primer virus fue concebido como un
experimento para ser presentado en un seminario semanal de Seguridad
Informática. El concepto fue introducido por el autor y el nombre "virus" fue
dado por Len Adleman. Después de ocho horas de trabajo sobre un VAX
11/750 ejecutando Unix, el primer virus estuvo listo para la demostración. En
esa semana fueron obtenidos los permisos y cinco experimentos fueron
realizados. El 10 de noviembre el virus fue mostrado. La infección inicial fue
realizada en "vd" (un programa que mostraba la estructura de archivos de
Unix gráficamente) e introducido a los usuarios vía un BBS (...).".
De aquí quizás provenga la ¿leyenda? en donde se sugiere que los VI
surgieron como una medida de seguridad de compañías de desarrollo de
software para disuadir a los usuarios de la adquisición de software ilegal.
Esta versión no ha sido demostrada ni desmentida, pero el tiempo ha
demostrado que los verdaderos perjudicados son las mismas compañías
acusadas en su momento.
El 2 de noviembre de 1988 se produce el primer ataque masivo a una red
(ARPAnet, precursora de Internet). El método utilizado para su autor
replicación era el correo electrónico y en tres horas el gusano se hizo
conocer en todo EE.UU. La erradicación de este gusano costó un millón de
71
dólares y demostró qué podía hacer un programa autor replicable fuera de
control.
El autor, Robert Morris (hijo de uno de los programadores de CoreWars),
graduado de Harvard de 23 años reconoció su error y lo calificó de "fallo
catastrófico", ya que su idea no era hacer que los ordenadores se
ralentizaran.
En este mismo año, como consecuencia de lo acontecido y de la
concientización, por parte de la industria informática, de la necesidad de
defender los sistemas informáticos, aparecen los primeros programas
antivirus.
En 1991 aparecen los primeros Kits para la construcción de virus, lo que
facilitó su creación e hizo aumentar su número a mayor velocidad. El primero
fue el VCL (Virus CreationLaboratory), creado por NowhereMan.
En 1992 nace el virus Michelangelo (basado en el Stoned), y aunque es
un virus no especialmente destructivo, la prensa lo "vendió" como una grave
amenaza mundial. Algunos fabricantes de antivirus, aseguraron que cinco
millones de computadoras se verían afectadas por el virus. El número no
pasó de cinco mil. Pese a ello, la noticia provocó una alarma injustificada
entre los usuarios de ordenadores personales, aunque en cierto modo
también sirvió para concientizar a estos mismos usuarios de la necesidad de
estar alerta frente a los virus, que ya habían dejado definitivamente de ser
una curiosidad científica para pasar a convertirse en una plaga peligrosa.
72
A partir de aquí, los virus alcanzaron notoriedad y son perfeccionados día
a día mediante técnicas de programación poco comunes. Su proliferación se
debió, principalmente, al crecimiento de las redes y a los medios para
compartir información.
2.3.5.3 LOS NÚMEROS HABLAN
A mediados de los noventa se produjeron enormes cambios en el mundo
de la informática personal que llegan hasta nuestros días y que dispararon el
número de virus en circulación hasta límites insospechados. Si a finales de
1994 el número de virus, según la International Computer Security
Association (ICSA), rondaba los cuatro mil, en los siguientes cinco años esa
cifra se multiplicó por diez, y promete seguir aumentando.
Cientos de virus son descubiertos mes a mes (de 6 a 20 por día), y
técnicas más complejas se desarrollan a una velocidad muy importante a
medida que el avance tecnológico permite la creación de nuevas puertas de
entrada.
La NCSA es el principal organismo dedicado al seguimiento del fenómeno
de los virus en todo el mundo. Según sus informes, en Estados Unidos más
del 99% de las grandes y medianas empresas han sufrido la infección por
virus en alguno de sus computadoras. Sólo un 0,67% asegura no haberse
encontrado nunca con un virus.
73
Se calcula que, en término medio, se infectan 40,6% computadoras al año.
La proporción de infecciones anuales ha crecido ampliamente, ya que en
1996 este índice era sólo del 12%.
Existen virus adscritos a programa y también a documentos, los conocidos
como Macrovirus. Estos últimos, concretamente los que utilizan documentos
de MS-Word © para la infección comenzaron su propagación en 1995,
cuando Microsoft ® lanza su nueva versión de este popular procesador de
texto.
Aprovechando esta innovación tecnológica (las macros), han aparecido
más de 1.900 virus diferentes, registrados y catalogados, que utilizan este
medio para infectar los documentos. Tal ha sido su crecimiento y extensión,
que los principales responsables de la lucha antivirus llegaron a recomendar
que no se enviaran ni se aceptaran documentos de MS-Word © enviados por
Internet, lo que supone una fuerte limitación al uso del correo electrónico.
Entre los diez virus más importantes de 1997, cuatro eran macros de Word.
Según la NCSA, si sólo un 30% de todos las PCs del mundo utilizaran un
antivirus actualizado y activo de forma permanente, se cortaría la cadena de
contagio y se acabaría con el fenómeno de los virus en todo el mundo.
Sin embargo, no todos los usuarios, bien sean de carácter empresarial o
doméstico, son conscientes del riesgo que corren. Hace un tiempo bastaba
con chequear los nuevos programas o archivos que se introducían en la
computadora, teniendo especial cuidado con el software pirateado (principal
forma de contagio) y con los disquetes usados provenientes de otras
74
personas. De alguna manera, las vías de transmisión eran menores y
estaban más controladas. Pero con Internet, las posibilidades de infección se
han multiplicado con creces.
Desde el 17 al 31 de julio del año 2000 el Ministerio de Ciencia y
Tecnología de España, la empresa antivirus Panda Software y otras
organizaciones montaron la Primera Campaña Nacional Antivirus
Informáticos. El propósito de la campaña era ofrecer al usuario la posibilidad
de búsqueda de virus en su sistema (en forma on-line) y desinfección del
mismo.
Al finalizar la campaña, se obtuvieron 516.122 visitas al sitio y se
eliminaron 348.195 virus.
Las vías de infección informadas fueron el 56% vía e-mail, el 31% vía
disquete y el 5% vía CD-ROM.
A nivel mundial, en el ámbito de las medianas y grandes empresas,
históricamente, la mayor causa de pérdidas de información fue el sabotaje,
seguido por los virus informáticos y por último por otras causas como fallas e
impericias. Durante 1993 y 1994 las pérdidas por virus superaron las
ocasionadas por sabotaje, pero a partir de 1995 el sabotaje volvió a ocupar el
primer lugar debido a la utilización de virus específicos.
Según la NCSA en 1995 el volumen de pérdidas causadas en los Estados
Unidos por VI era similar al de las pérdidas por Hacking y alcanzaban los
U$S1.000 millones. En 1996 las pérdidas por VI aumentaron en mayor
75
proporción que las causadas por intrusos informáticos alcanzando los
U$S5.000 millones y U$S6.000 millones respectivamente.
2.3.5.4 DESCRIPCIÓN DE UN VIRUS
Si bien un VI es un ataque de tipo Tampering, difiere de este porque
puede ser ingresado al sistema por un dispositivo externo o a través de la red
(e-mails u otros protocolos) sin intervención directa del atacante. Dado que el
virus tiene como característica propia su auto reproducción, no necesita de
mucha ayuda para propagarse rápidamente.
Existen distintos tipos de virus, como aquellos que infectan archivos
ejecutables (.EXE, .COM, .DLL, etc), los sectores de Boot y la Tabla de
Partición de los discos. Actualmente los que causan mayores problemas son
los macro-virus y script-virus, que están ocultos en simples documentos,
planillas de cálculo, correo electrónico y aplicaciones que utiliza cualquier
usuario de PC. La difusión se potencia con la posibilidad de su transmisión
de un continente a otro a través de cualquier red o Internet. Y además son
multiplataforma, es decir, no dependen de un sistema operativo en particular,
ya que un documento puede ser procesado tanto en Windows ®
95/98/NT/2000 © , como en una Macintosh u otras.
76
2.3.5.4.1 TÉCNICAS DE PROPAGACIÓN
Según la tesis de Borghello, C. (2001), las técnicas utilizadas por los virus
para logra su propagación y subsistencia son muy variadas y existen
aquellos que utilizan varias de ellas para lograrlo.
1. Disquetes y otros medios removibles
A la posibilidad de que un disquete contenga un archivo infectado se une el
peligro de que integre un virus de sector de arranque (Boot). En este
segundo caso, y si el usuario lo deja en la disquetera, infectará el ordenador
cuando lo encienda, ya que el sistema intentará arrancar desde el disquete.
2. Correo electrónico
El usuario no necesita hacer nada para recibir mensajes que, en muchos
casos ni siquiera ha solicitado y que pueden llegar de cualquier lugar del
mundo. Los mensajes de correo electrónico pueden incluir archivos,
documentos o cualquier objeto ActiveX-Java infectado que, al ejecutarse,
contagian la computadora del usuario. En las últimas generaciones de virus
se envían e-mails sin mensajes pero con archivos adjuntos (virus) que al
abrirlos proceden a su ejecución y posterior infección del sistema atacado.
Estos virus poseen una gran velocidad de propagación ya que se envían
automáticamente a los contactos de la libreta de direcciones del sistema
infectado.
77
3. IRC o Chat
Las aplicaciones de mensajería instantánea (ICQ, AOL Instant Messenger,
etc.) o Internet Relay Chat (IRC), proporcionan un medio de comunicación
anónimo, rápido, eficiente, cómodo y barato. Sin embargo, también son
peligrosas, ya que los entornos de chat ofrecen, por regla general,
facilidades para la transmisión de archivos, que conllevan un gran riesgo
en un entorno de red.
4. Páginas web y transferencia de archivos vía FTP
Los archivos que se descargan de Internet pueden estar infectados, y
pueden provocar acciones dañinas en el sistema en el que se ejecutan.
5. Grupos de noticias
Sus mensajes e información (archivos) pueden estar infectados y, por lo
tanto, contagiar al equipo del usuario que participe en ellos.
2.3.5.4.2 TIPOS DE VIRUS
Según Borghello, C. (2001) Un virus puede causar daño lógico
(generalmente) o físico (bajo ciertas circunstancias y por repetición) de la
computadora infectada y nadie en su sano juicio deseará ejecutarlo. Para
evitar la intervención del usuario los creadores de virus debieron inventar
78
técnicas de las cuales valerse para que su "programa" pudiera ejecutarse.
Estas son diversas y algunas de lo más ingeniosas.
ARCHIVOS EJECUTABLES (VIRUS EXEVIR)
El virus se adosa a un archivo ejecutable y desvía el flujo de ejecución a
su código, para luego retornar al huésped y ejecutar las acciones esperadas
por el usuario. Al realizarse esta acción el usuario no se percata de lo
sucedido. Una vez que el virus es ejecutado se aloja en memoria y puede
infectar otros archivos ejecutables que sean abiertos en esa máquina.
En este momento su dispersión se realiza en sistema de 16 bits (DOS) y
de 32 bits (Windows) indistintamente, atacando programas .COM, .EXE,
.DLL, .SYS, .PIF, etc, según el sistema infectado.
VIRUS EN EL SECTOR DE ARRANQUE (VIRUS ACSO ANTERIOR A
LA CARGA DEL SO)
E n los primeros 512 bytes de un disquete formateado se encuentran las
rutinas necesarias para la carga y reconocimiento de dicho disquete. Entre
ellas se encuentra la función invocada si no se encuentra el Sistema
Operativo. Es decir que estos 512 bytes se ejecutan cada vez que se intenta
arrancar (bootear) desde un disquete (o si se dejó olvidado uno en la unidad
y el orden de booteo de la PC es A: y luego C:). Luego, esta área es el
objetivo de un virus de booteo.
79
Se guarda la zona de booteo original en otro sector del disco
(generalmente uno muy cercano o los más altos). Luego el virus carga la
antigua zona de booteo. Al arrancar el disquete se ejecuta el virus (que
obligatoriamente debe tener 512 bytes o menos) quedando residente en
memoria; luego ejecuta la zona de booteo original, salvada anteriormente.
Una vez más el usuario no se percata de lo sucedido ya que la zona de
booteo se ejecuta iniciando el sistema operativo (si existiera) o informando la
falta del mismo.
VIRUS RESIDENTE
Como ya se mencionó, un virus puede residir en memoria. El objetivo de
esta acción es controlar los accesos a disco realizados por el usuario y el
Sistema Operativo. Cada vez que se produce un acceso, el virus verifica si el
disco o archivo objetivo al que se accede, está infectado y si no lo está
procede a almacenar su propio código en el mismo. Este código se
almacenará en un archivo, tabla de partición, o en el sector de booteo,
dependiendo del tipo de virus que se trate.
MACROVIRUS
Estos virus infectan archivos de información generados por aplicaciones
de oficina que cuentan con lenguajes de programación de macros.
Últimamente son los más expandidos, ya que todos los usuarios necesitan
hacer intercambio de documentos para realizar su trabajo. Los primeros
80
antecedentes de ellos fueron con las macros de Lotus 123 © que ya eran lo
suficientemente poderosas como permitir este tipo de implementación. Pero
los primeros de difusión masiva fueron desarrollados a principios de los ´90
para el procesador de texto Microsoft Word © , ya que este cuenta con el
lenguaje de programación Word Basic © .
Su principal punto fuerte fue que terminaron con un paradigma de la
seguridad informática: "los únicos archivos que pueden infectarse son los
ejecutables" y todas las tecnologías antivirus sucumbieron ante este nuevo
ataque.
Su funcionamiento consiste en que si una aplicación abre un archivo
infectado, la aplicación (o parte de ella) se infecta y cada vez que se genera
un nuevo archivo o se modifique uno existente contendrá el macrovirus.
VIRUS DE MAIL
Su modo de actuar, al igual que los anteriores, se basa en la confianza
excesiva por parte del usuario: a este le llega vía mail un mensaje con un
archivo comprimido (.ZIP por ejemplo), el usuario lo descomprime y al
terminar esta acción, el contenido (virus ejecutable) del archivo se ejecuta y
comienza el daño.
Este tipo de virus tomó relevancia estos últimos años con la explosión
masiva de Internet y últimamente con el virus Melissa y I LoveYou.
Generalmente estos virus se auto envían a algunas de las direcciones de la
libreta. Cada vez que uno de estos usuarios recibe el supuesto mensaje no
81
sospecha y lo abre, ocurriendo el mismo reenvío y la posterior saturación de
los servidores al existir millones de mensajes enviados.
VIRUS DE APPLETS JAVA Y CONTROLES ACTIVEX
Si bien estas dos tecnologías han sido desarrolladas teniendo como meta
principal la seguridad, la práctica demuestra que es posible programar virus
sobre ellas. Este tipo de virus se copian y se ejecutan a sí mismos mientras
el usuario mantiene una conexión a Internet.
REPRODUCTORES-GUSANOS
Son programas que se reproducen constantemente hasta agotar
totalmente los recursos del sistema huésped y/o recopilar información
relevante para enviarla a un equipo al cual su creador tiene acceso.
CABALLOS DE TROYA
De la misma forma que el antiguo caballo de Troya de la mitología griega
escondía en su interior algo que los troyanos desconocía, y que tenía una
función muy diferente a la que ellos podían imaginar; un Caballo de Troya es
un programa que aparentemente realiza una función útil pero además realiza
una operación que el usuario desconoce y que generalmente beneficia al
autor del troyano o daña el sistema huésped.
82
Si bien este tipo de programas NO cumplen con la condición de auto-
reproducción de los virus, encuadran perfectamente en las características de
programa dañino.
Consisten en introducir dentro de un programa una rutina o conjunto de
instrucciones, no autorizadas y que la persona que lo ejecuta no conoce,
para que dicho programa actúe de una forma diferente a como estaba
previsto.
Los ejemplos más conocidos de troyanos son el Back Oriffice y el Net Bus
que, si bien no fueron desarrollados con ese fin, son una poderosa arma para
tomar el control de la computadora infectada. Estos programas pueden ser
utilizados para la administración total del sistema atacado por parte de un
tercero, con los mismos permisos y restricciones que el usuario de la misma.
BOMBAS LÓGICAS
Este suele ser el procedimiento de sabotaje más comúnmente utilizado
por empleados descontentos. Consiste en introducir un programa o rutina
que en una fecha determinada o dado algún evento particular en el sistema,
bien destruye y modifica la información o provoca la baja del sistema.
2.3.5.4.3 MODELO DE VIRUS INFORMÁTICO
Según Borghello, C. (2001), Un virus está compuesto por su propio
entorno, dentro del cual pueden distinguirse tres módulos principales:
83
1. Módulo de Reproducción
Es el encargado de manejar las rutinas de parasitación de entidades
ejecutables con el fin de que el virus pueda ejecutarse subrepticiamente,
permitiendo su transferencia a otras computadoras.
2. Módulo de Ataque
Es el que maneja las rutinas de daño adicional al virus. Esta rutina puede
existir o no y generalmente se activa cuando el sistema cumple alguna
condición. Por ejemplo el virus Chernovil se activa cada vez que el reloj del
sistema alcanza el 26 de cada mes.
3. Módulo de Defensa
Este módulo, también optativo, tiene la misión de proteger al virus. Sus
rutinas tienden a evitar acciones que faciliten o provoquen la detección o
remoción del virus.
2.3.5.5 TIPOS DE DAÑOS OCASIONADOS POR LOS VIRUS
Los virus informáticos no afectan (en su gran mayoría) directamente el
hardware sino a través de los programas que lo controlan; en ocasiones no
contienen código nocivo, o bien, únicamente causan daño al reproducirse y
utilizar recursos escasos como el espacio en el disco rígido, tiempo de
procesamiento, memoria, etc. En general los daños que pueden causar los
84
virus se refieren a hacer que el sistema se detenga, borrado de archivos,
comportamiento erróneo de la pantalla, despliegue de mensajes, desorden
en los datos del disco, aumento del tamaño de los archivos ejecutables o
reducción de la memoria total.
Para realizar la siguiente clasificación se ha tenido en cuenta que el daño
es una acción de la computadora, no deseada por el usuario:
- Daño Implícito: es el conjunto de todas las acciones dañinas para el
sistema que el virus realiza para asegurar su accionar y propagación.
Aquí se debe considerar el entorno en el que se desenvuelve el virus ya
que el consumo de ciclos de reloj en un medio delicado (como un aparato
biomédico) puede causar un gran daño.
- Daño Explícito: es el que produce la rutina de daño del virus.
- Con respecto al modo y cantidad de daño, encontramos:
- Daños triviales: daños que no ocasionan ninguna pérdida grave de
funcionalidad del sistema y que originan una pequeña molestia al usuario.
Deshacerse del virus implica, generalmente, muy poco tiempo.
- Daños menores: daños que ocasionan una pérdida de la funcionalidad de
las aplicaciones que poseemos. En el peor de los casos se tendrá que
reinsta lar las aplicaciones afectadas.
- Daños moderados: los daños que el virus provoca son formatear el disco
rígido o sobrescribir parte del mismo. Para solucionar esto se deberá
85
utilizar la última copia de seguridad que se ha hecho y reinstalar el
sistema operativo.
- Daños mayores: algunos virus pueden, dada su alta velocidad de
infección y su alta capacidad de pasar desapercibidos, lograr que el día
que se detecta su presencia tener las copias de seguridad también
infectadas. Puede que se llegue a encontrar una copia de seguridad no
infectada, pero será tan antigua que se haya perdido una gran cantidad
de archivos que fueron creados con posterioridad.
- Daños severos: los daños severos son hechos cuando un virus realiza
cambios mínimos, graduales y progresivos. No se sabe cuando los datos
son correctos o han cambiado, pues no hay unos indicios claros de
cuando se ha infectado el sistema.
- Daños ilimitados: el virus "abre puertas" del sistema a personas no
autorizadas. El daño no lo ocasiona el virus, sino esa tercera persona
que, gracias a él, puede entrar en el sistema.
2.3.5.6 LOS AUTORES
Tras su alias (nic), los creadores de virus sostienen que persiguen un fin
educacional para ilustrar las flaquezas de los sistemas a los que atacan.
Pero... ¿es necesario crear un problema para mostrar otro?
La creación de virus no es ilegal, y probablemente no debería serlo:
cualquiera es dueño de crear un virus siempre y cuando lo guarde para sí.
Infectar a otras computadoras sin el consentimiento de sus usuarios es
86
inaceptable, esto sí es un delito y debería ser penado, como ya lo es un
algunos países.
Inglaterra pudo condenar a 18 meses de prisión al autor de SMEG. Sin
embargo, el autor del virus Loverletter no fue sentenciado porque la
legislación vigente en Filipinas (su país de origen) no era adecuada en el
momento del arresto.
Existen otros casos en que el creador es recompensado con una oferta de
trabajo millonaria por parte de multinacionales. Este, y no las condenas, es el
mensaje que reciben miles de jóvenes para empezar o continuar
desarrollando virus y esto se transforma en una "actividad de moda", lejos de
la informática ética sobre la cual deberían ser educados.
2.3.5.7 PROGRAMA ANTIVIRUS
Según la tesis de Borghello, C. (2001), un antivirus es una gran base de
datos con la huella digital de todos los virus conocidos para identificarlos y
también con las pautas que más contienen los virus. Los fabricantes de
antivirus avanzan tecnológicamente casi en la misma medida que lo hacen
los creadores de virus. Esto sirve para combatirlos, aunque no para prevenir
la creación e infección de otros nuevos.
Actualmente existen técnicas, conocidas como heurísticas, que brindan
una forma de "adelantarse" a los nuevos virus. Con esta técnica el antivirus
es capaz de analizar archivos y documentos y detectar actividades
87
sospechosas. Esta posibilidad puede ser explotada gracias a que de los 6-20
nuevos virus diarios, sólo aparecen unos cinco totalmente novedosos al año.
Debe tenerse en cuenta que:
- Un programa antivirus forma parte del sistema y por lo tanto
funcionará correctamente si es adecuado y está bien configurado.
- No será eficaz el 100% de los casos, no existe la protección total y
definitiva.
Las funciones presentes en un antivirus son:
1. Detección: se debe poder afirmar la presencia y/o accionar de un VI
en una computadora. Adicionalmente puede brindar módulos de
identificación, erradicación del virus o eliminación de la entidad infectada.
2. Identificación de un virus: existen diversas técnicas para realizar esta
acción:
Scanning : técnica que consiste en revisar el código de los archivos
(fundamentalmente archivos ejecutables y de documentos) en busca de
pequeñas porciones de código que puedan pertenecer a un virus (sus
huellas digitales). Estas porciones están almacenadas en una base de datos
del antivirus. Su principal ventaja reside en la rápida y exacta que resulta la
identificación del virus. En los primeros tiempos (cuando los virus no eran
tantos ni su dispersión era tan rápida), esta técnica fue eficaz, luego se
comenzaron a notar sus deficiencias. El primer punto desfavorable es que
brinda una solución a posteriori y es necesario que el virus alcance un grado
de dispersión considerable para que llegue a mano de los investigadores y
88
estos lo incorporen a su base de datos (este proceso puede demorar desde
uno a tres meses). Este modelo reactivo jamás constituirá una solución
definitiva.
Heurística: búsqueda de acciones potencialmente dañinas perteneciente
a un virus informático. Esta técnica no identifica de manera certera el virus,
sino que rastrea rutinas de alteración de información y zonas generalmente
no controlada por el usuario (MBR, Boot Sector, FAT, y otras). Su principal
ventaja reside en que es capaz de detectar virus que no han sido agregados
a las base de datos de los antivirus (técnica proactiva). Su desventaja radica
en que puede "sospechar" de demasiadas cosas y el usuario debe ser
medianamente capaz de identificar falsas alarmas.
3. Chequeadores de Integridad: Consiste en monitorear las actividades
de la PC señalando si algún proceso intenta modificar sectores críticos de la
misma. Su ventaja reside en la prevención aunque muchas veces pueden ser
vulnerados por los virus y ser desactivados por ellos, haciendo que el usuario
se crea protegido, no siendo así.
Es importante diferencia los términos detectar: determinación de la
presencia de un virus e identificar: determinación de qué virus fue el
detectado. Lo importante es la detección del virus y luego, si es posible, su
identificación y erradicación.
89
2.3.5.7.1 MODELO DE UN ANTIVIRUS
Un antivirus puede estar constituido por dos módulos principales y cada
uno de ellos contener otros módulos.
- Módulo de Control: Este módulo posee la técnica de Verificación de
Integridad que posibilita el registro de posibles cambios en las zonas y
archivos considerados de riesgo.
- Módulo de Respuesta: La función de "Alarma" se encuentra en todos
los antivirus y consiste en detener la ejecución de todos los programas
e informar al usuario de la posible existencia de un virus. La mayoría
ofrecen la posibilidad de su erradicación si la identificación ha sido
positiva.
2.3.5.7.2 UTILIZACIÓN DE LOS ANTIVIRUS
Como ya se ha descripto un VI es un programa y, como tal se ejecuta,
ocupa un espacio en memoria y realiza las tareas para las que ha sido
programado. En el caso de instalarse un antivirus en una computadora
infectada, es probable que este también sea infectado y su funcionamiento
deje de ser confiable. Por lo tanto si se sospecha de la infección de una
computadora, nunca deben realizarse operaciones de instalación o
desinfección desde la misma. El procedimiento adecuado sería reiniciar el
sistema y proceder a la limpieza desde un sistema limpio y seguro.
90
La mayoría de los antivirus ofrecen la opción de reparación de los archivos
dañados. Puede considerarse este procedimiento o la de recuperar el/los
archivos perdidos desde una copia de seguridad segura.
2.3.5.8 ASPECTOS JURÍDICOS SOBRE VIRUS INFORMÁTICOS
Según Borghello, C. (2001), el análisis de la responsabilidad derivada de
la difusión de un virus merece especial atención en estos momentos en que
el uso de la redes telemáticas permite un mayor alcance de sus efectos.
Prueba de ello tenemos en la reciente difusión por correo electrónico del
antes mencionado virus "I Loveyou".
Para analizar los diferentes supuestos que generan responsabilidad,
debemos tener en cuenta los canales de difusión que contribuyen a potenciar
el efecto pirámide en el que los virus basan su efectividad. En todos ellos es
aplicable el régimen de la responsabilidad extracontractual establecida en el
Código Civil (ver Anexo Leyes) que obliga a reparar los daños a quien, por
acción u omisión, causa un perjuicio a otro, interviniendo la culpa o
negligencia.
La mera creación de un virus puede obedecer a una intención distinta a la
puesta en circulación. Cabe recordar aquí la diferencia que hacen los
Hackers entre el creador de un virus y el diseminador del mismo.
En cuanto a la puesta en circulación es difícil obtener una identificación
plena del responsable de la misma. Aunque en el caso de redes telemáticas
es posible encontrar rastros de la primera aparición del virus, es posible
91
alterar esa información. En cualquier caso, la responsabilidad de la persona
que inicia la cadena de efectos nocivos de un virus, planificando la difusión
intencionada del mismo a través de un medio está clara, pues el daño es
perfectamente previsible (aunque no su magnitud) y seguro.
En cuanto a la introducción intencionada en un sistema específico, por su
tipificación como delito de daños, los actos de sabotaje informático pueden
generar responsabilidad civil y penal. Pueden tener su origen en personas
del interior de la empresa que por un motivo como, por ejemplo, la ruptura de
la relación laboral, deciden causar un daño, o en personas del exterior de la
empresa, que acceden al sistema informático por medios telemáticos, por
ejemplo. En ambos casos se cumplen los requisitos para reclamar una
indemnización.
La difusión de un virus entre usuarios de sistemas informáticos puede ser
debida a una conducta negligente o la difusión de virus no catalogados. La
diligencia debida en el tratamiento de la información obliga a realizar copias
de seguridad y a instalar sistemas de detección de virus. En el caso de
archivos que se envían a otros usuarios, la ausencia de control previo puede
ser calificada como negligente, puesto que el riesgo de destrucción de datos
se está traspasando a terceros y ello podía haberse evitado de una manera
sencilla y económica. Pero también puede alegarse que el usuario receptor
del archivo afectado podría haber evitado el daño pasando el
correspondiente antivirus, a lo que cabe replicar que este trámite se obvió
por tratarse de un remitente que ofrecía confianza.
92
Por último, en algunos países en donde se han tratado Leyes de
Propiedad Intelectual, se establece la exclusión de los VI de las creaciones
protegidas por el derecho de autor. El objetivo de este precepto es facilitar
las actividades de análisis necesarias para la creación de un antivirus,
aunque esto resulta innecesario por la sencilla razón de que el creador de un
virus no acostumbra a reclamar la titularidad del mismo de forma pública. [9]
2.3.5.9 CONSEJOS
Aunque existe una relativa concientización, generalmente no se toman
todas las precauciones necesarias para anular el peligro. No basta con tener
un antivirus, sino que éste hay que actualizarlo periódicamente para
contemplar los nuevos virus que van apareciendo.
Además de poseer la cualidad de chequeo manual, detección y
eliminación, debe ser sobre todo capaz de actuar como vacuna o filtro,
impidiendo la entrada de los nuevos virus que aparecen cada día. De esta
forma, aunque al usuario se le olvide pasar el antivirus, sabe que al menos
existe una protección automática. La mayoría de los antivirus que se
comercializan poseen estas características.
En la Campaña Nacional Antivirus Informáticos se proponen 10 consejos
para evitar el contagio de virus.
A continuación se resumen todas ellas:
1. Instalar un buen antivirus para la detección y eliminación de nuevos
virus. Además es necesario actualizarlo frecuentemente. Como ya se ha
93
explicado la efectividad de un programa antivirus reside, en gran medida, en
su capacidad de actualización (preferentemente diaria).
2. Comprobar que el antivirus elegido incluye soporte técnico, resolución
urgente de nuevos virus y servicios de alerta, bien a través de correo
electrónico, por teléfono o fax.
3. Asegurarse que el antivirus esté siempre activo vigilando
constantemente todas las operaciones realizadas en el sistema.
4. Verificar, antes de abrir, cada nuevo mensaje de correo electrónico
recibido. Este medio es el medio de transmisión preferido por los
diseminadores de virus. Cualquier correo puede contener virus, aunque no
esté acompañado de archivos adjuntos. Además no es necesario ejecutar el
archivo adjunto de un mensaje de correo para ser infectado, en algunos
sistemas basta únicamente con abrir el mensaje. Para prevenir esto, lo mejor
es verificar los mensajes inesperados o que provengan de una fuente poco
habitual.
5. Evitar la descarga de programas de lugares no seguros o pocos
fiables de Internet. Muchas páginas web permiten la descarga de programas
y archivos cabiendo la posibilidad que estos archivos estén infectados. Son
sitios seguros aquellos que muestran una información clara acerca de su
actividad y los productos o servicios que ofrecen.
6. Rechazar archivos que no se hayan solicitado cuando se esté en
chats o grupos de noticias. Hay que tener especial cuidado y aceptar sólo lo
que llegue de un remitente conocido y de confianza.
94
7. Analizar siempre con un buen antivirus los disquetes que entran y
salen de la computadora. Si se utilizan disquetes propios en otros lugares es
aconsejable protegerlos contra escritura.
8. Retirar los disquetes de las disqueteras al apagar o reiniciar el
ordenador. Esta tarea es para evitar que se activen los virus de arranque.
9. Analizar el contenido de los archivos comprimidos. El antivirus deberá
de contar con una funcionalidad que permita detectar el mayor número de
formatos comprimidos posibles. Además, antes de abrir uno de estos
archivos, es aconsejable guardarlos en carpetas temporales.
10. Mantenerse alerta ante acciones sospechosas de posibles virus. Hay
varios síntomas que pueden delatar la presencia de nuevos virus: aumento
del tamaño de los archivos, aviso de macros en documentos, ralentización en
ciertos procesos, etc. Como mejor solución a estas sospechas de posibles
infecciones, se debe recurrir al servicio de resolución urgente de nuevos virus
de la compañía antivirus.
2.4 ASPECTOS GENERALES DE LA AUTENTICACIÓN Y LA BIOMETRÍA
Según la tesis de Zaccaro (2010) es importante mencionar:
2.4.1 QUÉ ES LA AUTENTICACIÓ
Autenticación o autentificación es el acto de establecimiento o confirmación
de algo (o alguien) como auténtico. La autenticación de un objeto puede
significar (pensar) la confirmación de su procedencia, mientras que la
95
autenticación de una persona a menudo consiste en verificar su identidad. La
autenticación depende de uno o varios factores.
2.4.2 CARACTERÍSTICAS DE AUTENTICACIÓN
Cualquier sistema de identificación ha de poseer unas determinadas
características para ser viable:
- Ha de ser fiable con una probabilidad muy elevada (podemos hablar de
tasas de fallo de en los sistemas menos seguros).
- Económicamente factible para la organización (si su precio es superior al
valor de lo que se intenta proteger, tenemos un sistema incorrecto).
- Soportar con éxito cierto tipo de ataques.
- Ser aceptable para los usuarios que serán, al fin y al cabo, quienes lo
utilicen.
2.4.3 CONOCIMIENTOS BÁSICOS DE AUTENTICACIÓN BIOMÉTRICA
La autenticación biométrica es un método de autentificación en la que los
usuarios son reconocidos mediantes características fisiológicas o de
conducta.
Los ejemplos incluyen reconocimiento de la huella digital, geometría de la
mano, reconocimiento del teclado, etc.
96
2.4.4 INTRODUCCIÓN A LA BIOMETRÍA
La biometría es una ciencia que se ha desarrollado con el tiempo, gracias a
la necesidad constante del hombre de identificar a las personas, de una
manera eficiente, evitando que más de una persona posea el mismo código
de identificación. La palabra biometría proviene de las palabras bio (vida) y
metría (medida), por lo tanto la biometría es la ciencia que se encarga de
identificar a los seres vivos en base a parámetros físicos o de
comportamiento, los cuales son únicos e intransferibles.
La biometría provee otra alternativa de identificación de personas, ya que
esta tecnología se basa en el reconocimiento de un rasgo corporal único, por
lo que reconoce a las personas en función de quiénes son y no de lo que
traen consigo como tarjetas, llaves, credenciales o, en su defecto, en lo que
puedan recordar como lo son las claves personales de identificación. La
autentificación biométrica se refiere a las tecnologías para medir y analizar
las características físicas y del comportamiento humano con propósito de
autentificación. Un sistema biométrico común comprende cinco
componentes:
- Un sensor utilizado para recopilar datos y convertir la información en
formato digital.
- Algoritmos de procesamiento de señal que realizan actividades de control
de calidad y desarrollan las plantillas biométricas.
97
- Un componente para almacenamiento de datos que contiene la
información con la cual se comparan las nuevas plantillas biométricas.
- Un algoritmo de coincidencia que compara las nuevas plantillas
biométricas con una o más de las plantillas almacenadas.
- Y por último, un proceso de decisión (ya sea automático o manual) que
utiliza los resultados componente de coincidencia para tomar una
decisión basada en el sistema
2.4.5 HISTORIA DE LA BIOMETRÍA
China fue el primer país en el cual se empleaba la biometría desde, al
menos, el siglo XIV. Un escritor de nombre João de Barros, escribió que los
comerciantes chinos estampaban las impresiones y las huellas de la palma
de las manos de los niños en papel con tinta. El objetivo de esta práctica era
diferenciar entre los niños y los jóvenes. En el mundo occidental en cambio,
la biometría comenzó a utilizarse a partir de finales del siglo XVIII, ya que en
los manifiestos de los barcos se registraban datos como la edad, peso, color
de ojos, marcas distintivas, complexión, etc., para describir a cada pasajero.
Durante el siglo XIX previo al uso de la biometría, se empleaba la memoria
fotográfica para identificar a las personas hasta que en 1883 Alphonse
Bertillon, jefe de policía de Paris, desarrolló el sistema antropométrico (el cual
luego sería conocido como Bertillonage).
98
Este fue el primer sistema preciso, ampliamente utilizado científicamente
para identificar a criminales y convirtió a la biometría en un campo de
estudio. Este método funcionaba midiendo de manera precisa ciertas
longitudes del cuerpo y la cabeza, además de registrar marcas de cada
persona como cicatrices, tatuajes, etc.
2.4.6 REQUISITOS DE UN SISTEMA BIOMÉTRICO
Para que un identificador pueda ser utilizado de una forma eficiente por un
sistema biométrico, éste debe cumplir con los siguientes requisitos:
- Universalidad: Que cualquier persona posea esta característica
biométrica
- Unicidad: La existencia de dos personas con una característica
exactamente idéntica tiene una probabilidad muy pequeña
- Cuantificación: La característica biométrica puede ser medida en forma
cuantitativa.
- Permanencia: Que la característica debe permanecer sin alteraciones y
no cambie con el transcurso del tiempo.
2.4.7 PROTECCIÓN DE DATOS BIOMÉTRICOS
Esta sección entra en detalle en el plazo de la investigación relacionada
con la protección de datos biométricos. Una revisión de la literatura del riesgo
de utilización de datos biométricos en la autenticación de usuarios y la forma
99
de proteger esta información de un atacante se presenta hostil. Diversos
enfoques que se utilizan para proteger los datos biométricos se presentan. A
continuación se describe la investigación y los enfoques de protección de
datos biométricos.
Como los datos biométricos no es secreto, varios trabajos de investigación
proponer formas de protegerlo de un atacante malintencionado. Una de las
técnicas propuestas consiste en ocultar los datos biométricos. Un protocolo
que emplea esta técnica es propuesto por Jain y Uludag. En este protocolo,
antes de los datos biométricos se transmite, el protocolo produce datos
biométricos sintácticos y lo utiliza para llevar a cabo el real al esconder los
datos reales biométricos en los datos biométricos sintácticos. Si el protocolo
es atacado, el atacante cree que los datos obtenidos de los datos
biométricos es real cuando en realidad no lo es. Este trabajo presenta una
técnica para ocultar los datos faciales en los datos de huellas digitales como
un ejemplo.
En lugar de generar falsos los datos biométricos, Ratha, N., Connell, J. y
Bolle, R (2008) sugieren usar el reto y la técnica de respuesta para prevenir
la nueva presentación de los datos capturados Biométricos. Proponen un
sistema biométrico basado en la autenticación segura. El documento se
describe ocho posibles tipos de ataques contra el sistema:
- Los datos biométricos falsos. Un impostor produce falsos datos
biométricos, como un dedo de goma, como se describió anteriormente.
100
- Reutilización de captura de datos biométricos. Un atacante no pasa por el
lector biométrico mediante la presentación de los datos biométricos
capturados directamente en el sistema.
- Reemplace extraer función. Una vez que los datos biométricos es leído
por el lector, el proceso de extracción de características se ejecuta con el
fin de transformar los datos en información útil para el sistema. Si un
intruso puede alterar el extractor, la imagen biométrica se puede cambiar
a cualquier un atacante deseos.
- Reemplace conjunto de características de la imagen. Después de la
imagen de entrada se extrae, el conjunto de características de la imagen
podría ser sustituido si la función de extractor se instala en un lugar y
función de la imagen tiene que ser transferido a otro con el proceso de
emparejamiento. Un ataque podría ocurrir durante la transmisión. Esto
podría resultar en una denegación de servicio, evitando que el usuario
legítimo el uso de el sistema mediante la sustitución de una imagen de
características diferentes.
- Reemplace Matcher. Este ataque consiste en la manipulación del
comparador biométrico para producir el resultado deseado.
- Alterar el código biométrico almacenado. Una plantilla almacenada del
código biométrico es vulnerable si se almacena en un servidor que tiene
insuficiencia de las medidas de seguridad en el lugar.
- Atacar el canal de comunicación. Esto podría poner en peligro el sistema
en un número de maneras: mediante la captura de transmisión de datos
101
biométricos, captura de datos biométricos resultado coincidente, o la
captura de un resultado de decisiones. Decisión overide. Si se accede al
resultado de decisiones que permite o deniega el acceso al sistema, un
intruso podría alterar el resultado de permitirse el acceso.
Esta investigación propone un método que evita que el segundo tipo de
ataque se llevara a cabo: la nueva presentación de captura de datos
biométricos en el sistema sin pasar por el lector biométrico. El lector
biométrico genera un desafío y el número de respuestas al azar para ser
incluido en los datos biométricos que el usuario presenta. Como resultado,
cuando el sistema o el comparador recoge los datos, la frescura y la
presentación en vivo de los datos puede ser verificada. La frescura puede ser
validada por la comprobación de que el número no se ha utilizado
antes. Este número también garantiza la presentación en vivo de los datos ya
que el número es generado por el lector biométrico. Con este número, no hay
otra manera para que un intruso pueda pasar por alto el lector biométrico.
Otra investigación que Ratha, N., Connell, J.y Bolle, R. (2000) propone un
método para ocultar los datos en los datos biométricos. Este documento crea
un sistema de huella digital on-line de autenticación para las transacciones
comerciales. Una cadena de verificación diferente es creada por el proveedor
de servicios para cada operación con el fin de impedir ataques de repetición.
La cadena de verificación se mezcla con los datos biométricos antes de la
transmisión. La cadena de verificación se combina con los datos biométricos
de una manera diferente cada vez para que no fuera posible para un
102
atacante para aprender a extraer los datos biométricos. La ubicación de esta
cadena es diferente en función de la estructura de la imagen. La imagen de
entrada de los datos biométricos se descomprime, entonces el algoritmo de
ocultación de datos se lleva a cabo. Éstos son los cuatro pasos del algoritmo
de ocultación de datos:
- La selección del sitio S del sitio: Esta etapa recoge los índices de todos
los sitios posibles donde un cambio en lo importante que es tolerable y
elige candidatos.
- Siembra de números aleatorios: Este paso selecciona los sitios del
conjunto S. Las semillas al azar se calculan y se recogió. Escoger al azar
las semillas garantiza que el mensaje está incrustado en diferentes
lugares.
- El ajuste de bits: El mensaje se traduce en bits.
- Ahorro de Bit: Este paso es opcional. Los bits originales de bajo orden
(bits que no fueron seleccionados para el sitio) se guardan y se añade a
la secuencia de bits como campo de comentarios del usuario.
Al recibir los datos biométricos, que el destinatario lo descomprime y
valida la cadena de verificación. La cadena de verificación se combina con
los datos biométricos de una manera diferente cada vez, así que no sería
posible para un atacante para aprender a extraer los datos biométricos. Khan
y Khan, M., Zhang, J. (2006) presente "Implementación de la seguridad de
plantillas en sistemas remotos de autenticación biométrica. Se propone una
103
técnica para la protección de los datos biométricos que utiliza una clave
secreta para cifrar los datos biométricos. El sistema genera una clave secreta
cada vez que el usuario realiza la autenticación biométrica.
Esta clave secreta compartida entre el servidor y el usuario, y se utiliza
para cifrarlos datos biométricos del usuario. Usando esta técnica, los datos
biométricos interceptados no pueden ser reutilizados por un atacante. Este
propone una biométrica de una sola vez.
El sistema propuesto se compone de dos procesos: el generador de clave
secreta encriptador y modulador.
- Generador de clave secreta: Este proceso genera las claves
secretas. El primero es generado aleatoriamente. Las otras teclas
(parámetro, la modulación, y las teclas de las semillas) se generan
sobre la base de esta clave de sesión.
- Encryptor y modulador: Este proceso codifica y modula la plantilla
biométrica con el fin de proteger los datos biométricos. Después de la
clave de sesión se genera, se transmite a través de un canal
SSL. Esta clave se utiliza para generar las claves de los parámetros,
la modulación y la semilla en el lado receptor de un algoritmo de
acuerdo. Estas teclas se utilizan para la demodulación y
decodificación de los datos recibidos biométricos. Los datos
descifrados se comparan con el código almacenado en la base de
datos biométricos.
104
2.4.8 PROTOCOLOS DE SEGURIDAD
2.4.8.1 VERIFICACIÓN DE LOS PROTOCOLOS DE SEGURIDAD
Un protocolo puede ser verificado en diversas formas, de manera
manual como también utilizar técnicas de verificación formal, como la
verificación de modelos, comprobar la equivalencia y la demostración de
teoremas. La investigación en la verificación del protocolo es un área fértil,
porque los protocolos de seguridad son propensos a errores y no
es fácil identificar los errores mediante la verificación manual. Por lo tanto, las
herramientas automáticas de verificación son útiles. Estas
herramientas, tales como la Avispa, ProVerif y Scyther son ejemplos
de conocidas herramientas de verificación automática de protocolos de
seguridad.
Cuadro 2
Herramientas de Verificación y Protocolos de Seguridad
Fuente: Salaiwarakul, A. (2010)
[1]
[2]
[3]
[4]
[5]
105
[1] Paulson, L, C. (1998), [2] Hussein, M., y Seret, D. (2006), [3] Lowe, G.
(1998), [4] Kremer, S., Ryan, M. (2005), [5] Abadi, M., Blanchet, B., y
Fournet, C. (2007)
En el Cuadro 3 se dan ejemplos de algunos protocolos de seguridad que se
han verificado utilizando herramientas automáticas de verificación.
En Cremers, C. y Lafourcade, P.(2009), Seis herramientas de
verificación se comparan: Avispa, que se compone de
cuatro herramientas, CL-Atse, OFMC, sábado Mc , y TA4SP ; ProVerif y
Scyther. Las propiedades de seguridad de cada herramienta se
modelan. En cada herramienta, el secreto de la clave nonce y la sesión se
analizan y los resultados de cada herramienta son comparados.
Como se mencionó anteriormente, los protocolos de seguridad son vitales
para la autenticación biométrica y su corrección debe ser probada. Ya que es
difícil para validar de forma manual, la exactitud se puede
comprobar mediante técnicas de verificación formal, como la verificación de
modelos, verificación de equivalencia, o teoremas.
Hay varios artículos sobre este tema. En Kremer, S., Ryan, M. (2005), un
análisis de un protocolo de voto electrónico aplicado con cálculo pi se
presenta. Esta investigación considera tres propiedades del protocolo de
votación: la equidad, la elegibilidad y la privacidad. Los primeros
autores formalizar el modelo de protocolo de aplicación cálculo pi a
continuación, se comprueba las dos primeras propiedades utilizando la
106
herramienta ProVerif , mientras que la tercera propiedad se verifica mediante
una técnica de prueba manual.
Esta investigación verifica el protocolo de votación FOO92 por modelos
aplicados en el cálculo pi. Este protocolo se compone de un votante, un
administrador, y un colector. El votante registra su intención. El
administrador verifica que la votación se produce a partir de que el
votante legítimo.
El colector recoge los votos. En la sección de análisis de este trabajo, la
propiedad de la equidad se analiza con el fin de verificar que los no votados
están filtrados antes de la fase de votación de apertura. La
propiedad equidad se modela como una propiedad secreto.
Otro posible ataque a la propiedad de la equidad es un ataque
de adivinar. La propiedad de justicia tiende a mantener el secreto de voto. Un
atacante podría intentar adivinar votos mediante la encriptación de los
votos a las adivinanzas con la clave pública del administrador y comparando
el resultado con el voto que se captura por parte del
usuario legítimo. El resultado de la verificación es positivo.
La propiedad de elegibilidad declara que sólo los votantes legítimos
pueden votar y sólo una vez. Este modelo no puede verificar que el elector
puede votar sólo una vez porque todos los votos comparten la misma clave.
Demostrador de teoremas automatizado es una de las herramientas
eficaces para analizar los objetivos de seguridad proporcionada por un
protocolo. Jurjens (2005) presenta el análisis de código
107
mediante probadores automáticos de teoremas. La investigación muestra
que el enfoque para analizar los objetivos de seguridad mediante el
examen de nivel de código fuente. El autor utiliza el teorema
de probadores automáticos (ATP). Esta investigación se aplica el enfoque
propuesto para analizar un sistema de autenticación biométrica,
si se ofrece la garantía de seguridad prevista.
Esta investigación utiliza el adversario estilo Dolev-Yao en el análisis
de los objetivos de seguridad. Este estilo de adversario es capaz de
leer mensajes a través de la red y se acumulan en su conjunto
de conocimientos. El atacante también puede calcular el ataque de su
conjunto de conocimientos. El protocolo incluye de usuario, tarjeta
inteligente, el sistema host y un sensor biométrico. Este documento asume
que el atacante pueda de alguna manera obtener la posesión de la tarjeta
inteligente y se puede acceder al canal de comunicación entre la tarjeta
inteligente y el sistema host. Si el análisis revela que podría haber un ataque
contra el protocolo, un script degeneración de ataque por escrito en
Prolog se genera a partir del código C.
El autor describe cómo transformar el gráfico de control de flujo generadas
por el programa de C a lógica de primer orden, que se da como entrada al
demostrador de teoremas automatizados. Esta investigación no tiene como
objetivo proporcionar un sistema automatizado de verificación formal
completo de código en C, pero no da una mejor comprensión de las
108
propiedades de seguridad de la implementación del protocolo para facilitar el
uso en un entorno industrial.
2.4.8.2 ANÁLISIS DE LA SEGURIDAD DE UN SISTEMA DE
AUTENTICACIÓN BIOMÉTRICA
La sección anterior describe los distintos protocolos de seguridad, varias
herramientas, técnicas y enfoques que se pueden utilizar para la verificación
del protocolo. Esta sección muestra los lugares en los enfoques para el
análisis de seguridad de un sistema de autenticación biométrica.
Lloyd, J. y Jurjens, J. (2009) desarrollar un enfoque para el análisis
UMLsec seguridad de un sistema de autenticación biométrica. La
investigación se adapta a un sistema remoto de autenticación biométrica
propuesta por Viti, C. y Bistarelli, S (marzo, 2003). Investigan el sistema
utilizando el Lenguaje de Modelado de Java (JML) y analizar las
especificaciones de seguridad en UMLsec. Esta investigación también
compara las ventajas y desventajas de ambos enfoques.
El sistema de autenticación biométrica se describe simplemente como el
PC está conectado a un escáner combinados / lector de tarjetas
inteligentes. El PC es un anfitrión para la autenticación del usuario a través
de la autenticación biométrica. La tarjeta inteligente contiene una plantilla
biométrica, que será comparado con los datos biométricos del usuario
escaneada es. Si el resultado de la verificación biométrica es igual, el
resultado y un nonce (cadena de bits/bytes que se utiliza sólo una vez, así
109
que es muy seguro) se cifran con la clave privada del usuario que se
almacena en la tarjeta inteligente. Los datos cifrados se envían al servidor
con el fin de que el servidor descifrar y comprobar la validación de los datos.
Esto completa el proceso de autenticación.
La investigación los modelos de los requisitos del sistema en UML y
especifica los requisitos de seguridad en UMLsec. Se implementan los
componentes de software del sistema en JML para verificar el código de los
sistemas con la especificación de UMLsec. Otra perspectiva de la verificación
y análisis de requisitos de seguridad para la autenticación biométrica es el
uso de UML. El artículo de Jurjens, J (2005) propuesto por Jurjens presenta
un marco extensible de verificación para verificar el modelo UML de los
requisitos de seguridad. Este artículo presenta un enfoque para traducir el
comportamiento diagramas UMLsec a las fórmulas en lógica de primer orden.
Fórmulas traducidas se introducen en un demostrador de teoremas
automatizado el apoyo a la notación de entrada TPTP. Si el ataque se
encuentra, un generador atacante produce una situación de ataque.
El diseñador del protocolo se puede corregir el protocolo. Con el fin de
aplicar el marco, el desarrollador crea el modelo de UMLformato. El corrector
dinámico traduce el modelo UML en el idioma de entrada teorema
automatizado prover. Los resultados se envían al analizador de error.
El analizador de error se describe a los desarrolladores el problema se
encuentra en el informe de texto. El documento describe la traducción de los
diagramas de UMLsec a la lógica de primer orden (FIL) fórmulas que a su
110
vez permite el análisis automatizado de los diagramas usando automatizado
de primer orden demostradores de teoremas lógicos. Un diagrama de
implementación especifica de las capas del sistema y el nivel de seguridad
de entrada. El modelo de adversario se genera en lógica de primer orden en
el análisis de seguridad.
2.4.10 LIMITACIONES DE LOS SISTEMAS BIOMÉTRICOS
Los sistemas biométricos se basan en fórmulas matemáticas para
identificar al usuario, por lo que requieren un tiempo de proceso importante, y
una base de datos de patrones que requiere gran cantidad de memoria. Esto
limita el número de usuarios que pueden identificar, sin ayudarse de ningún
método auxiliar, como un PIN o una tarjeta de proximidad. Los sistemas que
utilizan PIN o una tarjeta de proximidad se conocen como 1:N (uno a n),
mientras que la identificación directa se llama 1:1 (uno a uno).
Otro aspecto a tener en cuenta es la ve locidad de la identificación, no solo
por el tiempo que el sistema invierte en realizar la identificación, que no suele
ser mayor de 2 segundos, sino por el tiempo que requiere el usuario para
colocar el dedo/mano de forma correcta.
2.4.11 RENDIMIENTO DEL SISTEMA BIOMÉTRICO
Según Zaccaro (2010), En el siguiente grafico se muestra una posible
distribución de puntuaciones de usuarios y de impostores en un sistema de
reconocimiento biométrico. Como se puede observar, existe
111
Grafica 1
Gráfica típica de la Tasa de Falso Rechazo (FRR) y la de Falsa Aceptación (FAR) para un Sistema Biométrico.
Fuente: Zaccaro (2010)
Una región en la cual se solapan ambas distribuciones. Si se fija un
umbral u, odas las puntuaciones, tanto de usuarios como de impostores,
cuyo valor sea superior a u serán interpretadas por el sistema como de
usuarios registrados.
Por lo tanto, el área bajo la curva de impostores que queda por encima
del umbral es la probabilidad de que un impostor sea aceptado. Esta
probabilidad es la tasa de falsa aceptación (FAR o False Acceptance Rate).
La probabilidad de que un usuario registrado no sea aceptado es el área bajo
la curva de usuarios válidos que queda por debajo del umbral, lo que se
denomina la tasa de falso rechazo (FRR False Rejection Rate).
Según se sitúe el umbral, la FAR y la FRR varían. El punto en el que la
FAR y la FRR son iguales se denomina Equal Error Rate (EER) y a menudo
es empleado (aunque no describe completamente el funcionamiento de un
112
sistema) para comparar el rendimiento de diferentes sistemas sobre un
conjunto determinado de huellas de prueba. Las tasas FAR y FRR son
también conocidas como tasas FMR (False Match Rate) y FNMR (False Non-
Match Rate) respectivamente. La FRR es una función estrictamente creciente
y la FAR una estrictamente decreciente en u. La FAR y la FRR al ser
modeladas como función del umbral de aceptación tienen por dominio al
intervalo real [0,1], que es además su recorrido, puesto que representan
frecuencias relativas. El grafico 1 muestra una gráfica típica de la FRR y la
FAR como funciones de u.
En esta figura puede apreciarse un umbral de aceptación particular,
denotado por u*, donde la FRR y la FAR toman el mismo valor. Este valor
recibe el nombre de tasa de error de intersección (cross-over error rate) y
puede ser utilizado como medida única para caracterizar el grado de
seguridad de un sistema biométrico. En la práctica, sin embargo, es usual
expresar los requerimientos de desempeño del sistema, tanto para
verificación como para identificación, mediante la FAR. Usualmente se elige
un umbral de aceptación por debajo de u* con el objeto de reducir la FAR, en
desmedro del aumento de la FRR. Si para el ingreso a un lugar se exige un
valor alto para el grado de parentesco (un valor cercano a 1), entonces pocos
impostores serán aceptados como personal autorizado y muchas personas
autorizadas serán rechazadas. Por otro lado, si el grado de parentesco
requerido para permitir el acceso al recinto es pequeño, una fracción
pequeña del personal autorizado será rechazada, mientras que un número
113
mayor de impostores será aceptado. El ejemplo anterior muestra que la FAR
y la FRR están íntimamente relacionadas, de hecho son duales una de la
otra: una FRR pequeña usualmente entrega una FAR alta, y viceversa.
2.5 TIPOS DE BIOMETRÍA
A continuación se harán mención de las principales tecinas biométricas
utilizadas en seguridad
2.5.1 BIOMETRÍA ESTÁTICA
Según Iglesias (2007), se conoce como biometría estática a aquellas
características fisiológicas que son únicas en cada ser humano y que son
estables en el tiempo (bajo circunstancias naturales). Ejemplos de estos
rasgos son el rostro, la mano, las huellas digitales, el iris.
2.5.1.1 CARA
Según Neotec, (2007) Los biométricos de reconocimiento de cara analizan
las características faciales. Una cámara digital captura una imagen de la
cara, a partir de la cual se crea una plantilla. El uso de esta tecnología es
muy extendido en Europa. Es utilizada en principalmente en aplicaciones de
identificación.
Para Según Iglesias (2007), Los problemas que presentan estos sistemas
están relacionados a factores de condición del ambiente en el momento de la
114
adquisición de la muestra, como pueden ser la iluminación, el fondo, el
Angulo en que se toma la imagen.
2.5.1.2 HUELLA DIGITAL
Según la iniciativa Neotec Después del ADN, las huellas digitales
constituyen la característica humana más singular. La probabilidad de que
dos personas tengan la misma huella digital es 1/67 billones. Las huellas
digitales están formadas por patrones de valles y crestas en las yemas de los
dedos, los cuales se forman durante los primeros siete meses de vida del
feto. Según Yau Wei Yun (2002) Existen dos técnicas para la identificación
de huellas dactilares, en la primera se localizan las terminaciones de crestas,
bifurcaciones, puntos y cruces (todos estos elementos se denominan
minucias, y partiendo de su geometría, orientación y relación, se compara
contra las mismas de la plantilla. La segunda técnica compara las zonas que
rodean a las minucias para encontrar diferencias de deformaciones.
Según Neotec la medición automatizada de la huella digital requiere un
gran poder de procesamiento y alta capacidad de almacenamiento lo cual es
una desventaja. Otro punto desfavorable es que en ocasiones puede llegar a
ser inapropiado para ciertas personas que pueden sufrir cambios en sus
huellas por factores genéticos, ambientales, de envejecimiento o propios de
sus actividades profesionales.
115
2.5.1.3 GEOMETRÍA DE LA MANO
Para usar la geómetra de la mano como rasgo biométrico se coloca la
mano sobre una superficie y se toman dos imágenes, una de la vista lateral y
otra de la superior. A partir de estas imágenes se medirán la forma y tamaño
de la palma y el largo y ancho de los dedos.
Tiene como desventaja que los lectores suelen ser de gran tamaño, lo que
complica la incorporación en dispositivos móviles.
2.5.1.4 IRIS
Yau Wei Yun (2002) dice que el iris es la parte del ojo que tiene el color, y
está formado por un tejido con una textura compleja con un patrón único. El
iris se forma durante el desarrollo fetal y se estabiliza en los primeros dos
años de vida. La imagen del ojo es adquirida por una pequeña cámara
infrarroja, para después identificar el iris y segmentarlo en bordes y convertir
sus características en datos numéricos (llamado IrisCode).
Li Ma and Tieniu Tan, and Yunhong Wang (2004) consideran que los
sistemas que usan el iris son los más confiables de todos los sistemas
biométricos que se han propuesto, pero a pesar de ser un sistema muy
rápido y confiable, no existen muchas implementaciones hoy en día debido a
su alto costo.
116
2.5.1.5 RETINA
Según Neotec los lectores biométricos de retina analizan los capilares que
están situados en el fondo del globo ocular. El usuario debe acercar el ojo al
lector y fijar su mirada en un punto. Una luz de baja intensidad examina los
patrones de los capilares en la retina. Este procedimiento es intimidante para
algunos y hace de los lectores de retina los biométricos más impopulares, el
usuario siente que su integridad física puede peligrar porque percibe un
objeto extraño en su cuerpo, en ese caso la luz (esta característica no
deseada de los lectores biométricos es conocida en inglés como intrusiva).
Para que el lector pueda realizar su trabajo, el usuario no debe tener lentes
puestos.
2.5.2 BIOMETRÍA DINÁMICA
Los psicólogos han demostrado que los seres humanos somos
predecibles en nuestro desempeño de tareas repetitivas y rutinarias.
Aprovechando estas predicciones es que se ha desarrollado la biometría
dinámica o de comportamiento, que analiza rasgos de la persona tales como
la voz, la forma de escribir, la manera de teclear e incluso el ritmo al caminar.
Ruud Bolle, Jonathan Connell and Sharanth Chandra Pankanti (2003)
mencionan que estos rasgos presentan las desventajas generales de que no
son estables en el tiempo y que pueden verse afectados por factores
ambientales y de estado emociona l.
117
2.5.2.1 VOZ
Según J.P. Campbell en los sistemas de autenticación por voz, el usuario
emplea un micrófono para grabar sus voz, ya sea repitiendo un texto dado
por el sistema o hablando libremente. Después la voz es digitalizada para
poder extraer de ella algunas características únicas y generar el perfil. La
extracción de las características puede lograrse a través de plantillas
estocásticas o de plantillas modelo. En las plantillas estocásticas se usan
técnicas de igualación probabilísticas como el Modelo Escondido de Markov,
el cual produce una medida de similitud del modelo.
En las plantillas modelo se emplean técnicas de igualación
determinanticas, que suponen que la muestra es similar al perfil, pero con
alguna distorsión. A partir de aquí se mide la distancia de error mínimo,
empleando algoritmos como envolvimiento de tiempo dinámico, cubanización
de vectores y vecinos más cercanos.
2.5.2.2 MANERA DE CAMINAR
Según Anil K. Jain and Arun Ross and S. Prabhakar (2004), la biometría
basada en la manera de caminar es un método espacial temporal complejo,
que se logra a través de filmaciones que analizan varios movimientos de
cada articulación, es por esto que requieren un alto costo computacional. La
manera de caminar puede parecer un rasgo no muy distintivo, pero es lo
118
suficientemente discriminatorio como para permitir autenticaciones en
ambientes de baja seguridad.
2.5.2.3 FIRMA AUTÓGRAFA
R. Joyce and G. Gupta dicen que la técnica de verificación de firma analiza
la manera que el usuario realiza su firma personal. Factores diversos, como
la rapidez y presión, son cuantificados, así como la forma de la firma. La
verificación tiene uno de los niveles más bajos de exactitud entre los lectores
biométricos. Sin embargo, su familiaridad con los actuales procesos de
verificación manual la hace una de las técnicas más fáciles de introducir al
usuario.
2.6 BIOMETRÍA BASADO EN CIFRADO
2.6.1 INTRODUCCIÓN
Según el United States Copyright Office (1998) el uso de técnicas digitales
en la creación, edición y distribución de datos multimedia (por ejemplo,
imágenes, vídeo y audio) ofrece diversas oportunidades para un usuario
pirata, tales como la alta fidelidad y la duplicación rápida: las copias se
generan exactamente iguales que los datos originales y el copiado es muy
rápido. Por el contrario, las técnicas analógicas (por ejemplo, impresión y
escaneo de una imagen) consumen relativamente mucho tiempo y conducen
a la degradación de la calidad (por ejemplo, debido al ruido de la impresora).
119
Como resultado de otra de las ventajas de las técnicas digitales, el uso
generalizado de Internet proporciona canales adicionales a los piratas para
distribuir de forma rápida y fácilmente el contenido con derechos de autor
digitales a un gran número de usuarios sin el temor de ser rastreado. Por lo
tanto, los propietarios de los datos multimedia y sus distribuidores legales
están aumentando las preocupaciones sobre la pérdida de una cantidad
considerable de ingresos y sus efectos adversos sobre la creación de nuevo
material y su distribución oportuna. Como resultado, la protección de los
contenidos multimedia está recibiendo una cantidad sustancial de la atención
de la academia, la industria multimedia, y las agencias reguladoras del
gobierno.
2.6.2 TÉCNICAS PARA LA PROTECCIÓN DE DATOS MULTIMEDIA
Dos de los métodos más comúnmente utilizados para la protección de los
derechos de propiedad intelectual de los datos multimedia son marcas de
agua digitales y la criptografía:
2.6.2.1 MARCAS DE AGUA DIGITALES
Consiste en incrustar alguna información acerca de los datos (por ejemplo,
la propiedad, la identidad del usuario legítimo, los derechos de acceso) en
los datos multimedia en sí misma, por lo general por el propietario del
copyright o el distribuidor de datos. En la actualidad, no existe una técnica de
marca de agua que es resistente a todos los posibles ataques que se pueden
120
montar en su contra por los piratas (por ejemplo, el filtrado, el cultivo, el
cambio de formato que se traduce en la supresión de, la duplicación o
ambigüedad en cuanto a marcas de agua incorporado).
Como resultado de ello, esta solución no puede eliminar los problemas
citados de la piratería por completo.
2.6.2.2 LA CRIPTOGRAFÍA
En los sistemas criptográficos tradicionales, una o más teclas se utilizan
para convertir el texto plano (es decir, datos a cifrar: los archivos de audio) a
un texto cifrado (es decir, datos cifrados: cifrado de archivos de audio). La
clave de encriptación (s) mapas el texto sin formato en esencia una
secuencia de pseudo bits aleatorios (algoritmos criptográficos modernos
están diseñados con este criterio), que sólo se pueden asignar a los de texto
con la tecla adecuada descifrar (s). Sin el conocimiento de las claves de
descifrado correcto, la conversión de texto cifrado en el texto llano es factible
teniendo en cuenta el tiempo y las limitaciones de coste ( B. Schneier (1996),
W. Stallings (2003)). Por lo tanto, el texto cifrado está garantizado: incluso si
un atacante obtiene el texto cifrado, no se puede extraer información útil (es
decir, texto plano) de la misma. Aquí, el texto puede ser cualquier dato el
cual tiene que ser almacenados o transmitidos de forma segura: las
121
transacciones financieras, comunicaciones por correo electrónico, registros
de salud, las imágenes de huellas digitales, claves secretas de cifrado, etc.
La Fig. 12 muestra un diagrama de bloques en el cual se utiliza un sistema
de cifrado en claves simétrica y asimétrica, en el reino de las dos entidades
que quieran comunicarse de forma segura (denotado como Alice y Bob). En
el sistema simétrico, la clave de descifrado es la misma que la clave de
cifrado (es decir, Alice y Bob comparten la KAB clave). Mientras que en
el sistema asimétrico, la clave de descifrado no es lo mismo que la clave de
encriptación, y sólo se sabe que el destinatario del mensaje: Alice puede
acceder a la clave pública de Bob (clave de encriptación) K+B, pero solo
Bob conoce su clave privada (descifrar clave) K-B. Los algoritmos
criptográficos actuales (por ejemplo, los sistemas de clave simétrica
Advanced Encryption Standard (AES), Data Encryption Standard (DES) (W.
Stallings (2003)), o el sistema de claves asimétricas RSA (W. Stallings
(2003)) han elevado la seguridad teórica y probado. Es decir, no existen
procedimientos de conocimiento público posible para invertir el texto cifrado
asociado de nuevo al texto, dados los recursos de cómputo (la velocidad del
procesador, la cantidad de procesadores y la capacidad de almacenamiento)
a disposición de los atacantes de hoy. Como resultado, el cifrado de datos
multimedia (por el propietario del copyright o el distribuidor de datos) puede
ser utilizado para eliminar los problemas de la copia no autorizada y
distribución: los datos serán inútiles sin el conocimiento de la codificación
122
correcta. Sin embargo, esta solución también tiene problemas, como se
explica a continuación.
Figura 1
(a) Sistema de clave simétrica (b) Sistema de clave asimétrica
.
Fuente: Umut Uludag (2006, pag. 99)
Supongamos que Alicia tiene un archivo multimedia cifrado, y se supone
que un sitio web pirata o un usuario pirata, Bob, está distribuyendo este
archivo. A fin de que Alice pueda utilizar el archivo, también debe tener la
clave correcta (s) para descifrar los datos. Alice puede obtener la clave (s) a
través de medios legales, por ejemplo, los recibe después de registrarse a sí
misma en el sitio web legítimos relacionados con el contenido y el suministro
123
de su información de pago (por ejemplo, número de tarjeta de crédito). De
esta manera el proveedor de contenidos tiene la información sobre el usuario
(Alice), que está a punto de ver / jugar / escuchar (en adelante, esta
utilización de los datos multimedia se refiere colectivamente como jugar) el
contenido protegido, y tiene los medios para cargar Alice por este privilegio.
Sin embargo, Alice también puede obtener la clave a través de medios
piratas (por ejemplo, Bob envía a Alicia la llave correcta, además de los
archivos cifrados), que elimina la seguridad que ofrece el cifrado de forma
instantánea. Este intercambio ilegal de claves (es decir, problemas de
gestión de claves) es una gran desventaja de cualquier esquema de
protección de contenido basado en la criptografía tradicional.
How to Improve Traditional Cryptographic Algorithms?
Una fuente adicional de información que puede ser introducido en el
proceso de cifrado se relaciona con los atributos del sistema físico (hardware
o software) utilizados por los consumidores de los datos multimedia. Por
ejemplo, el número serial del disco duro, el número de sistema operativo,
dirección IP del equipo, etc se pueden utilizar como teclas (o generadores de
claves) en el proceso de cifrado. En este escenario, el decodificador de
control de estas entidades en un ordenador central y, si no son los utilizados
durante el cifrado, los datos no pueden ser decodificados correctamente (por
lo tanto, si Alice no está usando un equipo que tiene exactamente las
mismas credenciales que las de Bob, ella no será capaz de reproducir los
124
datos). En este caso, se asume que los identificadores de hardware no
puede ser manipulado, por ejemplo, no sólo no puede Bob enviar fácilmente
a su disco duro a Alicia, pero también Alice no puede interferir con su propio
número de serie del disco duro de imitar a las credenciales de Bob hardware.
Sin embargo, un usuario legítimo lo desea, puede reproducir el archivo
multimedia en múltiples sistemas, tales como una computadora portátil,
computadora de escritorio o PDA. El uso de identificadores de hardware en
los procesos de cifrado / descifrado elimina tal posibilidad.
Otra posible solución al intercambio ilegal de las claves es el uso de
características biométricas de los usuarios. Suponiendo que el sistema
biométrico es seguro, la introducción de los datos biométricos del usuario en
los procesos de cifrado / descifrado (como claves o generadores de claves)
puede aumentar la seguridad de la era digital contenido y la disminución de
la viabilidad de su utilización ilegal. Esto sería equivalente a la sustitución de
las teclas Con los datos biométricos (por ejemplo, las características de
huellas dactilares). Por ejemplo, en el escenario mencionado anteriormente,
donde Bob envía a Alicia un archivo pirata, ahora Alice tendría que presentar
los dedos de Bob (en caso de huella digital se utiliza como identificador
biométrico) para decodificar correctamente los datos piratas. La viabilidad
(con respecto al tiempo, costo, y los conocimientos necesarios) de Alice
replicar las características de la huella de Bob en su sitio es
considerablemente menor que la obtención de claves de encriptación
tradicionales de Bob. Por lo tanto, esta solución tiene el potencial para aliviar
125
la piratería de derechos de autor de datos multimedia, si es otro problema
pueden ser resueltos.
Variabilidad biométrica y Criptografía
No es un gran reto a superar en el uso de señales biométricas como
claves en los procesos de cifrado / descifrado: señales biométricas no son
invariantes en el tiempo. Es decir, incluso los usuarios legítimos del sistema
no puede ser capaz de descifrar los archivos que fueron cifrados con una
adquisición previa de sus características biométricas. Por ejemplo, en el caso
de las huellas dactilares, impresiones múltiples de un cambio de los dedos
debido a la colocación incorrecta del dedo sobre el sensor, el ruido del
sensor, los dedos secos o sucios, cortes y contusiones en ellos.
Variabilidad biométrica y Criptografía
Dentro de la clase puede haber variaciones en las señales biométricas y
puede conducir a la no invariancia de las características. Por ejemplo, la
figura 2 muestra las características extraídas de las minucias superpuesta en
las imágenes de huellas dactilares. Como resultado, los datos biométricos no
se pueden utilizar directamente para definir una clave en un sistema de firma
digital. Tenga en cuenta que, a pesar de estos cambios en los datos
biométricos son "pequeños", el sistema de cifrado se vuelve inútil si los
resultados de la variabilidad dentro de la clase, incluso en un cambio de 1-bit
de la clave generada. Los sistemas tradicionales de cifrado sólo funcionarán
126
si la clave de cifrado se utiliza durante Nota idéntica a la clave utilizada en el
descifrado. Que, a pesar de estos cambios dentro de la clase, el comparador
biométrico normalmente generará un índice de similitud entre dos
impresiones de las huellas digitales de Bob, en comparación con el caso
cuando el par de entrada consta de una huella digital de Bob y una de Alice.
Figura 2:
intra-clase de la variabilidad de la señal biométrica: dos imágenes
diferentes del mismo dedo, con pequeños detalles superpuestos.
Fuente: Umut Uludag (2006, pag. 88)
2.6.3 REQUERIMIENTOS COMPUTACIONALES
Cuando el cifrado y descifrado se utilizan en cualquier sistema, las
necesidades de computación convertido en un problema importante, ya que
estas operaciones adicionales (que aumenta la seguridad) puede hacer que
el sistema en general sea poco práctico. Las necesidades de computación de
un sistema de claves asimétricas son varios órdenes de magnitud mayor que
127
la de un sistema de clave simétrica. Por lo tanto, se utiliza la antigua sólo
para el procesamiento de cantidades relativamente pequeñas de datos, ta les
como la identidad de usuario, contraseña, etc, y el segundo para la
encriptación de los datos multimedia en sí misma.
En la siguiente sección, le ofrecemos el tiempo de cálculo medido para el
cifrado y los procesos típicos de descifrado a través del Advanced Encryption
Standard (AES) (National Institute of Standards and Technology (2001)) , que
es un sucesor de los tradicionales Data Encryption Standard (DES). AES
proporciona mayor seguridad, no sólo por el aumento de tamaño clave (128
bits AES, y 56 bits para DES), sino también debido al diseño del algoritmo de
cifrado en sí. Como resultado, se está sustituyendo a DES y sus variantes
(por ejemplo, 3-DES) en el gobierno y las aplicaciones comerciales. También
hemos implementado el sistema con DES durante las fases iníciales de esta
investigación (C. P. Wu and C. C. J. Kuo (2001)).
Como alternativa a los sistemas genéricos, como AES y DES, las
arquitecturas de sistema de cifrado que están diseñados específicamente
para datos multimedia se puede utilizar para reducir la complejidad del
tiempo y el aumento de la aplicabilidad del sistema, especialmente para
aplicaciones en tiempo real.
La utilización de comparación biométrica de cifrado lleva a dos
consideraciones adicionales. Debido a las variaciones dentro de la clase y
entre clases similitudes en los identificadores biométricos, todos los sistemas
biométricos lleva a algunos falsos rechazos (FRR o transmitidos a través de
128
Tasa de Falso Rechazo) y algunos acepta falsas (transmitida a través ritmo
mucho o falsa aceptación). A continuación, ofrecemos los resultados de los
gobiernos recientes y evaluaciones académicas de los sistemas de
verificación de huellas digitales:
- FVC (Fingerprint Verification Competition) D. Maio, D. Maltoni, R.
Cappelli, J. L. Wayman, and A. K. Jain (2002, pag. 811-814): disponibles al
público (pero pequeños) se utilizan bases de datos. Los resultados pueden
ser buenos indicadores para las actuaciones del sistema comercial. El mejor
sistema tuvo un FRR de 0.28% en el extremo del 0,1%.
- FVC (Fingerprint Verification Competition) D. Maio, D. Maltoni, R.
Cappelli, J. L. Wayman, and A. K. Jain (2004, pag. 1-7): El mejor sistema
tenía una FRR del 4,7% en el extremo del 0,1%. Tenga en cuenta que las
bases de datos utilizados eran más complejos (por ejemplo, debido a las
grandes, las distorsiones de los dedos exagerada) que los de FVC 2002, por
lo tanto, el rendimiento del estado de la técnica de juego de huellas digitales
puede parecer estar disminuyendo (cf. FRR es de 4,7% frente a 0,28%). Sin
embargo, esta base de datos diferente es el factor clave en la desviación
desempeño observado.
- NIST FpVTE (Fingerprintc Vendor Technology Evaluation) de 2003:
bases de datos gubernamentales (tamaño grande) se utilizan. Los resultados
pueden ser buenos indicadores para las actuacionesdel gobierno del sistema
de aplicación. El mejor sistema tenía una FRR del 0,4% en el extremo del
0,01%.
129
- NIST SDK (Software Development Kit) de prueba de 2005: Una vez
más, de gran tamaño se utilizan bases de datos gubernamentales. El mejor
sistema tuvo un FRR de 0.99% en el extremo del 0,01%. La arquitectura del
sistema de evaluación (proveedor de hardware suministrado por FpVTE vs
hardware gobierno común para el SDK de prueba) y se utilizan bases de
datos de la desviación del rendimiento.
Como ejemplo, vamos a considerar la FVC 2004 de evaluación. Para el
citado FAR valor de 0,1%, 4,7% de FRR implicaría que un usuario real no
será aceptado por el comparador de huellas dactilares (aproximadamente
una vez en 20 intentos) y por lo tanto no será capaz de reproducir el
contenido multimedia que ha adquirido legítimamente (una molestia para el
usuario real). Mientras que la habituación del usuario disminuirá
significativamente este error, para eliminar este problema y reducir la FRR, el
sensor puede capturar los datos biométricos más de una vez para aumentar
la probabilidad de un partido. Por ejemplo, si dos impresiones son
capturados, el FRR puede reducir a .0017 (=1-[(1-0.047)+0.047 * (1-0.047)]).
Además, múltiples modalidades biométricas (como las huellas digitales,
iris, etc) se puede utilizar en procesos de cifrado y descifrado, y la
congruencia de cualquier modalidad biométrica sola puede ser suficiente
para iniciar el descifrado de los archivos cifrados.
El valor de las FAR de 0,1% indica que un usuario (por ejemplo, Alice)
será capaz de reproducir el archivo multimedia cifrado con otro usuario (por
ejemplo, de Bob) de huellas digitales, con una probabilidad de 0,1%. Este
130
fenómeno de falsa aceptación está presente en cualquier sistema,
incluyendo los componentes biométricos, y como tal, es un inconveniente.
Sin embargo, su efecto se puede disminuir el umbral del comparador de
ajuste biométrico de decisiones con el fin de disminuir la FAR (pero a costa
de aumentar la FRR asociados).
Otro problema en el uso de datos biométricos es el tiempo necesario para
la verificación de un usuario. La FVC estudio de 2004(echo por D. Maio, D.
Maltoni, R. Cappelli, J. L. Wayman, and A. K. Jain) informó de que el tiempo
de verificación de la huella digital mejor comparador fue de 1,48 segundos
(para un procesador de 1,41 GHz).
2.6.4 EXPERIMENTOS Y RESULTADOS.
En este sentido, ofrecen tiempos de cifrado y descifrado para la aplicación
de AES de cifrado simétrico de archivos multimedia. La longitud estándar
clave AES de 128-bits. Por lo tanto, el ID de usuario (IU), el usuario
selecciona una contraseña (PU), y el servidor contraseña generada (PSUV T)
se utilizan directamente como claves AES, donde estos valores son de 16
cadenas de caracteres compuesta por el código ASCII de 8 bits. Los datos
biométricos (Bt U, t = 0, 1, 2,:::) son generalmente más grandes en tamaño,
por ejemplo, una imagen de la huella típica puede generar un vector de
características (compuesto de la ubicación de los puntos característicos y
datos de orientación), que es más que 600-bits según A. K. Jain, L. Hong, S.
Pankanti, and R. Bolle (1997). Del mismo modo, la imagen del iris generar un
131
vector de características con una longitud de 2048 bits. Estos vectores de
características se pueden convertir en claves de 128 bits a través de
funciones de un solo sentido de hash, y luego utilizados como claves AES.
En este estudio, hemos utilizado el MD5 función hash en función de los
vectores de huellas digitales para llegar a los valores hash de 128 bits y se
utiliza como biométricos basados en claves de cifrado y descifrado.
En una máquina de 3,2 Ghz de procesador Pentium 4, el cifrado (en total
siete épocas) y descifrado (en total siete épocas) de un archivo de 5 MB
tomó 1.8 segundos cada una. Este tiempo es aceptable, ya que el descifrado
se realiza sólo una vez antes de la reproducción del archivo multimedia.
Además, la utilización de chips de hardware especiales puede reducir
sustancialmente los tiempos.
2.6.5 RESUMEN
Lo anterior mente dicho se basa en el cifrado /descifrado de capas con
autenticación biométrica. La utilización de las huellas dactilares como
claves en los procedimientos de cifrado / descifrado elimina la posibilidad de
intercambio ilegal de claves, lo que dificulta los planes de protección de
contenido basado únicamente en las teclas tradicionales.
Los tiempos de cálculo necesario para el proceso de codificación y
descifrado se proporcionan para AES de clave simétrica del sistema. Estos
tiempos de mostrar la aplicabilidad del método. La utilización de la amplia
disponibilidad de cifrado / descifrado de los sistemas (por
132
ejemplo, AES y DES anteriormente) aumenta la posibilidad de aplicar aún
más. Chips de hardware se reducen los tiempos en las aplicaciones futuras.
2.7CRIPTOSISTEMAS BIOMÉTRICOS
2.7.1INTRODUCCIÓN
Los actuales sistemas de cifrado (por ejemplo, DES, AES, RSA) tienen un
alto teórico (relacionado con la complejidad de los elementos subyacentes en
su construcción) y probadas (en relación con la inviabilidad de los ataques en
contra de ellos montados) de seguridad para contener los datos de texto. Sin
embargo, hemos demostrado que el intercambio ilegal de claves (problema
de gestión de claves) es uno de sus principales inconvenientes: con
independencia de la seguridad de los algoritmos, si las claves que deben ser
conocidos sólo por los intereses legítimos partes en la comunicación se
comparten libremente, es trivial para convertir el texto cifrado de nuevo en
texto sin formato. Como solución a este problema, hemos propuesto el uso
de identificadores biométricos como claves en los sistemas criptográficos
tradicionales.
Otra de las limitaciones de los sistemas de cifrado es que requieren las
claves para ser muy larga y aleatorio de alta seguridad. Por ejemplo, AES
requiere por lo menos 128 bits (lo que corresponde a una tecla de carácter
19 a partir de un código ASCII de 7 bits). Esto hace que sea imposible para
los usuarios a recordar las claves. Como resultado, las claves criptográficas
133
se almacenan en un soporte físico (por ejemplo, en un ordenador o en una
tarjeta inteligente) y puesto en libertad sobre la base de un mecanismo de
autenticación alternativo. Si este mecanismo tiene éxito, la clave de libertad
se puede utilizar en los procedimientos de cifrado / descifrado.
El mecanismo de autenticación más utilizados para este propósito se basa
en contraseñas, que son otra vez de claves criptográficas, como las cadenas,
pero son lo suficientemente simple como para los usuarios de recordar (por
lo tanto no es necesario para que los usuarios almacenar esta información en
un medio físico). A modo de ejemplo, la cadena “ CoTtOn1970 + "puede ser
seleccionado como una contraseña de alguien que nació en 1970 y que tiene
un gato llamado CoTtOn:. Ella puede recordar con facilidad y se espera que
no se puede adivinar por los atacantes lo tanto, el texto (por ejemplo, e-mail,
registros financieros) protegidos por un algoritmo de cifrado es tan segura
como la contraseña (el eslabón más débil) que libera las teclas correctas
descifrar las contraseñas de seguridad simples compromiso: que se puede
adivinar, ya sea mediante el uso de métodos de ingeniería social (la
observación de los nombres de mascotas, familiares, tus películas
favoritas...), o por la búsqueda de fuerza bruta. De hecho, a pesar de que el
espacio teórico contraseña puede ser bastante grande (de 8 caracteres de
paso a las palabras del código ASCII de 7 bits, hay 1288~ 7.2 *1016
contraseñas diferentes), en un experimento con 13.797 contraseñas de Unix,
D. V. Klein (1990). fue capaz de romper el 25% de las contraseñas usando
un diccionario de 62.727 palabras incluyendo sólo. Como un remedio natural
134
para este problema, contraseñas complejas son, sin embargo, difícil de
recordar y caros de mantener (por ejemplo, debido a las llamadas a servicios
de asistencia para restablecer una contraseña si el usuario se olvida).
Además, las contraseñas son incapaces de proporcionar no repudio: un
sujeto puede negar la liberación de la clave mediante la autenticación de
contraseña, alegando que su contraseña ha sido robada y que un ladrón
lanzó la llave.
Muchas de las limitaciones de la autenticación basada en contraseñas
pueden ser eliminadas mediante la incorporación de la autenticación
biométrica en el sistema de cifrado. Esto se puede hacer en uno de los dos
modos: (i) en biometría basada en conocer los principales, la comparación
biométrica se desvincula de la parte de cifrado. Comparación biométrica
funciona en las plantillas biométricas tradicionales: si coinciden, la clave
criptográfica se libera de su lugar seguro, por ejemplo, una tarjeta inteligente
o un servidor. Aquí, la biometría actúa efectivamente como un mecanismo de
contenedor para el dominio de cifrado, (ii) en biometría basada en la
generación de claves, la biometría y criptografía se fusionan en un nivel
mucho más profundo. Comparación biométrica efectivamente puede tener
lugar en el dominio de cifrado, por lo tanto, no se realizan operaciones de
compensación a que pueden ser atacados. En otras palabras, sino
comparación biométrica positivo extrae la clave secreta a partir de los datos
clave conglomerado de plantilla biométrica.
135
2.7.2 ANTECEDENTES
C. Soutar, D. Roberge, S. A. Stojanov, R. Gilroy, and B. V. K. Vijaya
Kumar (1999, 1998 (vol. 3314, 3386)) propuso una "clave de enlace"
algoritmo para un sistema óptico de huellas dactilares de correlación basado
en juego. Este algoritmo se une una clave criptográfica con la imagen de la
huella digital del usuario en el momento de la inscripción. La clave se
recupera sólo a una autenticación exitosa. Mediante el uso de varias
imágenes de huellas dactilares de formación de un dedo (normalmente 5), el
primer algoritmo crea una correlación de filtro de la funciónH(u), que tiene la
magnitud (| H(u)|), y la fase (?up(H(u))) componentes. Los criterios de diseño
para esta función incluyen tanto la tolerancia de distorsión (con el fin de
minimizar la FRR) y discriminabilidad (con el fin de minimizar FAR). El
algoritmo también salidas de C0 (X), que se obtiene por convaleció /
correlación de las imágenes de la formación de huellas digitales con H(u),
Entonces, el complejo conjugado de la componente de la fase de H(u) ?-
up(H(u)), se multiplica por una fase de sólo genera aleatoriamente serie de
mismo tamaño, lo que resulta en Hstored (u), y la magnitud de la de H(u) se
descarta. Este proceso elimina la posibilidad de que la ingeniería inversa la
imagen de un usuario de huellas digitales de H (u). Un determinado o
generadas al azar N bits (por lo general de 128-bit) de claves criptográficas,
k0, se vincula con la salida de correlación binaria C0 mediante el uso de un
código de corrección (a fin de tolerar alguna variación esperada en la señal
136
durante la autenticación biométrica), resultando en una tabla de búsqueda,
LT. Esta clave de cifrado se utiliza también como una clave de cifrado para
codificar S bitsHstored (u) y el mensaje cifrado resultante es ordenado para
formar un código de identificación id0. Por último, Hstored (u), LT, yid0 se
almacenan en la base de datos como la plantilla biométrica para el usuario
(llamada Bioscrypt por los autores).
Durante la autenticación, el usuario introduce una o más (normalmente 5)
imágenes de huellas dactilares de un dedo. El Hstored (u) para este usuario se
recupera de su Bioscrypt almacenados, y en combinación con las imágenes
de entrada de huellas digitales para producir una salida de correlación c1 (x).
Un algoritmo criptográfico de recuperación de clave se utiliza el LT del
usuario (almacenados en su Bioscrypt) para extraer una k1 clave de la
correlación de salida c1 (x). La clave recuperada, k1, se utiliza para crear un
nuevo código de identificación id1 exactamente de la misma manera como se
hizo durante la inscripción. Si id1 = id0, entonces k1 se libera en el sistema,
más un certificado de autenticidad “no"se devuelve el mensaje. Por lo tanto,
nunca el sistema libera una tecla equivocada en el sistema si falla la
autenticación biométrica. La principal crítica de Soutar et al." s de trabajo en
la literatura (G. I. Davida, Y. Frankel, and B. J. Matt (1998), A. Juels and M.
Sudan.A fuzzy vault scheme.In A. Lapidoth and E (2002)) es que el método
no conlleva garantías rigurosas de seguridad. Los autores no explican la
cantidad de entropía se pierde en cada etapa de su algoritmo. Además, el
resultado FAR y FRR los valores asociados con la liberación de la tecla son
137
desconocidos. Los autores también asumen que la entrada de la base de
datos de huellas digitales y las imágenes está perfectamente alineada.
Incluso con un sistema de adquisición de imagen muy limitada, no es realista
para adquirir imágenes de huellas dactilares sin ningún tipo de desalineación.
G. I. Davida, Y. Frankel, and B. J. Matt (1998, 1999), proponen un
algoritmo basado en biometría del iris. Consideran que la representación
binaria de la textura del iris, llamado IrisCode, que es 2048 bits de longitud.
El comparador de datos biométricos calcula la distancia de Hamming entre la
entrada y las representaciones de base de datos de plantilla y lo compara
con un umbral para determinar si las dos muestras biométricas son de la
misma persona o no. Los autores asumen que la IrisCodes a partir de
imágenes diferentes del mismo iris puede tener hasta un 10% de los 2.048
bits (es decir, 204 bits) diferente de la misma plantilla IrisCode iris. Los
autores también asumen que el IrisCodes de iris diferentes difieren en casi el
45% de los 2.048 bits (es decir, 922 bits).
Durante la inscripción, varias exploraciones del iris de una persona se
recogen y K-bit (K = 2, 048) IrisCodes se generan para cada exploración.
Estos IrisCodes se combinan (a través de un decodificador de la mayoría)
para llegar a un IrisCode canónica, T, de la misma longitud. Un [N, K, D]
(donde N: tamaño de palabra en clave, y D: la distancia mínima entre
palabras de código) limita la distancia código de corrección de error de
decodificación entonces se construye mediante la adición de C comprobar
los bits a la IrisCode K-bit (C es determinarse de modo que el 10% de K bits
138
se puede corregir), resultando en una palabra en clave de n bits, denotado
por T||C. La palabra en clave, T||C, es ordenada y firmada digitalmente,
denotado por Sig (Hash (T||C)), y junto con la comprobación de los bits C, se
almacena como la plantilla de base de datos para el usuario.En el momento
de la autenticación, varias muestras del iris de una persona que se recogen y
se estima que es T’. El C comprobar los bits de la plantilla de base de datos
se utilizan para realizar la corrección de errores en el T’||C palabra clave y el
IrisCode corregido T’’ produce. Luego T’’||C es ordenado y firmado (al igual
que durante la inscripción), lo que Sig (Hash (T´´||C)). Si Sig (Hash (T’’||C))
es exactamente el mismo que el Sig (Hash (T||C)) almacenados en la
plantilla de base de datos de autenticación tiene éxito . G. I. Davida, Y.
Frankel, and B. J. Matt (1998, 1999), sostienen que la plantilla de base de
datos de un mismo usuario puede ser utilizado como una clave criptográfica
(tenga en cuenta que esta clave siempre será la misma para el mismo
identificador biométrico en contraste con los algoritmos de clave criptográfica
vinculantes, como el algoritmo de C. Soutar, D. Roberge, S. A. Stojanov, R.
Gilroy, and B. V. K. Vijaya Kumar (1999, 1998 (vol. 3314, 3386)) que se
puede asignar una tecla al azar / da con los datos biométricos). Si un sistema
biométrico elegido no proporciona la entropía deseado (es decir, la fuerza
criptográfica), los autores proponen que una contraseña, PIN o datos
biométricos múltiples pueden ser añadidos al sistema para aumentar la
entropía. Según I. Davida, Y. Frankel, and B. J. Matt (1998, 1999), el
algoritmo es rápido y seguro demostrable. Sin embargo, proponen para
139
almacenar de corrección de errores C bits en la base de datos, que puede
llevar a alguna fuga de información (que puede ser explotado por un
atacante) acerca de los datos biométricos del usuario. Además, la tolerancia
de errores de su esquema es bastante pequeña. Hipótesis de los autores
que sólo el 10% de los bits de cambio IrisCode entre las diferentes
presentaciones del iris de una persona es demasiado restrictiva. De hecho,
hasta el 30% de los bits de IrisCode podría ser diferente entre distintas
presentaciones del mismo iris ( J. G. Daugman (1993)). Los autores suponen
que la adquisición de un gran número de muestras de los iris, los errores en
la IrisCode podría ser significativamente minimizados. Por último, los autores
asumieron que la IrisCodes plantilla de entrada y de bases de datos están
completamente alineados. Aunque limitadas iris los sistemas de adquisición
de imágenes se puede limitar la falta de alineación entre los diferentes
adquisiciones de la misma iris, un cierto grado de des alineamiento es
natural.
F. Monrose, M. K. Reiter, and S.Wetzel (1999), propone un método para
crear contraseñas más seguras mediante la combinación de teclas biometría
con contraseñas. Su técnica fue inspirada por contraseña "salado", donde la
contraseña del usuario (pwd) se sala anteponiendo con un número de s-bit al
azar (la "sal"), dando como resultado una contraseña endurecido (hpwd).
Durante la inscripción, la siguiente información se almacena en la plantilla de
base de datos del usuario: (i) un escogido de forma aleatoria k bits (por lo
general, k = 160) el número de r, (ii) una "mesa de enseñanza" cifrado con
140
personas con discapacidad (la tabla de instrucciones se crea de la siguiente
manera: primeras características, golpe de teclado del usuario (normalmente
de 15 en total) son un umbral para generar una descripción del carácter
binario, el binario función de descriptor y R se utilizan para crear la tabla de
instrucciones con el esquema de intercambio de secretos de Shamir [64] (la
tabla de instrucciones esencialmente contiene instrucciones sobre cómo
generar hpwd de la descripción del carácter, r, y pwd )), y (iii) "archivo
histórico", una cifra con hpwd . En el momento de la autenticación, el
algoritmo utiliza r y la tabla de instrucciones de la plantilla del usuario y la
contraseña de autenticación pwd0 y las características adquiridas durante el
golpe de teclado de autenticación para calcular pwd ‘. El hpwd ’ se utiliza para
descifrar el archivo cifrado la historia. Si la des-encriptación tiene éxito, la
autenticación se considera un éxito, y la r y el archivo histórico de los
usuarios se modifican en la plantilla, si la autenticación no es correcta, otra
instancia de hpwd ’ se genera a partir de la tabla de instrucciones de una
manera similar pero con algunas correcciones de errores. Si la autenticación
no tiene éxito en un número determinado de iteraciones de corrección de
errores, la autenticación falla, finalmente. Los autores afirman que la
contraseña endurecida se puede utilizar como una clave de cifrado. Una
debilidad de este trabajo es que se incrementa en más de 15 bits de entropía
a las contraseñas, lo que los hace sólo un poco más seguro. Sin embargo,
en sus trabajos posteriores F. Monrose, M. K. Reiter, Q. Li, and S.
Wetzel(2001) y F. Monrose, M. K. Reiter, Q. Li, D. P. Lopresti, and C. Shih
141
(2002).. Hecho pequeñas modificaciones a su plan original, que se aplica a la
voz de la biometría (que es más distintivo de teclas biometría), y fueron
finalmente capaces de generar claves de cifrado de hasta 60-bits, que
aunque es mucho más alta que la de 15 bits de lograr en su trabajo anterior,
es aún muy bajo (por ejemplo, en comparación con 128-bits de AES) para la
mayoría de las aplicaciones de seguridad. Uno de los puntos fuertes de
Monrose al trabajo. Es que han demostrado la viabilidad de su algoritmo a
través de experimentos. Los autores también implementaron su plan en un
dispositivo con recursos limitados. Las diferentes aplicaciones pueden utilizar
distintas claves de cifrado de una persona (o la misma aplicación se puede
cambiar la clave de cifrado en la re-inscripción) con contenido diferente (es
decir, una contraseña diferente a máquina o pronunciado).
J.-P. Linnartz and P. Tuyls (2003) supone que sin ruido X la plantilla de un
identificador biométrico está disponible en el momento de la inscripción y el
uso de esta para inscribir a un S secreto para generar una ayuda de datos
W. Suponen que cada dimensión (de una plantilla multidimensional) se
cuantifica en q resolución de los niveles. En cada dimensión, el proceso de
obtención de W es similar a la búsqueda de los residuos que deben ser
añadidos a la X para adaptarse a un par o impar cuántica red, dependiendo
de si el bit S correspondiente es 0 o 1. En el momento del descifrado, la
plantilla biométrica Y (una versión ruidosa de X) se utiliza para descifrar W
para obtener una S’ mensaje descifrado, que es aproximadamente el mismo
que S. En cada dimensión, el proceso de descifrado de conjeturas si algún
142
elemento de secreto S es 0 o 1 dependiendo de si la suma de Y y W se
encuentra en un cuanto de par o impar de la dimensión correspondiente. Se
espera que los errores son relativamente pocos en S’ se puede corregir
utilizando técnicas de corrección de errores, por lo tanto, el S resultante se
puede utilizar como clave en los criptosistemas tradicionales. Su técnica
supone que la representación biométrica están completamente alineados y
que el ruido en cada dimensión es relativamente pequeño en comparación
con la cuantificación de P. Debido a la variabilidad de los identificadores
biométricos, W diferentes se pueden generar para el mismo mensaje S. Los
autores demuestran que hay muy poca información se revela desde el W de
manera apropiada puesta a punto del esquema de cuantificación con
respecto a la medición del ruido.
En su "compromiso difuso" esquema A. Juels (1999). generalizada
Wattenberg (1999) y mejoró significativamente G. I. Davida, Y. Frankel, y B.
J. Matt (1998, 1999), a tolerar más la variación dentro de la clase de las
características biométricas y para proporcionar una mayor seguridad. En el
esquema de compromiso difuso, el usuario en el momento de la inscripción
selecciona un mensaje secreto C. Sea d denota el vector diferencia entre la
clave de usuario biométrico X y C. El mensaje cifrado (que se considera
como un compromiso difuso F: usuario se compromete a secreto C) consiste
entonces en d, y = hash (C), donde hash es una función hash unidireccional,
como SHA-1 [49]. Al final descifrado, con la representación biométrica Y, (Y +
d) se usa para decodificar la palabra clave más cercana C’. Una vez más,
143
con la ayuda de técnicas de corrección de errores, se espera que el error en
C’ se puede corregir para obtener el mensaje original C. Un sencillo ejemplo
numérico de este sistema es el siguiente: Supongamos que el mensaje
secreto C se selecciona el código universal espacio de {0000000000,
0000011111, 1111100000; 1111111111}, por ejemplo, C = (0000011111).
Además, supongamos que la corrección de errores (f) se basa en la mayoría
de decodificación en bloques de 5 bits (por ejemplo, decodifica 01010 a
00000 y 11001 a 11111). Si la clave de usuario biométricos (por ejemplo,
plantillas de huellas digitales) es X = (0101010101), se deduce que d = X - C
= (0101001010). El compromiso difuso es F = (hash (0000011111);
0101001010). Durante descifrar, el usuario puede proporcionar la plantilla de
la huella Y = (1101011101). Tenga en cuenta que X e Y difieren en dos bits.
Por último, el hash(f (Y - d))= hash (f (1000010111)) hash = (0000011111), lo
que equivale al valor hash en F compromiso, por lo tanto, la verificación se
realiza correctamente. Los autores reconocen que una de las principales
deficiencias del sistema de compromiso difuso es que requiere que los datos
biométricos X e Y las representaciones que se ordenó de modo que su
correspondencia es evidente.
Esquema de bóveda difusa Juels y Sudán (2002) es una mejora sobre el
trabajo previo de Juels y Wattenberg [1999]. Supongamos que Alice es un
usuario legítimo de este esquema, y Bob es un atacante. En A. Juels and M.
Sudan.A fuzzy vault scheme.In A. Lapidoth and E (2002). Alice puede
colocar un secreto · (por ejemplo, la clave de codificación secreta) en una
144
caja fuerte y de seguridad (seguro) que utiliza un conjunto desordenado A.
En este caso, un conjunto desordenado significa que las posiciones relativas
de los elementos que no cambian las características del conjunto: por
ejemplo, el conjunto {-2,-1,3} transmite la misma información que {3,-1,- 2}.
Bob, con un conjunto desordenado B, puede abrir la caja fuerte (de acceso k)
sólo si se superpone B con una A, en gran medida. El procedimiento para la
construcción de la bóveda difusa es la siguiente: En primer lugar, Alice elige
un polinomiop de la variable X que codifica k. Se calcula las proyecciones
polinomio, p (A), por los elementos de A. Se añade generado aleatoriamente
puntos paja que no se encuentran en p, para llegar al punto final conjunto R.
Cuando Bob trata de aprender · (es decir, encontrar p), utiliza su propio
conjunto desordenado B. Si se superpone B con A sustancialmente, será
capaz de localizar muchos puntos en R que se encuentran en la página La
corrección de errores de codificación (por ejemplo, Reed-Solomon [30]), se
asume que puede reconstruir p (y por lo tanto k). Un sencillo ejemplo
numérico de este proceso es el siguiente: Supongamos que Alice selecciona
el polinomio p(x) = x2 -3x +1, donde los coeficientes (1, -3, 1) codificar el
secreto de k. Si su conjunto desordenado es A = f ¡1; ¡2, 3, 2 g, se obtendrán
las proyecciones polinomio como { (A, p(A))} = { (-1, 5), (-2, 11) , (3, 1), (2, -
1)}. Para este conjunto, Alice añaden dos puntos de desperdicio C = {(0, 2),
(1, 0)} que no se encuentran en p, para encontrar las establecidas punto final
R = {(-1, 5); (-2, 11), (3, 1),(2, -1), (0, 2), (1, 0) }. Ahora bien, si Bob se puede
separar por lo menos 3 puntos de R que se encuentran en p, se puede
145
reconstruir p, por lo tanto, descifrar el secreto representado como el
polinomio del coeficientes (1, -3, 1). De lo contrario, terminará con una p
incorrecto, y no será capaz de acceder a la · secreto.
La seguridad del sistema se basa en la inviabilidad del problema de la
reconstrucción polinomio (es decir, si Bob no encuentra muchos puntos que
se encuentran en p, que no sea factible encontrar los parámetros de p, por lo
tanto no puede acceder a ·). El esquema puede tolerar algunas diferencias
entre las entidades (sin ordenar los conjuntos A y B) que bloquear y
desbloquear la bóveda, por lo que Juels y Sudán llamaron a su bóveda
esquema difuso. Esta falta de claridad puede venir de la variabilidad de los
datos biométricos: a pesar de que la misma entidad biométricos (por ejemplo,
el dedo, el índice de la derecha) es analizado en diferentes adquisiciones, los
datos biométricos extraídos pueden variar debido a las características de la
adquisición (por ejemplo, la colocación del dedo en el sensor ), el ruido del
sensor, la robustez de la función de extractor, etc. el sistema de bóveda
difusa se espera que tolerar estas variaciones dentro de la clase. Por otro
lado, en la criptografía tradicional, si las claves no son exactamente los
mismos, la operación de descifrado fallará.
Tenga en cuenta que desde la bóveda difusa puede trabajar con conjuntos
desordenados (común en las plantillas biométricas, como las minucias de
huellas digitales de datos), es un candidato prometedor para criptosistemas
biométricos. Dicho esto, el esquema de bóveda difusa requiere pre alinear la
plantillas biométricas. Es decir, los datos biométricos en el momento de la
146
inscripción (bloqueo de la bóveda) deben estar bien alineados con los datos
biométricos en el momento de la verificación (desbloqueo de la bóveda):
siguiendo el ejemplo dado anteriormente, Bob es capaz de abrir la caja fuerte
si se selecciona el conjunto B = { -1; -2, 2, 0 }, ya que logra identificar tres
puntos { (-1,5), (-2,11), (2, -1) } que se encuentran en el polinomio de Alicia .
Cuando extendemos este ejemplo a las plantillas biométricas, si la entidad
(por ejemplo, las minucias ubicación), por ejemplo, { -5} es, de hecho
biométricamente equivalente al elemento { -1 } (por ejemplo, debido al
desplazamiento de píxeles sólo 4 de los sistema de coordenadas), {-5 } debe
ser utilizado como { -1 } durante el desbloqueo bóveda, de ahí la necesidad
de alinear el presente.
La alineación es un requisito indispensable debido a los diferentes tipos de
distorsión que puede ocurrir durante la adquisición de datos biométricos.
Además, el número de puntos de operación factible (en la bóveda opera con
una complejidad insignificante, por ejemplo, medido a través del número de
intentos de acceso obligados a revelar el secreto de un usuario real y con
una complejidad considerable para un usuario impostor) de la bóveda difusa
es limitada .
Y. Dodis, L. Reyzin, and A. Smith (2004). fundamentos teórico propuesto
para la generación de las claves del "material clave" que no es exactamente
reproducible (por ejemplo, contraseñas, las respuestas a los cuestionarios,
los datos biométricos que los cambios entre la inscripción y verificación).
Similar a la noción de los datos de ayuda de Tuyls et al. [69], Dodis et al. [71]
147
extractores definir difusa (FE) que crean la variable R a partir del material
clave w, además de generar públicos (ayudante) de datos P. FE vuelve a
generar a partir de R w', si w' es "cerca" de w, teniendo en cuenta la variable
P . Durante tres métrica de distancia (distancia de Hamming, establecer la
diferencia y la distancia de edición), Dodis et al. Calcular la información
revelada por P, y detalles sobre la existencia de algoritmos para la
construcción de elementos finitos. También proponen una modificación del
esquema de Juels y difusa de Sudán bóveda: en lugar de añadir puntos de
paja con las proyecciones del polinomio, Y. Dodis, L. Reyzin, and A. Smith
(2004), proponen utilizar un polinomio p‘ (de grado mayor que p) que se
superpone con p sólo para los puntos del conjunto A. genuina La seguridad
del sistema se basa en el grado de este nuevo polinomio p’, que sustituye el
punto final del conjunto R Juels y el esquema de Sudán.
T. C. Clancy, N. Kiyavash, and D. J. Lin (2003), proponen una "huella
digital bóveda" basado en el esquema de Juels y Sudán (2002). En el
momento de la inscripción, varios (generalmente 5) las huellas digitales de
los usuarios son adquiridos. La representación de huellas digitales
(posiciones minucias) se extrae de cada huella. La correspondencia entre los
puntos de función (minucias) extraídos de las copias múltiples se realiza
mediante una limitada algoritmo de vecino más cercano. Es decir, cuando las
impresiones diferentes de un dedo, se superponen en la parte superior de
cada uno, los detalles en una impresión que se encuentran dentro de una
proximidad espacial de las minucias de la impresión que no se consideran lo
148
mismo ("correspondiente"). Por lo tanto, lo que corresponde forman grupos
pequeños detalles y se utilizan para estimar la varianza de minucias
ubicación (d). Las minucias de la cual se encuentra la correspondencia por lo
menos en un determinado (normalmente 2) conjunto de impresiones que
constituye la representación característica de efectivo (es decir, conjunto de
cierre, G). Dado el tamaño de impresión de huellas digitales y d, Clancy et al.
Agregar el número máximo de azar (paja) puntos (N = 313 en su aplicación)
a la representación característica que por lo menos a una distancia d (d = 11
en su aplicación) de distancia de todos los puntos de otra característica. Al
igual que en Juels y el trabajo de Sudán (2002), la unión de G y N, constituye
el eje de abscisas del mensaje codificado; las ordenadas son determinadas
por la incorporación lineal de los secretos para ser compartido. Al final
descifrado, dada la huella digital del usuario (que se supone que es pre-
alineado con la huella digital de la inscripción), las características se extraen.
Las características se utilizan para encontrar los puntos correspondientes en
el mensaje codificado mediante el acotado del vecino más cercano algoritmo
basado en el eje de abscisas solo. Las ordenadas correspondientes con el
mensaje codificado se introducen en Reed-Solomon códigos correctores de
errores para recuperar el polinomio codificado. Los autores simularon esta
etapa de corrección de errores sin tener que ponerlo en práctica. La fuerza
de este trabajo es que concretamente se describe la implementación bóveda
difusa en el dominio de las huellas dactilares y concluye que es posible lograr
un FAR de 2-69~ 1.7* 10-21 (por ejemplo, 69-bits de seguridad), en un FRR de
149
alrededor de 20 - 30% de una base de datos de huellas dactilares integrado,
de 23 de los dedos distintas (5 impresiones cada uno).
S. Yang and I. Verbauwhede (2005) trató de eliminar el requisito de pre-
alineación del algoritmo de T. C. Clancy, N. Kiyavash, and D. J. Lin (2003).
En primer lugar, la huella digital de la matrícula se analiza para encontrar una
"referencia minucias": se define como una minucia (i) que está presente en
todas las impresiones de huellas digitales múltiples (por ejemplo, 3), y (ii)
cuya estructura local (sobre la base de la distancia y orientación con respecto
a sus dos vecinos más cercanos minucias) no cambia. La huella digital que
se bloqueará la bóveda se ha registrado con respecto a este minucias de
referencia (con la minucia de referencia como el origen de un nuevo sistema
de coordenadas), y la bóveda se genera similar al algoritmo de T. C. Clancy,
N. Kiyavash, and D. J. Lin (2003), mediante el uso de minucias coordenadas.
Para el desbloqueo de la bóveda, los mismos pasos se aplican a consulta
imágenes de huellas dactilares para encontrar a los otros "minucias de
referencia". Ahora bien, si los dos minucias de referencia (la que se
encuentra durante el bloqueo de la bóveda, y la que se encuentra en el
desbloqueo de la bóveda) son los mismos, el origen de los marcos de
coordenadas utilizado en el bloqueo y desbloqueo sería la misma, y por lo
tanto, la alineación se pudo establecer. Yang y Verbauwhede (2005) supone
que este sea el caso. Tenga en cuenta que este supuesto no se garantiza
que sea cierto, pero los autores no proporcionan detalles acerca de este
tema. En un experimento con una base de datos muy pequeños (que consta
150
de 10 dedos distintos, con 10 impresiones cada uno), que reportó una TRF
de 17%, sin aceptar falsas.
2.7.3 MÉTODOS PARA MEJORAR CRIPTOSISTEMAS BIOMÉTRICOS
Como hemos visto, el principal problema de los criptosistemas biométricos
se trata de la variabilidad biométrica. ¿Cómo se puede realizar con éxito el
sistema, incluso cuando la entidad subyacente (es decir, de identificación
biométrica) difiere en el espacio de medida (por ejemplo, cambio en las
coordenadas de las minucias), pero es equivalente en el espacio biométricos
(por ejemplo, los detalles son idénticos a pesar de que hay un cambio en sus
coordenadas)? Tenga en cuenta que la construcción inherente de
criptosistemas biométricos se basa en el procesamiento de datos en su
propio espacio (por ejemplo, listas de puntos como en Juels y el algoritmo de
Sudán (2002)), y no en el espacio biométricos, lo que complica aún más el
problema.
Esta variabilidad biométricos pueden surgir a partir de (i) falta
características extrañas, (ii) las características desordenada, (iii) falta de
alineación de características, (iv) la medición de ruido, y (v) la distorsión en la
sensación biométricos.
151
3. SISTEMA DE VARIABLE
3.1 DEFINICION NOMINAL
El desarrollo de la investigación atiende la interrelación de dos
variables:
- Seguridad informática
- Biometría
3.2 DEFINICION CONCEPTUAL
Según Romero (2006, p. 11) La seguridad Informática es la protección de
la información y los activos relacionados con su captación, almacenamiento,
transmisión, proceso, distribución y uso.
El objetivo de la seguridad informática es mantener ante todo la integridad,
la disponibilidad, la privacidad, el control y la autenticidad de la información
que es manejada mediante una computadora; además de reducir la
probabilidad del impacto a un nivel mínimo aceptable, un costo razonable,
asegurando la adecuada y pronta recuperación.
Según Zaccaro (2010), la biometría es una ciencia que se ha desarrollado
con el tiempo, gracias a la necesidad constante del hombre de identificar a
las personas, de una manera eficiente, evitando que más de una persona
posea el mismo código de identificación. La palabra biometría proviene de
las palabras bio (vida) y metría (medida), por lo tanto la biometría es la
152
ciencia que se encarga de identificar a los seres vivos en base a parámetros
físicos o de comportamiento, los cuales son únicos e intransferibles.
3.3 DEFINICION OPERACIONAL
La seguridad informática en una definición operacional se podría decir:
Un individuo realiza un sistema el cual solo permite el acceso al personal
autorizado, dicho sistema también resguarda la información, y al mismo
tiempo asegura su integridad. El sistema anteriormente planteado consiste
en que la información almacenada en un equipo se mantenga segura en
cualquier tipo de caso y siempre esté disponible cuando se requiera su uso.
La biometría en una definición operacional se podría decir:
Existen rasgos físicos o de conducta los cuales son únicos en cada
persona, dichos rasgos se les aplican técnicas matemáticas y estadísticas,
para verificar o identificar individuos.
Las huellas dactilares, iris, voz y firma representan algunos tipos de
características propias en cada persona, las cuales pueden ser aplicadas en
sistemas para identificar usuario. Este tipo de tecnología proporciona altos
niveles de seguridad y además eliminan el uso de llaves y códigos los cuales
pueden ser perdidos u olvidados.