tecnologias para las telecomunicaciones del futuro

186

Upload: andres-montealegre

Post on 20-Oct-2015

291 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 2: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 3: Tecnologias Para Las Telecomunicaciones Del Futuro

ISBN:978-84-9916-948-4

Depósito legal: M-35717-2010

Editor Bubok Publishing S.L.

Impreso en España

Page 4: Tecnologias Para Las Telecomunicaciones Del Futuro

PRESENTACIÓN

REDNGN: Una oportunidad de transformación para las operadoras Autonomic Computing: Infraestructuras TIC autogestionadasCapacidades en la red del operador, más allá de la conectividadTests de velocidad para banda ancha: La importancia de una estimación precisaTendencias futuras de la tecnología de femtonodosImplicaciones de seguridad en el despliegue de IPv6Comunicaciones y servicios en el automóvil habilitados por la operadora

TECNOLOGÍASMainframes and Open Servers. An apples to orange comparationAnálisis y explotación de información no estructurada con técnicas de lingüística computacional y text miningEnterprise mashups, concepto y usoSoftware libre e Innovación abierta. Comunidades de software libreEl papel de los operadores en los servicios basados en localización (LBS) Estado actual y próximos retos de la tecnología OSGi La historia del arte e Internet"Semantics + Data Minning" to Endow the BSS/OSS with Intelligence Virtualisation, the emperor's new clothes? La batalla de Intel por la movilidad: procesadores Atom, terminales MID y sistema operativo Moblin Applications of the future Internet

PERSONASThe Role of Telco Companies in Human Mobility ApplicationsDigital Home Challenges, anything new? Dynamic Security: A new approach for user and service security HOMEPDA: Fourth Screen at HomeGoogle Wave: Reinventando las Comunicaciones. Tecnologías, riesgos y oportunidades para TelefónicaRelacionarse a través de identidades sociales Las telecomunicaciones se unen para combatir el cambio climático

CURRICULUM VITAE

4

8142026343844

5056

6470808694

102108112

120

126130138144154

160166

172

ÍNDICE

Page 5: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 6: Tecnologias Para Las Telecomunicaciones Del Futuro

PRESENTACIÓN

Page 7: Tecnologias Para Las Telecomunicaciones Del Futuro

Es para mí un placer y una satisfacción presentar este libro, “Tecnologías para las telecomunicacionesdel futuro”, que contiene una muestra del dominio tecnológico, amplitud de experiencias, visión defuturo y profundos conocimientos de las personas que trabajan en Telefónica Investigación yDesarrollo (TI+D).

Como vanguardia tecnológica del Grupo Telefónica, en TI+D se hace un gran esfuerzo por anticiparse ala evolución de la tecnología, y las demandas de sus clientes. Este ejercicio de anticipación semanifiesta en acciones de vigilancia tecnológica, encarnadas por su Observatorio; en la investigaciónaplicada desarrollada en sus laboratorios; o en los proyectos de innovación que por su cuenta, o en elmarco de consorcios internacionales, dan lugar a los productos de Telefónica del futuro.

Como parte de su trabajo, las personas que trabajan en TI+D despliegan su visión, creatividad,conocimiento y experiencia. Desde el año 2007, el trabajo del Observatorio Tecnológico de TelefónicaI+D ha ordenado y canalizado buena parte ese conocimiento generado en TI+D a través de iniciativascomo los Think Tanks temáticos que han sido el germen de los contenidos de este libro. En ellos, deforma voluntaria y desinteresada, los participantes han aportado una visión innovadora, original yfundamentada de la evolución tecnológica del futuro, realizando una aportación muy valiosa alconjunto de la compañía, del Grupo y de la Sociedad en su conjunto.

Telefónica, con una acreditada actividad divulgadora, pone a disposición del público este libro, querefleja la visión de futuro de Telefónica Investigación y Desarrollo. Esperamos que esta visión ayude aotras empresas y organizaciones a incorporar innovaciones tecnológicas a sus procesos para mantenerla competitividad, tan necesaria en estos tiempos de inestabilidad económica.

El contenido se ha estructura en tres grandes áreas temáticas: “Red” habla de la evolución de nuestrocomponente fundamental, sin el cual no sería posible entender el mundo actual; “Tecnologías” recogelos avances en los componentes fundamentales de los nuevos servicios del futuro; y, finalmente,“Personas” se refiere a las tecnologías más cercanas a sus verdaderos destinatarios, el eje de la acciónde Telefónica como compañía que lleva casi 100 años poniendo en contacto a las personas yenriqueciendo esas comunicaciones.

Sólo resta agradecer a todos los autores su aportación a este libro, y desear a quienes lo tienen en susmanos que su lectura sea provechosa.

Fernando FournonPresidente Ejecutivo

Telefónica Investigación y Desarrollo

PRESENTACIÓN

6

Page 8: Tecnologias Para Las Telecomunicaciones Del Futuro

7

Page 9: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 10: Tecnologias Para Las Telecomunicaciones Del Futuro

NGN: UNA OPORTUNIDAD DE TRANSFORMACIÓNPARA LAS OPERADORAS

Juan Manuel González Muñoz

José Antonio Lozano López

Page 11: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

Hace un par de años parecíaque las operadoras que nomigraran sus redes a la nuevaarquitectura de red y serviciospropuesta por la NGN (NextGeneration Networks) perde-rían el tren de la competitivi-dad. Aunque la realidad parece no ir tan deprisa como laspredicciones auguraban (inspiradas en parte por los pro-veedores de equipamiento), sí es cierto que la NGN pro-porciona una oportunidad para que las operadoras pue-dan generar valor de la convergencia de su negocio tradi-cional, la prestación de servicios de telecomunicaciones,con las tecnologías software y, por lo tanto, abre nuevasposibilidades de negocio para las operadoras.

La NGN propone soluciones para dos de los grandes pro-blemas a los que se enfrentan las operadoras en la actua-lidad: la creación de nuevos servicios que permitanaumentar los ingresos y permitir que los usuarios puedaacceder a los mismos utilizando diferentes redes de acce-so. La convergencia en una infraestructura única de redesy servicios que proporciona la arquitectura NGN es unfactor clave para conseguirlo. De hecho, desde nuestropunto de vista la NGN significa nuevos servicios y conver-gencia.

Basada en el protocolo SIP (Session Initiation Protocol) ycon una clara separación entre los niveles de red y servicio,la NGN permite la creación de servicios que mezclen flujosde información de diferentes tipos como por ejemplo, imá-genes de alta calidad obtenidas de un microscopio conuna videoconferencia para crear servicios de telemedicina.Esta característica proporciona la flexibilidad y dinamismonecesario para permitir a las operadoras moverse de losservicios masivos hacia los servicios de “long tail” dirigidosa colectivos o grupos más reducidos. Más aún, las operado-ras pueden exponer sus capacidades para que organiza-ciones o individuos externos desarrollen servicios sobreellas, permitiendo nuevos modelos de negocio.

Además, la arquitectura NGN lleva implícita la convergen-cia en más aspectos que la de redes fijas y móviles. En elnivel de transporte de la información, cualquier terminalconectado a la NGN está a su vez conectado con el resto através de una red de paquetes IP/MPLS. El siguiente aspec-to es el nivel de servicios, ya que estos se alojan en servi-dores de aplicación genéricos que son accesibles desdecualquiera de las redes de acceso. Sin embargo, el aspectomás importante, es que permite la convergencia a nivel decliente. A través de la gestión de la identidad del usuarioque se define en la NGN un cliente puede acceder a susservicios utilizando diferentes redes de acceso y desdediferentes sitios (movilidad y nomadismo).

Sin embargo, el despliegue de una infraestructura NGN,por sí mismo no es suficiente para poder aprovechar

estas ventajas, es necesario que los sistemas que se utili-cen para comercializar y explotar las infraestructuras yservicios sean capaces de soportar su flexibilidad y dina-mismo. De otra forma los procesos de negocio seguiránsiendo igual de lentos y costosos que hasta ahora. Pordesgracia, la mayor parte de los sistemas BSS/OSS actua-les con que cuentan la mayoría de las operadoras no hansido diseñados teniendo en cuenta las capacidades yvalor de una infraestructura como la NGN y, por lo tanto,en general resultan inadecuadas para poner en valor lasposibilidades que proporciona. Este artículo presenta uncambio de enfoque en los procesos de operación paraaprovechar la capacidad de la NGN para diseñar y desple-gar nuevos servicios.

FOCO EN EL CLIENTE Y LOS SERVICIOS

La separación de las funciones de red y de servicio y laadopción en este último nivel de técnicas de diseño desoftware similares a SOA (Service Oriented Architecture),proporciona una mayor eficiencia en la creación de servi-cios. De hecho, en el mercado han proliferado herra-mientas denominadas SDF/P (Service DeliveryFramework/Platform) que permiten la creación y el des-pliegue rápido automático de servicios. Estas herramien-tas permiten exponer las capacidades de la infraestruc-tura para que empresas o personas externas a la opera-dora puedan crear y desplegar servicios de una formasencilla, posibilitando nuevos modelos de negocio basa-dos en conceptos de web 2.0.

Sin embargo, la integración de los nuevos servicios en losprocesos de operación de la operadora, o lo que es lomismo, la adaptación de los sistemas B/OSS para gestio-nar y explotar esos servicios, sigue siendo manual y conun impacto negativo alto en el tiempo necesario paraponer los nuevos servicios en el mercado.

Normalmente, el procedimiento que se sigue es que unavez que se ha diseñado el servicio, se hace un análisis delimpacto del nuevo servicio en los sistemas (provisión,inventario, mantenimiento, etc.), después se analiza paracada sistema los cambios que hay que hacer y luego seplanifica la coordinación de todas las modificaciones y sehacen las modificaciones definidas sobre los sistemas.

Para poder explotar las ventajas de un entorno de crea-ción de servicios potente, es necesario que este procesosea automático. No se trata de sólo de automatizar laprovisión o el mantenimiento de los nuevos servicios,sino de automatizar la integración de estos nuevos servi-cios en la estructura de explotación de la operadora.

Tomando como referencia el modelo de procesos eTOM(enhanced Telecom Operation Map) del TeleMana-gement Forum, el objetivo sería conseguir la automatiza-ción de los procesos horizontalmente, en vez de vertical-mente como se ha hecho hasta ahora con gran éxito porcierto.

NGN: UNA OPORTUNIDAD DE TRANSFORMACIÓN PARA LAS OPERADORAS

10

Page 12: Tecnologias Para Las Telecomunicaciones Del Futuro

Obviamente, este es un requisito con el que no estándiseñados los sistemas actuales que necesitarán sermodificados cada vez que desarrollemos nuevos servi-cios. Es necesario pensar en nuevos paradigmas de des-arrollo de servicios en los cuales se incluya informaciónrelativa a como se provisionará y facturará el servicio,cómo se mantendrá, requisitos de los terminales en losque se ejecutarán, evolucionabilidad del servicio, etc. deforma que pueda ser interpretada de forma automáticapor los sistemas de gestión y operación.

Este es un punto poco explorado todavía, pues los SDPactuales están centrados más en la creación de serviciosy la forma de facturación. Sin embargo, permitiría haceruna “fábrica de servicios gestionados” con un alto nivelde automatización, lo que abarataría considerablementeel coste de creación y despliegue de los mismos. De estaforma, habría servicios dirigidos a segmentos de merca-do reducidos (long tail) que podrían resultar rentables,aunque no lo sean en la actualidad.

Una línea de investigación prometedora en este sentidoes la aplicación de tecnologías semánticas para crearmodelos de conocimiento que incluyan información degestión. La gran ventaja es que estos modelos están dise-ñados para la comunicación máquina-máquina y puedenser procesados automáticamente. La información de ges-tión puede ser interpretada con ayuda de motores deinferencia para generar información directamente inte-grada o integrable en los sistemas. El empleo de tecnolo-gías semánticas y técnicas de autodescubrimiento decomponentes de red y nuevos servicios permitiría a lossistemas de gestión automatizar la integración de nue-vos servicios en las operaciones.

La otra gran característica destacada y que es intrínsecade la NGN, es la convergencia . La separación clara entrelos planos y las funciones de red y de servicio, permitenque los servicios puedan ser accedidos utilizando diferen-tes redes de acceso. Teniendo en cuenta las diferentescaracterísticas de la red de acceso, un mismo serviciopuede ser accedido desde diferentes redes. Por ejemplo,un flujo de video podría ser enviado a un móvil, a un PC oa un TV.

Sin embargo, la NGN permite una convergencia másimportante: la convergencia en el cliente. Hasta ahora, laidentificación de los clientes de una operadora está aso-ciada a alguna infraestructura en las redes fijas, normal-mente a una posición en el repartidor o par de cobre y auna tarjeta SIM en las redes móviles. La NGN desarrollaun esquema que permite identificar al cliente indepen-dientemente de la red de acceso que emplee y posibilitaque pueda disfrutar de un servicio allá donde dispongade la conectividad necesaria.

11

Figura 1. Mapa de procesos eTOM

Figura 2. Convergencia en el cliente

Source: ITU-T Rec. M3050

Page 13: Tecnologias Para Las Telecomunicaciones Del Futuro

Esto obliga a revisar los modelos de información de lossistemas actuales donde el cliente sigue estando asocia-do a una infraestructura de red. La NGN permite que lamisma infraestructura de red pueda ser compartida porvarios clientes, por ejemplo cada uno de los miembros deuna familia.

CONCLUSIONES

Hasta ahora, las redes se diseñaban e implementaban demanera que el despliegue de un nuevo servicio traía con-sigo una nueva infraestructura y sus sistemas asociados.De esta manera se crean silos que impiden una conver-gencia natural. La NGN se diseña para romper estaestructura de silos, pero desde el punto de vista de siste-mas no se ha hecho un diseño acorde a la filosofía NGN.El resultado es la creación de un nuevo silo utilizando lossistemas de que dispone (legados) la operadora o siste-mas propietarios desarrollados por el proveedor de lainfraestructura NGN.

Las posibilidades de desarrollar nuevos servicios se vemermada por las modificaciones necesarias en los siste-mas para poder explotar y operar adecuadamente losnuevos servicios. Aunque el SDP agiliza y automatiza eldesarrollo de servicios, es necesario ir un poco más allá yautomatizar la integración de los servicios en los proce-sos de negocio y las operaciones de gestión y manteni-miento de la operadora, de esta forma se reduciría consi-derablemente el tiempo necesario para poner los nuevosservicios en el mercado.

Puesto que los sistemas actuales no han sido diseñadosni pensado para cumplir este requisito, es necesario plan-tearse el diseño tanto de los servicios, como de los siste-mas para que los nuevos servicios que se diseñan y des-pliegan se puedan incorporar de forma automática en lossistemas que soportan la operación. En este aspecto, eluso de tecnologías semánticas puede ser de gran ayuda.

BIBLIOGRAFÍA

ITU-T Recommendation M.3060/Y.2401 (03/2006):“Principles for the Management of Next GenerationNetworks”

ETSI TS 188 001 V0.2.9 (2005-07): “TISPAN; NGNManagement; OSS Architecture Release 1ETSI TS 188 003V1.1.1 (2005-09): “TISPAN; OSS requirements: OSS defini-tion of requirements and priorities for further networkmanagement specifications for NGNOSS definition ofrequirements and priorities for further network manage-ment specifications for NGN”

TeleManagement Forum TR133-REQ V1.2: “NGNManagement Strategy: Policy Paper”

Juan M. González and José A. Lozano. “NGN: an opportu-nity for Telcos to self-reinvent”. Journal on NetworkManagement Volume 3, Number 1 (http://www.henrys-tewart.com/jtm/index.html)

NGN: UNA OPORTUNIDAD DE TRANSFORMACIÓN PARA LAS OPERADORAS

12

Page 14: Tecnologias Para Las Telecomunicaciones Del Futuro

13

Page 15: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 16: Tecnologias Para Las Telecomunicaciones Del Futuro

AUTONOMIC COMPUTING: INFRAESTRUCTURAS TICAUTOGESTIONADAS

José A. Lozano

Page 17: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

Nadie duda de que las infraestructuras TIC (Tecnologíasde la Información y las Comunicaciones) se han converti-do en un factor decisivo para el desarrollo económico ysocial de países, empresas y personas. El aumento enpotencia de computación, en capacidad de almacena-miento y en facilidad y posibilidad de acceso desde cual-quier rincón del planeta utilizando dispositivos muyvariados, ha permitido la evolución a un entorno econó-mico y social más global que ha posibilitado un aumentoexplosivo de las aplicaciones y servicios en red quecubren todas las facetas de la vida humana.

Sin embargo, esta evolución no ha venido acompañadade avances similares en la operación y gestión de estasinfraestructuras, más bien al contrario, la complejidadque están alcanzado la infraestructura de sistemas ycomunicaciones de cualquier empresa complica muchosu gestión y obliga a aumentar los recursos dedicados aestas tareas. De hecho, se estima que entre el 60% y el80% del presupuesto en TIC de las empresas se dedica amantener y operar las infraestructuras, con el consi-guiente impacto en la cuenta de resultados de la empre-sa y en su capacidad de desarrollo de negocio.

Esta situación no parece que vaya a mejorar en un futu-ro, pues aunque el coste de las infraestructuras es cadavez menor, el bajo nivel de automatización de los proce-sos de administración de las infraestructuras TIC hacemuy difícil reducir los costes de explotación lo que acabasuponiendo una limitación para el crecimiento y evolu-ción del negocio de la empresa.

Este aspecto ya fue señalado por Paul Horn,Vicepresidente y Director de Innovación de IBM en un dis-curso en 2001 en la Universidad de Harvard ante laAcademia de Ingeniería en el que manifestaba que el ver-dadero reto al que se enfrenta la industria de los SI(Sistemas de Información), por encima incluso de la Leyde Moore, es la complejidad de gestión.

En su charla, P. Horn indicaba como solución que los futu-ros sistemas e infraestructuras incluyeran capacidadespara autogestionarse y proponía utilizar el sistema ner-vioso humano como modelo. El cuerpo humano realizauna serie de tareas como el control de la temperatura o lasudoración, el ritmo del latido del corazón, la respiración,etc. que involucran un alto número de entidades (glándu-las, órganos, etc.) independientes pero relacionadas entresí y controladas por el sistemas nervioso autónomo, deahí el nombre de “Autonomic Computing”. En este artícu-lo se va a explicar qué es y cuáles son los principios bási-cos de Autonomic Computing y qué es un SistemaAutónomo.

UN MODELO BIOLÓGICO PARA DISEÑAR LASINFRAESTRUCTURAS TIC

Imaginemos que estamos tranquilamente descansandoo leyendo un periódico en casa sin desarrollar ningunaotra actividad. Si observamos con un poco más de detalleesta escena, vemos que lo que parecía un cuadro estáti-co, es realmente una escena muy dinámica. Sin que sea-mos conscientes, nuestro organismo (el SistemaNervioso Autónomo concretamente) está controlando elnivel de azúcar en la sangre, la presión en nuestras arte-rias, ritmo de latido del corazón, tamaño de la pupila,nivel de sudoración, etc. Pensemos por un momentocómo sería la lectura del periódico si tuviéramos que con-trolar conscientemente todas estas funciones. De igualforma el desarrollo del negocio de una empresa se ve difi-cultado por la cantidad de recursos que es necesariodedicar a mantener y gestionar las infraestructuras. Estaes la idea central detrás de Autonomic Computing, incluiren la infraestructura capacidades de gestión capaces decontrolar autónomamente su funcionamiento.

Analizando un poco el detalle del funcionamiento delSistema Nervioso Autónomo se observa que tiene nume-rosos sensores distribuidos por el cuerpo de los cualesextrae información que aplica a numerosos bucles decontrol. Por ejemplo, cuando se detecta que el nivel deazúcar en la sangre disminuye, el páncreas genera gluca-gón y las glándulas suprarrenales segregan adrenalina, loque hace que el hígado libere glucosa a partir del glucó-geno almacenado. Por el contrario, si el nivel sube dema-siado, el páncreas produce insulina, que hace que el híga-do elimine el exceso de glucosa.

De igual forma, la teoría de bucles de control es clave enel desarrollo de Autonomic Computing. En la infraestruc-tura se despliegan una serie de sensores que recogeninformación de los parámetros de funcionamiento, estainformación se procesa para determinar las acciones quehay que ejecutar sobre la infraestructura, que se ejecutana través de una serie de actuadores. Tanto los sensorescomo los actuadores y la parte de procesamiento estáembebida dentro de la infraestructura, dotándola decapacidades de autogestión.

La pieza clave en un sistema autónomo es el ElementoAutónomo (EA), que está formado por un agente de ges-

AUTONOMIC COMPUTING: INFRAESTRUCTURAS TIC AUTOGESTIONADAS

16

Figura 1. Ciclo del azúcar en la sangre

Page 18: Tecnologias Para Las Telecomunicaciones Del Futuro

tión y los recursos que gestiona. El EA controla tanto suestado interno como la relación con el entono. La Figura 2muestra el modelo conceptual de un EA tal y como sedefine en [2], con los recursos gestionados y el bucle decontrol implementado por varios bloques funcionales.

Los bloques principales de un EA son:

• Monitorización: Es el bloque encargado de recibir lainformación sobre el entorno que proporcionan lossensores.

• Análisis: Analiza la información proporcionada por elbloque de monitorización para conseguir una visióndel entorno y su evolución con relación a los paráme-tros que hay que controlar.

• Planificación: Una vez se tiene el resultado del análisis,el módulo de planificación prepara y coordina lasacciones que hay que realizar sobre el entorno.

• Ejecución: El módulo de ejecución es el encargado deejecutar las acciones sobre el elemento gestionado.Debe conocer los efectores y cómo utilizarlos.

• Conocimiento: El elemento autónomo emplea conoci-miento para interpretar la información del entorno yconocer cómo modificarlo. Forma un espacio deentendimiento entre todos los bloques. Se define uti-lizando tecnologías semánticas.

• Instrumentación. Son los recursos que sirven parainteractuar con los recursos gestionados, ya sea paraobtener información o para ejecutar acciones sobreellos.

Tomado el EA como pieza básica, un sistema autónomose compone de varios EA gestionando diferentes aspec-tos y recursos del sistema y con relación entre ellos. LosEA tienen que trabajar en los diferentes niveles de lainfraestructura como hardware, sistema operativo y apli-caciones. En la actualidad, existen otros modelos y arqui-tecturas más completas que incluyan funciones de razo-

namiento y aprendizaje, un ejemplo se puede ver en [3].

CARACTERÍSTICAS DE LOS SISTEMASAUTÓNOMOS

El objetivo principal de la iniciativa de AutonomicComputing es la de tratar la complejidad de la gestión delas infraestructuras de computación actuales, proporcio-nando métodos, algoritmos, arquitecturas y herramien-tas para estandarizar, automatizar y simplificar muchasde las tareas de administración de los Sistemas deInformación. En general, un sistema autónomo es unoque opera y sirve a su propósito gestionándose a símismo sin necesidad de intervención externa. UnSistema Autónomo tiene que ser [4]:

• Automático para controlar su funcionamiento internoy su operación con la mínima intervención humanaposible.

• Adaptativo para poder cambiar su operación y com-portamiento (por ejemplo, configuración, estado yfunciones) de acuerdo a su entorno operativo y denegocio.

• Consciente tanto de su contexto operativo como de suestado interno para valorar si opera de acuerdo a susobjetivos

Los sistemas autónomos presentan una serie de caracte-rísticas que se han denominado “self-*”, siendo las másimportantes:

• Autoconfiguración. Capacidad para adaptarse a cam-bios dinámicos del entorno mediante el cambio de suconfiguración. Estos cambios se realizan en tiempo deejecución y permiten responder a condiciones no pre-vistas.

• Autoreparación. Capacidad para supervisar, diagnosti-car y reparar los fallos que provoquen desviaciones nodeseadas del comportamiento del sistema.

• Autooptimización. Capacidad para buscar formas defuncionamiento más eficientes ajustando adecuada-mente ciertos parámetros del sistema.

• Autoprotección. Capacidad para anticipar, detectar yproteger el sistema y sus recursos frente a ataques yproblemas. El Sistema Autónomo debe ser capaz dedetectar ataques y amenazas y aplicar contramedidas.

Estas funciones se realizan de forma automática por losEA que están embebidos en la infraestructura, liberandoa los administradores de realizarlas. Por ejemplo, hacealgunos años, la instalación de una aplicación softwarerequería un elevado conocimiento tecnológico para ajus-tar un número elevado de parámetros, mientras que hoyesta labor está al alcance de cualquier usuario con unos

17

Figura 2. Arquitectura de un Elemento Autónomo

Page 19: Tecnologias Para Las Telecomunicaciones Del Futuro

pocos “clicks” de ratón. De la misma forma, AutonomicComputing pretende una simplificación similar paramuchas de las tareas de administración de sistemas.

Un aspecto destacado de Autonomic Computing es queproporciona una solución al problema de la evolución delsoftware, ya que al incorporar sensores y efectores en lospropios sistemas, se podrá monitorizar y verificar el cum-plimiento de requisitos sobre periodos largos de tiempo.Esta información se utilizará para tomar decisiones comoactualizar automáticamente el software, adaptar siste-mas críticos sin necesidad de pararlos, aislar módulosque no estén funcionando adecuadamente, etc.

Sin embargo, aunque las características de los SistemasAutónomos están claras, no se ha conseguido avanzarmucho en definir un marco o modelo de referencia parasistemas autónomos, a pesar de intentos como elAutonomic Communications Forum (ACF) [5] para definirestándares que permitan construir soluciones compati-bles e interoperables. Hasta ahora las soluciones queexisten son propietarias y construidas “ad hoc” para solu-cionar problemas específicos. Por ejemplo, en [6] sepuede ver una prueba de concepto de AutonomicComputing desarrollada en Telefónica.

LA EVOLUCIÓN HACIA EL AUTONOMIC

Desde un punto de vista práctico, Autonomic Computingsupone más una evolución que una revolución, no esnecesario construir toda la infraestructura desde cerosino que se pueden ir añadiendo capacidades de auto-gestión de forma gradual. En [2] se define un modelo demadurez con cinco niveles de evolución progresiva desdeel manual al autonomic:

• Manual. Procesos reactivos y actuación “ad hoc” conanálisis y resolución de problemas manual.

• Supervisado. Existe una supervisión centralizada de lainfraestructura aunque usando diferentes consolas.Los procesos están documentados y se revisan perió-dicamente para su mejora.

• Gestionado. Procesos proactivos con análisis automá-tico de problemas. La actuación es manual aunqueguiada por indicaciones de los sistemas.

• Predictivo. Los sistemas analizan los datos y ejecutande forma automática acciones correctoras guiadospor Acuerdos de Nivel de Servicio.

• Autónomo. Gestión dinámica del negocio basada enpolíticas. Los sistemas son capaces de conocer suentorno operativo y de negocio y actuar y adaptarse aél de forma automática.

Un aspecto de Autonomic Computing que va más allá dela propia tecnología es el tema de la confianza en el fun-

cionamiento autónomo de las infraestructuras. Por logeneral, los administradores suelen ser reacios a que lossistemas ejecuten operaciones de control de forma auto-mática y autónoma. Las capacidades de evolucionabili-dad y adaptabilidad de las infraestructuras autónomasno implican que se pierda control de la infraestructura,sino lo contrario, los administradores podrán controlar sufuncionamiento, pero en vez de con órdenes explícitasmediante mecanismos de más alto nivel como puedenser mediante una gestión basada en políticas.

Algo similar ocurrió cuando se incorporaron algunos sis-temas con comportamientos autónomos en los automó-viles como son el ABS y ESP. En algunos foros especializa-dos se comentó la pérdida de control del coche por el con-ductor, cuando el efecto ha sido un control mejor y másseguro del coche.

CONCLUSIONES

La complejidad que están alcanzando las infraestructu-ras TIC puede llegar a convertirse en un freno para el des-arrollo de la denominada Sociedad de la Informacióndebido a la dificultad y el coste de explotar estas infraes-tructuras. Autonomic Computing ataca este problematrasladando la complejidad dentro de las infraestructu-ras y desarrollando una tecnología capaz de gestionarlainternamente.

Los sistemas autónomos serán capaces de funcionar conuna mínima intervención humana para su gestión.Además, serán capaces de adaptarse y responder deforma automática a cambios tantos internos como delentorno, así como de evolucionar en el tiempo de mane-ra optima.

Aunque sus objetivos y principios parecen claros, suimplementación aún presenta incertidumbres como elhecho de que algunas de las tecnologías que se usan notienen aún el grado de madurez necesario para su usoindustrial y la falta de estándares que garanticen la cons-trucción de soluciones interoperables lo que limitamucho su aplicación, pero no impide que los conceptos y

AUTONOMIC COMPUTING: INFRAESTRUCTURAS TIC AUTOGESTIONADAS

18

Figura 3. Niveles de evolución en la gestión de infraestructuras

Page 20: Tecnologias Para Las Telecomunicaciones Del Futuro

principios se trasladen a otras áreas como AutonomicCommunications, Autonomic Networking, etc.

En cualquier caso, lo que sí parece claro es que el desarro-llo de unas infraestructuras TIC con capacidad de auto-gestión abre un amplio abanico de posibilidades para lasempresas que las operan que se beneficiarán de unasinfraestructuras cada vez más inteligentes y autónomas.Esta característica hace que Autonomic Computing vayaa jugar un papel importante en entornos donde, debido ala competencia y los márgenes estrechos, la eficienciaoperativa es esencial.

BIBLIOGRAFÍA

[1] J.O. Kephart and D.M. Chess. “The Vision ofAutonomic Computing.” IEEE Computer. January2003

[2] A. Ganek and T. Corbi. “The dawn of autonomic com-puting.” IBM Systems Journal 42. 2003

[3] J. Strassner, N. Angoulmine and E. Lehtihet. “FOCALE:A Novel Autonomic Networking Architecture.” InLatin American Autonomic Computing Symposium(LAACS), 2006, Campo Grande, MS, Brazil.

[4] S. Schmid, M. Sifalakis, and D.Hutchison, “Towardsautonomic Networks” In proceedings of 3rd AnnualConference on Autonomic Networking, AutonomicCommunication Workshop (IFIP AN/WAC), Paris,France, September 25-29, 2006.

[5] John Strassner, Joel Fleck, David Lewis, ManishParashar, Willie Donnelly. “The Role of Standardiza-tion in Future Autonomic Communication Systems.”5th IEEE Workshop on Engineering of Autonomic andAutonomous Systems. Belfast, March 2008.

[6] Juan M. González, José A. Lozano and Alfonso Castro."Autonomic Systems Administration: A testbed inAutonomic". 5th International Conference onAutonomic and Autonomous Systems ICAS 2009.Valencia, Spain. April 2009.

19

Page 21: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 22: Tecnologias Para Las Telecomunicaciones Del Futuro

CAPACIDADES EN LA RED DEL OPERADOR, MÁS ALLÁDE LA CONECTIVIDAD

Manuel Sánchez Yangüela

Page 23: Tecnologias Para Las Telecomunicaciones Del Futuro

La Red, en mayúscula, como soporte a todo tipo de servi-cios. Pero la Red se apoya en muchas redes, en minúscula.Hay una fuerte corriente de opinión, que considera que elpapel de esas múltiples redes que dan soporte a la Red esla de la mera conectividad, y para ello se aduce que eléxito de Internet se basa en que es un modelo abierto. Yeso es cierto, pero ello no implica que el principal activode un operador, su red (en minúscula), no pueda jugar unpapel activo y no de mera commodity. Y eso se puede con-seguir dotando a dicha red de más capacidades e inteli-gencia (por favor, no confundir con el concepto tradicio-nal de red inteligente de la red telefónica conmutada), oincluso, explotando capacidades ahora disponibles peroquizás no suficientemente aprovechadas. Estas capacida-des pueden hacer posible la prestación de distintos servi-cios desde la red, sin necesidad de que parte de la lógicadel servicio se tenga que apoyar en equipos externos.

Esta posibilidad es muchas veces criticada pues a juiciode quienes la critican, conlleva implícita la amenaza deuna integración vertical en la Red. Pero sólo desde redesdotadas de mayor inteligencia, o incluso aprovechandode forma óptima los recursos hoy disponibles, es como sepueden hacer realidad de una forma eficiente en coste,tanto para el operador como para el usuario final retoscomo la movilidad de los servicios, la ubicuidad y la per-sonalización de los servicios, o la autenticación y securi-zación de las aplicaciones y las transacciones, propias ode terceros, e incluso el desarrollo de servicios mayoris-tas.

La red proporciona conectividad, por supuesto, pero tam-bién aporta otras capacidades como son el control de losflujos de tráfico y señalización de sesiones, las de auten-ticación y autorización, e incluso de almacenamiento. Elconjunto de servicios de una operadora se basa en el usocombinado de estas capacidades, pero no se sabe por quéextraña razón, cuando en el hipersector de las TIC se habladel papel de un operador de telecomunicaciones, el papelde éste, consciente o inconscientemente, se reduce al dela mera conectividad, ignorándose el resto de sus capaci-dades y posibilidades, limitando su papel al de una sim-ple commodity.

La conectividad, en combinación con las otras capacida-des de la red antes mencionadas, permite incluso hoyplantear propuestas novedosas. Ante el aumento delancho de banda en el acceso, surge la paradoja de cómollenar ese ancho de banda. Y la respuesta es siempre la dellenar ese ancho de banda (¿horror vacui?) con aplicacio-nes cada vez más ricas en contenidos multimedia quejustifiquen a su vez el aumento del caudal que se estáofreciendo. Pero esas mismas aplicaciones requieren a suvez de dispositivos de cliente de mayores prestacionespara poder procesar un caudal de datos cada vez mayor.Ese nivel de exigencia genera a su vez nuevas fuentes deproblemas, que se traducen en quejas de los usuarios yun aumento de costes para las operadoras. Quizás una delas razones estriba en el modelo de prestación de los ser-

vicios, en el que parte de las funciones descansan en eldispositivo de cliente. Y este problema se agrava con unaoferta de servicios integrada, como una oferta triple play,en donde en lugar de presentarse el problema una vez sepresenta tres veces. Quizás sería el momento de ver cómorevertir esta situación. El problema expuesto se debe aque las prestaciones que demandan los servicios crecen aun ritmo superior al que se puede atender con un costerazonable, entendiendo el coste razonable desde unaperspectiva global, no individual: muchos pocos hacen unmucho. Una posibilidad sería volver a un modelo cliente-servidor en el que un equipamiento de cliente simplifica-do, por medio de un acceso de banda ancha, se conecte aun servidor de grandes prestaciones. Y ese servidor degrandes prestaciones puede ser la red del operador:

• Los elementos que integran la red, por sus caracterís-ticas carrier-class (arquitectura multiprocesador ycapacidad de procesado asociada, capacidad de alma-cenamiento, redundancia, fiabilidad, …) pueden afron-tar con más garantías las demandas de los nuevos ser-vicios, liberando al equipamiento de cliente de partede sus funcionalidades y por consiguiente del coste deadquisición asociado.

• Esa misma simplificación de funcionalidades se tra-duce en una reducción de las incidencias y de los cos-tes de operación derivados.

• Y la concentración de las funcionalidades en nodos dered carrier-class facilita la evolución de los servicios,con unos costes significativamente menores al operarsobre un conjunto limitado de puntos en lugar de lacomplejidad asociada a actuar sobre multitud de pun-tos, tantos como clientes.

Ahora bien, ¿es posible traducir la oferta actual de servi-cios a un modelo como el planteado? En principio sí, puesmuchos servicios aunque obviamente no todos, se ajus-tan al modelo cliente-servidor, como el servicio telefónicoo los servicios de IPTV. Quizás la cuestión radique en con-seguir una interfaz de usuario muy sencilla, de modo quedesde un dispositivo de visualización simple (el símil serí-an los monitores y teclados con los que años ha se acce-día a los recursos de almacenamiento y procesado de unmainframe) se pueda acceder a las capacidades del servi-dor, en este caso, las capacidades que ofrece la red deloperador en su conjunto.

Eso sí, la interfaz de usuario sencilla no tiene por qué serel dispositivo de visualización, tampoco se trata de volveral modelo cliente-servidor de los años 70 y 80. El disposi-tivo de visualización puede ser sencillo o complejo. Lo quede él se demanda es que tenga conectividad con la red,pero en este caso, una conectividad de banda ancha, fijao móvil, basada en el protocolo de red universalmenteaceptado hoy (IP, ya sea IPv4 ó IPv6) de modo que sepueda acceder al “servidor”, la red, desde cualquier puntocon conectividad IP. Este dispositivo de visualización, el

CAPACIDADES EN LA RED DEL OPERADOR, MÁS ALLÁ DE LA CONECTIVIDAD

22

Page 24: Tecnologias Para Las Telecomunicaciones Del Futuro

dispositivo de usuario, y dados los tiempos que correntendrá que tener, al contrario de los viejos monitores,unas capacidades audiovisuales óptimas. Pero esa no esla interfaz para acceder a los servicios. Esa interfaz la hade proporcionar la propia red, y ha de ser una interfazsencilla, que permita integrar servicios de forma intuitivay desacople dichos servicios y su evolución de la forma enque éstos se les presentan a los usuarios.

Esto es lo que podría denominarse una forma de virtuali-zar la red1, reaprovechando las capacidades ya disponi-bles, para dar los mismos servicios u otros nuevos. El con-cepto de virtualización en el campo de las TIC se entien-de como el desacoplo entre diferentes capas de hardwa-re, software, redes y almacenamiento entre sí, de modoque en un servicio sólo se actúe sólo sobre los puntosnecesarios, sin afectar al resto, desacoplando el serviciode los recursos que lo han de soportar. Por ejemplo, des-acoplar el sistema operativo del hardware sobre el quecorre, o independizar una aplicación del sistema operati-vo sobre la que dicha aplicación se ejecuta, …

Todo lo anterior se refiere a las aplicaciones y los servi-cios. Y conforme a esta visión, ampliamente extendida,las redes se limitan a aportar conectividad. Pero, ¿sepuede aplicar la virtualización al ámbito de la red?

La virtualización de la red se podría ver como el desacoplode los servicios de los recursos concretos de ésta. ¿Y quécapacidades ofrece la red, dejando a un lado la conectivi-dad y la virtualización de dicha conectividad medianteredes privadas virtuales o VPNs (Virtual Private Networks),para que el propio operador o terceros puedan ir constru-yendo servicios de valor añadido abstrayéndose de la redque los soporta?

• Autenticación y registro de usuarios y autorización desesiones.

• Control de sesiones: particularización del flujo de con-trol por servicio.

• Direccionamiento IP: rangos de direcciones y mecanis-mos de asignación.

• Securización, tanto del tráfico como de las aplicacio-nes.

• Priorización de tráfico y QoS.

• Supervisión y gestión.

• Almacenamiento.

La disponibilidad de una interfaz de usuario en red, inclu-so personalizable, facilitaría el uso combinado de lascapacidades anteriores como las piezas para la construc-ción de entornos de servicio diferenciados, bien por servi-cio o bien por cliente, entendiendo por cliente un tercero,ya sea éste un ISP, otro operador, un proveedor de conte-nidos o un cliente corporativo.

23

Figura 1.

1 Incluso cuando se habla de virtualización de red, el alcancese suele reducir a la conectividad:• Yaping Zhu, Rui Zhang-Shen, Sampath Rangarajan,

Cabernet: Connectivity Architecture for Better NetworkServiceshttp://www.cs.princeton.edu/~jrex/papers/rearch08.pdf

• Jiayue He, Rui Zhang-Shen, Ying Li, Cheng-Yen Lee,Jennifer Rexford, and Mung Chiang, DaVinci:Dynamically Adaptive Virtual Networks for a CustomizedInternet,http://www.cs.princeton.edu/~jrex/papers/davinci.pdf

• Nick Feamster, Lixin Gao, and Jennifer Rexford, How tolease the Internet in your spare time, http://www.cs.prin-ceton.edu/~jrex/papers/cabo-short.pdf

• Jennifer Rexford, Different strokes for different folk (or,how I learned to stop worrying and love virtualization),http://www.cs.princeton.edu/~jrex/position/wired2.txt

Page 25: Tecnologias Para Las Telecomunicaciones Del Futuro

¿Cuáles podrían ser las aplicaciones de una virtualizaciónde red?

1. ¿Virtualización de las capacidades de la red, y no sólola conectividad, yendo más allá de las VPNs? Un ejem-plo sería la simplificación tanto en complejidad comoen plazo de despliegue de los servicios mayoristas.

2. ¿Virtualización de los servicios legacy? En este caso, sefacilitaría el mantenimiento de servicios legadossobre las nuevas redes, permitiendo simultáneamenteel desmantelamiento y la operación las viejas redeslegacy que soportan esos servicios.

3. ¿Virtualización de los servicios básicos? En este casoestaríamos hablando de la posibilidad de ofrecer unmismo servicio en cualquier entorno de red, ya seapropia como de terceros, llegando en este último casoa la posibilidad de que un operador pueda ofrecer susservicios en mercados donde hasta ahora no disponede infraestructura de red propia.

4. ¿Virtualización del equipo de cliente, con toda su com-plejidad, llevando su funcionalidad al equipamientode red? Los nodos y plataformas de la red ofrecen laposibilidad de implementar dentro del perímetro de lapropia red las funcionalidades que tradicionalmentese le demandan a un EDC, con innegables ventajas: eloperador no ha de comprar ni mantener equipos espe-cíficos por servicio en casa de cliente, y las actualiza-ciones se efectúan en un entorno controlado, la red deloperador, y no en el domicilio de cliente.

Las dos primeras propuestas se corresponden con unaaproximación limitada de virtualización de red, que real-mente es una aproximación del tipo IaaS (Infraestructureas a Service), es decir, la red entendida como un simpleconjunto de “hierros de propósito general” sobre los quese pueden correr aplicaciones, en este caso aplicacionesmuy específicas como la emulación de ciertos mecanis-mos de transmisión de datos.

Pero hay otras iniciativas de virtualización que desde unpunto de vista de red pueden ser más interesantes. Lossuministradores de equipamiento de red, como Cisco yJuniper, ya están empezando a abrir algunas capacidadesen sus routers: … Cisco's and Juniper's Open OSs Are AboutSelling Hardware, Not Software. The opening up of IOS andJUNOS are part of an ongoing strategy to make the net-work into a platform for other applications … The motiva-tion is the same as Apple's: to sell more proprietary hard-ware, or to move away from it. Cisco has talked manytimes about turning the network from a dumb pipe into asmart platform, something that entails letting othersbuild apps for it. The role model is Microsoft, whose conti-nued success is due in large part to its attracting outsidedevelopers to build applications on Windows .

Es decir, las iniciativas de Cisco o Juniper se aproximan alo aquí expuesto, aunque con un alcance más limitado.Son las dos últimas propuestas las que reflejan el plante-amiento del artículo: aprovechar todas las capacidadesde la red, y no sólo la conectividad, accediendo de formasencilla y ubicua a dichas capacidades dotando a la pro-pia red de su “interfaz de usuario” que permita desaco-plar de cara al usuario el servicio de los recursos quedemanda. Por tanto, aprovechar todas las capacidadesque ofrece la red del operador, que son muchas, para irmucho más allá de la simple conectividad.

CAPACIDADES EN LA RED DEL OPERADOR, MÁS ALLÁ DE LA CONECTIVIDAD

24

Figura 2. Virtualización, la perspectiva típica desde las TI

Figura 3. Virtualización según los suministradores de equipamiento de red

Figura 3. Virtualización, lo que querrían los operadores sacando el máximo provecho a todos sus recursos

Page 26: Tecnologias Para Las Telecomunicaciones Del Futuro

25

Page 27: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 28: Tecnologias Para Las Telecomunicaciones Del Futuro

TESTS DE VELOCIDAD PARA BANDA ANCHA: LAIMPORTANCIA DE UNA ESTIMACIÓN PRECISA

Francisco Javier Ramón Salguero

Page 29: Tecnologias Para Las Telecomunicaciones Del Futuro

La medición de la velocidad efectiva de los accesos debanda ancha ha pasado en un breve espacio de tiempode ser un tema propio de foros especializados de Interneta convertirse en noticia destacada en los medios decomunicación más importantes.

Por un lado, la iniciativa del Ministerio de Industria paraque los proveedores de acceso proporcionen, al menos,un 80% de la velocidad ofertada parece fijar un umbralde referencia para los usuarios, a la vez que supone unreto para las operadoras, que habrían de “examinarse” deacuerdo a este criterio con cada nueva modalidad deacceso que ofrezcan. En este sentido, la existencia detests de velocidad que estimen correctamente el anchode banda disponible en las nuevas modalidades de acce-so aparece como un requisito fundamental para que estainiciativa sea útil para todos los agentes y redunde, final-mente, en una mejora del servicio.

Por otro lado, los medios de comunicación se vienenhaciendo eco cada año de los resultados de algunos estu-dios de velocidad basados en conocidos tests gratuitos,en los que llama la atención que sean precisamente lasmodalidades de mayor capacidad las que parecen alejar-se más de sus valores nominales. Titulares como“Ninguna oferta de ADSL de 10 ó 20 megas llega al 80% develocidad real” (El País, julio 2008) o “Las ofertas de ADSL de20 megas en España se quedan en un tercio de lo anuncia-do” (El Mundo, julio 2008) subrayan la importante diver-gencia en los accesos de alta capacidad entre los resulta-dos de los tests y los valores nominales ofertados. En eltexto de estas noticias, también se hace notar que, curio-samente, sea cual sea el operador o la modalidad de altacapacidad que se considere (10 ó 20 Mbps), la velocidadsiempre parece encontrarse en torno a los 7 Mbps. Enesta situación el lector podría preguntarse, ¿cómo esposible que todas las operadoras parezcan desviarse de lamisma manera (y en la misma magnitud) en sus modali-dades de acceso de gama más alta, y acaben sirviendoexactamente el mismo ancho de banda? ¿Existe algunalimitación tecnológica en estas dos modalidades de acce-so que les impida alcanzar velocidades más altas?¿Cuántas muestras del estudio llegaron a sobrepasar los7 Mbps?

La repercusión de todas estas noticias no hace sinosubrayar el importante papel que estos tests de veloci-dad pueden jugar en el futuro, y cómo éste será todavíamás relevante con la aparición de nuevas modalidades deacceso con aún más capacidad, donde las exigencias parael medidor pueden ser máximas.

A lo largo de este artículo, analizaremos el funcionamien-to básico de un medidor de velocidad y explicaremos deforma sencilla cuáles son los principales factores que limi-tan sus estimaciones, fundamentalmente cuando traba-jan con accesos de gran ancho de banda. Así mismo, eva-luaremos el rendimiento que son capaces de ofrecer algu-nos de los tests de velocidad más populares en España.

¿CÓMO FUNCIONA UN TEST DE VELOCIDAD?

Los tests de velocidad actuales, por razones de simplici-dad, basan su estimación en medir el tiempo que el usua-rio necesita para descargar un contenido de tamañoconocido a través de una conexión TCP. Así, dividiendo eltamaño del contenido por el tiempo invertido en su des-carga, se determina el caudal medio que tuvo esa cone-xión y este valor se emplea como estimador del ancho debanda disponible en el acceso del usuario. Para facilitar larealización del test, el proceso de descarga se oculta alusuario tras una interfaz sencilla (en flash o java), quesirve luego para presentar los resultados de la prueba deuna manera amigable.

Una variante de esta metodología es la del llamado “testde Ookla”, donde se toman numerosas muestras a lolargo de la descarga (contando los bytes transferidos encada intervalo), se descartan muestras “extrañas”, y alfinal se hace un promedio de todas esas estimacionesparciales. Esta variante, que permite ir ofreciendo al inter-nauta “resultados intermedios” a modo de velocímetro,es la que emplean gran parte de las webs españolas queofrecen medidores de velocidad.

Hay que señalar que estas metodologías se centran, portanto, en estimar el ancho de banda que “llega” a la apli-cación y no el realmente provisto por la red (que incluiríael transporte de todas las cabeceras de enlace, de IP, deTCP, etc.). Si bien la diferencia entre ambas magnitudespuede llegar a ser de algunos puntos porcentuales, comoprimera aproximación suele considerarse ésta una fuen-te de error “controlada”, ya que es de un orden de magni-tud relativamente modesto y, casi siempre, es constanteen porcentaje respecto a la capacidad del acceso que sequiera medir. Sin embargo, para que lo anterior sea cier-to, es necesario garantizar que el usuario no está utili-zando ninguna otra aplicación durante la realización dela prueba (por ejemplo, descargándose un fichero almismo tiempo). Esta condición será especialmente difícilde verificar completamente si se trata de un test de velo-cidad accesible al gran público a través de Internet.

No obstante, la principal fuente de error en tests basadosen esta metodología procede del impacto que el propio

TESTS DE VELOCIDAD PARA BANDA ANCHA: LA IMPORTANCIA DE UNA ESTIMACIÓN PRECISA

28

Page 30: Tecnologias Para Las Telecomunicaciones Del Futuro

protocolo TCP y sus mecanismos de control de flujo tie-nen en la velocidad de descarga cuando la red de accesoes de alta capacidad. Así, factores como la configuraciónde TCP en el servidor de medidas y en el ordenador delusuario, la latencia entre ambos extremos o el tamaño dela descarga pueden tener un impacto determinante en elmáximo caudal que puede alcanzarse en la conexión TCPde la prueba y, por tanto, en la velocidad que finalmentese estima para ese acceso.

Teniendo en cuenta la importancia de estos factorescomo principales fuentes de error en los tests de veloci-dad más populares, merecerá la pena revisarlos con másatención para entender cómo TCP puede llegar a compor-tarse de forma imprevista. A revisar el comportamientode este protocolo y a señalar sus limitaciones para untest de velocidad, dedicaremos la próxima sección. Paraello nos valdremos de un símil sencillo con una empresade paquetería empeñada en aprovechar al máximo sunueva cinta transportadora “de alta velocidad”.

TCP, LA EMPRESA DE PAQUETERÍA

Como vimos en el apartado anterior, los test de velocidadactuales consisten en la descarga de un contenido detamaño conocido a través de una conexión TCP y la medi-ción del tiempo empleado para completar la transferen-cia. Sin embargo, como ya adelantábamos, la influenciadel protocolo TCP en la velocidad de descarga puede sersignificativa en determinados casos y, en particular, cuan-do se trabaja con conexiones de alta capacidad.

Para comprender mejor las limitaciones que TCP imponea un test de velocidad, nos valdremos aquí de una analo-gía sencilla que nos permita analizar intuitivamente losfactores que condicionan este tipo de transmisiones.

Supongamos una empresa de paquetería cuyo únicocometido es transportar de forma fiable paquetes posta-les de un edificio a otro. Para ello, se vale de una cintatransportadora “de alta velocidad” que, en un recorridocircular —similar al de las cintas de equipaje de los aero-puertos—, va y vuelve entre los dos edificios.

Para llevar a cabo esta tarea con éxito, la empresa dispo-ne de dos trabajadores, cada uno emplazado en un extre-mo, de manera que el primero (el “emisor”) se encargaríade depositar los paquetes por orden en la cinta, y el otro(el “receptor”) se encargaría de recogerlos en el otroextremo y pegar un post-it en su lugar, para que llegue asu compañero a modo de acuse de recibo, aprovechandoasí que la cinta es circular. De esta forma, en caso de quealguno de los paquetes se perdiera por el camino (cosasque pasan…), el “emisor” estaría en disposición de ensam-blar otro paquete idéntico al extraviado y volverlo a ponersobre la cinta (como veis, se trata de una empresa depaquetería con habilidades sorprendentes).

En estas circunstancias cabe preguntarse: ¿cómo podrían

coordinarse los dos extremos para aprovechar al máximola velocidad de la cinta (es decir, para enviar el máximonúmero posible de paquetes por hora) a la vez que garan-tizan una entrega fiable?

Una forma posible de organizar estos envíos sería que el“emisor” enviase un paquete y esperase a la recepción delcorrespondiente acuse de recibo para poner el siguienteen la cinta (o, en su defecto, esperase un tiempo pruden-cial antes de reenviar el paquete presumiblemente“extraviado”). Sin embargo, si la distancia entre ambosedificios fuera considerable, con esta operativa no conse-guiríamos aprovechar la capacidad de transporte de lacinta transportadora, toda vez que, a lo sumo, estaríamosintroduciendo un paquete por cada vuelta completa de lacinta, de manera que casi toda su superficie de transpor-te quedaría desocupada.

Para mejorar la eficiencia de este proceso, en lugar dedepositar un solo paquete en la cinta y esperar su acusede recibo para cargar el siguiente, la empresa de paque-tería decide que puedan cargarse 2 paquetes sin que sehaya recibido aún su confirmación y, una vez se reciba elacuse de recibo del primero, se vuelva a depositar unnuevo paquete en la cinta, de manera que vuelva a haber2 paquetes “en circulación”, y así sucesivamente. Una vezque la empresa descubre que, con esta sencilla medida,ha conseguido doblar el número de paquetes que eracapaz de transportar en una hora, decide ir aumentandogradualmente este número de paquetes “en circulación",de manera que a la semana siguiente se pasa de 2 a 4, lasiguiente de 4 a 8, y así sucesivamente. De esta forma,cada semana la empresa consigue doblar su capacidadde transporte… hasta que llega a trabajar con un númerotan grande de paquetes “en circulación” que consigue lle-nar completamente el espacio de la cinta (al menos, en sucamino de ida). Una vez alcanzado este punto de “satura-ción”, la empresa entiende que está aprovechando almáximo la velocidad de la cinta transportadora pues, porcada paquete que se esté introduciendo en un extremo,la cinta estará entregando otro al receptor, y éste, a suvez, estará colocando un nuevo acuse de recibo que, másadelante, provocará que se deposite un nuevo paquete alritmo adecuado… En estas condiciones de funcionamien-to, nos encontramos con que:

• El sistema está trabajando de forma óptima, y la únicaforma de aumentar el ritmo al que se transportanpaquetes pasa por aumentar la velocidad de la cinta.

• En caso de que algún día aumentara la longitud de lacinta transportadora (porque hubiera que enviarpaquetes a un edificio más lejano) sería necesario unnuevo aumento de los paquetes “en circulación” paravolver alcanzar la máxima eficiencia.

Como ya habrá deducido el lector, en el caso de un proto-colo de transporte como TCP las cosas funcionan de unaforma muy parecida:

29

Page 31: Tecnologias Para Las Telecomunicaciones Del Futuro

• La velocidad de la cinta transportadora equivale alancho de banda disponible.

• Los paquetes postales que viajaban por la cinta sonahora paquetes de información que se transmiten porla red.

• Los dos trabajadores que se ocupaban de cargar y des-cargar paquetes al ritmo adecuado son ahora los dosextremos del protocolo TCP (el emisor y el receptor,respectivamente).

• Así mismo, el papel que jugaban los post-it que sedepositaban en la cinta lo desempeñan ahora paque-tes especiales de asentimiento, ACK, que envía elreceptor al emisor para ir confirmando la correctarecepción de paquetes de datos.

• La longitud de la cinta (dependiente de la distanciaentre los edificios) equivale aquí al RTT, que es el tiem-po necesario para transportar un paquete de un extre-mo a otro y que llegue su correspondiente ACK devuelta.

• El número máximo de paquetes “en circulación” sedenomina en TCP “ventana” y, al igual que sucedía enel ejemplo anterior, es un parámetro fundamentalpara su correcto funcionamiento con altas velocida-des.

• El tanteo inicial de la empresa hasta encontrar unnúmero adecuado de paquetes “en circulación”, equi-vale a un procedimiento análogo al que existe en TCP,denominado slow start, por el que se va aumentandogradualmente la ventana (y, con ella, el caudal de laconexión) hasta detectar una situación de saturación.

En definitiva, al igual que sucedía en el ejemplo anterior,nos encontramos con que es necesario que el parámetrode ventana sea el adecuado para que, en las condicionesde RTT que haya en cada momento, TCP pueda aprove-char al máximo el ancho de banda disponible. Así mismo,nos encontramos con que, a causa de este proceso inicialde “tanteo”, la conexión no alcanza su máximo caudalhasta que no ha transcurrido un cierto tiempo, tantomayor cuanto mayor sea la velocidad máxima que puedealcanzarse en la línea.

Como puede intuirse fácilmente, el impacto que estosdos fenómenos tienen en el resultado del test puede lle-gar a ser muy relevante a altas velocidades. A analizarestas implicaciones y los efectos que provocan en algu-nos de los tests de velocidad más populares, dedicaremoslas próximas secciones.

LAS LIMITACIONES DE LA VENTANA (O CÓMOEL SISTEMA OPERATIVO SABOTEA NUESTRAMEDIDA)

Como vimos en el apartado anterior, si TCP sólo enviaseun paquete cada vez y esperase a la llegada de su ACKpara mandar el siguiente, podría llegarse a la paradoja deque el retardo de propagación de ida y vuelta (RTT) seconvirtiera artificialmente en el cuello de botella de latransmisión, en lugar de serlo la propia capacidad delenlace (sólo se enviaría un paquete por cada ciclo de RTT).Por ese motivo, TCP mantiene un número determinadode paquetes “en vuelo” sin haber recibido aún su confir-mación, de manera que es capaz de aprovechar eficiente-mente el enlace. A este número de paquetes “en vuelo” esa lo que se denomina ventana.

El tamaño adecuado de esa ventana se calcula dinámica-mente a lo largo de la conexión, adaptándose al RTT quehaya en cada momento, de manera que en cada ciclo deRTT se manden suficientes paquetes para ocupar elancho de banda disponible (lo que equivale a “llenar lacinta transportadora” en el ejemplo anterior).

Sin embargo, el margen que tiene el protocolo TCP paraadaptar dinámicamente su ventana no es indefinido.Además de las limitaciones que dicte la propia capacidadde la línea, TCP tiene que trabajar de acuerdo a los valo-res máximos de ventana que estén configurados en lossistemas operativos de cada uno de los extremos, demanera que en ningún caso se le permitirá trabajar conuna ventana que supere en tamaño a los valores máxi-mos prefijados en el emisor y el receptor.

De esta forma, una conexión TCP sólo será capaz de apro-vechar al máximo el ancho de banda disponible si ambosextremos tienen una configuración de ventana máximasuficientemente holgada para las condiciones de funcio-namiento. En particular, los tamaños de ventana TCPtanto del extremo receptor como del emisor deben sersuficientes para trabajar con las condiciones de RTT yancho de banda máximo disponible entre los dos extre-mos, teniendo en cuenta que, a mayor RTT, mayor deberáser la ventana para alcanzar una determinada velocidadde descarga, pues se tiene que:

(tal y como sucedía en nuestro símil de la cinta transpor-tadora)

Para comprobar el impacto que esta limitación puedetener en un test de velocidad, consideremos el caso de unusuario con Windows XP que quiere comprobar la veloci-dad de su nuevo acceso xDSL de 30 Mbps usando unmedidor de velocidad. Si tenemos en cuenta que la ven-tana máxima por defecto en Windows XP es de 64 KBytes

TESTS DE VELOCIDAD PARA BANDA ANCHA: LA IMPORTANCIA DE UNA ESTIMACIÓN PRECISA

30

RTTCaudal Ventana

=

Page 32: Tecnologias Para Las Telecomunicaciones Del Futuro

y tomamos como referencia los RTT hacia algunos de lostests de velocidad más populares en España (por ejem-plo, con un ping…), podemos elaborar una tabla como lasiguiente, haciendo una simple división:

Así, tendríamos que si nuestro usuario utilizase el Test Apara medir su velocidad, acabaría descubriendo alarma-do con que éste le estima prácticamente la misma velo-cidad que si tuviera un ADSL convencional, y comenzaríaa preguntarse por qué ha contratado una conexión dealta capacidad si sigue recibiendo lo mismo… Algo pare-cido le sucedería si probara con el Test C durante lanoche, ya que apenas le estimaría 9 Mbps.

Si, finalmente, nuestro usuario descubriera los tests B oD, o una mañana repitiera las pruebas con C, seguiríapensando que el servicio es deficiente (apenas da un 70%de la velocidad contratada), pero que “al menos se estánesforzando en mejorarlo…” Al mismo tiempo, el usuariodescubre extrañado cómo aplicaciones que utilizan másde una conexión TCP al mismo tiempo (p.e. programas deP2P) son capaces de alcanzar velocidades de descargamucho mayores…

Ni qué decir tiene que si uno de estos tests de velocidadrecopilara los resultados de todas sus medidas e hicieraun estudio sobre la velocidad de la banda ancha, podríallegar a la conclusión de que, cuanto mayores son lascapacidades de los accesos, peor es el cumplimiento de lavelocidad contratada… sin que este hecho llegara adetectarse nunca por las operadoras ni por los propiosusuarios en condiciones normales de uso (p.e. utilizandoaplicaciones multi-conexión).

¿Y qué pasaría si los usuarios fueran actualizando sus sis-temas operativos o se las arreglaran para cambiar la con-figuración de su pila TCP para hacerla más eficiente? Puesque aún habría que comprobar si la ventana del servidordel test de velocidad es suficiente para estimar altas velo-cidades. Así, si añadimos a la tabla anterior una estima-ción indirecta de la ventana máxima de cada emisor,podremos estimar la máxima velocidad que puedemedirse en cada caso:

Como puede apreciarse, el Test A seguiría infraestiman-do la capacidad de los accesos de banda ancha, mientrasque los tests B y C andarían muy cerca de los límites delas ofertas más avanzadas de acceso. Sólo el Test D pare-ce tener una configuración holgada de TCP.

Por último, cabría destacar que la notable diferencia en elRTT del Test C entre la mañana y la tarde-noche podríaser un indicador de problemas de saturación en el propioacceso del medidor de velocidad, pues, como puede apre-ciarse en la siguiente figura, los períodos de más RTTcoinciden además con intervalos de abundantes pérdidasde paquetes (representadas en azul):

Una vez analizada la influencia de la configuración deventana máxima en los extremos de la medida, dedicare-mos el próximo post al estudio del otro gran elementoperturbador de estos tests: el crecimiento gradual de laventana.

EL CRECIMIENTO GRADUAL DE LA VENTANA(O CÓMO EL FICHERO DE DESCARGA SE NOSQUEDA PEQUEÑO)

Además de las limitaciones asociadas al tamaño máximoque puede alcanzar la ventana, nos encontramos con laproblemática adicional de que TCP, prudentemente, noempieza la transferencia con el tamaño definitivo de ven-tana. Por el contrario, como ya hacía la empresa depaquetería de nuestro ejemplo, TCP comienza con unaventana de un solo paquete y la va aumentando poco apoco hasta detectar el punto “de saturación”.

En consecuencia, la velocidad de transferencia no será lamáxima posible desde el primer momento, sino que irácreciendo paulatinamente hasta estabilizarse alrededordel ancho de banda disponible. Por tanto, habrá un tramoal principio de cualquier conexión (al que se denomina,“fase de slow start”) en el que el caudal aún no ha alcan-zado la capacidad realmente disponible. Este períodoserá tanto mayor cuanto más alta sea la velocidad finalque deba alcanzarse. Así, este comportamiento “pruden-te”, que es muy adecuado para evitar problemas de con-gestión en la red, supone una dificultad significativa paraestimar la velocidad de un acceso de alta capacidad.

Para entender mejor la importancia del problema, supon-gamos que un piloto de Fórmula g1 quisiera medir la

31

RTT(ms)

Máxima velocidadestimable (Mbps)

TEST ATEST BTEST C (por la mañana)TEST C (por la tarde-noche)TEST D

82

24

24

59

24

6,39

21,85

21,85

8,89

21,85

RTT(ms)

Ventana máxima(KBytes)

TEST ATEST BTEST C (por la mañana)TEST C (por la tarde-noche)TEST D

82

24

24

59

24

64

100

375

375

550

Máxima velocidadestimable (Mbps)

6,39

34,13

128,00

52,07

187,73

Page 33: Tecnologias Para Las Telecomunicaciones Del Futuro

velocidad que su bólido es capaz de obtener en un deter-minado circuito y que, para ello, pidiera que le cronome-trasen el tiempo que tarda en dar 4 vueltas. Si el pilotocomenzara la prueba ya lanzado a su máxima velocidad,podríamos estimar esta velocidad dividiendo la distanciatotal recorrida (4 vueltas al circuito) por el tiempo totalinvertido. Sin embargo, si para evitar problemas con losneumáticos, nuestro piloto decidiera hacer la primeravuelta en 1ª, la siguiente en 2ª, y así sucesivamente, estáclaro que la estimación de velocidad que hemos hechosería totalmente errónea, pues, a la 4ª vuelta aún nohabría llegado, mucho menos, a utilizar la marcha másrápida del vehículo.

Llegados a este punto, nuestro piloto tendría dos solucio-nes posibles:

• Prolongar la prueba lo suficiente para que la inclusióndel período de “calentamiento” acabe por suponer unerror despreciable en la medida.

• Descartar completamente la fase de “calentamiento” ycomenzar a medir cuando estemos seguros de que elcoche está corriendo a su máxima velocidad.

De la misma manera, en un test de velocidad debere-mos garantizar que el período de slow start no afectasignificativamente a la medida, asegurándonos de quela descarga es suficientemente grande para que se lle-gue a la máxima ventana y que esta primera fase de“aceleración” no sesga significativamente la estimación.Desgraciadamente, en los tests que siguen las metodolo-gías habituales, se descarta directamente la segundaopción (excluir el slow start) y se confía exclusivamenteen que la duración de la prueba sea suficiente.

Para hacernos una idea de los órdenes de magnitud, acontinuación se muestran los tamaños de descarga dealgunos de los tests de velocidad más populares enEspaña:

Como puede apreciarse, los Tests A, B y C tienen el mismotamaño de descarga, 7,5 Mbytes (el tamaño típico de untest de Ookla), mientras que el Test D emplea una descar-ga aún más pequeña.

¿Son suficientes estos tamaños de descarga? Para com-probarlo, representaremos la evolución real del caudal deuna conexión TCP en un acceso de 30 Mbps y el resulta-do que se obtiene con un test convencional de velocidad(que sume los bytes totales transferidos y los divida por

la duración de la prueba hasta ese momento). Así mismo,se representará en la misma gráfica el resultado que seobtendría con un test “alternativo” en el que modificáse-mos la metodología que conocemos, para excluir explíci-tamente la fase de slow start.

Como puede apreciarse, en un test de velocidad conven-cional se necesitan varias decenas de Mbytes para esti-mar con cierta precisión el ancho de banda del acceso de30 Mbps. Así, los tests de velocidad A, B y C (7,5 Mbytes)estimarían, en el mejor de los casos, unos 25 Mbps (83%del valor real), mientras que el Test D, apenas llegaría a los20 Mbps (menos del 70%). Así mismo, cabe destacar que,empleando una metodología alternativa que excluyeradirectamente la fase de slow start, sería posible obteneruna estimación bastante precisa con descargas de algomenos de 1 MByte.

CONCLUSIONES

Los tests de velocidad están llamados a jugar un impor-tante papel en la evaluación de la calidad del servicio debanda ancha. Al tradicional rol de “auditores de la bandaancha”, cuyo impacto desborda el ámbito del propio sec-tor TIC y comienza a calar en la opinión pública en gene-ral, se une el posible papel que puedan desarrollar en unfuturo próximo dentro del ámbito regulatorio. Para des-empeñar correctamente estos dos cometidos y que sulabor finalmente se traduzca en la mejora de los serviciosde banda ancha y en el aumento de la transparencia delmercado, es necesario que éstos realicen su cometido conla mayor fiabilidad y precisión.

Sin embargo, después del análisis pormenorizado deestos tests de velocidad y sus metodologías de medida,nos encontramos con que una gran parte de los medido-res actualmente disponibles, aunque siguen siendo ade-cuados para las modalidades tradicionales de acceso, noconsiguen hacer estimaciones fiables de velocidad en losnuevos accesos de alta capacidad. Así, factores como laconfiguración de ventana TCP en el equipo de cliente o enel propio servidor, que conducen a serias limitaciones enla velocidad máxima que puede medirse, siguen sintenerse en cuenta a la hora de contrastar los resultadosde una estimación de velocidad.

TESTS DE VELOCIDAD PARA BANDA ANCHA: LA IMPORTANCIA DE UNA ESTIMACIÓN PRECISA

32

0

5

10

15

20

25

30

35

0 2 4 6 8 10 12 14 16 18 20

Descarga (MBytes)

Ve

loc

ida

d (

Mb

ps

)Caudal real de la conexión Test convencional de velocidad Test de velocidad sin slow start

Tamaño de ladescarga (Mbytes)

TEST ATEST BTEST CTEST D

7,5

7,5

7,5

2

Page 34: Tecnologias Para Las Telecomunicaciones Del Futuro

De la misma manera, problemas latentes en la propiametodología de medida, que permanecían ocultos abajas velocidades, parecen tener ahora un efecto más evi-dente. Tal es el caso de la inclusión sistemática de la fasede slow start de TCP en el cómputo global de la medida,lo que, a altas velocidades, comienza a producir desviacio-nes más que significativas.

A la mejora continuada de estos sistemas de mediciónhabrán de dedicar una buena dosis de atención todos losagentes implicados, de manera que dispongamos losusuarios de medios adecuados para controlar la calidaddel servicio que se nos ofrece, y que esto pueda traducir-se finalmente en una mejora continuada en nuestraexperiencia con la banda ancha.

33

Page 35: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 36: Tecnologias Para Las Telecomunicaciones Del Futuro

TENDENCIAS FUTURAS DE LA TECNOLOGÍA DE FEMTONODOS

Luis Cucala García

Page 37: Tecnologias Para Las Telecomunicaciones Del Futuro

Este breve artículo trata sobre la evolución de los femto-nodos, también conocidos como nodos domésticos. Losfemtonodos y su evolución podrían ser la última expre-sión de la ley de Cooper, que emula a la famosa ley deMoore, y que establece que la capacidad radio, contadacomo número de conexiones radio que se pueden esta-blecer de forma simultánea en una zona determinada, sedobla cada 30 meses, contando desde el año 1895, lo queha supuesto desde entonces un incremento de capaci-dad de un billón de veces (10

12).

El incremento se ha debido a varios factores, como lamejora de las técnicas de modulación, el empleo de mul-tiplexación en frecuencia y tiempo, el uso de anchos debanda mayores, y sobre todo, y con gran diferencia, alreuso del espectro gracias a las arquitecturas celulares.

En este sentido, los femtonodos son el último paso en elproceso subdivisión en células, pues las pequeñas célulasque crean, relativamente aisladas unas de otras gracias alas pérdidas de propagación propias de las casas, permi-ten un nuevo orden de magnitud en el reuso de los recur-sos radio.

QUE ES UN FEMTONODO

Los femtonodos son estaciones base en miniatura, unpoco más grandes que un router WiFi, que se conectan alxDSL o acceso de fibra hasta el hogar y proporcionancobertura radio de banda ancha 3G (hoy) y LTE (mañana)en el domicilio del cliente, y que implementan una arqui-tectura como la que se muestra en la figura 2.

Los femtonodos son ya una realidad que está empezandoa desplegarse en las redes de diferentes operadores, demodo que es el momento de preguntarse sobre su posi-ble evolución y su impacto en el negocio. En su estadoactual, los femtonodos son equipos que permiten darcobertura de interiores donde no la hay, o mejorar la tasade trasmisión de un usuario con una cobertura inicialpobre, ofreciendo los servicios móviles ya existentes.Desde este punto de vista, el femtonodo actual es unasolución de red óptima para el operador, pues le permitellevar la cobertura allí donde falta, con un coste de inver-sión y operación muy bajo, pues el usuario corre con gas-tos que normalmente debería afrontar el operador, comola alimentación, refrigeración, alquiler de emplazamien-to, si bien habrá que hacerlo también atractivo para elcliente ofreciéndole nuevos servicios.

LA EVOLUCIÓN DE LOS FEMTONODOS

El primer paso en la evolución de los femtonodos es el dela estandarización, pues por el momento se implemen-tan soluciones propietarias de los fabricantes (o de losoperadores) que limitan la operación entre diferentessuministradores y pueden limitar la reducción de precios.En este sentido, el organismo de estandarización 3GPPacaba de cerrar el primer paquete completo de especifi-caciones de la denominada Release 8, que incluye unaarquitectura completa orientada al soporte de femtono-dos.

TENDENCIAS FUTURAS DE LA TECNOLOGÍA DE FEMTONODOS

36

Figura 1. Ley de Cooper

Figura 2. Arquitectura de una red de femtonodos

Page 38: Tecnologias Para Las Telecomunicaciones Del Futuro

También se ha llegado a la conclusión que si se desea quelos femtonodos se desplieguen de forma masiva seránecesario incrementar la utilidad que puede percibir elcliente, incluyendo nuevas funcionalidades en el equipo.En este aspecto las tendencias en la industria son varias,como a continuación se describirá.

La tendencia más inmediata es la de añadir alguna inter-faz radio adicional en el femtonodo, típicamente de tipoWiFi, con diferentes grados de coordinación entre la inter-faz móvil y la interfaz WiFi, desde un funcionamientototalmente independiente de ambas, hasta una coordi-nación que permita cursar tráfico entre ellas, enrutadoque podría hacerse en el mismo femtonodo o en la reddel operador, y que permitiría integrar al terminal móvil ya los dispositivos del hogar en la misma red doméstica,soportada en su conjunto por el femtonodo, tal como semuestra en la figura 3.

Por otra parte, a medida que proliferan nuevas interfacesradio que pueden ser de aplicación en un entornodoméstico, se abre la posibilidad de que el femtonodo lasincorpore de forma flexible en el futuro. Una posibilidadque se está planteando es que el femtonodo incorporepequeños módulos insertables, de tipo USB, que el clien-te podría adquirir junto con algún paquete de serviciosdel operador, y que implementarían la interfaz radio adi-cional deseada sin necesidad de cambiar el femtonodocompleto. Este concepto modular se podría ampliar conactualizaciones SW de los módulos, que permitiríanadaptar cada módulo a la evolución del estándar radio.

Otra tendencia en el campo de los femtonodos es la deintegrar no solo interfaces radio adicionales, sino tam-

bién funcionalidades propias de otros equipos, con obje-to de reducir el número de cajas que el cliente debe colo-car en su domicilio. El ejemplo más evidente e inmediatoes el del femtonodo que integra las funcionalidades delmódem/router ADSL, y en el futuro también es probableque aparezcan equipos para fibra que integren la ONT yel femtonodo en una misma caja.

Y en cuanto a la evolución de los estándares de telefoníamóvil y su impacto en los femtonodos, se espera que enun plazo de aproximadamente dos años pueda disponer-se de femtonodos para el estándar LTE (Long TermEvolution) y a más largo plazo para LTE-A (Long TermEvolution - Advanced), que con sus elevadas tasas detransmisión podrían plantearse incluso como sustitutosde la interfaz WiFi en el hogar, y así liberar al operador delos problemas asociados al empleo de bandas de fre-cuencia de uso libre.

CONCLUSIONES

La conclusión de este análisis es que el femtonodo es unequipo que puede incrementar mucho la eficiencia en eluso de los recursos radio, llevando la estación basé allí adonde se necesita, a los domicilios y pequeños negocios,en vez de emplear de emplear una técnica de fuerzabruta para dar cobertura a interiores mediante la emi-sión de potencias elevadas desde estaciones base de tipomacrocelular. Además, el femtonodo tiene el atractivo deque el operador se libera de ciertos gastos de operación.

En la fase actual de desarrollo tecnológico los femtono-dos son soluciones propietarias con limitaciones de inte-roperabilidad, que podrán mitigarse a medida que seimplementen las recientes especificaciones de 3GPP.

Sin embargo, el despliegue masivo de femtonodos debe-rá apoyarse en la voluntad de los clientes para instalarlosen sus domicilios, para lo cual será de gran ayuda que losfemtonodos ofrezcan funcionalidades añadidas a lamera cobertura radio y provisión de servicios ya disponi-bles en la red macrocelular.En el futuro los femtonodos incorporarán alguna interfazradio adicional a la de telefonía móvil, con alguna capaci-dad de operación conjunta entre ellas, y alguna funciona-lidad de interfaz con la red de acceso (módem xDSL uONT). Esto permitirá ofrecer servicios adicionales y redu-cir el número de equipos en casa del cliente, lo que podráser una oportunidad de negocio y un argumento deventa para un operador.

37

Figura 3. El femtonodo como coordinador de la red del cliente

Page 39: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 40: Tecnologias Para Las Telecomunicaciones Del Futuro

IMPLICACIONES DE SEGURIDAD EN EL DESPLIEGUEDE IPv6

Santiago Pérez Iglesias

Page 41: Tecnologias Para Las Telecomunicaciones Del Futuro

PROBLEMAS DE SEGURIDAD COMUNES ENIPv6 E IPv4

Desde un punto de vista de muy alto nivel los problemasy riesgos de IPv6 no son tan diferentes de los de IPv4, yaque ha heredado muchas de sus características. Por lotanto, gran parte de las técnicas de seguridad que se uti-lizan en IPv4, resultan también útiles en IPv6.

Además, dado que la mayoría de administradores deseguridad tienen un conocimiento limitado del nuevoprotocolo, pero poseen años de experiencia en tratar conproblemas de seguridad en redes IPv4 parece apropiadocomenzar por los aspectos comunes a ambos.

Existen varios ataques que son prácticamente idénticosen IPv6 con respecto a su predecesor:

• Sniffing (captura de tráfico)

• Falsificación de dirección IP origen

• Ataques de denegación de servicio

• Ataques dirigidos a las aplicaciones

Captura de tráfico

Los ataques de captura de tráfico (típicamente denomi-nados con el término sniffing) son posibles en una redIPv6. Es cierto que la RFC 2460 exige que todo nodo IPv6debe soportar IPsec, pero eso no significa que todas lascomunicaciones IPv6 deban estar cifradas. En un mundoideal podría imaginarse una Internet en la que las comu-nicaciones entre dos nodos cualesquiera estuviesen pro-tegidas por IPsec. Sin embargo, este escenario no es rea-lista ya que ese despliegue de IPsec de host a host a nivelglobal implicaría un enorme esfuerzo de configuración yuna mayor dificultad para diagnosticar posibles proble-mas de conectividad. Además se necesitaría una infraes-tructura global de confianza por la cual un nodo pudiese

autenticar de forma fiable a cualquier otro nodo con elque quisiera comunicarse: para ello se requeriría intero-perabilidad entre certificados digitales de distintasempresas e incluso de países distintos. En la prácticaIPsec y otras tecnologías de cifrado como SSH o TLS segui-rán teniendo sus escenarios de aplicación sin que laintroducción de IPv6 vaya a suponer un cambio radicalcon respecto a la situación actual. Esto implica que lascomunicaciones no cifradas seguirán siendo la mayoría,de forma que la captura o manipulación del tráfico entránsito seguirá siendo un problema.

Falsificación de dirección IP origen

Si no se hace uso de IPsec el protocolo IPv6, al igual queIPv4, no proporciona ninguna función para garantizar laautenticidad de la dirección IP origen. La falsificación dedirección IP origen es una técnica utilizada con frecuen-cia para hacer creer que los paquetes proceden de un ori-gen legítimo (por ejemplo para simular el envío de men-sajes syslog o un comando de escritura SNMP) o bienpara ocultar el origen de un ataque.

La contramedida más efectiva para luchar contra la falsi-ficación de dirección IP origen consiste en la aplicación defiltrado de entrada en el perímetro de la red. Esta medidaes especialmente importante en los ISPs que deben res-ponsabilizarse para evitar que sus usuarios suplantendirecciones IP que no les pertenecen, siguiendo las direc-trices de la RFC2827. Aunque la RF2827 se refiere única-mente a redes IPv4 es perfectamente aplicable a redesIPv6. Además el control antispoofing basado en la tecno-logía Unicast Reverse Path Forwarding que ofrecen losrouters IPv4 también está disponible en los routers yequipos de acceso IPv6. Por lo tanto, las técnicas dedefensa son idénticas a las utilizadas en redes IPv4 con laventaja de que ya son conocidas por los administradoresde redes y los operadores de ISPs. Un aspecto importantea tener en cuenta es que en IPv4 a cada usuario residen-cial se le asigna típicamente una única dirección IP públi-ca mientras que en IPv6 un usuario dispondrá comomínimo de una subred /64 es decir tendrá una cantidadenorme (2^64) de direcciones IP origen a su disposición.

IMPLICACIONES DE SEGURIDAD EN EL DESPLIEGUE DE IPv6

40

1 http://www.idg.es/macworld/content.asp?idn=87495

IPv6 es la nueva versión del protocolo IP que busca dar una solución al agotamiento delas direcciones IPv4. A pesar de haber sido estandarizado hace ya 11 años, el tráfico IPv6representa de momento sólo una minúscula fracción del tráfico global de Internet:menos del 1%. Sin embargo, el interés en IPv6 está creciendo en los dos últimos años,sobre todo una vez que algunas grandes empresas como Google están apoyandodecididamente su despliegue.1

En este artículo se exponen algunas ideas acerca de las implicaciones de seguridad deIPv6, describiendo tanto aquellos problemas similares a los de las redes IPv4, como losque surgen específicamente con el nuevo protocolo.

Page 42: Tecnologias Para Las Telecomunicaciones Del Futuro

Esto puede ser un factor decisivo en ciertos ataques quese basan en generar tráfico desde multitud de direccio-nes IP origen distintas.

Ataques de denegación de servicio

Los ataques de denegación de Servicio (DoS) que hanafectado durante años a las redes IPv4 afectan igualmen-te a redes IPv6. Este tipo de ataques funcionan del mismomodo en redes IPv6, ya que se basan típicamente en elenvío de una gran cantidad de paquetes IP que agotanlos recursos de la máquina destino o bien saturan lacapacidad de los enlaces intermedios.

En muchas ocasiones los ataques DoS utilizan direccio-nes IP origen falsas, aunque no es una condición impres-cindible. La mayoría de los ataques DoS actuales songenerados por redes de bots (ordenadores conectados aInternet que están comprometidos y que actúan deacuerdo a las ordenes que reciben de un controlador de labotnet), de modo que la organización que controla la redde bots tiene a su disposición la capacidad de proceso y elancho de banda de miles de ordenadores.

A modo de ejemplo, una botnet de 5000 PCs conectadosmediante línea ADSL, suponiendo un ancho de banda desubida medio de 200Kbps, podría generar un ataque de 1Gbps. Más que considerar el volumen de tráfico los ata-ques DoS se suelen cuantificar por el número de paque-tes por segundo. Suponiendo un tamaño de paquete de50 bytes la capacidad de esta botnet sería de 2,5 millonesde paquetes/seg, lo cual es una cantidad muy considera-ble. En las redes IPv6 existirán miles de millones de dispo-sitivos conectados, muchos de los cuales dispondrán demecanismos de seguridad más frágiles que los PCsactuales de modo que los ataques DoS seguirán siendouna amenaza muy relevante.

Ataques dirigidos a las aplicaciones

Es importante recordar que la mayoría de los problemasde seguridad actuales están relacionados con vulnerabi-lidades de aplicaciones. Por lo tanto, el uso de IPv6 nointroduce ninguna diferencia cuando un usuario visitaun sitio web malicioso o si recibe un fichero que explotauna vulnerabilidad en una aplicación ofimática.

ASPECTOS DE SEGURIDAD DIFERENCIALES ENIPv6

Los aspectos de seguridad en IPv6 no siempre son unaréplica de sus equivalentes en IPv4. Al entrar en detalleexisten diferencias importantes entre ambos protocolosque se traducen en implicaciones relevantes desde elpunto de vista de seguridad. En los apartados siguientesse enumeran algunos ejemplos de aspectos de seguridaddiferenciales en IPv6.

Reconocimiento

Típicamente en una red IPv4 la primera fase de un ataqueimplica la obtención de información sobre la red objetivo.Existen muchas aplicaciones dedicadas a esta funcióncomo por ejemplo nmap (http://nmap.org/) o nessus(http://www.nessus.org).

El primer paso es obtener una lista de direcciones IP vivasmediante un ping scan o port scan. Esta operación esmucho más difícil en IPv6 debido al tamaño de las subre-des. En IPv4 el tamaño típico de red es una máscara /24(una red de 256 hosts), mientras que en IPv6 el tamañotípico será una /64 (una red de 2^64 hosts), lo cual impli-ca que se tardarían cientos de años en realizar un esca-neo según el método tradicional. Esto tiene ciertas impli-caciones desde el punto de vista de seguridad: como en lapropagación de los gusanos.

De todos modos los atacantes acabarán encontrandotécnicas alternativas. Una técnica posible es enviar unaconsulta a las direcciones multicast y esperar la respues-ta para identificar los hosts activos en la misma LAN,como hace la herramienta alive6 (vale la pena echar unvistazo al conjunto de herramientas de hacking disponi-bles en http://freeworld.thc.org/thc-ipv6/). Otras alter-nativas son la consulta de la tabla de neighbor cache (elequivalente a la tabla ARP) en un router comprometidode la red así como el compromiso de servidores DNSinternos para obtener la lista de hosts conocidos. Esta esuna de las razones por las que es previsible que los servi-dores DNS serán objeto de más ataques en las redes IPv6.

Manipulación de cabeceras

En la RFC2460 se define el formato de la cabecera IPv6.Dicha cabecera se muestra en la Tabla 1.

41

Tabla 1. Comparativa de las cabeceras IPv4 e IPv6

Campos de IPv4que desaparecen

Nuevos camposde IPv6

Page 43: Tecnologias Para Las Telecomunicaciones Del Futuro

Lo primero que llama la atención es que la cabecera IPv6es más simple que la de IPv4. Han desaparecido algunoscampos y otros se han desplazado a las cabeceras deextensión.

Una de las ventajas del nuevo formato de cabecera esque es más fácil de procesar por los routers: los campostienen fronteras de 32 bits y a diferencia de IPv4 no hayque recalcular el checksum de IP en cada router interme-dio. Sin embargo, esta mejora en las prestaciones no estan importante para los cortafuegos, los IDS y en generalcualquier dispositivo que deba analizar los paquetes IPv6desde un punto de vista de seguridad. Esto es debido a lacomplejidad de analizar todas las posibles cabeceras deextensión que pueden aparecer en un paquete IPv6. Dehecho, el procesado que se requiere para el filtrado depaquetes IPv6 es difícil de realizar en hardware con elconsiguiente impacto sobre las prestaciones.

La flexibilidad que proporcionan las cabeceras de exten-sión con sus múltiples opciones y campos de longitudvariable constituyen una posible fuente de problemas. Esposible generar paquetes IPv6 con muchas cabeceras deextensión anidadas o bien con cabeceras realmente lar-gas con el fin de consumir los recursos de los cortafuegoso IDS y provocar así una denegación de servicio.

Otro aspecto a tener en cuenta es que se puede jugar conel orden en el que aparecen las cabeceras de extensiónpara forzar un error en aquellos dispositivos que no esténpreparados para tratar paquetes mal formateados.

Al igual que en IPv4 algunas opciones de la cabecera sepueden aprovechar con fines maliciosos: un ejemplo quese menciona típicamente en IPv6 es la cabecera de rou-ting. En realidad están definidos dos tipos: tipo 0 que essimilar al concepto de source routing en IPv4 y tipo 2 quese utiliza en Mobile IPv6. Desde hace años se conoce quela opción de source routing de IPv4 permite que unpaquete siga un camino controlado por el atacante, locual abre muchas posibilidades de abuso como alcanzardispositivos detrás de un NAT. Por esta razón la mayoríade las redes IPv4 están configuradas para descartarpaquetes con la opción IP source routing. De igual formaen los routers IPv6 existe un comando equivalente paradescartar los paquetes que incluyen la cabecera de rou-ting tipo 0. Finalmente en diciembre de 2007 y, puestoque esta opción no tenía ningún uso legítimo, se publicóla RFC 5095 según la cual los routers deben ignorar estetipo de cabeceras.

Es curioso que aunque el estándar IPv6 data de 1998,algunos aspectos importantes del protocolo han sufridocambios recientes como el del párrafo anterior a finalesde 2007 o cambios importantes en el direccionamientode IPv6 en 2006 (RFC 4291). De hecho, esta relativa ines-tabilidad en los estándares IPv6 es una de las críticas querecibe este protocolo. Esto implica que no todas lasimplementaciones IPv6 de los fabricantes de equipos

han tenido en cuenta los cambios más recientes en losestándares. Desde el punto de vista de seguridad estoimplica que las implementaciones de IPv6 van a necesi-tar algunos años para alcanzar una madurez equivalentea la de IPv4. Como resultado es conveniente ser conscien-te de que aparecerán vulnerabilidades de seguridad deri-vadas de implementaciones incorrectas de la pila IPv6.

Ataques a los mecanismos de autoconfiguraciónIPv6

En IPv6 está definido un mecanismo para la autoconfigu-ración de los nodos de una red local sin necesidad de unservidor DHCP. Este mecanismo no incorpora autentica-ción de forma que un usuario malicioso conectado en lamisma red local puede suplantar al router por defectopara interceptar el tráfico. Además el protocolo NDP(Neighbor Discovery Protocol) que es el equivalente al pro-tocolo ARP en la pila IPv4 está expuesto a los mismos pro-blemas de seguridad como por ejemplo envenenamientode la tabla caché de vecinos. Algunas de las herramientasde hacking de THC (http://freeworld.thc.org/thc-ipv6/)están pensadas específicamente para que un usuariomalicioso conectado en una LAN pueda interceptar tráfi-co o lanzar ataques DoS para impedir la asignación auto-mática de dirección IP.

Para contrarrestar estos problemas se diseñó SEND(SEcure Neighbor Discovery) que utiliza criptografía declave pública para seleccionar la dirección IPv6, para pro-teger la integridad de los mensajes NDP y autenticar a losrouters legítimos de la red local. Además del impactosobre las prestaciones de SEND, un inconveniente impor-tante es que su soporte es muy limitado: por ejemplo noestá soportado en ninguna versión de Windows.

Riesgos de la doble pila IPv4/IPv6

El protocolo IPv6 convivirá durante años con el protocoloIPv4. Por lo tanto, se prevé que durante ese periodo detransición la mayoría de nodos incluirán soporte de doblepila (en inglés dual stack), es decir que serán accesiblestanto a través de protocolo IPv4 como a través de proto-colo IPv6.

La mayoría de sistemas operativos actuales incluyensoporte de doble pila, incluso en los más recientes comoWindows Vista, Solaris 10 o las últimas versiones de ker-nel de Linux están activados por defecto ambos protoco-los, de modo que será imprescindible tener medidas deprotección equivalentes en IPv4 e IPv6. Esto es importan-te ya que los atacantes intentarán sacar provecho de lavisibilidad simultánea mediante ambos protocolos: porejemplo un gusano-bot podría descubrir equipos vecinosen una red local mediante escaneo IPv4 y utilizar IPv6para comunicarse con equipos externos a la red local.

Un host puede comunicarse mediante IPv6 incluso aun-que esté conectado a una red local sin soporte IPv6, es

IMPLICACIONES DE SEGURIDAD EN EL DESPLIEGUE DE IPv6

42

Page 44: Tecnologias Para Las Telecomunicaciones Del Futuro

decir sin ningún router que enrute paquetes IPv6. Esto esdebido a que existe una amplia variedad de tipos detúneles para soportar transporte de IPv6 sobre redesIPv4. Algunos ejemplos de túneles dinámicos son ISATAP(RFC5214), 6to4 (RFC3056) y Teredo (RFC4380).

De los tres el más interesante es el túnel Teredo ya quefunciona incluso en ordenadores que están conectados aInternet a través de un router con función NAT. Si no exis-te conectividad IPv6 nativa y han fallado las conexionesISATAP/6to4 entonces se activa Teredo que intenta poner-se en contacto con unos servidores Teredo disponible enInternet con el nombre teredo.ipv6.microsoft.commediante protocolo UDP/3544. Una vez establecido eltúnel el PC tendrá conectividad con toda la InternetIPv6.2

Un riesgo de los túneles de este tipo es que pueden atra-vesar transparentemente cortafuegos y filtros corporati-vos sin que el administrador de la red sea consciente dedicho tráfico. A veces ni siquiera el propietario de lamáquina es consciente de esta funcionalidad. Comoejemplo existe un malware llamado Rbot.AXS que habili-ta el soporte de IPv6 en Windows, abre un túnel IPv6 y secomunica con un servidor IRC IPv6 para recibir órdenes.3

Una opción posible para los administradores de redes esprohibir completamente el uso de este tipo de túneles.Por ejemplo bloqueando los paquetes con puerto UDP3544 para impedir el uso de Teredo. Sin embargo, la situa-ción se complica cuando exista algún caso de uso legíti-mo de un túnel IPv6: en ese caso lo ideal sería disponerde cortafuegos con capacidad de inspeccionar el tráficoIPv6 entunelado.

Mayor exposición de los nodos IPv6

Una de las ventajas de IPv6 es que proporciona conectivi-dad transparente extremo a extremo a todos los nodosya que la disponibilidad casi ilimitada de direcciones IPhace innecesario el uso de NAT. Actualmente la mayoríade clientes ADSL acceden a Internet a través de un routercon función NAT de modo que se pueden conectarmuchos dispositivos detrás del router que utiliza unaúnica dirección IPv4 pública. Esta configuración con NATproporciona una funcionalidad de seguridad muy básicaya que impide las conexiones no solicitadas entrantesdesde Internet. Esta “invisibilidad” de los equipos detrásdel NAT es una ventaja para evitar la propagación degusanos o ataques directos a servicios vulnerables en losequipos internos.

Cuando los clientes residenciales tengan soporte IPv6nativo se asignará a cada cliente una subred /64 comomínimo de forma que todos los equipos de cliente dis-pondrán de una dirección IP pública. Es cierto que los PCsdispondrán de cortafuegos personal que bloqueará lasconexiones entrantes. Sin embargo, existirán muchosotros dispositivos en la red del hogar: PDAs, discos durosmultimedia, consolas de juegos, electrodomésticos queno dispondrán de cortafuegos y por ello estarán expues-tos a ataques desde Internet. Por esta razón los routersADSL con soporte IPv6 deberán disponer de un cortafue-gos configurado por defecto para bloquear las conexio-nes entrantes. Con esa configuración si el usuario quiereconectarse desde Internet a su lavadora no podría hacer-lo directamente, aunque una solución posible seríaconectarse mediante un túnel IPsec hasta su routerADSL.

En estas páginas se han descrito, sin afán de ser exhaus-tivos, algunas de las particularidades de IPv6 desde elpunto de vista de seguridad. La seguridad de IPv6 es uncampo extraordinariamente amplio y que recibirá mayoratención en el futuro conforme avance el despliegue deeste protocolo. Para finalizar se proponen algunas refe-rencias para los lectores que deseen profundizar en estamateria.

REFERENCIAS

1 Convery, Sea and Darrin Miller. IPv6 and IPv4 ThreatComparison and Best-Practice Evaluation. CiscoSystems Technical Report March 2004.http://www.cisco.com/security_services/ciag/docu-ments/v6-v4-threats.pdf

2 Scott Hogg and Eric Vyncke. IPv6 Security. Cisco Press.2009. http://www.amazon.com/IPv6-Security-Scott-Hogg/dp/1587055945/

3 Warfield, Michael. Security Implications of IPv6Whitepaper. Internet Security Systems, 2003.http://documents.iss.net/whitepapers/IPv6.pdf

4 Hoagland, J. "The Teredo Protocol: Tunneling PastNetwork Security and Other Security Implications",Symantec, 2006. http://www.symantec.com/avcen-ter/reference/Teredo_Security.pdf

5 2009 Google IPv6 conference.https://sites.google.com/site/ipv6implementors/conference2009/agenda

6 Eric Vyncke. IPv6 Security Best Practices. CiscoSystems. 2007. http://www.cisco.com/web/SG/lear-ning/ipv6_seminar/files/02Eric_Vyncke_Security_Best_Practices.pdf

7 Lista de RFCs relacionadas con IPv6.http://www.ipv6tf.org/index.php?page=using/stan-dardization/rfcs

43

2 "The Teredo Protocol: Tunneling Past Network Security andOther Security Implications"http://www.symantec.com/avcenter/reference/Teredo_Security.pdf

3 Scott Hogg and Eric Vyncke. IPv6 Security. Cisco Press. 2009.Pag 285

Page 45: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 46: Tecnologias Para Las Telecomunicaciones Del Futuro

COMUNICACIONES Y SERVICIOS EN EL AUTOMÓVILHABILITADOS POR LA OPERADORA

Iván Lequerica

Page 47: Tecnologias Para Las Telecomunicaciones Del Futuro

COMUNICACIONES Y SERVICIOS EN ELENTORNO VEHICULAR

La diversidad de servicios TICs susceptibles de ser desple-gados en el entorno del automóvil ha provocado quetanto la industria como comunidad científica trabajeactualmente de forma intensa en comunicaciones entrevehículos (V2V) y entre estos y la infraestructura (V2I).Estos servicios se pueden clasificar en cuatro grandesbloques:

1. Seguridad vial. Aquellos servicios destinados a mejo-rar la seguridad, evitando accidentes o disminuyendosus consecuencias si ya se han producido. Ejemplostípicos de esta categoría son el envío de alertas trasdetectar un peligro en la calzada, el “collision avoidan-ce” o el servicio eCALL que tras un accidente envía a uncentro de emergencias, toda la información disponiblesobre el mismo, a la vez que establece una comunica-ción vocal.

2. Eficiencia en el tráfico. Aquellos servicios orientados aoptimizar el uso de las vías, evitando situaciones decongestión y facilitando el acceso a los vehículos deemergencias.

3. Infotainment. Relacionados con la información y elentretenimiento para conductor y pasajeros, comoreproducción de contenidos multimedia, acceso anoticias, servicios de navegación avanzada, serviciosofimáticos, compartición de ruta, redes sociales en elvehículo, etc.

4. M2M. Esta categoría engloba aquellos servicios en losque su funcionamiento no implica la interacciónhumana, como los relacionados con el pago deimpuestos o seguros dependiendo del uso (conocidos

como “Pay as you drive”) monitorizando la forma deconducción y la huella ecológica de los conductores, lagestión de flotas, el diagnóstico remoto, sistemas anti-rrobo y localización de vehículos, control de la docu-mentación electrónica del vehículo/conductor deforma remota, etc.

Información más detallada sobre los diferentes serviciosse puede encontrar en [1].

Inicialmente muchos de los actores del sector, principal-mente OEMs, impulsaron que dichos servicios se cursa-ran través de comunicaciones Ad-Hoc entre vehículos yelementos de la vía, lo que se conoce como redes vehicu-lares Ad-Hoc (VANETs en sus siglas en inglés). De hecho,se diseñó expresamente la tecnología inalámbrica WAVE(recogida en el estándar IEEE 802.11p) para optimizar laoperativa de las capas física y MAC en este entorno.

Una red VANET está compuesta por un conjunto de vehí-culos equipados con unidades embarcadas (OBUs) yequipos en la Vía (RSUs) que se comunican de formainalámbrica. Los nodos de una VANET pueden encaminartráfico a más de un salto, ya que están pensadas paradiseminar de forma eficiente información relacionadacon la seguridad del tráfico.

Tras el análisis de los escenarios vehiculares (topologíavariable en el tiempo, gran cantidad de nodos en movi-miento, velocidades elevadas, diferentes y muy variablesdensidades de nodos, etc.) y los requisitos del amplio con-junto de servicios (tiempo real, alta disponibilidad, bandaancha, bajo retardo, bajo jitter, soporte multicast, etc) seconcluyó que es imposible cursar de forma efectivadichos servicios a través únicamente de redes VANET. Adía de hoy la práctica totalidad de proyectos, organizacio-nes y grupos de estandarización trabajan en un sistema

COMUNICACIONES Y SERVICIOS EN EL AUTOMÓVIL HABILITADOS POR LA OPERADORA

46

Los Sistemas Inteligentes de transporte (ITS) y más concretamente los servicios en elentorno del automóvil, también conocidos como vehiculares, están experimentando ungran auge en los últimos años. La optimización del transporte por carretera, haciéndolomás seguro, eficiente y sostenible se ha convertido en una prioridad para lasautoridades, la industria y la comunidad científica. A pesar del gran esfuerzo paraproveer comunicaciones en el entorno vehicular, son muy escasos los despliegues realesque proporcionen comunicación entre vehículos (V2V) y entre estos y las vías (V2I). Unode los principales motivos de este retraso es que inicialmente se diseñaron comocomunicaciones Ad-hoc puras entre vehículos y elementos de la vía. El coste deldespliegue de equipos en la vía, la baja penetración de estos sistemas en vehículos y losprevisibles problemas de seguridad de estas redes están siendo los mayoresimpedimentos actualmente.

En el presente artículo se pretende mostrar el potencial de redes y capacidades de laoperadora en estos entornos, tanto como habilitadores de comunicaciones de grancalidad como provisión de funcionalidades avanzadas para los servicios.

Page 48: Tecnologias Para Las Telecomunicaciones Del Futuro

de comunicaciones híbrido con redes VANET y redesmóviles de la operadora, típicamente 3G. De esta forma,se asegura la disponibilidad de red en cualquier situacióny permiten el despliegue de servicios incluso con bajastasas de penetración.

La arquitectura de referencia CALM [2] estandarizada porISO en la que se están basando las implementaciones desistemas de comunicaciones vehiculares ya tiene encuenta el uso de diferentes tecnologías de acceso que losservicios podrán usar de forma dinámica atendiendo a lasituación de cada una de ellas y las necesidades de QoS.Para ilustrar estos esquemas de funcionamiento ponga-mos un ejemplo; un servicio puede estar comunicandopor videoconferencia dos vehículos a través de la VANETy en el momento en que se alejan y se pierde la conecti-vidad AdHoc, el sistema ejecuta un handover vertical deforma transparente para los usuarios (manteniendo lasesión) a la tecnología celular 3G.

Además de como canal de comunicaciones de altas pres-taciones, el uso de redes móviles de la operadora se hademostrado [3] que puede ser usado de forma eficientepara el envío de mensajes en amplias áreas geográficas amúltiples usuarios con retardos inferiores a 500ms. Estees simplemente un ejemplo del potencial de las capaci-dades.

Con este punto de partida, el objetivo de este artículo esmostrar la relevancia de las capacidades de la operadoraen el entorno del automóvil. Para lo cual en las siguientessecciones, se explicarán las arquitecturas de nueva gene-ración, se detallarán algunas de las capacidades más rele-vantes y se analizarán los posibles usos de dichas capaci-dades en comunicaciones y servicios vehiculares.

ARQUITECTURAS DE NUEVA GENERACIÓN YCAPACIDADES DE LA OPERADORA

Definimos capacidad (o enabler) como aquella funciona-lidad en la infraestructura del operador que enriquece losservicios y aplicaciones reduciendo la complejidad de sulógica. Estas capacidades permiten a los servicios delegartareas comunes como autenticación, localización y simi-lares a la infraestructura de red a través de interfacesbien definidos y protocolos estándar.

Organismos de estandarización como 3GPP, LibertyAlliance y OMA definen un grupo de enablers de gran uti-lidad para mejorar las comunicaciones y los servicios enmovilidad.

La base de muchos de los enablers más relevantes es ladenominada Next Generation Network (NGN) y en con-creto el subsistema IP Multimedia Subsystem (IMS) [4].NGN se diseñó para reemplazar a la red de telefonía con-mutada (PSTN) de cara a optimizar los recursos de la ope-radora y ofertar servicios multimedia avanzados basadosen tecnología IP. IMS, estandarizado por 3GPP, gestiona el

control, el acceso y el despliegue de los servicios en estaarquitectura. Este subsistema puede ser usado sobrecualquier red de acceso basado en el protocolo IP, inde-pendientemente de la tecnología.

Otras arquitecturas relevantes como OMA ServiceEnvironment, OSA/Parlay y Liberty Alliance han definidoespecificaciones y recomendaciones para integrar susenablers con NGN.

Cabe destacar el nuevo paradigma denominado NextGeneration Intelligent Network (NGIN), que une los con-ceptos de NGN e IN (Intelligent Network). NGIN estádiseñada para superar las limitaciones de las tradiciona-les redes inteligentes de las operadoras; múltiples solu-ciones verticales no basadas en estándares, muy orienta-das a servicios de voz y cerradas. Con NGIN se pretendereducir la complejidad y proporcionar flexibilidad de caraa cubrir los requisitos de los actuales y futuros serviciosavanzados.

Queda fuera del objetivo del artículo profundizar en lasdiferentes arquitecturas de nueva generación y subsiste-mas. Centraremos el trabajo en la descripción de algunascapacidades de operadora relevantes que, integradas, endichas arquitecturas, enriquecerán los aspectos de comu-nicación y los servicios en el entorno del automóvil. Paracada categoría aportaremos una visión general de la fun-cionalidad, la tecnología que subyace así como el meca-nismo de estandarización.

Servidor de Localización

Un servidor de localización se caracteriza por obtenerperiódicamente la posición de los terminales a través dela red y ofrecer esta información a los servicios a través deinterfaces estándar.

OMA trabaja en mecanismos y protocolos para obtenerla localización de los nodos a través de del canal de datosde los usuarios. Con este objetivo han diseñado SecureUser Plane Location (SUPL) que permite a los terminalesmóviles reportar su posición a través de canales de datossobre conexiones IP en lugar de la tradicional señaliza-ción SS7. SUPL está diseñado para habilitar actualizacio-nes rápidas de la posición con bajos consumos de recur-sos de operadora. Esta solución aísla el envío de la infor-mación de la técnica de localización empleada, si bien lamás extendida actualmente es el uso de un receptor GPS.

3GPP trabaja en técnicas de localización sobre canales deseñalización que puedan ser utilizadas en GSM y redescelulares 3G. Se basan en obtener el identificador de lasceldas con las que el terminal es capaz de comunicarseen cada momento y relacionar su posición con el áreacubierta por las estaciones base. La precisión se puedeaumentar con medidas de potencia y retardo entre laestación base y el terminal. Estos mecanismos presentanuna precisión menor que aquellos que utilizan el canal de

47

Page 49: Tecnologias Para Las Telecomunicaciones Del Futuro

datos pero a cambio, no consumen ancho de banda des-tinado a los servicios del usuario, ni necesitan más hard-ware que el de la interfaz celular.

Multicast/broadcast de contenidos avanzados

Esta capacidad permite a los servicios el envío de conte-nidos avanzados (por ejemplo archivos multimedia ostreaming) a múltiples usuarios. Hay varios organismosde estandarización trabajando en el área [5] pero vamosa centrarnos en aquel con mayor impacto actualmente:Multimedia Broadcast Multicast Service (MBMS) [6]estandarizado por 3GPP.

MBMS es un servicio de broadcast que puede operarsobre las actuales redes celulares GSM y 3G. La soluciónde broadcasting basada en MBMS es flexible, eficiente yde bajo coste. Flexible ya que puede ser configurado paraque use solo una parte de la portadora, dejando el resto aotros servicios. Eficiente ya que la transmisión radio esindependiente del número de nodos suscritos en unacelda. El coste de implementación es razonablementebajo ya que únicamente introduce cambios menores alas redes y terminales existentes.

MBMS adapta el modelo IP Multicast a redes celulares.Los datos son enviados haciendo uso de direcciones IPmulticast, que están asociadas a los diferentes flujos delservicio. Los terminales se subscriben a la dirección IPmulticast de aquellos servicios en los que están interesa-dos usando el protocolo Internet Group ManagementProtocol (IGMP).

MBMS permite a los operadores definir zonas geográfi-cas para sus servicios de broadcast y/o multicast con unanotable granularidad, hasta los rangos de coberturas delas celdas, que en escenarios urbanos con micro y picoceldas, pueden ser del orden de decenas de metros.

Provedor de identidad

Los servicios necesitan la autenticación de usuarios paraun funcionamiento seguro, pero no es necesario quetodos los atributos asociados a la identidad de un usua-rio sean enviados a todos los proveedores de servicios. Poresto, es interesante la idea de delegar la gestión de iden-tidad a una entidad de confianza provista por el operador.Este elemento, llamado Identity Provider (IdP) y estanda-rizado por Liberty Alliance es capaz de autenticar a losusuarios y progresar el resultado de dicha operación a losservicios sin exponer todos los atributos de identidad alos proveedores del servicio, únicamente los necesarios.

Mediante esta capacidad, la operativa de los servicios sesimplifica y la identidad real de los usuarios se protege.También mejora la experiencia de usuario ya que no esnecesario autenticarse contra todos los servicios, sinouna única vez contra el proveedor de identidad. Este con-cepto, conocido como Single Sign On permite utilizardiferentes mecanismos de autenticación (usuario/con-traseña, certificados digitales, basados en SIM, biométri-cos, etc), permitiendo a los servicios elegir el más idóneoacorde a sus necesidades.

Características de terminal

Definido por los grupos OSA/Parlay y 3GPP, la principalfuncionalidad de esta capacidad es proveer las caracterís-ticas de los terminales a los servicios autorizados que asílo requieran.

Para obtener información sobre el hardware y softwaredel terminal, los servicios interrogan a la capacidad con elidentificador del terminal. La información incluye, entreotros, soporte multimedia, tecnologías de comunicación,versión de firmware, fabricante, modelo, etc. Estos atribu-tos se proveen mediante una estructura denominadaComposite Capability/Preference Profiles (CC/PP) y se

COMUNICACIONES Y SERVICIOS EN EL AUTOMÓVIL HABILITADOS POR LA OPERADORA

48

Capacidades Comunicaciones vehiculares Servicios vehiculares

Servidor deLocalización

Obtención de información relevante para losprotocolos de encaminamiento (densidad devehículos, posiciones, predicciones demovilidad, etc)

Gestión de flotas, gestión de tráficoavanzado por autoridades (p.e.distribución del tráfico para evitaratascos)

Broadcast/Multicastde contenidosavanzados

Envío de información en tiempo real a losvehículos en un área geográfica para optimizarel encaminamiento (p.e. informando de lasituación de los gateways en la vía) y aspectosde seguridad (p.e. listas de revocación decertificados)

Diseminación de información crítica(p.e avisos de seguridad vial ocongestión) así como meteorológica oincluso publicidad de los servicios deun área concreta.

Característicasde terminal

Recogida de información de interfaces de reddisponibles, direcciones IP, rutas estimadas delvehículo para el encaminamiento, etc.

Control en remoto de la documentaciónobligatoria (seguro, inspección técnica,permiso de circulación, etc) ydiagnostico on line de averías.

Proveedor deidentidad

Generación de identidades de red ypseudónimos para el vehículo habilitandocontrol de acceso, autenticación, privacidad,no repudio y confidencialidad.

Peajes electrónicos seguros, recogidade información crítica sobre lospasajeros tras un accidente, etc.

Tabla 1. Aplicaciones de las capacidades del operador en el entorno vehicular

Page 50: Tecnologias Para Las Telecomunicaciones Del Futuro

puede adaptar a las necesidades de los servicios en diver-sos escenarios. Adicionalmente, la capacidad tambiéndispone de una funcionalidad de subscripción mediantela cual un servicio será notificado si alguna de las carac-terísticas de los terminales varía.

APLICABILIDAD DE LAS CAPACIDADES DEOPERADORA EN EL ENTORNO VEHICULAR

Tanto los mecanismos de networking (comunicación)como los servicios en el entorno vehicular pueden bene-ficiarse de forma muy significativa del uso de las princi-pales capacidades de la operadora. Algunos de los másimportantes problemas para el despliegue de redesVANET en escenarios reales relativos a aspectos de segu-ridad [7] y de encaminamiento [8] pueden ser soluciona-dos mediante las capacidades descritas anteriormente.

En la Tabla 1 resumimos mediante ejemplos representati-vos el modo mediante el cual las capacidades puedenproveer valor añadido y solucionar problemas en comuni-caciones y servicios vehiculares

CONCLUSIONES

El uso de las redes de telecomunicación móviles 3G en losentornos vehiculares es algo extendido gracias a susamplias coberturas, elevados anchos de banda y fiabili-dad. Sin embargo, hasta la fecha no se han explotado lasmúltiples capacidades provistas por el operador.Tras ana-lizar algunas de las más interesantes, se concluye que,tanto para las comunicaciones como para los servicios, elpotencial de esta línea de trabajo en el campo ITS esenorme.

La comunidad científica y la industria pueden beneficiar-se de sistemas vehiculares basados en redes y capacida-des de la operadora que solucionarán gran parte de los

problemas actuales, permitiendo despliegues de comu-nicaciones y servicios en carretera de forma inmediata aun coste relativamente bajo y superando la limitación dela tasa de penetración de las redes VANET.

REFERENCIAS

[1] C. Pinart, I. Lequerica, I. Barona, P. Sanz, D. García, D.Sánchez-Aparisi, “DRIVE: a reconfigurable testbed foradvanced vehicular services and communications”,1st Workshop on Experimental Evaluation andDeployment Experiences on Vehicular networks(WEEDEV), in Proc. TRIDENTCOM’08. Innsbruck(Austria), March 2008.

[2] ISO/DIS 21217, “Intelligent transport systems-Communications access for land mobiles (CALM)-Architecture”, 2006.

[3] Y. Zang, B. Walke, S. Sories, G. Gehlen, "Towards aEuropean Solution for Networked Cars-Integrationof Car-to-Car Technology into Cellular Systems forVehicular Communication in Europe", in IV FullyNetworked Car Workshop, Geneva, Switzerland,March 2009, pp. 14.

[4] 3GPP TS 23.228, “IP Multimedia Subsystem (IMS);Stage 2”, (Release 8)(SA2)

[5] M. Bakhuizen, U. Horn, “Mobile Broadcast/Multicastin Mobile Networks,” Ericsson Review,Vol. 82 no.1,2005, pp. 6-13.

[6] 3GPP TS 22.246, “Multimedia Broadcast/MulticastServices (MBMS): User Services; Stage 1”.

[7] M. Raya, J.P. Hubaux, “Securing vehicular ad hoc net-works,” Journal of Computer Security, Vol. 15 , no 1,January 2007, pp. 39-68.

[8] V. Cabrera, F.J. Ros, P.M. Ruiz, "Simulation-based Studyof Common Issues in VANET Routing Protocols," inproc. IEEE 69th Vehicular Technology Conference(VTC2009-Spring), Barcelona, Spain, April 26-29,2009, pp. 1-5.

49

Page 51: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 52: Tecnologias Para Las Telecomunicaciones Del Futuro

MAINFRAMES AND OPEN SERVERS: “AN APPLES TOORANGE COMPARATION”

Javier Chamorro

Luis Villarrubia

Page 53: Tecnologias Para Las Telecomunicaciones Del Futuro

El análisis general de estos dos sistemas va en línea de loque ya el propio IBM concluía en la década de finales de1990 y principios de 2000, cuando los open serversempezaron a ofrecer soluciones más competitivas y elmainframe empezó a perder cuota de mercado. El main-frame constituía un modelo propietario y ‘cerrado’ con unCAPEX alto y unos costes de O&M elevados que ademásimplicaba una clara dependencia del suministrador. En ellado opuesto, surgieron las soluciones abiertas (OpenServers) con un CAPEX y OPEX inferior, una gestión mássencilla y barata, y sin dependencia de un suministradorconcreto (commodity servers).

Sin embargo, actualmente se percibe un cierto movi-miento de IBM para reimpulsar el posicionamiento delmainframe (Maket Trends 2008 - SMart Enterprise [1]). Eneste articulo se menciona la mejora que ha habido en losúltimos tres años de la relación coste/MIPS, consumoenergético y apertura del mainframe. Este último puntoposibilita la convivencia del mainframe con el mundo delos servers e intenta paliar uno de los graves problemasque padece. Esto podría interpretarse como una estrate-gia de IBM por intentar conservar el actual mercado demainframes mientras intenta canalizar el crecimientodel mercado en la gama de volume servers con sus solu-ciones alternativas en x86 y power.

No obstante, según este mismo artículo, el mainframetodavía padece de puntos débiles frente a sus competi-dores, especialmente en cuanto a la dependencia de pro-veedor (dificultad para lanzar procesos de compras víasubasta, vendor lock-in para negociación de renovaciónde soportes, licencias, ampliaciones, …), la viabilidad de unecosistema suficiente de partners tecnológicos en tornoal mainframe (ISVs, …), y el alto coste/dificultad paraencontrar profesionales en este entorno (con medias deedad de 55 años para programadores y administradores).

Debido a esto, el mercado del mainframe sigue disminu-yendo (System z disminuye sus ventas el 6% según datosde la propia IBM [2]). En el artículo de HP The Real Storyabout IBM Mainframes versus Standards, apoyado enestudios de consultoras independientes, se puedenencontrar datos adicionales sobre carencias de los main-frames frente a sus competidores en su mercado naturalde High-End, (HP Nov. 08 [3]).

En cifras, el whitepaper de Robert Frances Group –Business Advisors to IT Executives, muestra una compa-rativa entre un sistema SAP sobre mainframe frente a unentorno HP/x86 y Windows [4].

Los resultados muestran que el sistema abierto permiteun ahorro de un 70%, contemplando los costes de hw, sw,facilities, mantenimiento, personal, electricidad (alimen-tación y refrigeración) e incluso los costes de la migraciónde SAP desde mainframe a HP/Intel. El sistema abiertoconsume un 59% menos de energía y ocupa un 48%menos de espacio.

La consultora concluye que si bien para determinadosescenarios como pueden ser los entornos de aplicacionespropietarias legacy los mainframe están justificadosdebido al alto coste de migración, para buena parte delresto de las casuísticas, las nuevas posibilidades de vir-tualización y gestión optimizada de recursos de los servi-dores abiertos superan al mainframe.

Otro factor que estaría afectando a las ventas de main-frame viene del hecho de que buena parte del crecimien-to del mercado de servidores se está concentrando en lasgamas de volume servers y midrange servers frente a losHigh-End servers como refleja la figura 1.

Esta tendencia viene de la mano del fuerte impacto que

MAINFRAMES AND OPEN SERVERS: “AN APPLES TO ORANGE COMPARATION”

52

Figura 1. Datos de ventas de servidores y base instalada a nivel mundial

Page 54: Tecnologias Para Las Telecomunicaciones Del Futuro

está teniendo como palanca de disminución de los costesla adopción de Linux (donde el mainframe aún lleva des-ventaja) y las tecnologías de virtualización y cloud com-puting en los servidores abiertos. Las predicciones a cortoy medio plazo de los principales analistas de mercadoparecen acentuar aún más este escenario:

• Linux. Ovum (Maketstudie Feb. 2008): “The market forLinux will grow from $2,4 billon in 2007 to $ 7,7 billon in2012” [5].

• Virtualización:

o Gartner. Business Innovation in 2009-2013: “Formost IT organizations, virtualization is a “run thebusiness” value proposition, reducing risk and costand improving business system uptime”.

o Gartner: “Worldwide Virtualisation SoftwareRevenue to Increase 43 Per Cent in 2009” [6].

o Forrester's IT Infrastructure & Operations Forum2008 [7].

• Cloud Computing. IDC 2009 ICT Predictions [8].

Desde una perspectiva global, los datos actuales reflejanclaramente una pérdida de posición de IBM en el merca-do mundial de servidores con respecto a su competidorprincipal HP, ver la figura 2 [9].

Algunas referencias en la industria de estos movimientosson:

• Google: más de 20.000 servidores Intel con Linux [10].

• eBay: “hundreds or thousands of volume servers. Inessence, our infrastructure is already a form of grid” [11].

• Facebook: “now running 10,000 volume servers, inclu-ding 1,800 MySQL servers” [12].

• MS Azure:“Dell says its Data Center Solutions division isproviding the server and storage hardware poweringAzure Microsoft’s cloud services platform” [13].

• Colt: [one of Europe’s largest fixed line Telco]. Caso deéxito de implantación de virtualización sobre Sparc[14].

• La Caixa: Los terminales de las sucursales (~7000sucursales) han sido pasados de Mainframe (propieta-rio) a clientes virtualizados sobre Intel (VDI) : Razones:Coste alto de Mainframe y robustez actual de los sis-temas abiertos

• Caja Madrid: Caso de éxito de referencia de virtualiza-ción en entorno x86/Windows [15].

• Unión Fenosa: ha migrado de mainframe a sistemasabiertos todos sus sistemas excepto la BBDD

• Ministerio de Trabajo: La plataforma de correo corpo-rativa ha pasado a x86 virtualizado.

• Aena: El sistema de gestión de navegación aérea hapasado a un sistema abierto virtualizado

Haciendo una reflexión sobre la tendencia de evolución,el entorno actual parece favorable a los servidores abier-tos aunque se experimenta un ligero intento por relanzarlos mainframes y hacerlos convivir con los servidoresabiertos. La situación actual económica en la que desdefinales del 2008 se ha experimentado una caída clara enel mercado de los servidores y de cambios tecnológicosindican que durante el año actual y próximos años, sepodría experimentar un punto de inflexión en el merca-do en el que se decidiese una clara consolidación de unatecnología frente a la otra.

La nueva generación de mainframe está intentandoluchar por romper las barreras aunque frente a un entor-no abierto de colaboración para los Open Servers (en elque un gran número de empresas, fabricantes, ISVs,

53

60%

50%

40%

30%

20%

10%

0%

Q107 Q207 Q307 Q407 Q108 Q208 Q308

45.5%

31.8%

22.9%

54.7%

HPIBMDellSunFujitsu/F-S

Figura 2. Mercado de servidores por fabricantes (Fuente IDC Server Tracker CQ308)

Page 55: Tecnologias Para Las Telecomunicaciones Del Futuro

comunidades, etc. invierten y contribuyen al desarrollo)las probabilidades de éxito parecen limitadas, máximecuando las nuevas tendencias como los S.O abiertos(Linux) y el software libre, junto con el entorno de reduc-ción de CAPEX y OPEX debilitan claramente la ventaja delmainframe. La virtualización, que fue una de las clavespara el éxito del mainframe, cada vez más está dejandode ser una ventaja debido a que se está implantando ensistemas abiertos. La convergencia del mundo internetcon el mundo Telco tampoco favorece al mainframe,donde players tan relevantes como Google se basan ensoluciones de volume servers.

El reto es ver si el mainframe en este difícil entorno va aser capaz de seguir mejorando lo suficiente para vencerlos obstáculos y convertirse en el nuevo “Ave Fénix” oseguirá como una solución de nicho.

REFERENCIAS

[1] http://w w w.smar tenterpr isemag .com/ar t i -cles/2008winter/markettrends.jhtml

[2] http://www.ibm.com/investor/4q08/presenta-tion/4q08prepared.pdf

[3] http://h71028.www7.hp.com/ERC/cache/618681-0-0- 0121.html?ERL=true&jumpid=reg_R1002_USEN

[4]. http://download.microsoft.com/download/3/8/a/38aba79c-9a99-4a42-9f30-4fe8e4ed22d7/RFG_BreakingThePowerDeadlock.pdf

[5] http://www.estudio-mercado.es/estudios/open-source-market-forecast-linux-p-19790.html

[6] http://www.gartner.com/it/page.jsp?id=883312[7] http://www.forrester.com/events/eventdetail?

eventID=2372[8] http://www.pressreleasepoint.com/idc-2009-ict-

predictions-pockets-opportunity-still-available-ven-dors-willing-adapt

[9] http://www.communities.hp.com/online/blogs/eye-onblades/archive/2009/01/27/has-anyone-seen-a-mainframe.aspx?jumpid=reg_R1002_USEN

[10 http://google.dirson.com/tecnologia.php[11] http://www.datacenterknowledge.com/archi-

ves/2008/07/29/ebays-infrastructure-and-cloudy-ambitions

[12] http://www.datacenterknowledge.com/archi-ves/2008/04/23/facebook-now-running-10000-web-servers/

[13] http://www.datacenterknowledge.com/archi-ves/2008/10/28/dell-our-servers-will-power-win-dows-azure

[14] http://www.sun.com/customers/software/colt.xml[15] http://www.microsoft.com/virtualization/cases-

tudy-cajamadrid.mspx

MAINFRAMES AND OPEN SERVERS: “AN APPLES TO ORANGE COMPARATION”

54

Page 56: Tecnologias Para Las Telecomunicaciones Del Futuro

55

Page 57: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 58: Tecnologias Para Las Telecomunicaciones Del Futuro

ANÁLISIS Y EXPLOTACIÓN DE INFORMACIÓN NOESTRUCTURADA CON TÉCNICAS DE LINGÜÍSTICACOMPUTACIONAL Y TEXT MINING1

José Antonio Quiles

1 El análisis general de estos dos sistemas va en línea de lo que ya el propio IBM concluía en la década de finales de 1990 y principiosde 2000, cuando los open servers empezaron a ofrecer soluciones más competitivas y el mainframe empezó a perder cuota de mer-cado. El mainframe constituía un modelo propietario y ‘cerrado’ con un CAPEX alto y unos costes de O&M elevados que ademásimplicaba una clara dependencia del suministrador. En el lado opuesto, surgieron las soluciones abiertas (Open Servers) con unCAPEX y OPEX inferior, una gestión más sencilla y barata, y sin dependencia de un suministrador concreto (commodity servers).

Page 59: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

La era de la información ha permitido el acceso casi ins-tantáneo a grandes cantidades de datos. La proliferaciónde documentos en la Web, en intranets corporativas, encanales de noticias, correos electrónicos… llega a ser ago-biante. Sin embargo, aunque la cantidad de informacióndisponible se está incrementando constantemente,nuestra capacidad de absorber y procesar esos datos per-manece constante. Los motores de búsqueda paradójica-mente han agravado el problema permitiéndonos acce-der a más y más documentos con unas pocas palabrasclave. "Estamos ahogándonos en la información, pero nosestamos muriendo de hambre por el conocimiento",Mani Shabrang [1].

Text mining es un área de investigación que intentaresolver el problema de la sobrecarga de información uti-lizando técnicas como data mining (DM), machine lear-ning (ML), natural language processing (NLP), informa-tion retrieval (IR) y knowledge management (KM).

En este artículo se van a describir algunos de los recursosy técnicas disponibles actualmente para procesamientode información no estructurada a nivel de documentoindividual (lingüística computacional) y a nivel de colec-ción de documentos o corpus (text mining).

TÉCNICAS DE PROCESADO DEL LENGUAJENATURAL

El procesamiento de lenguaje natural se hace en etapasque procesan los distintos niveles que aparecen en uncorpus de documentos: carácter, palabra, sentencia,documento, corpus.

A continuación se describen estas etapas agrupándolasen procesamiento de documentos, extracción de signifi-cado y procesamiento de corpus.

Técnicas para procesado del documento

Las técnicas de procesamiento del documento van desdeel procesamiento más básico a nivel de carácter hasta elprocesamiento de cada una de las sentencias que com-ponen el texto del documento. Estas etapas son:

1. normalización y tokenización a nivel de carácter;

2. corrección ortográfica, PoS tagging, lematización y eli-minación de palabras, a nivel de palabra;

3. detección de n-gramas que actúa a nivel de sentencia.

La normalización es un procesamiento básico y sencilloque convierte todo el texto a minúsculas. La tokenización

ANÁLISIS Y EXPLOTACIÓN DE INFORMACIÓN NO ESTRUCTURADA CON TÉCNICAS DELINGÜÍSTICA COMPUTACIONAL Y TEXT MINING

58

El gran volumen de información que nos llega o al que tenemos acceso hace que losprocedimientos automáticos de procesamiento de información no estructurada esténadquiriendo una importancia cada vez mayor en el ámbito de los sistemas deinformación. En este artículo se hace en primer lugar un repaso por las técnicas delingüística computacional para el análisis de texto que permitirán analizar sucontenido sintáctica e incluso semánticamente. Una vez analizado un documento, esnecesario conocer las técnicas que permiten extraer información de un corpus dedocumentos. Para ello, se hace un repaso de los principales algoritmos de aprendizajeutilizados con información estructurada en data mining, para después ver suaplicabilidad al caso de información no estructurada (text mining), donde el primerproblema que surge es la necesidad de reducción de dimensiones antes de suaplicación al texto. Se verá cómo aplicar los algoritmos de clasificación y clustering adocumentos de texto. Por último, se indican posibles campos de aplicación de estastécnicas en situaciones donde ya se ha probado su beneficio y en otras propuestasdonde se podría mejorar notablemente la eficiencia.

Page 60: Tecnologias Para Las Telecomunicaciones Del Futuro

consiste en separar las distintas palabras que componenel texto. En otros idiomas distintos del inglés o del espa-ñol, la normalización y la tokenización podrían llegar aser mucho más complejas.

La corrección ortográfica es algo que por desgracia esnecesario realizar en muchos textos, sobre todo en aqué-llos que provienen de la escritura online (muy típica enWeb 2.0) donde los usuarios escriben directamente sinningún tipo de revisión posterior.

Una vez que tenemos todas las palabras del texto identi-ficadas y con una ortografía correcta, el siguiente paso esidentificar la función sintáctica de cada una de esas pala-bras. A este proceso se le denomina Part of Speech tag-ging, conocido como PoS. Se trata de etiquetar cada unade las palabras con su función basándose en la definiciónde la palabra y en su contexto (relación con las palabrasadyacentes). Se suelen distinguir las siguientes etiquetas:nombre, verbo, adjetivo, preposición, pronombre, adver-bio, conjunción e interjección.

Uno de los procesos más interesantes a nivel de palabraes la lematización, también conocida como extracción deraíces o morfemas. Éste es un proceso complejo querequiere la utilización de diccionarios, pero además,requiere de una etapa previa de etiquetado PoS. A conti-nuación se muestra un ejemplo de una frase etiquetadacon PoS y con los lemas:

Frase original:

Por el tiempo que han tardado.

Frase procesada:

Por/PREP/por el/ART/el tiempo/NC/tiempo que/CQUE/que han/VHfin/haber tardado/VLadj/tardar ./FS/.

Para terminar el procesado a nivel de palabra se sueleneliminar las palabras que no dan mucha informaciónsobre el texto. Se conoce a esta etapa como stop word fil-tering. Para esta tarea se pueden utilizar listas de pala-bras para el idioma considerado, o bien, se puede realizaruna eliminación algo más sofisticada basada en el eti-quetado PoS, eliminando por ejemplo las preposiciones,conjunciones, interjecciones y artículos.

Por último, puede ser importante como paso previo a laextracción de significado (ver apartado siguiente) detec-tar grupos de palabras que aparecen habitualmente jun-tas en un texto. Cuando detectamos dos palabras queaparecen juntas en un texto con una frecuencia suficien-te, hablamos de bigramas; en el caso de tres palabras,hablamos de trigramas; en general, hablaremos de n-gra-mas. Los n-gramas son muy útiles para detectar nombrescompletos de personas por ejemplo.

Técnicas para extracción de significado en uncontexto

Extraer información útil a partir de cualquier tipo detexto sobre cualquier temática es algo que, hoy por hoy,sólo pueden realizar de forma completamente correctalos humanos. Sin embargo, si nos limitamos a texto den-tro de un dominio o contexto específicos, entonces lasituación es mucho más abordable. En estos casos, lasolución pasa por la utilización de bases de datos léxicas(LDB) que modelan los conceptos y relaciones entre ellos.Estas LDB se conocen también como sublenguaje, ya quepermiten modelar un subconjunto del lenguaje global.Por otro lado, el reconocimiento de entidades dentro deltexto puede permitir obtener mucha información estruc-turada sobre éste, tal como fechas, nombres, cantidades,porcentajes, ciudades, etc. Por último, las técnicas de sus-titución de pronombres nos van a permitir asociar pro-nombres con entidades (personas, cosas, etc.), lo cualmejorará notablemente la comprensión del texto.

WordNet [2] es una iniciativa open source muy ambiciosaque trata de modelar todos los conceptos que existen enla lengua inglesa mediante una LDB. Sin embargo, aun-que el grado de completitud es muy alto (y se actualizacontinuamente), no puede abarcar todos los conceptosexistentes en la vida real y mucho menos los conceptosde un contexto específico.

WordNet no es un diccionario. Se trata de algo más. Esuna base de datos de conceptos, cada uno de los cualestiene un conjunto de palabras asociado (sinónimos), sudefinición y ejemplos de uso. Hay que tener en cuentaque una misma palabra puede estar relacionada convarios conceptos (palabras polisémicas). Además, los con-ceptos están relacionados entre sí con relaciones de hipo-nimia (es una clase de), meronimia (se compone de), etc.

Siguiendo este metamodelo, podemos construir elsublenguaje adecuado para nuestro contexto. Se tratade crear los conceptos propios de nuestro contexto, asícomo las palabras utilizadas para cada concepto. Seríauna extensión de WordNet, y los nuevos conceptospodrían hacer referencia a los conceptos existentes enWordNet.

59

Page 61: Tecnologias Para Las Telecomunicaciones Del Futuro

Una LDB puede utilizarse para:

• calcular la distancia semántica entre dos conceptos

• encontrar conceptos similares (que hereden de unmismo concepto base)

• desambiguar semánticamente las palabras polisémi-cas

• detectar sinónimos

Como se ha dicho, además de LDB, disponemos de otrastécnicas para extraer significado a partir de texto noestructurado. Quizás la más utilizada sea Named EntityRecognition (NER). Las técnicas de NER nos permitenlocalizar elementos especiales dentro del texto: nombresde personas, organizaciones, lugares, fechas, cantidades,horas, etc. NER se basa fundamentalmente en listas deentidades y en búsqueda de patrones (habitualmenteutilizando expresiones regulares).

Por último, el proceso de sustitución de pronombres(muy relacionado con NER) se encarga de identificar losnombres asociados a los pronombres. Por ejemplo, consi-deremos el texto:

TÉCNICAS PARA ANÁLISIS DE CORPUS DEDOCUMENTOS

Las técnicas descritas hasta aquí se pueden denominargenéricamente técnicas de lingüística computacional. Eneste apartado se van a describir otras técnicas que proce-san múltiples documentos en conjunto (corpus).Comencemos con los algoritmos genéricos de aprendiza-je que se utilizan en data mining, para ver después cómoaplicarlos sobre información no estructurada.

Algoritmos de aprendizaje genéricos: data mining

Los algoritmos de aprendizaje analizan datos para descu-brir patrones y construir modelos que permitan hacerpredicciones sobre datos nuevos. Un algoritmo de apren-dizaje necesita datos para aprender y descubrir patrones.Estos datos tienen una serie de atributos que pueden sernuméricos, ordinales (discretos con ordenación) o nomi-nales (discretos sin ordenación). En cualquiera de loscasos, los datos se pueden visualizar como puntos en unespacio n-dimensional, donde cada atributo es unadimensión, y los posibles valores de los atributos puedenser continuos o discretos.

El aprendizaje puede ser supervisado o no supervisado[3]:

• en aprendizaje supervisado tenemos unos datos deentrenamiento; el algoritmo construye un modelomatemático que puede predecir un atributo descono-cido para un dato. Cuando el atributo a predecir esordinal o nominal, el algoritmo se conoce como clasi-ficador. Cuando el atributo a predecir es numérico, elalgoritmo se conoce como regresión.

• en aprendizaje no supervisado no existe un atributo apredecir, simplemente se analiza un conjunto de datospara formar clusters (grupos de datos similares).

Los algoritmos de clasificación asignan a cada dato deentrada un grupo de entre una serie de grupos predefini-dos. Algoritmos de clasificación:

• árbol de decisión

• clasificadores de Bayes (Naïve Bayes)

• support vector machines (SVM)

Los algoritmos de regresión asignan un valor de salida aun valor desconocido de un atributo del dato de entrada.Se pueden aplicar dos tipos de redes neuronales pararegresión:

• redes neuronales MLP (multi-layer perceptron)

• redes neuronales RBF (radial basis functions)

Los algoritmos de clustering intentan extraer caracterís-ticas comunes a una serie de datos y los agrupa en con-juntos no conocidos a priori. Algoritmos de clustering:

• k-means

• clustering jerárquico

• clustering basado en densidad

APLICACIÓN DE ALGORITMOS DEAPRENDIZAJE AL TEXTO: TEXT MINING

Text mining consiste en una colección de métodos y algo-ritmos cuyo objetivo es encontrar patrones y crear inteli-gencia a partir de datos de texto no estructurado [4]. Losalgoritmos de Text mining parten de los resultados de lastécnicas de lingüística computacional y de los algoritmosde data mining, ambos descritos en los apartados ante-riores.

Los desafíos que surgen cuando se intenta analizar y pro-cesar texto automáticamente vienen de varios frentes: 1)hay que elegir la estructura de datos (atributos) con la

ANÁLISIS Y EXPLOTACIÓN DE INFORMACIÓN NO ESTRUCTURADA CON TÉCNICAS DELINGÜÍSTICA COMPUTACIONAL Y TEXT MINING

60

Page 62: Tecnologias Para Las Telecomunicaciones Del Futuro

que representaremos un texto; 2) hay que encontrar unalgoritmo de aprendizaje cuyos resultados tengan unacalidad adecuada para el problema concreto al que nosenfrentamos; y 3) hay que tratar problemas de rendi-miento asociados a los algoritmos debido al gran volu-men de información a tratar y sobre todo al gran núme-ro de dimensiones que aparecen.

La forma más directa de representar un texto para aplicarlos algoritmos de aprendizaje es la conocida como bolsade palabras, esto es, se representa un texto como un vec-tor donde cada palabra (distinta) que aparece en el textoes una dimensión. El valor de cada dimensión puede defi-nirse según los siguientes criterios:

• 0/1 en función de si aparece o no la palabra

• Frecuencia de la palabra en el texto

• Tf-idf: frecuencia de la palabra en el texto multiplica-da por la inversa de la frecuencia de la palabra en elresto de documentos

En cuanto a los algoritmos, nos centraremos en la clasifi-cación y en el clustering. Para aplicar estos algoritmos enprimer lugar es necesaria una reducción de la dimensióndel vector de palabras, ya que esta puede alcanzar lasdecenas de miles. En primer lugar, es necesario un filtra-do por stop words y después una lematización, la cualreduce el número de palabras distintas. Pero son necesa-rios métodos de reducción mucho más agresivos paraque los algoritmos de aprendizaje puedan aplicarse conun rendimiento adecuado, y sobre todo, porque utilizan-do demasiadas dimensiones podría ocurrir el efecto deoverfitting (muy conocido en estadística cuando se usandemasiados parámetros para modelar).

Los objetivos de la reducción de dimensiones son mante-ner (o incluso aumentar) la eficiencia del algoritmo, redu-cir el tiempo de aprendizaje y el de clasificación. Estosmétodos eliminan una serie de términos del texto que noson necesarios para el resultado final. Se suelen emplearlos siguientes criterios:

• Descartar los términos con menor frecuencia en eldocumento

• Descartar los términos con menor ganancia de infor-mación (términos que menos aportan para que undocumento pertenezca a una categoría)

Una vez reducido el número de atributos que definen untexto, podemos aplicar los algoritmos de aprendizajeautomático como si fueran datos tabulares. Veamoscómo aplicarlos a los problemas de clasificación y cluste-ring.

Algoritmos de clasificación

Los algoritmos de clasificación de documentos definenuna serie de clases a priori y son entrenados con docu-mentos clasificados manualmente por expertos en eldominio, creando así un modelo matemático que permi-tirá clasificar otros documentos sin etiquetar dentro deestos grupos predefinidos.

Para aplicar clasificación a un conjunto de textos, necesi-tamos considerar los siguientes asuntos:

• hay que decidir las categorías que se utilizarán paraclasificar las instancias

• tenemos que proporcionar un conjunto de instanciasde entrenamiento (un consejo experimental es utilizaral menos 30 instancias de muestra para cada catego-ría)

• hay que decidir los atributos o términos que represen-tan a las instancias (se suele empezar utilizando ungran número de atributos, y luego ir eliminando sinpérdida de calidad en los resultados)

• por último, hay que decidir el algoritmo de clasifica-ción a utilizar

Una vez tengamos los resultados del algoritmo, tendre-mos que evaluarlos. Debido a que el problema de la clasi-ficación de texto no se puede definir de forma matemá-tica u objetiva, casi siempre será necesario realizar unacomparación con los resultados esperados sobre un con-junto de documentos etiquetados de test que no se utili-zaron para el entrenamiento del clasificador.

Algoritmos de clustering

Los algoritmos de clustering intentan descubrir agrupa-ciones en una colección de documentos no etiquetados.El problema es agrupar los documentos en clusters signi-ficativos sin ninguna información a priori. Los problemasde clustering son, en esencia, problemas de optimización.El problema es elegir de entre todas las agrupacionesposibles de instancias la mejor.

Necesitamos una función de similitud que nos digacómo de parecidos son dos documentos. Esta funcióntoma dos documentos y produce un número real que esuna medida de la proximidad entre ellos. Para podermedir la similitud, esta función tiene que ser capaz decomparar la estructura interna de los dos textos. Paraello, necesitaremos los atributos más importantes (pro-blema que ya vimos cuando se describieron la represen-tación y la reducción de atributos en el texto). En el casode análisis de datos se suelen utilizar métricas de simili-tud como la distancia Euclídea o la distancia de

61

Page 63: Tecnologias Para Las Telecomunicaciones Del Futuro

Minkowski [7]. Sin embargo, para el caso de textos, sesuele utilizar el coseno del ángulo que forman los vecto-res de los documentos (producto escalar).

Los algoritmos de clustering se pueden clasificar en lassiguientes variantes:

• planos: producen grupos disjuntos

• jerárquicos: producen grupos anidados jerárquica-mente

Cada una de estas variantes puede ser además:

• hard: cada instancia pertenece a uno y sólo un grupo

• soft: cada instancia pertenece con una determinadaprobabilidad a varios grupos

En general, un problema de clustering es un problemacomputacionalmente muy duro. Si tenemos n elementosy k clusters, habría que evaluar kn / k! posible particiones.

Para evaluar los resultados obtenidos en un algoritmo declustering no existen procedimientos automáticos quesean totalmente fiables. La mejor medida de la calidad deun algoritmo de clustering la puede decidir la aplicacióna la que van destinados los grupos extraídos. Hay quepreparar un conjunto de pruebas y comparar los resulta-dos esperados manualmente con los resultados que haproducido el algoritmo.

Hasta aquí hemos visto las distintas técnicas de procesa-do de texto para diferentes casos y para diferentes nive-les de procesamiento. Ahora vamos a aplicar estas técni-cas a una situación con una necesidad real debido a laabrumadora cantidad de información disponible quehace muy difícil y muy caro (tanto en tiempo como enrecursos) su procesamiento y clasificación.

APLICACIONES Y PROPUESTAS

Las técnicas de lingüística computacional y text miningse han venido aplicando desde finales de los 90’s endiversas aplicaciones reales. A continuación se enumeranalgunas de ellas:

• Clasificación y organización de correos electrónicos [8]y filtrado de correo basura [9]

• Clasificación de textos por género [10] y detección deautoría [11]

• Clasificación automática de páginas Web [12]

• Biomedicina [13]

• Localización de nuevos conceptos [14]

Dentro del Grupo Telefónica un ejemplo de aplicaciónque tiene mucho interés es el tratamiento de las encues-tas satisfacción que la Dirección de Calidad realiza a losclientes del grupo. Estas encuestas contienen preguntascon respuesta cerrada y otras preguntas donde el encues-tado puede expresarse de forma libre (preguntas abier-tas).

Las respuestas abiertas de las encuestas de satisfaccióntienen las siguientes características:

• son textos cortos (una o dos frases)

• no los escribe directamente el usuario, sino los opera-dores que realizan las entrevistas

• contienen muchos errores ortográficos (fundamental-mente tildes) y gramaticales

• utilizan abreviaturas y acrónimos con bastante fre-cuencia

• se realizan unas 100.000 encuestas al año

En este caso, se propone aplicar un preprocesado lingüís-tico que incluya corrección ortográfica, etiquetado PoS,lematización, clasificación utilizando como entrenamien-to encuestas etiquetadas manualmente en años anterio-res y clustering de las encuestas que no se puedan clasi-ficar para sacar a la luz nuevos conceptos y grupos de res-puestas.

CONCLUSIONES

Las técnicas de lingüística computacional y de textmining han estado en proceso de investigación en labo-ratorios y universidades durante los últimos años. Sinembargo, los avances y sobre todo el abaratamiento delos recursos hardware (CPU y memoria fundamental-mente), han sacado estas técnicas del cajón donde esta-ban olvidadas para empezar a ofrecer los primeros resul-tados en procesamiento de lenguaje natural. Quizásestamos todavía dando los primeros pasos y debamosconformarnos con unos resultados que no tienen todavíaa día de hoy la calidad esperada y deseada. Sin embargo,algunas de las técnicas sí están muy perfeccionadas, ysirven como base para otras técnicas que todavía estánen proceso de maduración, y que se prevé que a medioplazo estén suficientemente maduras como para reducirla intervención humana a un nivel muy pequeño o casinulo. En la lengua inglesa ya se están consiguiendo unosresultados que permiten confiar en ello. En la lenguaespañola tenemos abierto un amplio campo de investi-gación donde empezar a conseguir los primeros resulta-dos.

Tal y como está el estado del arte a día de hoy, podemosconcluir que:

ANÁLISIS Y EXPLOTACIÓN DE INFORMACIÓN NO ESTRUCTURADA CON TÉCNICAS DELINGÜÍSTICA COMPUTACIONAL Y TEXT MINING

62

Page 64: Tecnologias Para Las Telecomunicaciones Del Futuro

• el dominio de aplicación es amplio e importante dadala proliferación de documentos en formato digital quese genera cada día

• en muchas aplicaciones la cantidad y extensión de losdocumentos a manejar hace imposible el tratamientomanual

• se puede mejorar espectacularmente la productividaden áreas donde no sea imprescindible la decisión finalhumana

• se han alcanzado unos niveles de efectividad compa-rables con el procesamiento manual (téngase encuenta también que el procesamiento manual, al sersubjetivo, no siempre puede ser calificado de perfecto)

• el esfuerzo de entrenamiento y construcción de dic-cionarios previos a cualquier tarea de este tipo sepuede ver compensada a muy corto plazo

REFERENCIAS

[1] Robb D. "Text mining tools take on unstructureddata", Computer World, June 2004

[2] "WordNet. A lexical database for the English langua-ge" http://wordnet.princeton.edu/

[3] Alag S., "Collective intelligence in action", ManningPublications, 2009

[4] Feldman R, Sanger J. "The Text Mining Handbook.Advances approaches in Analyzing UnstructuredData", Cambridge University Press, 2007

[5] Francis L.A., "Taming Text: An introduction to TextMining",http://www.casact .org/pubs/forum/06w fo-rum/06w55.pdf

[6] "Text information retrieval, mining and exploitation",http://www.stanford.edu/class/cs276b/2003/han-douts/lecture5.ppt, 2003

[7] "Distance" http://en.wikipedia.org/wiki/Distance[8] Segal R. et al “An intelligent assistant for organizing

e-mail, 1999[9] Sahami M. et al “A bayesian approach to filtering

junk e-mail”, 1998[10] Kessler B. et al. “Automatic detection of text genre”,

1997[11] Forsyth R. et al. “New directions en text categoriza-

tion”, 1999[12] Chakrabarti S. “Mining the web. Discovering kno-

wledge from hypertext data”, 2003[13] “PubGene” http://www.pubgene.org/[14] Drewes B. “Some Industrial Applications of Text

Mining”, Springer, 2006

63

Page 65: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 66: Tecnologias Para Las Telecomunicaciones Del Futuro

ENTERPRISE MASHUPS, CONCEPTO Y USO

Eduardo Villoslada de la Torre

Page 67: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

La Web 2.0, concepto introducido por Tim O'reilly en2004, agrupa una forma de entender la Web centrada enlas personas, favoreciendo la participación de los usua-rios, la relación entre ellos y la generación de contenidosde una forma colaborativa (web social) (Taivalsaari yMikkonen 2008). En este contexto, hay autores que inclu-yen los mashups como una de las partes de la Web 2.0,más aún cuando las tecnologías que en buena medida seutilizan para la creación de mashups están asociadas a laWeb 2.0.

El término mashup fue acuñado originalmente porFreelance Hellraiser para identificar la creación de unasola canción como resultado de la combinación de variascomposiciones musicales y siguiendo la analogía se utili-za mashup en el ámbito del software para representar lacreación de una aplicación como resultado de la combi-nación de varias (Murugesan 2007), persiguiendo que elconjunto se adapte mejor a los potenciales usuarios(Makki y Sangtan 2008). Esta definición, siendo ampliacomo es, cobija diferentes visiones de acuerdo a la inter-pretación que se da a la manera de llevar a cabo la “com-binación”.

TIPOS DE MASHUPS

Tratándose de un término reciente, el concepto de mas-hup no tiene un consenso completo entre los distintosautores; es posible que uno de los enfoques más ampliossea el que distingue los siguientes tipos de mashups(Maximilien, Ranabahu y Gomadam 2008), en funcióndel nivel en el que se realiza la composición:

• los mashups de datos tienen como objetivo la genera-ción de una fuente de datos a partir de la combinaciónde distintas fuentes de datos.

• los mashups de procesos tienen como objetivo lageneración de un nuevo proceso como composiciónde otros procesos.

• los mashups de interfaz de usuario o web mashupstienen como objetivo la combinación de diferentescomponentes de presentación en una única interfaz;por ejemplo la presentación que se logra en un portal

de gadgets, como iGoogle1 o Netvibes2, en que cadapieza de visualización es servida desde distintos oríge-nes, o aún más interesante es que exista cierta coordi-nación entre los distintos componentes visuales, quelos módulos visuales interactúen entre sí y respondana eventos unos de otros: esto último es lo que se haceen Housing Maps3, uno de los primeros mashups quese crearon, que presenta geolocalizados haciendo usode la API de Google Maps los anuncios de alquiler yventa de casas de CraigsList4. En este sentido, es dedestacar que un gran número de mashups se apoyanen la geolocalización de los elementos de interés.

BASE TECNOLÓGICA

Independientemente de la tipología, una idea funda-mental en la que se basan los mashups es la de reutiliza-ción del software, ya sean fuentes de datos o de compo-nentes visuales (Taivalsaari y Mikkonen 2008): no se tratade una idea nueva, sino la aplicación de la misma en uncontexto tecnológico determinado.

Por tanto, para encontrar uno de los motivos por el que lacreación de mashups ha aumentado de forma considera-ble en los últimos tiempos, hay que recurrir a la informa-ción que almacenan los directorios de mashups, comoProgrammableWeb5, que hace referencia al aumento delas fuentes de información y APIs públicas: en diciembrede 2008 guardaba información acerca de 3540 mashupsy 1061 APIs.

Una API es una interfaz a través de la cual una aplicaciónexpone funcionalidad permitiendo responder a las peti-ciones que realicen otras aplicaciones (Murugesan 2007),facilitando el intercambio de datos entre ellas; para elloes deseable que las APIs sean sencillas y estén bien docu-mentadas.

ProgrammableWeb clasifica cada API por el protocolo oestilo de invocación que es necesario utilizar para la acce-der a dicha API, y por el formato de los datos intercambia-dos. Analizando dichos datos se observa cómo la mayorparte de las APIs recogidas en el directorio utilizan REST

ENTERPRISE MASHUPS, CONCEPTO Y USO

66

1 http://www.google.es/ig2 http://www.netvibes.com/3 http://www.housingmaps.com4 http://www.craigslist.org5 http://www.programmableweb.com

En general el término “mashup” se refiere a la creación de una aplicación como lacombinación de datos o funcionalidades procedentes de distintas fuentes. El presenteartículo hace un repaso de la historia reciente de los “mashups”, presentando distintosmodelos y herramientas propuestos desde distintos ámbitos y comenta su aplicacióndentro del ámbito empresarial.

Page 68: Tecnologias Para Las Telecomunicaciones Del Futuro

como estilo de invocación (60 %), y entre REST y SOAP sonmás del 80 %. En cuanto al formato de los mensajes quese intercambian, pasa algo parecido: la mayor parte utili-zan XML (64 %) y entre XML y JSON también cubren másdel 80 %.

Todos estos datos son solo una referencia, pero cadausuario que quiera realizar un mashup determinadodeberá manejar la tecnología que proporciona los datosconcretos que necesita. Siendo un directorio relevante, noincluye todas las posibilidades tecnológicas para la crea-ción de mashups, sino solo las que utilizan APIs definidos:por ejemplo, no incluye la posibilidad de extraer la infor-mación de las páginas generales, lo que se denominascreen scraping y en donde se han desarrollado herra-mientas como OpenKapow6 que analizando la estructu-ra de las páginas, un usuario puede aplicar algoritmospara la generación de una nueva fuente de datos por latransformación una página web cualquiera.

ARQUITECTURAS

De la misma forma que cada autor define el concepto demashup de forma diferente, la forma de llevarlo a cabotambién presenta distintos enfoques, desde aproxima-

ciones particulares seguidos por usuarios experimenta-dos (con altos conocimientos técnicos) a las propuestasde arquitecturas más formales de otros autores, con unenfoque más bien teórico.

Una primera opción habitual de agregación de conteni-dos es la de realizar el mashup en el servidor Web (figura1(a)) (Zou y Pavlovski 2007): el servidor Web genera unapágina HTML a partir de varios contenidos que ha recogi-do previamente y la envía al navegador, que simplemen-te la muestra. Otro enfoque es la realización del mashupdesde el navegador (figura 1(b)), utilizando invocacionesjavascript al servidor con AJAX, donde el servidor actúacomo proxy.

Otra propuesta diferente se muestra en la figura 2 (Yu,Benatallah y Saint-Paul, y otros 2007), en donde la partevisual de un mashup está formada por componentes depresentación, mientras que hay un middleware que seencarga, a través de eventos, de realizar la comunicaciónentre los componentes. Un adecuado uso de componen-tes, si son genéricos y se definen bien las interfaces, favo-rece la modularidad de las aplicaciones y por tanto lafacilidad en el desarrollo y mantenibilidad (Taivalsaari yMikkonen 2008). Por otro lado, el uso de componentespermite encapsular los detalles de implementación decada uno del resto y conseguir un aislamiento del entor-no en que se ejecuta cada uno (Guo, y otros 2008). Esteenfoque da pie a la utilización de gadgets, como los com-ponentes visuales que se despliegan en el entorno de eje-cución de forma modular (Huang, y otros 2008).

CREACIÓN DE MASHUPS

Al margen de la arquitectura utilizada, la creación de losmashups es compleja por la diversidad de los tipos deinvocaciones y la falta de integridad de los datos que semanejan (Jones, Churchill y Twidale 2008), por lo que sonrealizados ad-hoc por un usuario especializado, con cono-

67

6 http://openkapow.com/

Figura 1. Arquitecturas de mashups realizadas en el servidor

Figura 2. Arquitectura de mashups basada en componentes

Page 69: Tecnologias Para Las Telecomunicaciones Del Futuro

cimientos de la tecnología y la información acerca deluso de esas APIs (Yu, Benatallah y Casati, y otros 2008). Elciclo de vida de estos mashups es simple y rápido: la cre-ación del mismo es probada e inmediatamente publica-da, siendo accesible al resto de los usuarios.

La popularidad que han obtenido los mashups desarrolla-dos y la dificultad que pueden encontrar usuarios sinconocimientos técnicos han llevado a iniciativas para eldesarrollo de aplicaciones que tienen como objetivo elsimplificar la definición de mashups. El enfoque de estasherramientas es diverso, no existiendo un modelo únicopara realizar la integración de los componentes, ni unaarquitectura y mucho menos una estandarización(Maximilien, Ranabahu y Gomadam 2008), sino que cadainiciativa lo resuelve de manera propia. Las herramientaspara la creación de mashups más relevantes son:

• Yahoo! Pipes7: es un servicio online que permite mez-clar datos de distinta procedencia y crear de formasencilla, mediante un editor visual, mashups de datos.

El ciclo de vida está formado por una primera etapa dedefinición y compilación del pipe, en dónde se estable-cen los orígenes de los datos que se van a utilizar y através del editor visual se seleccionan y configuran losdistintos módulos en base al algoritmo que se quiereimplementar con dichos datos.

Una vez que se ha realizado la definición del flujo quese quiere implementar se asocia una url al lugar en elque se ejecutará el flujo. Por tanto, cada vez que seinvoca esa url se ejecuta el algoritmo en el servidor deYahoo! Pipes recuperando los datos de los orígenesconfigurados y aplicando sobre ellos los módulos queestablecen el flujo definido.

• Microsoft PopFly8: es la propuesta de Microsoft para lacreación de mashups. A través de una interfaz visual-mente atractiva y sencilla de utilizar para usuarios conpocos conocimientos técnicos, permite definir unmashup como la combinación de distintos tipos de“bloques”. Así, un usuario puede crearse sus propiosbloques de datos a través de tablas estáticas o sus pro-pios bloques funcionales, y haciendo uso de ellos, o delos bloques existentes en un amplio catálogo, definirel algoritmo que implementa el mashup deseado. Unavez guardado, se genera una url que da acceso al mas-hup y que permite que sea compartido con otrosusuarios o ser incluido en una página web.

• Intel Mash Maker9: La propuesta de Intel es sustan-cialmente distinta. En este caso el mashup se consiguemediante la manipulación de la información presente

en las páginas web y la presentación de widgets rela-tivos a dicha información, para lo que es necesario ins-talar un plugin en el navegador.

Para ello, Intel Mash Maker ha establecido una interfazpara la definición y creación de widgets soportadospor su plataforma, consistente en un fichero de confi-guración y en un conjunto de métodos a implementarpor los widgets para facilitar la comunicación entre lapágina y el widget.

El uso de todas estas herramientas simplifica en parte lacreación de mashups propios, pero siguen presentandoalgunas limitaciones para facilitar un uso más generali-zado. Por ejemplo, en general es necesario cierto conoci-miento de programación y de los mensajes que se inter-cambian entre los distintos componentes, para identifi-car, analizar, agregar y manipular los datos. Además, eshabitual que la ejecución de los mashups se haga en lapropia plataforma, lo que dificulta realizar mashups conpáginas ya existentes.

RIESGOS EN LAS ARQUITECTURAS DEMASHUPS

La fiexibilidad en el desarrollo y la reutilización del soft-ware como idea principal tras los mashups (Makki ySangtan 2008), hacen que los ciclos de vida se caracteri-cen por la rapidez: es más rápido crear un mashup quecrear la aplicación desde cero y más rápido de reaccionarante cambios.

A pesar de estas ventajas, la creación de mashups presen-ta una serie de consideraciones que plantearse antes dellevarlos a cabo: desde el momento en que para mostrarel resultado de un mashup se utilizan datos o serviciosexternos surgen riesgos, como sucede en general enentornos distribuidos, pero acrecentados en este caso porla posible heterogeneidad de los servicios que los propor-cionan (Murugesan 2007) y que hay que evaluar:

• el soporte que se da de los mismos, a la hora de crear-los, si la documentación es clara, y a la hora de ejecu-tarlos, si responden ante fallos detectados, si existe laposibilidad gestionar la calidad de servicio,

• su fiabilidad, disponibilidad y estabilidad, si están ope-rativos y responden satisfactoriamente y con la infor-mación adecuada,

• la gestión de la seguridad que se realiza, si es necesa-ria y dónde quedan los datos,

• la escalabilidad y rendimiento, si son capaces de res-ponder ante un aumento de la demanda,

• la gestión del versionado de las interfaces, si puedenevolucionar y si tienen compatibilidad hacia atrás,

ENTERPRISE MASHUPS, CONCEPTO Y USO

68

7 http://pipes.yahoo.com8 http://www.popfiy.ms9 http://mashmaker.intel.com

Page 70: Tecnologias Para Las Telecomunicaciones Del Futuro

• si se quieren combinar datos de distintas fuentes,deben compartir una representación común de lainformación o mecanismos para poder realizar lastransformaciones que lleven a dicha representación

Para poder enfrentar todos estos riesgos es necesarioavanzar en aspectos como la Calidad de Servicio, los con-tratos con los proveedores y la creación de arquitecturasseguras, pero el primer problema de partida es la hetero-geneidad de las tecnologías empleadas en la creación demashups, por lo que la necesidad es definir un marcoestándar, modular y ampliable en el que cada tipo de tec-nología pueda encajar, de tal forma que se pueda cambiarde proveedor sin necesidad de modificar los desarrollos.

MASHUPS EN LA EMPRESA

Las posibilidades que abre el uso de mashups en el mundoempresarial es considerable: en lugar de desarrollar apli-caciones monolíticas un desarrollo basado en componen-tes que pueden ser reutilizados dentro de una plataformade mashups favorece el ROI, ya que por un lado disminu-yen los costes de implementación y mantenimiento encomparación con un desarrollo tradicional (los compo-nentes son reutilizados), y por otro lado se mejora la efi-ciencia de las aplicaciones para el usuario y se simplificanlas modificaciones de los procesos de negocio.

Además, siguiendo el modelo de arquitectura subyacen-te en los mashups no solo se favorece y facilita la integra-ción de componentes propios, sino que se habilita comoobjetivo principal la integración sencilla de componentesde terceros, que sirvan para complementar la funcionali-dad deseada, con un coste en tiempo y en dinero conside-rablemente menores. En cualquier caso, hay que tenerpresente la fiabilidad de los servicios y de los datos queson proporcionados por terceros, así como el resto de losriesgos comentados en el apartado anterior, ya quepuede ser una limitación en el momento de trasladarparte de los procesos a manos de terceros.

Otra alternativa para una empresa dentro del panoramade los mashups es actuar como proveedor de los compo-nentes o hacer públicas las APIs, para permitir que terce-ros hagan uso de ellos. La razón por la que las empresashacen públicas sus APIs no es único, pero hay quienesapuntan que abrir los datos y los servicios de una empre-sa puede suponer una ventaja competitiva ya que puedeser la vía de acceso para nuevos clientes, como ofertadiferenciadora con respecto a la competencia o facilitan-do que otros desarrolladores pueden desarrollar mas-hups sobre sus servicios que se adapten mejor a algunosusuarios. Bajo esta perspectiva es necesario preparar la

infraestructura para garantizar la calidad del servicio quese provee, así como los mecanismos para controlar y si espreciso facturar, por el uso de los mismos.

Telefónica I+D, teniendo presente a los mashups comofundamento para la creación de aplicaciones de futuro,está embarcado en el desarrollo y mejora de distintasplataformas para facilitar la creación de mashups, entrelas que cabe destacar las siguientes aplicaciones:EzWeb10 , FAST11 o Opuce12.

BIBLIOGRAFÍA

1 Guo, Rui, Bin B. Zhu, Min Feng, Aimin Pan, y BoshengZhou. «Compoweb: a component-oriented webarchitecture.» Proceeding of the 17th internationalconference on World Wide Web. 2008. 545-554.

2 Huang, Angus F.M., Shin Bo Huang, Evan Y.F. Lee, yStephen J.H. Yang. «Improving end-user program-ming with situational mashups in web 2.0 environ-ment.» IEEE International Symposium on Service-Oriented System Engineering. 2008. 62-67.

3 Jones, M.C., E.F. Churchill, y M.B. Twidale. «Mashing upvisual languages and web mashups.» IEEESymposium on Visual Languages and Human-CentricComputing, 2008. 2008. 143-146.

4 Makki, S.K., y J. Sangtan. «Data mashups & their appli-cations in enterprises.» Third InternationalConference on Internet and Web Applications andServices. 2008. 445-450.

5 Maximilien, E. Michael, Ajith Ranabahu, y KarthikGomadam. «An online platform for web apis and ser-vice mashups.» IEEE Internet Computing, 12(5), 2008:32-43.

6 Murugesan, S. «Understanding web 2.0.» ITProfessional, July-Aug 2007: 34-41.

7 Taivalsaari, Antero, y Tommi Mikkonen. «Mashupsand modularity: Towards secure and reusable webapplications.» 23rd IEEE/ACM InternationalConference on Automated Software Engineering -Workshops, 2008. 2008. 25-33.

8 Yu, Jin, Boualem Benatallah, Fabio Casati, y FlorianDaniel. «Understanding mashup development.» IEEEInternet Computing, 2008: 44-52.

9 Yu, Jin, Boualem Benatallah, Regis Saint-Paul, FabioCasati, Florian Daniel, y Maristella Matera. «A frame-work for rapid integration of presentation compo-nents.» Proceedings of the 16th international confe-rence on World Wide Web. 2007. 923-932.

10 Zou, J., y C.J. Pavlovski. «Towards accountable enter-prise mashup services.» IEEE InternationalConference on e-Business Engineering. 2007. 205-212.

69

10 http://ezweb.morfeo-project.org/11 http://fast.morfeo-project.eu/12 http://www.opuce.tid.es/

Page 71: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 72: Tecnologias Para Las Telecomunicaciones Del Futuro

SOFTWARE LIBRE E INNOVACIÓN ABIERTA.COMUNIDADES DE SOFTWARE LIBRE

Pedro Acebes

Page 73: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

El software libre ([1], no confundir con freeware([5])), harecorrido un largo camino desde la creación del conceptoen 1983 hasta la actualidad y ha proporcionado ([4])desde entonces soluciones de referencia que han permi-tido a las empresas (y a través de ellas a la sociedad) dis-frutar de nuevas oportunidades de realizar negocios alreducir los costes necesarios para iniciar un nuevo pro-yecto, convirtiéndolos a veces en viables, y permitirlascentrarse en su negocio "core". Aunque ya han pasadomuchos años desde su nacimiento, siguen "vivos"muchos de los mitos que Tim O'Reilly ya recogió en unartículo en el año 1999([32]). Este artículo es un punto deentrada al inmenso mundo del FLOSS (Free Libre OpenSource Software, [41]) donde trata de dar unas pinceladasa algunos de los puntos que creemos más curiosidad des-piertan y proporciona enlaces para el lector que quieraprofundizar en ellos.

Entre las primeras soluciones que algunos recordamos,destacan tanto editor de texto "Emacs" como los compi-ladores (ggcc) y depuradores (gdb) que proporcionabanun entorno de desarrollo software gratuito en UNIX. Sinembargo, el gran salto a la fama fue el sistema OperativoLinux, que junto con el servidor Web Apache, la base dedatos MySQL y los lenguajes de Programación como Perl,PHP o Python (solución LAMP) potenciaron el desarrollode los servicios en Internet, de la misma forma que eMulefacilitó el intercambio de ficheros entre propietarios y fueuno de los principales promotores del interés de los usua-rios en la banda ancha y de su adopción en España.

Existen actualmente soluciones de software abierto ([2])para casi todos los ámbitos:

• Sistemas operativos: Linux, BSD, OpenSolaris.

• Plataformas Web: Apache, GlassFish, JBoss.

• Bases de datos: MySQL, PostgreSQL.

• Plataformas de integración: OpenESB, Mule.

• Herramientas de desarrollo: NetBeans, Eclipse.

• Identidad: OpenSSO, OpenDS, OpenLDAP.

• Virtualización: Xen, OpenxVM, VirtualBox.

• Almacenamiento: Open Storage.

• Sistemas de Ficheros: NFS, UFS, ext, Lustre, ZFS.

• Seguridad: OpenSSH, OpenSSL.

• Navegadores (Firefox) y lectores de correo(Thunderbird).

• Sistemas operativos para móviles: Android.

• Entorno ofimático multiplataforma: Open Office.

• Herramientas de tratamiento de imágenes: GIMP.

• Plataformas de cursos: Moodle.

• Software para Portales: Liferay, EzWeb.

• Software para desarrollo de aplicaciones en movilidad:MyMobileWeb.

• Gestores de contenido: Drupal, Joomla.

• ERPs: Openbravo.

• Herramientas de workflow: Bonita, Smartflow.

• ... y un sinfín de software variado: FreeMind, juegos...

La existencia de software libre en casi todos los ámbitosy su fiabilidad hace que muchas empresas ya usen elsoftware libre. Así, por ejemplo, Wal-Mart, Office Depot,Deutsche Bank, Credit Suisse, Bolsa de Nueva York, U.S.Postal Service, NASA, Pentagon, Intelligence Agency, U.S.Military Forces, Standard Life, AIG, Metropolitan Bank,Toyota, Audi, BASF, Deutsche Bahn… han migrado ya siste-mas críticos hacia el software libre (Telefónica I+D tam-bién lo ha hecho en algunas de las soluciones que pro-porciona a Telefónica). En el mundo de la supercomputa-ción el software libre es el gran triunfador por el modelode costes: más del 88% de los "supercomputadores" utili-zan linux como sistema operativo ([30]).

Gartner asegura que "la mayoría de las soluciones pro-puestas en código abierto son maduras, estables y estánbien soportadas, proporcionando a los proveedores y usua-rios significativas oportunidades de reducir sus costestotales de propiedad y de incrementar el retorno de lainversión. De hecho, las empresas que ignoren esta circuns-tancia se enfrentarán a serias desventajas competitivas“.

Existen, así mismo, agrupaciones de empresas que danun salto y deciden producir soluciones software FLOSScomunes para todas ellas cuando el software no es el"core" de su negocio: empresas del sector automovilísti-co que crean de forma conjunta una única empresa quedesarrolla software FLOSS para la gestión del navegadordel coche, de los reproductores de música on-line, delbluetooth del coche..., o empresas que desarrollan cáma-ras de fotos, y crean software común para la gestión dela cámara de fotos. En estos casos las empresas compar-ten el desarrollo del software con el correspondienteahorro de costes y se centran en su negocio: mejorescámaras o mejores coches porque el software que con-vierten en FLOSS no les proporciona diferenciación. Eneste sentido Gartner afirma que “en 2010, un 75% de lasgrandes compañías añadirán a su software comercial,

SOFTWARE LIBRE E INNOVACIÓN ABIERTA. COMUNIDADES DE SOFTWARE LIBRE

72

Page 74: Tecnologias Para Las Telecomunicaciones Del Futuro

soluciones basadas en código abierto” y sugiere suadopción ([10]).

El concepto "FLOSS" ha superado en algunas ocasiones lalimitación "software" y se ha utilizado su modelo en lagestión del conocimiento como es el caso de la Wikipedia,e incluso ha llegado más allá en el caso del estado deCalifornia que pretende crear libros de texto "open sour-ce" como forma de hacer la educación más barata y demayor calidad. En Europa de forma general y en Españaen particular se están dando importantes pasos (LAECSP)para hacer que la Administración Pública utilice Softwarede Fuente Abierta de forma general: se ha constituido uncentro (CENATIC, [10]) para promover la creación y podercompartir software libre entre las diferentes administra-ciones.

Nadie es ajeno a la popularización del software libre,haciendo que incluso empresas como Microsoft empie-cen a hacer desarrollos open Source y creen la FundaciónCodeplex ([21], [22]) para gestionar el software desarrolla-do de esta forma y las relaciones de dicha empresa con elmundo del software libre.

El éxito del FLOSS hace que se trabaje (como se hace enlas empresas) con un horizonte temporal objetivo muylejano (2020): el "site" 2020FLOSSRoadmap.org ([18]) hahecho un estudio objetivo de forma colaborativa sobrelas tendencias, oportunidades, retos y amenazas ([33])para el futuro del FLOSS con visión 2020. Esta web permi-te el acceso a toda la información sobre la que se está tra-bajando para quien quiera indagar sobre el tema.

LICENCIAS DE SOFTWARE LIBRE

Existe un gran número de tipos de licencias de softwarelibre ([12]), que de forma simplificada se pueden resumircomo:

• Licencias no víricas como las licencias tipo "Apache" oBSD. Existe una libertad total sobre el software, cual-quier entidad puede coger el software así licenciado,modificarlo a su gusto, incluso cambiar el nombre yhacer un nuevo producto diferente, que mantiene,vende o soporta incluso convirtiéndolo en comercial, ysin necesidad de compartir el código modificado.

• Licencias víricas como:

o GPL/EUPL.

- Si se modifica el software GPL debo entregar elcódigo fuente de las modificaciones realizadas aquien "venda" el proyecto (las modificacionesson también GPL).

- Si se enlaza (mediante librerías, funciones javas-cript...) software privativo con software originalGPL, automáticamente dicho software se con-

vierte en GPL y, por tanto, si se vende el conjuntodel software (¡se puede vender software GPL!) sedebe entregar de forma obligatoria los fuentesde los desarrollos particulares al cliente (Esimportante esta diferencia: si se usa softwareGPL, se modifica y se usa internamente, y/o sehace software enlazado con el software GPL,pero no se vende, no es necesario liberar dichocódigo ni las modificaciones que se han hechosobre el software GPL original).

o AfferoGPL. Esta licencia está pensada para elSoftware As A Service, en los que se usa el softwarecomo plataforma y lo que se venden son los servi-cios y no el software en sí. Esta licencia literalmen-te "añade la obligación de distribuir el software siéste se ejecuta para ofrecer servicios a través deuna red de ordenadores".

La filosofía base de las licencias víricas es el "Quid proquo" («algo por algo»). El usuario de software GPL aprove-cha el trabajo de otros, pero a cambio debe compartir susaportaciones para que otros también puedan disfrutarde su trabajo.

Existe una relajación de la licencia GPL que se utiliza prin-cipalmente en las librerías de software para que puedanser utilizadas desde software propietario: es la licenciaLGPL, que no "contagia" al software que la utiliza, y le per-mite mantener cualquier tipo de licencia (sin embargo,las modificaciones que se realicen sobre el propio softwa-re LGPL seguirán siendo LGPL).

Es preciso añadir una pequeña puntualización sobre laslicencias: una cosa es la propiedad intelectual sobre elsoftware desarrollado y otra cosa es como el productogenerado se distribuya. Se puede distribuir un productocon una licencia de software libre y no renunciar a la pro-piedad intelectual sobre el mismo. Para entenderlo, bastacon tener en cuenta que una licencia de software libre esigual que cualquier otra licencia. Ninguna establece nadasobre la propiedad intelectual del producto licenciado,todas establecen cláusulas que aplican a si se cobra porusar ese producto o no, si se puede modificar o no, si sedistribuyen los fuentes con el producto o no, y sí quiénrecibe el producto (binario y/o fuentes) lo puede redistri-buir a terceros o no y bajo qué condiciones.

De forma general el software, ya sea en forma binaria oen forma de código fuente, debe especificar dos puntos:

• El propietario de los derechos de autor. Esto se definecon una línea del estilo "Copyright (c) 2009 TelefónicaInvestigación y Desarrollo S.A.".

• Qué puede hacer el usuario con ese software, respectoa su uso, modificación y distribución. Puede ir desde el"All rights reserved", que fundamentalmente no dejahacer nada, hasta una breve explicación de qué se

73

Page 75: Tecnologias Para Las Telecomunicaciones Del Futuro

puede y qué no se puede hacer con él, generalmenteen forma de referencia a un acuerdo de licencia en len-guaje jurídico.

Un punto importante es recalcar que estos términos nose aplican al software, sino a la copia concreta que losacompaña. Si a un usuario académico se le ofrece unacopia bajo términos libres, a otro usuario industrial se lepuede ofrecer otra copia distinta con términos diferentes.Los derechos y libertades otorgados al académico nopodrá disfrutarlos el industrial, y viceversa. Cada cualdebe ceñirse a lo que ponga en el acuerdo de licencia dela copia que recibió. Simplemente habrá copias delmismo software con distinta licencia.

La complejidad de las licencias de software libre y susposibles implicaciones legales son consideradas ([33])uno de los principales riesgos que pueden limitar laadopción del software libre dentro de las empresas.

LICENCIAS DE DOCUMENTACIÓN

Al igual que en el caso de las licencias de software, exis-ten una amplia variedad de tipos de licencias de docu-mentación ([13], [14], [15], [16]) en función de varios aspec-tos como:

• Nivel de privacidad del documento: público, restringi-do, etc.

• Precio y condiciones de redistribución: gratuito, domi-nio público, de pago, etc.

• Protección de la propiedad industrial descrita: paten-tes...

• Compartición de licencia de obras derivadas...

A modo de ejemplo las licencias Creative Commons(wikipedia, wikimedia, flickr...) tienen las siguientes impli-caciones:

• Attribution (by): Obliga a citar las fuentes de esos con-tenidos. El autor debe figurar en los créditos.

• Noncommercial o NonCommercial (nc): Obliga a queel uso de los contenidos no pueda tener bonificacióneconómica alguna para quien haga uso de contenidosbajo esa licencia.

• No Derivative Works o NoDerivs (nd): Obliga a que esaobra sea distribuida inalterada, sin cambios.

• ShareAlike (sa): Obliga a que todas las obras derivadasse distribuyan siempre bajo la misma licencia del tra-bajo original.

INNOVACIÓN ABIERTA

El término "Open Innovation" ([8]) fue acuñado por elProfesor Henry Chesbrough, director del "Center for OpenInnovation del la Universidad de California - Berkeley"([37]). La idea básica que subyace bajo este término esque en el mundo actual, donde el conocimiento se difun-de libremente, las empresas deben adoptar una estrate-gia de innovación en la que no pueden depender única-mente de sus propios recursos (por muy grandes y "pode-rosas" que dichas empresas sean), sino que necesitancolaborar con otras empresas o universidades combinan-do el conocimiento interno con el externo para podersacar proyectos de I+D competitivos y que no quedenobsoletos en poco tiempo o sean soluciones marginalesabsorbidas por otras más adoptadas.

En el ámbito de las telecomunicaciones es virtualmenteimposible que una única empresa imponga en el merca-do una solución de la que es propietaria por el coste des-mesurado que supone la inversión y el riesgo de quedar-se obsoleto ante soluciones adoptadas por varios compe-tidores. Por ello, son necesarias alianzas con otros socios,con los que se comparte la tecnología y la innovación, yen este sentido, la forma más sencilla de establecer rela-ciones de confianza es cuando se comparte de formaabierta la información y el software. Esta forma de com-partir ayuda a la creación de estándares de forma natu-ral.

El concepto de “open innovation” comparte unos plante-amientos similares con el “open source“ y ya son muchaslas grandes empresas que comparten esta filosofía enalgunos de sus proyectos. Los desarrollos de softwareLinux ([46]), Mozilla ([45]) o Android ([42]) y en hardwareLego Mindstroms ([44]) y Open source hardware ([43])son resultados de esta corriente.

En ([38]) recogen un análisis de los principios relativos ala innovación abierta en contraste con la innovacióncerrada, de la que se incluye la tabla resumen (ver tabla 1)

SOFTWARE LIBRE E INNOVACIÓN ABIERTA. COMUNIDADES DE SOFTWARE LIBRE

74

Principios deinnovación cerradaLas personas con talento trabajan paranosotros

Para beneficiarse de las actividades deinvestigación y desarrollo (I+D)debemos desarrollar, aplicar ycomercializar nosotros mismos

Lo que nosotros generamos(descubrimos), es lo primero que ha dellegar al mercado

La empresa que lleva la innovación enprimer lugar al mercado, es la ganadora

Hemos de controlar nuestro procesode innovación, para que nuestroscompetidores no se beneficien denuestras ideas

Principios deinnovación abiertaNo todas las personas con talentotrabajan para nosotros. Necesitamostrabajar con personas con talentodentro y fuera de la empresa

La I+D externa puede ofrecernos valor;la I+D interna necesita de refuerzoexterno

No tenemos que generar la idea o elproducto para beneficiarnos del mismo

Si utilizamos de forma óptima las ideasexternas e internas, ganaremos

Deberíamos beneficiarnos de lautilización que hacen otros de nuestroproceso de innovación, y deberíamoscomprar a otros propiedad intelectualsiempre que ello permita alcanzareficiencias en nuestro modelo denegocio

Tabla 1. Resumen de los principios relativos a la innovaciónabierta en contraste con la innovación cerrada

Fuente: adaptado de Chesbrough (2006)

Page 76: Tecnologias Para Las Telecomunicaciones Del Futuro

El concepto de innovación abierto no es nuevo, pero sí lasrazones que hacen que este modelo adquiera ahoraplena validez en el sector de informático y de telecomu-nicaciones en el que nos encontramos, entre las que des-tacan:

• Creciente dificultad para controlar las ventajas com-petitivas derivadas de dicho conocimiento.

• Ritmos crecientes de obsolescencia tecnológica.

COMUNIDADES DE SOFTWARE LIBRE

Tradicionalmente, el desarrollo Open Source se ha asocia-do con el altruismo, en el que los miembros de la comu-nidad trabajaban con un objetivo común, sin esperar nin-gún tipo de recompensa económica por el trabajo reali-zado. Actualmente, este mito está desapareciendo (todostenemos que pagar la hipoteca) y la mayor parte de lascomunidades de software libre tienen una forma decompensar económicamente a sus miembros más acti-vos.

Desde la comunidad Morfeo se ha hecho un estudiodetallado ([35]) que puede leerse para conocer con másdetalle ejemplos de las principales comunidades de soft-ware libre y su forma de organizarse y colaborar entreellas. Aunque existen diferencias sobre todo entre lascomunidades lideradas/dirigidas desde una empresa ylas completamente "libres", en todas ellas existe el con-cepto del "board", que dirige la comunidad y establece lasreglas. Este board equivaldría a un consejo de direcciónen una empresa tradicional y la forma de acceder a él esa través de la meritocracia ([36]), que define una especiede "jerarquía interna" real, no siempre soportada por car-gos en la comunidad, sino por el respeto que determina-das personas o entidades merecen y el apoyo que suelenrecibir de la comunidad los proyectos promovidos pordichas personas/entidades (credibilidad).

COMUNIDAD MORFEO (http://www.morfeo-project.org/)

Morfeo es una comunidad de software libre que gira alre-dedor de proyectos en los que se persigue, de forma resu-mida, los siguientes objetivos:

• Impulsar la definición de estándares y la comoditiza-ción de tecnologías software básicas o aplicacionesdirigidas a dominios específicos

• Crear oportunidades de negocio alrededor de los pro-ductos de software libre comoditizados.

• Proteger a largo plazo las inversiones en tecnología,así como su innovación constante mediante la apues-ta por los estándares abiertos.

El artículo ([39]) publicado en "The European Journal for

the Informatics Professional", que lleva por título "TheMorfeo Project: an Open Source Approach towards OpenInnovation", hace un análisis de este objetivo y cómo seconsigue.

La comunidad Morfeo fue fundada por Telefónica I+D,UPM y URJC en el año 2005 en torno a un primer proyec-to. El número de miembros desde entonces (grandesempresas, PYMEs, universidades y centros tecnológicos)no ha parado de crecer y ha alcanzado un eco destacadoen medios e Internet. En [34] se describe la organizacióninterna de la comunidad.

Morfeo ha recibido el respaldo de numerosasAdministraciones Públicas y la financiación delMinisterio de Industria de España:

• Disfruta de una gran tasa de éxito en consecución desubvenciones de proyectos "Avanza".

• Desde la comunidad Morfeo se ha creado un Centrode Competencia que forma parte de la Red QualiPSo([40]).

• Se ha creado un capítulo de e-Administración fundadopor El Principado de Asturias y CENATIC, donde se haliberado el framework de desarrollo del Principado deAsturias (openFWPA).

• Telefónica Empresas (en colaboración con otras AAPP)ha desplegado en Morfeo la Aplicación LocalTIC.

• CENATIC alberga en la forja Morfeo sus proyectos y hacreado un "Capítulo CENATIC", que incluye interesan-tes proyectos, entre los que destacan:

o Gong: Gestión de procesos para ONGs.

o VisorODFMovil: visor de hojas de cálculos, docu-mentos y presentaciones en ODF.

o Agrega: Federación de repositorios de contenidoseducativos digitales.

La comunidad Morfeo ha sido "alumbrada" en España,pero tiene entre sus objetivos extenderse tanto porAmérica Latina (inicialmente a través de proyectosIberoeka) como por Europa.

Para los que quieran conocer más, su web ([29]) permiteconsultar los diferentes proyectos que están alojados endicha comunidad, su filosofía y miembros.

MODELOS DE NEGOCIO TRADICIONALESBASADOS EN SOFTWARE LIBRE

Los desarrolladores de software libre tienen motivacio-nes muy diferentes para colaborar en una comunidad. Lamás conocida para los profanos es la que se asocia a cier-

75

Page 77: Tecnologias Para Las Telecomunicaciones Del Futuro

tos principios anarquistas o de cooperativas (imagen aso-ciada en cierta forma a Richard Stallman, a quien se leatribuye la frase de que la única forma de ganar dinerocon el software libre es haciéndose camarero (o cualquierotra profesión, pero no con el software)), pero existenotras motivaciones más reales que hacen que el modelosiga existiendo como por ejemplo la que considera que elsoftware libre es la única forma de entrar en un mercadodominado por las grandes compañías del software pro-pietario que goza también de bastante popularidad.

De hecho, podemos encontrar varios tipos de compañíascon modelos de negocio basados en el software libre:

• Agregadores (como Red Hat) que recogen y empaque-tan piezas de software creadas por terceros en unadistribución software. La compañía cobra por el sopor-te y la actualización.

• Compañías que ayudan a otras empresas a integrarproductos de software libre en soluciones a medidapara la empresa y dan soporte como ellas(SpikeSource, SourceLabs, OpenLogic, Vass en España).Estas empresas tienen un modelo de negocio no basa-do puramente en el software libre.

• Empresas que crean, distribuyen y dan soporte a soft-ware libre, cuyo modelo se basa en proporcionarsoporte comercial, formación y consultoría o en la rea-lización de modificaciones particulares del softwarelibre.

Estas compañías explotan diferentes modelos de servi-cios:

• Crear desarrollos "puente" entre software libre y soft-ware propietario, mediante adaptaciones de softwarepropietario para que puedan funcionar conjuntamen-te con aplicaciones basadas en software libre. Es elcaso de SAP/R3,? ?Siebel,? ?Flash Macromedia,? ?HPOpenView.?

• Generar licencias duales al código: una de ellas libre yotra propietaria. El usuario puede escoger entre losdos tipos de licencias en función de sus necesidades.Así por ejemplo, deberá escoger licencia propietaria siva a desarrollar software apoyado en él sin querer con-vertir su código en GPL. Este el caso de Trolltech uOpen Office (IBM ha desarrollado Lotus Symphonybasado en Open Office).

• Proporcionar una aplicación bajo licencia libre y ofre-cer personalizaciones sobre ese software o bien servi-cios específicos sobre él.

• Desarrollar componentes comerciales sobre produc-tos de software libre (Evolution, Kivio).

• Donaciones y suscripciones, modelo que suele estar

ligado a revistas (como Linux Weekly News), y enmucha menor medida a software (Typo3, un softwarede portal y gestión de contenidos es un ejemplo).

• Un último ejemplo son los modelos usados porMacOS que crean nuevos productos derivados delicencias BSD (esta licencia no es vírica y permite reli-cenciar el código con cualquier tipo de licencia).

Como resumen, en el negocio del software libre el bene-ficio se obtiene de los servicios alrededor de dicho soft-ware fuente ya existente, y no en el software en si.

Una encuesta realizada entre los usuarios de dicha tec-nología mostró tres principales razones para el uso delsoftware libre ([11]):

• Reducción del Coste Total de Propiedad (TCO, [19]) ypor tanto reducción de los costes de desarrollo.

• Facilidad para comenzar un nuevo proyecto softwarepor dos factores:

o El presupuesto inicial necesario para comenzar elproyecto es menor (compra de licencias).

o Se parte de un software ya probado que cubreparte de las necesidades del proyecto lo que permi-te tener resultados con anterioridad.

• Elimina la dependencia de un único suministrador(vendor-locking).

Merece la pena leer con detalle las referencias [26], [27],[28] y [31] para aquellos que tengan interés en profundi-zar en el tema.

NUEVOS MODELOS DE NEGOCIO BASADOSEN SOFTWARE LIBRE: CONSIDERACIONESESTRATÉGICAS PARA TELEFÓNICA

La principal razón por la que Telefónica debe apostar porel software libre se explica a través de "The Law ofConservation of Attractive Profits":

"When attractive profits disappear at one stage inthe value chain because a product becomes modularand commoditized, the opportunity to earn attracti-ve profits with proprietary products will usuallyemerge at an adjacent stage.“

-- Clayton Christensen. “The Innovator's Solution”,Harvard Business Review, Feb 2004 ([27]).

En este punto, desde el punto de vista de Telefónica, el SWlibre no sólo acelera la definición de estándares debido aque facilita el debate abierto y democrático en torno a lasespecificaciones, evitando gaps y ambigüedades (“seethe code !”). También, y más importante si cabe, impulsa

SOFTWARE LIBRE E INNOVACIÓN ABIERTA. COMUNIDADES DE SOFTWARE LIBRE

76

Page 78: Tecnologias Para Las Telecomunicaciones Del Futuro

la comoditización de productos en conformidad condichos estándares ya que el “gap” entre la implementa-ción de referencia y un producto final es pequeño, si nodespreciable.

Adicionalmente, Telefónica encuentra que la transferen-cia de beneficios a nodos de actividad adyacentes a lacomercialización de software libre introduce un impor-tante estímulo a la innovación. En efecto:

• La innovación se hace más necesaria que antes enactividades adyacentes, para competir por beneficiostransferidos.

• La innovación queda mejor protegida al comoditizarproductos sobre los que dicha innovación se apoya.

• … y esta innovación deriva en la creación de valor másatractivo para el usuario final, lo que conduce a unincremento de la demanda final de los usuarios, y uncrecimiento del mercado en su conjunto.

Así, la apuesta estratégica de Telefónica consiste encomoditizar ([46], [47]) etapas en la cadena de valor en lasque Telefónica no centra su negocio, de forma que eldinero de esa "etapa" se desvíe a la etapa en la queTelefónica sí lo centra. Esta fórmula aplica de distintamanera según cuales sean los servicios proporcionadospor Telefónica:

• Servicios de integración de soluciones: En este caso,Telefónica comoditiza, en colaboración con terceros, elsoftware sobre el que se pueden construir las solucio-nes de sus clientes. Éste podrá dedicar mayor parte desu presupuesto a servicios que Telefónica comerciali-za: consultoría, integración de soluciones, soporte, for-mación. El carácter gratuito del software puede serdiferencial para algunos clientes (el cliente no cuentacon suficiente presupuesto). Un ejemplo de este tiposería el asociado a desarrollar una plataforma de tra-mitación electrónica, de aplicación en las AAPP.

• Servicios de comunicaciones: Comoditizo el softwareque estimule el uso de la infraestructura de comuni-caciones. Los ingresos para Telefónica se derivan de unmayor uso de las infraestructuras de comunicaciónsubyacentes. En la medida en que dicho software sepopularice para desarrollar aplicaciones y éstas ganenatractivo ante el usuario final, el uso de las comunica-ciones (y los ingresos) aumenta. Un ejemplo de estetipo sería el desarrollo de plataformas que faciliten lacreación, por parte de terceros o la propia Telefónica,de sitios web accesibles desde cualquier dispositivomóvil.

• Servicios Cloud: Comoditizo el software sobre el que seapoya el desarrollo, la publicación y despliegue de apli-caciones en la Cloud, así como su acceso. Los ingresospara Telefónica se obtienen complementando este

software con componentes dentro de la plataforma deprovisión de servicios: que soporten mecanismos parala obtención de ingresos por publicidad, cobro por usoefectivo, revenue-share con proveedores.

SOFTWARE LIBRE EN TELEFÓNICA I+D

Telefónica I+D no tiene una política global en materia desoftware libre, de forma que cada grupo de trabajo deci-de utilizarlo o no en función de las líneas estratégicasdefinidas.

Telefónica I+D utiliza desde hace tiempo de forma inter-na el software libre como apoyo para el desarrollo de losproyectos (CVS, Subversion, Ant, Bugzilla, Samba, Xen,Wikis...). En los últimos años ha dado un paso adelante alincluirlo en productos que se llevan al entorno de produc-ción de Telefónica, dado que se considera que el softwarede fuentes abiertas ha alcanzado un nivel de madurez yestabilidad suficientemente alto como para su utiliza-ción dentro de proyectos críticos para el negocio:

• Servicio de Mensajería Empresarial.

• GEISER: Gestor unificado de la red de transmisión.

• Sistema de Gestión de la señalización y de las redes IP.

• Producto AltamirA: Plataforma de prepago deTelefónica.

En lo que respecta a la producción de software de fuen-tes abiertas, los pasos que se dan son más tímidos. Enmuchos casos es complejo que los productos hechosespecíficamente para Telefónica vayan a ser aprovecha-bles fuera del entorno de la empresa o a tener un impac-to que genere una comunidad a su alrededor lo suficien-temente grande como para que pueda haber retorno debeneficios. El software liberado hasta ahora en el marcode la comunidad Morfeo ([29]) es "middleware" en sumayor parte:

• Ezweb ([49]): plataforma de mashup ([48])de aplica-ciones/servicios estándar.

• MyMobileWeb ([50]): plataforma estándar para des-arrollo de sitios web accesibles en movilidad (dominio.mobi).

• MAS ([51]): Middleware Avanzado para Servicios.

• TIDorbJ ([52]): Orb Java.

• SmartFlow ([53]): Desarrollo sencillo de Aplicacionesde Workflow y Trouble-Ticketing.

• Wasup ([54]): Componentes para Sistemas de Soportea la Monitorización y el Control de Planta.

77

Page 79: Tecnologias Para Las Telecomunicaciones Del Futuro

Actualmente se está trabajando en una línea de investi-gación (Reservoir, Nuba) centrada en el cloud computing.El principal motivo para desarrollar el proyecto enSoftware de Fuente Abierta es promover que los desarro-llos que se definan se conviertan en un estándar de caraa evitar que cada proveedor defina los suyos propios y nosean interoperables los servicios suministrados por unosy por otros. Liberando la solución se favorece el que todoslos suministradores proporcionen servicios comunes quepuedan ser integrados en este caso por el operador (evi-tar el Vendor Locking).

REFERENCIAS

[1] http://es.wikipedia.org/wiki/Software_libre[2] http://es.wikipedia.org/wiki/FOSS_-_FLOSS[3] http://www.opensourceworldconference.com/meri-

da05/es/modules/news/article.php?storyid=19[4] http://en.wikipedia.org/wiki/History_of_free_soft-

ware[5] http://es.wikipedia.org/wiki/Freeware[6] http://sourceforge.net/community/cca09/win-

ners/FLOSS[7] http://en.wikipedia.org/wiki/The_Cathedral_and_

the_Bazaar[8] http://en.wikipedia.org/wiki/Open_innovation[9] http://www.infoworld.com/d/open-source/best-

open-source-software-awards-2009-628[10] http://www.cenatic.es/[11] http://www.gartner.com/it/page.jsp?id=801412[12] http://es.wikipedia.org/wiki/Anexo:Comparaci%C3%

B3n_de_licencias_de_software_libre[13] http://es.wikipedia.org/wiki/Licencia_de_documen-

taci%C3%B3n_libre_GNU[14] http://www.fsf.org/licensing/licenses/index_html

#DocumentationLicenses[15] http://www.iso.org/iso/about/iso_strategy_and_

policies.htm[16] http://www.w3.org/Consortium/Legal/2002/copy-

right-documents-20021231[17] http://es.wikipedia.org/wiki/Software_no_libre[18] http://www.2020flossroadmap.org/[19] http://en.wikipedia.org/wiki/Total_cost_of_owners-

hip[20] https://forge.morfeo-project.org/docman/view.php

/7/441/OpenSourceCommunities.pdf[21] http://es.wikipedia.org/wiki/CodePlex[22] http://www.eweek.com/c /a/Linux-and-Open-

Source/Microsoft-The-Great-Open-Source-Advocate-358970/

[23] http://www.enriquedans.com/2009/09/entendien-do-la-gestion-de-tecnologia-en-la-era-open-sour-ce.html

[24] http://www.expansion.com/2009/05/05/empre-sas/tecnologia/1241556623.html

[25] http://www.oreillynet.com/pub/a/oreilly/tim/arti-cles/paradigmshift_0504.html

[26] h t t p : / / b l o g s . t h e 4 5 1 g r o u p . c o m /o p e n s o u r -ce/2009/01/05/commercial-open-source-business-strategies-in-2009-and-beyond/

[27] h t t p : / / b l o g s . t h e 4 5 1 g r o u p . c o m /o p e n s o u r -ce/2008/11/06/christensen%E2%80%99s-law-in-the-context-of-open-source-business-models/

[28] h t t p : / / b l o g s . t h e 4 5 1 g r o u p . c o m /o p e n s o u r -ce/2008/11/05/open-source-as-a-strategic-competi-tive-weapon/

[29] http://www.morfeo-project.org/[30] http://www.top500.org/charts/list/33/osfam[31] http://blogs.sun.com/webmink/entry/software_

market_3_0[32] http://www.oreillynet.com/pub/a/oreilly/opensour-

ce/news/myths_1199.html[33] h t t p : / / w w w. 2 0 2 0 f l o s s r o a d m a p . o r g / w p -

content/uploads/2009/04/owf_2020_roadmap_v218_theme5.odt

[34] http://forge.morfeo-project.org/wiki/index.php/Organizaci%C3%B3n_de_MORFEO

[35] http://forge.morfeo-project.org/wiki/index.php/Modelos_de_Organizaci%C3%B3n_de_Comunidades_de_Software_Libre

[36] http://es.wikipedia.org/wiki/Meritocracia[37] http://openinnovation.haas.berkeley.edu/[38] http://groups.google.es/group/openinnova/web

/concepto-de-innovacin-abierta[39] http://www.upgrade-cepis.org/issues/2009/3/

upgrade-vol-X-3.pdf[40]http://www.qualipso.org/node/93[41] http://es.wikipedia.org/wiki/FOSS_-_FLOSS[42] http://es.wikipedia.org/wiki/Android[43] http://es.wikipedia.org/wiki/Open_source_hardware[44] http://es.wikipedia.org/wiki/Lego_Mindstorms[45] http://es.wikipedia.org/wiki/Fundaci%C3%B3n_

Mozilla[46] http://es.wikipedia.org/wiki/GNU/Linux[46] http://es.wikipedia.org/wiki/Commodity[47] http://es.wikipedia.org/wiki/Mercanc%C3%ADa_

%28econom%C3%ADa%29[48] http://es.wikipedia.org/wiki/Mashup_%28aplica-

ci%C3%B3n_web_h%C3%ADbrida%29[49] http://ezweb.morfeo-project.org/[50] http://mymobileweb.morfeo-project.org/[51] http://soa.morfeo-project.org/mas[52] http://forge.morfeo-project.org/projects/tidorbj/[53] http://smartflow.morfeo-project.org/[54] http://wasup.morfeo-project.org/

SOFTWARE LIBRE E INNOVACIÓN ABIERTA. COMUNIDADES DE SOFTWARE LIBRE

78

Page 80: Tecnologias Para Las Telecomunicaciones Del Futuro

79

Page 81: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 82: Tecnologias Para Las Telecomunicaciones Del Futuro

EL PAPEL DE LOS OPERADORES EN LOS SERVICIOSBASADOS EN LOCALIZACIÓN

José Antonio Jiménez

Demetrio Martínez

Rafael Sorribas

Page 83: Tecnologias Para Las Telecomunicaciones Del Futuro

CONTEXTO ACTUAL

Los Servicios Basados en Localización (LBS), cuyo éxitocomercial ha sido pronosticado desde hace años, estáncomenzando a cobrar gran importancia dentro de lasaplicaciones móviles. Tras un lento despegue, reciente-mente han ocurrido diversos sucesos y movimientos enel sector de las comunicaciones que confirman la rele-vancia de este tipo de servicios.

Algunos de los principales actores de las telecomunica-ciones móviles han dado pasos inequívocos en su apues-ta por los LBS. Entre ellos, por citar solo algunos, podemosmencionar los casos de:

• Google, que está invirtiendo ingentes cantidades dedinero en la elaboración de bases de datos cartográfi-cas propias, intentando integrar información de redesmóviles (antenas y coberturas), redes WiFi, e informa-ción obtenida a través de GPS. Todo ello se embarcadentro de un proyecto colaborativo en el que los usua-rios contribuyen a la generación de esta cartografía omapas de cobertura. Además de Google, existen otrasiniciativas similares que intentar elaborar bases dedatos de forma colaborativa. Todos estos proyectostratan de solventar el hándicap que representa notener información de primera mano acerca de lasredes móviles (y WiFi) desplegadas por los operadoresde comunicaciones. Esta información de topología ycobertura de red es todavía un activo muy importantepara las operadoras.

• Microsoft. Al igual que Google, ha apostado decidida-mente por los servicios basados en localización,potenciando su servicio de mapas y búsquedas geo-gráficas (Microsoft Maps) integrado en la plataformaMicrosoft Live. De modo similar a Google (que ofrecefuncionalidades como el StreetView para poder visua-lizar ciudades a vista de calle como si fuésemos unpeatón más), Microsoft también ofrece característicaspropias como el Bird’s eye (Vista de pájaro), que permi-ten gozar de detalladas visualizaciones para numero-sas ciudades del planeta.

• Nokia fue uno de los pioneros en adentrarse en elmercado de los LBS a través de movimientos como lacompra del proveedor de cartografía/GIS NAVTEQ.Esto le permitió disponer de un proveedor de mapaspropios, lo cual es una ventaja estratégica indudable.Cabe destacar que el mercado de la cartografía estáprácticamente dominado por lo que es casi un duopo-lio entre NAVTEQ y TeleAtlas. En paralelo, Nokia acom-pañó esta acción con otros movimientos como el lan-zamiento de nuevos terminales móviles dotados conGPS (N-95/6/7, 5800, etc.), y con el lanzamiento de unatienda de aplicaciones móviles con servicios orienta-dos a la localización. En este sentido, uno de los servi-cios más exitosos es el Nokia Maps, que intenta conju-gar todos estos elementos (aplicaciones móviles pro-

pias, capacidades GPS integradas en el móvil, y carto-grafía propia)

• Apple también supo reaccionar al auge de los LBS, yrápidamente lanzó al mercado una segunda genera-ción del iPhone en la que las dos principales noveda-des fueron la presencia de conectividad 3G y de posi-cionamiento por GPS. Esto ha permitido dar un espal-darazo a su tienda de aplicaciones, en la que han sur-gido multitud de aplicaciones que intentar aprovecharla funcionalidad GPS para ofrecer servicios orientadosa la localización del usuario.

• Vodafone también mostrado signos claros de su inte-rés, como es el caso de la compra de Wayfinder, unacompañía sueca puntera en el sector de aplicacionespara GPS, con amplia experiencia en Symbian, UIQ,Windows Mobile y otros sistemas.

El papel de la localización y los LBS ha transcendido másallá del ámbito móvil para adentrarse en todos los secto-res de la informática y las comunicaciones, incluyendotambién los entornos “fijos” (cableados) y las aplicacionesy terminales de sobremesa. Parece claro que el hábitatnatural de los LBS son los terminales móviles, puesto quesu propia naturaleza portable hace más interesante lainformación dinámica relativa a la ubicación geográficadel usuario, pero hoy en día las características dependien-tes de la localización también se han introducido en lasaplicaciones tradicionales de Internet. En este sentido,una de las principales causas ha sido la espectacularpopularización de las redes sociales (Facebook, MySpace,etc.). Este tipo de aplicaciones, a las que los usuarios acce-den de forma constante, tanto desde su ordenador fijocomo desde sus terminales móviles, son uno los entornosdonde la información y funcionalidades de localizaciónse están introduciendo con el fin de hacerlas más intere-santes y ricas. De esta forma, los usuarios pueden saberen todo momento la ubicación geográfica de sus contac-tos, y gozar de diversas funcionalidades solo posiblesconociendo la localización de los usuarios.

Con el fin de dar mejor soporte a los LBS, diversos orga-nismos de estandarización o normalización están intro-duciendo características de localización en sus especifi-caciones, también para el caso de aplicaciones fijas.Como ejemplos, las últimas especificaciones de la W3C,donde se han incluido APIs de localización con el fin dehacer más sencilla la incorporación (extracción y envíoautomático) de información de localización en páginaswebs. Algunos de los navegadores más populares(Firefox, Opera, …) ya incluyen en sus últimas versionesestas funcionalidades de localización, puesto que seasume que en el futuro el comportamiento o funcionali-dad de cualquier página o servicio web estará influidopor la localización y contexto del usuario (así por ejem-plo, al entrar en una página de noticias o informaciónmeteorológica, no será necesario que el usuario introduz-ca su ubicación actual para que los contenidos se ajusten

EL PAPEL DE LOS OPERADORES EN LOS SERVICIOS BASADOS EN LOCALIZACIÓN

82

Page 84: Tecnologias Para Las Telecomunicaciones Del Futuro

a ella, ya que la información de localización se obtendráde forma automática; o que los resultados de una bús-queda tengan en cuenta la ubicación del usuario)

Pero, volviendo al ámbito móvil, uno de los problemastodavía por superar es la limitación de cobertura que pre-senta el uso de GPS como tecnología de posicionamien-to. Si bien el uso de GPS (o Galileo en el futuro) presentagrandes ventajas, entre las que destaca fundamental-mente su gran precisión en la estimación de la posición,también tiene algunos inconvenientes o problemas sig-nificativos. Entre las desventajas de GPS, cabe destacar,sin lugar a dudas, el hecho de que este tipo de posiciona-miento solo funciona en exteriores, con lo que no es posi-ble localizar a un usuario que se encuentra dentro de unedificio. Incluso en entornos exteriores, la localizaciónpuede verse impedida o dificultada por diversos aspectoscomo son los “cañones urbanos” (en grandes ciudades,donde los altos edificios y/o calles estrechas puedenimpedir la “visión” de los satélites de GPS), vegetaciónfrondosa (árboles), túneles o pasos elevados, etc.

Ante este panorama, si de verdad se desea que los servi-cios basados en localización funcionen de manera efi-ciente y continuada, es necesario disponer de mecanis-mos de posicionamiento adicionales al satélite. En estesentido, las principales alternativas son:

• WiFi: Localización basada en la red a la que el usuarioestá conectado

• Localización por red móvil. Basada en la informaciónde celda (estación base) en la que se encuentra elusuario o en las estaciones base próximas.

La localización por WiFi tiene diversos problemas.Actualmente las redes WiFi no están homogeneizadas encuanto a sus parámetros (tipo de direccionamiento, visi-bilidad externa, presencia de gateways/proxies, …) ni encuanto a su despliegue. Esto hace que sea prácticamenteinviable el usar el posicionamiento por WiFi como unasolución global, salvo en entornos controlados. Para loca-lizar un dispositivo conectado a una red WiFi, necesita-mos saber la ubicación del punto de acceso, detalles deltipo de direccionamiento, cobertura, etc. Debido a estaspeculiaridades, la localización por WiFi puede ser unaalternativa interesante para ciertos entornos específicos(centros comerciales, aeropuertos, estaciones, espaciospúblicos, …) donde es posible obtener una localizaciónprecisa en interiores y desplegar servicios útiles (guías odirectorios para los usuarios, información comercial,publicidad, etc.)

La localización por red móvil aparece como una opciónmucho más interesante para los LBS, ya sea como opciónprincipal o combinada con GPS. Dependiendo del tipo dealgoritmo utilizado, es posible disponer de una precisiónalta en la localización (cuando se usan técnicas basadasen “triangulación”, del estilo al “ángulo de llegada”,“tiem-

po de llegada”, “tiempo de subida”), si bien este tipo detécnicas (OTD, E-OTD, AOA, …) tienen la desventaja de querequieren que el usuario esté en cobertura de al menostres estaciones base de forma simultánea. Otras técnicasmás simples (identificador de celda, Cell-ID, y sus deriva-dos y mejoras) permiten localizar al usuario de formasimple, y con una precisión que puede ser aceptable paramuchas aplicaciones (información meteorológica, publi-cidad basada en localización, páginas amarillas, etc.),especialmente en entornos urbanos.

En cualquier caso, la localización por red móvil requierede un conocimiento acerca de los recursos y topología dela red móvil que está desplegada. Aquí es donde el papeldel operador se hace clave, puesto que tiene una infor-mación privilegiada de muy alto valor.

En el ámbito de los LBS, el operador está en una posiciónestratégica clave. Esto es debido a varios factores:

• Control de la plataforma de localización y las capaci-dades de los terminales. El operador puede desarrollary/o desplegar su propia plataforma de localización, loque le permite integrar y controlar diversas tecnolo-gías de posicionamiento, como puede ser elGPS/Galileo, la localización por red móvil, la localiza-ción por WiFi, etc. Además, el operador tiene informa-ción acerca de las capacidades de los terminales (tiposde algoritmos o técnicas de posicionamiento soporta-dos, coberturas, etc.)

• Confianza de los usuarios en sus sistemas de factura-ción y pago. Una de las cosas más difíciles de conse-guir para cualquier compañía que comercializa un ser-vicio o producto es que los usuarios accedan a propor-cionar sus datos de cuenta bancaria (o tarjeta) y seanfacturados de forma automática. Este es un aspectoesencial donde las operadoras (al igual que otras com-pañías de “utilities”) tienen una ventaja estratégicafundamental. Las operadoras pueden comercializarservicios finales y cobrar por ellos a los usuarios.Incluso si las operadoras no comercializan el producto(no actúan como proveedor final del servicio), es pro-bable que los usuarios prefieran que sus pagos seangestionadas por alguien en quien ya confían.

• Otro factor es la facilidad que tiene el operador paradistribuir o comercializar nuevos servicios de comuni-caciones (especialmente en el ámbito móvil). Los ope-radores pueden integrar diversos servicios (o funcio-nalidades) en los terminales que son comercializadosa través de su red comercial, o pueden incluso incluirfuncionalidades de forma preinstalada en el firmwaredel terminal (previo acuerdo con el fabricante).También pueden lanzar tiendas de aplicaciones o dis-tribuir los servicios en un modelo basado en descarga.Esta ventaja en el canal de distribución no debe sermenospreciada.

83

Page 85: Tecnologias Para Las Telecomunicaciones Del Futuro

Todo ello hace que los modelos de negocio posibles seanmuy amplios para el operador, que puede actuar comoproveedor final (Application Service Provider, ASP) de ser-vicios LBS, o puede encajarse en otros esquemas, median-te acuerdos con terceras partes (Google, Microsoft,…)para desplegar servicios en los que la operadora propor-ciona tecnología (plataforma con información de locali-zación y conectividad móvil) y el ASP contenidos (más labase de usuarios que ya confían en sus productos)

Este gran abanico de diferentes modelos de negocio ycolaboración también se apoya en aspectos técnicos:

• Integración de capacidades de localización en redesIMS. Las nuevas arquitecturas y especificaciones deIMS incluyen la presencia de enablers o componentesdedicados a la localización y presencia del usuario. Deesta forma, el operador puede desarrollar su platafor-ma de localización e integrarla dentro de su arquitec-tura IMS. Esto permite, por una parte, integrar y gestio-nar de forma uniforme aspectos de autenticación, pri-vacidad, facturación, etc., y por otra parte permite des-plegar y comercializar nuevos servicios de forma rápi-da y consistente, a través de Service Delivery Platforms(SDP) integradas en IMS.

• Utilización de estándares para el despliegue de servi-cios basados en localización. En este sentido, uno delos principales es el estándar SUPL, surgido de OMA(Open Mobile Alliance), y que actualmente está en suversión 2.0. Este estándar, basado en arquitecturas de“plano de usuario” (basadas en comunicaciones IP)permite el desarrollo y despliegue de servicios deforma rápida y de tal modo que las aplicaciones pue-dan ser desarrolladas por terceros y ser desplegadassobre la plataforma del operador sin necesidad deconocer los detalles internos. Entre las novedades queel estándar SUPL 2.0 ofrece, podemos citar:

o Soporte de nuevas tecnologías de posicionamientobasadas en WiFi y futuras evoluciones (WiMax)

o Soporte del sistema de navegación europeo Galileo

o Soporte de comunicación UDP/IP y SIP Push (lo quefacilita su integración en arquitecturas IMS)

o Soporte de localización de llamadas de emergencia(incluyendo llamadas de emergencia en redes IMS)

INFINIDAD DE APLICACIONES

Este soporte técnico, pensado en gran medida para facili-tar la creación y despliegue de nuevos servicios, haaumentado considerablemente el catálogo de serviciosbasados en localización existentes hoy en día. El universode distintos LBS puede ser clasificado de diversas formas,tanto por áreas temáticas, como por criterios técnicos, o

de requisitos de calidad de servicio, como se muestra enla figura.

De entre todos los servicios existentes o previstos, se pue-den destacar algunos que parecen ser los que presentanmayor potencial comercial:

• Navegación: El esquema básico sería un móvil con A-GPS y unos mapas o contenidos cartográficos. Sinembargo, la gran innovación para el futuro más cerca-no vendrá dada por la naturaleza dinámica de los con-tenidos. No es suficiente con tener unos datos(mapas) estáticos almacenados en la memoria delmóvil. Debido a la gran importancia que tienen loscontenidos recientes y actualizados constantemente,y gracias a la capacidad de conexión de los móviles aInternet (sobre todo por la popularización de esque-mas y tarifas de Internet móvil), las nuevas aplicacio-nes de navegación tendrán una conectividad casi per-manente, permitiendo así que los contenidos (mapas,obras, incidencias, estado del tráfico, puntos de inte-rés) puedan ser actualizados en tiempo real. De estaforma, nuevos servicios con mayor valor añadido(como el saber el estado de las carreteras, atascos yobras) se podrán desplegar y enriquecer las tradicio-nales aplicaciones “estáticas” de navegación. La distri-bución de estos contenidos en tiempo real, presentaobviamente unas interesantes sinergias para el opera-dor, que puede de esta forma actuar como proveedorglobal del servicio, obteniendo ingresos derivados delservicio de navegación en sí mismo (+ los contenidosdinámicos asociados) y del tráfico de datos generadopor el servicio.

• Seguimiento de personas (Personal Tracking) / Buscaramigos (Friend Finder). Éstas serían todas las aplicacio-nes de seguimiento en tiempo real, incluyendo locali-zación de amigos (de gran interés para su combina-ción con redes sociales), servicios de citas, seguimien-to de niños o personas mayores, etc.

EL PAPEL DE LOS OPERADORES EN LOS SERVICIOS BASADOS EN LOCALIZACIÓN

84

Page 86: Tecnologias Para Las Telecomunicaciones Del Futuro

• “Info-búsquedas” (+ publicidad). En este tipo de apli-caciones englobaríamos aquéllas de búsqueda deinformación donde el contexto o ubicación es relevan-te. Tal es el caso de las Páginas amarillas en el móvil (+puntos de interés –POI- asociados), búsquedas locales,combinación de búsquedas locales con mapas y publi-cidad basada en localización, etc.

• Juegos basados en localización. Aparecen como unaaplicación muy interesante, habida cuenta del granéxito comercial que han tenido los juegos para móvi-les. Aparte de los posibles ingresos generados por ladescarga del juego o subscripción al servicio, hay queconsiderar los retornos derivados del tráfico de datosque se puede necesitar en un juego basado en locali-zación con componentes online/multi-jugador. El ope-rador aparece como un proveedor de servicio idealpara estas aplicaciones, puesto que puede integrar ygestionar de forma coordinada la autenticación deusuarios, plataforma de localización, plataforma deservidores de lógica del juego, aspectos de facturaciónde conectividad, etc. No debe olvidarse tampoco elhecho de que el target comercial de estas aplicacionesincluye a algunos de los perfiles de más interés ( jóve-nes y adolescentes).

• Aplicaciones profesionales. Aquí se incluirían las apli-caciones tradicionalmente destinadas a entornos pro-fesionales, como Gestión de flotas de vehículos,Gestión de grupos de trabajo (patrullas, retenes, etc.),aplicaciones en el sector automoción (Road UserCharge –RUC-, Intelligent Speed Adaptation –ISA-,Advanced Driver Assistance Systems –ADAS-, etc.).

TEMAS PENDIENTES. PUNTOS A MEJORAR

A pesar del boom que están teniendo los servicios basa-dos en localización, hay algunos aspectos que todavíadeben evolucionar o mejorar para convertir a los LBS enuna autentica revolución que alcance a todos los usua-rios de comunicaciones y se introduzca en nuestras vidasde forma similar a como sucedió con el móvil por símismo.

Entre los aspectos de interés para el futuro más cercanoestán:

• Políticas y regulaciones que impulsen de forma defini-tiva el uso de servicios basados en localización y lastecnologías asociadas. En Estados Unidos, la FCC(Federal Communications Commission) elaboró unmandato que obligaba a que todas las llamadas deemergencia (911) realizadas desde un móvil debíanfacilitar de forma automática la localización del usua-rio, dentro de unos márgenes de precisión. Dichanorma y la precisión requerida supuso un gran espal-darazo a la venta de terminales móviles equipadoscon chips GPS. El equivalente europeo al 911 es el 112,pero aquí la situación es mucho más laxa y ambigua

que en EE.UU. Existen diversas iniciativas en marchadesde la Comisión Europea para promulgar una leypara el E112 equivalente al mandato americano.Aunque a día de hoy la legislación europea sobre lasllamadas de emergencia (E112) y eCall (llamadas auto-máticas en caso de accidente) no es aún tan exigente(no se estipula ningún margen de precisión para lalocalización de llamadas), se prevé que en el futuromás cercano una nueva ley regule todos los aspectosrelativos a la provisión automática de la localizaciónen las llamadas de emergencia o de accidentes. Estopuede requerir también que los fabricantes de auto-móviles se involucren en el proceso (o se vean obliga-dos a instalar equipamientos de posicionamiento).

• Necesidad de plataformas de localización con meca-nismos de posicionamiento híbridos. Como se hadicho anteriormente, el GPS por sí solo no cubre todaslas necesidades y requisitos para desplegar serviciosbasados en localización. Es necesario disponer de unaplataforma que sepa gestionar diversas tecnologías(posicionamiento por GPS/A-GPS, Galileo en el futuro,posicionamiento por red móvil, posicionamientoWiFi…) para así poder cubrir todas las situaciones yaumentar la cobertura a todos los usuarios, indepen-dientemente de su tipo de terminal o conexión.Además, el hecho de disponer de una plataforma delocalización con diversas tecnologías permite mejorarlas capacidades de la localización. Por ejemplo, uno delos aspectos que pueden resultar más beneficiados esel Tiempo Para la Primera Adquisición (Time To First Fixo TTFF), ya que la plataforma puede ayudar al móvil aobtener más rápidamente su posición mediante eluso de A-GPS o mediante el envío de datos relativos alas posiciones y visibilidad de los satélites (ephemeris).Estas plataformas podrían ser operadas y gestionadasy por los operadores de comunicaciones, ya que sonellos quienes tienen control y acceso a todas las infor-maciones involucradas. El mecanismo de combinaciónde tecnologías no es algo sencillo, puesto que debeacompañarse de algoritmos que sepan discernir quétecnología debe emplearse en cada momento paralocalizar un usuario, si existe posibilidad de combinarinformaciones de distintas fuentes, etc.

• Mejor interoperabilidad de los servicios basados enlocalización. Esto afecta principalmente a la interope-rabilidad entre usuarios de distintos países o que seencuentren en itinerancia en redes de otro operador.

• Nuevos estándares, que deben dar soporte a aspectoscomo las nuevas redes de comunicaciones (Long TermEvolution –LTE-), soporte de localización de llamadasde emergencia desde teléfonos IP, localización de muyalta precisión (varios centímetros), etc. Estos son algu-nos de los temas que se proponen para el futuroestándar SUPL 3.0, que se está empezando a gestardentro de la OMA.

85

Page 87: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 88: Tecnologias Para Las Telecomunicaciones Del Futuro

ESTADO ACTUAL Y PRÓXIMOS RETOS DE LA TECNOLOGÍA OSGi

Miguel García Longarón

Page 89: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

Es curioso observar como Java, lenguaje nacido con unaorientación a dispositivos empotrados conectados, acabóencontrando su nicho más exitoso en los servidores deaplicaciones empresariales, y como OSGi años despuésestá siguiendo el mismo camino. Si se puede destacaruna tendencia desde la última versión de la especifica-ción, es el interés de los clásicos desarrolladores de servi-dores J2EE y contendores de aplicaciones empresarialesen aprovechar las características de esta tecnología.

El mercado inicial al que se orientaba este framework erael de la pasarela residencial (el concepto que se teníahace 10 años) que gestionara los dispositivos del hogar(con bastante énfasis en la domótica), y a lo largo de losaños se ha ido aplicando a diferentes campos como laautomoción, dispositivos industriales, telefonía móvil,etc. Con los casos de uso y requisitos introducidos por losactores de estos mercados, el framework se ha ido enri-queciendo para cubrirlos adecuadamente. A día de hoyOSGi se utiliza en todo tipo de entornos y dispositivos,desde pequeños dispositivos empotrados (por ejemplolos “Bugs” de Bug Labs (1) hasta grandes servidores de

aplicaciones (en los que se instalan productos como“Spring dm Server” (2).

Es importante destacar que la OSGi Alliance ha sidoextremadamente cuidadosa en no hacer crecer en exce-so el núcleo de la especificación, permitiendo así que estasiga siendo válida para entornos limitados aunque seañadan características necesarias para construir siste-mas más complejos. Las nuevas funcionalidades se anali-zan cuidadosamente, y sólo se añade lo imprescindible alframework para satisfacer los requisitos. La mayor partede las nuevas funcionalidades suelen introducirse comoservicios opcionales, que se pueden añadir al frameworken función de las necesidades del software que quera-mos construir.

OSGI RELEASE 4.2

Como hemos comentado, el ritmo de esta versión lo hamarcado fundamentalmente el interés en aplicar OSGi alentorno de aplicaciones empresariales ejecutándose engrandes servidores. No ha sido el único mercado verticalactivo, también la adaptación del framework a la pasare-la residencial ha tenido relevancia, pero las adaptaciones

ESTADO ACTUAL Y PRÓXIMOS RETOS DE LA TECNOLOGÍA OSGi

88

Tabla 1. Servicios definidos en las diferentes versiones de la especificación

Tras diez años de desarrollo, la tecnología OSGi está alcanzando su madurez y ciertanotoriedad en el mundo Java. Posiblemente podríamos decir que OSGi está en el puntoalto del su propio “hype cicle”, y por tanto muchos tendrán su desilusión con estatecnología antes de que se asiente definitivamente en aquellos nichos en los queproporciona un valor real. Con motivo de la reciente publicación de la última versión delas especificaciones de la OSGi Alliance, la Release 4.2, haremos un repaso a lasnovedades disponibles y el trabajo en curso en diferentes áreas.

Page 90: Tecnologias Para Las Telecomunicaciones Del Futuro

necesarias en este caso son menores en comparación.

Las diferentes versiones de la especificación OSGi, desdela versión 4, se publican en dos documentos diferentes:

• “Core Specification”: especifica lo que es imprescindi-ble implementar en un framework OSGi compatible.Incluye algunos servicios básicos que también se con-sideran parte fundamental de la especificación. (3)

• “Service Compendium”: especifica todos los servicios yutilidades opcionales que se pueden añadir al núcleode la especificación. (3)

Novedades en el núcleo de la especificación

Entre estas novedades destacamos tres puntos:

• Lanzamiento del framework. Hasta esta especifica-ción no existía una forma estándar de lanzar un fra-mework OSGi. Aunque existen herramientas que faci-litaban lanzar un framework independientemente desu implementación (4), con este mecanismo estándarse facilitará mucho el trabajo de aquellos que debenprobar sus desarrollos en diferentes implementacio-nes.

• “Service Hooks”. Este mecanismo permite conocer queservicios intenta utilizar un bundle, interceptar suspeticiones e intermediar en ellas de forma completa-mente transparente al bundle cliente del servicio.

• Mejoras en el modelo de seguridad. La seguridad delframework OSGi se define extendiendo la “JavaSecurity Architecture” (5). En versiones previas de laespecificación sólo se podían dar permisos, teniendo

que enumerar cada uno de ellos. En OSGi 4.2 podemosespecificar que servicios no queremos que tenga unbundle, para aquellos casos en que enumerar lo quequeremos prohibir es más sencillo que enumerar todolo que queremos permitir.

Novedades en los servicios y utilidades opcionales

Las principales novedades son las relativas a:

• “Bundle Tracker”. Esta nueva utilidad proporciona fun-ciones similares al ya disponible “Service Tracker”, sóloque permite monitorizar bundles en vez de servicios.Nos permitiría por ejemplo monitorizar que bundlesincluyen un fichero “web.xml”, para registrar la aplica-ción web correspondiente al arrancar el bundle.

• “Remote Services” (6). El framework OSGi se ejecutasobre una máquina virtual Java (JVM en adelante) y losservicios que exporta no son sino objetos localmenteaccesibles. Al recuperar un servicio estamos recibien-do una referencia al objeto en memoria creado por elbundle que registra el servicio. Por tanto, el núcleo dela especificación no contempla mecanismos de comu-nicación distribuida. Con este nuevo desarrollo, nues-tros servicios se pueden hacer distribuidos, y un clien-te podrá acceder de forma transparente a un serviciosin saber si este se ejecuta localmente o en un unamáquina remota. Por supuesto, en la medida que losprotocolos de comunicaciones implicados lo permi-tan, siempre deberemos ser conscientes de que si que-remos hacer un servicio distribuido eso tiene implica-ciones.

• “Blueprint Service” (7). Es otro mecanismo de gestiónde dependencias hacia servicios similar al ya existente

89

Figura 1.Esquema de interacción con servicios remotos utilizando “Distributed OSGi”

Page 91: Tecnologias Para Las Telecomunicaciones Del Futuro

“Declarative Services”. Este nuevo modelo ha sidoimpulsado por “Spring Source” y sus similitudes conlos mecanismos presentes en su framework Springson evidentes. Añade la novedad de proporcionar pro-xies de los servicios requeridos por los clientes, deforma que si una dependencia desaparece temporal-mente por una actualización, el proxy se encarga deevitar la desactivación en cadena de todas las depen-dencias (y mantiene las llamadas en espera hasta queel servicio actualizado esta disponible). Existen dife-rentes desarrollos para gestionar dependencias simi-lares a este, pero todos pueden interaccionar entreellos al tener el registro de servicios de OSGi comobase común (8).

Implementaciones disponibles

Existen muchas implementaciones de las especificacio-nes del framework OSGi. Nos centraremos aquí en las decódigo abierto y su estado de implementación de la“Release 4.2”.

• Equinox (9). Su última versión estable (la 3.5), imple-mentaba el DRAFT público de la especificación, que nose ha modificado sustancialmente en la versión final.La versión actualmente en desarrollo (3.6) tendrásoporte completo del núcleo de OSGi 4.2.

• Apache Felix (10). En su versión más reciente, la 2.0,proporciona soporte completo del núcleo OSGi 4.2

• Knopflerfish (11). A falta de implementar el nuevomecanismo estándar para lanzar el framework, lareciente versión 3.0.0-beta2 implementa el core OSGi4.2

MOVIMIENTOS RELEVANTES EN LOSDIFERENTES ESCENARIOS VERTICALES

La OSGi Alliance organiza el trabajo de captura de requi-sitos y análisis de soluciones por mercados verticales (12),en concreto cuatro grupos técnicos ( “Vehicle”, “Mobile”,“Enterprise” y “Residential”) que trabajan en colaboracióncon un quinto (“Core”) que se encarga tanto de la especi-ficación del núcleo del framework como de mantener lacoherencia del trabajo realizado en los diferentes grupos.Analizamos en los siguientes apartados los movimientosque se están produciendo en las diferentes áreas de inte-rés para la tecnología OSGi.

Enterprise OSGi

Como se ha comentado previamente, este ha sido ungrupo especialmente activo durante el desarrollo de estaversión de la especificación. De hecho, salvo las contribu-ciones que han realizado al núcleo y algunos adelantoscomo los servicios distribuidos y la especificación“Blueprint Service”, la mayor parte del trabajo de estegrupo sigue en marcha. Este trabajo se centra fundamen-

talmente en integrar las tecnologías tradicionalmenteutilizadas en un entorno JEE dentro de OSGi, lo que aveces es problemático debido a que las librerías “legacy”no tienen en cuenta el entorno dinámico de OSGi o suarquitectura de carga de clases (13).

Durante los últimos años, los mayores actores de laindustria asociada al JEE han ido adoptando OSGi unotras otro para construir sus servidores de aplicaciones:IBM WebSphere, JOnAS , Oracle Weblogic , Red Hat JBoss,SprinSource Application Framework, Sun Glassfish, etc.(14) En la mayor parte de los casos aprovechan las carac-terísticas de OSGi para mejorar los servidores pero noofrecen esa ventaja a los desarrolladores (probablementea la espera de resolver los problemas de integración exis-tentes en las librerías existentes JEE). Pero algunas solu-ciones ya permiten desarrollar las propias aplicacionescomo un conjunto de bundles OSGi, permitiendo un dise-ño modular de las propias aplicaciones. Hay que estudiaren detalle cada caso para saber exactamente en que con-siste la integración con OSGi.

Otro movimiento interesante es la generalización derepositorios de librerías con meta-información OSGi.Muchas comunidades (Eclipse, Apache, SpringSource,etc.) promueven la incorporación de meta-informaciónOSGi en sus binarios, pero en el caso de que existan libre-rías populares cuyos desarrolladores no realizan este tra-bajo se añade esta información a posteriori. Es decir, sepuede transformar un fichero .jar (formato en el que sedistribuyen los binarios Java) en un bundle OSGi con sóloañadir esta meta-información, sin necesidad de recompi-lar. La mayor parte de repositorios de bundles OSGi estánagregados en un repositorio central, denominado “OSGiBundle Repository” (15).

Residential OSGi

La pasarela residencial, escenario original que alumbró latecnología OSGi, no ha tenido su propio grupo de trabajohasta hace poco tiempo (dos años aproximadamente). Enrealidad, la posibilidad de disponer de esta tecnología enun dispositivo masivamente desplegado en las casas,similar a un router avanzado pero con capacidad de alo-jar servicios remotamente gestionados, ha sido retrasadauna y otra vez por motivos de coste. La necesidad deintroducir una JVM, que consume recursos de memoria yprocesador, y además dejar un margen para incluir losservicios, generaba un coste de dispositivo que no eraasumible por las operadoras. La demanda del tipo de ser-vicios avanzados en el hogar que se podría ofrecer noconvencía a las unidades de negocio acerca de la rentabi-lización del dispositivo.

Sin embargo, ese escenario parece estar cambiando, y ungrupo de socios de la OSGi Alliance inició el nuevo grupopara relanzar las actividades relacionadas con la pasarelaresidencial. El resultado visible de ese trabajo a día de hoyes un “DRAFT“ público con la especificación de dos nue-

ESTADO ACTUAL Y PRÓXIMOS RETOS DE LA TECNOLOGÍA OSGi

90

Page 92: Tecnologias Para Las Telecomunicaciones Del Futuro

vos servicios opcionales, orientados a la gestión remotade la pasarela residencial basada en OSGi (16). Es tambiénde especial relevancia la nota de prensa conjunta que la“Home Gateway Initiative” y la “OSGi Alliance” publicaronrecientemente, anunciando un acuerdo de colaboraciónpara integrar el framework OSGi en la pasarela residen-cial (17).

Mobile OSGi

Este grupo apenas tuvo actividad en este último período,después de un tiempo de considerable actividad en elque se especificaron un gran número de nuevos servicioshasta la “Release” 4.0, algunos muy enfocados al entornodel teléfono móvil (gestión basada en OMA DM por ejem-plo). Posteriormente a la publicación de la especificaciónOSGi Mobile, se trabajó en la estandarización de la JSR232 (18) en la JCP (19) dado que la JCP es el marco en elque se estandariza de forma oficial para la plataformaJava. De esta forma el framework OSGi se introduce comoun requisito en los dispositivos móviles con un perfil CDC(20).

En los últimos dos años, aparece la plataforma “Titan” deSprint (21), una plataforma que implementa la JSR 232 yañade cierto soporte extra, entre lo que destaca un con-tenedor de “servlets” con soporte para “widgets” y la ver-sión empotrada de la “Rich Client Platform” de Eclipse (22)

Sin embargo la relevancia de esta plataforma ha queda-do bastante eclipsada por el éxito de Android, que con elapoyo de Google detrás, ha sabido capitalizar mejor laenorme cantidad de desarrolladores Java que hay en elmundo. Sin embargo, habría que preguntarse si el éxitode Android debe ver necesariamente como un problemapara OSGi (23) o como una oportunidad. Desde luego, escompetencia para la JSR 232 y en general todos los están-dares promovidos por la JCP (sin duda un objetivo deGoogle es desvincularse de esta organización y sus limi-taciones), pero ejecutar un framework OSGi sobre la

“Dalvik Virtual Machine” (equivalente Android de la JVM)no es un problema. Con el tiempo están surgiendo pro-puestas de integración de OSGi con Android (24) queparecen muy prometedoras.

Vehicle OSGi

Fue el primer grupo de trabajo que se formó en la OSGiAlliance, y sin embargo no ha llegado a producir resulta-dos. Existen requisitos e incluso algún borrador de espe-cificación de servicios OSGi específicos para el coche,pero no se ha llegado a concretar nada. A pesar de recien-tes intentos para resucitar estas actividades, incluidoseventos organizados por Telefónica I+D (25), no se ha con-seguido generar acciones relevantes. El desinterés de losfabricantes en estandarizar soluciones para los serviciosconectados es quizás el mayor problema para crear masacrítica en este grupo.

Sin embargo, esta falta de estandarización contrasta conla existencia de soluciones comerciales basadas en OSGi,como por ejemplo la plataforma de SIEMENS VDOimplantada en los BMW serie 5, y gran cantidad de pro-yectos de investigación. Podríamos destacar a nivel euro-peo entre estos últimos al proyecto CVIS (26), que basa suplataforma de ejecución en un framework OSGi. Tambiéna nivel nacional se encuentra ejemplos de proyectos enlos que OSGi tiene un papel muy relevante, como el pro-yecto mVIA (27).

OSGI COMO MIDDLEWARE UNIVERSAL YESTANDARIZACIÓN EN LA JCP

Según se ha puesto de manifiesto en este informe, OSGiha ido evolucionando con el tiempo, desde una tecnolo-gía para nichos muy específicos a un recurso útil paracualquier desarrollador Java en cualquier entorno. Cabeincluso preguntarse si no tendría sentido incluir OSGicomo parte de la JVM, con una integración que permitie-ra continuar trabajando como hasta ahora a aquellos no

91

Figura 2. Comparación de características de Android y OSGi

Page 93: Tecnologias Para Las Telecomunicaciones Del Futuro

interesados en OSGi. Al fin y al cabo, uno de los proble-mas de la JVM es que no es modular, debes descargarlaentera con todas sus librerías antes de ejecutarla, y eso esun problema por ejemplo de cara a habilitar plugins enlos navegadores web. Disponer de una pequeña JVMmodularizada, que descargara en tiempo de ejecuciónsólo las librerías necesarias, abriría posibilidades nuevas.

La necesidad de modularizar la JVM se ha convertido enun hecho reconocido en la comunidad Java. El problemaestá ahora en el enfoque. Por supuesto, la OSGi Alliancedefiende que las soluciones deberían conducirse por unaintegración con OSGi y que la solución es técnicamenteposible, pero Sun no acepta esta solución. Esto ha desem-bocado en la creación de unas cuantas JSRs en la JCP queaumentan la confusión sobre el tema, que resumimos acontinuación para intentar aclarar la situación:

• JSR 277,“Java Module System” (28). Esta enfocada a pro-porcionar un sistema modular para la JVM. Esta JSRtuvo algo de actividad hace algún tiempo, fundamen-talmente por parte de Sun, y escasa visibilidad en sutrabajo. En estos momentos está parada.

• JSR 291, “Dynamic Component Support for Java” (29).Enfocada a proporcionar soporte para desarrollarcomponentes dinámicos para Java. Básicamente es laespecificación OSGi Release 4.1, sin la capa de servi-cios. Aprobada con el voto en contra de Sun.

• JSR 294, “Improved Modularity Support in the JavaTMProgramming Language”. Debe proporcionar las mejo-ras del lenguaje Java para dar soporte al desarrollomodular, asegurando la coherencia con la JSR 277 (nomenciona nada acerca de la JSR 291).

En la situación actual de bloqueo de la JSR 277, aparece elproyecto Jigsaw (31). Este proyecto consiste en modulari-zar OpenJDK en su próxima versión (la que implementala especificación de Java SE 7), pero sin estándar asociadoya que la JSR 277 está parada. Es decir, OpenJDK serámodularizada con un sistema diseñado de forma especí-fica sin debate en la JCP con otros implementadores de laJVM y con poca relación con OSGi, el sistema modular

más extendido a día de hoy entre los desarrolladoresJava.

La JSR 294 sin embargo sigue estando activa, a pesar deque en principio la solicitud de esta JSR debería estar des-arrollándose en paralelo a la JSR 277 que no tiene activi-dad. El trabajo que se está desarrollando en esta JSR sepuede consultar subscribiéndose o accediendo al archivode una lista pública de correo electrónico (32). El debatese está centrando fundamentalmente en que la especifi-cación permita su implementación tanto en OSGi comoen Jigsaw, sin mucho consenso por el momento. Ante lasdificultades encontradas para llegar a un acuerdo, losexpertos en OSGi que participan en la JSR han propuestoun mínimo común múltiplo denominado “SimpleModule System Proposal” (33) que permita luego exten-derlo con las particularidades de Jigsaw y OSGi. Sinembargo la discusión de los detalles no está siendo muypositiva, y por el momento no permite vislumbrar unacuerdo a corto plazo.

Tendremos que seguir esperando para saber el resultadode todo este confuso proceso para saber si tendremosvarios sistemas compatibles o un entorno ingestionablede módulos de diferentes tecnologías incompatibles entresí. Lo que parece claro a día de hoy, es que no tendremosun único sistema modular basado en OSGi. (34) (35)

CONCLUSIONES

Es un momento dorado para la tecnología OSGi despuésde muchos años en los que no ha tenido demasiada visi-bilidad. Pero también existen amenazas todavía porresolver. Aunque resulte una tecnología valorada por losdesarrolladores, la situación de estandarización quetenemos a día de hoy en la JCP está lejos de ser el másfavorable. Un escenario con diferentes sistemas de desa-rrollo modular ya es bastante malo, esperemos que almenos se alcancen los acuerdos para que las diferenciassean las menores posibles para facilitar la vida de los des-arrolladores.

La decisión de adoptar OSGi para un proyecto deberá serun proceso de análisis. A día de hoy, el mayor valor quetiene OSGi es la gestión de la complejidad, por eso suéxito en entorno de aplicaciones empresariales donde escomún que los proyectos crezcan hasta hacerse ingestio-nables. Pero también es cierto que la curva de aprendiza-je de OSGi no es suave, y que hay que hacer una inversióninicial antes de ver los resultados a medio-largo plazo. Lagestión de la complejidad no es el único motivo paraadoptar OSGi, también puede interesarte su capacidadpara añadir y eliminar módulos en tiempo de ejecución,las capacidades de gestión remota que proporciona o losencillo que es reaprovechar código previamente desa-rrollado si este se encuentra en forma de bundle OSGi.Cada desarrollador debe analizar los requisitos de su pro-yecto y decidir si OSGi le aporta lo suficiente para apostarpor esta tecnología.

ESTADO ACTUAL Y PRÓXIMOS RETOS DE LA TECNOLOGÍA OSGi

92

JSR 294OSGi

JSR 291

JSR 277

Figura 3. Esquema del solapamiento entre las diferentes JSR existentes

Page 94: Tecnologias Para Las Telecomunicaciones Del Futuro

REFERENCIAS

(1) http://www.buglabs.net/(2) http://www.springsource.com/products/dmserver(3) http://www.osgi.org/News/20090916(4) Pax Runner:

http://paxrunner.ops4j.org/space/Pax+Runner (5) http://java.sun.com/javase/6/docs/technotes/gui-

des/security/spec/security-specTOC.fm.html (6) Implementación de referencia de “Remote Services”:

h t t p : / /c x f . a p a c h e . o r g / d i s t r i b u t e d - o s g i -reference.html

(7) Una explicación detallada sobre “Blueprint Service”:http://jbossosgi.blogspot.com/2009/04/osgi-blue-print-service-rfc-124.html

(8) http://www.infoq.com/articles/service-dynamics-todor-boev

(9) http://www.eclipse.org/equinox/(10) http://felix.apache.org/site/index.html (11) http://www.knopflerfish.org/ (12) )http://www.osgi.org/WG/HomePage(13) http://osgi.mjahn.net/2008/10/28/osgi-dynamics-

and-legacy-code-taming-the-beast-in-the-future/ (14) http://www.infoq.com/news/2008/11/osgi-in-the-

enterprise(15) http://www.osgi.org/Repository/HomePage(16) http://www.osgi.org/News/20090707(17) http://www.osgi.org/wiki/uploads/News/2009_09

_16_HGI.pdf(18) Java Specification Request 232:

http://jcp.org/en/jsr/detail?id=232

(19) Java Community Process:http://jcp.org/en/home/index

(20) Connected Device Configuration:http://java.sun.com/javame/technology/cdc/

(21) Sprint Titan:http://developers.sun.com/mobility/community/sprint-adp/downloads/index.jsp

(22) eRCP: http://www.eclipse.org/ercp(23) Android vs OSGi http://www.adon-line.de/kunden/

prosystBlog/?p=18(24) OSGi for Android: http://www.adon-line.de/kun-

den/prosystBlog/?p=24(25) http://www.tid.es/netvehicles/events/osgi2008/

overview.htm(26) http://www.cvisproject.org/(27) http://www.mvia.es/(28) http://jcp.org/en/jsr/detail?id=277(29) http://jcp.org/en/jsr/detail?id=291(30) http://jcp.org/en/jsr/detail?id=294(31) http://openjdk.java.net/projects/jigsaw/(32) http://cs.oswego.edu/mailman/listinfo/jsr294-

modularity-observer(33) http://altair.cs.oswego.edu/pipermail/jsr294-modu-

larity-eg/2009-August/000357.html(34) http://sellmic.com/blog/2009/06/11/classpath-hell-

just-froze-over/(35) (http://www.osgi.org/blog/2009/06/classpath-hell-

just-froze-over.html

93

Page 95: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 96: Tecnologias Para Las Telecomunicaciones Del Futuro

LA HISTORIA DEL ARTE E INTERNET

Rafael de las Heras

Page 97: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

La Real academia de la lengua española define arte [1]como la manifestación de la actividad humana mediantela cual se expresa una visión personal y desinteresadaque interpreta lo real o imaginada con recursos plásticos,lingüísticos o sonoros. Si buscamos una definición dearte de índole más “pura”, decimos que es un medio porel cual un individuo expresa sentimientos, pensamientose ideas; es así como vemos a este conjunto plasmado enpinturas, esculturas, letras de canciones, películas y libros.El arte involucra tanto a las personas que lo practicancomo a quienes lo observan; la experiencia que vivimos através del mismo puede ser del tipo intelectual, emocio-nal, estético o bien una mezcla de todos ellos.

Si se analizan detenidamente estas definiciones de arterápidamente se podría llegar a concluir que Internet, y enparticular, su bien más tangible, la World Wide Web esuna forma más de expresión humana que abre un nuevoapartado a la hora de definir los recursos de expresióncon los que cuenta el ser humano. La gran diferencia exis-tente con los otros recursos es su tardía aparición en lahistoria, que si se trata de datar ciñéndose a la WWW, sepodría fechar en 1989.

A diferencia de Internet, el arte, mediante sus otros recur-sos de interpretación, lleva instaurado en la sociedadhumana desde sus inicios y ha vivido parejo a la evolu-ción humana, adaptándose, reinventándose pero mante-niendo siempre viva su esencia, la necesidad de comuni-car. Por esta razón, existe la duda sobre la evolución deInternet como forma de expresión al existir este desajus-te temporal.

En este artículo se postula que: Internet y en particular lasformas de expresarse y comunicarse en Internet, ya queson una forma artística mas, no se han alineado con elestado actual de las otras disciplinas artísticas sino queestá viviendo una revisión acelerada pero retardada de lahistoria del arte desde sus orígenes hasta que consigaalcanzar al estado actual. Un análisis de la historia delarte, por lo tanto, podría identificar el estado actual deInternet en relación a la historia del arte y definir previ-siones de las necesidades y gustos de los usuarios extra-polando parámetros generales de épocas históricas yapasadas.

UNA REVISIÓN HISTÓRICA RÁPIDA

“Lo único constante es el cambio.” Aristóteles.

La Historia del Arte [2], aunque puede concebirse comola historia de todas las manifestaciones artísticas de lasdenominadas bellas artes, que incluirían a la literatura ola música, suele restringirse a las artes visuales (pintura,escultura y arquitectura), y habitualmente tambiénincluye las llamadas artes menores o aplicadas. Está

estrechamente relacionada con la estética y la teoría delas artes. La historiografía del arte es la ciencia que ana-liza el estudio de la Historia del arte, desde un punto devista metodológico, es decir, de la forma cómo el histo-riador afronta el estudio del arte, las herramientas y gra-fía del arte procura un examen objetivo del arte a travésde la historia, clasificando culturas, estableciendo perio-dos y observando sus características distintivas einfluencias.

Para facilitar el estudio de la Historia del Arte, los historia-dores han decidido dividir esta en varías etapas. Ghibertifue el primero en dividir en periodos la historia del arte,distinguiendo antigüedad clásica, periodo medieval y loque llamó “renacer de las artes”. Actualmente esta divi-sión se ha ampliado a las siguientes etapas:

• Prehistoria (25000 ac- 3000 ac)

• El Mundo Antiguo (3000 ac – 300ac)

• El Mundo Clásico (1000 ac -300 dc)

• Edad media (300 dc-1400 dc)

• Edad moderna (1400 dc-1800 dc)

• Edad contemporánea (1800 dc-Actualidad)

Estas etapas, marcan un espacio de tiempo bajo unmismo paraguas de características y condiciones históri-cas de alto nivel que a su vez están divididas en periodoso fases, mucho más delimitadas y detalladas que definenlos principios de diseño y sociales que aglutinan todas lasobras producidas en ese periodo de tiempo. Así pues, porejemplo, la edad moderna comprende, dentro del espaciode los siglos XIV al XVIII los periodos renacentista, barro-co y neoclásico entre otros mientras que la edad media,en lo conocido como la baja edad media, comprende alrománico y al gótico. En base a esta división en periodosde la historia del arte surge la denominada sociología delarte. La sociología del arte es una disciplina de las cien-cias sociales que estudia el arte desde un planteamientometodológico basado en la sociología. Su objetivo esestudiar el arte como producto de la sociedad humana,analizando los diversos componentes sociales que con-curren en la génesis y difusión de la obra artística. Lasociología del arte es una ciencia multidisciplinar, recu-rriendo para sus análisis a diversas disciplinas como lacultura, la política, la economía, la antropología, la lin-güística, la filosofía, y demás ciencias sociales que influ-yan en el devenir de la sociedad. Uno de los aspectos rele-vantes que sugiere la sociología del arte es el condicio-nante por el cual, adicionalmente a los factores socialesacontecidos en un determinado momento, un gran pesoen la transición entre fases o periodos artísticos vienedelimitado contramedida a una acción se debiera.

LA HISTORIA DEL ARTE E INTERNET

96

Page 98: Tecnologias Para Las Telecomunicaciones Del Futuro

MAPA DE LA EVOLUCIÓN: ¿DÓNDE ESTÁINTERNET?

“La historia se repite, primero como una tragedia y despuéscomo una farsa.” Karl Mark.

Si se parte de la suposición por la que Internet, es su esta-do actual, debería estar en uno de los periodos definidosen la historiografía, sería necesario, para identificar elperiodo de ubicación, realizar una identificación a dosniveles. El proceso de anclaje, o identificación de una fasea alto nivel y el proceso de comparación de los patronesde diseño.

Anclaje en una fase

El primer paso para encontrar el punto de anclaje entre elestado actual de Internet y alguna de las etapas en la his-toriografía previas es identificar las principales caracte-rísticas que se podrían utilizar como patrón de búsqueda.Aunque es complicado definir las características princi-pales de Internet a día de hoy, podríamos definir comogenéricas las siguientes:

• Interés por la naturaleza y la ecología: Green IT

• Relevancia del usuario final: Se ha pasado de unInternet centrado en los gestores o administradores auna filosofía centrada en el usuario final. La corrientede los User Generated X

• Explosión de las redes sociales: Facebook, Tuenti..

• Cambio de foco de la ejecución: Se ha pasado de unaarquitectura centrada en los dispositivos a una arqui-tectura centrada en los servicios

• Reutilización de tecnologías maduras: REST, AJAX,XML …

• Imitación de casos de éxito: Clonación de webs,Joomla…

• Aparición del Cloud-computing: Se reduce la relevan-cia del almacenamiento o ejecución en local frente ala ejecución en la red.

Con este patrón de búsqueda es posible hacer un rápidobarrido sobre todas las etapas descritas en la anteriorsección pudiendo extraer una de ellas con unas caracte-rísticas muy similares. El Renacimiento dentro de la etapamoderna. Se puede asumir que el estado actual deInternet refleja a grandes rasgos el equivalente a unrenacimiento ya que este contaba con los siguientes fac-tores que podrían ser identificados a grandes rasgos conlos propuestos anteriormente.

En el Renacimiento la naturaleza representó un papelmuy importante ya que representaba el ejemplo perfecto

de la armonía y se buscaba la réplica de esta para mejo-rar la calidad final de la obra. [4]

Otro de los aspectos claves del renacimiento viene mar-cado por el final del teocentrismo en el arte y el inicio delas corrientes antropocéntricas y humanistas [5] que con-vierten al ser humano en el auténtico protagonista.

En línea con el humanismo, durante este periodo, se maxi-miza la representación del ser humano como un ser socialdestacando escenas de relaciones personales como untema recursivo en inspiración de las creaciones. [6]

Al igual que ocurrió con el teocentrismo, la tierra deja deconcebirse como el centro del universo y se da paso a lateoría heliocentrista. Se produce un cambio de foco. [7]

El renacimiento también se caracterizó por la reutiliza-ción de las formas clásicas para sustentar los diseños. Lascolumnas, los capiteles dóricos, jónicos y corintios asícomo los arcos volvían a colonizar todas las representa-ciones artísticas. [8]

Finalmente, en el renacimiento, se presenta el conceptode la escala natural o la gran cadena. Concepto que pre-sentaba una escala desde lo físico y menos relevante omundano a lo etéreo, arriba de la escala, que representa-ba el estadio superior. La perfección y la eficiencia. [8]

Análisis de los parámetros de diseño

El análisis de las características generales de los periodostanto en la historia del arte como en Internet permiteidentificar la fase correspondiente de la historia del arteequivalente al actual estado de Internet. El siguientepaso es analizar las claves de diseño para concluir lassemejanzas entre ambas etapas.

Durante el Renacimiento los parámetros de diseño fue-ron:

• Orden clásico

o Armonía, unidad y proporción

o Estructura modular

o Número definido de módulos

o Estructuras geométricas

• Arcos

• Lo horizontal prevalece sobre lo vertical. El ancho es eldoble del alto

• Utilidad, practicidad y claridad de presentación

• Eliminación de los ornamentos excesivos

97

Page 99: Tecnologias Para Las Telecomunicaciones Del Futuro

• Realismo

• Predominación de colores blanco y negro para mode-lar las formas. Iluminación y colores naturales.

Estos parámetros se pueden comprobar en muchos delos desarrollos, aplicaciones y herramientas que pode-mos encontrar en la actualidad en Internet. Uno de estosejemplos puede comprobarse en la Figura 1.

En la figura se puede ver tanto un ejemplo de un palaciorenacentista como de la página de inicio de Google [10].En ambos casos podemos detectar principios de diseñocompartidos. La horizontalidad renacentista marca unode los principios que podemos encontrar recursivamenteen muchos diseños de aplicaciones con cierto éxito yrelevancia. También, frente a periodos anteriores en losque existía una excesiva recarga de elementos, los dise-ños actuales se caracterizan por la eliminación de ele-mentos excesivos centrándose en destacar la claridad delservicio ofrecido potenciando la comunicación de la utili-dad y practicidad de la solución.

La Figura 2 destaca otro de los principios aplicados delrenacimiento. En esta caso las características de laestructura modular y derivados.

La tendencia que se ha podido observar durante estosaños en Internet ha sido la organización y composiciónde la información organizada de forma modular, tipowidgets, como en iGoogle [10], Netvibes [11], etc, que seasemeja mucho a estructuras renacentistas como ejem-plo el diseño de la biblioteca renacentista de Florencia.

En otro de los ejemplos la Figura 3 remarca algunascaracterísticas adicionales a las del orden clásico como

puedan ser las siluetas redondeadas en forma de arcodestacadas tanto en el diseño físico como en los interfa-ces del Iphone. Lógicamente el resto de los principios delorden clásico como claridad y practicidad son igualmen-te aplicados en este caso.

De igual manera al análisis previo, el resto de las caracte-rísticas pueden seguir siendo encontradas en infinidadde los productos más importantes presentes en laInternet actual pero incluso en sectores parejos comopuede ser en el mundo de las consolas y los videojuegos.Un ejemplo de estos principios de diseño es la propuestade interfaz de la consola Nintendo Wii, destacando lacomposición de colores blancos y luminosos así como laestructura modular y la horizontalidad de la propuesta.

Después del análisis realizado, se puede sugerir ciertosparalelismos entre los parámetros de diseños renacentis-

LA HISTORIA DEL ARTE E INTERNET

98

Figura 1. Google [10] vs. Palacio renacentista [9]

Figura 3. Iphone [12] vs. Palacio renacentista [13]

Figura 2. Netbives [11] vs. Biblioteca renacentista [9]

Page 100: Tecnologias Para Las Telecomunicaciones Del Futuro

tas y los que se han aplicado en el estado actual deInternet con lo que podemos concluir que, la predisposi-ción de los usuarios consumidores de Internet a día de hoyes muy similar a los gustos que estaban instauradosdurante la época del renacimiento.

MAPA DE LA EVOLUCIÓN: ¿PRÓXIMO SALTODE INTERNET?

“La predicción es muy difícil, sobre todo la del futuro” NielsBöhr

Perspectiva de la evolución

En la sección anterior, el análisis realizado, nos permiteintuir que Internet ha vivido su particular renacimiento, ycomo se ha presentado en la rápida revisión histórica, elarte ha estado en continua evolución, pasando por ungran número de fases. El motor que ha incentivado esospropios cambios no ha sido más que el mismo inicio decada fase, puesto que un adaptado proceso de acciónreacción ha producido que la contaminación de un estilodurante un periodo más o menos continuado en el tiem-po produzca inevitablemente una fuerza de cambio a unestilo tangencialmente opuesto.

Si se utiliza alguna de las herramientas [14] disponiblespara revisar los archivos generados en los últimos añosdesde la creación de la World Wide Web en 1989, y se rea-liza un análisis sobre un determinado sitio que haya per-durado durante todo ese tiempo se podrá observar clara-mente que los principios analizados en la anterior sec-ción no se remontan muchos años atrás, es mas, si reali-za un procedimiento análogo al descrito en la anteriorsección, realizando una extracción de los principio gene-rales y buscando una correlación en la historia del arte,posteriormente analizando los parámetros de diseño sepodrá observar como estos parámetros de diseño apare-cen perfectamente representados en determinadosperiodos de tiempo. Así pues, como ejercicio práctico, si setoma como referencia el sitio de Microsoft [15] y se anali-za año a año las modificaciones que ha sufrido se podráobservar, por ejemplo, como pierde su carácter horizontalsegún se remonta en el tiempo, tomando un aspectodividido en columnas verticales, característica predomi-nante del gótico, y si este remonte en el tiempo continuase dará con un estructura plana, sin divisiones y con elpolicromado referente del románico.

En base a esta situación, se podría extrapolar queInternet, La Web, esta sufriendo una rápida transición portodas las fases por la que la historia del arte ha pasadodesde sus orígenes ya que la consecución de una faseimplica la aparición de las siguiente para compensar losdefectos o excesos de la anterior. Siguiendo esta dinámi-ca una posible tendencia de estos cambios podría ser lapropuesta en la Figura 4 en la que los cambios enInternet se sucederán rápidamente, transitando portodos los periodos de la historia del arte, hasta que lle-

guen a ponerse parejos, momento en el que Internetseguirá la estela de los patrones fijados en la estado con-temporáneo del arte.

Para intentar concretar cuando se producen los cambiosde fases, es necesario hacer referencia una vez más a loaprendido en la historia del arte en la que, por definición,un cambio siempre viene dado por la combinación de lossiguientes factores:

• Respuesta a un periodo de austeridad o de exceso

• Potencia por crisis en la sociedad y tiempos revolucio-naros

• Implica una reacción de los ciudadanos a un largoperiodo de estancamiento

Así pues, si se analiza la situación actual se puede presu-poner que se está empezando a dar un caldo de cultivopropicio que justificaría el cambio a una hipotéticasiguiente fase, que como puede observarse en la siguien-te figura, implicaría un salto a un periodo con caracterís-ticas similares a las que presentó el barroco en la historiadel arte.

Como se puede observar en la Figura 5, las fases no sontotalmente disjuntas sino que existe un periodo de con-vivencia y mezcla que coexiste durante un determinadolapso de tiempo hasta que la fase entrante se radicaliza yno permite la existencia de otras tendencias.

99

Figura 4. Evolución de Internet y del arte

Figura 5. Salto entre la fases de Internet

Page 101: Tecnologias Para Las Telecomunicaciones Del Futuro

El próximo paso

En base a la propuesta realizada en este artículo, Internetestaría entrando en una fase con los mismos principios ycaracterísticas que tuvo en Barroco en la historia del arte.Así pues, las características de esta fase podrían desvelar-nos que es lo que en respuesta a un periodo renacentis-ta, los usuarios empezarán a demandar en un corto plazode Internet.

Los patrones de diseño del Barroco fueron los siguientes:

• Multiplicidad en la funcionalidad y decoración recar-gada - complicada

• Orden Colosal

• Gestión de la Luz

• Dinamismo y movilidad

• Estilos curvados

• Escenas diarias y estados de ánimo:

• El pueblo proporcionaba la inspiración

• Microcomposición de macroefectos

Esta migración de patrones de diseño se puede comenzara observar en distintas iniciativas que están comenzandoa emerger. Uno de los ejemplos más claro de este cambiode filosofía lo podemos encontrar en el caso Gmail –Gtalk hacia Google Wave [16]. En este cambio, las aplica-ciones con características renacentistas evolucionanhacia principios de diseño barrocos de Google Wave, en elque la multiplicidad de opciones, el estilo recargado, eldinamismo y el orden colosal se pueden ver perfecta-mente representados.

Generalizando este criterio, se puede asumir, que si secumple la evolución supuesta en este artículo, el futurode Internet y la Web a corto plazo vendrá marcado poraplicaciones que ofrezcan a los usuarios gran cantidad defuncionalidad, recargadas gráficamente, que faciliten opotencien la movilidad y por lo tanto el contexto de losusuarios y que destaquen el concepto de presencia exten-dida de los usuarios.

CONCLUSIONES

Internet, como forma de expresión y comunicaciónhumana puede considerarse como un nuevo recurso dearte. Como recurso de arte, está sometida a una serie decánones definidos por la sociedad. El arte ha vivido unaevolución durante toda la historia que está siendo repli-cada por Internet a una velocidad mucho más rápida. Enbase a las características que se puede extraer del estadoactual de Internet puede presuponerse que se encuentraen un equivalente al Renacimiento en el arte por lo que elpróximo paso que se puede suponer en Internet seríauna evolución hacia un estilo similar a las característicasque se produjeron en el Barroco pero siempre adaptadosal mundo de Internet.

REFERENCIAS

[1] RAE: Arte http://buscon.rae.es/draeI/SrvltObtenerHtml?LEMA=arte&SUPIND=0&CAREXT=10000&NEDIC=No

[2] Wikipedia: Historia del Artehttp://es.wikipedia.org/wiki/Historia_del_arte

[3] Wikipedia: Sociología del artehttp://es.wikipedia.org/wiki/Sociolog%C3%ADa_del_arte

[4] Rupert Sheldrake: El renacimiento y la Naturaleza(Oct-1994).

[5] Erasmo de Rotterdam, Elogio de la Locura (1509)[6] Leonardo da Vinci. La Última Cena. (1495-1497)[7] Nicolás Copérnico. De Revolutionibus Orbium

Coelestium. (1543)[8] Wikipedia: Renacimiento

http://es.wikipedia.org/wiki/Renacimiento_italiano [9] Wikipedia: Arquitectura del Renacimiento

http://es.wikipedia.org/wiki/Arquitectura_del_Renacimiento

[10] Google: http://www.google.com [11] Netbives: http://www.netvibes.com/ [12] Iphone:http://en.wikipedia.org/wiki/File:IPhone_3G

_S_sides.jpg [13] Palacio renacentista:

http://es.wikipedia.org/wiki/Archivo:Louvre_FranzI.JPG

[14] Internet archive http://www.archive.org/index.php [15] Microsoft http://www.microsoft.com [16] Google Wave http://www.wave.google.com

LA HISTORIA DEL ARTE E INTERNET

100

Page 102: Tecnologias Para Las Telecomunicaciones Del Futuro

101

Page 103: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 104: Tecnologias Para Las Telecomunicaciones Del Futuro

“SEMANTICS + DATA MINING” TO ENDOW THEBSS/OSS WITH INTELLIGENCE

Javier Martínez Elicegui

Page 105: Tecnologias Para Las Telecomunicaciones Del Futuro

WHAT IS SEMANTICS AND DATA MINING?

Semantics is a comprehensive set of techniques thatallow us to share and capitalize on domains of knowled-ge, expressed through ontologies where concepts, ins-tances and relationships are collected. This informationexpressed by means of ontologies is stored in KnowledgeDatabases where systems make queries to infer the kno-wledge they need to solve a given problem.

Data mining is also a broad set of techniques that empo-wer us to discover relations that exist between the dataand are not reflected in a normalized database schema(statistics, classifications, clustering, association rules, ...).

SEMANTICS WITHIN THE ENTERPRISE TODAY

One of the environments where semantics is evolvingmore quickly today is the Internet. Taking advantage ofthe huge volume of information available on the inter-net, with such disparate information generated by so dif-ferent people, is a tremendous challenge that requiresnew technologies such as Semantics.

To transfer these advances to other types of companiesnot so focused on offering their services on the internetis not an easy task. The highly dynamic and risk capitalintensive internet environment, with millions of users, isvery different from that of other companies, where tochange the systems that already work to introduce thebenefits of the semantic requires safe and slow steps.

A relevant aspect to consider is performance. Semanticsdoes not deliver yet the performance level usually achievedwith ad-hoc software and relational databases. This pro-blem is resolved by large internet companies with farms ofPC’s that have a fantastic performance, but this display ofresources is not commonly seen in other enterprises.

The first steps usually go in the direction of informationexchange between systems (a step forward SOA, adap-ting different data models) and publishing web pages

with some sort of semantic markup. However, our goal isto go further by providing intelligence to the BSS/OSS.

INTELLIGENCE IN THE BSS/OSS

If we make a brief overview of the evolution of thesystems in terms of flexibility to change we can identifythe following stages:

• Software that changes each time a new requirementis requested.

• Software with a configuration file holding the para-meters to adjust to the different needs of each insta-llation or context.

• Software that incorporates configuration manage-ment functionality. As the volume of parametersgrows and dependencies between them appear, theparameters are moved to the database and a manage-ment functionality to check their consistency andintroduce validations is incorporated.

• Software with great complexity and high penetrationof parameterization. In this case most of the systemfunctionality is determined by configurable parame-ters. The incorporation of new scenarios/processesdoes not need a new version of the software, but itdemands a complex configuration task (e.g. for eachnew product there are setting with all features of sale,provisioning, billing, risk control, bundling with otherproducts, etc.).

This scheme has advantages and disadvantages. Theadvantages stem from a greater flexibility of change,but its drawback is that the parameterization beco-mes an important source of errors, emerging implicitpatterns of parameterization in the data that appearsystematically and that the administrator bears inmind (e.g.: family of ADSL products have some com-mon characteristics of provision, dependen-cies/incompatibilities, … when bundled with an antivirus

“SEMANTICS + DATA MINING” TO ENDOW THE BSS/OSS WITH INTELLIGENCE

104

Businesses need to "reduce costs" and improve their “time-to-market" to compete in abetter position. Systems must contribute to these two goals through good designs andtechnologies that give them agility and flexibility towards change. Semantics and DataMining are two key pillars to evolve the current legacy systems towards smartersystems that adapt to changes better.

Current databases with their relational models follow a widely known scheme, withsatisfactory performance in most cases, but rigid when incorporating changes in theface of new business requirements. In this article we present some solutions to evolvethe existing systems, where the end user has the possibility of modifying thefunctioning of the systems incorporating new business rules in a Knowledge Base

Page 106: Tecnologias Para Las Telecomunicaciones Del Futuro

appear new provision parameters, etc.).

• Software that incorporates a Knowledge Databasewhere there is the flexibility to pick up all kinds of con-cepts, relationships and patterns that the administra-tor has in mind, in a consistent and not redundantway. Thereafter, systems access this new flexiblerepresentation of configurations.

The system administrator models a semantic layerover the relational database (figure 1). For example,the concept “rush_hours” or “peak_hours” are concre-te relations between values of day_table andtime_table that was not modelled previously in thedatabase. This concept is combined with others to cre-ate new concepts that help to define the configura-tions patterns.

A first step to implement the semantic layer in a systemalready running is to discover patterns in the informationalready there. During this phase Data Mining methodsperform an in-depth analysis to discover associationrules, classifications, clustering, ... Once validated byusers, such rules are stored onto the KnowledgeDatabase, transforming implicit knowledge, perhapsalready forgotten by the users, in explicit knowledgemodelled to ensure that it will not be left out by mistakefrom that moment on.

From the initial information obtained with Data Miningtechniques, the administrator can incorporate new busi-ness rules that enable the system to deal with the newrequirements that arise every day.

We can consider these systems as intelligent becausethey are capable of combining (infer) the basic businessrules to elaborate conclusions not obvious to a person.Examples of where this type of solution can apply in atelecommunications operator BSS/OSS are found in theCatalogue of Products/Services, Price Plans configura-

tion, the Mapping between Commercial, Provisioningand Billing tables, etc.

EXPERIENCE OF TELEFÓNICA TARIFF SYSTEM

Telefónica is developing a project to evolve the currentreal time tariff system with Semantic and Data Miningtechniques. The tariff system is complex to configure,hence the need for very specialized people, the possibilityof errors, and the costs to maintain a consistent andupdated configuration.

A series of coefficients are used to calculate the tariff ofeach call (initial charge, cost per second and other coeffi-cients). According to the context of the call (contracttype, time, day of the week, call origin/destination, callednumber, lists of favorite numbers,...) different coefficientsapply. There are a number of tables that associate possi-ble call contexts and the coefficients to apply to each.

The maintenance of these tables is complex mainly duethe many thousands of possible cases. Nevertheless it ispossible to detect the implicit patterns with DataMining1 and to model them through Semantic BusinessRules. This option allows to express the tariff logic in acompact way, much easier to understand and maintainby people.

These business rules obtained from data are previouslyverified by tariff administrators and adapted to theireveryday terminology (e.g.: a group of contracts with asimilar pattern are renamed HYBRIDS because they arepre-paid combined with a post-paid option). All thesebusiness rules and others identified by the administratorare then incorporated to the knowledge database2.

105

Figura 1. The system administrator models the Semantic Layer

1 We have used a mix of tools: SPSS Clementine, Weka andMatlab.

2 We have used OWL representation, Protégé design editorand OWLIM Knowledge Database

Page 107: Tecnologias Para Las Telecomunicaciones Del Futuro

Once the knowledge base is available, original tarifftables are recalculated from the knowledge database.This new procedure does not impact on the performanceof the call tariffication process because the tariff systemcontinues using the current tables and include other sig-nificant improvements:

o Explicit Knowledge: the tariff logic is now explicit,easily verifiable and editable by administrators, unliketariff tables where the values of the coefficients liebut not the logic applied to obtain its values. This logicis currently in the head of the administrator, with thesubsequent dependence on these people.

o Ease of maintenance: Business Rules are simple ato-mic reasoning that combine to calculate coefficients.A simple change in a business rule may affect hun-dreds or thousands of records in the tariff tables.

• If day ≡ (Sunday∩Holiday), time ≡ (00-24) ⇒rush_hours

• If day ≡ Saturday,, time ≡ (14-00 ∩ 00-06) ⇒rush_hour

• …

• if rush_hour, contract ≡ family_class, destination ≡Europe, … ⇒ Coef_A ≡ 1234

• …

o Risk Control: The knowledge database detects incon-sistencies between rules, which prevent many of the

current errors. In addition, the knowledge databasecontains a few hundreds of business rules that can beeasily verified by a person, unlike tariff tables wherethere are many thousands of cases that escape effec-tive control.

CONCLUSIONS

In this article we have elaborated on some of the possibi-lities that Semantics and Data Mining offer to provideintelligence to OSS/BSS systems. These technologieshave a sufficient maturity level to be applied successfullyto current systems. Perhaps one of the major difficultiesfor effective usage is the identification of niches ofopportunity where performance is not a critical aspect. Agood example could be the use case exposed, withTelefonica’s tariff system, where ongoing tariff calcula-tions continue using the existing tables, but Semanticshelps us maintain the values of these tables up-to-dateand consistent.

REFERENCIAS

[1] Joseph F., et al. “Multivariate Data Analysis”[2] Fayyad U.M., et al.“Advances in Knowledge Discovery

and Data Mining”[3] Witten I.H. et al. “Data Mining, Practical Machine

Learning Tools and Techniques”[4] Natalya F. Noy “A Guide to Creating Your First

Ontology”[5] Horrocks Ian “Handbook on Ontologies”[6] Baader, F., et al. “The Description Logic Handbook”.[7] “Semantic Web Case Studies and Use Cases.” W3C,

(www.w3.org/2001/sw/sweo/public/UseCases).

“SEMANTICS + DATA MINING” TO ENDOW THE BSS/OSS WITH INTELLIGENCE

106

Page 108: Tecnologias Para Las Telecomunicaciones Del Futuro

107

Page 109: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 110: Tecnologias Para Las Telecomunicaciones Del Futuro

VIRTUALISATION, THE EMPEROR'S NEW CLOTHES?

Pedro A. Aranda Gutiérrez

Page 111: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCTION

One of the latest trends in the trend in the ITC businessis the ’Everything as a Service’ wave. Look around andyou’ll see Software as a Service, Infrastructure as aService ... you name it and it will be offered ’as a service’.Additionally, browsing through the technical newslettersgives me a close feeling to looking at the weather news,cloud computing, cloud services, get your services fromthe cloud... The last trend is that even the network hasbecome ’cloudy’. Is it just another buzzword to rewriteInfrastructure as a Service as we know it today? What arewe talking about when we say ’Cloud Networking’? Thispaper gives an overview of the different concepts ’underthe cloud’, explains the technologies that have to becombined to provide an effective approach to ’CloudNetworking’ and what benefits it can bring, if understo-od correctly and implemented timely.

CLOUD COMPUTING

Listening to many (interested) opinion makers, CloudComputing is the cure to all evils in the IT business. Foryears, different computing manufacturers have beenpacking increasingly more power into their devices andusers have been investing in this extremely powerfuldevices. Virtualisation is the most visible part in this evo-lution, because virtually all high end CPUs today offer vir-tualisation solutions coupled with techniques to executetasks in parallel, like i.e. threading. Cloud computing basi-cally offers solutions for the three main needs of today ITbusiness:

• Increase the usage of the deployed computing resour-ces.

• Reduce the operation costs of the computing infras-tructure.

• Increase the deployment flexibility, allowing differentoperating systems to coexist on the same hardware.

Among the not so well known, but extremely significantmilestones for cloud computing, ’deploying on demand’has to be pointed out. The strategy of deploying dormantsilicon which is then activated on demand was introdu-

ced some time ago and is showing all its potential in thecurrent economical scenario.

STATE OF THE THE NETWORK

Before looking at the current state of the network withregard to virtualisation, a short recapitulation of networkfunctions is needed. A data network is a collection ofnodes which are interconnected via links. The nodes for-ward packets from a source to a destination in the dataplane. To be more accurate, a switching node receives apacket through a given interface, calculates the interfaceit has to send this packet through and actually sends thepacket through this interface. This forwarding process isa local process and the overall forwarding function of thenetwork is normally distributed throughout the nodes inthat network. Information exchange between the nodesis controlled by protocols, which run in the control planeof the network.

In the previous section we looked at which virtualisationtechniques are available in nodes. Complementary tothem, link virtualisation provides logical isolation betwe-en traffic flows carried by a link. This concept is not new.Virtual paths and virtual channels are used in ATM net-works and many end users come across them when theyconfigure their ADSL connection. Our last generationcore networks also use this concept. Labels as used inMPLS networks provide the same switching functionalityas the VP/VC does in the ADSL connection. And even inthe Ethernet world there are Virtual LANs providing thislogical isolation. All these technologies have one thing incommon: a fixed length field in the header is used whenderiving the output port the incoming data have to bedirected to.

Nonetheless, control continues to be centralised in apiece of HW/SW. Virtual routers and virtual routing func-tions (VRFs) are like threads in a multi-threading environ-ment; they provide some feeling of parallelism, but arepart of a pre-installed operating system.

THE NEXT STEP

The next step in network virtualisation is to introducethe equivalent to hyper-visors in the network elements.

VIRTUALISATION, THE EMPEROR'S NEW CLOTHES?

110

Virtualisation seems to be the next big thing in networking. But for how long have webeen talking of virtualisation? This paper examines the past efforts and current trendson virtualisation and proposes the key areas which should be assessed to unveil thepotential behind the different virtualisation techniques which are currently beingevaluated.

Page 112: Tecnologias Para Las Telecomunicaciones Del Futuro

These hyper-visors provide a common platform, on top ofwhich programmable and downloadable router imagesrun in router slices. The main advantage of this set-up istwofold. On one side a breakdown, protocol error, etc. inone slice should not affect the other slices. On the otherhand, the hyper-visor provides a common interface ontop of which different new generation routing protocolscan be developed and tested.This means easier and morerobust upgrade paths and new opportunities for net-work level innovation.

But it also implies a lot of challenges. The InternetResearch Task Force has started debate on the scope ofNetworking Virtualisation in the last IETF and set up theVirtual Networks Research Group (VNRG) for this purpo-se. The VNRG recognises optimisation as one of the maindrivers for network virtualisation and points out thatguaranteeing clear separation of the different virtualnetworks and the added functionality of aggregatedresources are the main assets upon which to build thecase for virtualisation. The VNRG will address the follo-wing research challenges:

• Consider a whole system for virtualised networks andnot only single components or a limited set of compo-nents.

• Identifying architectural challenges resulting from vir-tual networks.

• Recursive network management of virtual networks.

• Emerging technological and implementation issues.

CONCLUSION

Virtualisation is a means and not an objective in itself.From a technical point of view, we already have had moston the components running in out networks for a long

time, and have used it to sell an isolated portion of infras-tructure dedicated to one client. Security-wise this hasworked very well. Current MPLS-VPN’s are very secure, ifmanaged correctly. But the cost of this management ishigh and the lack of flexibility is also high.

Cloud networking can also be an incubator for “beyondthe next generation” services. The Network Operatormight choose to run pilots for new services on the realinfrastructure without having to deploy additionalequipment. Instead an adequate amount of networkresources for a service pilot can be reserved on the cloudnetworking nodes. If the pilot is successful, the servicecan be spread incrementally to the rest of the infrastruc-ture in an on-demand basis. If not, network resourcesused in the service pilot are freed and returned to thecloud network resource pool.

Finally, in our quest for a client-partner, cloud networkingis an ideal tool to empower him or her to find new solu-tions which optimise the network performance. A net-work shop, where the client can mix and match the capa-bilities of his rented infrastructure can be very attractive.An additional incentive would be to add the possibilityfor clients to sell new network features à la Apple Store.At the same time, hyper-visor like features in the networknode guarantee stricter isolation between clients andbetter control of the overall QoE parameters.

Cloud networking, or next generation network virtualisa-tion promises:

• to provide a tighter isolation between virtual net-works .

• to add flexibility to the way the network is run.

• to bring operational costs down.

And this time, the promise can be fulfilled.

111

Page 113: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 114: Tecnologias Para Las Telecomunicaciones Del Futuro

LA BATALLA DE INTEL POR LA MOVILIDAD:PROCESADORES ATOM, TERMINALES MID Y SISTEMAOPERATIVO MOBLIN

Isaac Barona Martínez

Page 115: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

En 2009 el número de usuarios de Internet móvil hasuperado los 450 millones en todo el mundo. La popula-ridad y asequibilidad de teléfonos móviles, smartphonesy otros dispositivos inalámbricos hace prever que elnúmero de dispositivos móviles para acceder a Internetpueda superar los mil millones dentro cuatro años.

Según IDC (International Data Group) se estima que en2012 el número de usuarios de Internet móvil habrá exce-dido al de aquellos que acceden a Internet de manera tra-dicional.

En este escenario empresas como Intel están trabajandoen desarrollar nuevas plataformas móviles más allá delos teléfonos moviles, netbooks y laptops de hoy, que per-mitan el desarrollo de servicios innovadores.

En este artículo se hará un repaso a la estrategia que haseguido Intel en los últimos años en la dura batalla quese está librando en el campo de los terminales móvilespor posicionarse como un jugador relevante.

El objetivo de Intel es extender la hegemonía que ha dis-frutado en el campo de los ordenadores personales aotros entornos en los que se prevé un gran crecimientocomo es el de los MIDs (Mobile Internet Devices), smart-phones, televisiones, vehículos y otros dispositivos conec-tados. En palabras de Paul Otellini, CEO de Intel, en el dis-curso inaugural del IDF de 2009, el crecimiento en elfuturo vendrá de “más allá” del PC.

Intel considera que su tecnología x86 ofrece ventajaspara el desarrollo de los terminales del futuro frente a latecnología de su gran rival en este campo que es ARM yque actualmente domina este segmento de mercado sinninguna discusión. La idea es que utilizar el mismo con-junto de instrucciones básicas x86 que han utilizado losprocesadores de PCs, portátiles y servidores durantedécadas permitirá mantener una consistencia en la expe-riencia entre distintos tipos de dispositivos y simplificaráel desarrollo de aplicaciones. Este concepto lo han bauti-zado como ‘Continuum’. El principal problema a resolver,por supuesto, es el del excesivo consumo de potencia queactualmente tienen los procesadores de Intel compara-dos con los que utilizan los núcleos de ARM.

La estrategia de Intel para lograr el éxito se apoya en cua-tro pilares fundamentales: el procesador Intel Atom, losterminales MID (Mobile Internet Devices) ySmartphones, el sistema operativo Moblin y la tienda deaplicaciones.

En los siguientes apartados del artículo se profundizaráen cada uno de estos elementos.

EL PROCESADOR INTEL ATOM

Intel presentó el 2 de marzo de 2008 [1] su nueva micro-arquitectura Intel Atom diseñada desde el principio paraser utilizada en terminales móviles y sistemas empotra-dos en los que el bajo consumo es un factor fundamen-tal y determinante.

La primera plataforma basada en este procesador desti-nada a terminales tipo MID se denominó Menlow eincluía un procesador Intel Atom con tecnología de 45nm(con nombre clave Silverthorne) de hasta 2 GHz y un chip-set denominado Poulsbo (que integra en un único chip elNorthbridge y el Southbridge de la arquitectura PC tradi-cional).

Esta ha sido la plataforma en la que se basaron los prime-ros dispositivos MID que salieron al mercado y que sedescribirán en la siguiente sección. El éxito de esta plata-forma no fue el esperado entre otros motivos por el toda-vía, excesivo consumo de energía de la misma.

La evolución de la plataforma Menlow es la plataformaMoorestown que se presentó en abril de 2008 en el IDF(Intel Developer Forum) de Beijing [2] y que está diseña-da y optimizada para su utilización en MIDs y smartpho-nes.

Moorestown consiste en un SoC (System on Chip) deno-minado Lincroft y un southbridge controlador de entra-da-salida denominado Langwell. Lincroft integra en unúnico chip un núcleo Intel Atom de 45 nm (denominadoPineView) y los controladores de gráficos, video y memo-ria. Langwell soporta un amplio rango de bloques deconectividad de entrada-salida para conectar con siste-mas de comunicación wireless, cámaras o dispositivos dealmacenamiento.

En la Figura 1 se presenta un esquema de la plataformaMoorestown.

LA BATALLA DE INTEL POR LA MOVILIDAD: PROCESADORES ATOM, TERMINALES MID YSISTEMA OPERATIVO MOBLIN

114

Figura 1. Plataforma Moorestown

Fuente: UMPC Portal [3]

Page 116: Tecnologias Para Las Telecomunicaciones Del Futuro

La plataforma Moorestown está diseñada para maximi-zar las prestaciones aunque reduciendo el consumo deenergía (en modo idle hasta en 50 veces y en funciona-miento hasta en 2 veces) y el tamaño de la placa en 2comparado con la plataforma Menlow.

Los primeros dispositivos basados en la plataformaMoorestown estarán disponibles en el mercado en lasegunda mitad del año 2010.

La plataforma sucesora de Moorestown se denominaMedfield y estará disponible en 2011. Medfield será yauna solución con un único chip con tecnología de 32 nm.[3].

En la Figura 2 se muestra la evolución tanto en consumocomo en tamaño de placa de las plataformas basadas enlos procesadores Atom.

La competencia

La dura competencia a la que se tiene que enfrentar Intelen este terreno son los procesadores y SoC basados en laarquitectura ARM que, de momento, aventajan a las solu-ciones de Intel sobre todo en el tema referente al consu-mo de energía. Dentro de las arquitecturas ARM es dedestacar el núcleo ARM Cortex-A8 utilizado por muchosfabricantes: Samsung en el S5PC100 del Apple iPhone3GS, Texas Instruments en el procesador OMAP3430 delMotorola Droid, del Nokia N900 y de la Palm Pre,Qualcomm en la arquitectura Snapdragon utilizada en elteléfono de Google Nexus One. Otros arquitecturas paradispositivos portátiles basados en núcleos ARM son laNVIDIA Tegra 2 y el procesador A4 de Apple utilizado en suúltima creación, el iPad.

Con todas estas soluciones se consiguen prestacionessimilares a las conseguidas con la arquitecturaMoorestown de Intel, necesitando tan sólo un cuarto de

las necesidades energéticas. Además, las soluciones ARMconsisten en un único chip no como la soluciónMoorestown que se compone de dos chips.

También es de destacar la competencia de VIATechnologies con su familia de procesadores VIA Nano.Benchmarcks realizados por VIA aseguran que la serieNano 3000 a 1.6 GHz consigue unas prestaciones deentre un 40 y un 54% superiores a las obtenidas por unIntel Atom N270 [4].

LOS TERMINALES: MIDS Y SMARTPHONES

Intel presentó el concepto de MID (Mobile InternetDevice) en el año 2007 durante el IDF (Intel DeveloperForum) celebrado en Beijing. Los terminales MIDs se pre-sentaron como una evolución de los poco exitosos UMPC(Ultra Mobile PCs) que habían estado orientados a unentorno profesional y situándose en un segmento demercado entre los smartphones y los Tablet PCs.

Los MIDs son dispositivos de bolsillo, que permiten dis-frutar de una experiencia completa de Internet móvil.Permiten a los usuarios comunicarse, entretenerse, acce-der a la información y mejorar su productividad en susdesplazamientos, y se espera que representen una nuevacategoría de reproductores de video portátiles optimiza-dos para Internet, dispositivos de navegación, tabletsconvergentes y otros productos de consumo. Las previsio-nes iniciales realizadas por Intel auguraban un mercadoglobal de 180 millones de unidades vendidas anualmen-te hacia el año 2010.

Inicialmente se consideraron las siguientes característi-cas básicas de estos terminales: basados en procesadoresIntel x86, pantalla táctil con un tamaño de entre 4 y 6”,arranque instantáneo, always-on, always-connected a tra-vés de WiFi, destinados principalmente a un uso personal(no profesional) para tareas de navegación web, repro-ducción multimedia y comunicaciones personales ysociales y basados en sistema operativo Linux.

Como se puede comprobar, estas características son muyparecidas a las de los terminales Internet Tablet N770(presentado en el año 2005) y N800 (presentado en el2007) de Nokia que utilizan procesadores ARM y la distri-bución basada en Linux Maemo. La diferenciación princi-pal que hacía Intel de su concepto de terminal MID esque éstos ofrecerían la misma experiencia de uso deInternet que el usuario disfrutaba en el PC al utilizar pro-cesadores con el mismo juego de instrucciones y las mis-mas aplicaciones a las que ya estaban acostumbrados.Por ejemplo, los Internet Tablet de Nokia no eran capacesde reproducir contenidos Flash y la experiencia de nave-gación web no era comparable a la obtenida con un PC.

En un principio no se consideraba incluir la conectividad3G en este tipo de terminales. Intel presentó el conceptopero dejó a los diferentes fabricantes que definieran sus

115

Figura 2. Evolución en consumo y en tamaño de placa

Fuente: UMPC Portal [3]

Page 117: Tecnologias Para Las Telecomunicaciones Del Futuro

productos en cuanto a tamaño de pantalla, disponibili-dad de teclado físico, capacidad de almacenamiento,capacidades de comunicación…

Con la salida de la plataforma Menlow descrita en elapartado anterior específica para este tipo de terminalesempezaron a aparecer en el mercado las primeras pro-puestas de los fabricantes [5], sobre todo asiáticos.Algunos ejemplos de estos primeros terminales son elM528 de Gigabyte, el i1 de WiBrain o el S6 de BenQ (Figura3).

Pero las optimistas previsiones iniciales que había hechoIntel no se cumplieron [6]. Las ventas estimadas en el pri-mer año eran de 150.000-200.000 unidades y únicamen-te se vendieron 30.000 [7].

Entre las causas del fracaso de la primera versión de ter-minales MID se pueden destacar: la falta de conectividad3G, la inmadurez del software (versión 1 de Moblin o dis-tribuciones de Linux adaptadas a estos terminales), bajaduración de la batería y la competencia en el canal deventas con los netbooks.

Con la llegada de la plataforma Moorestown el conceptooriginal de MID se ha ido desplazando mucho más haciael factor de forma de los smartphones, más tradicional yavalado por el éxito del iPhone, con conectividad de voz ydatos 3G incluida.

Entre los prototipos presentados cabe señalar el diseñode referencia de Elektrobit y el terminal de LG GW990.

El prototipo de Elektrobit (Figura 4) cuenta con una pan-talla de 4”, conectividad HSDPA, GPS y está basado enMoblin v2 [8].

El fabricante LG ha presentado en el CES de las Vegas2010 el primer smartphone basado en la arquitecturaMoorestown y con el sistema operativo Moblin que yahabía sido previamente anunciado en el Mobile WorldCongress de 2009 [9]. El terminal cuenta con una gene-rosa pantalla de 4.8” (es más un MID que un smartpho-ne) de tecnología resistiva, con una resolución de1024x480 pixeles, 16 GB de memoria interna, cámara de 5MP, conectividad WiFi, HSDPA y Bluetooth y una bateríade 1850 mAh. Es capaz de reproducir video sin problemasen formato 720p. Se espera que el terminal esté disponi-ble en las tiendas a mediados del año 2010.

Otro de los grandes partners de Intel en el desarrollo determinales móviles basados en Moorestown es Nokiaque, hasta ahora, había basado todos sus desarrollos enla arquitectura ARM. Intel y Nokia anunciaron en Junio de2009 [10] un acuerdo de colaboración para trabajar jun-tos en el desarrollo de Linux para dispositivos móviles (loque hará que las sinergias entre Moblin y Maemo seantodavía mayores y que no se pueda descartar, incluso,una posible fusión de los dos proyectos) y en el desarrollode un stack abierto de telefonía para Linux denominadooPhono.

La competencia

Entre los terminales que pueden hacer la competencia alos MIDs y smartphones basados en la plataformaMoorestown podemos destacar los siguientes:

• iPhone 3GS, smartphone de Apple de 3,5”, con procesa-dor ARM de Samsung y con sistema operativo iPhoneOS

• N900, smartphone de Nokia con 3,5”, procesador TIOMAP y con sistema operativo Maemo

• Droid, Smartphone de Motorola de 3,7”, procesador TIOMAP y con sistema operativo Android

LA BATALLA DE INTEL POR LA MOVILIDAD: PROCESADORES ATOM, TERMINALES MID YSISTEMA OPERATIVO MOBLIN

116

Figura 3. Ejemplo de terminales

Fuente: UMPC Portal

Figura 4. Prototipo de Elektrobit

Fuente: UMPC Portal

Page 118: Tecnologias Para Las Telecomunicaciones Del Futuro

• Nexus One, smartphone de Google/HTC de 3,7”, conprocesador Snapdragon y con sistema operativoAndroid

• Pre, Smartphone de Palm de 3.1”, con procesador TIOMAP y con sistema operativo WebOS

• Liquid, Smartphone de Acer de 3”, con procesadorSnapdragon y con sistema operativo Android

• TG01, smartphone de Toshiba de 4”, con procesadorSnapdragon y con sistema operativo Windows Mobile

• F1, smartphone de Acer de 3,8”, con procesadorSnapdragon y con sistema operativo Windows Mobile

• Leo, Smartphone de HTC de 4.3”, con procesadorSnapdragon y con sistema operativo Windows Mobile

• iPad, tablet de Apple de 10”, con procesador A4 deApple y con sistema operativo iPhone OS

• Archos 5 Internet Tablet, MID de Archos de 4,8” sinconectividad 3G, con procesador TI OMAP y con siste-ma operativo Android

• Archos 9, tablet de Archos de 9” con procesador IntelAtom y con sistema operativo Windows 7

• Mini 5, MID de Dell de 5” con conectividad 3G, procesa-dor Snapdragon y con sistema operativo Android

EL SISTEMA OPERATIVO MOBLIN

Moblin es un proyecto de software libre cuyo objetivo esla creación de un sistema operativo basado en Linux opti-mizado para la siguiente generación de dispositivosmóviles incluyendo netbooks, MIDs, smartphones y siste-

mas de Infotainment para vehículos (IVI-In Vehicle info-tainment).

Intel lanzó el proyecto internamente en Julio de 2007 yrecibió un fuerte impulso en abril de 2008 con la presen-tación de los procesadores Intel Atom.

Las principales características de Moblin son la completaexperiencia de Internet y multimedia al estilo del PC tra-dicional, la gestión avanzada de energía para permitir suutilización en sistemas energéticamente eficientes y conmucha duración de la batería, el arranque extremada-mente rápido (con un objetivo de arrancar completamen-te el sistema en 2 segundos [11]) y la disponibilidad deuna interfaz de usuario visualmente rica con efectos 3Dbasada en la utilización del framework Clutter.

Sin entrar en detalles, en la Figura 5 se presenta la arqui-tectura software de la distribución Moblin.

Los componentes “Moblin Foundations” son comunes atodas las versiones de Moblin independientemente deque estén orientadas a dispositivos MIDs, netbooks o sis-temas de infotainment. En los componentes “PlatformSpecific UI” de desarrollan las soluciones específicas(principalmente determinadas por la capacidad de visua-lización gráfica) para cada uno de los terminales objetivo.

Durante el año 2008, Intel libera la versión 1 de Moblin,optimizada para terminales MIDs y sistemas de infotain-ment basados en Intel Atom. La distribución estaba basa-da en Ubuntu.

En abril de 2009 Intel lleva a cabo una acción muy intere-sante para el futuro de Moblin: cede el control del proyec-to a la Linux Software Foundation [12]. Con esta acción se“certifica” que el proyecto nunca dejará de ser libre y seevitan posibles suspicacias por el control del proyecto por

117

Figura 5. Arquitectura software de la distribución Moblin

Fuente: moblin.org (CC Attribution 3.0)

Page 119: Tecnologias Para Las Telecomunicaciones Del Futuro

parte de Intel. Al estar bajo el paraguas de la LSF cual-quiera puede participar y se podría, y de hecho se anima,a que se portase el sistema operativo a otras plataformashardware distintas a las basadas en los procesadoresIntel Atom.

En mayo de 2009 se presenta la versión 2 de Moblinorientada a netbooks. Esta versión ya está basada enFedora y presenta importantes avances en la interfaz grá-fica (basada en Clutter). Moblin será, de hecho, la basesobre la que se construyan las siguientes versiones de lasdistribuciones para netbooks de Ubuntu (Ubuntu MoblinRemix), Novell (OpenSUSE), Xandros o Linpus [13]. En laFigura 6 se muestra la revolucionaria interfaz gráficabasada en Clutter.

En noviembre de 2009 se presenta la versión de Moblin2.1 para netbooks y nettops [14].

La versión de Moblin 2.1 for Handhelds, optimizada paraterminales MIDs y smartphones basados en la platafor-ma Moorestown se anunció en septiembre de 2009 en elIntel Developer Forum [15] y se espera que esté disponiblepara la segunda mitad de 2010.

La competencia

En este apartado Moblin tiene serios rivales con los quebatirse:

• Maemo: liderado por Nokia. Es una plataforma muysimilar a Moblin (basada en Debian y sin utilizarClutter como framework gráfico). Hay muchas siner-gias entre los dos proyectos, sobre todo, después delacuerdo de colaboración firmado entre Intel y Nokiapara el desarrollo de Linux en el entorno móvil y el des-arrollo conjunto del proyecto oPhono y no sería des-

cartable una fusión a medio o largo plazo de los dosproyectos.

• WebOS: Sistema operativo desarrollado por Palmbasado en Linux y utilizado en sus terminales Palm Prey Plam Pixi.

• Android: Sistema operativo desarrollado por Googletambién basado en Linux y que se está utilizandocomo sistema operativo de smartphones, de netbooks,de tablest e, incluso, de sistemas de Infotainment paravehículos.

• Google Chrome OS: Sistema operativo en desarrollopor Google basado en Linux y optimizado para netbo-oks.

• Symbian: Sistema operativo utilizado por Nokia en lamayoría de sus terminales. Ahora más interesantedesde que se ha convertido en un proyecto abierto.

• iPhone OS: Sistema operativo desarrollado por Apple yutilizado en sus terminales iTouch, iPhone e iPad.

• Windows Mobile 7: Sistema operativo de Microsoftpara terminales móviles.

LA TIENDA DE APLICACIONES

Como no podía ser de otra manera para estar alineadocon la “moda” de las AppsStores que tanto éxito ha dadoa Apple, Intel también ha presentado su propia tiendapara la distribución de aplicaciones desarrolladas paralas distintas ediciones de Moblin [16].

En septiembre de 2009 Intel lanzó el “Intel AtomDeveloper Program” [17] para permitir a los desarrollado-

LA BATALLA DE INTEL POR LA MOVILIDAD: PROCESADORES ATOM, TERMINALES MID YSISTEMA OPERATIVO MOBLIN

118

Figura 6. Interfaz gráfica basada en Clutter

Fuente: moblin.org (CC Attribution 3.0)

Page 120: Tecnologias Para Las Telecomunicaciones Del Futuro

res obtener todos los recursos necesarios para el desarro-llo, distribución y venta de aplicaciones sobre Moblin.

La tienda de aplicaciones se denomina “Intel AppUpCenter” [18] y en estos momentos se encuentra en estadobeta.

La competencia

En este aspecto Intel tiene que competir con las conoci-das tiendas de aplicaciones: Apple Store, Ovi, AndroidMarket…

CONCLUSIONES

Como hemos visto a lo largo de este artículo, la apuestade Intel por el mercado de la movilidad es clara. Es unaapuesta arriesgada, pero como hasta el propio Intel reco-noce, es necesaria porque el futuro de la computaciónpasa por terminales “más allá del PC”. El importante cre-cimiento de usuarios de Internet móvil y las previsionesde que estos a corto plazo habrán excedido al de usuariosque acceden a Internet de manera tradicional parecenapoyar esta decisión de trabajar en dispositivos que faci-liten la conexión a Internet por medios inalámbricos enformatos de bolsillo amigables para el usuario y en ofre-cer tecnologías basadas en códigos abiertos y estánda-res.

Hay mucho dinero en juego y, como hemos señalado, lacompetencia en este campo es muy poderosa y parte conuna situación inicial de ventaja, situación a la que tampo-co está acostumbrada Intel en la historia de los ordena-dores personales.

La estrategia es decidida y, aunque no se han cumplidolos pronósticos iniciales con los terminales MIDs, Intelestá trabajando y dedicando ingentes cantidades derecursos en todos los pilares (software de referencia,pruebas de concepto, tienda de aplicaciones…) para con-seguir convertir sus procesadores en el cerebro de lospróximos smartphones, MIDs, televisores, automóviles…,que es realmente su verdadero objetivo, la venta de chips,no hacer software ni terminales. ¿Será suficiente? El mer-cado lo dirá.

Por lo pronto, desde el punto de vista de los usuario y delas personas interesadas en la tecnología, el desarrollo deesta batalla nos permitirá disponer de hardware cada vezmás potente y más eficiente en recursos que permitirá eldesarrollo de nuevos terminales y aplicaciones inimagi-nables hasta el momento.

REFERENCIAS

[1] http://www.techspot.com/vb/topic100291.html[2] http://www.linuxfordevices.com/c/a/News/Intel-

launches-more-Atoms/[3] http://www.umpcportal.com/2009/09/mmms-

what-idf09-meant-for-mobility/[4] http://www.via.com.tw/en/products/processors/

nano/[5] http://www.linuxfordevices.com/c/a/News/First-

Atombased-Linux-MID-ships-for-700/[6] http://www.linuxfordevices.com/c/a/News/MIDs-

face-tough-climb/[7] http://www.digitimes.com/news/a20090604PD214

.html[8] http://www.elektrobit.com/wireless_solutions/

mid_reference_device[9] http://arstechnica.com/gadgets/news/2009/02/

intel-lg-announce-first-moorestown-mobile-inter-net-device.ars

[10] http://arstechnica.com/open-source/news/2009/06/new-intelnokia-partnership-a-huge-win-for-mobile-linux.ars

[11] http://arstechnica.com/open-source/news/2009/04/intel-aims-for-2-second-boot-time-with-moblin-linux-platform.ars

[12] http://linux-foundation.org/weblogs/press/2009/04/02/linux-foundation-to-host-moblin-project/

[13] http://www.linuxfordevices.com/c/a/News/Moblin-v20-Dell-Mini-10v/?kc=rss

[14] http://moblin.org/community/blogs/imad/2009/moblin-v20-moblin-garage-and-moblin-v21

[15] http://www.midmoves.com/2009/09/moblin-2-1-for-handhelds-qa-demo/

[16] http://www.linuxfordevices.com/c/a/News/Intel-Atom-Developer-Program/?kc=rss

[17] http://appdeveloper.intel.com/en-us/home[18] http://www.intel.com/consumer/products/

appup.htm

119

Page 121: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 122: Tecnologias Para Las Telecomunicaciones Del Futuro

APPLICATIONS OF THE FUTURE INTERNET

José Jiménez Delgado

Page 123: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCTION

Internet success has exceeded by far the original expec-tations of an end-to-end, simple communication net-work. The original Web, what we call Web 1.0, was acollection of nodes connected using the Internet proto-col, was used mostly for e-mail applications and, gra-dually, to include some enriched text and music. The nextgeneration, known as Web 2.0, brought about muchmore possibilities, including images and video, but, mostof all, it led to interaction with other users. Internet wasnot any more just communication with a central serverproviding the information but communication betweenpeople. Web 2.0 is the success of the user generated con-tent. The user becomes the hero [3] and he is decidingwhat it is important and what it is not. He creates all sig-nificant or trivial content.

We are moving to a third generation, what we call Web3.0. We are starting to build this new network. Its maincharacteristic is immersive character.The differences bet-ween the real world and the Web, what we call the vir-tual world, are becoming blurred. The new Web should bethree dimensional [4], we should be able to enter andwalk around it; interact with the people and objectspopulating it as if they were part of our daily experience.

This future however, should not sound farfetched. It willcertainly require important advances, not only in proces-sing capability, storage and network security, but also innovel interfaces and behavioral sciences. But it is alreadybeing built. The Web 3.0 it is going to be a gradual pro-cess. Existing technologies already allow us to build veryuseful applications that should be tested and perfected;they should also be popularized and adapted. Buildingdemonstrators for new technologies is an importantstep for the new Internet.

INTERNET OF THE FUTURE: ENABLERS ANDAPPLICATIONS

The sentence: “Internet of the future” [1] [2] is starting tobe used to designate all that can be developed aroundthe Web and what it represents, both socially and techni-cally. So, when speaking about the new internet concept,it should include not only the improvements required inthe network, to add more resilience, security and trust;but also its transformation into an element that will deli-ver storage and processing capability. And, more impor-tant, that will take into account the needs of the peopleand enterprises that are using the Web. Developing theInternet of the future means working on many enablers:

1) Enabling the Internet of Users, Content andKnowledge

Internet is the global hub for information and com-munication where different actors, including citizens,share their contents and connect with each other.

They are connected to social networks and virtualworlds, sharing knowledge within a given community.They want all those features to be accessible anywhe-re, anytime and on any device. The network is beco-ming less relevant and now a new definition ofInternet is at stake: “Internet is the people” [3].

As the Future of Internet is evolving to an Internet ofpeople, efforts should be put in new tools to allowuser profiling, recommendation systems, new applica-tions to enhance the creation of online content byprofessionals and amateurs.

It will also become necessary to develop novel multi-directional interfaces and interaction mechanisms,including multimodality and "presence" [4] [5]. Thosenew interfaces, technologies, methodologies and cer-tification models should be developed to ensure theFuture Internet not excluding anyone and, furthermo-re, making the Information Society even wider.

2) Enabling the Internet of things

The term "Internet of Things" has come to describe anumber of technologies and research disciplines thatenable the Internet to reach out into the real world ofphysical objects. The internet of things is the enablerof the “ambient intelligence” which builds upon ubi-quitous computing and human-centric computerinteraction. The paradigm is characterized by systemsand technologies that are: embedded, context-aware,personalized, adaptive and anticipatory.

Integrating “things” into the network is one of themajor expected growths of the future network. Forinstance, some challenges are to ensure protocolsadapted to object characteristics, to offer greatersecurity to afford ubiquity and daily nature of networkuse, to integrate small, low capability devices, etc.

3) Enabling the Internet of Services

The term service would include a broad variety ofapplications that will use communication infrastruc-tures. Of particular importance is the concept ofSoftware as a Service that has to be extended to inclu-de all capabilities related to computing and storage. Itwill include developing new service deliver platforms,using open protocols. Three tools are consideredimportant in building the future internet of services:

• Semantics is thought to be the “unifying glue” thatwill put together all the bits and create the overallintelligent interconnected network.

• Cloud computing: it includes the virtualization ofinfrastructures, through more flexible and granularoptimization of processing and storage resources.

APPLICATIONS OF THE FUTURE INTERNET

122

Page 124: Tecnologias Para Las Telecomunicaciones Del Futuro

• Autonomic computing: Its aim is to create compu-ter systems capable of self-management, to over-come the rapidly growing complexity of computingsystems management.

4) Enabling the Network

The network is the basic element on top of which theprevious “Internets” shall be built. Its developmentincludes developing advanced radio interfaces using,for example, cognitive radio and cognitive networks.The paradigm of self-learning networks is to be explo-red.

Moving beyond the basic transmission need, FutureInternet should be a secure and trustworthy. It inclu-des preventing illegal access to private content, hinde-ring identity tampering, promoting collaborativesecurity, guaranteeing digital identities, ensuring pri-vacy and integrity in transactions and anonymity ofaccess to contents and applications.

DEVELOPING APPLICATIONS

Those different, horizontal enablers should be aimedtowards improving the quality of life, productivity of thecitizens and reducing, at the same time, their energyfootprint and disparities in knowledge. The future inter-net will consist of developing, using the enablers, appli-cations focused in the final user.

The list of applications is very large, but as an example itcould be mentioned:

• The smart city concept. The objective is the provisionof all elements in the city, ranging from security forpeople´s life and goods, management of waste dispo-sals, entertainment in the city, new ways of gettinginformation, advertisement

• Intelligent transport. Design of intelligent, adaptive,context aware and self-healing transport systemsincluding monitor and management of transporta-tion networks to get a better distribution. It also inclu-des gathering and distribution of reliable, real-timetraffic information.

• E-Health. This is a very wide area covering from theinteroperability of computer-based medical systems,management of electronic patient record, intercon-nection of hospitals and medical team remotely, etc.

It also includes more specific applications such asenhancement in remote care of patients while athome (especially for chronic diseases) or in hospital,robotic based solutions.

• Development of energy-friendly solutions. This ismotivated by two facts. On the one hand, there is a

wide consensus that networks should actively contri-bute to reduce the carbon footprint of the industriali-zed society. On the other, many devices to integratethe so-called Internet of Things will be severely cons-trained in what concerns energy consumption, com-putational complexity and storage capacity. In addi-tion, a pervasive use of efficient Internet networks andservices will have to assist to other sectors (transport…) to reduce their own energy consumption.

• E-Government, it will cover the globalization of publicservices including the accessibility by any telematicmeans; the optimization of public services informa-tion databases and processes.

The main difficulties lie in solving interoperability tostruggle against heterogeneity of administrative pro-cedures and system

THE STRATEGY OF EXPERIMENTAL RESEARCH

Together with the concept of Future Internet, it has appe-ared the need of experimentation [6-10]. Any technologi-cal development affecting Future of Internet may havemultifaceted and even unexpected consequences.Therefore, new proposals for Internet services should notbe limited to theoretical work, but also include earlyexperimentation and testing in large and small-scaleenvironments. Those experimental networks and testingfacilities cannot be limited to one or two companies, butshould be the result of joining together, users, applica-tion providers, network providers, etc in a team wheretogether a new solution is designed.

As an example, a collection of possible applications in abig department store is given. Those examples are deve-loped around the “shopping lab” concept and cover diffe-rent areas of work, including the exhibition area, testingfacilities, shop window, logistics, applications to the shoppersonnel to facilitate location and attention. The accentis given to the user experience inside the shopping cen-ter to make the buying process more enjoyable and easy.A collection of “catch names” have been given to makethem more accessible and usable:

• WAYD. “What are you doing”? An application to locatepersonnel inside the shop

• WAN.“Where are the nails?” Designed to help the cus-tomer to locate an item in the shop.

• MYMENU. To help the user to find the ingredients forits meal

The objective of those examples is to show that the futu-re internet is not only a futuristic dream but a reality thatis being already built. Already, some European [11-14] andSpanish [15-20] initiatives are trying to work out the con-cepts and develop the basis for this future Internet. The

123

Page 125: Tecnologias Para Las Telecomunicaciones Del Futuro

objective can be to focus activities towards the forma-tion of a large collaboration effort, which could take theform of a JTI [22] that should allow better organizeEuropean research activities.

REFERENCES

[1] Future Internet. Bled event http://www.fi-bled.eu [2] Future Internet portal http://www.future-

Internet.eu/ [3] http://www.time.com/time/magazine/ar t i -

cle/0,9171,1569514,00.html [4] Second life http://secondlife.com/ [5] http://sociedaddelainformacion.telefonica.es/jsp

/articulos/detalle.jsp?elem=4556 [6] http://www.fp7-eiffel.eu/ [5] Project 4Ward http://www.4ward-project.eu/ [8] AKARI Architecture Design Project. http://akari-pro-

ject.nict.go.jp/eng/overview.htm [9] GENI (Global Environment for Network Innovations).

http://geni.net/

[10] FIND (Future Internet Design) http://www.nets-find.net/

[11] http://www.nem-initiative.org/ [12] http://www.emobility.eu.org/ [13] http://www.nessi-europe.com/Nessi/ [14] http://www.isi-initiative.eu.org/ [15] http://www.aetic.es/es/inicio/plataformas_tecnolo-

gicas/enem/.aspx [16] http://www.aetic.es/es/inicio/plataformas_tecnolo-

gicas/eISI/contenido.aspx [17] http://www.aetic.es/es/inicio/plataformas_tecnolo-

gicas/emov/contenido.aspx [18] http://www.aetic.es/es/inicio/plataformas_tecnolo-

gicas/esec/contenido.aspx [19] http://www.evia.org.es/ [20] http://www.ines.org.es/ [21] http://www.idi.aetic.es/esInternet/[22] http://ec.europa.eu/information_society/tl/rese-

arch/priv_invest/jti/index_en.htm

APPLICATIONS OF THE FUTURE INTERNET

124

Page 126: Tecnologias Para Las Telecomunicaciones Del Futuro

125

Page 127: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 128: Tecnologias Para Las Telecomunicaciones Del Futuro

THE ROLE OF TELCO COMPANIES IN HUMANMOBILITY APPLICATIONS

Enrique Frias Martínez

Page 129: Tecnologias Para Las Telecomunicaciones Del Futuro

The deployment of ubiquitous computing technologiesin the real-world has enabled, for the first time in history,to capture large scale quantitative data about humanbehaviour, including geographical information. Thisdeployment is not only taking place in the developedworld, but also, and even at a higher scale, in second andthird world countries. In this context, mobile phones playa key role as sensors of human behaviour because theytypically are owned by one individual that carries them at(almost) all times and are nearly ubiquitously used. Telcocompanies have in the form of CDRs (Call Detail Records)an unprecedented source of information for characteri-zing human behaviour. Some of the applications develo-ped with this information are in the area of social net-works or the study of general human calling patterns.

The availability of physical location in CDRs trough theuse of cell phone towers has opened the possibility formodelling human mobility at a large scale. Two are themain areas of study: (1) modelling at a large scale humanmobility patterns and (2) modelling mobility at an indivi-dual/client level. Although it may seem that for a telcocompany the interest area is the second one, modellinghuman mobility patterns at a large scale also could opennew markets. In this context, characterization of largescale human mobility has been recently done in theseminal work by Gonzalez et al.1 that analyzed the CDRsof 100,000 individuals and showed that the individualsmostly travel between two nearby locations (e.g., workand home) and only occasionally travel larger distances.Much more work in the area of general mobility charac-terization can be done in order to answer questions suchas what is the geographical relation between and indivi-dual an the distance to his/her social network, how thetotal distance travelled by an individual can be modelled,or what is the area of influence in which a user typicallydoes his/her daily activities. These modelling resultsopen the door to develop better techniques for mode-lling the spread of viruses, based on real human mobility,or identify typical routes for humans, ranging from urbanenvironments to international travelling. From a telcoperspective one of the main questions is how the resultsand models obtained can be transferred to the generalpublic. One of the main consumers of such models shouldbe government agencies. For example, models of sprea-ding viruses for specific geographic areas based on themobility characteristics of that particular population(defined by socio-economic variables) can be sold tohealth agencies in order to improve generic models. In thesame sense information can be sold to city halls/transpor-tation agencies for identifying public transport routes orareas that are hotspots at a specific time in order to planthe needed resources. One of our challenges is todemonstrate to those government agencies and publicinstitutions that as a telco company we can efficiently

provide that information and that the information isvaluable to improve the service to the public.

The second area of application, modelling mobility at anindividual/client level, provides us with important infor-mation about each one of our clients regarding wherethey usually are, how their environment is and where isphysically the social network of each client. All this infor-mation opens the door to improve the characterizationof each one of our clients by adding mobility informationand improves the ability to personalize marketing.Although such information is relevant to improve ourrelation with the client in order to offer them more servi-ces (for example, if we can detect that a user has twohomes we can offer IPTV access to both of them), the realchallenge is how to sell this information to third partiesthat can use this information for their own purposes.

The variety of third parties interested in this informationare very wide, for example: (1) we can identify the areawhere a user works and send that information to restau-rants in the area that could offer vouchers to those users;(2) the same idea can be applied to the are where a userlives and supermarkets of the area could be interested init; (3) we can estimate the daily commute trajectory ofeach individual and this information can be used by rese-llers that are in that trajectory; (4) we can estimate thefrequency with which a user travels and the means oftransport that it uses, even the frequent routes and citieseach user visits, and sell this information to transporta-tion companies; or (5) we can know which kind of cultu-ral events or sports arenas a user attends. This personali-zation can be improved by combining this informationwith socio-economic statistics so we can know who is ina specific geographic area and has a specific socio-econo-mic background.

THE ROLE OF TELCO COMPANIES IN HUMAN MOBILITY APPLICATIONS

128

Figura 1. Visualization of Paseo de la Castellana in Madrid, Spain, where BTS towers of Movistar can be easily used to identify user surroundings or user interests such as sport events (Santiago Bernabeu Soccer Stadium, top right), business environments (AZCA Business Area, on the left) or residential areas (bottom right).

1 M.C. Gonzalez, C.A. Hidalgo and A.-L. Barabási,“Understanding individual human mobility patterns”,Nature 453, June 5 2008, pp. 779-782

Page 130: Tecnologias Para Las Telecomunicaciones Del Futuro

Obviously, when any of this kind of applications is pre-sented the problem of privacy arises. Although the goalof this paper is not privacy, some points can be mentio-

ned: (1) the perception of privacy has a strong generatio-nal component attached and we should worry aboutwho is going to be our client in the future, (2) it seemsthat people does not mind that some of their informa-tion is used if they receive a service that is perceived asuseful and (3) the opt-in and opt-out options for thistypes of services (at an individual level, not so much alarge scale level) should always be present.

As a telco company that has presence over a variety ofcountries we are in an ideal position to develop applica-tions both at a large scale level and at individual level.Although there are a variety of technical challenges to besolved in order to develop these applications, the state ofthe art of user modelling and data mining areas in gene-ral is able to solve them. The main challenges are (1) todemonstrate to government agencies that we can be asource of relevant information to give citizens a betterservice, (2) to develop new business models to sell thisinformation to third parties and (3) overcome the privacyproblem by demonstrating to our clients that we aregiving them a useful and efficient service.

129

Figura 2. Visualization of Work (in red) and Home (in green) use of a BTS cell tower of Movistar in thecity of Puerto Vallarta (Mexico), where in can beidentified how the coast is mainly a business area, while people tend to live in interior areas.

Page 131: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 132: Tecnologias Para Las Telecomunicaciones Del Futuro

DIGITAL HOME CHALLENGES, ANYTHING NEW?

Pierre Plaza

Page 133: Tecnologias Para Las Telecomunicaciones Del Futuro

It is indubitable that the Digital Home concept is suffe-ring a complete transformation along with the networkand device technologies that are appearing in the recentyears. The problem lies on how to enable those new tech-nologies with appealing features in the digital home sce-nario without affecting the available infrastructures andimposing the users a substantial economical effort forreplacing already available equipment. A key capacity ofthe offering for the Digital Home must lie on the veryknown paradigm of REUSE!

As an example, let’s summarize the relevant offeringsthat we have seen in Las Vegas CES exhibition this year(10,11 and 12 of January 2009)[Internal TID report, F.G.Calvo]:

Probably the keyword for the CES was “connectivity”: frombringing the Internet to TV sets and Blu-Ray players, to awide array of technologies to enable true in-home connec-tivity (with DLNA, home PDAs and no “new wires” techno-logies) and to emerging new mobile always-on devices(netbooks, more touch-screen smartphones, and cameras),the integration of consumer electronics and telecommuni-cations was all over at the CES. Additionally, “green” elec-tronics, 3D TVs and a possible new push for videoconferen-cing were part of the main trends identified in this years’trade show.

CHALLENGES

Personalization

The use of mobile terminals allows the user to be takenas an individual and it is in the interest of all providers toconsider this individual and offer him/her a set of servi-ces well adapted to his/her way of life, his/her habits.Then the user will profit of various possibilities as noma-

dism, mobility, capacity adaptation, dynamic changes inthe use of services according to some parameters he/shewill be able to define at his/her will.

For that, it becomes necessary for the service provider todevelop and implement service enablers that insure forall new services customization of the customer experien-ce, adaptation to use contexts (service continuity) andtheir integration into a set of customer loyalty services(service interoperability). Through open interface defini-tion, these basic building blocks will allow carriers to cho-ose and establish richer partnerships with third partyservice suppliers.

In the context of user personalization, what is of theutmost importance to be sure to get the best offers, is torely on a good knowledge of the user, his/her context,his/her equipments, his/her habits. For that a great coo-peration between all suppliers is needed and a clear defi-nition of the way to exchange all the information of inte-rest. Once the information has been gathered, a ruleengine will permit to treat this set of information accor-ding to occurring events in order to react as wished bythe user when he/she configured his/her services andthe way he/she will use them.

In the Digital Home (DH from now on) concept now thefamily services have to be open to the INDIVIDUALIZEDprofile handling of all members of the family. The needshave changed and offering must be personalized in orderto win the DH market! Now every member of the familyhas its own mobile, its own profiles in the social groupsat the Internet (Facebook, keteke or similar).

Global Network Integration

What we mean by “global network” is the combination ofall network technologies that surround the user and per-mit global interconnectivity: Fixed, mobile, WiFi and simi-lar technologies that allow users in different contexts tobe connected.

DIGITAL HOME CHALLENGES, ANYTHING NEW?

132

Page 134: Tecnologias Para Las Telecomunicaciones Del Futuro

Here the challenges are as follows:

The end-user should be allowed to access the servicesimportant to them from any appropriate terminal, fromany network regardless if they are at home, connected totheir home mobile network, visiting someone with a bro-adband connection or roaming in another operatorsmobile network.

A set of enablers have to be developed that allow servicesdelivery to the end-user based on the network connec-tion that is available at any given time. It is true that theindustry has worked on many solutions around roamingbut yet there is no standardized solution.

Enablers are also needed for continuous adoption of ser-vices when the connections or status of the end userchanges.

For the DH the integration of the mobile terminal is stillnot consolidated via the Femtocell approach. Marketingplans do not show at the moment exciting perspectives.Nevertheless it should be always remembered that nowmost home users have a mobile terminal that still is usedin the home. Therefore we should work on scenarioswhere the mobile terminal of the user will hold animportant role to access or control services at home.Technologies such as Near Field Communication andRFID can enable interesting service scenarios (ifFemtocells are not available) as soon as we can “commu-nicate” to the mobile phone via for example the residen-tial gateway.

To be able to deliver services anywhere a single end-user-identifier and uniform authentication and authorizationmechanisms are needed. The single-user-identifier couldpossibly be biometrics parameters in combination to theSIM of the end-users mobile terminal. The latter info canbe sent to other devices via NFC as mentioned above.Again Technologies are available now but yet no univer-sal solution is adopted.

The user needs a transparent security solution, easy touse and somehow showing itself present on the back-ground in order to increase the confidence of the users tobe always connected while being away from home butstill accessing his content and home based services.

Content Management and Provisioning

The consolidation of broadband and 3/4G in the mobiledomain means that genuine on-demand multi-mediaservices will soon be a reality. This now can be possiblebecause of the advent of very attractive devices such asthe iPhone or the new HTC, Nokia or Samsung deviceswith smooth and wider touch screens. The potential isfor the user to access personally relevant multi-mediawherever he is, and on the appropriate device for theircurrent context.

The architecture for content management provisioninghas to be designed to provide both push and pull multi-media services, which are personalized to the user inte-rests, and adapted to their current context and endaccess device. In addition, the combination of broadbandservices, home networks and large home storage(Multimedia disks are now very popular!) means thatmulti-media content which is stored at home can beaccessed from outside the home. The architecture there-fore, also should allow for this second novel type of servi-ce where the user provides the content for consumptionby themselves or their friends and family.

It should be very easy to push the user content into theinternet (Youtube, Flicker, Facebook, etc…).

Therefore more advanced and distributed Search engineshave to be designed and distributed at the edge of thenetworks to allow real content aware networking. Theknowledge of the content at the edges will increase thereach ability and speed of Streaming for example. P2Pand P4P will see for sure explosive growth and they mustbe combined with content filtering and adaptation algo-rithms to serve fast the users in whatever terminal andcontext they may be.

Digital Home Platform

Broadband worldwide is really being successful and itspenetration is growing fast in basically all member statesof the union. Needless to say that this increase is some-how correlated to the “Buying of home networks” becau-se families are using more than one PC at home andother types of Ethernet enabled equipment are beingbought: Play stations or consoles, multimedia/DVD pla-yers, recorders, Hifi (internet radio, etc…). Content (Music,films, photographs,…) now is being coded in digital for-mat and stored in hard disks. This has permitted the dis-tribution of it via the web. Moreover the latter allows thedistribution of such content within Home Area Networksas well using wired or wireless technologies.

WiFi access points are now combined with the broad-band routers, permitting the user to access their dataanywhere in the home using multiple devices, not onlyPCs. The wireless world is getting acceptance and disse-

133

Page 135: Tecnologias Para Las Telecomunicaciones Del Futuro

mination from the fact that also hotspots are being suc-cessful and accessible almost everywhere now: you turn-on your computer and several wireless networks are atyour reach anywhere!

Moreover Powerline solutions are more and more reliableallowing home Backbones at very high speeds (morethan 100 Mb/s).

In the sensor area ZWave and Zigbee solutions are beingcommercialized and can be easily integrated in all kindsof homes (old or new). They are very suited for controlbased services such as home automation and parameterreading.

These usage and demand facts are producing a reduc-tion on costs in the equipment for the Broadband andnetworking niche for the consumer market (home orien-ted). Also important is the appearance of various outletsserving directly this market even at global level in Europeand America. Examples are: “Carrefour”, “Mediamarket”,“Office Depot”, etc..

Having defined very rapidly the environment layingbehind the DH platforms and Broadband worlds the cha-llenges that are now faced in general and that have to besurmounted within the Digital Home are mentioned:

• Plug and Play interoperability is still not a reality forthe home equipment, even if DLNA is now beingimplemented in more and more equipment. Differentuser intervention is needed in order to connect andhandle the services offered.

• The cost of customer support is an important issue forthe vendors, service providers and Telcos. TRXXX proto-cols defined at the Broadband Forum are very impor-tant in order to configure automatically the terminals.The latter will have to be made available to most com-mercial products for the DH.

• The Management of services can now be achieved viaOSGI, but the problem still lies on the fact that the lan-guage used, Java, imposes strong processing andmemory requirements for the Residential Gateways(RG) rising the costs. So the question that needs anurgent answer is: Should we wait for more powerfulRGs or should we develop new service managementtechnologies! (OSGI is now getting really popular for allsorts of services: At the Digital World Conference 2009-Cancun, there were more than 20 companies and uni-versities using OSGi for various application fields!).

• Services are now key if we want to see new Telco sour-ces of revenue. For that we have to follow the web2.0paradigm meaning that users have to participatemore on the creation of services. They should havetools in order to implement Mashups oriented to theDH environment.

Device Middleware

Consumer electronic appliances such as set-top boxes,PVRs, and DVD players are sophisticated and expensivedigital processing systems now able to handle multipletasks. By connecting these information appliances tohome networks, it is possible to share processing andstorage resources between members of the family.Central to the fabric of all home networks is a softwaresystem called “middleware”. This software system allowsconnected information appliances to exchange bothcontrol information and streaming multimedia content.

Therefore the DH faces the implementation ofMiddleware platforms for devices that should have thefollowing properties that are needed in order to create“device communities” that can effectively interoperate:

• To enable the plug and play operation in order to inte-grate enhanced devices without new configurationsettings.

• To update new software and run multiple versions of it.

• Allowing interoperability of services across a networkof devices.

Broad industrial support for devices available in the mar-ket is needed. The problem is that the device market is sodiverse that the task of implementing Middleware is nottrivial. Thus new DH architectures should be investigated.

CONCLUSIONS: FUTURE WORK

We will have to enhance the state-of-the-art by solvingexisting interoperability problems in personalizationdata exchange, services, context adaptation and mana-gement of service platforms with the global aim of inte-

DIGITAL HOME CHALLENGES, ANYTHING NEW?

134

Page 136: Tecnologias Para Las Telecomunicaciones Del Futuro

grating the telecom global networks, and the homeaudiovisual and networking sectors.

Five areas are here identified that will have to be tackledin the years to come.

Improving service access

Access to services is currently limited. Most consumerdevices support a pre-defined set of services which limitthe exploitation of the features offered by the device.

Furthermore, access to services depends on the locationof the user requesting the service.

Two main functionalities will have to be realized to allowseamless service access:

• Terminal Independence

• Location Independence

Device independence consists of allowing to receive aservice to a particular device and optionally to transferthe service onto another device, in a seamless and securemanner. The DH platform will be able to adapt the con-tent sent to the device onto different devices. For exam-ple, transferring a movie clip from a desktop PC onto aPDA should consider the device capabilities such as dis-play size, resolution and the network capabilities (broad-band, cables, etc).

Location independence consists of allowing users toaccess the same services they are registered to withoutany dependence on their location.

The concept behind this aim is to hold a certain numberof “bubbles”. Each bubble encompass a user island wherea user can consume the services he is registered for.

For example, one of the main bubbles in the servicespace is the Home Bubble, i.e. services which can be

accessed by devices at home. An additional bubble is “Onthe Move”, which is a bubble available on a user’s devicesuch as mobile/PDA while he is outside the home.

Need for integration of user profiles

Typically, when a user subscribes to a service, such as anews report or weather forecast, a profile is attached tothe user’s subscription in order to set his preferences.These profiles are isolated from each other and lead intoto data redundancy and inconsistency leading to userfrustration when registering to services.

Therefore an integration of user profiles consists of a glo-bal service personalization module which integrates allsets of user’s preferences into a single profile. This profileis able to be accessed from various user bubbles, such asthe home and outside and by this achieve a unified set ofprofile management without the need to allocate diffe-rent profiles for user’s services.

Need for concurrent Management of the userservices

The Digital Home platform is intended to deliver plethoraof services of different types into the home environments.In order to assure correct service delivery, the realized ser-vice platform has to take into account different stakehol-ders who participate in this process. For example, the ser-vice provider who offers a service, the customer, whoowns one or more residential gateways and associatedusers, the user, who subscribes to services and the resi-dential gateway, that installs and consumes services.

A service management platform has to be introduced.The latter will be able to aggregate services offered byservice providers on the one hand and offer these servi-ces to users in a unified manner by allowing them toregister for a particular service, download and install theservice by the residential gateway and invoke the servicewhen required. In TID we are working towards such aconcept in the project: “Enriched Agenda”.

135

Page 137: Tecnologias Para Las Telecomunicaciones Del Futuro

Improving the content provisioning to differentplatforms

The DH platform will have to provide audio/visual con-tent to networked environments, devices integration andcatering for different type of devices while taking intoaccount their technical capabilities.

Two functionalities are a must taking as a reference theamount of devices:

• Content provisioning

• Content adaptation

Depending on the user location, the terminal he/she has,his/her profile and preferences, etc, content is adapted tofit the personalized service requirements, and then it isprovisioned.

In fact, the logical path for the delivery of personalizedcontent to the user would be the following:

Original content from the content provider is personali-zed in the content adaptation module, and then, it istransferred to the home gateway or the user terminal.

Need for integration of Audiovisual andcommunication services

The DH platform will integrate the networks fromTelecom Operators and home users to create ubiquitousand secure environments. Within these environments,user will be able to access highly personalized services.The latter will need to have rich media object representa-tions, identifications, location and descriptions.

The solution to integrate Audiovisual and communica-tion services will be comprised of network componentsfor advanced processing storage, and rendering devicescapable of routing the multimedia services to the mostappropriate (personal) devices depending on the perso-nal preferences as well as context-of-use. This will be

achieved by developing novel middleware solutions, P2Pcapabilities, and streaming of rich audio-visual contentto and from the home; whilst scaling the service toobtain the best quality of service taking into account thecharacteristics of the heterogeneous audiovisual net-work.

REFERENCES

1 OSGI Alliance, http://www.osgi.org2 ICDS (International Conference on Digital Society)

2009, Cancun-Mexico, http://www.iaria.org/confe-rences2009/ICDS09.html

3 Home Gateway Initiative (HGI), http://www.home-gatewayinitiative.org/

4 3G/4G Vision, http://www.mobileinfo.com/3g/4gvi-sion&technologies.htm

5 ZWAVE products, http://www.z-wave.com/modu-les/Z-Wave-Start/

6 Zigbee alliance, http://www.zigbee.org/7 Broadband Forum releases TRxxx protocols,

http://www.broadband-forum.org/technical/relea-seprogram.php#Release20

8 DLNA Forum, http://www.dlna.org/home9 J. Bourcier, C. Escoffier, M. Desertot, C. Marin, A.

Chazalet, "A Dynamic SOA Home Control Gateway"Intrenational Service, Computing ConferenceContest, Sept 2006.

10 D. B. Khedher, R. Glitho, and R. Dssouli, “MediaHandling Aspects of Multimedia Conferencing inBroadband Wireless Ad Hoc Networks,” IEEENetwork, Apr. 2006, pp. 42–49.

11 Shintaro Mizuno et al., NTT Corporation, “A MobilePhone Based Authentication Service for HomeAppliances”, IEEE Services, June 2007, pp.1168.

12 IST AMIGO project Deliverables, http://www.hitech-projects.com/euprojects/amigo/deliverables.htm

13 IST ePerSpace project deliverables, http://www.ist-eperspace.org/D. Marples, S. Moyer, “Home Networking andAppliances”, in Diane Cook, Sajal Das, SmartEnvironments: Technologies, Protocols andApplications, Wiley (2004).

DIGITAL HOME CHALLENGES, ANYTHING NEW?

136

Page 138: Tecnologias Para Las Telecomunicaciones Del Futuro

137

Page 139: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 140: Tecnologias Para Las Telecomunicaciones Del Futuro

DYNAMIC SECURITY: A NEW APPROACH FOR USERAND SERVICE SECURITY

José Enrique López

Page 141: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCTION

During 2008 we have checked how cybercrime has beenable to reinvent itself and became to use new technolo-gical trends for its own profit. For example, Web 2.0 hasbecome a new mean for worms, viruses and trojans spre-ad (Koobface virus for Facebook, fake Youtube as a sourcefor trojans or the so called “maladvertisement”, amongothers). Also, Social Web has been used as a new “huntingland” for “phishing” (Setting up virtual accounts to beused as origin for catching messages.) Also, 2008 witnes-sed a PCs bot infection outbreak. And new software ver-sions don’t seem to be able to stop the vulnerability out-flow, despite developers are nowadays more aware aboutsecurity issues than time ago (In 2008, Microsoft hasreleased a 13% more security related patches than along2007).

Taking a look into the future, 2009 not only seems to be“harvest time” for Botnet (which means Botnet origina-ted damage is going to became more common), but alsoit seems to be the time for several trends consolidationwhich are going to increase the attack rates againstbrowsers and digital identities due to the improvementof the benefit prospects of it.

Certainly, Cloud computing (“SaaS”: software as a service.“IaaS”: infrastructure as a service. “PaaS”: platform as aservice) will turn browsers into real operating systemsusing and controlling a huge amount of applications andresources, so browser compromising will be a very inte-resting business for cybercrime. In addition to this, the socalled “social networking” will burst onto business mar-kets (Using virtual identities in services; Building busi-ness relationships through social sites as “linkedIn.com”;Increased social value of virtual identities, etc.), which willadd more real value to stolen virtual identities.

Summarizing, the Internet collection of security threatskeeps in progress and there is no reason to foresee anychange at the near future.

In this context, taking care of user and service security isbecoming a very complex task. It is not easy to identify a

reasonable way to tackle a comprehensive security solu-tion for the enormous variety of variables to be takeninto account. Current focus on “downloading” new piecesof software for each new threat is not longer a solutionto fight against cybercrime, because each new patch orsolution will have a new threat in return, which will over-take it.

It is necessary to look for new approaches to tackle thesecurity problem. Along next paragraphs they are goingto be introduced some of them, which have specialimportance for Telefónica due to the fact they set TheNetwork as the key element to built security and trust,and because they follow the market trends of collabora-tive process and offering services from the network.

PROVIDING SECURITY FROM THE NETWORK

User is the natural target of the main part of Internetsecurity threats. However, what the facts show are that itis not usual any kind of user active involvement to avoidor to solve security threats. On the contrary, user looks fortransparent and unattended security solutions. The sce-nario becomes more complex due to the growing sophis-tication of attack techniques which sometimes “enrols”user as part of the security problem. Definitely, a securitysolution cannot entrust part of its strength to some kindof user activity or inactivity.

So that, it would be desirable that security specializedgroups and infrastructures were the ones in charge ofuser security issues, trying to minimize any kind of nee-ded contribution from user side.

This approach identifies the network itself as a securityprovider which stands for both, new security solutionsbeing deployed as “networked” security capabilities (orenablers), and part of the functionality of common secu-rity solutions being gradually migrated from a “device-originated” security point of view to a “network-origina-ted” security focus. The final aims are freeing user fromas many security tasks as it can be possible, and makingthe most of network infrastructures to leverage securityfunctionalities.

DYNAMIC SECURITY: A NEW APPROACH FOR USER AND SERVICE SECURITY

140

The year 2008 has shown a faster growth of cybercrime rates, a new list of securitythreats based on Web 2.0 exploits and an important Botnet spreading phenomenon.And this is so despite security awareness is on increase among developers andprofessionals. Moreover, the bursting in of new trends “on the cloud” do notrecommend optimism on security issues for 2009-2010. Common security approachesdo not seems to be able to stop this wave, so new ones are needed. Dynamic Securityis a new security concept based on the engaging of three main security approaches:Offering security solutions from the network. A multifactor approach to the usersecurity. And introducing the “security reputation” concept as a service.

Page 142: Tecnologias Para Las Telecomunicaciones Del Futuro

Operator network is a privileged surveillance point todeploy security solutions. This is so, due to three mainreasons: Firstly, it has direct access to the whole trafficflow (the main attack “container”). Secondly, it is an exce-llent place to deploy “device/access”-independent solu-tions. Finally, it is hard to compromise by threats becauseit is strongly protected through specific solutions.Therefore, deploying security solutions over operator net-work would bring a full, reliable and updated control overthem, which would boost their performance and wouldallow a set of resources and possibilities (like trafficanalysis, scalability, distribution or processing power)that would not be possible otherwise.

MULTIFACTOR SECURITY

As stated before, action field for security threats is verywide. And each of these threats is able to exploit a diffe-rent user security aspect (or several of them). So, armou-ring one of those aspects, or a few of them, will not gua-rantee a full user security.

This approach proposes a four-step procedure to contex-tualize Security through those factors having an influen-ce on it:

• To identify which factors are setting the user security:Security measures running on the user device, appli-cations patch levels, device links behaviour, user digitalidentity and access location trustworthiness, etc. It isintended to cover as many threats points as possible:software, identity, OS, network, access, peripherals…

• To develop solutions to capture the security status ofeach of these factors. The aim is to have a “snapshot”of the user security for all his factors (some of themcould show a safe status, while others have importantrisks), which is sent to an external element wheresecurity decisions are made.

• To apply a synergic approach to the user security eva-luation process. Based on the estimated status foreach factor, it is rather intended to evaluate the usersecurity by means of a correlation process of all of

141

Figure 1. Security from the network

Figure 2. User security factors as security network capabilities, and the “capturing & updating” status cycle

Page 143: Tecnologias Para Las Telecomunicaciones Del Futuro

them, than doing a “local” analysis for each detectedsecurity problem. The pursued goal is to be able todetect security problems which an isolated analysiswould not do. For example, how safe should a user beif he authenticates his identity through digital certifi-cates while using a “keylogger” infected device?

• To apply a wide approach to the security solutionsprovided to a user. Once user security evaluation hasbeen done, the network makes the security decisionsfor each factor and applies measures where needed(whether they were keeping user informed, sugges-ting actions, or applying previously defined measureslike blocking malware traffic, redirecting browser tosafer sites, etc)

REPUTATION AS SECURITY

The concept of “security” is changing to “trust”. Due tothe fact that achieving a full guarantee of security isquite unreal, this third approach stands for users and ser-vices would include the concept of “estimated trust” (ofan actor or a transaction) into its security decisionmaking process. It is said, “if you cannot be fully sure; bebetter informed at least”.

Being lax, “trust” and “reputation” are linked terms.Currently, user reputation is a very common tool in a lotof Internet services, where it is being successfully used asa kind of “social reputation” measure for some businessand, of course, for social networks asking for trusteddeals. Why don’t extrapolate this concept to security

solutions? Doing so, users and services would hold a“security reputation” that would help third parties todecide about how confident they should be dealing withtheir requests.

Focusing on users, common reputation approaches (asvoting rates) could not be applied to “security reputation”.The network, as a neutral and trusted entity, would bethe one in charge of setting this security reputation levelinstead, and it would do it based on objective securityelements affecting the user.

Finally, this “security reputation” should be accessible bythird parties and the user himself. The point is that thesethird parties would be able to know how trustworthy theuser who is requesting access to their resources is, and sothat, they would accordingly set the appropriated autho-rization policy for his reputation level. Regarding the userside, the network would show his reputation level to theuser, together with several options and suggestions toimprove it. In this case, there is a double aim focusing onawareness: On one hand, the user finally realizes he hasa security problem which could affect his internet trans-actions. And, on the other hand, he also realizes the net-work is the one offering a quick solution to improve hisreputation.

DYNAMIC SECURITY

All previously introduced approaches are complementary.And they engage to build Dynamic Security: A new con-cept on security where the network plays a main role as

DYNAMIC SECURITY: A NEW APPROACH FOR USER AND SERVICE SECURITY

142

Figure 3. Dynamic Security; a new concept on security

Page 144: Tecnologias Para Las Telecomunicaciones Del Futuro

the key point from where security flows to the user. Ofcourse, this should be the role of Telefónica’s network.

In the Dynamic Security concept, the security solutionsare deployed over the network, providing their functiona-lity from it to the user. These solutions include mecha-nisms to capture and to evaluate the security status ofthose factors which characterize the user security whensurfing Internet. So, the status of each security factor isgathered by the network where all of them are analyzedand correlated with each other, or with third-party provi-ded intelligence (black list, cloudAV, etc.), or with networkself-provided analysis. This process results in a trust valuebeing assigned to the user and a dynamic security“report” being communicated to him. This report isnothing but the evaluated status for each user securityfactor together with a set of suggestions to improvethem. Simultaneously, the network applies previouslydefined security measures (whether they were definedby the network or by the user himself) to correct thesecurity leaks or to put in safe the user activity.

This procedure is constantly repeated, so the securityreputation value is dynamically updated and, hopefully,the suggestions and the applied security measures willresult in a user reputation improvement. The user keepsalways aware about both: his trust value and the securitystatus value of his factors. In addition to this, due to thefact this information is offered by and from the network,it is a very reliable and unforgeable data. Therefore, whena service is requested by a user, it can ask the network, onreal-time, for his trust value and act accordingly to itduring the authorization process.

It is easy to guess a Dynamic Security service deployed byTelefónica with two different kinds of customers: On onehand, end-users wishing to know about how safe is hisInternet activity, where are located their security leaksand how can solve them. On the other hand, web serviceswishing to know about the trust of the user behind arequest and offering special deals with those who keephigh trust values. The key issue is to offer the security asa service.

143

Page 145: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 146: Tecnologias Para Las Telecomunicaciones Del Futuro

HOMEPDA: FOURTH SCREEN AT HOME

Juan José Andrés Gutiérrez

Esteban Pérez Castrejón

Ana Isabel Calvo Alcalde

Page 147: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCTION

New fourth screen at home

What is it?

The “Fourth Screen” is a new concept that combines thebest features of the telephone, TV, PC and cell phone intoa compact, easy-to-use home communications center.

Another more general definition is used in a number ofadvertising and technology industries, to refer to a smallportable video screen such as those found in mobile(cellular) phones or other portable electronic devicessuch as a video iPod player (1).

This term originates in reference to the actual historicalsequence in the development of video screens:

• Zero screen, the movie screen, also known as the SilverScreen (It was considered the first one but not in thehome context).

• First screen, television.

• Second screen, personal computer.

• Third screen, mobile communications devices.

• Fourth screen, it is the most recent in a historic line ofcommunication screens. It is commonly called DigitalSignage or Digital Out Of Home.

These new kind of devices will change the way that useraccess and experiment the world around them:

• They will be able to manage the automation devicesat their homes and will change the way they accesscontents and enjoy their spare time at home.

• They will be able to leave the virtual communitybehind and take the technology out into their actualcommunity.

• They will have access, at home and at anytime, to theirvirtual or real community.

• They can introduce their virtual community to theirtouch space community

Although, to achieve this, several new aspects must betaken into account and several new requirements appe-ar:

• An OS that is non-exclusive, cheap to license, andadaptable (not a vendor's OS).

• An OS that brings the Web front and focused on userexperience. The one that user demands with directmanipulation, touch connected to action, no multi-step operations, no “dialog boxes” like forms, etc. Userswant simple interactions to access everything.

• An OS that accommodates new forms of communica-tion while retaining the simplicity of the mobilephone.

• Need a new breed of software developers and engine-ers familiar with the new tools and technologies in anevery changing technology landscape, capable ofthinking out of the box!

Microsoft introduced its Windows CE in the late '90s, inspite of have been mainly focused on PDAs market, it wasquickly included in new types of devices such as POS's(point of sale terminals) and medical equipment.Nowadays it has become the core of other Microsoft pro-ducts.

In fact, if we take into account the emerging technologi-cal trends such as multitouch screens, wireless, cheapersilicon, higher battery capacity, location services and theexpansion of the open source movement in operatingsystems along with the explosion of digital informationneed at home, appears an opportunity for fourth screenin our increasingly digital lives. Commercially this kind ofdevices is a family Home PDA to allow a shared use for allthe members of the family, despite of an individual use.

Open OS for the fourth screen

Open OS, for most people, means that the operatingsystem is essentially free, although, until very recently,the idea of using an Open OS has been a pure concept.Open source and free software both describe softwarewhich is free from onerous licensing restrictions. It maybe used, copied, studied, modified and redistributedwithout restriction. Free software is not the same as fre-eware, software available at zero price.

The definition of open source software was written to bealmost identical to the free software definition (2). Thereare very few cases of software that is free software but is

HOMEPDA: FOURTH SCREEN AT HOME

146

Figure 1. Fourth screen device

Page 148: Tecnologias Para Las Telecomunicaciones Del Futuro

not open source software, and vice versa. The differencein the terms is where they place the emphasis (3):

a) Free software is defined in terms of giving the userfreedom. This reflects the goal of the free softwaremovement.

b) Open source highlights that the source code is viewa-ble to all and proponents of the term usually empha-size the quality of the software and how this is causedby the development models which are possible andpopular among free and open source software pro-jects.

Traditional OS (close and with limited capacities expor-ted) are evolving towards an Open solution where thesource code if freely available to everyone and where theusers with a developer profile will be able to program andrun their own applications.

Technology aspects

Open OS can offer customers personalized UserInterfaces which will make the real difference amongOperators. The figure 2 shows an example of the IPhoneOS X, Blackberry, Symbian, Android and Windows Mobileuser interfaces. All of them offer visual designs, enhancedmobile Internet experience and greater personalizationcapabilities.

Applications

These devices provide a touch screen which allows toimplement different innovative applications. For this, thescreen has widgets for quick access to Internet, moretelephone features, notes, photo frame, and so on. Thesefeatures provide a new kind of devices with lots of appli-cations as entertainment, communication and informa-tion of the digital home including automation and moni-toring.

There are several areas of application:

• Telephone contacts

• Video and telephone calls

• Information services near to home

• Shopping

• Calendars and reminders

• Maps

• News

• Movie and entertainment showtimes

• Digital portrait

• Gaming Systems

• Music Players

• Media Players

• Medical monitoring systems

• Videomonitoring services

• Home baby monitor

DEVICES AND OPERATING SYSTEMSEVOLUTION

Nowadays there is a huge amount of technologicaldevices available on the market and people are used tointeract with them to carry out daily tasks. If mobiles,multimedia players, Global Positioning System naviga-tors, etc. play and important role and from the compari-son of their evolution we can conclude that all of themshare, generally, several main features. For example,many of them are designed to be more and more porta-ble and try to allow user interaction through touch scre-ens, with built-in onscreen keyboard. Moreover, we candeduce that they are increasingly turning to the fourthscreen.

147

Figure 2. Several user interfaces

Page 149: Tecnologias Para Las Telecomunicaciones Del Futuro

These devices will allow Operators to provide screenbased services or content at home through the use of aportable touch screen. There are companies that provideattractive always-on broadband and wireless connecteddomestic media terminal for Operators, service providersand any company. So, operators have started to changetheir “walled garden” models to a collaborative workwith other market actors.

There is a trend in the mobile market towards open sour-ce platforms, and towards a new open mobile marketwhere users will be able to access to any service, of anyprovider, using any device, and everything in a simple wayand at an affordable price. If conditions are appropriate,open source initiatives will translate into new servicesand high quality applications. Each enterprise will be ableto offer users their products and services, and if theyknow how to be adapted to this new market situationthey will increase their incomings.

Although, this situation not only creates new opportuni-ties, it also creates new challenges. On one hand, opera-tors will change their business models according to thiscontext due to the new competition and, on the otherhand, service providers will have to overcome the lack oftools and resources needed to develop applications, andthey will have to offer new value added contents focu-sing on final users.

Operating systems categories

The Operating Systems can be classified into the follo-wing described categories, mainly depending on howopen or closed they are:

Proprietary

Operating systems in this category are only used by themobile devices for which they were designed to. Thereare no facilities or tools for applications development, sothe proprietary company has to provide all the availablesoftware. It is proprietary software and the source codecan not be shown, so there is no available information toallow third-party software.

Proprietary Open

This category covers the operating systems that are usedin the devices for which they where designed to, but in

HOMEPDA: FOURTH SCREEN AT HOME

148

Figure 3. Devices Evolution

Figure 4. Operating Systems Categories

Page 150: Tecnologias Para Las Telecomunicaciones Del Futuro

this case, the development manufacturers allow the cre-ation of third-party applications for their proprietaryoperating systems.

To achieve this, some manufacturers provide develop-ment APIs and environments that enable the develop-ment of new software in a simple and suitable way. Thisbrings up a wide range of available applications thatincrease their functionalities.

Commercial Open

In this category the classified operating systems arethose with proprietary code not distributed, but withdevelopment APIs and environments to enable newdevelopments.

The difference between proprietary open operatingsystems is that, in this case, manufacturers do not provi-de an operating system specifically developed for a speci-fic hardware. The operating system can be used invarious mobile devices with different characteristics.

Open Source

The main feature of the operating systems of this cate-gory is the same as desktop operating systems: its sourcecode is freely usable. The development of these operatingsystems is guided by a strong foundation, usually consis-ting of several companies, which receives developmentcontributions for their operating system made by users.

These open source operating systems can be changedand adapted to any mobile device by adding or modif-ying them according to the device specific features.

Industrial Open Source

This category includes those operating systems withopen source code, but linked to a specific industry thatmaintains the code. These manufacturers do not allow todevelop other operating systems based on their own, sothey always follow the same development line.

There are development communities for these operatingsystems that provide a wide variety of applications to beused. One of the main benefits of this situation is thatthe total development progress is managed for the ope-rating systems.

Being open source operating systems, there is no limita-tion on the use of devices, and they can be applied in allthe devices on the market that allow hardware imple-mentation.

The role of Android

Following the Microsoft model, Android may have a simi-lar impact, that is, it can reach more connected devices to

the home network beyond a mobile phone, such as set-top boxes, digital photo frames and the new conceptcalled fourth screen. The main reason is that actually thedevices have enough capacity process to be used and tobe updated through a wireless Internet access. This com-bined with a vast community of users who develop codeguided by Google increases the possibilities infinitely!

Android is promoting the shift from mobile phones toanother kind of devises like Internet Tablets, multimediaplayers, and so on. Although main operators are adoptingAndroid slowly, this open source platform is being adop-ted by consumer electronics companies that are develo-ping Internet Tablets distributed through retail channels.

Android includes new relevant features in the new ver-sion, like a built-in onscreen keyboard. This is an essentialfeature which was missing when Android was launched.Thanks to this, Android will be a viable platform for touchscreen devices that do not have a hardware keyboard.

Until now, manufactures have used to their devices pro-prietary firmwares based on Linux. Android will allow tosave money on developing these proprietary firmwaresand also to incorporate third party applications on devi-ces from different manufactures, which may causes inmany cases a relevant increase in sales.

BUSINESS MODEL

New business models focused on terminals are emer-ging. Every time there is more different operator’s agentswho detect a niche market to offer services, content pro-viders, service providers, application providers, and so on.The rise of data services contributes to assign the devicesand terminals a strategic value for the operators.

The figure 5 shows who has the control of the differentareas and also represents if it is controlled by the opera-tor or shared with the manufacturer (7).

149

Figure 5. Business Model

Page 151: Tecnologias Para Las Telecomunicaciones Del Futuro

It is necessary to point out that open middleware contri-butes and allows operators to provide new services. Also,due to the necessity of cutting down the devices pricethe technological manufacturers are offering platformsthat support services and applications developmentaccording to a different business model than the tradi-tional one, for example like the iPhone and its applicationshop. In this model the manufacturer shares the benefitsof voice and data traffic with the operator and the deviceserves as main platform for new services and incomings.

The figure 6 shows where is located the fourth screen(five years forecast) concept according to the productsand services current state at home market:

FOUNDATIONS & ALLIANCES

Open Handset Alliance (OHA)

The Open Handset Alliance (OHA) is an organizationfounded in 2007 by Google, T-Mobile, QUALCOMM,Motorola and others companies to develop open stan-dards for mobile devices, promote innovation in mobilephones and provide a better experience for consumers ata lower cost (4). The OHA sponsors and promotes theAndroid open mobile phone platform, a software plat-form and operating system for mobile devices, based onLinux. Android was developed to compete with all cell-phone platforms including Windows Mobile and Apple'siPhone by offering an open platform that encouragesthird-party development of applications.

Nowadays, the Open Handset Alliance is made up of over

30 telecom-related entities, including wireless carriers,semiconductor companies, handset manufacturers andsoftware companies. Telefónica is one of these compa-nies.

LiMo (Linux Mobile) Foundation

The Linux Mobile (LiMo) Foundation is a global consor-tium of mobile leaders that promotes the developmentof an open, hardware-independent, Linux-based softwareplatform for mobile devices. It was founded by Motorola,NEC, NTT DoCoMo, Panasonic Mobile Communications,Samsung Electronics, and Vodafone, at the beginning of2007, in order to bring open and collaborative governan-ce to the mobile industry to unlock innovation throug-hout the value system and bring much better proposi-tions to mobile consumers everywhere (5). The LiMoFoundation is a not-for-profit organization aimed atblending the community-based development benefits oftransparency, innovation and scalability with the bestdevelopment practices from the mobile community tocreate an innovative new business model.

Telefónica is one of the core members of the LiMo foun-dation with Access, Aplix, Azingo, Casio-Hitachi, LGElectronics, Purple Labs, SK Telecom, Verizon and WindRiver.

Symbian Foundation

The Symbian Foundation is a not-for-profit organisationwhich was set up to unify Symbian, S60, UIQ andMOAP(S) software and to administer, oversee and deve-

HOMEPDA: FOURTH SCREEN AT HOME

150

Figure 6. Home PDA Market Momentum

Page 152: Tecnologias Para Las Telecomunicaciones Del Futuro

lop the resulting Symbian mobile OS in its altered opensource state (6). This organisation tries to bring to life ashared vision and to create the most proven, open andcomplete mobile software platform available for free.

The Symbian Foundation is supported by five of the big-gest, in volume terms: Nokia, Samsung, Motorola, LG andSony Ericsson, of the mobile phone manufacturers.This isa unique distinction from OHA and LiMo, that both havethree out of five, and reflects Symbian's current marketshare position (around 60%). There is also support fromchipset manufacturers as Texas Instruments, Broadcom,Freesacle, and ST Microelectronics, and operators asVodafone, Orange, T-Mobile or DoCoMo.

TELEFÓNICA INITIATIVES

O2 Joggler

The O2 Joggler (8) focuses on families. This fourth homescreen is linked to a fixed line and build around the exi-ting O2 calendar. The Joggler is also a device in a familyroom where you can easily and quickly send a short mes-sage to other family members on their mobile. Besidesthat it offers an access to your own content (photos, vide-os, music...) and general information on weather, trafficand local news.

Joggler has a 7” touch screen with no stylus required andis build around an Intel Atom processor plus 1 Gb

memory. Other features are: drag and drop functionality,Wifi and Ethernet connections, updateable over the airallows for new applications, media player supports awide selection of formats and codecs, USB and UPnPcapabilities. The Joggler is not a personal PDA but afamily PDA that is aimed to replace the front of the frid-ge as a message and calendar board. So the mains powe-red, not batteries at all, is not a drawback: you’ll alwaysknow where it is.To complete the offering the Joggler willbe packed with mobiles or extra SIMs and advertisedboth online and in O2 Family Meet Points.

CONCLUSION

People will be more and more used to interact with thesedevices in a natural and comfortable way, and new needswill arise creating new opportunities for new services.Taking into account future terminals, which are begin-ning to appear on the market, the possibility to cut downterminals costs using Android and considering a modelwhere the connectivity costs can be negligible comparedto the services costs.

In fact, if we take into account the emerging technologi-cal trends such as multitouch screens, wireless, cheapersilicon, higher battery capacity, location services and theexpansion of the open source movement in operatingsystems along with the explosion of digital informationneed at home, appears an opportunity for fourth screenin our increasingly digital lives. Commercially this kind ofdevices is a family Home PDA to allow a shared use for allthe members of the family, despite of an individual use.

The applications list can be quite long, the main reason isthat the building blocks for the construction of thesesystems are currently available and they are consolidatedover the time. All that can be necessary is connectivity, aninterface that provides a quality user experience andcontents that with the other features will be required toenable devices to take off on the market within an affor-dable model for the user.

PC is the reference point that everybody has. The challen-ge is to unify Internet services.We still need two differentInternets: one focused on the PC and another one formobile devices.The last one always with a smaller screen,but it is necessary to change this trend and make pro-gresses to provide unified services. The experience thatusers hope is devices that are able to support Flash,JavaScript, etc, like a PC browser.

Due to the recent incorporation of Android to the opensource community, consumers will start to have availablemore applications for their devices as tools, localization,games and social networks, cheaper and faster phones atlower prices and a better user experience due to the useof multitouch screens. In recent weeks, are emerging a lotof news about enterprises that have started to considerthe use of Android in all kind of gadgets, from set-top

151

Figure 7. O2 Joggler

Page 153: Tecnologias Para Las Telecomunicaciones Del Futuro

boxes to navigation systems, as well as digital photo fra-mes.

Google is taking Android very seriously and is working ona movement and a user community around it. For exam-ple, it has begun to negotiate with major universities(MIT, Berkeley, Stanford, Harvard and Carnegie Mellon) toimplement education programs to develop applicationsfor Android. This potential may not be obvious today butwill give results in a short-term future.

Those manufacturers who do not want to start a deviceconstruction from scratch will be able to use the availa-ble code and modify it to customize their products withunique characteristics that allow them to differ from thecompetition.

REFERENCES

[1] Fourth screen concept. [Online] http://en.wikipedia.org/wiki/Fourth_screen.

[2] Free software definition. [Online] http://en.wikipe-dia.org/wiki/Free_software_definition.

[3] Open source software definition. [Online] http://en.wikipedia.org/wiki/Open_source_softwa-re.

[4] Future Trend Forum. [Online] http://www.ftforum.org/en.

[5] Open Handset Alliance. [Online] http://www.open-handsetalliance.com.

[6] LIMO Foundation. [Online] http://www.limofounda-tion.org.

[7] Symbian Foundation. [Online] http://www.symbian-foundation.org.

[8] O2 Joggler. [Online] http://yourfamily.o2.co.uk/o2familyjoggler/.

[9] Fundación Bankinter Report: Mobile Technologies.[Online] http://www.fundacionbankinter.org/es/publica-tions/mobile-technologies-openness-and-new-busi-ness-models.

HOMEPDA: FOURTH SCREEN AT HOME

152

Page 154: Tecnologias Para Las Telecomunicaciones Del Futuro

153

Page 155: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 156: Tecnologias Para Las Telecomunicaciones Del Futuro

GOOGLE WAVE: REINVENTANDO LASCOMUNICACIONES. TECNOLOGÍA, RIESGOSY OPORTUNIDADES PARA TELEFÓNICA

Gustavo García Bernardo

Este artículo se escribió en mayo de 2009. En 2010 Google anunció que dejaría de ofrecer su servicio de Google Wave. No obstante,Google va a liberar la implementación de su servidor para que la comunidad creada en torno a Wave continúe su evolución.

Page 157: Tecnologias Para Las Telecomunicaciones Del Futuro

INTRODUCCIÓN

A finales de mayo de 2009, Google presentaba una nuevaherramienta de comunicación y colaboración bajo elnombre de Google Wave [1] surgiendo a partir de esemomento una gran expectación en torno a él. Con la ideade reinventar las comunicaciones, y como respuesta a lapregunta “¿Cómo sería el email si lo creásemos hoy endía?”, la propuesta de Google es una herramienta quecombina funcionalidad del email, la mensajería instantá-nea, los blogs y los wiki, para crear un sistema de comu-nicación y trabajo donde la dife-rencia entre los conceptos deconversación y de documentose difumina.

Conceptualmente, esta herramienta se basa en los ele-mentos Wave, Wavelet y Transformaciones [2], donde unwave es una conversación/documento compuesto porpartes o subdocumentos a los que llamamos wavelets,que están asociados a múltiples participantes y que inte-gran contenido textual (contenidos, comentarios) o docu-mentos adjuntos (fotos, ficheros). El contenido de estoswavelets se genera mediante una secuencia de transfor-maciones enviadas por los participantes (inserciones, eli-minaciones…) que definen unívocamente el estado de sucontenido en cualquier momento, y que se distribuyen entiempo real a todos los participantes de ese wavelet.

Estos componentes permiten establecer y mantenerdiferentes tipos de comunicaciones, desde las típicasconversaciones de email o mensajería instantánea a laedición colaborativa de un documento, utilizando unamisma herramienta y de forma totalmente integrada.

Al contrario que otros servicios de Google (Docs, Blogger,Picassa...), en esta ocasión la propuesta no sólo consisteen un nuevo servicio que ofrecerá Google, sino que elobjetivo es crear una nueva infraestructura global multi-proveedor similar a la infraestructura del correo electró-nico. De hecho podemos ver Google Wave desde tresángulos diferentes, como un servicio, como una platafor-ma o como una tecnología.

En este sentido, Wave es un servicio de comunicación ycolaboración que de momento ofrecerá Google pero quepuede ser ofrecido por otros proveedores (Yahoo,Microsoft...). Al mismo tiempo es una plataforma quepermitirá a desarrolladores crear e integrar componentesen forma de gadgets (miniaplicaciones) y de robots (par-ticipantes autómatas) que ofrecen funcionalidad adicio-nal en los waves como por ejemplo traducción simultá-nea del texto, incrustación de componentes comomapas, juegos o encuestas en las conversaciones, o inte-gración con otros servicios o páginas web externas.

TECNOLOGÍA

En la tecnología subyacente que permite ofrecer serviciosGoogle Wave podemos destacar tres elementos funda-mentales que posibilitan la funcionalidad y experienciade usuario del servicio: su arquitectura, su protocolo y elsistema de control de concurrencia [2].

La arquitectura es muy similar a la de otras aplicaciones

GOOGLE WAVE: REINVENTANDO LAS COMUNICACIONES.TECNOLOGÍA, RIESGOS Y OPORTUNIDADES PARA TELEFÓNICA

156

Figura 1. Aspecto preliminar del interfaz Google Wave

Page 158: Tecnologias Para Las Telecomunicaciones Del Futuro

en Internet como el correo electrónico o la mensajería,siendo un sistema cliente servidor, donde el servidoralmacena de forma persistente los contenidos y los servi-dores de diferentes proveedores se interconectan paracrear una infraestructura federada de servicio. A nivellógico un proveedor de servicio se compone del elementocentral que mantiene el estado de los waves (transforma-ciones, participantes…) almacenados de forma persisten-te en un repositorio, y que ofrece interfaces con los clien-tes y con otros proveedores de servicio. Esta arquitecturapuede verse gráficamente en la Figura 2.

El protocolo utilizado para comunicarse los diferentesproveedores del servicio Google Wave se conoce comoGoogle Wave Federation Protocol y es una extensión delprotocolo XMPP (el protocolo de mensajería instantáneay presencia estándar más utilizado actualmente). XMPPaporta el establecimiento de las conexiones, la sintaxis yla semántica básica de los mensajes, el descubrimientode los servidores y los aspectos seguridad, mientras quela extensión Google Wave Federation añade las primiti-vas necesarias para el intercambio de operaciones reali-zadas en los wavelets entre los servidores de los partici-pantes en dichos wavelets. Al contrario que el protocolode comunicación entre servidores, el protocolo entre losclientes y el servidor no ha sido descrito, y en estosmomentos Google considera que es un aspecto que debeser propietario de cada proveedor.

Puesto que un wavelet es compartido entre múltiplesparticipantes que realizan cambios simultáneamente yen tiempo real, es necesario un sistema que garantice laconsistencia de los datos aunque en cada momentotodos los usuarios no tengan la misma versión de loscontenidos. El sistema utilizado se basa en el modelo detransformaciones operacionales con un servidor queactúa como maestro para cada uno de los wavelets.Cuando un usuario envía una transformación (por ejem-plo una inserción de texto), el servidor maestro de esewavelet la actualiza para que sea coherente con la versión

de los datos que tiene el servidor, aplica la transforma-ción, la distribuye al resto de participantes del wavelet yresponde al origen afirmativamente para que puedaenviar nuevas transformaciones (sólo puede haber unatransformación de un mismo usuario en curso en cadamomento).

RIESGOS Y OPORTUNIDADES PARATELEFÓNICA

La tecnología Google Wave tiene el potencial suficientepara convertirse en una herramienta de comunicacionescon un despliegue tan masivo como lo han sido el emaily la mensajería instantánea. En ambos casos Telefónicano se ha convertido en uno de los proveedores de referen-cia, y corre el riesgo de suceder lo mismo en este caso.Esto es por tanto un riesgo y una oportunidad, ya podríaser la ocasión de mejorar la situación actual en queTelefónica está desplazado de las comunicaciones denueva generación, convirtiéndose en uno de los primerosproveedores de servicio Wave.

Otra posibilidad es la de extender la infraestructuraGoogle Wave para incluir funcionalidad de comunicacio-nes multimedia (voz y vídeo) que actualmente no se con-templan, y que podría permitir diferenciar el servicioWave de Telefónica del de otros proveedores.

Una tercera vía de aplicación de esta tecnología en elámbito de Telefónica sería la integración de sus sistemasen el servicio Google Wave, por ejemplo para recibir ycomentar mensajes del buzón de voz mediante el clienteWave, ofrecer asistencia técnica a los clientes de telefóni-ca mediante esta herramienta o recibir notificaciones delas actualizaciones de waves mediante SMS.

Por último, otra posibilidad es realizar la misma reflexiónde Google sobre las posibles mejoras de las comunicacio-nes y aplicarlo a la telefonía para preguntarnos ¿Cómosería la telefonía si la creásemos hoy en día con la expe-riencia y tecnología disponibles?

ESTADO ACTUAL Y POSIBILIDADES FUTURAS

En estos momentos el servicio Google Wave proporciona-do por Google está en beta bajo invitación, orientado adesarrolladores que quieran probar sus desarrollos. Laspruebas realizadas desde Telefónica I+D, a las que corres-ponden las capturas de pantalla del artículo, muestranque el producto no es muy estable en este momento yque muestra algunas deficiencias en cuanto a rendi-miento, pero cumple con el objetivo de ofrecer un entor-no para pruebas y desarrollo por terceros en estemomento. Según Google el producto estará disponiblepúblicamente, y no sólo para desarrolladores, a finales de2009.

Además del servicio, en su objetivo de crear una infraes-tructura global de servicio, Google ha decidido liberar

157

Figura 2. Arquitectura de proveedores Google Wave

Page 159: Tecnologias Para Las Telecomunicaciones Del Futuro

como código abierto una implementación de servidor deGoogle Wave que se conoce como FedOne y está disponi-ble públicamente desde julio y que ofrece el núcleo delservidor y el interfaz de federación, pero que de momen-to no incluye el interfaz de usuario del servicio.

A día de hoy es difícil vaticinar cual será el éxito de estaherramienta. Puede que dentro de diez años hablemos deella como hoy lo hacemos del correo electrónico o de lamensajería instantánea o puede que no, pero no cabe

duda de que es una propuesta interesante cuya evolu-ción merece la pena seguir.

REFERENCIAS

[1] Google Wave: http://wave.google.com[2] Google Wave Federation Protocol: http://www.wave-

protocol.org (Architecture, Protocol, OperationalTransformation, …)

GOOGLE WAVE: REINVENTANDO LAS COMUNICACIONES.TECNOLOGÍA, RIESGOS Y OPORTUNIDADES PARA TELEFÓNICA

158

Page 160: Tecnologias Para Las Telecomunicaciones Del Futuro

159

Page 161: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 162: Tecnologias Para Las Telecomunicaciones Del Futuro

RELACIONARSE A TRAVÉS DE IDENTIDADES SOCIALES

Óscar Miguel Solá

Page 163: Tecnologias Para Las Telecomunicaciones Del Futuro

IDENTIDADES DE COMUNICACIONES

Al hablar de comunicaciones tradicionales nos referimosa conversaciones telefónicas, al clásico correo postal o almás moderno correo electrónico. En estos tipos de comu-nicación claramente distinguimos:

• Una dirección (a qué línea llamar para establecer lallamada o a qué dirección enviar una carta).

• Una identidad utilizada para que el que recibe lacomunicación pueda conocer quién es el originadorde la misma.

En las comunicaciones tradicionales la identificaciónofrecía, básicamente, el nombre de la persona interlocu-tora y, a veces, ni siquiera eso, ya que a través de la direc-ción era el propio receptor el que tenía que inferir quiénle estaba llamando. Pensemos, por ejemplo, en el caso delas agendas telefónicas y en las complicaciones quegeneraban a la hora de cambiar de teléfono o de número.Y si nos vamos al caso del correo podría no llegar siquie-ra la identidad del remitente. Estos sistemas tambiéntenían el problema de la suplantación de identidad y lallegada de llamadas o mensajes con identidad oculta.

Posteriormente, el avance tecnológico en el desarrollosobre terminales ha hecho posible que éstos puedanofrecer no sólo las identidades de las personas que parti-cipan, sino también un contexto a dicha comunicación.Sin embargo, esto está condicionado al mantenimientode los propios usuarios, al terminal utilizado y sólo a lascomunicaciones que se hagan con el mismo terminal.

En el transcurso del artículo a este conjunto de direcciónque pueda llevar asociado una identidad básica (nombre)y que sirve fundamentalmente para contactar al usuarioes lo que llamaremos identidad de comunicaciones.

IDENTIDADES SOCIALES

En estos últimos años, con la aparición y éxito de lasredes sociales, se ha ido enriqueciendo el entorno de lascomunicaciones, ampliando el espectro de posibilidadespara los usuarios. Por un lado, ofrecen un mecanismomuy directo de compartir un sentimiento, un pensamien-to o una situación con todas las personas que se desee.Pero, por otro lado, ofrecen un concepto de identidadmucho más amplio y en el que entran en juego muchosmás detalles:

• Los usuarios ya no sólo son un nombre, sino que sonun perfil, un conjunto de datos con el que construyencómo quieren ser vistos por el resto del mundo (fotos,opiniones, intereses, trabajo…). En definitiva, los usua-rios construyen una máscara.

• Las relaciones de los usuarios, ya sean de amistad, pro-fesionales, de interés (como los seguidores de twitter)o de muy diversos tipos. El conjunto de las relacionesdefine, en cierta forma, a la misma persona. Pero, porotro lado, permite ofrecer el contexto de la relación (suhistoria pasada, todo lo que se ha compartido) a lahora de establecer una comunicación. Así, a la hora demandar un mensaje a un usuario a través de las redessociales puede entrar en juego todo el pasado comúnde la relación entre los usuarios involucrados.

• Los usuarios exponen su yo actual, su estado, su opi-nión, su actitud frente a lo que está sucediendo en elmomento. De hecho, las redes sociales se están utili-zando como herramientas de medida de noticias deinterés y el impacto mediático de sucesos en elmundo.

Toda esta información adicional tiene dos ventajas fun-damentales frente a la que se puede proveer en lascomunicaciones tradicionales: los datos de un usuario lodefine el propio usuario, son independientes del terminal

RELACIONARSE A TRAVÉS DE IDENTIDADES SOCIALES

162

En el mundo de las comunicaciones tradicionales siempre han coexistido los conceptosde identidades y direcciones, encargadas de identificar los participantes en unacomunicación y establecerla. En general, la dirección era siempre necesaria y laidentificación (y todo su contexto) se delegaba a los extremos origen y destino. Con laexplosión de internet, las múltiples nuevas formas de comunicación que han surgido y,últimamente, la aparición y éxito de las redes sociales, los paradigmas de comunicaciónestán cambiando, y con ellos la forma de entender los conceptos de identidad ydirección.

Este artículo trata de mostrar un recorrido que parte de las necesidades básicas de lacomunicación, para introducir la riqueza que ofrecen las identidades de usuariosdentro de las redes sociales y el potencial que puede surgir de unir los dos mundos,caminando hacia las relaciones del futuro, tanto reales como virtuales.

Page 164: Tecnologias Para Las Telecomunicaciones Del Futuro

en el que se ejecutan y se puede controlar la autenticidaddel usuario.

Con la explosión del fenómeno, el éxito de facebook [1] yla aparición de múltiples redes sociales, la identidad yperfil del usuario ya no sólo está en una única red social,sino que distintos sitios ofrecen una semántica y un con-texto diferente con el que construir cada perfil, cada más-cara. Este escenario en el que conviven diversas fuentesde información ha llevado incluso a definir el concepto de“web de identidades” [3].

Todo este espectro ampliado del concepto de identidades lo que podemos considerar identidad social.

ASOCIANDO LOS DOS MUNDOS:IDENTIDADES DE COMUNICACIONESSOCIALES

En esencia, las relaciones dentro de las redes sociales sonun conjunto de comunicaciones interconectadas y entre-lazadas. En el entorno actual de las redes sociales, estasrelaciones se construyen únicamente a base de serviciosde mensajería con distintos grados de privacidad: sólopara los participantes, visible para un conjunto de genteque podríamos llamar amigos, o visible para todos. Encierta forma, este tipo de mensajería ya está sustituyen-do al correo electrónico en algunos países o, mejor dicho,en algún conjunto de usuarios.

Estos servicios de mensajería contactan con los usuariosbásicamente a través de dos medios: consultando losusuarios a los servidores del sitio (a través de la páginaweb o aplicaciones dedicadas) para obtener informaciónsobre nuevos eventos, o a través de una dirección decorreo electrónico que es necesaria en la mayoría de losprocesos de registro. Por tanto, podríamos considerar queen el paradigma de las redes sociales, la dirección de con-tacto es, fundamentalmente, el correo electrónico.

A pesar de los avances que ha ido experimentando estamensajería incluyendo la posibilidad de notificar y actua-lizarse a través del móvil (sólo en algunas redes) o con dechats disponibles a través de la web, sigue siendo unalimitación restringir las posibilidades de comunicaciónde las redes sociales únicamente a la mensajería, y sepodría extender en general a todo tipo de comunicacio-nes. Para ello sería necesario asociar a la identidad socialtal y como la tenemos concebida, a la identidad (o identi-dades) que permita invocar los servicios de comunicacio-nes.

Dentro de las distintas identidades de comunicacionesque se pueden asociar, la que ofrece una comunicaciónmás directa, más personal y más ubicua es la identidadmóvil, el número de teléfono de los usuarios. Una vezhecho este enlace toda acción realizada en el contexto delas redes sociales podría tener su reflejo en la red del ope-rador, como podría ser enviar un comentario al móvil,

hablar con varias personas a la vez…. De la misma forma,toda ejecución de servicios en la red del operador podríatener su reflejo en las redes sociales, ya sea actualizandoel estado, dejando un mensaje de voz, generando conte-nidos…

A esta identidad compuesta y asociada es lo que pode-mos denominar identidad de comunicaciones sociales.Una vez construida ésta ya se podría trabajar en la formade integrar en las distintas interfaces de usuario losmecanismos que permitan la ejecución de todos los ser-vicios disponibles.

En el ámbito de este artículo se considerará la identidadtelefónica como la identidad de comunicaciones principal.

VIRTUALIZANDO LAS IDENTIDADES DECOMUNICACIONES

A la hora de plantear la asociación de identidades socia-les y de comunicación, podríamos considerar dos formasde realizarla:

• Asociación explícita, que se puede dar cuando losusuarios de las redes sociales conocen la identidadtelefónica de sus amigos. En este caso un mismousuario podría asociar a sus amigos con sus númerosde teléfono para poder ejecutar los servicios de la reddel operador.

• Asociación implícita, que se da cuando los usuariosasocian sus propias identidades de comunicaciones asu identidad social. En este caso un usuario sólopodría llamar o mandar un mensaje a sus amigos quetambién hayan asociado su número de teléfono.

Aunque los dos tipos de asociación tienen sus ventajas einconvenientes (en los que no entraremos en demasiadodetalle), sí es interesante destacar un punto. Aunque laprimera permite extender el uso de servicios a más usua-rios, la segunda ofrece una posibilidad muy interesante:virtualizar las identidades de comunicación a través delas identidades sociales. Si cada usuario define en quéidentidades de comunicación estar disponible, dichaidentidad de comunicaciones puede quedar protegida(que no oculta) en el contexto de la relación.

La idea de esta virtualización sería ofrecer todo tipo decomunicaciones de mensajería y voz, tanto internetcomo móvil, únicamente a través de la identidad social,de tal forma que un usuario simplemente experimenteque está interactuando con un amigo suyo de facebook,twitter [2] o cualquier otra red social, independientemen-te de la identidad de comunicaciones que esté estable-ciendo la comunicación en la red del operador o provee-dor.

Un aspecto muy importante de esta virtualización es quela identidad no se oculta, simplemente se debe proteger

163

Page 165: Tecnologias Para Las Telecomunicaciones Del Futuro

dentro de la relación, de tal forma que se puedan estable-cer comunicaciones bidireccionales entre los usuariossiempre que la relación permanezca. Una “comunicaciónbidireccional” implicaría:

1. Que el usuario que recibe un mensaje o llamada debepoder identificar qué amigo o compañero suyo le estácontactando.

2. Que el usuario que recibe un mensaje o llamada siem-pre tenga medio de devolver la llamada o mensaje.

Por otro lado, en el contexto de las redes sociales el hechode que una relación permanezca implica, al menos, quehaya un vínculo de amistad en la red social. De todas for-mas, este vínculo puede que no sea suficiente. Dado elgrado general y poco íntimo de la mayoría de las relacio-nes que se establecen a través de las redes sociales [4], notodos los usuarios estarían dispuestos a recibir llamadaso mensajes de cualquiera de sus amigos, con lo que seríanecesario habilitar mecanismos de privacidad para esta-blecer listas de permisos. De esta forma, el usuario siem-pre tendría control de quién puede ponerse en contactocon él, cosa que no sucede cuando se hace público elnúmero de teléfono.

Este paradigma de virtualización de identidades y controlen las comunicaciones telefónicas también se observa enuno de los movimientos más interesantes del año deGoogle: la aparición de Google Voice [5]. Sin embargo, lasidentidades de comunicaciones sociales ofrecen un con-texto más rico y más amplio como veremos a continua-ción.

RELACIONARSE CON IDENTIDADES DECOMUNICACIONES SOCIALES

La posibilidad de comunicarse a través de identidadessociales no sólo ofrece un mecanismo virtualizado decontrol para el usuario, sino que intenta combinar lomejor de los dos mundos. Observando el concepto deidentidad de las redes sociales, podemos destacar otrasventajas:

• Permite poner cada comunicación en el contexto deuna relación entre dos personas (ya sean amigos, com-pañeros) o incluso entre personas e instituciones.

• Dado los múltiples perfiles que puede tener la gente,permite elegir la máscara con la que identificarse enuna llamada, mensaje, chat…

• Permite al receptor conocer el “yo actual” de las perso-nas que lo contactan, lo que ofrece una relaciónmucho más cercana.

• Permite la generación e impulso de comunicacionesoportunísticas que puedan surgir de una conversa-ción, comentario o publicación en las redes sociales.

Además, el concepto es extensible y no tiene por quéquedarse únicamente en las conversaciones telefónicaso en el mundo del operador. Siguiendo este paradigma, yano resulta descabellado pensar que algún día se puedanasociar direcciones de correo postal a una identidadsocial y se ofrezcan servicios de paquetería o compra onli-ne integrados que permitan comprar utilizando única-mente una identidad social y recibiendo el productoadquirido en la dirección más adecuada en cada momen-to. De hecho, ya existen movimientos a este respecto,como SendSocial [6].

Como conclusión, el concepto de identidad se está exten-diendo y la cantidad de información que forma realmen-te la identidad de los usuarios es cada vez mucho mayor.La idea detrás de las comunicaciones sociales es ofrecertodo tipo de comunicación al alcance de los usuarios enel momento en el que lo necesiten. Poniendo la identidadde comunicaciones en este juego se puede potenciar lomejor de cada mundo para empezar a hablar de unanueva forma de relacionarse, personal, común y unifica-da, que trasciende a la web y a los operadores y queforme parte de cada terminal y dispositivo, de cada vista.

REFERENCIAS

[1] Facebook (www.facebook.com)[2] Twitter (www.twitter.com)[3] “The Web of Identities: Making Machine-Accessible

People Data”. ReadWriteWeb Julio 2009.(http://www.readwriteweb.com/archives/web_of_identities_making_machine-accessible_people_data.php).

[4] “Facebook’s “In-House Sociologist” Shares Stats onUsers’ Social Behavior”. Inside Facebook. Febrero2009.(http://www.insidefacebook.com/2009/02/27/face-books-in-house-sociologist-shares-stats-on-users-social-behavior/).

[5] Google Voice (www.google.com/googlevoice/about.html)

[6] Send Social (www.sendsocial.com)[7] O.M. Solá, R. de La Vieuville, J. Serna and A. Cadenas,“A

Security Model Proposal for a Social Communica-tions Broker”, 6th Annual IEEE Consumer Commu-nications & Networking Conference. January 2009

[8] O.M. Solá “Managing Social CommunicationsIdentities”. W3C Workshop on the Future of SocialNetworking. January 2009

RELACIONARSE A TRAVÉS DE IDENTIDADES SOCIALES

164

Page 166: Tecnologias Para Las Telecomunicaciones Del Futuro

165

Page 167: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 168: Tecnologias Para Las Telecomunicaciones Del Futuro

LAS TELECOMUNICACIONES SE UNEN PARACOMBATIR EL CAMBIO CLIMÁTICO

Mercedes Féliz Santos-Juanes

Marta Molina Tejera

Page 169: Tecnologias Para Las Telecomunicaciones Del Futuro

La lucha contra el cambio climático es uno de los retosmás importantes a los que se enfrenta la sociedad hoy endía. Las cifras de emisiones de gases de efecto invernade-ro han traspasado las fronteras de los debates científicosy ecologistas. Ahora mismo están en la mesa de los másimportantes foros gubernamentales de todo el mundo.

La eficiencia energética se ha integrado con fuerza en losobjetivos ambientales de las empresas y las administra-ciones públicas, y se han incrementado los fondos desti-nados a promover actuaciones para el uso racional de laenergía.

Todos aquellos servicios y productos que permitan lareducción del consumo energético son esenciales en estalucha. Las Tecnologías de la Información y lasComunicaciones (TIC) tienen mucho que decir. Se hanidentificado como el único sector capaz de contribuir a lareducción del impacto climático de otros sectores indus-triales. Aunque su uso conlleva un incremento en lademanda de energía, paradójicamente, las TIC contribu-yen a mejorar de forma apreciable la eficiencia energéti-ca de sectores como el transporte, la climatización, la dis-tribución energética… y llegar a reducciones de emisio-nes cinco veces mayores que su propia huella ambiental*.

Esto, que se empezaba a conocer ya hace años, es ahoramás evidente. Se disponen de estimaciones más funda-mentadas y de datos reales sobre las mejoras ambienta-les conseguidas con la incorporación de las TIC.

En Telefónica, 2009 ha sido un año clave para los progra-mas de protección del medio ambiente y, en particular, sehan redoblado esfuerzos para reducir su impacto en elentorno, potenciar los servicios y productos que contribu-yen a reducir el cambio climático y conseguir una socie-dad baja en carbono.

Desde Telefónica I+D, centro de investigación del GrupoTelefónica, se están desarrollando innovadores serviciosde telecomunicaciones que contribuirán a optimizar eluso de la energía de sus potenciales usuarios: ciudada-nos particulares, empresas, administraciones públicas,etc., gracias al uso e integración de las más avanzadastecnologías.

Los campos de actividad que se describen en este artícu-lo son una muestra de cómo las telecomunicaciones seunen para combatir el cambio climático y de los serviciosque está desarrollando Telefónica I+D en cada uno deellos. No son los únicos servicios buenos para el medioambiente. También está trabajando en otros ámbitoscomo la teleasistencia, la telepresencia o las ciudadesdigitales, que contribuyen a reducir las necesidades dedesplazamiento de las personas y a fomentar la movili-dad sostenible, entre otros beneficios.

HOGAR DIGITAL

Entendemos como tal el hogar que cuenta con un accesode banda ancha y una pasarela residencial, que es el ele-mento que conecta las distintas redes interiores con elexterior y permite el soporte de nuevos servicios.

Además de contribuir a que el usuario consiga mejorar suseguridad y su bienestar, las aplicaciones que se puedendesarrollar en el hogar digital pueden conseguir comovalor añadido mejorar la eficiencia energética. El elemen-to clave en este caso es la pasarela residencial, que permi-te monitorizar los consumos de los aparatos eléctricosconectados a las redes del hogar, actuar sobre ellos yenviar información de consumos a la plataforma de ser-vicios.

Entre los beneficios que de ello se pudieran derivar pode-mos citar:

• la posibilidad de emular las condiciones que podríanconsiderarse como propias de un usuario “comprome-tido”, es decir, aquellas que permitan la reducción delconsumo energético y el fomento de energías limpiasfrente a otras fuentes de generación eléctrica

• la gestión de la climatización y puesta en marcha deelectrodomésticos, de tal modo que se realice enperiodos en los que la energía proceda de fuentesrenovables

• la posibilidad de informar al usuario sobre sus consu-mos y de alertarle sobre consumos excesivos

• el apagado automático de dispositivos en stand-by

Gracias a estos avances, las compañías eléctricas tam-bién se verían beneficiadas, al poder disponer de infor-mación detallada de consumos, importante para podermejorar las predicciones y reducir los picos de demanda,mediante un comportamiento más comprometido de losusuarios.

SENSORES AMBIENTALES

Las redes de sensores y actuadores permiten recogerinformación del entorno físico y de este modo facilitar sumonitorización y en caso necesario, actuar sobre él.

Además de ser de extraordinaria ayuda en servicios deteleasistencia que monitorizan personas dependientes oen la obtención de patrones de comportamiento deusuarios para fines comerciales o industriales, las redesde sensores y actuadores pueden aportar beneficios en lamonitorización geológica, meteorológica, etc., esencialpara el desarrollo de sistemas de observación y predic-ción ambiental, que permita la detección de riesgos natu-rales, el diseño de nuevos modelos climáticos o la moni-torización de recursos hídricos, por ejemplo.

LAS TELECOMUNICACIONES SE UNEN PARA COMBATIR EL CAMBIO CLIMÁTICO

168

Page 170: Tecnologias Para Las Telecomunicaciones Del Futuro

Utilizando la Plataforma de Inteligencia Ambiental desa-rrollada por Telefónica I+D, se ha desplegado un primerprototipo de servicio AMR (Automatic Meter Reading), delcual se ha desarrollado un servicio piloto de medición decontadores de agua mediante acceso inalámbrico.

Este servicio de control de consumo inteligente tienetambién su aplicación en el campo de la energía, ya quepuede servir para que los usuarios y las empresas sumi-nistradoras tengan, en tiempo real, acceso y capacidad degestión sobre el consumo energético.

Smart Grid

Los actores que intervienen en la generación y distribu-ción de la energía eléctrica (empresas, particulares, etc.)pueden verse favorecidos por la aplicación de las TIC eneste ámbito, consiguiendo mejoras en su gestión quepermiten reducir además las emisiones de CO2 asocia-das. Según el informe SMART 2020*, la aplicación de lasTIC a la gestión de las redes eléctricas, lo que se conocecomo smart grid (redes inteligentes), permitirá en 2020conseguir una reducción de algo más de 2 gigatoneladasde CO2.

La monitorización remota de contadores y sensores inte-ligentes que facilitan los datos de demanda del consumoeléctrico de los usuarios en tiempo real puede ayudar aoptimizar la generación de electricidad, a favorecer sudescentralización, impulsar el uso de las energías renova-bles y su integración en el sistema eléctrico. La posibili-dad de tener cerca de los puntos de consumo los centrosproductores de electricidad, consigue reducir las pérdidasasociadas al transporte.

Actualmente Telefónica I+D está participando en iniciati-vas relacionadas con la integración de la microgeneracióndoméstica y distribuida a través de la implantación de lasTIC en smart grid (redes eléctricas inteligentes) locales.

AUTOMÓVIL CONECTADO

La aplicación de las nuevas tecnologías al transporte porcarretera puede favorecer una conducción más eficiente,con menor consumo energético, y mejorar al mismotiempo la eficiencia del tráfico, gracias a los sistemasinteligentes de transporte.

El uso cooperativo de redes y tecnologías móviles einalámbricas es el elemento esencial en estos sistemas,que permite la captación, tratamiento y difusión de infor-mación urbana accesible en terminales móviles, sobreatascos, incidencias y aparcamiento en las ciudades, conayuda de sensores “flotantes”. Además, permite el diálogoentre los vehículos, y con la infraestructura vial e Internet,con el objetivo de reducir la probabilidad de accidentes y

de contaminar menos gracias a un tráfico más fluido yeficiente.

Actualmente se está participando activamente en el de-sarrollo de líneas de investigación de las comunicacionesentre vehículos y de éstos con las infraestructuras de lasredes viales. Además, se trabaja en el desarrollo de solu-ciones orientadas al conductor, que faciliten una conduc-ción más ecológica, lo que podrá ser de gran utilidad, porejemplo, en la aplicación de seguros de automóvil quepenalicen a los conductores cuyo estilo de conducciónimplique un mayor consumo de combustible.

CLOUD COMPUTING Y VIRTUALIZACIÓN

La contribución de los Centros de Proceso de Datos(CPDs) al consumo eléctrico global de una empresa quedisponga de estas instalaciones es muy significativa. Portanto, la optimización de su rendimiento energético esclave para conseguir reducir su consumo eléctrico.Además, la disipación térmica de los equipos que confi-guran un CPD obliga a disponer de sistemas de climatiza-ción, que requieren un consumo eléctrico adicional.

El desarrollo de sistemas de gestión de recursos median-te el uso de tecnologías Cloud y de las soluciones de vir-tualización contribuyen a optimizar el funcionamientode los CPDs y, con ello, mejorar su rendimiento energéti-co. De forma eficiente y dinámica, hacen posible la distri-bución de la carga de los procesos sólo en aquellos equi-pos necesarios en cada momento. ¿Cómo? En función dela carga de los sistemas, se consolidan las máquinas vir-tuales en el menor número posible de máquinas físicas yse apagan las que no hacen falta. Cuando el nivel decarga aumenta, los sistemas pueden encender automáti-camente las máquinas físicas necesarias y migrar máqui-nas virtuales a ellas. Se estima que estas soluciones pue-den reducir el consumo energético de los servicios des-plegados en torno a un 44-50%.

La gestión eficiente de equipos puede tener también suaplicación en equipos de usuario final, conectados per-manentemente (routers wifi, set-top-box, etc.).Actualmente se está trabajando en el desarrollo de arqui-tecturas que permitan, por ejemplo, que el set-top-box deun usuario pueda utilizarse para proporcionar contenidoa otros usuarios, de modo similar a un servidor de unCPD. La contribución de esta funcionalidad permitiríareducir la necesidad de equipos y con ello el consumoeléctrico asociado al funcionamiento de los servicios detelecomunicaciones.

CONCLUSIONES

Hoy en día, las telecomunicaciones son protagonistasindiscutibles en muchas de las iniciativas que se estándesarrollando para lograr reducir el consumo energéticoen múltiples ámbitos de la actividad humana: el hogar, laempresa, las ciudades…

169

(*) GESI, SMART 2020: Enabling the low carbon economy in theinformation age, 2008

Page 171: Tecnologias Para Las Telecomunicaciones Del Futuro

Telefónica I+D, como empresa dedicada a la innovacióntecnológica y responsable con el medio ambiente, esconsciente de la importancia de seguir trabajando en eldesarrollo de nuevos servicios que contribuyan a mejorar

la eficiencia energética. Este compromiso está alineadocon numerosas iniciativas impulsadas por el GrupoTelefónica, que demuestran que las telecomunicacionesson esenciales en la lucha contra el cambio climático.

LAS TELECOMUNICACIONES SE UNEN PARA COMBATIR EL CAMBIO CLIMÁTICO

170

Page 172: Tecnologias Para Las Telecomunicaciones Del Futuro

171

Page 173: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 174: Tecnologias Para Las Telecomunicaciones Del Futuro

CURRICULUM VITAE

Page 175: Tecnologias Para Las Telecomunicaciones Del Futuro

CURRICULUM VITAE

174

Juan José Andrés Gutiérrez Is a technological specialist at the Digital Home department at Telefónica R&D.

He has been working as a technical project leader in several research projects related with AI andeHealth such as the European and Spanish funded projects Share-It and AmIVital. Currently, hiswork is focussed on home devices, intelligent systems for automating environments, sensors net-works, user centric systems and the digital home future, having several scientific publications inthese areas. He is in charge of projects related to the next generation of managed homes.

Currently he is studying a PhD degree at the University of Valladolid, where he received the M.Sc. degree in ComputerScience.

Isaac Barona Martínez Isaac Barona Martínez nació en Madrid en 1975 y es Ingeniero de Telecomunicación por laUniversidad Politécnica de Madrid.

Desde mayo de 2008 es Especialista Tecnológico en sistemas empotrados y terminales nomádicosen Telefónica I+D, donde ha desarrollado toda su actividad profesional desde que se incorporócomo becario en 1997.

A lo largo de su trayectoria profesional ha trabajado en diferentes proyectos dentro del campo dela Telefonía de Uso Público, como ingeniero de pruebas en los proyectos TM+ de teléfono público y CG-2000 de Sistemade Gestión, y como coordinador técnico en los proyectos SICE (sistema de gestión de fuerzas de trabajo con PDAs indus-triales) y @VE (proyecto subvencionado PROFIT de acceso a Internet en trenes AVE de alta velocidad).

Pedro Antonio Acebes Bayón Ingeniero Superior de Telecomunicación por la UPM en 1991, año en el que se incorpora a TelefónicaI+D, en la que ha desarrollado desde entonces su carrera profesional.

Durante los primeros años trabaja en sistemas de gestión de servicios y de soporte al negocio detelefonía móvil, para pasar en el año 1999 a responsabilizarse de la División de Ingeniería deCliente.

En 2000 se hace cargo de la División de Desarrollo de Sistemas de Gestión de Fuerzas de Trabajo,Gestión de Recursos Humanos y Análisis de actividad, responsabilizándose del dichos productos ante Telefónica.

En la actualidad es responsable de la División de “Entornos de Desarrollo y Experimentación”, que incluye entre sus obje-tivos tanto la investigación y desarrollo de entornos/herramientas y paradigmas de desarrollo software (con especialénfasis en el software de código abierto dentro de la Comunidad Morfeo), como la creación de entornos de experimen-tación siguiendo un paradigma “beta continua”.

Pedro A. Aranda GutiérrezGraduated at the Technical University of Madrid in Telecommunication Engineering in 1988.

In 1990, he joined Telefonica I+D where he has participated in various pan-European projects,mainly ACTS, IST and EURESCOM etc., all of them were related to his areas of expertise, whichinclude interdomain routing (BGP-4), broadband core networks (MPLS) and Quality of Service net-work aspects. He works as a consultant in "Core networks and protocols" department, which inclu-des projects related with broadband technologies, performance characterization of equipment inIP networks, and research activities on cutting edge technologies such as NGN and IPv6.

He is responsible for the company's Knowledge Exchange Forum for Advanced IP Networking as well as the internal trai-ning courses on BGP-4 and MPLS. He is a frequent speaker at different networking events. He is currently participatingas workpackage leader in the 4WARD project of the 7th Framework Programme of the European Commission.

His current research topics include BGP-4 and BGP4+ protocol analysis and modeling.

Page 176: Tecnologias Para Las Telecomunicaciones Del Futuro

175

Ana Isabel Calvo Alcalde Is an analyst working as an external consultant for Telefónica R&D at the Digital Home depart-ment. She got her bachelor degree in Computer Science in 2005 when she prepared her bachelorthesis at the Catholic University College of Bruges-Ostend (KHBO), Belgium. Afterwards she gother M.Sc degree in Computer Science in 2008 at the University of Valladolid.

Since 2007 she is working in projects related to the Digital Home area, focusing on HumanComputer Interaction and Ambient Intelligence aspects. Her research interests are ArtificialIntelligence and Semantic Web techniques, such as expert systems, software agents and ontolo-

gies, having several scientific publications in these areas.

Currently she is studying a PhD degree in Computer Science at University of Valladolid.

Francisco Javier Chamorro PérezIngeniero de Telecomunicaciones por la Universidad Politécnica de Madrid.

En 1998 se incorpora a Telefónica Investigación y Desarrollo para trabajar en el desarrollo de la pri-mera Red IP de la operadora para particulares y empresas.

En 2001 es nombrado responsable de la División de Servicios para PSI y Comercio Móvil, donde des-arrolla soluciones innovadoras para la tarificación, descarga y protección de los derechos digitalesde los contenidos en Internet móvil.

Desde 2008 dirige la división de investigación en Infraestructuras de Cloud Computing, donde se lideran iniciativas deinvestigación y estandarización a nivel internacional en este campo.

En 2007 pasó a formar parte de la División del Automóvil Conectado, donde ha participado en diversos proyectos sub-vencionados (mVIA, MARTA, Caring Cars, TeleFOT) y ha sido responsable de las tareas de análisis y selección de equipa-miento, arquitectura de sistemas y desarrollo de software básico (sistema operativo Linux empotrado).

Luis Cucala GarcíaIngeniero de Telecomunicación por la ETSIT de Madrid en 1990.

Ingresó en Telefónica Investigación y Desarrollo en el año 1991. Su actividad profesional ha evolu-cionado desde las redes de acceso fijo sobre fibra óptica hasta las redes inalámbricas de accesomóvil y cobertura de interiores, participando para ello en programas de innovación subvenciona-da (Eurescom, ACTS, FP6, FP7) y financiados internamente.

Ha participado en el desarrollo de sistemas de Radio sobre Fibra para cobertura móvil, sistemasde repetidores para zonas rurales, equipos de monitorización de la capa radio, y soluciones de cobertura para entornosdomésticos, contando con numerosas patentes y publicaciones en este campo.

Desde 2000 es responsable de la División de Sistemas de Transmisión Radio, que se encarga, entre otras actividades, dela realización de pilotos con femtonodos en diferentes entornos de uso.

Mercedes Féliz Santos-Juanes Técnico especialista químico

Ingresó en Telefónica I+D en 1988, desarrollando inicialmente actividades de desarrollo hardwareen los laboratorios de fabricación de prototipos de circuitos integrados y dispositivos optoelectró-nicos.

En 1994 su carrera profesional se orientó hacia la gestión ambiental, comenzando a participar enproyectos para empresas del Grupo Telefónica, relacionados con la gestión de residuos, implanta-

ción de Sistemas de Gestión Ambiental, evaluación de riesgos ambientales, etc.

Page 177: Tecnologias Para Las Telecomunicaciones Del Futuro

CURRICULUM VITAE

176

Enrique Frias Martinez Enrique is a Researcher at Telefónica Research in Madrid, Spain.

Before joining Telefónica, he was a Researcher at the Biomedical Engineering Department of theUniversity of California, Los Angeles (UCLA), from 2006 to 2008. Previously he worked at theDepartment of Information Systems & Computing of Brunel University, London (UK) as a ResearchFellow (2003-2006) and as a postdoctoral researcher at the Courant Institute of MathematicalSciences, New York University, NYC (2001-2003).

His current research interests include data mining, personalization, mobility and machine learning, areas in which hehas published extensively.

He has received a Ph.D. degree in Computer Science from the Universidad Politécnica de Madrid, Madrid, Spain, in 2000where he was the recipient of the Best Ph.D. Thesis Award.

Gustavo García BernardoEs Ingeniero de Telecomunicaciones y Especialista Tecnológico en Protocolos y Servicios deComunicaciones Personales sobre IP en Telefónica I+D.

Desde el año 2001 trabaja en Telefónica I+D, donde ha participado en el diseño y desarrollo de pro-ductos de comunicaciones personales en tiempo real (VoIP, videoconferencia, mensajería instan-tánea) para diferentes unidades de negocio del grupo Telefónica, entre los que destacan Terratel,SATIP, Videotel ADSL, Terra Blogs o iMerge.

También ha colaborado técnicamente en varios proyectos europeos y participado activamente en conferencias y orga-nismos de estandarización internacionales dentro de su área de conocimiento.

Miguel García LongarónIngeniero Superior de Telecomunicación por la Escuela Técnica Superior de Ingenieros deTelecomunicación de la Universidad Politécnica de Madrid.

Compatibilizó los estudios con una beca en Telefónica I+D, en la que desarrolló labores de integra-ción de proyecto y desarrollo de servicios para el hogar.

En abril 2004 se incorpora a IT Deusto como analista-desarrollador, desarrollando servicios para elhogar basados en pasarelas residenciales.

En octubre de 2004 se incorpora a la plantilla de Telefónica I+D, en la gerencia de Hogar Digital, para colaborar en pro-yectos de investigación, tanto internos como de los programas europeos, sobre servicios en el hogar y la gestión de losmismos.

En 2008 se integra en la división del Automóvil Conectado, donde actualmente desarrolla su actividad, dedicandosefundamentalmente al diseño y desarrollo de servicios innovadores para entornos vehiculares.

Actualmente, participa en el mantenimiento del Sistema de Gestión Ambiental de Telefónica I+D y en actividades rela-cionadas con la responsabilidad corporativa en la empresa.

Ha participado en la elaboración de artículos divulgativos sobre los efectos sociales y ambientales de las telecomunica-ciones, en colaboración con el área de responsabilidad corporativa de Telefónica SA.

Page 178: Tecnologias Para Las Telecomunicaciones Del Futuro

177

Juan Manuel González MuñozIngeniero de Telecomunicación en 2001 por la Escuela Politécnica Superior de la Universidad CarlosIII de Madrid.

En 2000 ingresa como becario en Telefónica Investigación y Desarrollo para participar en la espe-cificación de requisitos del Sistema de Explotación de la Red de Acceso (SERA).

En 2001 se incorporó a la División de Arquitectura y Consultoría de Telefónica Investigación yDesarrollo, para trabajar en el diseño, despliegue y producción del Sistema de Supervisión y

Gestión de Fallos de las redes IP de Telefónica de España (RIMA, Imagenio,...) y en la consolidación de bases de datos parala dirección de Sistemas de Red de Telefónica de España.

En 2004 realiza para Telefónica Móviles la definición y establecimiento de una metodología que permita gestionar lacalidad de servicio que percibe un cliente a partir de las recomendaciones definidas por los organismos internacionalesITU-T, ETSI y TeleManagement Forum. También participa en proyectos de estructuración de los sistemas de informacióndel grupo Telefónica en torno a servicios y procesos, siguiendo el conjunto de las mejores prácticas definidas en ITIL.

En la actualidad es especialista tecnológico en la división “Autonomic systems”, en la que está trabajando en el desarro-llo de una nueva aproximación a la gestión de redes NGN mediante la innovación en tecnologías “Autonomic”.

José Jiménez DelgadoIngeniero de Telecomunicación por la ETSIT de Madrid.

Ha realizado su carrera profesional en Telefónica. En el año 2000 fue nombrado Director deInnovación encargándose de la Coordinación del plan de Innovación de Telefónica I+D.

Desde el año 2008 se encarga de las actividades de Investigación con terceros (CollaborativeResearch) Es presidente de la acción Celtic (Proyecto Eureka en Telecomunicaciones), presidentedel grupo es.internet, vicepresidente de eNEM, miembro del consejo científico del CTTC y del ETNO

R&D y representante de Telefónica en el Core Group para la formación de la PPP sobre el Futuro de Internet.

José Antonio Jiménez HolgadoIngeniero Técnico en Informática de Sistemas en 1995 por la Universidad de Salamanca e IngenieroSuperior en Informática en 1997 por la Universidad de Valladolid.

En 1997 ingresó en Faurecia Automotive (Valladolid), trabajando en la implementación de siste-mas de control en tiempo real y aspectos de diseño de redes.

En 1998 se incorporó a Telefónica I+D, dentro de la división de “Servicios y Plataformas de TVDigital”, trabajando en aspectos relacionados con la multimedia, codificación de audio/vídeo, tec-

nologías de protección de contenidos y DRM, etc.. Desde entonces, ha participado en diferentes proyectos: Telebancas yGuías de programación de Via Digital, Imagenio, ACEMEDIA y MAGNET.

Rafael de las Heras Ingeniero Superior de Telecomunicación por la Universidad Politécnica de Madrid.

Ha trabajado como investigador en el grupo de investigación Life Supporting Technologies(LifeSTech), perteneciente a la Universidad Politécnica de Madrid, dedicado al diseño, desarrollo yevaluación de servicios y aplicaciones basados en las TIC. También trabajó como Jefe de productoen ZedWorldwide, empresa que desarrolla y comercializa productos y servicios de entretenimien-to y comunidad para dispositivos móviles e Internet, en el área de aplicaciones y servicios móviles.

Actualmente desempeña labores de jefe de proyecto en Telefónica I+D dentro de la línea de investigación de microser-vicios móviles.

Page 179: Tecnologias Para Las Telecomunicaciones Del Futuro

CURRICULUM VITAE

178

Iván Lequerica Licenciado en Ciencias Físicas e Ingeniero Superior en Electrónica por la Universidad del País Vasco.

Ha trabajado en Vodafone y el centro tecnológico Tecnalia. Desde 2003 trabaja en Telefónica I+D,actualmente como especialista tecnológico en la división Networked Vehicles.

Participa en varios proyectos de investigación europeos y lidera los paquetes de trabajo relativos acomunicaciones en los dos principales proyectos ITS españoles; MARTA y mVIA. Tmabién coordinael grupo de comunicaciones vehiculares en la plataforma tecnológica eMOV y participa en el

grupo de estandarización ETSI para ITS.

José Enrique López García Graduated as MSc Computer Science Engineer from “Escuela Politécnica Superior de Alicante,Universidad de Alicante” (Spain).

He began collaborating in Telefónica I+D in 1998, involved in network basic services consultancytasks for the Telefonica spanish IP public network. He finally joined Telefónica I+D in 2001 wherehe has been developing his professional work in the Network and Services Security area.

Currently, he is project manager in the “Trust for Services” department, where leads security andprivacy for services relating projects, and member of the company think tank dealing with services enablers.

José Antonio Lozano LópezIngeniero de Telecomunicación en 1993 por la ETSIT de la Universidad Politécnica de Madrid.

Es jefe de la División de Autonomic Systems de Telefónica I+D y Principal Representative deTelefónica I+D en el TeleManagement Forum.

Ha trabajado como profesor asociado e investigador en el departamento de Tecnología Electrónicade la Universidad de Málaga donde centró su investigación en temas de QoS en servicios multi-media sobre redes IP.

José Antonio tiene más de 15 años de experiencia en actividades de consultoría e innovación de sistemas y procesos degestión de redes y servicios principalmente.

En la actualidad, su foco de investigación se centra en tecnologías y modelos para el desarrollo de infraestructuras TICautogestionadas.

Javier Martínez EliceguiHe holds a enginery degree in Computer Sciences and is currently preparing his PhD inPsychacoustics Technologies. He has an extensive engineer experience in several industrial sec-tors, such as manufacturing, banking, space engineering, public administration and more than 15years in the telco-sector (Telefónica R&D).

Javier has held different organizational positions in Telefonica I+D and he has technical expertisein DataWarehouse and Business Intelligent, SOA architectures and a range of different ArtificialIntelligent disciplines like Semantic and Data Mining.

Now he is working as a business and technical consultant on different research projects.

Recientemente, ha estado más centrado en diferentes proyectos europeos, actuando como coordinador dentro de TI+Dde los proyectos: OLGA (On-Line GAming) (6th FP, 2nd Call), AGILE (6th FP of the GJU/GSA, 2nd Call), OPTI-TRANS (7th FPof the GSA, 1st Call)

También es autor de diferentes artículos y presentaciones públicas, principalmente en el campo de los Servicios Basadosen Localización y tecnologías LBS.

Page 180: Tecnologias Para Las Telecomunicaciones Del Futuro

179

Demetrio Martínez OlanoIngeniero de Telecomunicación en 1992 por la ETSIT de la Universidad Politécnica de Madrid.

En 1993 ingresó en Ibermática (Valladolid), trabajando en el proyecto TELEMEDICINA. Proyecto deTeleradiología, realizado en colaboración con hospitales y otras entidades, que formó parte delPlan de Banda Ancha subvencionado por el Ministerio de Industria.

En 1997 se incorporó a Telefónica I+D, dentro de la división de “Servicios de Red Inteligente”, traba-jando en el desarrollo de servicios de Red Inteligente para Telefónica de España (Servicio de Control

de Consumo de Locutorios y Servicio Universal de Tarjetas).

Posteriormente pasa a participar en proyectos de localización para Telefónica Móviles (Movistar en Casa, servicio deemergencias 112, SLS).

Recientemente, está colaborando en el proyecto europeo OPTI-TRANS (7th FP of the GSA, 1st Call) y en el proyecto deInnovación corporativa: Plataforma de Inteligencia Ambiental.

Óscar Miguel Solá Especialista Tecnológico en Comunicaciones Sociales en el área de Servicios para Usuario Final deTelefónica I+D.

Actualmente lidera la iniciativa Movistar Contacta, que permite a los usuarios de redes socialesestablecer llamadas y mandar mensajes de telefonía móvil utilizando su identidad social y prote-giendo el número de teléfono. También colabora con la definición de productos y pilotos tecnoló-gicos en el contexto de los Social Communications Labs, iniciativa de Telefónica para probar con-ceptos de unificación de las comunicaciones móviles personales y redes sociales.

También ha trabajado como coordinador de un laboratorio de servicios corporativos sobre IMS y como arquitecto técni-co en el desarrollo de servicios de red inteligente como el Yavoy.

Marta Molina Tejera Licenciada en ciencias físicas.

Ingresó en 1991 en Telefónica I+D.

Desde 1992 su trabajo se centra en el análisis del efecto ambiental de las actividades de Telefónica,encaminado tanto a la reducción del negativo, como a la potenciación del efecto positivo derivadodel uso de las TIC para lograr un desarrollo sostenible.

Ha participado en la implantación y certificación de los sistemas de gestión ambiental de Telefónica I+D, TelefónicaEspaña y Telefónica Soluciones.

Desde hace 10 años coordina el Comité de medio ambiente de Telefónica I+D y es responsable de la gestión ambientaldentro de la empresa.

Participa, desde sus comienzos, en las iniciativas de responsabilidad corporativa de Telefónica.

Esteban Pérez Castrejón Ingeniero de Telecomunicación por la Universidad Politécnica de Madrid en 1992. Su campo deespecialización es la aplicación de las tecnologías de la información y las comunicaciones en elsector sociosanitario y al apoyo a las actividades de la vida diaria.

Ha participado en diversos proyectos financiados por la Comisión Europea en evaluación tecnoló-gica, económica y de procesos de negocio de aplicaciones de telemedicina (ATTACT, TEN-CARE,Emerald). Además, ha sido, responsable del entorno de comunicaciones seguras para la construc-ción de la red de bancos de tumores (RBT) del Centro Nacional de Investigaciones Oncológicas, así

Page 181: Tecnologias Para Las Telecomunicaciones Del Futuro

CURRICULUM VITAE

180

Santiago Pérez Iglesias Trabaja como experto tecnológico en seguridad de redes en Telefónica I+D.

Su experiencia en el campo de la seguridad de redes se corresponde con los últimos 10 años tra-bajando en tecnologías de seguridad, durante los cuales ha participado en la definición de losaspectos de seguridad de las sucesivas redes IP de Telefónica de España: InfoVía, Red UNO-IP,RUMBA y RIMA.

Actualmente colabora con Telefónica de España en la definición de la estrategia de seguridad deredes y en el diseño de medidas de seguridad de la infraestructura de red IP y los servicios de conectividad de banda ancha.

Posee la certificación CISA de ISACA y la certificación GIAC Certified Firewall Analyst (GCFW) de SANS.

Pierre Plaza Studied Electrical and Communications Engineering bachelor degree at the "UniversidadIberoamericana" Mexico city.

He graduated at the beginning of 1985 and joined ERICSSON Mexico, ATE division. In 1986-1987 hestudied a Master in Electrical Engineering (MEE) at the Philips International Institute-TheNetherlands. From 1987 until 1989 he worked at the Philips Research Laboratories (Eindhoven) inthe field of VLSI design.

From 1991 he joined TI+D and worked in the microelectronics division. From 2001 he is in charge of a Division on theDigital Home working area. The main task of the division is to define and develop services for the Digital home.

He has a lot of experience in EC projects Management and leadership (More than 10 different projects).

José Antonio Quiles FollanaIngeniero de Telecomunicación por la Universidad Politécnica de Madrid en 1990.

Comenzó trabajando tres años en INISEL, en el departamento de Guerra Electrónica, adaptando elS.O. de tarjetas empotradas para el portaviones Príncipe de Asturias. Posteriormente trabajó otrostres años en el Grupo de Bioingeniería y Telemedicina de la Universidad Politécnica de Madrid, diri-giendo proyectos fin de carrera y como responsable técnico de varios proyectos nacionales y euro-peos, relacionados con la telemedicina y el procesamiento de imágenes médicas.

Desde 1996 trabaja en Telefónica I+D, en proyectos de planificación de red, optimización de fuerzas de trabajo, sistemasGIS, gestión del conocimiento, buscadores, detección de fraude, sistemas de ayuda al negocio, herramienta para el des-arrollo de aplicaciones orientadas a servicios, web semántica y text mining.

como de los sistemas de cita previa sanitaria centralizada mediante reconocimiento de voz (CITAVOZ) y a través de web(CITAWEB).

También ha participado en varios proyectos de teleasistencia domiciliaria como responsable de la definición de requisi-tos, gestión del cambio y análisis de viabilidad e impacto en el negocio. Ha sido coordinador técnico del proyecto CÉNITAmIVital financiado por el CDTI.

Francisco Javier Ramón Salguero Ingeniero de Telecomunicación por la E.T.S. de Ingenieros de Telecomunicación de Málaga en 2000y Licenciado en Ciencias Económicas por la Universidad Nacional de Educación a Distancia en 2006.

En 2000 ingresó en la División de Banda Ancha de Telefónica I+D, donde trabajó en el estudio ysimulación del encaminamiento en redes IP y ATM. En 2001 pasó a formar parte de la División dePlanificación de Redes Avanzadas, donde trabajó en proyectos de ingeniería de tráfico y controlesde tráfico en redes IP, revistiendo especial importancia el estudio del dimensionado para asegurar

Page 182: Tecnologias Para Las Telecomunicaciones Del Futuro

181

calidad de servicio y el de estrategias para mejorar las prestaciones extremo a extremo. En esta etapa también partici-pó en proyectos europeos de investigación sobre calidad de servicio en Internet y gestión de tráfico, como EuQoS (End-to-end Quality of Service support over heterogeneous networks) y AGAVE (A liGhtweight Approach for Viable End-to-end IP-based QoS Services), donde coordinó las demostración final. Desde 2008, ha sido también líder de paquete de tra-bajo (WP) en el proyecto ISP FP7 STREP INTERSECTION (Infrastructure for heterogeneous, resilient, secure, complex,tightly inter-operating network), como coordinador de las tareas de experimentación y demostración.

Actualmente desempeña las funciones de jefe de la División de Tecnologías de Red IP de Telefónica I+D, donde coordinala investigación sobre la evolución a largo plazo de las tecnologías de Internet, así como la investigación aplicada a laintroducción de nuevas tecnologías de red y mejores prácticas en las operaciones del Grupo Telefónica.

Así mismo, desde enero de 2010, lidera el proyecto europeo de investigación IST FP7 COMET (COntent Mediator architec-ture for content-aware nETworks), orientado a proporcionar a la Internet del Futuro un método unificado para la locali-zación, acceso y distribución de contenidos que, al mismo tiempo, permita emplear los recursos de red idóneos en cadamomento, teniendo en cuenta los requisitos de transmisión, las preferencias del usuario y el estado de la red.

Manuel Sánchez YangüelaIngeniero de Telecomunicación en 1990 por la ETSIT de la UPM.

En 1990 ingresa en TI+D para trabajar en el proyecto Tesys-B. Posteriormente realizó tareas decaracterización de la planta de pares vacantes de Telefónica de España para accesos HDSL y ADSL.También participó en el desarrollo del proyecto InfoVía y en el desarrollo de la Red IP.

Ha sido responsable del desarrollo e implantación del primer servicio IP sobre accesos ADSL, el servicioMegaVía ADSL, y colaborado con Telefónica Data en proyectos relacionados con el despliegue de servi-

cios sobre tecnologías de acceso xDSL, así como en proyectos de Redes de Nueva Generación con Telefónica Data y TIWS.

Actualmente trabaja en el desarrolló de proyectos de innovación en las áreas de acceso fijo de banda ancha (xDSL y acce-so óptico) y el núcleo de red.

Rafael Sorribas MollónLicenciado en Informática en 1989 por la Facultad de Informática de la Universidad Politécnica deMadrid

En 1989 ingresa en Telefónica I+D para participar en el desarrollo del Sistema de Explotación de laRed Iberpac. Posteriormente forma parte del grupo de desarrollo del Servicio de Acceso a PáginasBlancas de Telefónica.

En 1996 pasa a trabajar en el desarrollo de servicios sobre la plataforma CPSA, colaborando en eldesarrollo del Servicio 800 Mundial y trabajando posteriormente en el desarrollo del Periférico Inteligente de Telefónicade España y Telefónica Móviles.

En la actualidad es responsable de la división de “Nuevos Enablers de Servicios NGN”, donde se desarrollan diferentesplataformas para facilitar la creación de nuevos servicios: Nodo de Localización de Telefónica Móviles, PlataformaMultimodal, Plataforma de Servicios de Inteligencia Ambiental, Plataforma Avanzada M2M, ... y se colaboran en diferen-tes proyectos de subvención nacional y europea, en temas de las nuevas tecnologías de localización, inteligenciaambiental, plataformas de servicios basados en redes de sensores, interacción multimodal, priorización de llamadas deemergencia, entro otros.

Luis Villarrubia GrandeIngeniero de Telecomunicación en 1990 por la ETSIT de la Universidad Politécnica de Madrid.

Se incorpora a Telefónica I+D en 1990. Inicialmente realiza tareas de investigación dentro del grupode tecnología del habla, contribuyendo al desarrollo e implantación de la tecnología de reconoci-miento de voz en el Grupo Telefónica. En 2001 pasa a realizar las funciones de jefe de división deTecnología del Habla, identificando nuevas oportunidades en base a tecnologías emergentes: mul-timodalidad, reconocimiento de lenguaje natural, servidores mutimedia basados en MRCP, etc.

Page 183: Tecnologias Para Las Telecomunicaciones Del Futuro

CURRICULUM VITAE

182

Eduardo Villoslada de la TorreSe graduó en 1999 como Ingeniero de Telecomunicación por la Universidad de Valladolid.

Ese mismo año se incorpora a Telefónica I+D, donde realiza labores de consultor tecnológico, espe-cializándose en temas relacionados con arquitecturas distribuidas y aplicaciones para Internet, asícomo en la aplicación de las tecnologías semánticas a los negocios.

Desde el año 2002 compagina su faceta laboral en Telefónica I+D con actividades docentes comoprofesor asociado en la ETSIT de la Universidad de Valladolid.

Actualmente continúa su formación investigadora con un doctorado en TIC de la Universidad de Valladolid.

En 2005 es nombrado gerente del área de Plataformas de Desarrollo de Servicios en Redes de Nueva Generación. Laslíneas básicas de investigación más relevantes son la Plataforma de inteligencia Ambiental, la Plataforma Multimodal,los Servidores Multimedia Avanzados y las Nuevas Arquitectura de Servicio basada en orquestación de capacidades.

Desde 2008 es gerente del área de Business Support Systems, donde se encarga de la identificación y desarrollo de nue-vos facilitadores de negocio y relaciones con el cliente. Las áreas de interés más importantes son: eMarketPlace para elmercado abierto de servicios, Cloud Computing, interfaces flexibles de interacción con el cliente, tecnologías y arquitec-turas aplicadas al sector financiero y tecnologías semánticas para la integración/comunicación entre sistemas.

Durante su trayectoria profesional ha publicado numerosos artículos en congresos nacionales e internacionales.

Page 184: Tecnologias Para Las Telecomunicaciones Del Futuro

183

Page 185: Tecnologias Para Las Telecomunicaciones Del Futuro
Page 186: Tecnologias Para Las Telecomunicaciones Del Futuro