teoría de la información - aliat.org.mx · pdf filemapa conceptual un sistema de...

91
Red Tercer Milenio JOSE LUIS PEREA VEGA Teoría de la información

Upload: tranxuyen

Post on 22-Mar-2018

217 views

Category:

Documents


2 download

TRANSCRIPT

Red Tercer Milenio

JOSE LUIS PEREA VEGA

Teoría de la información

TEORÍA DE LA INFORMACIÓN

TEORÍA DE LA INFORMACIÓN

JOSE LUIS PEREA VEGA

RED TERCER MILENIO

AVISO LEGAL Derechos Reservados 2012, por RED TERCER MILENIO S.C.

Viveros de Asís 96, Col. Viveros de la Loma, Tlalnepantla, C.P. 54080, Estado de México.

Prohibida la reproducción parcial o total por cualquier medio, sin la autorización por escrito del titular de

los derechos.

Datos para catalogación bibliográfica

José Luis Perea Vega

Teoría de la información

ISBN 978-607-733-034-9

Primera edición: 2012

Revisión editorial: Eduardo Durán Valdivieso

DIRECTORIO

José Luis García Luna Martínez Director General Rafael Campos Hernández Director Académico Corporativo Bárbara Jean Mair Rowberry Directora Corporativa de Operaciones

Jesús Andrés Carranza Castellanos Director Corporativo de Administración Héctor Raúl Gutiérrez Zamora Ferreira Director Corporativo de Finanzas Alejandro Pérez Ruiz Director Corporativo de Expansión y Proyectos

2

ÍNDICE

Introducción 3

Mapa conceptual 4

Unidad 1. Sistemas de comunicación 5 1.1. MODELO BÁSICO 8 1.2. REDES DE COMPUTADORAS 13

Autoevaluación 19

Unidad 2. Codificación 21

2.1 TIPOS DE CÓDIGOS 24 2.2 COMPRESIÓN 37 2.3 CRIPTOGRAFÍA 42 2.4 ERRORES 43

Autoevaluación 46 Unidad 3. Transmisión 48

3.1 ESPECTRO ELECTROMAGNÉTICO 52 3.2 MEDIOS 54 3.3 MODOS 60 3.4 TÉCNICAS 60 3.5 SEÑALES 62

Autoevaluación 64 Unidad 4. Teorías de la información 66

4.1 CLÁSICA 69 4.2 CUÁNTICA 75

Autoevaluación 85 Bibliografía 87 Glosario 88

3

INTRODUCCIÓN

Algunas décadas anteriores a la era cristina el gobernador romano Julio Cesar

utilizaba un método que usaba la trasposición de letras para proteger sus

mensajes. A lo largo de la historia se han buscado técnicas de protección para

la información, el desarrollo de nuevas tecnologías se acelera bajo condiciones

de guerra como en el caso de la segunda guerra mundial donde se dio una

carrera por descifrar comunicaciones entre alemanes y aliados. Bajo estas

circunstancias emergió la computadora electrónica para aplicaciones militares y

científicas cuya arquitectura seguimos utilizando. La búsqueda de mayores

velocidades y capacidad de cálculo junto con la reducción de tamaño ha llegado

al límite de la materia, en este punto el comportamiento físico cambia, pasando

de la certidumbre a la presencia del azar, dando origen a la computadora

cuántica que incrementa exponencialmente su potencia con respecto a su

antecesora. Ante este panorama el manejo de la información tiene nuevos retos

debiendo cuidar la representación física y lógica de los datos.

El uso de componentes cuánticos promete dar solución a problemas que

con la capacidad de cómputo actual tardarían demasiado tiempo en resolverse,

sin embargo esta misma característica se usa como mecanismo de protección

de datos cuando se hacen algunas transacciones electrónicas, requiriendo la

búsqueda de nuevos sistemas de seguridad para la información antes de que

las computadoras cuánticas se comercialicen.

4

MAPA CONCEPTUAL

Información

Códigos

La

enlaza

utilizando

Sistemas de comunicación

Transmitidos

que son

Teóricos

con fundamentos

5

UNIDAD 1

SISTEMAS DE COMUNICACIÓN

OBJETIVO

El estudiante comprenderá la estructura y las bases físicas que permiten el

funcionamiento e interconexión de los sistemas de comunicación.

TEMARIO

1.1. MODELO BÁSICO

1.1.1. FUENTE

1.1.2. TRANSMISOR

1.1.3. CANAL

1.1.4. RECEPTOR

1.1.5. DESTINO

1.1.6. MENSAJE

1.1.7. SEÑAL

1.1.7.1. ANALÓGICA

1.1.7.2. DIGITAL

1.1.8. RUIDO

1.2. REDES DE COMPUTADORAS

1.2.1. CLASIFICACIÓN

1.2.2. PROTOCOLOS

1.2.3. TOPOLOGÍAS

6

MAPA CONCEPTUAL

Sistema de comunicación

Fuente

Un

requiere de una

alimentando a un

Transmisor

Mensaje

Canales

Señales

Receptores

Redes

Protocolos

Topologías

preparando el

enviado por

mediante

hacia uno o más

pudiendo formar

utilizando

organizadas mediante

7

INTRODUCCIÓN

Los lenguajes han permitido que evolucionemos como sociedad haciendo

posible compartir conocimientos; así, para llevarlo a cabo mediante

computadoras y otros equipos, se han desarrollado técnicas que logran

traducciones de la forma más confiable, utilizando herramientas matemáticas y

tecnológicas.

8

1.1 MODELO BÁSICO

En su libro El arte de la guerra, Sun Tzu dedica una parte al espionaje,

resaltando la importancia de conocer la información acerca de los planes del

oponente. En la antigüedad, el emperador Julio Cesar utilizó un método para

proteger los mensajes que enviaba, mediante el corrimiento de los caracteres

del alfabeto: A se convierte en D, B en E y así sucesivamente. A este proceso

se le denomina codificación y se dice que el mensaje resultante está cifrado.

Durante la Segunda Guerra Mundial, el ejército alemán utilizó un equipo

de codificación electromecánico llamado Enigma, éste fue inventado por

Alexander Koch en 1919 y comercializado en 1920 en tres versiones, una era

portátil, sin impresora y representaba luminosamente las letras. Su mecanismo

se basaba en rotores, cada uno de los cuales aumentaba la complejidad del

cifrado, tuvieron entre tres y cinco. La necesidad de conocer el contenido los

mensajes motivó a los ingleses a implementar un centro conocido como

Bletchley Park, ubicado en una mansión en Buckinghamshire, ahí también se

utilizó la primera computadora británica llamada Colossus en febrero de 1944,

diseñada por Tommy Flowers estaba constituida por más de 1500 tubos de

vacío, los cuales podían representar cero o uno, estos dos valores representan

el sistema mínimo de información, a tal sistema se le denomina binario y fue

propuesto por el matemático alemán Leibniz en el siglo XVII.

Dentro de la computadora, cada cero o uno recibe el nombre de bit

(acrónimo de binary digit) término acuñado por John Tuckey a finales de la

década de 1940, se utiliza esta representación porque es más fácil

implementarla mediante circuitos; uno de los trabajos pioneros en este sentido

fue presentado como tesis doctoral por el ingeniero eléctrico estadounidense

Claude Shannon, obteniendo su grado en matemáticas. En 1948 publicó A

Mathematical Theory of Communication en donde aborda dos problemas

fundamentales:

El nivel de compresión de los mensajes de tal forma que sea más

eficiente la comunicación en ausencia de interferencia.

9

Si existen interferencias, cuán repetitivo debe ser el mensaje.

Por este trabajo a Shannon se le conoce como padre de la teoría de la

información, lo elaboró mientras trabajaba para BELL TELEPHONE LABORATORIES.

Esquematiza el proceso de comunicación como sigue:

Fuente de

informació

n

Transmis

or Señal

Señal

recibida

Recepto

r

Destin

o

Mensaje

Mensaje

Fuente

de ruido

1.1.1. Fuente

Es en donde se genera el mensaje que puede ser de diferentes tipos:

Secuencias de caracteres de un alfabeto determinado.

Funciones matemáticas que dependan del tiempo como el caso de la

radio frecuencia.

Funciones matemáticas que dependan de diversas variables como las

coordenadas de posición y algún otro parámetro, por ejemplo los puntos

de color (pixeles) en la pantalla de una computadora, o ubicación y

brillantez en un dispositivo monocromático.

Funciones combinadas, fenómeno que se presenta cuando se envían

audio y video simultáneamente.

10

1.1.2. Transmisor

Codifica y transforma el mensaje de tal forma que pueda ser enviado a través

de un medio. Por ejemplo: en la transmisión radial con amplitud modulada (AM),

la frecuencia de audio (denominada moduladora) se convierte en frecuencia de

radio cuando se mezcla con una señal adicional (conocida como portadora) que

proviene de otra fuente, pasando de un rango de 300 Hz a los 3.4 kHz, a otro

que va de 535 kHz hasta 1.7 MHz. Un hercio (Hz) es la unidad que representa

un ciclo por segundo).

www.karbosguide.com

www.karbosguide.com

www.technologyuk.net

11

1.1.3. Canal

Es el medio a través del cual viaja la información, puede ser cableado o

inalámbrico. La capacidad del canal es la velocidad máxima de transmisión,

mientras que el ancho de banda determina la tasa de transferencia

(unidades/tiempo). El ingeniero sueco Harry Nyquist estableció una expresión

que relaciona las magnitudes anteriores: dado un ancho de banda B, la mayor

velocidad de transmisión de la señal que se puede conseguir es 2B, suponiendo

que se trata de un medio ideal (carente de ruido) y que el mensaje está

compuesto por bits, involucrando solamente dos niveles de tensión.

1.1.4. Receptor

Hace la función inversa del transmisor.

1.1.5. Destino

Es el punto final de llegada para el mensaje.

1.1.6. Mensaje

Existe otro enfoque acerca de la teoría de la información, fue desarrollado por el

matemático Norbert Wiener, para él resultaban importantes los mensajes que

se envían por y a través de los seres vivos, dentro de su medio así como en su

interior, lo que permite a un ser humano coordinar los movimientos de la mano

para alcanzar un vaso, a partir de impulsos eléctricos enviados por las

neuronas. Este proceso también se puede llevar a cabo usando máquinas, tal

como los robots que desactivan bombas. Wiener presentó sus estudios en el

libro Cibernética en 1948.

1.1.7. Señal

La comunicación entre dos entidades se logra a través de señales, que pueden

ser discretas o continuas. Las primeras toman un número limitado de valores y

12

reciben el nombre de digitales mientras que las segundas tienen un

comportamiento de onda y se conocen como analógicas. Como ejemplo se

puede comparar un mensaje en código Morse contra su versión hablada.

Al proceso que selecciona un número de valores discretos a partir de una

señal continua, se le conoce como muestreo. La tasa o frecuencia de muestreo,

es la cantidad de mediciones que se hacen por unidad de tiempo. Después de

realizar el muestreo se requiere de un procedimiento conocido como

cuantificación, que se encarga de asignar a cada valor dentro de cierto rango,

su equivalente en código binario, tomando en cuenta que el número de bits

define los límites de los rangos.

1.1.7.1. Analógica

Representan magnitudes físicas como la temperatura, luz, sonido o energía. Su

representación gráfica describe una onda senoidal.

1.1.7.2. Digital

Toda la información se manda como bits independientemente de su contenido,

señales de audio y video deben ser preparadas para su transmisión si

13

provienen de fuente analógicas, tal como sucede cuando se hace una llamada a

través del chat.

1.1.8. Ruido

A las señales no deseadas que contaminan el mensaje, se les denomina ruido.

Éste se puede clasificar en:

Térmico. Lo genera la agitación de los electrones en función de la

temperatura, a veces se le denomina ruido blanco y no se le puede

suprimir.

Intermodulación. Aparece cuando distintas frecuencias comparten un

medio, combinándose mediante la suma, resta o multiplicación de las

mismas, creando una nueva señal.

Diafonía. Se produce cuando una transmisión se contamina con otra,

como en el caso de escuchar otra conversación mientras se habla por

teléfono.

Impulsivo. A diferencia de los anteriores tipos, no es de magnitud

constante, presenta picos de corta duración y de gran amplitud, puede

originarse por condiciones meteorológicas o por fallas en los sistemas de

comunicación.

ACTIVIDAD DE APRENDIZAJE

Busca en Internet un simulador de la máquina Enigma e investiga su

funcionamiento.

1.2 REDES DE COMPUTADORAS

La computadora por sí misma representa un sistema de comunicación

completo, recibe datos a través del teclado que son procesados para

presentarse en la pantalla y ser almacenados o impresos. Con el mismo

surgimiento de la computadora se presentó la necesidad de interconectarlas,

14

con el propósito de aumentar la capacidad de procesamiento así como también

la compartición de datos, dispositivos de almacenamiento, impresión y

comunicación.

1.2.1 Clasificación

Las redes se pueden clasificar de acuerdo con su extensión geográfica en:

PAN (Personal Area Network). Formada a partir de los diferentes

dispositivos de comunicación que puede tener una persona:

computadora, celular, PDA, consola de juegos.

LAN (Local Area Network). Es la más común ya que puede abarcar uno o

varios edificios.

MAN (Metropolitan Area Network). Abarcan a ciudades o algunos tipos

de organizaciones que tienen muchas sucursales como los bancos o

cadenas comerciales.

WAN (Wide Area Network). Es la unión de todas la anteriores, en esta

categoría se ubica Internet.

También existen otros tipos de acuerdo con la función que desempeñan:

SAN (Storage Area Network). Son redes dedicadas a transferir datos

entre servidores evitando el tráfico de las redes compartidas.

VPN (Virtual Private Network). Se implementa usando la infraestructura

de Internet pero creando una conexión personalizada más segura.

1.2.2. Protocolos

Un protocolo es un conjunto de reglas y convenciones que permiten la

comunicación. Para hacer compatibles las redes se creó en 1984 el modelo OSI

(interconexión de sistemas abiertos, por sus siglas en inglés) que consta de

siete capas, cada una con sus protocolos que van modificando el mensaje

desde que lo escribe el usuario hasta que sale a través de un cable o antena.

15

Existen protocolos enfocados a la seguridad de la información que son

indispensables cuando se hacen compras o transacciones bancarias mediante

Internet.

1.2.3. Topologías

La topología establece la estructura de la red, existen dos categorías:

Física. Está determinada por el patrón geométrico que forman los

equipos conectados.

Lógica. Se establece a partir de las rutas que deben seguir los datos a

través de la red.

Las que se usan generalmente son:

Anillo

Los datos viajan por

cada uno de los

equipos hasta

encontrar su destino.

Estrella

Es la más utilizada

porque la conexión de

cada equipo no

depende de la

disponibilidad de los

demás.

Bus

Es muy vulnerable ya

que requiere que todos

los equipos no fallen

para seguir

funcionando.

16

Jerárquica

Puede tener menor

desempeño pero se

tiene mayor control

sobre el flujo de datos.

Malla Es la estructura que

tiene Internet

ACTIVIDAD DE APRENDIZAJE

Investiga cuáles son las diferencias en entre los modelos de capas OSI y

TCP/IP.

EJEMPLOS DE APLICACIÓN1

Debido a que el mundo físico lo percibimos mediante señales analógicas, es

necesario realizar procesos de conversión antes de poderlas introducir a la

computadora. Dos sentidos que nos permiten interactuar con los demás son la

vista y la audición, cuando los procesamos en el cerebro, nos permiten dar una

respuesta mediante la voz o de alguna otra forma que constituya un lenguaje. A

continuación se presentan algunos dispositivos electrónicos encargados de

hacer éstas tareas a través de ordenadores.

MODEM

El modem (modulador-demodulador) fue desarrollado con fines militares

durante la década de 1950 para la comunicación de datos. La existencia de una

red telefónica para la transmisión de voz que podría ser aprovechada, requirió

1 Tomado de Lógica computacional, (IN04) Aliat Universidades, 2010.

17

que se diseñara un dispositivo capaz de convertir bits en señales audibles, que

pudieran viajar a través de las líneas existentes.

AT&T lanzó al mercado un modem con una tasa de transmisión de 300

bits por segundo en el año 1962 usando FSK. En 1996, el doctor Townshed

desarrolló uno que podía enviar 56Kb.

Al proceso de transportar datos a través de ondas variando su frecuencia

(pitch), se le conoce como modulación. Una de estas técnicas se denomina

Frecuency-shift keying (FSK), su versión más simple es la binaria o BFSK, la

cual utiliza dos tonos: marca, que representa uno; y espacio, equivalente a cero.

Una vez que la señal llega a su destino se utiliza el proceso inverso

conocido como demodulación.

© Facultat d'Informàtica de Barcelona

18

NAVEGACIÓN MEDIANTE VOZ

Los sistemas de navegación que permiten interactuar a través de la voz,

necesitan reducir las interferencias provocadas por la gran cantidad de sonidos

provenientes del medio ambiente.

La voz del conductor es recibida por un micrófono y filtrada para quitar el

eco y eliminar ruidos, también se debe distinguir entre solicitudes del usuario y

respuestas generadas por el sistema para no producir ciclos, como quien ve a

su sombra de forma que fuera otra persona.

A continuación, las ondas son recibidas por el sistema de análisis de voz,

capaz de reconocer fonemas y construir frases, que serán digitalizadas y

procesadas para producir respuestas en forma de audio, que puedan ser

usadas por el conductor.

19

AUTOEVALUACIÓN

Elige el inciso correcto.

A. Es la topología que permite la menor dependencia de los equipos.

a) Jerárquica b) Bus c) Estrella d) Anillo

B. A veces es llamado ruido blanco.

a) Térmico b) Intermodular c) Diafonía d) Impulsivo

C. Desarrolló el sistema binario de numeración.

a) Leibniz b) Shannon c) Koch d) Wiener

D. Es un tipo de señal que toma un número limitado de valores.

a) Analógica b) Digital c) Modulada d) Portadora

E. Es conocido como el padre de la teoría de la información.

a) Shannon b) Wiener c) Flowers d) Leibniz

Completa las frases.

F. Los canales de comunicación pueden ser ______ .

G. La frecuencia se mide en .

H. La función de un transmisor es _____________________________.

.

I. Un protocolo es ________________________________________________

.

J. Un medio ideal es el que .

RESPUESTAS DE LA AUTOEVALUACIÓN

A. c.

B. a.

C. a.

D. b.

E. a.

F. Cableados e inalámbricos.

G. Hercios.

20

H. Codificar y transformar el mensaje.

I. Un conjunto de reglas y convenciones que permiten la comunicación.

J. Está libre de ruido.

21

UNIDAD 2

CODIFICACIÓN

OBJETIVO

El alumno comprenderá los procesos de transformación entre símbolos que

representan datos para su procesamiento, transmisión, protección y manejo de

errores.

TEMARIO

2.1. TIPOS DE CÓDIGOS

2.1.1. BINARIOS

2.1.1.1. BAUDOT

2.1.1.2. ASCII

2.1.1.3. EBCDIC

2.1.2. ALGEBRAICOS

2.1.3. LINEALES

2.1.3.1. HAMMING

2.2. COMPRESIÓN

2.2.1. LOSSLESS

2.2.2. LOSSY

2.2.3. CÓDIGO SHANNON-FANO

2.2.4. CÓDIGO HUFFMAN

2.3. CRIPTOGRAFÍA

2.4. ERRORES

2.4.1. NATURALEZA DE LOS ERRORES

2.4.2. ALGORITMOS DE DETECCIÓN

2.4.2.1. PARIDAD

2.4.2.2. CHECKSUM

2.4.2.3. REDUNDANCIA CÍCLICA

22

MAPA CONCEPTUAL

Datos

Codifican

Binarios

Los

se

usando

buscando su

con el adecuado manejo de

protegiéndolos mediante

Métodos Polinomiales

Estadísticos

Compresión

Criptografía

Errores

23

INTRODUCCIÓN

En la evolución de los modelos que permiten el procesamiento automático de

datos, se han utilizado las herramientas matemáticas más diversas, desde la

estadística hasta el álgebra abstracta, así como todos los avances de la física

de semiconductores, con un sólo propósito: lograr que la información sea

completamente confiable, oportuna y segura.

24

2.1 TIPOS DE CÓDIGOS

Un código crea una correspondencia entre los elementos de un conjunto con

otro. Los códigos de bloque dividen la información en paquetes de menor

tamaño mientras que los convolucionales manejan el mensaje completo, en

donde cada elemento codificado depende de los anteriores.

2.1.1 Binarios

El sistema binario utiliza el mínimo conjunto de símbolos para representar

información. Está formado por cero y uno, a cualquiera de los dos valores lo

llamaremos bit. La agrupación de ocho bits la denominaremos byte, con el cual

se pueden formar 256 combinaciones distintas. Si hacemos la representación

usando ocho casillas, la primera puede contener dos números posibles, por

cada uno la siguiente tendría otros dos y así sucesivamente.

2 x 2 x 2 x 2 x 2 x 2 x 2 x

2

=28=256

Con n bits se obtienen 2n combinaciones.

La representación del número 10112 sería la siguiente:

3 2 1 0

1 0 1 1 2

Por ser un sistema numérico posicional se eleva la base a cada

exponente haciendo la suma:

1x23 + 0x22 + 1x21 + 1x20 = 1x8 + 0x4 + 1x2 + 1x1 = 11

Se ha encontrado que 10112 = 1110. De esta forma se convierten

números en base dos a base 10. Para realizar el procedimiento inverso se

llevan a cabo los siguientes pasos:

Paso 1. Se traza una línea divisoria y se escribe el número en base 10 en

la parte superior izquierda.

11

25

Paso 2. Se divide el número entre dos y se anula el decimal del cociente

(si es que lo tiene).

11

5.5

Paso 3. Se repite el paso dos hasta llegar a uno.

11

5

2

1

Paso 4. Se copia el uno a la parte inferior derecha.

11

5

2

1 1

Paso 5. Al lado derecho de cada número impar se escribe uno y si es

par, cero.

11 1

5 1

2 0

1 1

Paso 6. Se copian los números del lado derecho de abajo hacia arriba y

se acomodan de izquierda a derecha.

11 1

5 1

2 0

1 1

10112

26

Con este procedimiento se ha convertido 1110 en 10112.

Para realizar una suma en base 10 con los números nueve y uno.

1

9 Cada vez que la suma de

dos números es 10 o más

se dice que “llevamos uno”

poniéndolo arriba a la

izquierda de los sumandos.

+ 1

0

9

+ 1

1 0

De la misma forma, en sistema binario cada vez que la suma de dos

números es igual a la base, escribimos cero debajo de los sumandos y

“llevamos uno”.

1

1

+ 1

1 0 2

Si hay tres sumandos o más, la suma se obtiene trabajando con dos a la

vez. Ejemplo:

1

1

+ 1

1

2

1

1

27

+ 1

0 2

1

+ 1

1 0 2

+ 1

1 1 2

1 1

1 1

+ 1

1 0 0 2

2.1.1.1 Baudot

El matemático alemán Friedrich Gauss junto a Wilhelm Weber, implementaron

un telégrafo mediante un código que desarrollaron en 1833. Sobre esta base el

francés Émile Baudot creó un código de cinco bits en 1870 que se operaba a

través del uso de cinco dedos. En el álbum X&Y del grupo británico Coldplay se

ha utilizado una versión estilizada de esta técnica.

28

Ejemplo de código Baudot

© www.nadcomm.com

2.1.1.2 ASCII

Un código ampliamente usado es el ASCII (american standard code for

information interchange) que representa, mediante números, los caracteres del

alfabeto latino. Usa siete bits para llevar a cabo esta equivalencia.

2.1.1.3 EBCDIC

En 1964 IBM anunció el lanzamiento de la familia de computadoras 360 desde

el modelo 20 (minicomutadora) hasta el 91 (supercomputadora), para lo cual

desarrolló el EBCDIC (extended binary coded decimal interchange) utilizando

ocho bits que forman un byte o dos nibbles. Cada nibble se usa como

coordenada de una tabla, el de lado izquierdo se denomina zona mientras que

el derecho se llama número.

29

©www.tpub.com

2.1.2 Algebraicos

La aritmética modular fue introducida por Gauss (llamado el príncipe de las

matemáticas), en 1801 mediante el estudio de la congruencia. Un número a es

congruente con otro representado por b si al dividir a cada uno entre c se

obtiene el mismo residuo, simbolizándose como:

ab mod c

Ejemplo 1.

57 mod 2 ya que 5=2(2)+1 y 7=2(3)+1

Ejemplo 2.

2311 mod 12

2210 mod 12

219 mod 12

Ésta es la representación que se usa para las horas, por tal razón, a la

aritmética modular también se le denomina aritmética de reloj, necesitando solo

12 símbolos, aunque el número de horas aumente indefinidamente.

30

El procedimiento anterior se puede realizar con polinomios, comparando

los residuos al dividirlos.

Ejemplo 3. División de polinomios.

x+3

x+1 x2+4x+11

-x2-x

3x+11

-3x-3

8

x-5

x+1 x2-4x+3

-x2-x

-5x+3

5x+5

8

Partiendo de los resultados se puede decir que el polinomio x2+4x+11 es

congruente con x2-4x+3 módulo x+1. Clasificándose como sigue:

Polinomio Tipo Característica

x2+4x+11 Reducible

Se puede expresar como

resultado de

operaciones con otros

polinomios.

x+5 Irreducible No se puede reducir.

x+1 Primitivo

Es irreducible y genera a

los demás polinomios de

primer grado, éste es el

valor de la potencia más

alta de la variable x.

31

El matemático francés Evariste Galois (quien murió a los 20 años en un

duelo) estudió los polinomios y sus operaciones, utilizando una estructura

denominada campo finito también conocida como campo de Galois que se

representa por GF(p) siendo p un número primo, esto significa que sólo se

puede dividir entre sí mismo y la unidad. El valor de p indica el número de

elementos del campo, conocido como orden o cardinalidad. Si p=2k se dice que

es un campo de extensión con característica 2, siendo k un entero. Existen los

denominados campos compuestos que tienen la forma GF((pn)m).

El polinomio primitivo de segundo grado es x2+x+1 dentro de GF(22).

Existen dos valores que si se sustituyen en el polinomio lo igualan a cero, son

llamados raíces, tomando una raíz y denominándola α se puede escribir

α2+α+1=0, se despeja α2 obteniendo α2=-(α+1) pero en aritmética de los

campos, suma y resta son equivalentes, haciendo que α2=α+1. Si se construye

una tabla en donde se evalúen las potencias de α junto a su “representación” en

binario y decimal, obtenemos:

Binario

Potenci

a de α Valor Comentario α1 α0 Decimal

α0 1 Toda expresión elevada a la

potencia cero, vale uno. 0 1 1

α1 α 1 0 2

α2 α+1 Este valor se obtuvo en el

despeje α2=α+1. 1 1 3

α3 1

α3= α(α2)= α(α+1)= α2+α=

α+1+α=1 Hay que recordar que

la suma y la resta son

equivalentes, así α+ α=0. A

partir de esta potencia los

valores se repiten, esto

0 1 1

32

garantiza que las operaciones

que se hagan con los

polinomios nunca tendrán

resultados diferentes a 1, α ó

α+1.

α4 α α4= α(α3)= α(1)= α 1 0 2

Ejercicio 1. Comprueba que α3 = α6, α4 = α7 y α5 = α8.

La cardinalidad de GF(22) es cuatro, al elaborar la tabla (que depende de

potencias) no aparece el valor cero pero se agrega. La utilidad de la

representación binaria es que se pueden hacer operaciones entre los

polinomios a través de los ceros y unos.

Ejemplo 4. Calcula el producto x(x+1) en GF(22).

Paso 1. Convertir cada polinomio a su valor en binario y efectuar la

multiplicación.

1 1

X 1 0

0 0

1 1

1 1 0

Si se transforma 110 en su equivalente tendríamos x2+x, expresión que

no forma parte del campo.

Paso 2. Una vez que se ha calculado el producto, se le “suma” a la

representación binaria del polinomio primitivo, en este caso x2+x+1 que

tampoco se encuentra en el campo pero se usa para simplificación mediante la

operación denominada XOR entre los bits, simbolizada por según la tabla:

0 1

0 0 1

33

1 1 0

1 1 0

1 1 1

0 0 1

Esta operación transforma x2+x en 1, lo que coincide con lo obtenido en

la tabla de potencias.

Ejemplo 5. Calcula el producto (x4+x+1)(x3+x2+x) en GF(25) usando el

polinomio primitivo x5+x2+1.

1 0 0 1 1

x 1 1 1 0

0 0 0 0 0

1 0 0 1 1

1 0 0 1 1

1 0 0 1 1

1 0 0 0 0 1 0 1 0

1 0 0 0 0 1 0 1 0

1 0 0 1 0 1

0 0 0 1 0 0 0 1 0

1 0 0 1 0 1

1 1 1

El producto se convierte en x2+x+1, hay que hacer notar que la operación

XOR se inició desde la izquierda, esto permite la reducción sucesiva del grado

del polinomio.

En 1959 Irving Reed y Gus Solomon publicaron un trabajo titulado

Polinomial Codes over Certain Finite Fields, introduciendo un nuevo tipo de

códigos que corrigen errores. Su técnica se utiliza en los discos compactos para

enmendar los daños producidos en la información a causa de ralladuras, polvo,

34

huellas digitales, etc. encontradas en la superficie plástica del CD. También

tiene aplicaciones en las telecomunicaciones, tal fue el caso del envío de

imágenes del planeta Júpiter por la sonda espacial Voyager 2 en 1979.

©NASA/JPL

El código Reed-Solomon toma k elementos de GF(p) usándolos como

coeficientes de un polinomio sobre x de grado k-1 de la forma:

P(x)=u0+u1x+u2x2+…+uk-1x

k-1

Si denominamos α a un elemento primitivo del campo que se evalúa con

cada una de sus potencias, se tiene:

P(0)=u0

P(α)=u0+u1α+…+uk-1 α k-1

P(α2)=u0+u1α2+…+uk-1 α

2( k-1)

P(αp-1)=u0+u1αp-1+…+uk-1 α

(p-1)( k-1)

Ejemplo 6. Codificación Reed-Solomon en GF(22).

Paso 1. Se construye el polinomio de primer grado, si A y B son

elementos del campo la forma general queda como:

P(x)=A+Bx

Haciendo A=1 y B=α2 se reescribe para obtener:

35

P(x)=1+ α2x

Paso 2. Se evalúan las potencias de α en el polinomio anterior.

P(0)=1+α2(1)=1

P(α)=1+α2(α)=1+α3=1+1=0

P(α2)= 1+α2(α2)=1+α4=1+α

P(α3)= 1+α2(α3)=1+α5=1+α+1=α

De esta forma se han codificado los elementos de GF(22) obteniendo:

Valor Código

0 1

1 0

Α 1+α

α+1 α

Si se elabora la misma tabla con sus equivalencias en decimal, se

forman coordenadas que se pueden graficar en un plano.

Valor

X

Código

Y

0 1

1 0

2 3

3 2

0

0.5

1

1.5

2

2.5

3

3.5

0 0.5 1 1.5 2 2.5 3 3.5

36

Ejercicio 2. Realiza el proceso anterior con A=α y B=α+1.

2.1.3 Lineales

Un código se denomina lineal si al sumar dos elementos del mismo, el resultado

forma también parte de él. Reed-Solomon pertenece a esta clasificación, así

como el código Hamming.

2.1.3.1 Hamming

El matemático norteamericano Richard Hamming colaboró en el Proyecto

Manhattan que desarrolló la bomba atómica. Después de la guerra trabajó en

los Laboratorios Bell junto a Shannon, debido a la tecnología utilizada para

introducir datos a las computadoras Hamming encontró resultados inesperados

en los cálculos que realizaba. Se propuso encontrar una forma para detectar y

corregir errores de forma automática, cuyos resultados publicó en 1950. El

primer código que presentó se conoce como Hamming(7,4), consiste en

segmentos de siete bits (d1,d2,d3,d4,p1,p2,p3), cuatro de los cuales se usan para

datos y tres sirven para verificación, éstos se denominan paridad, calculándose

de la siguiente forma:

p1=d2d3d4

p2=d1d3d4

p3=d1d2d4

Los bits se disponen en un arreglo rectangular de siete columnas y

cuatro filas llamado matriz de 4x7 al que se representa habitualmente con letras

mayúsculas.

p1 p2 p3 d1 d2 d3 d4

d1 0 1 1 1 0 0 0

= A d2 1 0 1 0 1 0 0

d3 1 1 0 0 0 1 0

d4 1 1 1 0 0 0 1

37

La matriz puede variar dependiendo de las fórmulas que se usen para los

bits de paridad.

Para realizar la codificación se requiere la multiplicación de A por otra

matriz de un solo renglón y cuatro columnas, ésta recibe el nombre de vector de

tamaño 1x4, representa el dato de cuatro bits que se envía de un total de 16

opciones que son las combinaciones obtenidas, es decir 24=16. Ese conjunto

constituye un alfabeto permitiendo la creación de mensajes.

Para poder realizar el producto de matrices se verifica que el tamaño de

columnas de una sea el mismo que el de filas de la otra.

Ejemplo 7. Codificar el dato representado por 1001 usando

Hamming(7,4).

[1011]

0 1 1 1 0 0 0

1 0 1 0 1 0 0

1 1 0 0 0 1 0

1 1 1 0 0 0 1

Se procede a multiplicar cada columna del vector con cada fila de la

primera columna de la matriz A, “sumando” los productos y repitiendo el

proceso con todas las columnas.

1x00x11x11x1=0

1x10x01x11x1=1

1x10x11x01x1=1

1x10x01x01x0=1

1x00x11x01x0=0

1x00x01x11x0=1

1x00x01x01x1=1

El resultado se dispone en forma de vector con tamaño 1x7.

[0111011]

38

Ejercicio 3. Asigna un valor decimal entre 0 y 15 a los siguientes

símbolos: @, !, & y #; después convierte cada número a binario y codifícalo bajo

Hamming(7,4).

ACTIVIDAD DE APRENDIZAJE

Investiga cuáles son las características del código BCD.

2.2 COMPRESIÓN

Es la codificación de información de forma más eficiente para mejorar el

rendimiento de los dispositivos de comunicación. Un método de compresión

estático mantiene fija la tabla de conversión antes de la transmisión, mientras

que uno dinámico cambia los códigos de equivalencia mientras se envían los

datos, a este último también se le conoce como adaptativo.

Una de las formas de medir el grado de compresión es a través de la

razón:

Tasa de

compresión=

Tamaño de los datos

resultantes

Tamaño de los datos

originales

La tasa se puede representar por bpb (bit per bit) que determina el

número de bits comprimidos necesarios para representar un bit de entrada. En

caso de texto se usa bpc (bits per character) mientras que si son imágenes es

bpp (bits per pixel). El factor de compresión es el inverso de la tasa de

compresión.

Para medir el rendimiento de alguna herramienta de compresión se

pueden usar conjuntos de distintos tipos de archivos que incluyen texto,

imágenes y otros datos. Algunos de estos grupos tienen nombres como Calgary

Corpus o Canterbury Corpus.

39

2.2.1 Lossless

En este tipo de compresión el mensaje que se envía y el que llega deben ser

idénticos, como en el caso de documentos y archivos personales, tanto de

forma interna para almacenamiento como externamente a través de una red.

El formato ZIP es un ejemplo de esta clasificación, fue dado a conocer en

1989 por Phil Katz fundador de PKWARE, no lo desarrolló de forma original,

mejoró uno que ya existía bajo la autoría y registro de Thom Henderson quien

demandó a Katz.

2.2.2 Lossy

Bajo este esquema, la información codificada no es idéntica a la original, se

utiliza principalmente en la transmisión de imágenes, video o audio. El tipo de

archivo JPEG elaborado por JOINT PHOTOGRAPHIC EXPERTS GROUP, se basa en

un análisis por zonas de los colores que forman una imagen, promediando los

que son similares lo cual produce menor definición así como menor espacio de

almacenamiento, lo que resulta muy importante cuando se usan recursos

limitados, tal es el caso de Internet.

2.2.3 Código Shannon-Fano

Desarrollado independientemente por Shannon y Robert Fano del Instituto

Tecnológico de Masschusetts (MIT, por sus siglas en inglés). Este código tiene

su base en la frecuencia estadística del uso de los caracteres de cierto alfabeto.

Si tenemos la siguiente tabla de frecuencias:

A 39

B 21

C 16

D 8

E 31

La secuencia que se debe seguir para la codificación es:

Paso 1. Reacomodar la tabla según la frecuencia, de menor a mayor.

40

D 8

C 16

B 21

E 31

A 39

Paso 2. Se divide la lista en dos partes, tomando en cuenta que ambas

deben tener una suma de frecuencias parecida.

D 8

C 16

B 21

E 31

A 39

Paso 3. A una mitad se le asocia el número uno y a la otra cero.

D 8 0

C 16 0

B 21 0

E 31 1

A 39 1

Paso 4. Se repiten los pasos 2 y 3 sucesivamente con cada una de las

mitades hasta terminar los caracteres.

Código

D 8 0 0 0

C 16 0 0 1

B 21 0 1

E 31 1 0

A 39 1 1

41

Los códigos generados por este proceso asignan menores cantidades de

bits a los caracteres que más se usan. A la secuencia de pasos que produce un

resultado se le conoce como algoritmo.

Se puede construir una estructura de árbol siguiendo las divisiones por

mitades.

B E A

D C

A este esquema se le conoce como árbol de codificación. Cada extremo

de una línea recibe el nombre de nodo, si del extremo inferior parten nuevas

líneas se convierte en nodo padre de lo contrario se denomina hoja. Un nodo

que no tiene padre se llama raíz.

2.2.4 Código Huffman

Se presentó en 1952 por David Huffman, es muy parecido al código Shannon-

Fano, usando los mismos símbolos del caso anterior su algoritmo es:

Paso 1. Reacomodar la tabla según la frecuencia, de menor a mayor.

D 8

C 16

B 21

E 31

A 39

Paso 2. Se suman los dos primeros elementos de la tabla (que son los

menores) asignándole un símbolo al resultado, reordenándose la tabla. El

nuevo elemento forma un nodo padre.

B 21

N0(D,C) 24

E 31

0

0

0

0

1

1 1

1

42

A 39

Paso 3. Se repite el paso 2 hasta tener un solo nodo.

E 31

A 39

N1(B,N0) 45

N1(B,N0) 45

N2(E,A) 70

N3(N1,N2) 115

Construyendo el árbol se obtiene:

N3

N1 N2

B N0 E A

D C

Paso 4. A los nodos hijos de lado izquierdo se les asigna cero y a los de

lado derecho uno.

Código

D 0 1 0

C 0 1 1

B 0 0

E 1 0

A 1 1

ACTIVIDAD DE APRENDIZAJE

0

0

0

0

1

1

1

1

43

Investiga qué son las distancia de Hamming y de Levenshtein.

2.3 CRIPTOGRAFÍA

Es el tratamiento que se le aplica a la información para protegerla. El mensaje

original se conoce como texto plano que al procesarse genera un cifrado.

Un sistema criptográfico consta de dos fases: encriptación y

desencriptación. Una llave es una función que permite intercambiar información

entre dos entidades que la conozcan. Se denomina sistema de encriptación

clásico o simétrico si posee una sola llave, llamada privada. Por ejemplo el

método de cifrado Cesar es simétrico.

Si un caracter encriptado corresponde a uno en texto plano, recibe el

nombre de encriptación monoalfabética, pero si representa a más de uno se

denomina polialfabético.

La característica de un sistema criptográfico asimétrico es que utiliza dos

llaves: una pública para cifrar y una privada para descifrar. Este método fue

inventado por Diffie y Hellman en 1976. En 1978 se dio a conocer el algoritmo

RSA desarrollado por Rivest, Shamir y Adleman. Se basa en la dificultad para

factorizar número primos “grandes” que tengan cientos de dígitos. Los pasos a

seguir son:

Paso 1. Elegir dos números primos “grandes” p y q para calcular n=pq.

Paso 2. Obtener m=(p-1)(q-1).

Paso 3. Elegir E de tal forma que el único número que divida a E y a m

sea uno, escrito como mcd(E,m)=1. Bajo esta condición se dice que E y m son

primos relativos.

Paso 4. Encontrar D tal que DE1 mod m. E y N son la llave pública

mientras que D es la privada.

Paso 5. Para cifrar un símbolo M < n se calcula:

C=ME mod n

Para descrifrar se utiliza la fórmula:

M=CD mod n.

44

Ejercicio 4. Codifica los números: 11,13 y 23; bajo RSA si p=23, q=29,

E=487 y D=191.

ACTIVIDAD DE APRENDIZAJE

Investiga cuáles son las características de una firma digital.

2.4 ERRORES

2.4.1 Naturaleza de los errores

A partir de la estructura de un sistema de comunicación se pueden encontrar

múltiples fuentes de error como las siguientes:

Ingreso de datos. En las primeras computadoras los datos se

introducían mediante tarjetas perforadas, aún con los avances

actuales no se ha podido eliminar del todo la dependencia del

trabajo humano en la captura de información.

Codificación. Al automatizar la conversión de datos se pueden

presentar fallas en los algoritmos, programación de los mismos o

uso incorrecto.

Transmisión. Ya sea al momento de preparar el envío o durante su

viaje por distintos medios, puede haber pérdida de calidad de la

señal o contaminación que modifique los valores requiriendo de

reenvíos.

Decodificación. La información puede llegar tan dañada que no se

puedan aplicar los métodos de corrección de errores.

Despliegue de información. Puede ocurrir que las configuraciones

de los equipos sean distintas, por ejemplo, en el idioma, que no

permitan que los datos se vean de forma adecuada.

45

2.4.2 Agoritmos de detección

2.4.2.1 Paridad

Es la verificación mediante bits adicionados a la codificación de un símbolo que

indica si el número de unos es par, recibiendo el nombre de paridad par

poniendo el número cero o en caso contrario se denomina impar. Por ejemplo,

el código Reed-Solomon RS(255,223) transporta mensajes de 255 bytes de los

cuales 223 son datos y 32 sirven de paridad, pudiendo corregir 16 errores. Éste

es ampliamente usado en telecomunicaciones y dispositivos reproductores de

audio.

2.4.2.2 Checksum

De amplio uso en internet con distintas variaciones una de las cuales consiste

en los siguientes pasos:

Paso 1. Se divide el mensaje en bloques de 16 bits y se suman en

grupos del mismo tamaño, la suma puede tener más de 16 bits.

Paso 2. A la suma se le aplica la operación denominada complemento a

uno: los unos se convierten en ceros y viceversa.

Paso 3. Se envía el grupo de datos junto con el checksum, el destinatario

hace la suma de todo el bloque y debe obtener 16 unos. Si su resultado es

distinto entonces se produjo un error.

2.4.2.3 Redundancia cíclica

Los códigos de redundancia cíclica (CRC) tienen su uso en las redes de alta

velocidad y se fundamentan en los campos de Galois extendidos. Los más

usados son CRC-16 y CRC-32 que usan los polinomios primitivos x16 + x15 + x2

+1 y x32 + x26 + x23 + x22 + x16 + x12 + x11 + x10 + x8 + x7 + x5 + x4 + x2 + x + 1

respectivamente.

ACTIVIDAD DE APRENDIZAJE

46

Investiga para qué sirve una matriz de paridad.

47

AUTOEVALUACIÓN

Elige el inciso correcto.

A. Es el tamaño en bits del código Baudot.

a) 3 b) 4 c) 5 d) 6

B. Tiene siete bits.

a) ASCII b) EBCDIC c) Gray d) Baudot

C. Un nibble es la mitad de un.

a) Bit b) Byte c) ASCII d) Gray

D. Se basa en la frecuencia estadística.

a) Shannon-Fano b) Reed-Solomon c) Baudot d) Gauss

E. Es un tipo de formato Lossy.

a) PDF b) Txt c) Doc d) JPG

Completa las frases.

F. Un algoritmo es ________________________ ___ .

G. En los códigos lineales si sumo dos de sus elementos ____

____________________________________.

H. Un código se define como _______________________________________

___________________________________ .

I. Una matriz es _________________________ .

J. El factor de compresión se calcula mediante .

RESPUESTAS DE LA AUTOEVALUACIÓN

A. c.

B. a.

C. b.

D. a.

E. d.

48

F. Una secuencia de pasos.

G. Obtengo otro elemento del código.

H. Una correspondencia entre elementos de un conjunto con otro.

I. Un arreglo rectangular de números.

J. El inverso de la tasa de compresión.

49

UNIDAD 3

TRANSMISIÓN

OBJETIVO

El alumno conocerá los elementos que permiten el viaje de la información de un

punto a otro.

TEMARIO

3.1. ESPECTRO ELECTROMAGNÉTICO

3.2. MEDIOS

3.2.1. CABLEADOS

3.2.1.1. COAXIAL

3.2.1.2. PAR TRENZADO

3.2.1.3. FIBRA ÓPTICA

3.2.2. INALÁMBRICOS

3.2.2.1. WIFI

3.2.2.2. BLUETOOTH

3.3. MODOS

3.3.1. SIMPLEX

3.3.2. DUPLEX

3.4. TÉCNICAS

3.4.1. MODULACIÓN

3.4.1.1. DIGITAL

3.4.1.2. ANALÓGICA

3.4.2. MULTIPLEXACIÓN

3.4.3. CONMUTACIÓN

3.5. SEÑALES

3.5.1. CLASIFICACIÓN

3.5.2. MUESTREO

50

MAPA CONCEPTUAL

Ondas

Electromagnéticas

Voltaje

Las

pueden ser

transportando

a través de

usando

Información

Radio

Luz

Medios

Cables

Antenas

Señales Técnicas

51

INTRODUCCIÓN

Desde la antigüedad se han buscado técnicas de comunicación que abarquen

mayor distancia para mantener en contacto a las personas, utilizando las

propiedades físicas de los materiales disponibles, cada nueva tecnología

presenta retos, pero esto ha hecho posible el envío de información de manera

masiva, más segura y a menor costo.

52

3.1 ESPECTRO ELECTROMAGNÉTICO

Una onda produce perturbaciones periódicas en el medio a través del cual se

propaga, como las olas en el mar, al punto más alto se le llama cresta y al más

bajo se le denomina valle. La información puede ser convertida en energía, que

es en parte eléctrica y en parte magnética, con distintas formas de propagación:

como voltaje a lo largo de un cable, mediante ondas radiales que viajan en el

aire, o luz viajando en una fibra óptica. Todos estos fenómenos se basan en la

vibración de electrones en el interior de los átomos.

Una onda electromagnética está compuesta de campos eléctricos y

magnéticos que se regeneran mutuamente según los principios de Maxwell y

Faraday. Esos campos y la dirección de propagación de la onda son

perpendiculares entre sí.

©www.terra.es

Los parámetros que caracterizan a las ondas electromagnéticas son:

Longitud de onda (λ). Es la distancia en metros entre una cresta y

la cresta siguiente (o de valle a valle), lo que abarca un ciclo.

Velocidad de propagación (c). Se propagan con la misma rapidez

que la luz (3x108 m/s).

Frecuencia (F). Es un indicador medido en hercios (Hz) que

relaciona las dos magnitudes anteriores:

53

El rango completo de frecuencias que pueden tener las ondas

electromagnéticas se conoce como espectro. Abarca desde las subsónicas

hasta los rayos cósmicos y se divide en bandas que son reguladas en cada país

por organismos gubernamentales, en el caso de México son la Cofetel y la SCT.

© www.um.es

En el caso de las radiofrecuencias existen las siguientes clasificaciones:

Tipo Características Uso

ELF Extremadamente bajas (30-300 Hz) Red eléctrica

VF Voz (300-3000Hz) Telefonía

VLF Muy baja (3-30 kHz) Comunicación entre

submarinos

LF Bajas (30-300 kHz) Sistemas de navegación

marítima y aérea.

MF Intermedias (300 kHz – 3MHz) Radio AM

HF Altas (3 – 30 MHz) Banda civil

VHF Muy altas (30 – 300 MHz) TV, radio FM

54

UHF Ultra alta (300 MHz – 3GHz) TV, celulares

SHF Super altas (3 – 30 GHz) Microondas, satélites

La banda de 27MHz con seis canales es de uso libre para aplicaciones como el

radiocontrol.

ACTIVIDAD DE APRENDIZAJE

Investiga las propiedades de las microondas.

3.2 MEDIOS

Un medio de transmisión es cualquier conductor o semiconductor, o su

combinación, para llevar información de un punto a otro. Existen las siguientes

configuraciones:

Un conductor tubular.

Dos conductores alambricos como el par trenzado o cable coaxial.

Dieléctrico.

3.2.1 Cableados

En los medios guiados, la velocidad y capacidad de la transmisión dependen de

la distancia. A la resistencia que presenta un cable al paso de ondas

electromagnéticas en función de su frecuencia se le denomina impedancia, se

mide en ohmios (Ω). Si se tratara de un cable de extensión infinita recibe el

nombre de impedancia característica.

3.2.1.1 Coaxial

Es un sistema de conductores y aislantes dobles, dispuestos de forma interna y

externa. El conductor interno es un alambre de cobre mientras que el externo

está construido en forma de malla de cobre o aluminio, ésta recibe el nombre de

pantalla, sirviendo como protección contra el ruido. Entre ambos conductores

55

existe un aislante de polietileno (dieléctrico) y externamente todo el sistema se

cubre con una cubierta de PVC. Existen diversas medidas de diámetros del

cable interno con diferentes impedancias, siendo las más comunes 50Ω y 75Ω.

©www.dis.um.es

Existen dos tipos de cable coaxial:

Banda base. Usado en redes de computadora para datos digitales,

requiere un repetidor cada kilómetro para corregir la atenuación de

la señal.

Banda ancha. Transporta señales analógicas en varias

frecuencias

3.2.1.2 Par trenzado

Agrupa cables de cobre forrados de un grosor que varía entre 0.4 mm y 0.9 mm

entrelazados espiralmente en pares, cuenta con una cubierta externa de

protección fabricada de PVC. Su estructura entrelazada reduce la interferencia

electromagnética (diafonía) entre las parejas adyacentes mediante diferentes

longitudes de torsión, variando de 5 cm a 10 cm. Tanto para señales digitales

como analógicas, el par trenzado también conocido como cable telefónico es

usado ampliamente debido a su bajo costo y facilidad de manejo. Al transmitir

analógicamente requiere amplificadores cada 5 km o 6 km mientras que en el

caso digital necesita repetidores cada 2 km o 3 km. Es un tipo de medio

susceptible a interferencias y ruido, tiene alcance, velocidad y ancho de banda

menores que el coaxial o la fibra óptica. Hay dos clases: par trenzado

apantallado (STP) y sin apantallar (UTP), con la finalidad de mejorar su

protección.

56

© www.kmfair.org

Los estándares T568A t T568B dicen cómo se deben disponer los cables

para colocarles los conectores RJ45.

© www.servian.es

La categoría del cable establece el ancho de banda que soporta. El de

categoría 5 soporta 100 Mbps (mega bits por segundo) con impedancia de 100

Ω.

3.2.1.3 Fibra óptica

Está construida con fibras de vidrio o plástico, es delgada y flexible. El cable

tiene forma cilíndrica, se compone de tres capas: núcleo, revestimiento y

cubierta.

57

©www.gatewayforindia.com

Su ancho de banda es del orden de cientos de giga bits (Gbps) a través

de decenas de kilómetros. Puede transportar entre 20,000 y 60,000 canales de

voz a una distancia de 1,500 km.

La fibra óptica utiliza el principio de reflexión total para frecuencias que

van desde 1014 hasta 1015 Hz, cubriendo parte del espectro visible e infrarrojo.

© www.techoptics.com

Si un rayo de luz atraviesa dos medios con índices de refracción

distintos, en dirección al que es menor, se refracta en la superficie al pasar por

el segundo medio. Si se varía el ángulo de entrada, llega un punto en que se

anula este fenómeno (ángulo crítico) y se refleja completamente dentro del

primer medio, por lo que se denomina reflexión total interna. Las pérdidas de luz

en una fibra óptica pueden ser causadas por:

Curvatura. Se debe al cambio de ángulo.

58

Conexión y empalme. Existen dos tipos de empalmes: mecánico y

por fusión, cuando se hacen estos puede existir desalineación de

los núcleos.

Fabricación. Se presentan por impurezas del núcleo propias del

material o falta de calidad en los procesos de elaboración de las

fibras.

©www.bug-si.com

3.2.2 Inalámbricos

A la propagación de ondas electromagnéticas en espacios abiertos se le

denomina propagación de radiofrecuencia que requiere una fuente que las

irradie para que un receptor las capture. La irradiación y la recepción son las

funciones de las antenas. En el espacio libre (vacío) no hay pérdida de energía

al desplazarse la onda, pero presenta un fenómeno de dispersión, reduciendo la

densidad de la potencia, a este proceso se le conoce como atenuación. La

superficie terrestre no es el vacío, ya que contiene diversas partículas

suspendidas en la atmosfera que absorben energía generando pérdida por

absorción. Una onda terrestre es una onda electromagnética que se desplaza a

través de la superficie de la Tierra.

3.2.2.1 WiFi

Es un sistema de comunicación inalámbrico que necesita la conversión de

datos binarios en ondas de radio que se envían y reciben a través de una

59

antena. Ha usado frecuencias de 2.4, 3.7 y 5 GHz basándose en el protocolo

IEEE 802.11 siendo el de clase g con una ancho de banda de 54 Mbps el más

usado actualmente. Esta versión ocupa el método de modulación OFDM

(orthogonal frecuency-division multiplexing) usando diversos mecanismos para

la protección de los datos tales como WEP, WPA y WPA2. El método de

privacidad equivalente a cableado (WEP, por sus siglas en inglés) es de cifrado

nivel dos basado en el algoritmo de llave simétrica RC4 de 64 bits o 128 bits,

debido a las vulnerabilidades encontradas a esta técnica en 2001, se presentó

en 2003 WPA (WiFi protected access).

Se encuentra en desarrollo la clase n que tiene una capacidad máxima

de 600 Mbps usando las bandas de 2.4 MHz y 5 MHz para ser compatible con

versiones anteriores así como el envío de información de paralelo.

©www.proelectronica.com

3.2.2.2 Bluetooth

Es una tecnología inalámbrica para comunicación de corto alcance, bajo

consumo y económica. También utiliza la frecuencia de 2.4 GHz, ya que es una

banda libre, tiene un alcance de 10 metros si es de la clase uno, llegando hasta

100 metros si es tres. La seguridad es administrada con base en los permisos

de acceso por dispositivos en lugar de hacerlo por usuarios, a través de un

identificador de 48 bits. Utiliza el protocolo IEEE 802.15.1 ideado para redes

60

personales sin interferir con las de WiFi. Posee ancho de banda de 1 Mbps, 3

Mbps o 24 Mbps dependiendo de la versión, usa modulación GFSK.

ACTIVIDAD DE APRENDIZAJE

Investiga cuáles son las debilidades del método WEP.

3.3 MODOS

La topología lógica define las rutas que debe seguir la información.

3.3.1 Simplex

En este tipo de esquema, la comunicación se produce en una sola dirección.

Una estación puede ser transmisor o receptor, pero no ambos. Las radios y

televisiones son ejemplos de esta categoría.

3.3.2 Duplex

Bajo esta clasificación cada estación puede ser un transmisor y un receptor al

mismo tiempo, tal como ocurre en los sistemas telefónicos.

ACTIVIDAD DE APRENDIZAJE

Investiga las características del modo semiduplex.

3.4 TÉCNICAS

3.4.1 Modulación

Las transmisiones analógicas tienen como base una señal continua con

frecuencia constante que se conoce como portadora. Los datos que se envían

se codifican modulando esa señal.

61

Existen tres parámetros que se pueden modificar para lograrlo: amplitud,

frecuencia y fase. La señal de entrada que puede ser digital o analógica, se

llama moduladora o señal en banda base, mientras que la señal de salida

recibe el nombre de modulada.

3.4.1.1 Digital

La señal modulada es digital, aunque la portadora sea analógica, existen

diversas técnicas tales como FSK, PSK y QAM.

FSK. Realizada a través de cambios en la frecuencia, manteniendo

constante la amplitud.

PSK. Se produce desplazando la fase.

QAM. La información está contenida en la amplitud y en la fase.

3.4.1.2 Analógica

La señal portadora se expresa en términos senoidales:

( ) ( )

Si el parámetro que se modifica es la amplitud se indica como AM,

tratándose de la frecuencia es FM. Con ambas se aumenta la capacidad de los

medios de transmisión.

3.4.2 Multiplexación

Con esta técnica se consiguen múltiples transmisiones usando un solo enlace,

aplicando los siguientes métodos:

División de frecuencia. El ancho de banda total se divide en canales

paralelos de 4 kHz cada uno.

Impulsos codificados. Está compuesto por los procesos: muestreo de la

señal, cuantificación, compresión y codificación.

División en tiempo. Asigna todo el ancho de banda disponible a cada

canal durante cierto tiempo.

62

3.4.3 Conmutación

Inicialmente utilizada en la comunicación de voz, actualmente es de aplicación

extensiva en Internet, en donde los datos se envían por paquetes conocidos

como datagramas que pueden seguir distintas rutas para llegar a su destino,

donde al final se recompone el mensaje. Existe una técnica conocida como

circuitos virtuales que determina una ruta fija por donde viajarán los paquetes.

ACTIVIDAD DE APRENDIZAJE

Investiga cuál es la estructura de un datagrama.

3.5 SEÑALES

Una señal es una función que depende del tiempo y genera información.

3.5.1 Clasificación

Existen diferentes técnicas de representación para las señales:

Periódicas. Tiene un comportamiento repetitivo.

Determinísticas o aleatorias. En las primeras su comportamiento se

puede predecir mientras que las segundas presentan comportamiento

irregular.

Analógica o digitales. Generan valores continuos o discretos.

Energéticas o potenciales. Representa voltaje o corriente.

3.5.2 Muestreo

Es parte del proceso de transformación de una señal analógica a digital. Al

proceso que selecciona un número de valores discretos a partir de una señal

continua, se le conoce como muestreo. La tasa o frecuencia de muestreo, es la

cantidad de mediciones que se hacen por unidad de tiempo. La magnitud más

usada es el hercio (Hz) que representa un ciclo por segundo.

El ingeniero sueco Niquist conjeturó en 1928 que la frecuencia de

muestreo debe ser superior al doble de la máxima frecuencia a muestrear.

63

Ejemplo. Para digitalizar una canción en CD se utiliza una tasa de 44100

muestras por segundo (44.1 MHz), ya que la máxima frecuencia perceptible

para el oído humano está cercana a 20KHz.

ACTIVIDAD DE APRENDIZAJE

Investiga cómo se utiliza el análisis de Fourier en el estudio de las señales.

64

AUTOEVALUACIÓN

Elige el inciso correcto.

A. Es la distancia de valle a valle.

a) λ b) Ω c) c d) F

B. Es una banda de uso libre.

a) 44 GHz b) 27 MHz c) 44 MHz d) 27 GHz

C. Mide los ciclos por segundo.

a) λ b) Ω c) c d) F

D. Es la clase WiFi que permite transmisión en paralelo.

a) a b) b c) c d) n

E. El teorema del muestreo fue enunciado por:

a) Niquist b) Fourier c) Faraday d) Maxwell

Completa las frases.

F. Una onda produce ______________________ ___ .

G. Cuando se alcanza el ángulo crítico ____

____________________________________.

H. El espectro electromagnético es ___________________________________

___________________________________ .

I. Un dieléctrico es ______________________ .

J. La resistencia que presenta un cable al paso de ondas electromagnéticas en

función de su frecuencia se le denomina .

RESPUESTAS DE LA AUTOEVALUACIÓN

A. a.

B. b.

C. d.

D. d.

E. a.

65

F. Perturbaciones periódicas en el medio a través del cual se propaga.

G. Se produce la reflexión total interna.

H. El rango completo de frecuencias que pueden tener las ondas

electromagnéticas.

I. Un aislante.

J. Impedancia.

66

UNIDAD 4

TEORÍAS DE LA INFORMACIÓN

OBJETIVO

El alumno analizará los diferentes métodos para representar y manipular la

información.

TEMARIO

4.1. CLÁSICA

4.1.1. ENTROPÍA

4.1.2. INFORMACIÓN MUTUA

4.1.3. CAPACIDAD DEL CANAL

4.1.4. TEOREMAS DE SHANNON

4.1.4.1. CODIFICACIÓN DE LA FUENTE

4.1.4.2. CODIFICACIÓN DEL CANAL

4.1.4.3. CAPACIDAD DE INFORMACIÓN

4.1.5. TEORÍA DE LA DISTORSIÓN DE LA VELOCIDAD

4.2. CUÁNTICA

4.2.1. INTRODUCCIÓN A LA MECÁNICA CUÁNTICA

4.2.2. COMPUTADORAS

4.2.2.1. QUBITS

4.2.2.2. CIRCUITOS CUÁNTICOS

4.2.3. INFORMACIÓN

4.2.3.1. ENTROPÍA DE VON NEUMANN

4.2.3.2. TERMODINÁMICA COMPUTACIONAL

4.2.3.3. RUIDO

4.2.3.4. CRIPTOGRAFÍA

67

MAPA CONCEPTUAL

Información

Matemáticos

La

tiene fundamentos

Físicos

Shannon Landauer

dados por

Teoremas

mediante Canales

Codificación

acerca de

68

INTRODUCCIÓN

Cada día se requiere de mayores capacidades de transmisión y

almacenamiento de información, al tener un entorno de alta conectividad se

hace obligatorio el uso de técnicas de protección de los datos. La carrera

tecnológica por crear dispositivos más pequeños y rápidos ha llegado a los

límites de la materia, ante este panorama se realizan esfuerzos por encontrar

nuevas soluciones que en otros tiempos se consideraban ciencia ficción.

69

4.1 CLÁSICA

Cualquier área del conocimiento humano es tan sólida como las bases

matemáticas sobre las que se construye. Diferentes enfoques dieron origen al

estudio de la información, y quienes contribuyeron de forma más significativa a

construir su cimentación fueron Shannon, Wiener, Weaver y Landauer.

4.1.1 Entropía

La segunda ley de la termodinámica se puede expresar de diferentes formas

dependiendo de su aplicación:

El calor no fluye de forma espontanea de un cuerpo frío a uno más

caliente.

La energía no puede ser transformada por completo en trabajo

mecánico.

El cambio de entropía entre cualquier sistema y su medio ambiente es

positivo y tiende a cero si el proceso es reversible.

El término entropía fue acuñado por el físico alemán Rudolph Clausius y

puede ser interpretado de distintas maneras:

Capacidad de un sistema para hacer trabajo.

Dirección del flujo del tiempo.

Medida del desorden o aleatoriedad. Entre mayor sea su orden la

entropía es menor.

Matemáticamente, la entropía S se puede expresar como S = klnP, en

donde k es la constante de Boltzman y P representa qué tan equilibrado está el

sistema.

En 1867 el físico Maxwell ideó un experimento que consiste de dos cajas,

una con moléculas rápidas (más caliente) y otra con moléculas lentas teniendo

menor energía, en ambos casos se encuentran moviéndose en todas

70

direcciones, la cajas están conectadas por una compuerta controlada por

alguien. Se trata de agrupar a las moléculas rápidas de un lado y las lentas de

otro, tomando como referencia las velocidades medias iniciales de cada caja,

abriendo la compuerta cuando la molécula pasa por ahí en su viaje hacia su

respectiva zona. Al terminar el proceso, la caja que tenía menor temperatura se

volvió más fría y la otra más caliente, logrando esto sin necesidad de realizar

trabajo, únicamente utilizando la observación. Cuando el físico William

Thompson conoció este experimento dijo que era una especie de demonio, ya

que contradice la segunda ley de la termodinámica, por tal razón recibe el

nombre de “demonio de Maxwell”.

©www.historiasdelaciencia.com

En 1961 el físico alemán Rolf Landauer encontró que la energía mínima

necesaria para borrar un bit en una memoria es de kln2, este proceso genera

calor y es irreversible, por lo tanto aumenta la entropía en el sistema. Él siempre

consideró que la información es física, pues se encuentra en el ADN, neuronas,

transistores y otros dispositivos. En 1984 el físico norteamericano Charles

Bennett, quien al igual que Landauer trabajaba en IBM, aplicó el principio de

Landauer para resolver la paradoja del “demonio de Maxwell”, debido a que el

demonio requiere almacenar la información sobre la posición y velocidad de

cada partícula para poder dejarlas en su zona correspondiente e ir borrando las

71

que vaya acomodando, este proceso genera calor y compensa la parte que falta

para que el experimento sea consistente con la segunda ley de la

termodinámica.

En su libro Cybernetics Norbert Wiener plantea que la información se

caracteriza por su nivel de organización en contraposición con el grado de

desorden que representa la entropía, por lo tanto debe ser expresado por una

medida negativa de esta. Para Shannon, la cantidad de información ( ) que se

obtiene al conocer un símbolo s con probabilidad p > 0 es:

( ) (

)

Por ejemplo: entre mayor sea el número de veces que se lance un dado

se verá que cada lado aparece con la misma frecuencia de tal forma que su

probabilidad es

, de esta forma si sabemos que salió la cara con el número 5,

la información que obtenemos es de (

) , se requiere el signo

negativo porque los logaritmos también lo tienen y hacer la multiplicación se

produce un resultado positivo.

En general, Shannon encontró que si X es una variable aleatoria (la cara

del dado) que tiene el valor x (uno a seis) con probabilidad p(x), la información

contenida (medida en bits) en X a partir de una fuente de información S (el

dado) es:

({ ( )}) ∑ ( ) ( )

Si como en el caso del dado perfecto, cada símbolo es equiprobable

(

) la entropía se define como:

( )

∑ ( ) ( )

Pero si cada símbolo tiene probabilidad distinta { } entonces

su entropía es:

( ) ∑ (

)

∑ ( )

72

Tratándose de una variable binaria, si p es la probabilidad de que X=1, la

probabilidad de X=0 es 1-p (ya que la suma de las probabilidades debe ser

uno), en este caso la expresión de la entropía se convierte en:

( ) ( ) ( )

4.1.2 Información mutua

La medida que expresa la cantidad de información que comparten dos variables

aleatorias X e Y se conoce como información mutua ( ) y depende de la

entropía condicional ( ) expresada de la forma:

( ) ∑ ∑ ( ) [

( )]

Usándola para la formulación de la información mutua queda así:

( ) ( ) ( )

Ésta posee las siguientes propiedades:

( ) ( ).

( ) .

( ) ( ) ( ) ( )

La expresión ( ) es conocida como entropía conjunta.

4.1.3 Capacidad del canal

Un canal discreto sin memoria se define a partir de tres conjuntos: un alfabeto X

que sirve para crear datos de entrada, un alfabeto de salida Y, y probabilidades

( ). Entonces la capacidad C de dicho canal es el máximo valor que tiene

la información mutua, expresada por:

{ ( )} ( )

Dicha capacidad se mide en bits.

73

4.1.4 Teoremas de Shannon

Los siguientes resultados fueron dados a conocer por Claude Shannon en 1948

al publicar A Mathematical Theory of Communication.

©www.nlm.nih.gov

4.1.4.1 Codificación de la fuente

Para lograr una codificación binaria más eficiente de los símbolos sk de un

alfabeto A que son generados por una fuente discreta sin memoria, cada uno

con probabilidad pk y con longitud lk una vez codificado, se requiere que los

símbolos con mayor probabilidad tengan un tamaño codificado menor que los

de poca ocurrencia. La longitud media de los símbolos codificados está

representada por:

La medida de eficiencia del proceso de codificación se obtiene como:

Si entonces , conociéndose como eficiente cuando η se

acerca a uno. El primer teorema de Shannon se enfoca a la codificación de la

fuente enunciándose como sigue:

Dada una fuente discreta sin memoria, el esquema de codificación debe

satisfacer que ( ).

74

4.1.4.2 Codificación del canal

Debido a los errores que se producen en la información al ser transmitida se

requieren de técnicas que minimicen los mismos a través de la codificación de

la información. Mediante este resultado Shannon proporciona el resultado

principal de la teoría clásica de la información, enunciado como sigue:

Si A es un alfabeto en una fuente discreta sin memoria que produce

símbolos cada Ts segundos que viajan a través de un canal discreto sin

memoria de capacidad C que se usa cada Tc segundos. Si ( )

entonces

existe un esquema de codificación que permite reducir de forma arbitraria la

probabilidad de error. La relación

se denomina tasa crítica.

4.1.4.3 Capacidad de información

Para un canal que posee un ancho de banda B medido en hertz, en presencia

de ruido blanco cuya densidad está dada por

y con potencia promedio de

transmisión P, su capacidad se calcula mediante:

(

)

4.1.5 Teoría de la distorsión de la velocidad

Según el teorema de la codificación de la fuente, el tamaño promedio de un

código debe ser cuando menos igual a la entropía de tal fuente. En las

situaciones en las que no se puede aplicar ese principio, asumiendo los riegos

que conlleva, se utiliza la teoría de la distorsión como en los casos:

Método lossy de compresión.

Transmisión de una capacidad mayor a la que soporta el canal.

75

©www.qwickstep.com

ACTIVIDAD DE APRENDIZAJE

Investiga la solución al “demonio de Maxwell” propuesta por Leó Szilárd.

4.2 CUÁNTICA

Debido a su enfoque como físico Landauer colaboró indirectamente en el

desarrollo de la computación cuántica, se le considera como pionero en el área;

sin embargo, fue un crítico de la misma, él sugirió que al final de cualquier

reporte de investigación sobre computación cuántica se advirtiera del carácter

especulativo de esta.

4.2.1 Introducción a la mecánica cuántica

En 1801 Thomas Young propuso un experimento para comprobar la naturaleza

ondulatoria de la luz mediante un dispositivo emisor que la proyectaba sobre

una pantalla con dos rejillas y el uso de otra pantalla para registrar el patrón

formado. Si la luz estuviera compuesta de partículas se comportaría así:

76

© www.studyphysics.ca

Pero si fueran ondas se registraría el siguiente patrón:

© www.studyphysics.ca

El comportamiento final obtenido fue:

© www.studyphysics.ca

77

En 2002 se realizó una encuesta entre los lectores de Physics World

para encontrar el experimento más bello de la física, ganando el arriba

presentado.

En el año 1900 el físico alemán Max Plank propuso que la luz además de

tener un comportamiento de onda estaba compuesta de pequeños paquetes

llamados cuantos, asignando una energía E a cada uno y relacionándolo con su

frecuencia f obtuvo la relación , en donde h es ahora conocida como la

constante de Plank. A partir de este resultado Einstein explicó el efecto

fotoeléctrico, trabajo por el cual recibió el Premio Nobel de Física en 1921.

Científicos de HITACHI reprodujeron el experimento de Young en 1989

con una fuente de electrones y una pantalla de las usadas en televisiones para

registrar el comportamiento.

©www.nodo50.org

Cuando se trata de medir el comportamiento de cada electrón a través de

cada rejilla, el patrón cambia de forma y se comporta como si sólo fueran

partículas formándose dos líneas paralelas. Los fenómenos cuánticos no

presentan un estado definido hasta que se intenta hacer una medición, pues su

naturaleza es probabilística. El físico austriaco Erwin Schrödinger pensó en un

78

experimento en donde un gato se encontraba en una caja con un dispositivo

radiactivo que activaba un gas venenoso, si se observa lo que pasa dentro de la

caja se encontraría al gato vivo o muerto, pero si no se interfiere con los

procesos que se llevan a cabo en el interior, el gato podría estar en una

superposición de estados, es decir vivo y muerto al mismo tiempo, o medio vivo

y medio muerto.

©zenweezil.com

El físico alemán Werner Heisenberg propuso que a nivel cuántico una

partícula no tiene posición y velocidad definidas de forma simultánea, a lo que

se conoce como principio de incertidumbre, de éste se deriva el efecto túnel

consistente en el escape desde el núcleo de algunas partículas denominadas

alfa que no tendrían la energía necesaria para hacerlo, fenómeno que fue

explicado por George Gamow.

79

©dandan.balearweb.net

Dentro del mundo cuántico es posible la acción a distancia, lo que

permite que un sistema permanezca entrelazado (entanglement), una

modificación en el estado de una partícula produce cambios en otra de forma

instantánea a velocidades aparentemente mayores a la de la luz. Este

fenómeno se conoce como no local y haría posible la teletransportación, no de

las partículas mismas sino de sus propiedades las cuales se podrían copiar de

una a otra creando objetos idénticos. El profesor Nicolas Gisin y su Grupo de

Física Aplicada de la Universidad de Ginebra ha realizado dos experimentos

significativos: en el primero lanzaron dos fotones en sentido contrario a través

de una fibra óptica hasta una separación máxima de 10 km, al llegar al final del

recorrido había una lamina que se podía cruzar o no, los dos fotones tomaron la

misma decisión al mismo tiempo; en el segundo experimento se copió la

identidad de fotón a otro con una separación entre ellos de 2 km.

80

4.2.2 Computadoras

En 1930 el matemático Alan Turing ideó una computadora teórica con memoria

infinita representada por una cinta que contenía una secuencia de símbolos de

cierto alfabeto que eran procesados, y los resultados que generaban se

guardaban al final de la cinta. De este modelo se desprende el término

computabilidad, el cual asegura que un proceso hecho en una computadora

también funcionaría en una maquina de Turing.

Gordon Moore fundó INTEL en 1968 junto con Robert Noyce. En su

versión original (1965) la ley de Moore afirma que el número de transistores por

pulgada dentro de los circuitos integrados se duplicaría cada año durante dos

décadas.

81

©lifeboat.com

A este ritmo de crecimiento se ha llegado al límite físico, ya que no se

pueden construir los procesadores más pequeños debido a las temperaturas

tan altas y a posibles fallas originadas por el efecto túnel entre los electrones.

Spintronics es un campo de investigación emergente que utiliza las propiedades

de giro (spin) de los electrones para lograr densidades de almacenamiento muy

elevadas para ser utilizadas en discos duros y memorias.

©www.spintronics-info.com

82

4.2.2.1 Qubits

El término qubit (quantum bit) fue creado por el físico teórico norteamericano

Benjamin Schumacher cuando investigaba los límites físicos de los canales de

información. Él formuló en 1995 el equivalente en el contexto cuántico del

teorema de codificación de un canal sin ruido enunciado por Shannon. Un qubit

es una partícula que puede presentar dos estados superpuestos, pero si se

realiza una consulta sobre su valor tendrá solo cero o uno.

©www.cqed.org

La esfera de Bloch proporciona una representación gráfica de un qubit,

utiliza la notación Bra-Ket creada por Dirac en donde las kets simbolizadas por

representan un estado del sistema. En el polo norte se ubica 1 y en el sur 0,

las demás posiciones sobre la superficie de la esfera representan

combinaciones de ambos estados. La dirección y el sentido están dados por el

giro de la partícula.

Con cada aumento de un qubit al sistema (registro cuántico) se

incrementaría la capacidad de cálculo de forma exponencial a diferencia de los

bits, que lo hacen en factor de dos.

83

Si en lugar de dos posibles estados son tres, recibe el nombre de qutrit.

En caso de ser n estados se denomina qudit.

4.2.2.2 Circuitos cuánticos

De la misma forma que en las computadoras clásicas, los circuitos cuánticos

están integrados por compuertas. Las compuertas cuánticas se representan por

medio de matrices y operaciones sobre éstas. El físico israelí David Deutsch

encontró una puerta que puede ser universal (todas las otras operaciones se

pueden realizar con esta).

4.2.3 Información

El rol de transmisor es realizado por una fuente de partículas y la de receptor es

un dispositivo de medición. Un canal representa una transformación en el

estado del sistema, de igual forma su capacidad está determinada por

operaciones matriciales.

4.2.3.1 Entropía de Von Neumann

El equivalente cuántico de la expresión realizada por Shannon se utiliza para

medir el grado de entrelazamiento de las partículas.

4.2.3.2 Termodinámica computacional

Si existe un sistema que sea reversible no incrementando su entropía (contrario

a lo encontrado por Landauer), entonces no disipará energía. Toffoli y Fredkin

propusieron un modelo de computadora reversible basado en las interacciones

que se presentan en una mesa de billar bajo condiciones perfectas (sin fricción

y con choques perfectamente elásticos). Las bolas representan las entradas y el

estado en que se detienen, la salida.

4.2.3.3 Ruido

Una computadora cuántica podría resolver de forma simultánea todas las

posibles respuestas de un problema, si se llegara a presentar algún error

84

causado por la propia inestabilidad del sistema que fuera causa de ruido, aun

así el volumen de trabajo que es capaz de realizar compensaría esta falla, en

lugar de poner símbolos para hacer redundante un código, se realizarían las

operaciones completas varías veces.

4.2.3.4 Criptografía

Schumacher propuso una forma de interpretar los estados cuánticos que

permite guardar información de forma encriptada.

El matemático Peter Shor encontró un algoritmo que permite descifrar en

cuestión de segundos una encriptación basada en números primos como el

caso de RSA, por ejemplo: para factorizar un número de 5,000 dígitos en una

computadora clásica se ocuparían cinco trillones de años, mientras que en una

cuántica solo dos minutos.

ACTIVIDAD DE APRENDIZAJE

Investiga cuáles son las características que debe cumplir una computadora

cuántica según Deutsch.

85

AUTOEVALUACIÓN

Elige el inciso correcto.

A. Puede tener el valor de cero, uno o ambos a la vez.

a) Bit b) Qubit c) Byte d) Qubyte

B. Se le considera como padre de la teoría de la información.

a) Shannon b) Landauer c) Wiener d) Weaver

C. Si la entropía tiende a cero un proceso es:

a) Irreversible b) Reversible c) Abierto d) Limitado

D. La medida de la entropía de la información debe tener signo:

a) negativo b) positivo c) cero d) ambos

E. Según una encuesta el mejor experimento de física lo realizó:

a) Plank b) Maxwell c) Einstein d) Young

Completa las frases.

F. La es una medida del desorden o aleatoriedad.

G. La cantidad de información ( ) que se obtiene al conocer un símbolo s con

probabilidad p > 0 es igual a _______________.

H. Con cada aumento de un qubit a un registro cuántico se incrementa la

capacidad de cálculo de forma ____________________ .

I. Los fenómenos cuánticos no presentan un estado definido hasta que se

intenta hacer una ______________ .

J. La medida que expresa la cantidad de información que comparten dos

variables aleatorias X e Y se denomina .

RESPUESTAS DE LA AUTOEVALUACIÓN

A. b.

B. a.

C. b.

D. a.

86

E. d.

F. Entropía.

G. ( ) (

)

H. Exponencial.

I. Medición.

J. Información mutua.

87

BIBLIOGRAFÍA

Carlson, Bruce, Sistemas de comunicación, Mc Graw-Hill, México, 2007.

Chen, Goong, Mathematics of quantum computation, USA, Chapman & Hall,

2002.

Cover, Thomas, Elements of information theory, USA, Wiley, 2005.

Deutsch, David, La estructura de la realidad, Anagrama, España, 2002.

Feynman, Richard, Conferencias sobre computación, España, Editorial Crítica,

2003.

Gribbin, John, Quantum physics, USA, DK Publishing, 2002.

Herrera, Enrique, Introducción a las telecomunicaciones modernas, Limusa,

2006.

Nielsen, Michael, Quantum Computation and Quantum Information, Great

Britain, Cambridge University Press, 2000.

Penrose, Roger, La mente nueva del emperador, 2a. Ed., Fondo de Cultura

Económica, México, 2002.

Stallings, William, Comunicaciones y redes de computadores, España, Pearson

Educación, 2004.

Turton, Richard, El punto cuántico: la microelectrónica del futuro, USA, Alianza

Editorial, 1999.

88

GLOSARIO

Algoritmo. Secuencia de pasos para realizar con éxito una tarea.

Arquitectura. Es la distribución interna de los componentes de un dispositivo

electrónico, los canales de interconexión entre estos y hacia el exterior

Bit. Acrónimo de binary digit, representa el valor de cero o uno.

Computadora. Dispositivo electrónico que recibe datos, los procesa e informa

los resultados.

Entanglement. Propiedad cuántica que permite la interacción instantánea a

distancia entre dos o más partículas.

Semiconductor. Material que puede conducir carga eléctrica o dejar de hacerlo,

dependiendo de su temperatura.

Señal. Fenómeno físico que se usa para transmitir información.

Qubit. Acrónimo de quantum binary digit, representa el valor de cero, uno o

ambos a la vez.

Sistema. Elementos que trabajan juntos para lograr un fin común.

Teorema. Es una afirmación que se demuestra como verdadera.