61729033 teoria-de-senales-funcadmentos

231
✍✌ ✎☞ 1 ξ, η h (t , τ) x ξ + - 0 {ξ} θ z ˜ θ = h * z = ˜ θ - θη Teoría de Señales: Fundamentos Francisco Vargas, Mauricio Álvarez, Mauricio Orozco, Germán Castellanos 2010

Upload: julio-cordoba

Post on 28-Jun-2015

1.108 views

Category:

Documents


7 download

TRANSCRIPT

- -

6

?-

-

-K1ξ,η

h(t ,τ)

x∈ ξ

+

-K0 ξ

θ

z θ= h ∗z

ε = ‖θ−θ‖

η

Teoría de Señales:Fundamentos

Francisco Vargas, Mauricio Álvarez, Mauricio Orozco, Germán Castellanos

2010

Teoría de Señales:

Fundamentos

Francisco VargasUniversidad de Antioquia

Mauricio ÁlvarezUniversidad Tecnológica de Pereira

Mauricio Orozco, Germán CastellanosUniversidad Nacional de Colombia, Manizales

2010

Sección de Publicaciones e ImagenUniversidad Nacional de Colombia, Manizales

ISBN: XXX-XXX-XXXX-XX-X

Este libro está hecho con ayuda de y LATEX.

Probability is our evaluation supported by all what we know. It’s a situation that depends essentiallyupon our incomplete information, and it’s also a measurement of the incompleteness of our

information.K. Popper

Prefacio

Flavio Prieto, Bogotá, 2010

Introducción

En la actualidad, cada vez es más evidente la importancia en el uso apropiado de la información en los diver-sos campos de la actividad humana. Al respecto, la tarea por excelencia, que ha ocupado por bastante tiempo la

atención de los programas de Ingeniería Electrónica, Telecomunicaciones e inclusive de Sistemas, está directamenterelacionada con la transmisión de señales con contenido informativo. Tal situación ha conformado una estructuraen los diferentes planes curriculares que se sigue, a veces dogmáticamente, sin tener en cuenta que el cúmulo detecnologías, relacionadas con el manejo de la información tiene una naturaleza de cambio dinámico, de integracióny aglutinamiento con otras tecnologías y ciencias, que hacen que, prácticamente, cada día se deban actualizar loscontenidos de las respectivas asignaturas. El mismo avance de la ciencia, sobre la cual se asume descansa la teoríabásica de la Ingeniería, se mueve estrepitósamente. Hasta ayer, el análisis espectral se basaba exclusivamente en ladescomposición de Fourier, que aunque sigue siendo la representación universal mediante la cual se interpretan losdiversos aspectos relacionados con el proceso espectral de las señales, cede paso a novedosas formas de descom-posición con propiedades adecuadas para el manejo de nuevos problemas, en particular, la no estacionariedad, elproceso localizado, etc. El mismo concepto de aleatoriedad también exige su ampliación hasta revisar las defini-ciones de incertidumbre; porque de qué otra manera se pueden entender las técnicas de análisis de complejidad?.Por cierto, la ampliación de los conceptos y herramientas en el manejo no llegan solamente hasta revisar la natu-raleza aleatoria de las señales. Ya es un hecho la demostrada efectividad en el proceso de la información por partede una serie de herramientas, que no están explícitamente basadas en principios probabilísticos. Sin embargo, lasnovedades sugeridas anteriormente implican, por lo menos, dos aspectos básicos a considerar: Primero, que el in-geniero debe ser consiente del cambio en el objeto de su materia prima de trabajo, esto es, la información y el valoragregado de su proceso se convierten en un objetivo importante de la Ingeniería. Segundo, los cambios a realizarcorresponden a avances conceptuales mas no a interrupciones o introducción de herramientas desarticuladas. Conbastante pena, se observa como los estudiantes, que quieren trabajar con tareas de extracción de información en cur-sos superiores o de posgrado, caen secuestrados en procedimientos reduccionistas que intentan sin la taoría básicaexplicar o aplicar transformaciones, a veces, suficientemente complejas de proceso. Consecuentemente, cualquierintento de interpretación, generalización o particularización sobre los resultados en el análisis de las señales se veirremediablemente limitado o confinado a explicaciones erróneas.

Los autores del presente libro encuentran evidente que la mejor forma de entender las nuevas y bastante potentesherramientas de proceso consiste en estudiar con mayor profundidad los conceptos básicos de la Teoría de Señales.Se ha mantenido un esquema clãsico en la disposición de los capítulos, pero su material se amplia con conceptosy ejemplos, que además de explicar estudiar la transmisión de señales, también se analizan aspectos relacionadoscon su extracción. El material dispuesto en el presente texto describe las formas básicas de representación y proce-so de señales aleatorias, con especial énfasis en los modelos de análisis matemático estadístico, que se considera,tienen un aporte significativo en la formulación y solución de aplicaciones en las áreas de sismología, análisis debioseñales, sistemas de medida, sistemas de control y seguimiento, radiocomunicación, entre otros. Por eso, el con-tenido presentado corresponde a la evolución en el análisis de aleatoriedad desde las señales hasta su asociacióncon los respectivos sistemas de proceso.

El contenido del texto es el siguiente: el Capítulo I describe los fundamentos de representación determinísticade señales y sistemas. El Capítulo II presenta los principios básicos de la modulación como la tarea de proceso queacopla los parámetros de las señales en su transmisión por los diversos canales de comunicación. El Capítulo IIIdescribe las particularidades en la representación de procesos aleatorios en el tiempo. También se analizan los prin-cipios de la transformación de señales aleatorias mediante sistemas lineales. El Capítulo IV corresponde al análisisde la inmunidad para canales Gaussianos. Finalmente, el Capítulo V estudia los conceptos básicos de la Teoría de laInformación. El material está orientado a los estudiantes de pregrado, que cursen la asignatura de Teoría de Señalesy supone como prerrequisito los cursos de Teoría de probabilidades, así como el de Análisis Espectral. El materialteórico presentado incluye la deducción de la mayoría de las expresiones presentadas, aunque se brinda la literaturanecesaria para la profundización de cada tema en particular.

Los Autores, Manizales, 2010

Notaciones

Notación Significadox (a ,b ; s ) Señal x con parámetros a ,b y argumento sx ∗(s ) Conjugado de x ∈C por sℜx ; ℑx Parte real de x ; parte imaginaria de xx [k ] Señal discretizada (con argumento normalizado)xk : k = 1, . . . , N Conjunto o sucesión de N valores discretos xk

xk (t ) Trayectoria o contorno por el argumento t de xk

d (xm ,xn ) Distancia métrica entre los elementos xm y xn

x , ξ; x, ξ; X , Ξ Escalar; Vector; Matrizi1×n ; In×n Vector unitario; Matriz unitaria con dimensión n ×nrankX ; traceX ; detX Rango; traza; determinante de XX ; X; X Matriz inversa; transpuesta, hessianaK x ;L ,F ,Z ,W TransformadaK de x ; T. Laplace, Fourier, Zeta, WaveletXK (s ); X (ω) Densidad espectral deK x por s ; Espectro de FourierX Espacio métrico funcionalN,Z,R,C Dominio de los naturales, enteros, reales y complejosR1; Rn Espacio de los números reales; E. euclídeo con dimensión nL2[a ,b ] Espacio de Hilbert de señales integrables por Lebesgue en [a ,b ]P(Ω) Medida de probabilidad del espacio de eventos elementales ΩFξ(x ); pξ(x ) Distribución de probabilidad; densidad de probabilidad de ξN (m1ξ,µ1ξ) Densidad de probabilidad Gaussiana de ξ con momentos m1ξ y µ1ξ

Eξ; ξ(t ) Valor esperado - promedio de ensamble ; promedio de tiempomnξ(t ); µnξ(t ) Momento inicial; Momento centralizado de orden n para ξΘξ(ω); µΘnξ(t ) Función característica; cumulantes de orden n por Θξ(ω)Rξ,η(τ); Kξ,η(τ) Función de correlación; Función de covarianza entre ξ y ηeξθ Valor estimado de ξ obtenido por el estimador θΛξ; eξΛ Relación de verosimilitud; Est. por máxima verosimilitudSξ(ω) Densidad espectral potencia de ξH Espacio de Hilbert de p.a. centralizados, integrables al cuadrado‖ξ‖=E|ξ|21/2; ⟨ξ,η⟩ Norma del p.a. ξ; producto punto de los p.a. ξ y η en H

ξ⊥η P.a. ortogonales ξ y η, definidos en H Algoritmos o aplicaciones de software

Índice general

1. Representación de Señales y Sistemas 11.1. Definiciones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1. Clasificación de señales y sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1.2. Proceso de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.3. Modelos de señales singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.4. Espacios de representación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2. Representación discreta de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.2.1. Descomposición en funciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.2.2. Conjunto ortogonal completo de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.2.3. Otros conjuntos ortogonales completos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

1.3. Representación integral de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311.3.1. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321.3.2. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401.3.3. Integral de convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

1.4. Representación operacional de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471.4.1. Método de la integral de superposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471.4.2. Método de análisis espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 501.4.3. Método de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531.4.4. Sistemas discriminantes de frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

2. Principios de modulación 592.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2.1.1. Canal básico de transmisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592.1.2. Clasificación de métodos de modulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602.1.3. Comparación de métodos de modulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

2.2. Modulación sinosoidal análoga de amplitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632.2.1. Modulación de doble banda lateral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632.2.2. Modulación de banda lateral única . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 672.2.3. Modulación de banda lateral vestigial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

2.3. Modulación sinosoidal análoga de ángulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 772.3.1. Modulaciones de fase y frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 772.3.2. Modulación de ángulo de banda angosta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 792.3.3. Modulación de ángulo de banda ancha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

V

VI Índice general

2.4. Modulación banda base de pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 872.4.1. Modulación análoga de pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 872.4.2. Modulación digital de pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

2.5. Modulación digital de radiofrecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 992.5.1. Descripción básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 992.5.2. Modulación digital de amplitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1012.5.3. Modulación digital de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1022.5.4. Modulación digital de frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1052.5.5. Modulación mínima de frecuencia con fase continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

3. Análisis de aleatoriedad 1133.1. Señales aleatorias en el tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

3.1.1. Estacionariedad de las señales aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1143.1.2. Ergodicidad de las señales aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1183.1.3. Descomposición espectral de señales aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1253.1.4. Densidad espectral de potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

3.2. Paso de señales aleatorias por sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1373.2.1. Análisis en el tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1373.2.2. Análisis en la frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1433.2.3. Empleo de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

3.3. Filtración óptima lineal por mínimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1493.3.1. Optimización de la respuesta a impulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1493.3.2. Condición de realización física . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1533.3.3. Filtros acoplados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

4. Fidelidad y detección de señales 1634.1. Fidelidad en sistemas analógicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

4.1.1. Relación señal a ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1634.1.2. Fidelidad en sistemas de banda base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1644.1.3. Fidelidad en sistemas de amplitud modulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1654.1.4. Fidelidad en sistemas de modulación de ángulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

4.2. Métodos de detección de modulación digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1734.2.1. Modelo de detección Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1734.2.2. Detección bayesiana de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1754.2.3. Detección de máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

4.3. Recepción óptima coherente de señales digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1814.3.1. Receptor óptimo potencial binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1814.3.2. Receptor de correlación óptimo potencial binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1844.3.3. Fidelidad de detección óptima binaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

5. Teoría de la información 1895.1. Fuentes de información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

5.1.1. Medida de la información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1895.1.2. Entropía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1915.1.3. Propiedades de la entropía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

5.2. Codificación de una fuente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1995.2.1. Propiedades de los códigos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1995.2.2. Códigos instantáneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2005.2.3. Código binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2015.2.4. Compresión de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

5.3. Canales de transmisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2065.3.1. Medidas de capacidad en canales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2065.3.2. Transmisión de información en canales discretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2075.3.3. Entropía e información para ensambles continuos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212

Bibliografía 219

1Representación de Señales y Sistemas

Una señal se puede definir como una función que conlleva información, que se puede referira un fenómeno físico medido o al comportamiento de un sistema físico. Aunque la infor-

mación se puede representar en variadas formas, en todos los casos se busca que la informa-ción esté contenida en un patrón de variaciones de alguna forma. Las señales se representanmatemáticamente por funciones de una o más variables independientes.

1.1. Definiciones Básicas

----

x1(s )

x2(s )

. . .

xm (s )

K x(s )y1(s )

y2(s )

. . .

yn (s )

----

Figura 1.1: Diagrama básico de un sistema contransformaciónK ·

La señal de entrada x (s ) es el enlace de in-teracción entre los elementos. De otra man-era, es la acción llevada a activar el sistema.Mientras, la respuesta o salida y (s ) es la ac-ción conjunta del sistema como resultado deuna activación. El mismo sistema, que es ungrupo de elementos u objetos con un fin de-terminado K ·, se representa por una cajacerrada, o caja negra, con un número dado determinales de entrada y salida, para propósitos de análisis como se ilustra en la Figura 1.1.

En un sistema, cada señal de entrada se transforma en una única respuesta, lo que implicaque actuando sobre una entrada x (s ) = x i (s ) : i = 1, . . . ,m se obtiene una única salida en laforma, y (s ) =

yi (s ) : i = 1, . . . ,n

, cuya transformación generalizada se representa por:

y (s ) =K x (s )

dondeK · corresponde a la transformación o transformada de entrada–salida (señal respues-ta). En la mayoría de los casos de análisis de señales informativas, el parámetro s correspondeal tiempo t .

1.1.1. Clasificación de señales y sistemas

Las señales, de acuerdo con la forma de definición de sus valores con respecto a su argumentodel tiempo, se clasifican en los siguientes tipos:

1

2 Capítulo 1. Representación de Señales y Sistemas

– Señales análogas o continuas (en el tiempo). Señales para las cuales, tanto su argumen-to como la misma función, pueden tomar cualquier valor del continuo de los interva-los para los que se define el argumento, t ∈ [t0, t f ], x ∈ [xmin,xmax]. La definición deseñales análogas usualmente se extiende hasta soportar discontinuidades de primer gra-do, x (tk−) 6= x (tk+) , siendo |x (t )|<∞, ∀t .

– Señales discretas (en el tiempo). El argumento de la función (tiempo) está definido sola-mente sobre una malla de valores x (tk ), k ∈ N. Sin embargo, la función toma cualquiervalor del intervalo continuo x ∈ [xmin,xmax]. En aquellos valores del tiempo sobre loscuales la señal no se define t 6= tk , el valor de la función se asume igual a cero.

Cuando los valores de una señal discretizada en el tiempo, x (tk ) , pertenecen a un con-junto finito, xQ ∈ xQ (i ) : i , . . . ,N , N <∞, se habla de señales digitales.

Otras formas de clasificación de las señales son las siguientes:

– Señal de energía. Sin importar que el intervalo de tiempo sea infinito, se cumple que laenergía de la señal es finita, esto es,

ex = ‖x‖2 =∫

R

|x (t )|2 d t <∞, (1.1)

– Señal de potencia. Cuando la potencia media de la señal x (t ) durante un intervalo de tiem-po T , es finita y no es igual a cero, es decir,

px = lımT→∞

1

T

T

|x (t )|2 d t <∞, (1.2)

– Señal periódica. Cuando se cumple la condición

x (t +T ) = x (t ), t ∈ [0,T ] , T > 0 (1.3)

donde el valor de minT que satisfaga la condición (1.3), cuando existe, se denominaperíodo fundamental. En caso de no cumplirse la anterior condición, la señal se denominaaperiódica.

Ejemplo 1.1 Demostrar la periodicidad de la funciónx (t ) = e j (ω0t+θ ), −∞< t <∞, dondeω0 = const .A partir de(1.3) se cumple quex (t ) = x (t +T ) = x (t +nT ),∀n ∈Z, con lo cual se puede demostrar la

periodicidad de la función

x (t ) = e j (ω0t+θ ) = e j (ω0(t+T )+θ ) = e jω0(t+T )e θ = e jω0t e jω0T e θ

Además, cuandoe jω0T = cosω0T + j sinω0T = 1, la señal es periódica y equivale a decir quecosω0T = 1y sinω0T = 0, entonces,ω0T = 2πk conk ∈N. Por lo tanto,ω0 = 2πk /T.

Una señal cuasiperiódica corresponde a una función con período fundamental demasiadolargo. Estas señales, generalmente, se componen por dos o más señales periódicas. Un ejemplo

1.1. Definiciones Básicas 3

de señal cuasiperiódica compuesta de dos señales periódicas es la función compuesta de laforma: x (t ) = sin t + sin

p2t .

– Señal aleatoria. Corresponde al caso de dependencias, para cuyo valor se tiene algunaincertidumbre en función de cualquier argumento.

– Señal determinística. Función que se puede modelar o describir analíticamente como unadependencia completamente especificada con respecto a su argumento.

– Señal de dimensión multiple. Función que se describe a partir de un conjunto compuestode m ∈Z+ variables independientes. Cuando la función depende de una sola variable, sehabla de señales de dimensión única o simple.

En cuanto a los sistemas, éstos se pueden clasificar de la siguiente forma:

– Sistema lineal, cuando se cumple la ley de superposición.

Sea a i yi (t ) =K a i x i (t ) , donde a i = const ., i = 1,2, . . . ,n . Entonces:

K(

n∑

i=1

a i x i (t )

)=K a 1x1(t )+a 2x2(t )+ . . .+a i x i (t )+ . . .+a n xn (t )

= a 1y1(t )+a 2y2(t )+ . . .+a i yi (t )+ . . .+a n yn (t )

=

n∑

i=1

a i yi (t ) (1.4)

Cuando la expresión (1.4) no se cumple, el sistema se denomina no lineal.

Ejemplo 1.2 Sea un sistema con relación entrada-salida de la formay (t ) = a x (t )+b , siendo los valoresa ,b = const . Determinar el valor deb para el cual el sistema se puede considerar lineal.

Considerando dos señales de entrada diferentesx1(t ) y x2(t ), las salidas correspondientes serían

yi (t ) = a x i (t )+b , i = 1, 2

Si se aplica la entradax1(t )+x2(t ), la salida seráa (x1(t )+x2(t ))+b . De acuerdo con la condición delinealidad(1.4), se debe cumplir que:

a (x1(t )+x2(t ))+b = a (x1(t )+x2(t ))+2b ,

luego, parab = 0 el sistema es lineal.

– Sistema invariante (en el tiempo). Si un desplazamiento en el argumento de la función oseñal de la entrada del sistema provoca respectivamente un corrimiento en el argumentode su respectiva salida. En el caso de señales que varían en el tiempo se tiene:

y (t − t0) =K x (t − t0) ,∀t0 > 0 (1.5)

En caso contrario, el sistema se denomina variable.

4 Capítulo 1. Representación de Señales y Sistemas

– Sistema estable. Si una señal de entrada x (t ) con amplitud finita, max|x (t )|<∞, produceuna respuesta y (t ) de amplitud finita, esto es, max|y (t )|<∞. De otra manera, el sistemaes inestable.

– Sistema invertible. Si distintas entradas producen distintas salidas, esto es, si al observarla salida del sistema se puede determinar su correspondiente entrada. En caso contrario,el sistema se considera no invertible.

Ejemplo 1.3 Cualquier sistema descrito por la expresión,

y (t ) = const .

debe ser considerado como no invertible, por cuanto genera un mismo valor a la salida, sin importar cual seael valor de la señal de entrada.

– Sistema realizable o causal. Se debe tener una respuesta de salida que no suceda antesde que se aplique una función de entrada al sistema. Esto es, si la función de entrada seaplica a partir de un tiempo, t = t0, entonces, la respuesta sólo estará determinada parat ≥ t0. Si no se cumple esta condición, el sistema es no causal.

– Sistema (de tiempo) continuo. Cuando los cambios de los valores de entrada y salida corres-ponden a intervalos continuos (en el tiempo).

– Sistema (de tiempo) discreto. Cuando las señales asociadas con el sistema son discretas,esto es, existen sobre una malla de valores puntuales (en el tiempo). En los demás valoresdel argumento, la señal es igual a cero.

Generalmente, los sistemas de tiempo continuo se modelan mediante el uso de ecua-ciones diferenciales, mientras, los sistemas discretos, con ecuaciones iterativas.

– Sistemas sin memoria. Si la salida, para cualquier tiempo tk , depende sólo de la entradapara el mismo valor de tiempo.

– Sistemas con memoria. Si la señal de salida, para un valor del tiempo dado tk , depende devalores de la señal de entrada determinados dentro del intervalo (tk −T, tk ), entonces elsistema tiene memoria T .

– Sistemas con parámetros concentrados. Si el tiempo de proceso de la señal de entrada através del sistema es considerablemente pequeño. Estos sistemas se modelan medianteecuaciones diferenciales ordinarias. En los sistemas eléctricos, esto significa que la longi-tud de onda de la señal de entrada es mucho mayor con respecto a las dimensiones físicasde los elementos de proceso del sistema.

– Sistemas con parámetros distribuidos. La señal de entrada tarda un tiempo considerableen excitar los elementos del sistema, dependiendo el retardo de la velocidad de procesode la señal. Estos sistemas se pueden modelar con ecuaciones diferenciales parciales.

1.1. Definiciones Básicas 5

1.1.2. Proceso de señales

El proceso, entendido como la aplicación y sentido práctico que toma la transformación de lasseñales con carga informativa, se puede clasificar así:

a). Continuo o análogo. Cuando la transformación, que caracteriza el proceso, se realiza so-bre una señal que repite la forma de la magnitud física observada, esto es, existe analogíaentre ambas. El conjunto de valores sobre el cual se realiza el proceso es continuo y, porlo tanto, infinito.

b). Digital. Cuando la transformación se realiza sobre una función correspondiente a la for-ma de la magnitud física observada, la cual se representa por un conjunto finito (contable)y a priori conocido de estados o, inclusive, de relaciones entre los mismos. En el procesodigital, las funciones de salida no deben presentar ninguna analogía de forma con la señalde entrada.

Entre las principales ventajas de los sistemas de proceso digital con respecto a los análogosestán las siguientes:

– Son realizables sobre tecnología digital lógica, por lo cual se alcanzan alta confiabilidad,estabilidad, reducido tamaño y baja potencia, adaptándose rápidamente al diseño de loscircuitos integrados.

– Los dispositivos digitales son menos sensibles a las tolerancias de sus elementos y puedenser reproducidos en grandes volúmenes con alta exactitud sin requerir un ajuste adi-cional, como usualmente ocurre con los elementos análogos.

– Se facilita el proceso simultáneo de varias señales mediante un solo dispositivo digital,reduciendo los costos de hardware. Además, las características de proceso pueden cam-biarse y ajustarse durante el proceso realizando la sintonía necesaria sobre el respectivoalgoritmo de proceso; condición importante en la adaptabilidad de los sistemas.

Los dispositivos digitales se asocian con algunas desventajas. La primera es el incrementoen la complejidad del sistema de proceso, por cuanto hay necesidad de un pre y pos-procesoadicional de las señales. La segunda desventaja es el rango limitado de frecuencias disponiblesde los procesadores digitales que ofrecen aún valores insuficientes para señales de muy altasfrecuencias. Sin embargo, las ventajas del proceso digital compensan por mucho las desventajasen las diversas aplicaciones, sumado al hecho de la tendencia constante en la rebaja de costosdel hardware de proceso digital. Como resultado el proceso digital de señales se extiende cadavez a una mayor cantidad de actividades del campo humano. Es importante tener en cuentaque el proceso digital exige la adecuación en la representación de las señales continuas, la cualen la práctica se realiza mediante su discretización. Por lo tanto, el análisis básico del procesodigital se realiza sobre la representación discretizada de señales y sistemas.

1.1.3. Modelos de señales singulares

Estas funciones son modelos abstractos matemáticos y, en rigor, no aparecen en sistemas físi-camente implementables. Sin embargo, son aproximaciones adecuadas a ciertas condiciones yrestricciones reales, que permiten evaluar el comportamiento asintótico de los sistemas físicos.

6 Capítulo 1. Representación de Señales y Sistemas

-tt0

−1

1

sgn(t )6

Figura 1.2: Representación de la función signo

Función signo. Definida por la expresión:

sgn(t − t0)Í=

−1, t < t0

0, t = t0

1, t > t0

donde la multiplicación x (t )sgn(t − t0) deno-ta el cambio de signo de la función x (t ) a par-tir del punto t = t0, (Figura 1.2).

Función delta de Dirac. La función delta δ(t ) es también llamada función impulso o funciónKronecker, y se puede interpretar como la acción que hace angosta una función dada, pα(t −t0),definida con área unitaria en la forma:

∞∫

−∞

pα(t )d t =α1

α= 1 (1.6)

de tal manera, que su base determinada para un intervalo de tiempo (t0−α/2, t0+α/2) tiendea 0, esto es,

δ(t − t0)Í= lımα→0

pα(t − t0) =

(∞, t = t0

0, t 6= t0(1.7)

-

66

-

6 - ......................................................................................

?

6.....................................................................................................................................

t0 t

β

βδ (t − t0)

pα(t ) α

t0 t

1

α

(a) Representación

6

-

.

...

6

................................

................................................... ..........

....................................... ...............................................................................................................

...............

..........................................................................

.........................................

..............................

......................... .......................................

.... ...................................... ....

x (t )

pα(t −∆τ)

∆τ 2∆τ 3∆τ (k +1)∆τk∆τt

x (k∆τ)pα(t −k∆τ)∆τ

pα(t −k∆τ)

∆τ

(b) Aproximación

Figura 1.3: Sobre el concepto de la función delta δ(t )

Cabe anotar, que la definición completa de la función delta está dada por el par de ecuaciones

1.1. Definiciones Básicas 7

(1.6) y (1.7), cuya representación gráfica, en el caso particular de un pulso rectangular se ve enla Figura 1.3(a) (parte inferior). La representación convencional de βδ(t − t0) se muestra en laFigura 1.3(a) (parte superior), donde la amplitud β debe ser entendida como el área del pulsoelemental.

La función δ(t ) tiene las siguientes propiedades:

a). Simetría.

δ(t ) =δ(−t )

b). Escala de tiempo,

δ(αt ) =1

|α|δ(t ) (1.8)

c). Multiplicación, (por una función en el tiempo);

x (t )δ(t − t0) = x (t0)δ(t − t0)

Realmente, la continuidad de la función x (t ) se restringe al intervalo x (t0−) = x (t0+), encaso contrario, es simplemente imposible encontrar el valor correspondiente de la multi-plicación y preferiblemente se debe evitar tal situación.

d). Selectividad,

∞∫

−∞

δ(t − t0)x (t )d t = x (t0)

∞∫

−∞

δ(t − t0)d t = x (t0) (1.9)

La función x (t ) debe ser continua, o al menos tener un número finito de discontinuidadesde salto para un intervalo finito de tiempo, por cuanto el valor exacto de la integral en elpunto de discontinuidad no tiene ningún sentido físico importante [1]. De (1.9) e inter-cambiando t y t0, además notando por τ a t0 se obtiene la integral de Duhamel:

x (t ) =

∞∫

−∞

x (τ)δ(τ− t )dτ (1.10)

La integral (1.10) es la representación de la función x (t )mediante un continuo de funcionesdelta y corresponde a su aproximación en forma de un conjunto de pulsos rectangulares, pa (t ),determinados dentro del intervalo de análisis, como se muestra en la Figura 1.3(b). Haciendo∆τ→ 0 y N →∞ se obtiene la aproximación, x (t )≈

∑Nk=−N x (k∆τ)pa (k∆τ− t )∆τ.

8 Capítulo 1. Representación de Señales y Sistemas

Ejemplo 1.4 Evaluar la expresión

∞∫

−∞

t 2e−sin t cos 2t δ(2t −2π)d t ,

Mediante el empleo secuencial de las propiedades, primero de escala(1.8) y luego de selectividad(1.9), seobtiene que:

∞∫

−∞

t 2e−sin t cos 2t δ(2t −2π)d t =1

2

∞∫

−∞

t 2e−sint cos 2t δ(t −π)d t

=1

2π2.

t0 t

u (t − t0)

1

6

Figura 1.4: Representación gráfica de la función es-calón unitario

Función escalón unitario. La definiciónmatemática de esta función, representada enla Figura 1.4, es la siguiente:

u (t − t0)Í=

(1, t ≥ t0

0, t < t0(1.11)

A partir de la definición dada en (1.7) sepuede demostrar que:

pα(t ) =1

t0u (t )− 1

t0u (t − t0)

=1

t0(u (t )−u (t − t0))

tomando el límite de t0→ 0, se obtiene que

δ(t ) = lımt0→0

pa (t ) = lımt0→0

1

t0(u (t )−u (t − t0))

=d u (t )

d t

De manera inversa, integrando la anterior expresión se obtiene

∫δ(t )d t =

∫d u (t )

d td t =u (t )

1.1. Definiciones Básicas 9

Ejemplo 1.5 Seax (t ) = u (t − t0)−u (t −nt0)−kδ(t −m t0), dondem , n ≥ 1. Determinar el valor dekpara el cual se cumpla que:

∞∫

−∞

x (t )d t = 0

A partir de la anterior condición de igualdad a0, se obtiene que,

∞∫

−∞

(u (t − t0)−u (t −nt0)−kδ(t −m t0))d t = 0

∞∫

t0

u (t − t0)d t −

∞∫

nt0

u (t −nt0)d t −k

∞∫

−∞

δ(t −m t0)d t = 0

Sin embargo,

lımT→∞

T∫

t0

u (t − t0)d t −

T∫

nt0

u (t −nt0)d t

−k = 0

lımT→∞

((T − t0) · 1− (T −nt0) · 1)−k = 0

lımT→∞

(T − t0−T +nt0)−k = 0

luego,

nt0− t0−k = 0,

Por lo tanto,k = (n −1)t0.

Función pulso rectangular. Definida por la expresión:

rectτ(t − t0)Í=

(1, |t − t0| ≤ τ/20, |t − t0|>τ/2

(1.12)

Por cuanto,

rectτ(t − t0) = u (t − (t0−τ/2))−u (t − (t0+τ/2))

entonces se cumple la siguiente relación:

d

d trectτ(t ) = (δ(t )−δ (t − t0))

Así mismo, se cumple que

rectτ (t − t0) =1

2

sgn(t − t0)− sgn(t − t0−τ)

10 Capítulo 1. Representación de Señales y Sistemas

1.1.4. Espacios de representación

Cualquier espacio vectorial con dimensión n se caracteriza completamente por las proyec-ciones sobre sus n ejes de coordenadas. En la descomposición vectorial, es preferible el usode ejes perpendiculares y normalizados, para los que se cumple la condición de ortogonalidad:

⟨αi ,αj ⟩=(

0, i 6= j

1, i = j

donde αi ,αj son los vectores unidades de los respectivos ejes de coordenadas. Si el vector estádado en un espacio con n dimensiones, entonces éste se puede descomponer en n compo-nentes y, por lo tanto, expresado por la suma, a =

∑nk=1 a kαk , siendo a k las proyecciones del

vector sobre los ejes de coordenadas, la dirección de los cuales está dada por el sistema de vec-tores coordenadas o bases, αk : k = 1, . . . ,n.

Ejemplo 1.6 Considérense los siguientes casos de descomposición vectorial:

1. Sea el conjuntoαn (t ) : n = 1, . . . , N , un sistema de vectores ortogonales sobre un intervalo dadoenalgún espacio de Hilbert. Demostrar que el conjunto corresponde a un sistema independiente lineal.Al analizar la igualdad

k1α1+k2α2+ · · ·+knαn + · · ·+kNαN = 0

se observa que al multiplicar escalarmente ambos lados de laigualdad por cada uno de los vectores yteniendo en cuenta su ortogonalidad, se obtiene que:

αn · (k1α1+k2α2+ · · ·+knαn + · · ·+kNαN ) =αn · 0αn ·knαn = 0, n = 1, . . . , N

con lo cualkn = 0, n = 1, 2, . . . , N . Esto es, la ortogonalidad del sistema de vectores condiciona suindependencia lineal.

2. Dado un sistema de vectores no nulos y no ortogonalesg 0, g 1, · · · , g n , · · · en el espacio de Hilbert,construir sobre este un sistema ortonormalu 0, u 1, · · · , u n , · · ·, tal que cada vectoru k de una combi-nación lineal del tipou k = ck 0 g 0+ ck 1 g 1+ · · ·+ ck n g n , siendock 0, ck 1, · · · , ck n valores constantes.Al normalizar el elementog 0 y suponer queu 0 = g 0/‖g 0‖, el vectorh1 = g 1−(g 1, u 0)u 0 es ortogonala u 0. Normalizandoh1 se obtiene un nuevo elemento ortonormalizado del sistemau 1 =h1/‖h1‖.La operación se repite y se halla el elementoh2 = g 2− (g 2, u 0)u 0− (g 2, u 1)u 1, por lo que se obtieneu 2 = h2/‖h2‖ que es ortogonal tanto au 0 como au 1. Repitiendo el proceso, iterativamente, en el pasok ∈Z se obtiene la siguiente combinación lineal:

hk = g k −

g k , u 0

u 0−

g k , u 1

u 1− · · ·−

g k , u k−1

u k−1

En forma general, el conjunto de las posibles señales de análisis se entenderá como el forma-do por todas las funciones de variable compleja definidas en forma continua sobre un eje real,por ejemplo, el del tiempo:

L = x = x (t ) : x (t ) ∈C, t ∈R

donde L = x :K es el conjunto formado por todos los elementos, x , para los cualesK cumpleque:K ⇒ x ∈ L. La mayoría de los espacios de funciones de señales se restringen a los espacios

1.1. Definiciones Básicas 11

clásicos de Lebesgue, en los que se cumple que

Lp = Lp (R) =

x ∈ L : ‖x‖p =

R

|x (t )|p d t

1/p

<∞

, p ≥ 1

L∞ = L∞ (R) =

x ∈ L : ‖x‖∞ = sup

t|x (t )|<∞

donde ‖x‖Lp (R) es la norma definida para x en el espacio Lp .La restricción de p ≥ 1, implica que la clase Lp (R) es un espacio lineal normalizado y corres-

ponde a un espacio de Banach, el cual es completo con respecto a la correspondiente norma.De manera similar, se definen los espacios formados por las funciones de valor complejo de-

terminadas en forma discreta (sucesión) en el tiempo:

`= x = x (tn ) = (xn ) : xn ∈C,n ∈Z

Las restricciones sobre pertenencia a espacios lineales normalizados son similares a las de lasseñales continuas, en las cuales las operaciones de integración se cambian por operaciones desumatoria discreta; es decir, se generan los siguientes espacios:

`p =

x ∈ ` : ‖x‖p =

∞∑

n=1

|xn |p!1/p

<∞

La generación de conjuntos de señales a partir de alguna condición común con interpretaciónfísica (energía, longitud en el tiempo, transformación hacia algún espacio complejo, etc.), im-plica establecer el modelo matemático formal de relaciónK entre los elementos del conjunto.

Definición 1.1 De manera general, la forma para distinguir dos elementos de un conjunto encada pareja de elementos consiste en compararla con un número real positivo, el cual se interpretacomo la distancia entre los elementos, tal que

d : X×X→R, donde xn ,xm ∈X, d (xn ,xm )≥ 0

En este caso, los elementos xn y xm presentan iguales propiedades geométricas.

Un ejemplo de distancia entre dos señales x (t ) e y (t ) del espacio de funciones complejas enel tiempo, a lo largo de un intervalo T está dado por la siguiente expresión:

d

x ,y= ‖x − y ‖=

T

|x (t )− y (t ) |2d t

1/2

(1.13)

Definición 1.2 El conjunto de funciones relacionados con la distancia (1.13), para los cuales larespectiva norma es acotada, ‖x‖2 <∞, o espacio L2 (R), corresponde a un espacio de Hilbert que

12 Capítulo 1. Representación de Señales y Sistemas

está provisto del siguiente producto interno:

x ,y

L2(R) =

R

x ∗(t )y (t )d t

Un conjunto con una distancia dada en forma adecuada conforma un conjunto de señales. Elespacio de funciones dado por la distancia (1.13) tiene aplicación amplia en la representaciónde señales debido a la interpretación física simple de su respectiva norma, que corresponde a laenergía de las señales. Esto es, cuando x ∈ L2 (T ) se dice que

‖x‖2 = ⟨x ,x ∗⟩L2(T ) ¬ ex

es la energía de la señal. Por cierto, la señal x (t ) determinada sobre T , corresponde a la señal deenergía, que cumple la condición (1.1).

El soporte de una señal continua, supp (x ), corresponde a la cerradura del conjunto de puntost , tales que x (t ) 6= 0. Si el soporte de la función se confina dentro de un intervalo finito delargumento t , entonces se habla de una función con soporte compacto.

La representación en forma discreta de cualquier señal de energía, x ∈ L2 (T ), que cumpla lacondición (1.1), implica hallar la transformación del espacio L2 (T ) en el espacio Cn , donde elvalor de la dimensión n se elige a partir del compromiso entre la precisión y la economía de larepresentación. La forma general para hallar esta representación consiste en la selección de unsubespacio de dimensión n a partir de L2 (T ).

Teniendo en cuenta que L2 (T ) es un espacio completo separable [2], la señal x ∈ L2 (T ) sepuede representar, de manera aproximada con cualquier precisión, si la dimensión de repre-sentación se escoge suficientemente grande (n →∞), por medio de un conjunto de valores ocoeficientes xk , expresados en combinación lineal del siguiente espacio de funciones de coor-denadas, elegido adecuadamente:

x (t ) =∞∑

k

xkφk (t ) , (1.14)

dondeφk (t ) corresponde a un conjunto de funciones elegidas a priori, que conforman una baseen el espacio vectorial L2(T ), las cuales son denominadas funciones base, siendo k el orden de lafunción dentro del conjunto

φk (t )

. La descomposición en funciones base (1.14) corresponde

a la representación espectral generalizada.En forma general, las funciones base, obtenidas para la representación de señales, deben

cumplir los siguientes requerimientos:

a). La serie (1.14) debe ser convergente,

b). Los coeficientes xk : k ∈N deben tener procedimientos simples de cálculo,

c). Sus valores no deben depender del límite superior de la suma de la representación (1.14).

0.

1.1. Definiciones Básicas 13

Problemas

1. Clasificar las siguientes señales por su tipo (de potencia o de energía):

a). a sin(ωt ). b). a t e−t k (u (t )−u (t − t0)) , t0 > 0.

2. Representar en forma de una suma de funciones lineales por segmentos la señal x (t ), que

tiene el siguiente modelo matemático:

x (t ) =

0, t < 0

x0 (t /t0) , 0≤ t ≤ t0

x0, t > t0

3. Calcular para que valores de α converge la energía, ex , de la señal,

x (t ) = 30e−10αt u (t )

4. Sea

x (t ) =u (t − t0)−u (t −nt0)−kδ(t −m t0),

siendo m ,n ≥ 1. Determinar el valor de k para el cual se cumpla que:

∞∫

−∞

x (t )d t = 0

5. Descomponer en un par de funciones u (t ) la representación

a rectT (t − t0)−a/2, ∀a , t0,T ∈R

6. Determinar para la señal,

x (t ) = t 2, 0≤ t ≤ 1,

la respectiva aproximación, empleando la función de dependencia lineal

y (t ) = a t +b ,

tal que sea la mejor en el sentido del mínimo error de distancia (métrica).7. Demostrar que haciendo n→∞, las siguientes sucesiones de funciones tienden a la delta de

14 Capítulo 1. Representación de Señales y Sistemas

Dirac:

(a ). xn (t ) = (n/2)e−π|t |. (b ). xn (t ) =q

n

2πexp(−nt 2/2).

8. Describir mediante la función u (t ) las funciones representadas en la Figura 1.5

6

-

6

-

6

-A

AAAA

.

B

BBBB

0 0 0t0 t0 t1 t2t1t0

a ) b ) c )

x1(t ) x2(t ) x3(t )

t t t

Figura 1.5

9. Sea el siguiente par de funciones:

x (t ) = rectτ, y (t ) = y0e αt u (t ), ∀y0, α, τ ∈R

Dada la apertura τ, encontrar el valor del parámetro α, para el cual la distancia (1.13) sea lamínima posible.10. En un espacio de Hilbert están dados los vectores u y v , tal que ‖v ‖= 1. En analogía con la

geometría de los vectores comunes en un plano, el vector w = (u ,v )v se denomina proyecciónortogonal del vector u en la dirección v . Demostrar que el vector y = u −w es ortogonal alvector v .11. Demostrar que en un espacio real de Hilbert se cumple la desigualdad triangular, esto es,

‖x + y ‖ ≤ ‖x‖+ ‖y ‖

1.2. Representación discreta de señales 15

1.2. Representación discreta de señales

1.2.1. Descomposición en funciones ortogonales

Los sistemas ortogonales corresponden a un caso particular de sistemas de funciones indepen-dientes lineales. Más aún, cualquier sistema de este último tipo puede ser transformado a unsistema ortogonal empleando, por ejemplo el método de Gramm-Schimdt (ver ejemplo 1.6) [3].Un sistema de funciones complejas

φm (t )

se define como ortogonal en el intervalo de repre-

sentación (t i , t f ), si se cumple la relación:

t f∫

t i

φm (t )φ∗n (t )d t =

t f∫

t i

φ∗m (t )φn (t )d t =

(0, m 6= n

em n , m = n(1.15)

siendo em m = enn = em = en una magnitud de energía. Mientras, para el caso de las señales depotencia, definidas en (1.2), se tendrá:

1

t f − t i

t f∫

t i

φm (t )φ∗n (t )d t =

1

t f − t i

t f∫

t i

φ∗m (t )φn (t )d t =

(0, m 6= n

pm n , m = n

donde pm m = pnn = pm = pn es la potencia media o cuadrado de la norma de la funciónφn (t ).

Se dice que el conjunto de funciones base está normalizado si se cumple que:

t f∫

t i

|φm (t )|2d t =

t f∫

t i

|φn (t )|2d t = em n = 1, ∀m ,n

Si el conjunto es a la vez normalizado y ortogonal, entonces se denomina ortonormal.

A partir de la representación (1.14), cualquier señal de energía x (t ) se puede representar deforma aproximada en términos deφn (t ):

x (t )≈∑

n∈N

xnφn (t ) (1.16)

donde los coeficientes xn caracterizan el peso de la correspondiente función ortogonal φn (t ).Luego, la representación (1.16) de la función x (t ) corresponde a su expansión o representaciónortogonal aproximada, para la cual los valores xn se determinan de acuerdo con la condición demínimo error tomada en la aproximación.

El tipo de error comúnmente empleado en la valoración de la aproximación (1.16) es la po-tencia media de error, que en el caso particular se determina como el valor cuadrático medio(ver expresión (3.9a), cuando n = 2) de la siguiente diferencia,

ε2N (t ) =

1

t f − t i

t f∫

t1

x (t )−N∑

n=0

xnφn (t )

2

d t , siendo ε2N (t )≥ 0 (1.17)

16 Capítulo 1. Representación de Señales y Sistemas

Por cuanto, el error cuadrático medio, dado en (1.17), se expresa en función de los coeficientes

x0,x1, . . . ,xN , entonces, para su minimización, minε2N (t ), se deben hacer igual a cero todas las

respectivas derivadas parciales:

∂ (ε2N )

∂ x0=∂ (ε2

N )

∂ x1= · · ·=

∂ (ε2N )

∂ xN= 0

La derivada parcial de (1.17) por los coeficientes xk será:

∂ ε2N (t )

∂ xk=

1

t f − t i

∂ xk

t f∫

t i

x (t )−N∑

n=0

xnφn (t )

2

d t

= 0

Denotando por a = x (t ) y b =∑

n xnφn (t ), la expresión dentro del integral anterior toma laforma

|a −b |2 = (a −b ) (a −b )∗ = (a −b )

a ∗−b ∗

=

a a ∗−ab ∗−ba ∗+bb ∗

Luego, se cumple que

∂ xk

t f∫

t i

|x (t )|2 d t −N∑

n=0

t f∫

t i

x (t )x ∗nφ∗n (t )d t +

t f∫

t i

x ∗(t )xnφn (t )d t−

t f∫

t i

xnφn (t )N∑

m=0

x ∗mφ∗m d t

= 0

En virtud de la condición definida de ortogonalidad (1.15), los productos internos

∫φm (t )φ

∗n (t )d t

para todo m 6=n , serán iguales a 0, esto es,

∂ xk

t f∫

t i

|x (t )|2 d t −N∑

n=0

t f∫

t i

x (t )x ∗nφ∗n (t )d t +

t f∫

t i

x ∗(t )xnφn (t )d t −

t f∫

t i

xnφn (t )2 d t

= 0 (1.18)

De igual manera, todas aquellas componentes que no contengan el término xk , se debenigualar a cero.

1.2. Representación discreta de señales 17

Como resultado sólo se obtienen dos componentes diferentes de 0:

∂ xk

t f∫

t i

x ∗(t )xkφk (t )d t +

t f∫

t i

xkφk (t )x∗kφ∗k (t )d t

= 0

que al diferenciar por xk e intercambiando los términos se obtiene:

t f∫

t i

x ∗(t )φk (t )d t = x ∗k

t f∫

t i

φk (t )2 d t

Por último, cuando se generaliza en función del índice n , da como resultado:

xn =

t f∫

t i

x (t )φ∗n (t )d t

t f∫

t i

φn (t )2 d t

=1

pn

1

t f − t i

t f∫

t i

x (t )φ∗n (t )d t (1.19)

El numerador de (1.19) es la energía (o potencia) de la señal x (t ) y de la función base φn (t ),mientras en el denominador aparece la energía (o la respectiva potencia) de las funciones base.

De la expresión (1.18) se obtiene que el error ε2(t ) es igual a

ε2N (t ) =

1

t f − t i

t f∫

t i

|x (t )|2 d t

−N∑

n=0

t f∫

t i

x (t )x ∗nφ∗n (t )d t +

t f∫

t i

x ∗(t )xnφn (t )d t −

t f∫

t i

xnφn (t )2 d t

Además, de (1.19) resulta que

xk pn =1

t f − t i

t f∫

t i

x (t )φ∗n (t )d t

18 Capítulo 1. Representación de Señales y Sistemas

con lo cual, el error ε2(t ) se puede determinar como:

ε2N (t ) =

1

t f − t i

t f∫

t i

|x (t )|2 d t −N∑

n=0

2x ∗n xn pn −xn x ∗n pn

=1

t f − t i

t f∫

t i

|x (t )|2 d t −N∑

n=0

|x 2n |pn

= p−N∑

n=0

|x 2n |pn (1.20)

Por cuanto la potencia del error siempre es positiva, ε2(t )≥ 0, entonces, de la anterior expre-sión se deduce la siguiente desigualdad:

p≥N∑

k=0

|xk |2pk ,

conocida como la desigualdad de Bessel, la cual indica que la potencia de la aproximación de laseñal x (t ) obtenida por (1.16) es menor o, en el mejor de los casos, igual a la potencia de la señaloriginal.

De otra parte, de (1.20) se observa que al aumentar N , o sea, al aproximar la señal con con-juntos mayores ortogonales, entonces el error ε2(t ) disminuye.

Teorema 1.1 (Parseval) Por definición ε2 ≥ 0, por lo tanto, al hacer N → ∞ en (1.20), la suma∑Nk=0 x 2

k pk converge al valor del integral∫ t f

t ix 2(t )d t , luego ε2 tiende a cero. Como resultado se

tiene la siguiente igualdad:

t f∫

t i

|x (t )|2 d t =∞∑

n=1

|xn |2 = pn ,

En este caso, el conjunto ortogonal se define como completo en (t i , t f ).

Si en la expansión (1.16) la cantidad de términos N →∞, o sea,

x (t ) =∞∑

n=−∞xnφn (t ) (1.21)

entonces, la serie infinita converge hacia la función x (t ), de tal manera que el valor cuadráticomedio del error ε2(t ) de la aproximación se hace igual a 0. Por lo tanto, la representación de unafunción x (t ), dada en (1.21) por medio de un sistema base con número infinito de funcionesortogonales, se identifica con la representación generalizada de Fourier de x (t ) para el conjuntobase

φn (t ) : n ∈N

.

1.2. Representación discreta de señales 19

-

-

-

-

-

-

-

-

-

-

-

-

-

-

-

6

..

6

6

6..................

..................

66

- -

...............................................................

...............................................................

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

...

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

....

...

x (t )

×

×

×

×

×

×

T

T

T

1/T

1/T

1/T

∑∑∑φ∗1(t )

φ∗n (t ) φn (t )

φ1(t )

φ0(t )φ∗0(t )

x0

x1

xn

x (t )

Figura 1.6: Descomposición y formación ortogonal de señales

Una señal de potencia (o energía) puede ser descompuesta si el conjunto de funciones basegenera un sistema completo, para el cual los coeficientes xn se determinan por (1.19). El mismoconjunto de los coeficientes xn se denomina espectro de la señal x (t ), mientras el productoxnφn (t ) se define como la componente espectral de la señal. Cualquiera de las dos formas: laserie generalizada de Fourier (1.21) o el espectro xn (1.19) determinan unívocamente la señalx (t ).

Basados en la expresión (1.21) es posible la síntesis de señales, así en la Figura 1.6 (para pn = 1)se muestra el diagrama de un generador de señales empleando el sistema de funciones baseφn (t )

.

Por cuanto, la cantidad de sistemas ortogonales completos es inconmensurable, la eleccióndel mejor sistema base de representación tiene un amplio sentido práctico. Las siguientes sonlas recomendaciones generales a tener en cuenta en este caso:

a). El sistema base debe ser descrito analíticamente de manera simple, así que las correspon-dientes funciones ortogonales sean sencillas de generar.

b). El sistema base debe ser una tarea con solución adecuada, de manera que se facilite laresolución de problemas, tales como la representación económica de señales, la reali-zación de filtros espectrales y la disminución de costos computacionales en el proceso deseñales, entre otros.

c). Es preferible que el sistema baseφi (t )

sea multiplicativo, esto es, que se cumplan las

siguientes condiciones:

Sea φn (t ),φm (t ) ∈φi (t )

, si φk (t ) =φn (t )φm (t ), entonces,φk (t ) ∈

φi (t )

.

Sea φn (t )∈φi (t )

, siφk (t ) = 1/φn (t ), entonces,φk (t )∈

φi (t )

.

20 Capítulo 1. Representación de Señales y Sistemas

d). El sistema base debe facilitar la síntesis de algoritmos económicos (rápidos) en el sentidodel costo computacional. En particular, es preferible el empleo de sistemas conformadospor funciones ortogonales de estructura periódica, que permita su desarrollo mediantealgoritmos de naturaleza iterativa.

La elección del sistema de funciones ortogonales más conveniente depende del objetivo conque se descompone la señal compleja original. Entre los diferentes problemas que exigen estadescomposición pueden distinguirse dos orientaciones importantes:

a). La descomposición en sistemas completos de funciones ortogonales,

b). La aproximación de las señales, de tal manera que se pueda brindar la precisión deseadacon el menor número de elementos de la serie en (1.16).

En el primer caso, se difundió el empleo de las funciones exponenciales de Fourier y en par-ticular de las funciones trigonométricas: los senos y cosenos. Sin embargo, en algunos casosse emplean otros sistemas. Por ejemplo, para la discretización de señales continuas en el tiem-po se emplean bases del tipo sinc(x ). En el proceso digital de señales es muy frecuente el em-pleo de funciones constantes en segmentos de tiempo [4] (bases de Rademacher, Walsh, Paley,Hadamar y Haar).

Como ejemplos de conjuntos ortogonales en la segunda orientación se pueden analizar lospolinomios de Chebyshev, Hermite, Laguerre, Legendre, entre otros [4, 5].

1.2.2. Conjunto ortogonal completo de Fourier

! "#$"$%! &%' (&%)*% +,-. )&/$ 0'1$# ! -2 #!"#! !%-'3$ !% &% %-!#0'1$ 3!-!#4%'3$53! 3! -67 8' -' +695 "$# 1' $#3!%'3' 3! &%' )&#0' -#':'3' '#;-#'#'4!%-!5 ! "$3#<3! '##$11'# ! -' (&%)*% !% &%' !#! =&! %$ )$%-!%3#< 4< =&! 1$ !%$ / )$ !%$ 3! 1$ '#)$ 4>1-"1! ???

Fourier

Serie exponencial de Fourier. Se define a partir del conjunto ortogonal conformado por lasfunciones exponenciales complejas del tipo:

φn (t ) = e j nω0t , (1.22)

donde n ∈ 0,±1,±2, . . . se denomina armónico, siendoω0 = const 6= 0.En la determinación del valor de la constante ω0, se parte de la definición de ortogonalidad

dada por la expresión (1.15), sobre el intervalo de tiempo (t i , t f ), por lo que se tiene:

t f∫

t i

φn (t )φ∗m (t )d t =

t f∫

t i

e j nω0t e−j mω0t d t =

(0, n 6=m

en , n =m

=1

j (n −m )ω0

e j (n−m )ω0t f−e j (n−m )ω0t i

= 0, ∀n 6=m ,

=1

j (n −m )ω0e j (n−m )ω0t i

e j (n−m )ω0(t f −t i )− 1

= 0.

1.2. Representación discreta de señales 21

obteniéndose los respectivos valores de

ω0 = 2π/en , en = (t f − t i ) (1.23)

La representación exponencial de la serie Fourier para cualquier señal de energía, de (1.14),es:

x (t ) =∞∑

n=−∞xn e j nω0t , t i < t < t f (1.24)

donde cada uno de los coeficientes de la serie, teniendo en cuenta (1.19), se determinan por lasiguiente expresión:

xn =1

t f − t i

t f∫

t i

x (t )e−j nω0t d t

Se define como espectro de Fourier a la representación gráfica de los coeficientes complejosde Fourier de la función en dependencia de la frecuencia. Aunque, como antes se dijo, el es-pectro se puede hallar para cualquier sistema base de representación, realmente, al espectro deFourier se le ha encontrado interpretación física y, por lo tanto, uso práctico en la ingeniería. Enadelante, cuando se refiera al espectro se tendrá en cuenta sólo la representación espectral deFourier. En la Tabla 1.1 se muestran los coeficientes de Fourier para algunas señales comunes.

Señal Definición Coeficiente xn

Cuadrada simétrica

1, |t |<T

4

−1,T

4< |t |< T

2

(sinc(nπ/2), n 6= 0

0, n = 0

Pulsos rectangulares

+1, |t |<

τ

2

0,τ

2≤ |t |< T

2

τ

Tsinc(nπτ/T )

Triangular simétrica 1−4|t |/T, |t |< T /2

(sinc(nπ/2), n 6= 0

0, n = 0

Diente de sierra 2t /T, |t |<T /2

j (−1)

nπ, n 6= 0

0, n = 0

Sinusoide rectificada |sinω0t |

2

π(1−n ), n ∈ par

0, n ∈ impar

Tabla 1.1: Coeficientes de descomposición espectral de Fourier

German
Typewriter
2

22 Capítulo 1. Representación de Señales y Sistemas

Ejemplo 1.7 Hallar la serie exponencial de Fourier, considerandoa 6=b , para la función:

x (t ) =

a , t1−τ

2< t < t1

b , t1 < t < t1+τ

2,

Aplicando(1.23) se obtiene

en = ((t1+τ/2)− (t1−τ/2)) =τ,

siendoω0 = 2π/en = 2π/τ.Los coeficientes espectrales se definen a partir de(1.19):

xn =1

τ

t1+τ/2∫

t1−τ/2

x (t )e−j nω0t d t =1

τ

t1∫

t1−τ/2

a e−j nω0t d t+

t1+τ/2∫

t1

b e−j nω0t d t

xn =1

τ

a e−j nω0t

−j nω0

t1

t1−τ/2+

b e−j nω0t

−j nω0

t1+τ/2

t1

!

Al hacera =−b y t1 = 0, se tiene que

xn =1

τ

a e−j nω0t

−j nω0

0

−τ/2−

a e−j nω0t

−j nω0

τ/2

0

!

=−a

j nω0τ

e−j nω0t

0−τ/2− e−j nω0t

τ/20

=−a

j nπ(1− cos nπ)

con lo cual finalmente se tiene que

xn =

−2a

j nπ, n ∈ impar

0, n ∈ par

En cambio, sia =−b , perot1 = τ/2, el valor de los armónicos será:

xn =1

τ

a e−j nω0t

−j nω0

τ/2

0

− a e−j nω0t

−j nω0

τ

τ/2

!

=−a

j nω0τ

0− e−j nω0t

ττ/2

=−a

nπsin nπ

= 0, ∀n .

Finalmente, la representación completa en forma de serie exponencial de Fourier(1.16), para la funcióndada en el intervalo(t1−τ/2, t1+τ/2), es la siguiente:

x (t ) =∞∑

n=−∞xn e j nω0t

=2a

e−jπt +

e−j 3πt

3+

e−j 5πt

5+ · · ·− e jπt − e j 3πt

3− e j 5πt

5− · · ·

En la Figura 1.7 se muestra la señal dada en el tiempo y sus respectivos coeficientes obtenidos en laúltima expresión para la serie exponencial de Fourier.

1.2. Representación discreta de señales 23

-

.

6

t

x (t )

a

b

t1− τ2 t1 t1+τ2

(a) Representación en el tiempo

8ω0 6ω0 4ω0 −2ω0 2ω0 4ω0 6ω0 8ω0

0

0−1

−0.5

xn

0.5

(b) Representación espectral

Figura 1.7: Meandro simple y su descomposición espectral.

El ejemplo 1.7 se puede extender a un tren de pulsos cuadrados x (t ) = a∑

k rectτ (t −k T ) ,siendoω0 = 2π/T.

Al reemplazar la anterior relación en (1.19) se obtiene:

xn =1

T

T /2∫

−T /2

x (t )e−j nω0t d t =1

T

τ/2∫

−τ/2

a e−j nω0t d t

xn =−a

j nω0T

e−j nω0τ/2− e j nω0τ/2

= 2

a

nω0Tsin

nω0τ

2

xn =aτ

T

sin(nω0τ/2)

nω0τ/2=

Tsinc (nω0τ/2) , n 6= 0 (1.25a)

x0 =1

T

τ/2∫

−τ/2

a d t =aτ

T(1.25b)

El conjunto de valores, definidos por (1.25a) y (1.25b), que determina el espectro de un trende pulsos cuadrados, está representada en las Figuras 1.8(a) y 1.8(b). Para este caso, se definecomo el ancho de banda del lóbulo principal del espectro a la distancia que hay entre los dosprimeros ceros de la función (1.25a) e igual a∆ω= 2π/τ.

La influencia de los parámetros básicos de la función pulso cuadrado, como son la amplituda , el período T y el ancho del pulso en el tiempoτ, sobre la forma del respectivo espectro (1.25a),se da en los siguientes aspectos:

– La amplitud a no influye sobre la forma de la envolvente espectral y es su factor de escala.

– Sea el período T = var, tal que se conserva la relación τ/T = const. Si se tienen dos señalescon períodos respectivamente diferentes, tales que T1= 2T2, para las cuales se cumple que

ω01 = 2π/T1, ω02 = 2π/T2 = 2 (2π/T1)

24 Capítulo 1. Representación de Señales y Sistemas

−4 −3 −2 −1 0 1 2 3 4−0.2

0

1

−4 −3 −2 −1 0 1 2 3 4−0.2

0

1

−4 −3 −2 −1 0 1 2 3 4−0.2

0

1

T = 0.1

T = 0.15

T = 0.3

(a) Espectros para τ/T = var,τ= const.

−4 −3 −2 −1 0 1 2 3 4

0

1

−4 −3 −2 −1 0 1 2 3 4

0

1

−4 −3 −2 −1 0 1 2 3 4

0

1

τ/T = 1

τ/T = 2

τ/T = 0.5

(b) Espectros para τ/T = var, T = cons t .

Figura 1.8: Acomodamiento espectral con el cambio de parámetros de un tren de pulsos cuadrados

entonces, ω01 = ω02/2 y ∆ω = 2π/τ = const . Luego, la distancia entre cada una de lascomponentes espectrales cambia de modo inversamente proporcional al aumento delvalor del período T , sin embargo, la forma de la envolvente del espectro no cambia, mien-tras τ/T = const .

– Sea τ= var, τ/T = const, por lo que,ω0 = 2π/T. Si se analizan dos señales con ancho depulso respectivamente diferentes, para las cuales se cumple que

τ1 = 2τ2, ∆ω1 = 2π/τ1, ∆ω2 = 2π/τ2

entonces, ∆ω1 = ∆ω2/2. En este caso, la distancia entre las componentes espectrales esconstante para cualquier valor de τ, por lo cual las respectivas formas del espectro cam-bian. El ancho de banda del lóbulo principal cambia de modo inversamente proporcionalal valor de τ.

Los espectros correspondientes a cada uno de los casos anteriormente analizados estánrepresentados en la Figura 1.8.

Serie trigonométrica de Fourier. A partir de la igualdad conocida de Euler, = cosθ + j sinθ ,la serie exponencial de Fourier, que representa a la función x (t ) en el intervalo (t i , t f ), se puededescomponer en la suma trigonométrica del tipo:

x (t ) = a 0+

∞∑

n=1

a n cos(nω0t )+∞∑

n=1

bn sin(nω0t ) (1.26)

Se puede llegar de la serie exponencial de Fourier a su representación trigonométrica reem-plazando:

a n = 2ℜxn , bn =−2jℑxn, ∀n 6= 0, (1.27)

German
Typewriter
0.5

1.2. Representación discreta de señales 25

mientras, a 0 = x0, b0 = 0. En cualquier caso se cumple que

xn = (a n − j bn )/2

Cuando se aplica la definición (1.19) de los coeficientes xn , notados en (1.27), se obtiene:

a n =

t f∫

t i

x (t )cos (nω0t )d t

t f∫

t i

cos2 (nω0t )d t

=2

t f − t i

t f∫

t i

x (t )cos (nω0t )d t , n 6= 0

bn =

t f∫

t i

x (t )sin (nω0t )d t

t f∫

t i

sin2(nω0t )d t

=2

t f − t i

t f∫

t i

x (t )sin (nω0t )d t

El coeficiente inicial se calcula como

a 0 =

t f∫

t i

x (t )d t

t f∫

t i

d t

=1

t f − t i

t f∫

t i

x (t )d t .

La serie trigonométrica de Fourier en (1.26) se puede representar de manera alterna:

x (t ) =∞∑

n=0

cn cos (nω0t +θn ) ,

donde

cn =

(pa 2

n +b 2n = 2|xn |= 2

pxn x ∗n , n 6= 0

x0, n = 0

θn = tan−1

−bn

a n

= tan−1

ℑxnℜxn

La representación de una señal de energía por la serie de Fourier en un intervalo finito (t i , t f )

se puede extender para las señales periódicas (suponiendo que el valor de la energía en cualquierintervalo o período T sea finito), para las cuales se cumple la condición e jϕ = e j (ϕ+2π/T ).

26 Capítulo 1. Representación de Señales y Sistemas

Todas las expresiones anteriores son válidas para las funciones periódicas reemplazando elintervalo de definición de las señales aperiódicas [t i , t f ] por el valor del período T de las fun-ciones periódicas.

Cabe anotar que la representación mediante las series de Fourier converge en x (t ), en el sen-tido en que el error cuadrático medio tiende a cero de manera uniforme y absoluta cuando lacantidad de términos de la aproximación tiende a infinito, siempre y cuando la función x (t )cumpla las condiciones de Dirichlet [6]:

a). x (t ) es absolutamente integrable sobre cualquier intervalo de análisis T , esto es,

λ+T∫

λ

|x (t )|d t <∞ (1.28)

b). x (t ) tiene un número finito de máximos y mínimos sobre cualquier intervalo finito deanálisis T .

c). x (t ) sólo tiene un número finito de discontinuidades de primer tipo sobre cualquier in-tervalo finito de análisis T .

Teorema 1.2 (Riemman) Si la función núcleo integral x (t ) cumple las condiciones de Dirichlet y,en forma general, si ésta es absolutamente integrable en el intervalo (a ,b ), entonces tendrá lugarel siguiente límite [7]:

lımv→∞

b∫

a

x (ζ)cos(vζ)dζ= lımv→∞

b∫

a

x (ζ)sin(vζ)dζ= 0.

−1

0

1

−1

0

1

−1

0

1

−1

0

1

n = 1

n = 3

n = 5

n = 13

Figura 1.9: Representación gráfica del efecto deGibbs para un pulso rectangular

Como corolario del teorema 1.2 se tieneque los coeficientes a n , bn y, por lo tanto, cn

tienden a cero cuando n→∞.En puntos de discontinuidad finita (del

primer tipo) en la función x (t ), la serie deFourier converge en la media aritmética delos valores extremos de la discontinuidad. Amedida que se aumentan los términos N dela serie, el valor del error cuadrático integraldecrece excepto en la vecindad inmediatade la discontinuidad finita, en cuya cercaníala serie deja de converger, aunque el errorcuadrático medio tienda a cero. Cualquieraque sea la cantidad máxima finita de térmi-nos tomados de esta serie, la representaciónaproximativa siempre tendrá un paso conti-nuo entre los puntos extremos de la vecindadde la discontinuidad. Este comportamiento se conoce como fenómeno de Gibbs [8].

1.2. Representación discreta de señales 27

En la Figura 1.9 se muestra la aproximación de una señal rectangular (−) y su respectivo valorde error de aproximación (−−).

En general, se considera que las series de Fourier tienen amplia aplicación, entre otros, porlos siguientes motivos [7]:

a). Éstas son oscilaciones simples y están determinadas para todo valor de t .

b). Las oscilaciones armónicas seno y coseno son las únicas funciones del tiempo que con-servan su forma al pasar por cualquier dispositivo lineal, variando sólo su fase y su ampli-tud.

c). La descomposición en senos y cosenos permite aplicar el método simbólico usualmentedesarrollado para el análisis de circuitos lineales.

Finalmente, se debe tener en cuenta que en la representación espectral, dada un porción de laseñal sobre el intervalo finito de tiempo T , es imposible distinguir componentes de frecuenciaque estén por debajo de la siguiente relación:

∆f =ω0

2π=

1

T

El valor∆f es llamado resolución de frecuencia.

1.2.3. Otros conjuntos ortogonales completos

Existen funciones, que conforman sistemas base completosφn (t )

, siendo ortonormales en

los intervalos indicados con valor de pesop

w (t ), esto es, que se cumpla la condición:

φn (t )

=np

w (t )ψn (t )o

, ∀n (1.29)

donde w (t ) es la función de peso y ψn (t ) son las funciones sobre los cuales se forman lossistemas base ortogonales. Como consecuencia de (1.29), la definición de ortogonalidad (1.15)sobre el intervalo T , cambia por:

T

ψm (t )ψ∗n (t )w (t )d t =

(0, m 6= n

en , m = n, en =

p

w (t )ψn (t )

2=

T

pw (t )ψn (t )

2d t

Así mismo, cambia la definición de los coeficientes (1.19) de la expansión (1.14):

xn =1

pw (t )ψn (t )

2

T

x (t )p

w (t )ψ∗n (t )d t . (1.30)

Particular importancia tienen las funciones de Walsh, para las cuales c (l ) corresponde al tér-mino l representado por el valor c en código Gray, mientras rn (t ) son las funciones de Rade-mascher [4]. La descomposición de una señal, x (t ), en este caso tiene la forma:

x (t ) =∞∑

n=0

xn waln (t ) (1.31)

28 Capítulo 1. Representación de Señales y Sistemas

donde los coeficientes de la serie Fourier–Walsh (1.31), determinados por (1.19) y (1.30),

xn =

1/2∫

−1/2

x (t )waln (t )d t

conforman el espectro de la señal x (t ) por la base Walsh, el cual es denominado S-espectro(sequency spectrum).

Ejemplo 1.8 Determinar elS-espectro de la señalx (t ) = sin 2πt ,−∞< t <∞, empleando el conjunto

waln (t ) , 0≤ t < 1, n = 0, 1, . . . , 31

Debido a la imparidad de la funciónx (t ) respecto al puntot = 1/2, todos los coeficientes para lasfunciones pareswal2n (t ) = 0, al igual que los coeficientes de las funciones impares3, 7, 11, 15, 19, 23, 27, 31.Los demás coeficientes tienen los siguientes valores:

x1 =

1/2∫

−1/2

x (t )wal1 (t )d t =

1/2∫

−1/2

sin (2πt )wal1 (t )d t = 2

1/2∫

0

sin (2πt )d t =2

π≈ 0.637

x5 =

1/2∫

−1/2

sin (2πt )wal5 (t )d t = 4

1/8∫

0

sin (2πt )d t −2

3/8∫

1/8

sin (2πt )d t ≈−0.264

En forma similar, se obtienen los siguientes coeficientes:

x9 ≈−0.052, x13 ≈−0.127, x17 ≈−0.012, x21 ≈−0.005,

x25 ≈−0.026, x29 ≈−0.063

De igual manera, se puede establecer elS-espectro de la señalx (t ) = cos 2πt , para la cual se obtienelos siguientes coeficientes:x2 ≈ 0.637, x6 ≈ 0.264, x10 ≈−0.052, x14 ≈ 0.127, x18 ≈−0.012, x22 ≈ 0.005. Losdemás coeficientes son iguales a cero. En la Figura 1.8 se observan las respectivas representaciones.

En general, elS-espectro de la funciónx (t ) = sin (2πt +θ ) se obtiene a partir de la relación:

sin (2πt +θ ) = sin (2πt )cosθ + cos (2πt )sinθ

por lo cual es claro, que cambiando el desfaseθ cambian los valores de los coeficientes de descomposiciónde la serie de Walsh.

0 15−.2

0

.6

0 15−.2

0

.6xn

xn

funciónsin

funcióncos31 n

31 n

Ejemplo de diferentes bases de descomposición espectral

1.2. Representación discreta de señales 29

Problemas

12. Dada la señal

x (t ) = e t , ∀t ∈ [−1,1]

Encontrar los tres primeros coeficientes x i , i = 0,1,2 de la respectiva serie de descomposicióntrigonométrica de Fourier. Calcular la norma del error absoluto de aproximación en la forma,

x −2∑

k=0

xkφk

Estimar el error relativo de aproximación, en la formax −

∑2k=0 xkφk

‖ x ‖

13. Demostrar la ortogonalidad del conjunto formado por el principio

sgn[sin(2mπθ )], ∀m ∈Z .

14. Dada la señal compleja periódica x (t ), definida en el intervalo de tiempo −T /2≤ t ≤ T /2,

que tiene la forma,

x (t ) = x1(t )+ j x2(t )

Demostrar que cuando la función x1(t ) es par, mientras la función x2(t ) es impar, entonces loscoeficientes xn de la serie de Fourier, para cualquier n , serán valores reales.15. Calcular los coeficientes de la serie compleja de Fourier para las siguientes funciones de

naturaleza periódica, con periódo [−π,π]:

a). x (t ) = t

b). x (t ) = |sin(t )|

c). x (t ) = sgn(t )

d). x (t ) = |cos2(t /2)|

e). x (t ) = exp(j t /2)

16. Calcular los coeficientes de la serie exponencial de Fourier de la señal del ejemplo 1.7,

cuando no se tiene que a 6=−b , con a ,b 6= 0 y t1 6= 0.

30 Capítulo 1. Representación de Señales y Sistemas

17. La señal x (s ), que depende del argumento sin dimensión s en el intervalo determinado

entre, −1/2 ≤ s ≤ 1/2, se representa por la dependencia x (s ) = 16s 2. Calcular los tres primeroscoeficientes de la serie (1.31).18. Calcular los coeficientes x i , para i = 0,1,2 de la serie generalizada de Fourier por funciones

de Walsh (1.31), para la función x (t ) = e t .19. Hallar la expansión de la función x (t ) = t mediante la serie trigonométrica de Fourier en el

intervalo cerrado (0,2).20. Dadas las siguientes funciones:

a). Una sucesión periódica de pulsos rectangulares con amplitud a = 2m , m ∈ Z , aperturaτ= 1/a , y período unitario,

b). x (t ) = 45exp(−0.7|t |)|, con t ≤ |1/2|

c). x (t ) = exp(t ) con t ≤ |1|

Determinar el S-espectro empleando la serie de Walsh,

¦waln (t ),0≤ t < 1,n = 0,1,2, . . . ,N , N = 2k − 1, k ∈Z

©, siendok >m

21. Hallar el S-espectro de la señal pulso períodico y demostrar que es finito (a diferencia del

espectro de Fourier).

1.3. Representación integral de señales 31

1.3. Representación integral de señales

La representación discreta, que se analiza en el numeral §1.2, en algunos casos, se restringea la descomposición de señales periódicas, o bien a señales aperiódicas pero definidas sobreintervalos finitos de tiempo. Esta última restricción es superable al emplear la representaciónintegral, que se da en forma de transformadas integrales y que se lleva a cabo para sistemas basecontinuos. La generalización de (1.14), en forma de representación continua, para cualquiersistema base o transformada directa generalizada de Fourier, se puede escribir en el dominio Tcomo sigue:

v (s ) =

T

x (t )θ (s , t )d t , s ∈S (1.32)

siendo s el parámetro generalizado del dominio S y θ (s , t ) el núcleo base dual con respecto alnúcleo base φ(s , t ). La función v (s ) es una representación continua de x (t ) análoga a los coe-ficientes xn en (1.14), que corresponde a la densidad, la cual caracteriza la distribución de x (t )con relación a θ (s , t ) en las diferentes regiones de S.

De manera recíproca, se determina la transformada inversa generalizada de Fourier,

x (t ) =

S

v (s )φ(s , t )d s , t ∈ T (1.33)

Si existe la base dual θ (s , t ), las ecuaciones (1.32) y (1.33) analizadas en conjunto correspon-den al par de transformadas de representación integral de señales, las cuales, en forma general,no exigen que θ (s , t ) y φ(s , t ) pertenezcan a L2(T ). Sin embargo, se conserva la representaciónde v (s ) para cada valor de s como un funcional lineal de x (s ).

Reemplazando x (t ) de (1.33) en (1.32) e intercambiando el orden de integración se obtiene lacondición conjunta que deben cumplir los núcleos base duales:

x (t ) =

S

T

x (τ)θ (s ,τ)φ (t ,s )dτd s =

T

K (t ,τ)x (τ)dτ¬ f K x (t ) (1.34)

donde K (t ,τ) =∫

Sθ (s ,τ)φ (t ,s )d s .

En forma general, el funcional lineal f K x (t ) no es acotado ni continuo, por lo tanto, no es deesperar que exista una función, perteneciente a L2(T ) y definida en τ, que cumpla la condición(1.34) para cualquiera que sea la señal x (t ).

La solución a este problema está en la representación de la señal x (t ), mediante el integral deDuhamel (1.10), que emplea la función generalizada singular δ(t ) de la siguiente forma:

f K x (t )= x (t ) =

T

δ (t −τ)x (τ)dτ, t ∈ T

Dado un núcleo base, de (1.34) se establece la restricción que debe cumplir el respectivo nú-

32 Capítulo 1. Representación de Señales y Sistemas

cleo dual:∫

S

φ (t ,s )θ (s ,τ)d s = δ (t −τ) (1.35)

De la misma manera, al reemplazar (1.32) en (1.33), se tiene la condición:

T

θ (s , t )φ (t ,σ)d s =δ (s −σ) (1.36)

que debe cumplir, tanto θ (s , t ) como φ (t ,σ) , para conformar un par de núcleos conjugadosbase. Sin embargo, el análisis de (1.35) y (1.36) muestra que ambos núcleos al mismo tiempo nopueden pertenecer a L2(R).

Algunos núcleos base tienen la propiedad por la cual la transformada de la función en el do-minio t , siendo integrable y perteneciente a L2(T ), siempre genera funciones en el dominio stambién integrables (pertenecientes a L2(S)). La correspondencia completa entre las funcionesdeterminadas en los dominios de t y s se provee con los núcleos autoconjugados, esto es [9],

θ ∗(s , t ) =φ (t ,s ) (1.37)

Dadas dos transformaciones vx (s ) y vy (s ) de las señales x (t ) e y (t ), respectivamente, en-tonces,

¬vx (s ) ,vy (s )

¶=

S

vx (s )vy (s )d s =

S

T

T

x (t )y ∗ (τ)θ (s , t )θ ∗ (s ,τ)dτd t d s

que asumiendo la condición (1.37) sobre los núcleos autoconjugados se tiene que,

¬vx (s ) ,vy (s )

¶=

T

T

x (t )y ∗ (τ)δ (t −τ)d t dτ

=

T

x (t )y ∗ (t )d t =

x (t ) ,y (t )

De lo anterior se observa, que el valor del producto escalar se mantiene igual al cambiar deldominio t al dominio s .

1.3.1. Transformada de Fourier

La transformada integral de Fourier, o transformada de Fourier (TF), se obtiene asumiendo encalidad de funciones base las siguientes:

φ (t ,s ) = e j s t , θ (t ,s ) = e−j s t (1.38)

para T ⊂ (−∞,∞) y S ⊂ (−∞,∞).

1.3. Representación integral de señales 33

Por cuanto, para la función generalizada ocurre la siguiente relación límite

lımΩ→∞

=

Ω∫

−Ω

e j s t d s = lımΩ→∞

2sinΩt

t=δ (t )

entonces, el par de funciones (1.38) cumple las restricciones (1.35) y (1.36), impuestas a los nú-cleos de base conjugados. El parámetro s caracteriza la frecuencia de cada función base, y usual-mente, se nota por alguna de las variables de frecuencia angularω, o bien, de frecuencia lineal2π f .

Como se indica en el numeral §1.2.2, el conjunto de las series de Fourier permite representar,tanto la señal aperiódica en cualquiera de los puntos comprendidos en el intervalo de tiempo[t i , t f ] como las señales periódicas con período T . Sin embargo, para el caso en que las fun-ciones aperiódicas extiendan su representación a todo el eje del tiempo (−∞,∞) se obtiene,para cualquiera de los coeficientes del sistema (1.27), una indeterminación al reemplazar En de(1.23).

La señal x (t ), definida en el intervalo finito de tiempo [t i , t f ], se puede representar como unasuma de funciones exponenciales pero para todo el intervalo (−∞,∞) por medio de una nuevafunción periódica xT (t ) con período T , que corresponde a la señal x (t ) repetida cada T segun-dos, como se ilustra en la Figura 1.10. La señal original puede obtenerse de nuevo haciendoT →∞, es decir,

x (t ) = lımT→∞

xT (t )

0

0

0

0

x (t )

xT (t )

T

T

2T 3T 4T

Figura 1.10: Representación periódica de funcionesaperiódicas

La serie exponencial de Fourier que repre-senta a la función x (t ) es:

xT (t ) =∞∑

n=−∞xn e j nω0t ,

donde

xn =1

T

T /2∫

−T /2

xT (t )e−j nω0t d t , ω0 =

T

Debido a que T → ∞, entonces, ω0 → 0.Luego, antes de llevar al límite, los siguientesajustes se deben realizar para que las compo-nentes xn no se hagan cero. En particular, seintroducen las siguientes notaciones:

ωnÍ=nω0,

X (ωn )Í= T xn

34 Capítulo 1. Representación de Señales y Sistemas

Entonces, las anteriores definiciones se convertirán respectivamente en:

xT (t ) =1

T

∞∑

n=−∞X (ωn )e

jωn t ,

X (ωn ) =

T /2∫

−T /2

xT (t )e−jωn t d t

La distancia entre las líneas adyacentes en el espectro de línea, obtenida para la señal límitexT (t ), se nota por∆ω= 2π/T, la cual se puede reemplazar en la anterior serie, así:

xT (t ) =∞∑

n=−∞X (ωn )e

jωn t ∆ω

Al realizar la operación del límite, cuando T →∞, las líneas contiguas discretas del espectrode xT (t ) se acercan hasta formar un intervalo continuo de valores. La suma infinita de la anteriorexpresión resulta en la integral ordinaria de Riemann, así que:

x (t ) = lımT→∞

xT (t ) = lımT→∞

∞∑

n=−∞X (ωn )e

jωn t ∆ω

que se convierte en la expresión conocida como la Transformada Inversa de Fourier:

x (t ) =1

∞∫

−∞

X (ω)e jωt dωÍ=F−1 X (ω) (1.39)

De igual manera, se puede obtener la Transformada Directa de Fourier:

X (ω) =

∞∫

−∞

x (t )e−jωt d tÍ=F x (t ) (1.40)

El par de transformadas (1.39) y (1.40) representa la señal x (t ) como una suma continua defunciones exponenciales cuyas frecuencias están en el intervalo (−∞,∞). La amplitud relativade los componentes a cualquier frecuenciaω es proporcional a X (ω).

Cabe anotar, que cuando la señal x (t ) representa voltaje, entonces, X (ω) tiene las dimen-siones de voltaje por tiempo. Como la frecuencia tiene unidades de tiempo inverso, luego, puedeconsiderarse a X (ω) como un espectro de densidad de voltaje o, en forma más general, como lafunción densidad espectral de x (t ) (o simplemente FDE).

A cada señal se le puede hallar su respectiva FDE por medio de la Transformada Directa deFourier dada en (1.40), cuyo sentido físico queda claro de (1.39) para la TF inversa. En estarelación, el valor de x (t ) se puede calcular, aproximadamente, cambiando la integral por una

1.3. Representación integral de señales 35

sumatoria (método de los rectángulos [10]) de la siguiente manera:

x (t )≈ ∆ω2π

∞∑

n=−∞X (n∆ω)e j n∆ωt

≈ ∆ω2π

∞∑

n=−∞X (n∆ω)cos(n∆ωt )+ j

∞∑

n=−∞X (n∆ω)sin(n∆ωt )

!(1.41)

La aproximación (1.41) muestra que cualquier señal x (t ) se puede representar mediante unconjunto infinito de sinusoides y cosinusoides con frecuencias n∆ω con coeficientes comple-jos, en forma general. De la aproximación (1.41) se llega a la transformada de Fourier inversahaciendo∆ω→ 0.

Al interpretar las ecuaciones (1.39) y (1.40), teniendo en cuenta la forma obtenida en (1.41) sepuede decir que cada señal es la suma de funciones exponenciales complejas, cuya parte realson cosinusoides y la parte imaginaria son sinusoides con coeficientes x (n∆ω) determinadospor la transformada de Fourier directa.

Por último, cabe anotar que la función de densidad espectral de una señal dada x (t ) se puedevisualizar representando gráficamente todo el conjunto de los respectivos coeficientes X (n∆ω),representados para el dominioω.

Ejemplo 1.9 Determinar la FDE de la función pulso rectangularx (t ) = a rectτ(t ).Usando la TF(1.40), se obtiene:

X (ω) =

∞∫

−∞

a rectτ(t )e−jωt d t = a

τ/2∫

−τ/2

e−jωt d t

=a

jω(e jωτ/2− e−jωτ/2) =

aτsin(ωτ/2)

ωτ/2

X (ω) = aτsinc(ωτ/2).

Existencia de la transformada de Fourier. Si una señal x (t ) cumple las condiciones de Dirich-let en cualquier intervalo de tiempo finito se puede demostrar la existencia de la Transformadade Fourier, esto es, si se cumplen las condiciones descritas en el numeral §1.2.2, a partir delanálisis de la última condición, se puede decir que la transformada de Fourier se puede usarpara representar unívocamente cualquier señal real de energía. Estas condiciones son tambiénsuficientes para la convergencia de las series de Fourier en la representación de cualquier señalde potencia en el intervalo de tiempo (0,T ).

Transformada de Fourier de señales periódicas. La función xT (t ) periódica con período Tpuede expresarse por su serie exponencial de Fourier:

xT (t ) =∑

n

xn e j nω0t , dondeω0 =2π

T.

36 Capítulo 1. Representación de Señales y Sistemas

Tomando la TF directa en la última ecuación

FxT (t )=F(∑

n

xn e j nω0t

)

Si se tiene en cuenta la linealidad (1.4) de la transformada de Fourier, entonces:

FxT (t )=∑

n

xnF¦

e j nω0t©

Además,

F−1 δ(ω±ω0)=1

∞∫

−∞

δ(ω±ω0)ejωt dω=

1

2πe∓jω0t ,

luego, transformando ambos lados de la última ecuación, se tiene

F¦F−1δ(ω±ω0)

©=

1

2πFe∓jω0t

o intercambiando términos,

Fe∓jω0t = 2πFF−1δ(ω±ω0)= 2πδ(ω±ω0)

entonces,

FxT (t )=∑

n

xnF¦

e∓j nω0t©= 2π

n

xnδ(ω±ω0),

Es decir, la FDE de una señal periódica consiste en la sumatoria de un conjunto de funcionesimpulsos, multiplicados cada uno por el coeficiente 2π y localizados en las frecuencias armóni-cas.

Propiedades de la TF

a). Linealidad. Sea Xn (ω) =F xn (t ), entonces

F(∑

n

a n xn (t )

)=∑

n

a n Xn (ω), ∀a n = const . (1.42)

b). Conjugada compleja.

Fx ∗(t )=X ∗(−ω)

c). Simetría. Sea

x (t ) = xℜ(t )+ j xℑ(t )

siendoF xℜ(t )= Xℜ(ω) yF xℑ(t )= Xℑ(ω). Teniendo en cuenta la propiedad descrita

1.3. Representación integral de señales 37

de linealidad (1.42), se obtiene, entonces, X (ω) =Xℜ(ω)+ j Xℑ(ω).

d). Dualidad. SeaF x (t )=X (ω), entonces (Figura 1.11)

FX (t )= 2πx (−ω)

0 0

00

00

00

x (t ) X (ω)

X (t ) x (ω)

−ωmax ωmax

t

t

ω

Figura 1.11: Propiedad de dualidad de la TF

e). Escala de coordenadas. Figura 1.12

Fx (αt )= X (ω/α)

|α|

0

0t

t

x (t )

ω

ω

X (ω)

x (αt ) X (ω/α)|α|

Figura 1.12: Propiedad de escala de la TF

38 Capítulo 1. Representación de Señales y Sistemas

f). Desplazamiento en el tiempo (retardo).

Fx (t − t0)= X (ω)e−jωt0 (1.43)

g). Desplazamiento de frecuencia (modulación).

Fx (t )e±jω0t = X (ω∓ω0) (1.44)

Por cierto, a la función δ(t ) desplazada en el tiempo t0 le corresponde:

Fδ(t − t0)=

∞∫

−∞

δ(t − t0)e−jωt d t = e−jωt0

Si t0 = 0, entonces,F δ(t )= 1.

En caso de tener solamente la parte real,

Fx (t )ℜe−jω0t =Fx (t )cos(ω0t )=F¨

x (t )

e jω0t + e−jω0t

2

«,

usando la propiedad de desplazamiento de frecuencia se obtiene:

x (t )ℜe−jω0t ©=

1

2(X (ω+ω0)+X (ω−ω0))

h). Diferenciación.

F

d

d tx (t )

= jωX (ω) (1.45)

i). Integración.

F

t∫

−∞

x (τ)dτ

=

1

jωX (ω)+πX (0)δ(ω) (1.46)

donde X (0) =

∞∫

−∞

x (t )d t .

j). Relación de Parseval. El reemplazo de (1.38) en (1.37) muestra que la base de Fourier esautoconjugada, por lo que se obtiene la relación,

⟨X ,Y ⟩=

x ,y

que establece la dualidad tiempo-frecuencia. En el caso, cuando x = y , entonces se ob-

1.3. Representación integral de señales 39

tiene,

∞∫

−∞

X (ω)X ∗(ω)dω=1

∞∫

−∞

|X (ω)|2dω= 2π

∞∫

−∞

x 2 (t )d t = ex (1.47)

Discretización uniforme

El empleo de sistemas discretos en campos donde las señales son continuas supone su pre-via acomodación, esto es, la discretización de las señales. El modelo conveniente para la dis-cretización ideal, o muestreo de una señal continua xc (t ), está dado por su multiplicación conalguna señal periódica de discretización xd (t ), con el fin de obtener la señal discretizada x (k∆t ):

x (k∆t ) = xc (t )xd (t ) =∑

k

xc (k∆t )δ(t −k∆t ) (1.48)

donde xd (t ) =∑∞

k=−∞δ (t −k∆t ), siendo∆t el período de discretización.A partir de la expresión (1.48) se observa que la señal discretizada x (t ) se define solamente en

los momentos equidistantes de tiempo t = k∆t , luego entonces, parte de la información de laseñal original xc (t ) se pierde durante su discretización.

Teorema 1.3 (Discretización de Kotelnikov.) Sea una señal continua xc (t ), para la cual no se con-sideran componentes espectrales mayores aωmax = 2π f max[r a d /s ], donde f max es el máximo val-or de frecuencia para la cual X (ω) 6= 0, entonces, toda la información de la señal continua estaráenteramente contenida en los valores xc (n∆t ), asegurando que se cumpla la desigualdad:

∆t ≤ 1/2f max (1.49)

El teorema 1.3 permite representar la señal continua xc (t ) en forma de la serie:

xc (t ) =∞∑

k=−∞xc (k∆t )

sin (ωmax(t −k∆t ))

ωmax(t −k∆t )(1.50)

Al comparar la serie (1.50) con la representación (1.14), se observa que las funciones base dedescomposición son las siguientes:

φk (t ) =sin (ωmax(t −k∆t ))

ωmax(t −k∆t )

Dado el conjunto base, la serie de Kotelnikov (1.50) permite el restablecimiento de la funcióninicial xc (t ), para cualquier momento del tiempo t , que este definido dentro del intervalo deanálisis. Sin embargo, el restablecimiento de xc (t ) exige realizar la sumatoria sobre una cantidadinfinita de términos, lo cual prácticamente es imposible. De otra manera, la implementación delteorema de discretización conlleva inevitablemente a errores de representación.

Cabe anotar, que los valores sucesivos de los tiempos discretización uniforme, descritos porla malla n∆t : n ∈Z, están separados a un intervalo constante e igual a∆t , cumpliendo (1.49),por lo que en la práctica es común normalizar su valor, esto es, xc (n∆t ) = xd [n ].

40 Capítulo 1. Representación de Señales y Sistemas

Función densidad espectral de potencia (DEP). Describe la distribución de la potencia enfunción de la frecuencia y es importante para el análisis de las señales de potencia:

Sx (ω) = lımT→∞

|XT (ω)|2T

≥ 0

donde x (t ) se supondrá que es finita en el intervalo (−T /2,T /2) y XT (ω) = Fx (t )rect(t /T ).Para el caso de las funciones periódicas se obtiene:

Sx (ω) = 2π∑

n

|xn |2δ(ω−nω0).

La DEP de una función periódica es la serie de funciones impulso cuyos coeficientes de pesocorresponden a la magnitud de los respectivos coeficientes de la serie de Fourier.

1.3.2. Transformada de Laplace

El análisis de algunas señales x (t ), mediante la TF (1.39), se dificulta en la medida en que nocumplen la condición débil de Dirichlet (1.28), esto es, no son absolutamente integrables. Eneste caso, se puede hallar la convergencia, si la señal se multiplica por una función que acote losvalores extremos, por ejemplo, por una curva exponencial del tipo, e−c t , en la cual la constantec > 0 se escoge de tal manera que asegure la condición de integrabilidad absoluta del productox (t )e−c t , entonces, la densidad espectral de potencia (1.39) toma la forma,

X (ω,c ) =

∫ ∞

−∞

x (t )e−c t

e−jωt d t

No obtante, para asegurar la convergencia de la anterior integral, se debe tomar la señal ajus-tada sobre el dominio del tiempo, x (t )u (t ), tal que para t < 0, su aporte sea 0. De otra manera,el factor de multiplicación e−c t puede conllevar a la divergencia de la integral. Por lo tanto, ellímite inferior de la anterior densidad espectral de Fourier acotada siempre es 0, esto es,

X (ω,c ) =

∞∫

0

x (t )e−c t

e−jωt d t =

∞∫

0

x (t )e−(c+jω)t d t =X

c + jω

(1.51)

Si se halla la TF inversa de la densidad espectral X

c + jω

se obtiene

1

∫ ∞

−∞X

c + jω

e jωt dω= x (t )e−c t

Así mismo, si ambas partes de la integral anterior se multiplican por e c t , juntando los factoresde multiplicación exponencial y haciendo el cambio de variableω→ c + jω, entonces,

1

2πj

c+j∞∫

c−j∞

X

c + jω

e (c+jω)t d

c + jω= x (t )

1.3. Representación integral de señales 41

En la práctica, es usual el empleo de la notación p = c + jω, luego, la anterior integral y ladensidad (1.51) conforman el par de Transformadas de Laplace (TL),

∞∫

0

x (t ) e−p t d t = X

p¬L x (t ) (1.52a)

1

2πj

c+j∞∫

c−j∞

X

p

e p t d p = x (t )¬L −1 X

p

(1.52b)

De (1.52b), se observa que la TL inversa se realiza mediante la integración en el plano com-plejo p sobre toda la recta vertical c = const. También es claro, que el reemplazo de p = jωconduce directamente a la TF. Por lo tanto, todas sus propiedades tienen lugar para la TL.

Ejemplo 1.10 Hallar la transformada de Laplace de la función escalón unitario u (t ).Si se analiza la FDE(1.40), entonces se obtiene,

U (ω) =

∞∫

−∞

u (t )e−jωt d t =

∞∫

0

e−jωt d t =e−jωt

−jω

0

=1

1− lım

t→∞e−jωt

Sin embargo,e−jωt , cuandot →∞ no converge a ningún valor, y por lo tanto, la densidad es indeter-minada. La razón está en que la funciónu (t ) no cumple las condiciones de Dirichlet.

En el caso de la transformada de Laplace(1.52a), X

p=L x (t ), se puede demostrar que,

L

d x

d t

= p X

p−x (0+) (1)

dondex (0+) es el valor de la señal ent → 0, que sea infinitamente cercano por la derecha. En ese sentido,la función escalón unitario se puede representar como la derivada de la señal rampa, tal que se cumpla que,x2 (t ) = k t u (t ) = u (t )d u /d t , para la cual se obtiene la transformada,X

p=∫∞

0k t e−p t d t . Integrando

por partes, haciendov = k t , d v = k d t y d w = e−p t d t , entonces,w =−e−p t /p :

Xp=− e−p t

pk t +

∞∫

0

e−p t

pk d t =− e−p t

pk t +

k

p

− e p t

p

0

= 0−

0− k

p 2

=

k

p 2

Luego, teniendo en cuenta la transformada de la derivada de una función(1):

L u (t )= p X2p−u (0+) = p

k

p 2=

k

p

Finalmente, la densidad espectral de energía buscada, al reemplazarp por jω, es igual a

U (ω) = k /jω

42 Capítulo 1. Representación de Señales y Sistemas

1.3.3. Integral de convolución

Nuevos sistemas bases se pueden formar a partir del desplazamiento en el tiempo de un sistemabase original. Por ejemplo, si se analiza el siguiente caso particular,

φ(s , t ) =φ(t − s ) (1.53)

de tal manera, que el sistema base es función de una sola variable, específicamente correspondea la diferencia (t −s ). Además, considerando T,S ∈ (−∞,∞), entonces, la señal original se expre-sa mediante la integral:

x (t ) =

∞∫

−∞

v (s )φ(s − t )d sÍ= v (t ) ∗φ(t ) (1.54)

denominada la integral de convolución, cuyas principales propiedades son las siguientes:

a). Conmutación

xm (t ) ∗xn (t ) = xn (t ) ∗xm (t )

b). Distribución

xk (t ) ∗ (xm (t )+xn (t )) = xk (t ) ∗xm (t )+xk (t ) ∗xn (t )

c). Asociación

xk (t ) ∗ (xm (t ) ∗xn (t )) = (xk (t ) ∗xm (t )) ∗xn (t )

d). Convolución en el tiempo. SeaFx i (t )= X i (ω);

F xm (t ) ∗xn (t )=Xm (ω)Xn (ω) (1.55)

e). Convolución en la frecuencia

F xm (t )xn (t )=1

2π(Xm (ω) ∗Xn (ω))

f). Convolución con la función impulso

x (t ) ∗δ(t − t0) = x (t − t0)

Por cierto, αδ(t −τ1) ∗βδ(t −τ2) =αβδ(t −τ1−τ2).

Finalmente, se puede demostrar que:

d

d t(xm (t ) ∗xn (t )) = xm (t ) ∗

d

d txn (t ) =

d

d txm (t ) ∗xn (t )

1.3. Representación integral de señales 43

El núcleo conjugado, en caso de existir, se puede hallar mediante el cálculo de la transformadade Fourier para (1.54), que al tener en cuenta (1.55) se obtiene que X (f ) = V (f )Φ(f ), luego,V (f ) = Θ(f )X (f ), donde Θ(f ) = 1/Φ(f ). Por lo tanto, el núcleo conjugado también depende dela diferencia de argumentos

vx (s ) =

∞∫

−∞

x (t )θ (t − s )d t

En calidad de ejemplo concreto, en (1.53) se puede analizar la función base

φ(t − s ) = δ(t − s )

entonces Φ(f ) = Θ(f ) = 1, luego

vx (s ) =

∞∫

−∞

x (t )δ(t − s )d t = x (s )

En otras palabras, la función original en el tiempo puede ser representada por sí misma.

Ejemplo 1.11 Seav (t ) = a u (t )sinπt y φ(t ) = δ(t )−δ(t − t0). Hallarx (t ) = v (t ) ∗φ(t ).El desarrollo de(1.54) resulta en:

x (t ) =

∞∫

−∞

(a u (τ)sinπτ) (δ (t −τ)−δ(t −τ− t0))dτ

= (a sin(πt ))u (t )− (a sin (π(t − t0)))u (t − t0)

x (t ) =

0, t < 0a sinπt , 0< t < t0

0, t > t0

Transformada de Hilbert

Otro caso de análisis de conformación de funciones base por desplazamiento, por el principio(1.53), corresponde al núcleo de la forma,

φ(t − s ) =−1

π(t − s )

De otra parte, sea la función determinada en f para la cual se cumple que,

G (f ,α) =

(e−α f , f > 0

−e−α f , f < 0(1.56)

44 Capítulo 1. Representación de Señales y Sistemas

cuya transformada inversa de Fourier corresponde a la expresión

F−1 G (α, f )=

∞∫

0

e−α f e j 2π f t d f −

0∫

−∞

e−α f e j 2π f t d f =j 4πt

α2+(2πt )2

= g (a , t )

Si se considera el límite de α→ 0, esto es,

lımα→0

g (α, t ) =j

πt(1.57)

luego

Φ(f ) =Fφ(t )

= jF

§lımα→0

g (α, t )ª= j lım

α→0G (f ,α) = j sgn(f )

entonces, de (1.37) la base conjugada esΘ(f ) =−j sgn(f ), que le corresponde la representaciónen el tiempo

θ (s − t ) =1

π(s − t )

El par que obtiene de transformadas se denomina Transformada de Hilbert, cuya transforma-da directa es notada típicamente de la forma x (s ) y que se describe como

x (s ) =1

π

∞∫

−∞

x (t )

s − td t = x (t ) ∗ 1

πt(1.58a)

x (t ) =1

π

∞∫

−∞

x (s )

s − td s = x (s ) ∗ 1

πs(1.58b)

Cabe anotar que las transformadas (1.58a) y (1.58b) presentan un punto especial y exigen ladefinición de las respectivas integrales en el sentido del valor principal de Cauchy.

De otra parte, la relación entre el par de transformadas de Fourier y el par de transformadasde Hilbert se determina de la siguiente manera

X (f ) =F x (s )=−j sgn(f )X (f ) (1.59a)

X (f ) =F x (s )= j sgn(f )X (f ) (1.59b)

En análisis de señales, se define la señal analítica compleja z (t ):

z (t ) = x (t )+ j x (t ) (1.60)

1.3. Representación integral de señales 45

que de acuerdo con (1.59a) y (1.59b), posee la transformada unilateral de Fourier

Z (f ) =Fu z (t )=(

2X (f ), f > 0

0, f < 0

Ejemplo 1.12 Representar una señal en el tiempo mediante un conjunto basede exponenciales desplaza-dos en el tiempo, descritos en la forma,

φ (t − s ) = e−a |t−s |, a > 0

Por cuanto,

Φ

f=

2a

2πφ2+a 2

entonces, se obtiene,

Θ

f=

a

2

1− 1

a 2

j 2π f

2

⇒ θ (t ) = a

2

δ (t )− 1

a 2δ (t )

De esta manera, a la base analizada le corresponde el par de transformadas:

x (t ) =

∞∫

−∞

v (s )e−a |t−s |d s

v (s ) =a

2

x (s )− 1

a 2x (s )

Una siguiente forma de construcción de una base, a partir de una señal dada, consiste en sucontinuo cambio de escala o dilatación.

Sea

φ (t ,s ) =φ(s t )

siendo s > 0 el parámetro de escala, de tal manera que si s > 1, la escala se comprime mientrasque para s < 1 la escala se expande. Si T,S ∈ [0,∞) se puede demostrar que el par de transfor-madas generalizadas resultantes será [9]:

x (t ) =

∞∫

0

vx (s )φ(s t )d s , t ≥ 0

vx (s ) =

∞∫

0

x (t )θ (s t )d t , s ≥ 0

46 Capítulo 1. Representación de Señales y Sistemas

Problemas

22. Sean las densidades vi (s )i = 1,2, correspondientes a las señales x i (t ). Demostrar que tiene

lugar la invariabilidad del producto escalar, esto es, ⟨v1,v2⟩= ⟨x1,x2⟩.23. Demostrar que el siguiente conjunto de señales es ortogonal y calcular su TF directa:

Φn (t ) =sinΩ(t −nT )

Ω(t −nT ), n = 0,±1,±2, . . . ,−∞< t <∞

24. Calcular los coeficientes de la serie de Fourier y la TF parra la función dada en la forma,

x (t ) =∞∑

n=−∞δ(t −nT )

25. Encontrar la TF de un pulso Gaussiano x (t ) = a exp−π(tτ)2 y verificar el efecto de exten-

sión recíproca de las gráficas para τ = 1 y τ = 2. Hallar la diferencia de densidades espectralesde energía en los puntos de intersección.26. Sea la señal x (t ) = a (exp−αt − expβ t )u (t ). Hallar la expresión de la frecuencia límite

ωl , cuando la magnitud de la TF disminuye en 10 veces contra el valor del espectro enω= 0.27. Hallar la relación entre la densidad espectral X (Ω) =Fx (t ), tal que x ∈ R , y la densidad

Y (Ω) =Fy (t ), asumiendo y (t ) = x (−t ).28. Las señales xp (t ) = xp (−t ) y x i (t ) = −x i (−t ) están relacionadas con y (t ) mediante las

expresiones xp (t ) = y (t ) + y (−t ) y x i (t ) = y (t )− y (−t ). Hallar la relación entre los respectivosespectros Xk (ω) =Fxk (t ) , k ∈ p , i con la densidad Y (ω).29. Sea X (ω) =Fx (t ). Hallar la señal y (t ) =F−1Y (ω), para los siguientes casos:

a)Y (ω) =X 2(ω) b) Y (ω) =X (ω)X ∗(ω), c) Y (ω) = X ∗(ω)

30. Calcular la densidad espectral de energía de la señal

x (t ) = a (exp−αt − exp−β t )u (t )

Construir la gráfica de la dependencia entre el módulo de la densidad espectral contra la fre-cuencia, dados los siguientes valores: a = 6 [V], α= 106, [s−1], β = 3 ·106[s−1].31. Calcular la transformada de Hilbert de las siguientes funciones

x (t ) = cos(2π f 0t ),−∞< t <∞x (t ) = sinc(2πv t ),−∞< t <∞

x (t ) = (1+ t 2)−1

,−∞< t <∞x (t ) = recT (t )

1.4. Representación operacional de sistemas lineales 47

1.4. Representación operacional de sistemas lineales

1.4.1. Método de la integral de superposición

Cuando un sistema cumple ambas condiciones: de linealidad (1.4) e invariabilidad en el tiempo(1.5), entonces, como se deduce de (1.10), cualquier señal x (t ) se aproxima por una sucesióninfinita de funciones delta en el tiempo, esto es, teniendo en cuenta la propiedad de selectividadde la función delta δ(t ) en los instantes en que se determinen dentro de la sucesión infinita,entonces

x (t ) =

∞∫

−∞

x (τ)δ (t −τ)dτ (1.61)

luego, la señal de salida y (t ) se podrá determinar para cualquier x (t ) dada, si se sabe la reaccióndel sistema cuando a la entrada se tiene la función delta δ(t ) (respuesta a impulso h(t )).

Las respuestas a impulso consecuentemente al aplicar las siguientes propiedades:

a). Invariabilidad en el tiempo: δ (t −τ) =⇒ h (t −τ),

b). Linealidad: x (τ)δ (t −τ) =⇒ x (τ)h (t −τ),

Luego, se tiene que la señal de entrada∫∞−∞x (τ)δ (t −τ)dτ genera la respectiva salida, dada

por la convolución:

∞∫

−∞

x (τ)h (t −τ)dτ.

De lo anterior, resulta que la salida y (t ) de un sistema lineal e invariante en el tiempo corres-ponde a la integral de superposición de la respuesta a impulso h(t ) con la entrada x (t ), así:

y (t ) =

∞∫

−∞

x (τ)h (t −τ)dτ= x (t ) ∗h(t ) (1.62)

La integral de superposición (1.62) es, en general, la transformada de un sistema no causal,por cuanto la excitación del sistema en el momento t le corresponden valores de salida y (τ),para los valores de la variable de integración, definidos en −∞<τ< t .

Al ajustar el sistema a la condición de causalidad, el sistema deberá tener una respuesta aimpulso h(t ) = 0, ∀t <τ, por lo que (1.62) se convierte en:

y (t ) =

t∫

−∞

x (τ)h (t −τ)dτ

En cualquier sistema invariante en el tiempo siempre se podrá tomar el origen del tiempoigual a cero, esto es, si la señal de entrada satisface la condición x (t ) = 0, ∀t < 0, entonces, la

48 Capítulo 1. Representación de Señales y Sistemas

anterior ecuación toma la forma:

y (t ) =

t∫

−∞

h (t −τ)x (τ)u (τ)dτ =

t∫

0

h (t −τ)x (τ)dτ=

t∫

0

h(τ)x (t −τ)dτ, t ≥ 0 (1.63)

En forma general, la ecuación (1.63) muestra que para cualquier función de entrada x (t ), laderivada de orden n en el tiempo de la función de salida es igual a:

d n y

d t n=

∞∫

−∞

h(τ)d n x

d t n(t −τ)dτ

.

---s1 s2

s

h1(t ) h2(t ) h(t ,τ)

Figura 1.13: Conexión en cascada de sistemas

Particularidades de la respuesta a impulso.Sean dos sistemas lineales, s1 y s2, con respuestasa impulso h1(t ) y h2(t ), respectivamente, y cuyarespuesta resultante h12(t ) de su conexión en cas-cada, mostrada en la Figura 1.13, se define como:

h12(t ) =

∞∫

−∞

h2(τ,z )h1(τ,z )d z

En forma general, la conexión cascada de s1 y s2 no es la misma de s2 y s1, por la diferenciade argumentos de las respuestas a impulso en el núcleo de la integral de superposición, exceptocuando ambos sistemas sean invariables en el tiempo. En este caso, entonces, se tiene

h12 (t −τ) =

∞∫

−∞

h2(t − z )h1(z −τ)d z

reemplazando v = z −τ, d v = d z se encuentra la expresión

h12 (t −τ) =

∞∫

−∞

h1(v )h2((t −τ)− v )d v

=

∞∫

−∞

h1(v )h2(λ− v )d v , λ= t −τ

Esta última integral corresponde a la función de respuesta a impulso h12 (t −τ)de la conexiónen cascada de s2s1. Donde se puede afirmar que para los sistemas lineales e invariantes en eltiempo la conexión en cascada de los sistemas es conmutativa, esto es

h12 (t −τ) = h21 (t −τ) .

1.4. Representación operacional de sistemas lineales 49

Respuesta a escalón unitario. Se denomina a la reacción del sistema lineal cuando a la entra-da existe una función del tipo escalón unitario u (t ) (1.11), donde:

p (t )4=u (t ) ∗h(t ) =

∞∫

−∞

u (τ)h (t −τ)dτ=

∞∫

0

h (t −τ)dτ

entonces,

p (t ) =

t∫

−∞

h(λ)dλ; donde λ= t −τ (1.64)

Este resultado proporciona un método para determinar en laboratorio la respuesta a impulsode un sistema. Aunque la función u (t ) existe hasta el infinito, la mayoría de los sistemas tieneuna respuesta relativamente corta. Entonces, empleando un generador de ondas cuadradas debaja frecuencia con período mucho mayor al tiempo de duración de la respuesta a impulso, esteprácticamente se percibirá como un escalón. De la ecuación (1.64) se deduce que la relación delas respuesta a impulso y la respuesta a escalón en un sistema lineal es h(t ) = d p

d t .

Ejemplo 1.13 Encontrar la respuesta a impulso del sistema lineal dado porla ecuación diferenciald y (t )/d t +a (t )y (t )= x (t ), ∀t > 0, dondea (t ) es una función dada a priori [11].

La función entrada-salida es preferible hallarla al resolver la ecuación paray (t ). Tomandot = 0 comoel tiempo en el cual la entrada es aplicada al sistema y considerando la linealidad de este, se tiene quey (t ) = Γ0= 0. Además, comox (t ) = 0, ∀t < 0, entonces, también seráy (t ) = 0. Así, se podrá resolver laecuación diferencial sujeta a esta condición inicial. Preferiblemente se tomarát = 0, es decir,y (0) = 0. Pararesolver la ecuación resultante y aplicando la condición inicial se multiplican por un factor de integración,obteniéndose

d

d t

e (α(t ))y (t )

= e (α(t ))x (t ), α(t ) =

t∫

0

a (z )d z

integrando ambos lados en[0, t ] se obtendrá:

e (α(t ))y (t )=

t∫

0

e (α(t ))x (τ)dτ=

t∫

0

e (α(t ))x (τ)dτ, t > 0

que corresponde a la relación entrada/salida deseada.Teniendo en cuenta la definición para la respuesta a impulso se obtendrá

h(t ) = e (α(t ))u (t −τ)

que corresponde a una respuesta a impulso físicamente realizable. De hecho, cuando se considera el casosimplea (t ) = a = const ., se tendrá que:

h(t ) = e−a (t−τ)u (t −τ) ,

que describe un sistema lineal e invariante en el tiempo.

50 Capítulo 1. Representación de Señales y Sistemas

1.4.2. Método de análisis espectral

En el caso del análisis de los sistemas en el dominio de la frecuencia, sea la forma de la señal ala entrada x (t ) = e jωt . Aceptando la linealidad del sistema, se analizará la solución particular:

y (t ) = K (ω)x (t ) = K (ω)e jωt , K (ω) ∈C (1.65)

Asumiendo que todos los parámetros que definen el sistema lineal son invariantes en el tiem-po, αk (t ),βk (t )= const, entonces se tendrá

β0x (t )+β1d x

d t+ . . .+βn

d n x

d t n =α0y (t )+α1d y

d t+ . . .αm

d m y

d t m , (1.66)

Dado qued (k )

d t kx (t ) = (jω)k e jωt , entonces,

β0e jωt + jωβ1e jωt + · · ·+

jωnβn e jωt =α0K (ω)e jωt + · · ·+αm

jωm K (ω)e jωt

β0+ jωβ1+ · · ·+

jωnβn

e jωt =

α0+α1jω+ · · ·+αm

jωm

K (ω)e jωt

β0+ jωβ1+ · · ·+

jωnβn

=α0+α1jω+ · · ·+αm

jωm

K (ω)

Luego, es clara la siguiente relación:

K (ω) =

n∑kβk (jω)k

m∑kαk (jω)k

=N (ω)

D(ω)=H (ω), (1.67)

De (1.67), se observa que la función K (ω) corresponde exactamente con la función de trans-ferencia H (ω) definida en (1.61), la cual depende exclusivamente del sistema y no de la señal deentrada, además, el mismo resultado se puede obtener al hallar la TF de (1.66):

Fβ0x (t )+β1

d x

d t+ · · ·+βn

d n x

d t n

=F

α0y (t )+α1

d y

d t+ · · ·+αm

d m y

d t m

β0X (ω)+β1jωX (ω)+ · · ·+βn

jωn X (ω) =α0Y (ω)+α1jωY (ω)+ · · ·+αm

jωm Y (ω)

β0+β1jω+ · · ·+βn

jωn

X (ω) =α0+α1jω+ · · ·+αm

jωm

Y (ω)

Y (ω)

X (ω)=

n∑k=0βk

jωk

m∑k=0αk

jωk=H (ω)

Físicamente, H (ω) indica que una manera de probar la condición de linealidad de un sis-tema invariable en el tiempo es aplicando a la entrada una sinusoide con valores de amplitud,frecuencia y fase conocidos y constantes.

En caso de linealidad, la salida del sistema deberá ser otra sinusoide con la misma frecuencia

1.4. Representación operacional de sistemas lineales 51

de entrada y puede tener diferentes valores de fase y amplitud:

Y (ωk ) =H (jωk )X (ωk ) (1.68)

Tal consideración de proceso se hace repetitivo sobre el rango analizado de frecuencia. Elcociente de estos dos coeficientes complejos corresponde a los valores de amplitud y fase dela función de transferencia. Por cuanto, en (1.65) la función de transferencia H (ω) se asumecompleja, por lo tanto, se describe en términos del módulo (respuesta de amplitud) y de la fase(desfase), respectivamente como:

H (ω) = |H (ω)|e j θ (ω) =ℜH (ω)+ℑH (ω)

donde

|H (ω)|=pℜH (ω)2+ℑH (ω)2 (1.69a)

θ (ω) = arctan

ℑH (ω)ℜH (ω)

(1.69b)

Analizando (1.67) se puede llegar a la conclusión de que un sistema lineal e invariable en eltiempo actúa como dispositivo selectivo de frecuencia o filtro en las diferentes componentesespectrales aplicadas a un sistema, esto es, algunas componentes pueden amplificarse, otrasatenuarse y algunas permanecerán inalteradas. De hecho, cada componente espectral puedetener un desfase característico al pasar por el sistema.

Ejemplo 1.14 Determinar la función de transferencia del sistema, que corresponde al circuito simpleRC ,mostrado en la Figura 1.14(a).

Aplicando la relación del divisor de voltaje, se tiene:

y (t )=Zc

R +Zce jωt

donde la impedancia de la capacitancia esZc = 1/jωC . Así,

H (ω) =(1/jωC )

R +(1/jωC )=

1

1+ jτω

siendoτ= RC .Al convertir en forma polar la anterior expresión se obtienen las respectivasmagnitudy desfase:

|H (ω)|=1+(ωτ)2

−1/2, las cuales se muestran en la Figura 1.14(b)

Aceptando, que la señal de entrada tiene la forma x (t ) = e jωt , la convolución dada en (1.62)se define como:

y (t ) =

∞∫

−∞

h(τ)x (t −τ)dτ=

∞∫

−∞

h(τ)e jω(t−τ)dτ= e jωt

∞∫

−∞

h(τ)e−jωτdτ

= e jωtF h(t )= e jωt H (ω)

52 Capítulo 1. Representación de Señales y Sistemas

s

s s

s

R

y (t )Cx (t )

(a) Diagrama básico

0 0.2

0.5

1

0 −1.5

−1

−0.5

0

0.5

1

1.5

|H (ω)| θ (ω)

−ω−ω ωω

τ1τ2 = 2τ1

(b) Función de transferencia

Figura 1.14: Análisis espectral del circuito RC

Luego, la función de transferencia H (ω) corresponde a la Transformada de Fourier de la fun-ción respuesta al impulso:

H (ω) =F h(t )=

∞∫

−∞

h(t )e−jωt d t

Por último, aplicando la transformada inversa de Fourier a (1.68), para todo valor ωk ∈ω, lasalida se expresa en forma alterna como

y (t ) =1

∞∫

−∞

H (ω)X (ω)e−jωt dω

Ejemplo 1.15 Determinar la magnitud de respuesta de un filtro pasabajosRC (Figura 1.14(a)) para lafunciónrectτ(t ), dondeτ= 4RC .

Teniendo en cuenta la magnitud|X (ω)| = τsinc(ωτ/2) de la FDE del pulso cuadrado obtenida en(1.25a) y la respuesta de amplitud|H (ω)|= |1+ jωRC |−1 = (

p1+(ωτ/4)2)−1, (obtenida en el ejemplo 1.14),

entonces, la magnitud de la salida será:

|Y (ω)|= |X (ω)||H (ω)|= τ/Tp

1+(ωτ/4)2|sinc (ωT /2) |

Las gráficas de la magnitud en las Figuras 1.15(a) y 1.15(b) muestran que este sistema atenúa las altasfrecuencias de la FDE a la entrada y permite el paso de frecuencia relativamente más bajas con menoratenuación. Además, la transmisión desigual de todas las componentes produce una réplica distorsionada dela señal de entrada.

1.4. Representación operacional de sistemas lineales 53

0 0

0.5

1

0 0

0.5

1

0 0

0.5

1

X (ω)H (ω)Y (ω)

−τ

−τ

−τ

τ

τ

ττRC =τP

τRC = 0.5τP

τRC = 2τP

(a) Análisis en frecuencia

0.2

0.4

0.6

0.8

1

0.2

0.4

0.6

0.8

1

0.2

0.4

0.6

0.8

1

x (t )y (t )

−0.9τ

−0.9τ

−0.9τ

−0.5τ

−0.5τ

−0.5τ

(b) Análisis en el tiempo

Figura 1.15: Respuesta del circuito RC a un pulso cuadrado

1.4.3. Método de ecuaciones diferenciales

Las ecuaciones lineales diferenciales proporcionan otra representación de las características deentrada-salida de los sistemas lineales e invariantes en el tiempo. El ejemplo más sencillo, talvez, corresponda al análisis de un circuito diferenciador, cuya señal de salida está relacionadacon la entrada de la forma

y (t ) =d x

d t,

Basados en la propiedad de diferenciación de la TF (1.45) se tiene que

Y (ω) = jωX (ω),

por lo que la función de transferencia del diferenciador ideal corresponde a

H (ω) = jω

El circuito RC del ejemplo 1.14 representado en la Figura 1.14(a), cuya función de transferen-cia es igual a

H (ω) =1

1+ jωτ, τ=RC

puede ser aproximado a un diferenciador, si se toma la condiciónωτ 1, con lo que la funciónaproximada de transferencia del circuito será:

H (ω)≈ jωτ

54 Capítulo 1. Representación de Señales y Sistemas

De manera alterna se puede calcular la función de transferencia de un circuito integrador:

y (t ) =

∫x (t )d t ,

cuya función de transferencia, basados en (1.46), es igual a H (ω) = 1/jω.

El circuito RC también puede ser configurado como integrador, observando la condiciónωτ 1, obteniéndose la siguiente función de transferencia aproximada

H (ω)≈ 1/jωτ

En forma general, el circuito R L también puede ser configurado, bien como diferenciador,bien como integrador. En la práctica es preferible la implementación sobre circuitos RC , porpresentar menores pérdidas activas que las que usualmente registran las inductancias.

1.4.4. Sistemas discriminantes de frecuencia

6

-

.....

...........................................................................................................................................

?

6

τ(ω)

τ0

ω0

|H (ω)|

k

θ (ω)

Figura 1.16: Desfase lineal

Se considera que la señal a su paso por unsistema no sufre distorsiones, si su forma nocambia, modificando solamente su escala odesplazamiento en el tiempo (típicamente re-tardo), esto es,

y (t ) = k x (t −τ0)

siendo k el coeficiente de escala, y τ0 el re-tardo inherente al tiempo de proceso del sis-tema. La FDE a la salida del circuito estará da-da por

F

y (t )= Y (ω) = k X (ω)e−jωτ0

con lo cual, la función de transferencia de un circuito sin distorsiones se determina como

H (ω) = k e−jωτ0

cuyas funciones de respuesta de amplitud y desfase, representadas en la Figura 1.16, tienenrespectivamente la forma,

|H (ω)|= k , θ (ω) =ωτ0 (1.70)

De otra parte, la función de retardo de grupo del sistema tiene uso amplio y es determinadapor:

τ(ω) =dθ

dω(1.71)

En caso de no cumplirse alguna de las condiciones de (1.70) y (1.71), la forma de la señal desalida se diferenciará de la señal de entrada. De las condiciones de realización física, se deduce

1.4. Representación operacional de sistemas lineales 55

que la respuesta de amplitud y cambio de fase de los sistemas lineales con parámetros con-stantes poseen las cualidades de simetría:

H (−ω) =H (ω), |H (−ω)|= |H (ω)|, θ (−ω) =−θ (ω) (1.72)

Modelos de filtración básica lineal. Tomando en consideración las condiciones (1.70), (1.71)y (1.72) se pueden establecer los siguientes modelos básicos de filtración:

a). Filtro pasabajos, el cual atenúa las componentes de alta frecuencia (por encima de unafrecuencia denominada de corte) de la señal de entrada, dejando pasar las componentesde baja frecuencia

b). Filtro pasaaltos, atenúa las bajas frecuencias, por debajo de valor de frecuencia mínimoestablecido (frecuencia mínima) y deja pasar las frecuencias altas.

c). Filtro pasabanda, deja pasar las señales comprendidas dentro de una banda espectral(banda de paso) establecida entre un valor mínimo de frecuencia (frecuencia mínima) yun valor máximo permitido (frecuencia máxima), atenuando todas las componentes queestén fuera de la banda de paso.

d). Filtro rechazabanda, atenúan las señales comprendidas de una banda espectral (banda derechazo) establecida entre un valor mínimo de frecuencia (frecuencia mínima de rechazo)y un valor máximo permitido (frecuencia máxima de rechazo), dejando pasar todas lascomponentes que estén fuera de la banda de rechazo.

? ? ? ?

?PPPq-:

-

- -

-

∑∑∑

Línea de retardo τ

Registro de desplazamiento

y (t )

x (t )

a 0 a 1 a n−1 a n× × × ×

Figura 1.17: Diagrama de un filtro transversal

La integral de convolución (1.62), referidaa la respuesta a impulso, se puede aproximarde la siguiente manera:

y (t ) =

t∫

0

x (t −τ)h(τ)dτ

≈t /∆τ∑

k=0

x (t −k∆τ)h(k∆τ)∆τ

Este resultado se puede realizar utilizandouna línea de retardo con derivaciones cadak∆τ, la salida de cada derivación se multipli-ca por el factor prefijado h(k∆τ)∆τ.

Un ejemplo de filtro construido con una línea de retardo con derivaciones ponderadas y unsumador en la forma mostrada en la Figura 1.17 se denomina filtro transversal.

56 Capítulo 1. Representación de Señales y Sistemas

Problemas

32. Conformar las ecuaciones diferenciales de los circuitos representados en la Figura 1.18.

s

s s

sC 2

R2

R1

y (t )x (t )

s

s

s

s

s

s

s

s s

s

s

s

R3R1

C 1

R2

C 2

x (t )x (t )

C 1

R1

R2y (t ) x (t )y (t ) y (t )

C

C f

R2

R1

R f

a ) d )c )b )

Figura 1.18: Circuitos de filtración

33. Determinar la respuesta a impulso para la siguiente función de entrada/salida dada por

y (t ) =

∞∫

0

e t−z u (t − z )x (z )d z , ∀t ≥ 0.

En este caso la respuesta como función de t −τ, no depende de t y τ separadamente. Así, siel sistema es causal, entonces, la respuesta a impulso deberá ser h (t −τ) = 0,∀t < τ, de otramanera se tendría respuesta a impulso actuando antes de la aparición de la función δ (t −τ), loque no corresponde a la realidad.34. Hallar la respuesta al impulso para la función entrada/salida

y (t ) =

∞∫

−∞

z t u (t − z )x (z )d z .

35. Encontrar la respuesta a impulso del ejemplo (1.13) cuando a es constante, directamente

resolviendo la ecuación con x (t ) = δ(t ).36. Determinar la respuesta a impulso del circuito de retención mostrado en la parte derecha

de la Figura 1.19.37. Encontrar la respuesta a impulso h(t ) de la conexión en cascada de los siguientes sistemas:

z (t ) = e−t x (t )u (t ), siendo

y (t ) =

t∫

0

e−(t−λ)z (λ)u (λ)dλ, t ≥ 0.

Encontrar la respuesta a impulso del sistema obtenido intercambiando los sistemas s1 y s2 da-dos anteriormente.

1.4. Representación operacional de sistemas lineales 57

6

-

-

-6

- -h(t )

1

τ t

x (t )

r e t a r doτ

τ

∑+

+

y (t ) z (t )

a ) b )

Figura 1.19: Circuito de retención

38. Determinar la respuesta a impulso y la respuesta al escalón unitario para cada uno de los

circuitos descritos por las siguientes ecuaciones diferenciales:

Td y

d t− y = k x y = k

x +T

d x

d t

y = k

x + 2k1T

d x

d t+T 2

d 2x

d t 2

T 2

d 2y

d t 2+ 2k1T

d y

d t+ y = k x

T 2d 2y

d t 2 − 2k1Td y

d t+ y = k x

1

ω2

d 2y

d t 2 + y = k x

39. Suponer que se intercambian la resistencia y el capacitor en el circuito RC de la Figura

1.14(a). Determinar la nueva función de transferencia y justificar por qué el sistema puede serdel tipo filtro pasaaltos.40. Para los filtros RC pasabajos y pasaaltos mostrados anteriormente, calcular el voltaje de

salida y (t ) correspondiente al voltaje de entrada x (t ) =| sin 2π f t |, 0< t < 1, asumiendo RC = 1.41. El circuito descrito en la Figura 1.20(a) es considerado un sistema con corriente i (t ) como

entrada y el voltaje v (t ) como salida. Encontrar:

a). la relación de entrada/salida del sistema;

b). probar las condiciones de linealidad y causalidad del sistema.

42. Hallar la función de transferencia y la respectiva respuesta a impulso del filtro RC de tercer

orden mostrado en la Figura 1.21a ). Asumiendo los nominales R = 6.8 kΩ y C = 0.2µF , calcularlas frecuencias f 1 y f 2 [Hz ] para las cuales el desfase introducido por el filtro es de −π/2 y −π[r a d ], respectivamente.43. Calcular la respuesta a impulso h(t ) del sistema lineal, con función de transferencia (H0 y

β son constantes),

H (ω) =

(H0 exp

−jβ 2ω2

, ω≥ 0

H0 exp

jβ 2ω2

, ω< 0

44. Hallar la función de transferencia y la respuesta a impulso del cuadripolo cruzado mostrado

en la Figura 1.21b ) con impedancias conocidas Zi , i = 1,2,3,4.

58 Capítulo 1. Representación de Señales y Sistemas

s

s s

sCx (t ) y (t )

L L

R

(a) Circuito R LC

s s

s sx (t ) y (t )

R0

R1

L R2

C

(b) Filtro R LC

Figura 1.20

s

s

s

s

s

s

s

s

................................................

.............................................

.......................................................................................................

R R R

C C Cx (t ) y (t )

Z 1

Z 3

Z 2

Z 4

x (t ) y (t )

b )a )

Figura 1.21

45. La ecuación diferencial que relaciona la tensión de salida y (t ) con la de entrada x (t ) del

sistema mostrado en la Figura 1.20(a) es

L2Cd 3y

d t 3 +R LCd 2y

d t 2 + 2Ld y

d t+Ry (t ) =Rx (t )

a). Encontrar la función de transferencia del sistema.

b). Determinar la magnitud y el desplazamiento del sistema.

c). Determinar b ) paraω= 1/p

LC .

46. Encontrar las ecuaciones diferenciales del filtro R LC de baja frecuencia representado en la

Figura 1.20(b). Hallar la respectiva función de transferencia y respuesta a impulso.47. Hallar la función de transferencia del sistema anterior si la función a la salida del circuito

de retardo se resta de la original.48. Obtener la serie de salida y (t ) cuando en la entrada existe la señal

x1(t ) =

0, t ≤ 0

sin t , 0< t < 2π

0, t ≥ 2π

, x2(t ) =u (t )

49. Dada la respuesta a impulso h(t ) = 1/T exp (−t /T ) de un circuito lineal, hallar la respectiva

salida y (t ), asumiendo y (0− = 0), cuando a la entrada se tiene la señal x (t ) = k t , k = const.

2Principios de modulación

2.1. Definiciones

2.1.1. Canal básico de transmisión

6

- -Fuente DestinoCanal de

transmisión

Distorsión

Figura 2.1: Modelo de un canal de transmisión

Un canal básico de transmisión, al menos,contiene los siguientes elementos: la fuenteque genera el mensaje o señal primaria concontenido informativo; el canal de trans-misión o medio físico que sirve para la comu-nicación y transporte del mensaje y la fuenteo destino final del mensaje. El modelo delcanal, mostrado en la Figura 2.1, se comple-menta con la forma presente de distorsión einherente a toda forma de transmisión.

Como modelos básicos de distorsión se consideran los siguientes: las atenuaciones, que corres-ponden a las pérdidas energéticas debidas a la propagación de la señal trasmitida por el canal, ylas perturbaciones, que corresponden a la interacción de otras señales con contenido aleatorioy que producen pérdida de la información en el mensaje.

Definición 2.1 La modulación se define como el proceso, K , mediante el cual se transforma elmensaje (o señal moduladora), x (t ), en la señal modulada, y (t ), que se transmite por el mediofísico para su traslado a un lugar distante o destino, de tal manera que se neutralicen al máximolas acciones negativas producidas por las distorsiones,η(t ), durante la comunicación. Esto es:

x → y =K x ,η : f I , f E |d (x , x )→ 0. (2.1)

La medida de efectividad del proceso, d (x , x ), usualmente corresponde a la diferencia infor-mativa entre el mensaje original, x , y el reconstruido, x . Así por ejemplo, la distancia Euclídea,‖x − x‖2, encuentra bastante aplicación. Las funciones f I y f E , que se denominan como los méto-dos de modulación, son formas de adecuación del mensaje, tanto, informativo, como energético,respectivamente.

59

60 Capítulo 2. Principios de modulación

2.1.2. Clasificación de métodos de modulación

Los métodos de modulación pueden clasificarse en concordancia con sus diferentes formas dedesarrollo; a saber: Métodos energéticos y Métodos informativos.

Métodos energéticos. Cuando la función, f E (x ), corresponde a una forma de adecuación elec-tromagnética del mensaje original. En la práctica, se emplean dos formas básicas de adecuación:sin corrimiento del espectro original del mensaje, o modulación de banda base:

X ∩Y 6= ;,

siendo X =Fx,Y =Fy los respectivos espectros.El término banda base se emplea para designar la banda de frecuencias que representa la

señal original en la forma en que es entregada por la fuente de información.El segundo tipo incluye el desplazamiento de frecuencia del espectro original del mensaje.

Por cuanto el desplazamiento debe realizarse a distancias significativamente mayores al anchode banda original, tal que en la práctica el espectro de la señal modulada se ubica en bandasconocidas de radiofrecuencia, este tipo de acomodamiento electromagnético se conoce comomodulación de radiofrecuencia:

X ∩Y = ;.

Con el objetivo de lograr la radiación eficiente de la energía electromagnética, la longitud de laantena que transmite debe ser mínimo un décimo de la longitud de onda de la señal transmiti-da. En general, la longitud de onda de las señales de banda base es demasiado larga lo cual haceimpracticable la construcción de una antena que pueda irradiar directamente tales señales. Enlugar de esto, la señal de banda base se utiliza para modular una señal de alta frecuencia, quees finalmente la señal que se transmite, con lo cual la información contenida en el mensaje setraslada a regiones del espectro que corresponden a longitudes de onda mucho menores.

Definición 2.2 Sea el mensaje, x ∈ L2, entonces, la adecuación espectral, dada en y ∈ L2, se puederealizar mediante su multiplicación con una señal periódica, xp , con periodo T = 2π/ωc , T ∈R1,esto es, y = x ·xp . La frecuencia de giroωc corresponde al valor de desplazamiento espectral y sedenomina frecuencia portadora. En consecuencia la señal xp se denomina señal portadora.

- -

6A

AAAA

x (t )

xp (t )

y (t )

Figura 2.2: Diagrama básico de un modulador

En efecto, como se observa de la Figura 2.2,la señal modulada, y ∈ L2, se obtiene como

y (t ) = x (t )xp (t ).

Empleando la representación, mediante elconjunto ortogonal (1.22), entonces

y (t ) = x (t )∑

nxnp exp(jωc t ),

donde

xnp =< x (t ),exp(jωc t )>

‖exp(jωc t )‖ .

2.1. Definiciones 61

La respectiva representación de la señal modulada en el dominio de la frecuencia será:

Fy (t )=Fx (t )∑

nxnp exp(jωc t )

=∑

nxnpFx (t )exp(jωc t )

=∑

nxnp X (ω−nωc ). (2.2)

La transformación espectral en (2.2), muestra la forma como se realiza el acomodamientoenergético de modulación. Así, cuando n = 0, esto es, cuando no hay desplazamiento de fre-cuencia, la modulación es de banda base. A su vez, cuando n 6= 0, el espectro original de for-ma inmediata cambia de lugar hasta nωc , luego el tipo de modulación es de radiofrecuencia.Cabe anotar, que debido a la atenuación fuerte que ocurre en armónicos superiores, ademásde su complejidad en la implementación, en la práctica la operación no lineal de trasporte delespectro se limita hasta el primer armónico, n = 1. En este sentido, la forma directa de concen-trar la energía de la señal modulada en un solo armónico sería empleando la señal portadoraexp(jωc t ).

Los métodos de modulación espectral, definidos en (2.2), tienen uso práctico para dos casosconcretos de señal portadora:

a). Portadora sinusoidal. La forma directa, para concentrar efectivamente la energía de laseñal modulada en un solo armónico, esto es, x1p 6= 0, y xnp = 0,∀n 6= 1, sería empleandola señal portadora

xp (t ) = exp(jωc t ) | Fy (t )=X (ω−ωc ).

Sin embargo, su complejidad en la implementación hace que en la práctica se emplee úni-camente uno de sus dos componentes: real o imaginario, de otra manera, senos o cosenos.

En general, la representación compleja de una señal modulada es de la forma

y (t ) = a (t )ℜexp(θ (t )), (2.3)

donde a (t ) se conoce como la envolvente, mientras θ (t ) se denomina la fase instantánea oángulo, definidas en concordancia con las expresiones (1.69a) y (1.69b), respectivamente.Por lo tanto, de acuerdo con el parámetro de modulación que esté en función del métodof E se distinguen los siguientes tipos de modulación:

a (t ) = f E (x , t ), modulación de envolvente o amplitud (2.4a)

θ (t ) = f E (x , t ), modulación de ángulo (2.4b)

b). Portadora de pulso rectangular. El desarrollo de las tecnologías electrónicas digitales haforzado la introducción de tipos de proceso con señales portadoras de pulso rectangular,definidos en (1.12) como

xp (t ) = rectτ(t −nT ),

cuyos coeficientes de descomposición espectral xnp en (2.2) se muestran en la Tabla 1.1.

62 Capítulo 2. Principios de modulación

Métodos informativos. En este caso se analiza la forma de adecuación, descrita por la función,f I (x ), que transforma la representación informativa del mensaje original. En concordancia conlas formas de proceso introducidas en la sección §1.1.2 se consideran dos formas básicas demétodos informativos de modulación:

a). Modulación analógica, cuando la transformación del mensaje, f I (x , t ), resulta en un con-junto A ⊆R(−∞,∞) con cantidad infinita de elementos de representación.

b). Modulación digital, cuando por el contrario la transformación del mensaje, f I (x , t ), re-sulta en un conjunto A = a i : 1, . . . ,N , con cantidad finita, N ∈ N, de elementos derepresentación o alfabeto (de ahí su término digital, esto es, contable).

2.1.3. Comparación de métodos de modulación

Los siguientes criterios se pueden tomar en cuenta para la selección del método modulación dela señal de información:

a). Fidelidad de los dispositivos de formación y proceso de las señales e inmunidad de estosante diferentes clases de interferencias: ruido blanco, estaciones emisoras de interferen-cias, diversidad del medio de propagación, y otros. Además teniendo en cuenta el gradoimperfección (no linealidad por ejemplo) de los canales de formación y proceso de lasseñales.

b). Las cualidades espectrales y el ancho de banda ocupado, cuyos parámetros dependen delmétodo de modulación. En este caso se analiza también la efectividad espectral de lasseñales y el nivel de energía fuera de banda.

c). La complejidad de realización de los dispositivos de formación y proceso de las señalescon modulación, la cual depende de la complejidad teórica y cantidad de operacionesnecesarias en la formación, proceso y recepción del tipo de modulación empleado.

2.2. Modulación sinosoidal análoga de amplitud 63

2.2. Modulación sinosoidal análoga de amplitud

En la descripción básica del método (2.3), a efectos de que exista un traslado real de frecuen-cia, sobre el modelo de la fase instantánea, θ (t ), se impone la siguiente condición de repre-sentación: θ (t ) = ωc t + φ(t ), con lo cual

y (t ) = a (t )cos(ωc t +φ(t )), (2.5)

dondeωc es la frecuencia de la señal portadora y φ(t ) es la desviación de fase. En todo caso, seasume queφ(t ) y a (t ) varían lentamente comparados conωc t .

2.2.1. Modulación de doble banda lateral

En la modulación de amplitud, el término de fase φ(t ) en (2.5) comúnmente se asume igual acero (o bien constante). La función de modulación de la envolvente, (2.4a) se toma usualmentedel tipo lineal, esto es, se hace proporcional al mensaje (motivo por el cual es usual denominareste tipo de modulación como lineal):

a (t )∼ k x (t )+kd ; k ,kd = const . (2.6)

Inicialmente, asumiendo la constante de desplazamiento, kd = 0, se tiene que

y (t ) = x (t )cosωc t , (2.7)

cuya DEE está dada por

Y (ω) =Fy (t )= (X (ω+ωc )+X (ω−ωc ))/2,

de la cual se observa, que la modulación de amplitud traslada el espectro de frecuencia de unaseñal en±ωc rad/sg, pero dejando inalterada su forma. La Figura 2.3 muestra un ejemplo de laseñal moduladora y la señal modulada junto con sus respectivas DEE.

A este tipo particular de modulación en amplitud se le conoce como modulación de doblebanda lateral con portadora suprimida (Double Sideband Suppressed Carrier - DSB-SC). Lamodulación es de doble banda lateral porque en la densidad espectral de xc (t ) aparecen dosbandas laterales: la banda lateral superior de y (t ), que corresponde al contenido de frecuenciasque se encuentra por encima deωc y la banda lateral inferior que corresponde al contenido defrecuencias que se ubica por debajo deωc . La modulación es de portadora suprimida porque ladensidad espectral de y (t ) no presenta una portadora identificable, aunque el espectro se cen-tre en la frecuencia ωc . Para enfatizar el hecho de que la señal modulada xc (t ) es DSB-SC, seescribe y (t ) = yDSB-SC(t ).

La modulación DSB-SC duplica el ancho de banda de la señal original. En efecto, si el anchode banda de la señal original corresponde a Ω, el ancho de banda de la señal modulada a trans-mitir, y (t ), corresponde a ∆ωDSB-SC = 2Ω, esto es, el ancho de la banda lateral inferior más elancho de la banda lateral superior.

La recuperación del mensaje, x (t ), a partir de la señal modulada y (t )DSB-SC, requiere en eldestino del traslado inverso en el dominio de la frecuencia que desplace al espectro hasta suposición original otra vez (operación denominada demodulación). Al asumir el modelo (2.7) y

64 Capítulo 2. Principios de modulación

0

x (t )

tiempo (s)(a) Señal moduladora x (t )

0

x (t )cos(ωc t )

tiempo (s)(b) Señal modulada por cos(ωc t )

X (ω)

Ω−Ωω

X (0)

(c) Densidad Espectral de x (t )

F x (t )cos (ωc t )

12 X (0)

ωc−ωc

∆ω

ω

Banda

Banda

Lateral

LateralInferior

Superior

(d) Densidad espectral de la señal modulada

Figura 2.3: Señal moduladora y señal modulada junto con sus DEE.

teniendo en cuenta la propiedad (1.44), el desplazamiento inverso se da por la operación:

y (t )ℜexp(−jωc t )= y (t )cosωc t (2.8)

= x (t )cos2(ωc t )

=1

2x (t )+

1

2x (t )cos(2ωc t ),

cuya DEE está dada por la expresión:

Fy (t )cos(ωc t )= 1

2X (ω)+

1

4X (ω+ 2ωc )+

1

4X (ω− 2ωc ),

de la cual se observa que la señal x (t ) se recupera al aplicar un filtro pasa bajas, como se muestraen el diagrama de demodulación en la Figura 2.4.

-\\%

%6

- -

e

ee

12

x (t )

Pasa Bajas

Filtro

cos(ωc t )

y (t )

x (t )cos2(ωc t )

Figura 2.4: Diagrama de demodulación DSB-SC

Cabe anotar, que los principios desarrolla-dos sobre la modulación DSB-SC son de apli-cación general a cualquier señal modulado-ra x (t ), siempre que varíe lentamente conrespecto a la frecuencia portadora, esto es,Ω ωc .

De otra parte, con el fin de demodular ade-cuadamente las señales DSB-SC deben cono-cerse la fase correcta y la frecuencia de la por-tadora. Si se introduce un error de frecuencia

2.2. Modulación sinosoidal análoga de amplitud 65

∆ωc y un error de faseφ0 en la señal portadora generada localmente en el receptor, se tiene

y (t )cos((ωc +∆ωc )t +φ0) = x (t )cos(ωc t )cos((ωc +∆ωc )t +φ0)

=1

2x (t )(cos(ωc t −ωc t −∆ωc t −φ0)

+ cos(ωc +ωc +∆ωc +φ0))

=1

2x (t )cos(∆ωc +φ0)+

1

2x (t )cos(2ωc +∆ωc +φ0).

La señal que se recupera después del filtro pasa bajas es ε0(t ) =12 x (t )cos(∆ωc +φ0)mas no

12 x (t ). Cuando∆ωc = 0, se tiene que ε0(t ) =

12 x (t )cosφ0. Se concluye, entonces, que el error de

fase causa atenuación; para φ0 ≈ 0 la atenuación es tolerable, mientras que para φ0 ≈ ±90, laseñal recibida se elimina. Por otra parte, cuando φ0 = 0, pero ∆ωc 6= 0, se tiene una distorsiónque resulta función del tiempo:

ε0(t ) =1

2x (t )cos∆ωc t .

De la discusión anterior, se observa que al emplear modulación DSB-SC se hace necesariosincronizar tanto la frecuencia como la fase entre el transmisor y el receptor. A la restauraciónde la señal original x (t ) a partir de la señal modulada y (t ) empleando un oscilador sincronizado(modelo (2.8)) se le conoce como detección síncrona o coherente.

Modulación en amplitud con gran portadora. Cuando el receptor está ubicado remotamente,el uso de señales con portadora suprimida requiere de circuitos bastante complejos para con-seguir y mantener la necesaria sincronización de fase. Un alternativa consiste en incluir untérmino de portadora adicional, que como se explica a continuación, hace posible la demod-ulación a través de circuitos mucho más simples. Para diferenciar este caso del anterior, a esteesquema de modulación se le designa como modulación doble banda lateral con gran portado-ra (Double Sideband with Large Carrier - DSB-LC). Las estaciones de radio comerciales suelenemplear éste método de transmisión que también se conoce comúnmente como modulaciónde amplitud.

Sea en la ley de proporcionalidad lineal (2.6) la constante de desplazamiento kd = a 6= 0.Entonces, la respectiva señal modulada DSB-LC se escribe como

yAM(t ) = x (t )cosωc t +a cosωc t .

La correspondiente DEE de yAM(t ), mostrada en la Figura 2.5, tiene la forma:

YAM(ω) =1

2X (ω+ωc )+

1

2X (ω−ωc )+πaδ(ω−ωc )+πaδ(ω+ωc ).

La descripción de la señal yAM (t ), también se reagrupa en la forma, yAM (t ) = (a+x (t ))cosωc t .Si se asume que es lo suficientemente grande, a ≥ |minx|, de modo que x (t ) + a ≥ 0,∀t , laenvolvente de la señal modulada resulta proporcional a x (t ). La demodulación se reduce, eneste caso, a la detección de la envolvente de una sinusoide, que no depende de la fase exacta ni

66 Capítulo 2. Principios de modulación

0

x (t )cos(ωc t )+a cos(ωc t )

Tiempo [s]

0

(a) Señal modulada en amplitud congran portadora

12

X (0)

F x (t )cos (ωc t )+a cos (ωc t )

ω

−ωc ωc

2Ω 2Ω

(b) Densidad Espectral de x (t )

Figura 2.5: Señal modulada usando DSB-LC.

de la frecuencia de ésta (es decir, de la portadora cos(ωc t )).

Sea el caso especial en el cual cosωm t ,ωm ωc , es la señal moduladora. Se define el índicede modulación para la señal AM como:

µ=amplitud pico DSB-SC

amplitud pico de la portadora,

de forma que

yAM (t ) = a cosωc t +µa cosωm t cosωc t

= a (1+µcos(ωm t ))cos(ωc t ). (2.9)

donde los máximos de la envolvente de (2.9) son (1+µ)a , mientras los mínimos son (1−µ)a ,que ocurren para µ≤ 1.

La exigencia en la detección correcta de la envolvente, cuando no se considera fuente algu-na de distorsión, implica que µ ≤ 1. A propósito, el índice también es comùn usarle en formaporcentual, esto es, µ% = µ ∗ 100%. Luego, cuando µ% > 100% se dice que la señal está sobre-modulada. La Figura 2.6 muestra señales moduladas en DSB-LC para diferentes valores de µ.

0Tiempo [s]

0

(a) µ> 1

0Tiempo [s]

0

(b) µ= 1

0Tiempo [s]

−D

−B

0

B

D

(c) µ< 1

Figura 2.6: Ejemplos de oscilogramas de la modulación de amplitud de una señal µa cos (ωm t ) paradiferentes valores de µ.

2.2. Modulación sinosoidal análoga de amplitud 67

El porcentaje de modulación se puede expresar en términos de D = a (1+µ) y B = a (1−µ), ovalores máximo y mínimo de la envolvente superior, respectivamente. Así

a (1+µ)−a (1−µ)a (1+µ)+a (1−µ) ∗100%=

D − B

D + B∗100%=µ%.

2.2.2. Modulación de banda lateral única

La presencia en la modulación DSB de las dos bandas laterales con igual contenido informativo,como se observa en las Figuras 2.7(c) y 2.7(d), significa la duplicación del ancho de banda delmensaje, que implica redundancia en la transmisión. En otras palabras, bien se podría enviartan solo una de las bandas; tal esquema tiene aplicación práctica y se denomina modulaciónde banda lateral única (Single Sideband - SSB), que de forma inmediata aumenta la efectividadespectral en dos:∆ωSSB =Ω.

Generación de señales SSB. Básicamente, la forma directa de generar una señal SSB consisteen formar inicialmente una señal DSB y, luego, suprimir una de las bandas laterales con unfiltro como se ilustra en la Figura 2.8. En la práctica, esas operaciones suelen ser complejas; laprimera dificultad radica en implementar un filtro de banda lateral con la calidad requerida, quedebe tener unas características de corte bastante pendientes enωc , tales que rechacen todos lascomponentes de frecuencia por un lado deωc , pero aceptando todas las otras al lado contrariodeωc . Los filtros con pendientes de corte en forma de flancos, en la práctica, se reemplazan pordispositivos con caraterísticas de corte menos exigente, que implican que las componentes defrecuencia de la señal, que se encuentran cercanas a cero, sufran distorsiones.

Sin embargo, es posible generar una señal SSB a través de la adecuada sincronización por fasede las señales, como se ilustra en la Figura 2.9 que muestra el esquema de generación de señalesSSB.

Ejemplo 2.1Sea un filtro de cuadratura que realiza el desplazamiento en fase deπ/2 de cada componente de frecuenciade la señalx (t ), sin alterar su amplitud, y cuya respuesta en frecuencia está dada por

H (ω) =±j sgn (ω) =

¨e−jπ/2, ω> 0e jπ/2, ω< 0.

(2.10)

El modelo(2.10) corresponde al presentado en(1.56) y cuya respuesta impulso se da por la expresión(1.57).

Cabe anotar que la señal analítica compleja,x (t ), definida en(1.60), corresponde a la salida del filtrode cuadratura.

Se puede demostrar que el siguiente formato de señal modulada corresponde al de la señalSSB ySS B (t ):

y (t ) = x (t )cosωc t ∓ bx (t )sinωc t = ySS B (t ), (2.11)

donde la diferencia representa una señal SSB de banda lateral superior (Upper Sideband - USB),mientras la suma es la de banda lateral inferior (Lower Sideband - LSB).

68 Capítulo 2. Principios de modulación

X (0)

X (ω)

ω

−Ω Ω

(a) Densidad Espectral de x (t )

12 X (0)

DSB-SC

ω

−ωc ωc

(b) Modulación DSB-SC

12 X (0)

Sólo banda lateral superior

ω

−ωc ωc

(c) Banda Lateral Superior

12 X (0)

Sólo banda lateral inferior

ω

−ωc ωc

(d) Banda Lateral Inferior

Figura 2.7: Información de las bandas laterales en una señal DSB-SC.

En particular, sea y (t ) = x (t )cosωc t − x (t )sinωc t , luego, la respectiva DEE se obtiene como

Fy (t )=Fx (t )cosωc t −Fbx (t )sinωc t

=1

2X (ω−ωc )+

1

2X (ω+ωc )−

1

2jbX (ω−ωc )−

1

2jbX (ω+ωc )

, (2.12)

2.2. Modulación sinosoidal análoga de amplitud 69

12 X (0)

DSB-SC

ω

−ωc ωc

(a) Señal DSB-SC

Generación banda lateral superior

ω

−ωc ωc

Filtro pasa altas

(b) Banda lateral superior generada con un filtro pasaaltas

Generación banda lateral inferior

ω

−ωc ωc

Filtro pasa bajas

(c) Banda lateral inferior generada con un filtro pasabajas

Figura 2.8: Generación de una señal SSB empleando filtros.

x (t )

− π2

− π2

cos (ωc t )

bx (t )

sin (ωc t )

x (t )cos (ωc t )

+

bx (t )sin (ωc t )

ySSB (t )

Figura 2.9: Esquema de modulación SSB usando filtro de cuadratura

donde la TF de los términos bX (ω−ωc ) y bX (ω+ωc ) , teniendo en cuenta la propiedad (1.59a),

70 Capítulo 2. Principios de modulación

está dada por

bX (ω±ωc ) =−j sgn (ω±ωc )X (ω±ωc ) . (2.13)

Reemplazando (2.13) en (2.12) se tiene

Y (ω) =1

2X (ω−ωc )+

1

2X (ω+ωc )−

1

2

−j sgn (ω−ωc )X (ω−ωc )

+j sgn (ω+ωc )X (ω+ωc )

=1

2X (ω−ωc )

1+ sgn (ω−ωc )

+

1

2X (ω+ωc )

1− sgn (ω+ωc )

. (2.14)

Los términos

1+ sgn (ω−ωc )

y

1− sgn (ω+ωc )

equivalen a

1± sgn (ω−ωc )

=

(2, ω>±ωc ,

0, ω<±ωc .

De nuevo, sustituyendo las expresiones anteriores en (2.14), se tiene

Y (ω) =

0 |ω|<ωc ,

X (ω+ωc ) ω<−ωc ,

X (ω−ωc ) ω>ωc .

(2.15)

La DEE (2.15) corresponde a la señal SSB de banda lateral superior, pero de manera similarse demuestra que la diferencia en la ecuación (2.11) conduce a la señal SSB de banda lateralinferior.

Resumiendo, el formato de modulación (2.11) corresponde a generar la señal analítica, (1.60)desplazando hastaωc su respectiva DEE unilateral, acordes con la propiedad (1.43). Finalmente,se restaura la característica bilateral de la señal desplazada tomando su parte real, así:

ℜx (t )+ j bx (t )

exp(jωc t )= x (t )cosωc t − bx (t )sinωc t .

Desde el punto de vista práctico, es importante enfatizar que no es posible implementar fil-tros de cuadratura que desplacen cada una de las componentes de frecuencia de la señal enπ/2.A lo sumo, este comportamiento sólo se puede aproximar sobre una banda finita de frecuencias.

Demodulación de señales SSB. La demodulación de las señales SSB que se realiza utilizandoel modelo de detección coherente implica que la señal modulada ySS B (t ) se multiplique por unaportadora local, después de lo cual la señal resultante se filtra usando un filtro pasa–bajas, comose ilustra en la Figura 2.10.

La demodulación síncrona de señales SSB también presenta problemas, como es el caso DSB-SC, cuando existen errores en los valores nominales de fase o frecuencia en la portadora dereferencia, esto es, ρ(t ) = cos

(ωc +∆ωc ) t +φ0

, donde ∆ωc es el error de frecuencia y φ0 es

el error de fase. De hecho, la señal demodulada z (t ), mediante el principio coherente (2.8), es

2.2. Modulación sinosoidal análoga de amplitud 71

ySS B (t ) z (t )

cos (ωc t )

x (t )Filtropasabajas

−ωc

−ωc

ωc

ωc

0

0

0

ω

ω

ω

YSS B (ω)

Z (ω)

Y (ω)

Filtro pasabajas

−2ωc 2ωc

XSS B (0)

YSS B (0)/2

(a) Demodulación SSB síncrona b) Proceso de demodulación SSB síncrona en la frecuencia

Figura 2.10: Esquema de demodulación SSB empleando detección coherente

igual a,

z (t ) = ySS B (t )ρ(t )

= (x (t )cosωc t ∓ bx (t )sinωc t )cos(ωc +∆ωc ) t +φ0

=1

2x (t )

cos

(∆ωc ) t +φ0

+ cos

(2ωc +∆ωc ) t +φ0

± 1

2bx (t )

sin(∆ωc ) t +φ0

− sin

(2ωc +∆ωc ) t +φ0

A la salida del filtro pasabajas, se tienen los términos

x (t ) =1

2x (t )cos

(∆ωc ) t +φ0

± 1

2bx (t )sin

(∆ωc ) t +φ0

.

Como se observa de la ecuación anterior, cuando no hay desacople de la valores de frecuen-cia, ∆ωc = 0, ni de fase, φ0 = 0, entonces, la señal demodulada coincide por forma completa-mente con el mensaje, x (t )∼ x (t ).

Cuando se asume tan solo un desfase desconocido, φ0 6= 0, pero∆ωc = 0, se obtiene que:

x (t ) =1

2x (t )cos

φ0± 1

2bx (t )sin

φ0

.

con lo cual se producen, respectivamente, dos tipos de perturbación: la atenuación y distorsióndel mensaje original. El peor caso, cuando además se tiene que ∆ωc 6= 0, induce una demodu-lación parásita adicional.

72 Capítulo 2. Principios de modulación

Ejemplo 2.2 Sea la señal transmitida en la forma

ySSB−LC (t ) = a cosωc t +(x (t )cosωc t ∓ bx (t )sinωc t ) ,

dondea |x (t )| es la amplitud de la portadora, que se asume suficientemente grande, tal que permita larecuperación del mensaje empleando un detector de envolvente. Así,

ySSB−LC (t ) = (a +x (t ))cosωc t ∓ bx (t )sinωc t

= r (t )cos (ωc t +θ (t )) ,

siendoθ (t ) el desfase definido en(1.69b) y r (t ) la envolvente, que para el caso se determina como:

r (t ) =Æ(a +x (t ))2+(bx (t ))2

= a

1+

2x (t )

a+

x 2(t )

a 2+(bx (t ))2

a 2

1/2

≈ a

1+

2x (t )

a

1/2

, ∀a |bx (t )|

Usando la expansión binomial e ignorando los términos de mayor orden, debido a quex (t ) a , sellega a la siguiente expresión:

r (t )≈ a

1+

x (t )

a

= a +x (t ).

De esta forma, la señal moduladorax (t ) se restablece empleando un detector de envolvente. Este es-quema de detección por envolvente, que simplifica la complejidad de realización del modulador, se conocecomomodulación de banda lateral única con gran portadora(Single Sideband Large Carrier- SSB-LC). Sinembargo, la detección de envolvente para la señal AM requiere quea ≥ |x (t )|, mientras que la detección porenvolvente para la señal de banda lateral única requierea |x (t )|. Como la amplitud de la portadora debeser mayor en la detección de envolvente para señal de banda lateral única, la eficiencia de la modulaciónSSB-LC es comparativamente más baja.

2.2.3. Modulación de banda lateral vestigial

La generación de señales SSB, definitivamente, conlleva a una serie de dificultades: por un la-do es posible distorsionar las componentes dc de la señal que se desea transmitir mientras porotro lado, la realización de un filtro de cuadratura sólo se logra de forma aproximada. En cam-bio, la generación de señales DSB es mucho más simple, pero requiere del doble del ancho debanda de la señal. Un nuevo tipo de modulación o modulación de banda lateral vestigial (Ves-tigial Sideband - VSB), que resulta del compromiso entre los tipos DSB y SSB, tiene tambiénaplicación. En este caso, una de las bandas laterales se transmite casi completamente, mientrasque para la otra banda lateral sólo se transmite una parte o vestigio de la misma. Las señalesVSB son relativamente fáciles de generar y al mismo tiempo su ancho de banda es típicamente25% mayor que el ancho de banda de una señal SSB.

Generación de señales VSB. La señal modulada VSB se genera al filtrar una señal DSB emple-ando un filtro especial conocido con el nombre de filtro vestigial, que permite el paso de unapequeña parte de la banda lateral inferior (o superior) y una parte mucho mayor de la banda lat-eral superior (o inferior). La respuesta en magnitud del filtro VSB se muestra en la Figura 2.11(a),mientras la Figura 2.11(b) muestra la transformación que sufre la densidad espectral de la señalx (t ) al ser modulada de esta manera.

2.2. Modulación sinosoidal análoga de amplitud 73

|HV S B (ω)|

0 ωc ω

(a) Filtro VSB

−ωc

−ωc

−ωc

ωc

ωc

ωc

0

0

0

0

ω

ω

ω

ω

X (ω)

XDS B (ω)

HV S B (ω) Filtro vestigial

XV S B (ω)

(b) Proceso de modulación VSB en el dominiode la frecuencia

Figura 2.11: Esquema de modulación VSB

Demodulación de señales VSB. La detec-ción coherente de una señal modulada conbanda lateral vestigial, yV S B (t ) se realiza deforma similar a los casos anteriores analiza-dos de AM. Así, la señal x (t ), con frecuen-cia máxima Ω, puede detectarse sin distor-sión siempre que la respuesta en magnituddel filtro VSB, para todo |ω| ≤ Ω, cumpla lacondición (ver Figura 2.11):

HV S B (ω+ωc )+HV S B (ω−ωc ) = const .

La condición anterior se verifica en la for-ma siguiente. Dado el espectro de la señalyDS B (t ) por YDS B (ω) = X (ω−ωc )+X (ω+ωc ),la señal modulada yV S B (t ) se obtiene al filtraryDS B (t ) con el filtro vestigial, que es equivalea multiplicar la DEE YDS B (ω) por la respuestaen frecuencia del filtro HV S B (ω), esto es,

YV S B (ω) = YDS B (ω)HV S B (ω).

La detección sincrónica se realiza medi-ante el principio (2.8), z (t ) = yV S B (t )cos(ωc t )con DEE

Z (ω) =1

2(YV S B (ω−ωc )+YV S B (ω+ωc )) .

Reemplazando el valor de YV S B (ω) en la expresión anterior se obtiene que

Z (ω) =1

2((X (ω− 2ωc )+X (ω))HV S B (ω−ωc )+ (X (ω)+X (ω+ 2ωc ))HV S B (ω+ωc )) .

La acción del filtro pasabajas elimina las componentes de frecuencia en ±2ωc y la DEE delmensaje reconstruido X (ω) está dada por

X (ω) =1

2X (ω) (HV S B (ω+ωc )+HV S B (ω−ωc )) .

De lo que se observa que la señal x (t ) se recupera sin distorsión siempre que HV S B (ω+ωc )+

HV S B (ω−ωc ) sea constante en el rango de frecuencias de X (ω).

La transmisión de una señal de banda lateral vestigial también puede realizarse usando unaportadora. Se ha visto anteriormente, que el esquema de modulación SSB-LC requiere de unaportadora mucho mayor que el esquema DSB-LC cuando la demodulación se realiza por de-tección de envolvente. Debido a que la modulación de banda lateral vestigial con gran porta-dora (VSB-LC) es un caso intermedio, la portadora requerida en VSB es mayor que en DSB-LC,aunque menor que en SSB-SC.

74 Capítulo 2. Principios de modulación

Modulación de banda lateral vestigial en sistemas de transmisión de señal de televisión

La modulación de banda lateral vestigial se emplea en la transmisión de la señal de televisión.El video en la señal de televisión ocupa un ancho de banda considerable igual a 4.5 MHz. Laseñal DSB respectiva requeriría un ancho de banda de 9 MHz. Aunque la modulación SSB es unalternativa para conserva el ancho de banda de la señal original, este esquema de modulaciónpresenta inconvenientes en la transmisión de la señal de video. Por una parte, la señal de videotiene componentes de frecuencia dc que no son despreciables y por otro, con el fin de reducirel costo de la recepción es preferible contar con un sistema que use detección por envolvente.Como se ha mencionado, la transmisión SSB-LC es bastante ineficiente, lo que incrementa elcosto del receptor. La Figura 2.12(a) muestra el espectro de una señal de televisión. El filtrovestigial permite el paso de componentes de frecuencia desde los 0.75 MHz hasta 1.25 MHz pordebajo de la frecuencia de la portadora f c , como se observa de la Figura 2.12(b). El ancho debanda del espectro resultante es 6 MHz, que contrasta con los 9 MHz de la señal DSB y los 4.5MHz de la señal SSB.

0

Espectro DSB

f c f c +4.5 f , MHz

Espectro de audioEspectro de video

0.25 MHz

(a) Señal DSB

0 f c f c +4.5 f , MHz

0.75

f c −1.25

(b) Señal transmitida

Figura 2.12: Densidad espectral de la señal de televisión

0.

2.2. Modulación sinosoidal análoga de amplitud 75

Problemas

1. Sea la señal

x (t ) = cos 200πt

que se usa para modular una portadora de 5 k Hz . Realizar un programa en el computador quedibuje las ondas temporales y los espectros de línea cuando se consideran los siguientes tiposde modulación:

a). DSB-SC

b). DSB-LC

c). SSB-SC−

d). SSB-SC+

2. Realizar un programa en el computador que dibuje una señal de AM modulada por un

coseno, para un valor dado de índice de modulación µ ∈ [0.5,1].3. Demuestrar que cuando a la salida de un modulador por desplazamiento de fase (ver Figura

2.9) se tiene una señal SSB, entonces, la suma de ambas componentes en el punto de sumaproduce la señal SSB de banda lateral inferior.4. Demostrar que el sistema de la Figura 2.13 puede emplearse para demodular una señal SSB.

\\\%

%%

\\\%

%%

x (t )

-

?

-

6

?

--

6

?

xSSB(t )

−π2 bxSSB(t ) bxSSB(t )sin(ωc t )

sin(ωc t )

−π2

xSSB(t )cos(ωc t )

+

+

cos(ωc t )

-

Figura 2.13: Demodulación de Señales SSB por corrimiento de fase

5. Sea la respuesta en frecuencia de un filtro de banda lateral vestigial como se muestra en la

Figura 2.14 .

a). Encontrar la señal de banda lateral vestigial yVSB(t ) cuando

x (t ) = a 1 cos(ω1t )+a 2 cos(kω2t ).

76 Capítulo 2. Principios de modulación

...... -

1−α

1

0.5

α

ωc −ω1 ωc ωc +ω1 ωc +ω2 ω

|H (ω)|

Figura 2.14: Filtro VSB del ejercicio 2.2.3

b). Demostrar que la señal yVSB(t ) puede demodularse usando un demodulador síncrono.

6. La detección síncrona de una señal DSB-SC se puede llevar a cabo al multiplicar la señal

modulada recibida por un tren de pulsos p (t ) de frecuencia ωc . El resultado de esta multipli-cación es la señal

x (t )cos(ωc t )p (t )

Deducir la expresión analítica de la función de densidad espectral de esta señal y demostrar quese puede recuperar la señal x (t ) en la salida con un filtro pasabajos.

2.3. Modulación sinosoidal análoga de ángulo 77

2.3. Modulación sinosoidal análoga de ánguloEn la modulación de ángulo, la información se transmite variando la fase instantánea, de acuer-do con la función definida en (2.4b), cuando la amplitud de la señal moduladora permanececonstante a (t ) = const, mientras θ (t ) cambia en función de la señal de banda base.

Al igual que en el caso de la modulación de amplitud análoga y de radiofrecuencia, sobreel modelo de la fase instantánea, θ (t ), se impone la misma condición: θ (t ) = ωc t + φ(t ).De la derivada del términoφ(t ), o desviación de fase, se determina el concepto de desviación defrecuencia, esto es,∆dω(t ) = dφ/d t . En concordancia con los anteriores tipos de desviación deángulo y por cuanto el valor ωc = const, entonces se analizan dos tipos de variación indirectade la fase instantánea, que están en función (típicamente lineal) de la señal de banda base:

φ(t )∼ kp x (t ), Modulación de fase (2.16a)

dφ/d t ∼ k f x (t ), Modulación de frecuencia (2.16b)

donde kp y k f son los términos de proporcionalidad lineal, denominados respectivamente coe-ficientes de desviación de fase y frecuencia. Cabe anotar, que de la expresión (2.16b), la desviaciónde fase en la modulación de frecuencia es proporcional a la integral de la señal moduladora,

φ(t ) = k f

t

x (τ)dτ+ const . (2.17)

2.3.1. Modulaciones de fase y frecuencia

Derivados del modelo (2.3) y teniendo en cuenta (2.17), las señales moduladoras de los formatosde modulación (2.16a) y (2.16b) se describen, respectivamente como:

yPM (t ) = a cosωc t +kp x (t )

(2.18a)

yF M (t ) = a cos

ωc t +k f

t

x (τ)dτ+φ0

. (2.18b)

La correspondiente frecuencia instantánea está dada por

ωPMi (t ) =ωc +kp

d x (t )

d t(2.19a)

ωF Mi (t ) =ωc +k f x (t ). (2.19b)

La diferenciación entre modulación de fase y modulación de frecuencia en términos de φ(t )o ωi (t ), se realiza en términos de la desviación de fase; la modulación angular es modulaciónde fase siφ(t ) es proporcional a x (t ) y modulación de frecuencia si es proporcional a la integralde x (t ). En términos de la frecuencia instantáneaωi (t ), la modulación angular es modulaciónde fase siφ(t ) cambia linealmente con la derivada de x (t ) con respecto al tiempo y modulaciónde frecuencia si cambia linealmente con x (t ).

La Figura 2.15 muestra dos ejemplos de modulación angular. Inicialmente, cuando la señalmoduladora x (t ) corresponde a una onda cuadrada cuya amplitud cambia entre a y−a (Figura2.15(a)). En la señal modulada en fase, yPM (t ), la frecuencia instantánea ωi (t ) permanece convalor constante e igual a ωc . La fase de la señal, φ(t ), cambia proporcionalmente con x (t ): es

78 Capítulo 2. Principios de modulación

a

−a

x (t )

yPM (t )

yF M (t )

t

t

t

(a) Señal cuadrada moduladora

a

−a

x (t )

yPM (t )

yF M (t )

t

t

t

a cos(ωm t ) −a sin(ωm t )

(b) Señal sinusoidal moduladora

Figura 2.15: Ejemplos oscilogramas para los tipos de modulación de fase y frecuencia

constante durante los intervalos en los cuales x (t ) = a ó x (t ) =−a y cambia de manera abruptacuando x (t ) cambia de a a −a . Así, el ángulo es igual a θ (t ) = ωc t + kp a = ωc t + θ0 cuandox (t ) = a y θ (t ) =ωc t −kp a =ωc t −θ0 cuando x (t ) =−a . Por otra parte, en la señal moduladaen frecuencia, yF M (t ), la frecuencia instantáneaωi (t ) varía entreωi (t ) =ωc + k f a =ωc +∆ω

cuando x (t ) = a yωi (t ) =ωc −k f a =ωc −∆ω cuando x (t ) =−a .Seguidamente, en la Figura 2.15(b), se ilustra el caso de la señal moduladora en forma si-

nusoidal x (t ) = a cos(ωm t ). De acuerdo a la expresión (2.19a), la frecuencia instantánea de laseñal modulada en fase, yPM (t ), está dada por ωc + kp (d x (t )/d t ) =ωc − a kp sin(ωm t ), mien-tras la frecuencia instantánea de la señal modulada en frecuencia, yF M (t ), está dada por ωc +

a k f cos(ωm t ).

Densidad espectral de la modulación en ángulo. El modelo de la señal modulada, (2.3), parala modulación en ángulo se escribe en forma exponencial como

y (t ) =ℜ

a exp(jωc t +φ(t )

)=ℜ

a exp(j (ωc t ))exp(jφ(t ))

.

Al reemplazar en la expresión anterior, la componente exponencial exp(jφ(t )) mediante sucorrespondiente serie de potencias, se obtiene

y (t ) =ℜ

a exp(j (ωc t +φ(t )))=ℜ

(a exp(jωc t )

∞∑

n=0

(jφ(t )

n

n !

!)

=ℜ¦

a exp(jωc t )

1+ jφ(t )−φ2(t )/2!− ·· ·+ j nφn (t )/n !+ . . .©

. (2.20)

De esta manera, la señal modulada en ángulo consiste de una portadora sin modular y varios

2.3. Modulación sinosoidal análoga de ángulo 79

términos modulados en amplitud, tales como φ(t )sinωc t , φ2(t )/2! cosωc t , φ3(t )/3! sinωc t ,entre otros. La DEE consiste entonces de una portadora sin modular además de la TF de φ(t ),φ2(t )/2!, φ3(t )/3!; todos centrados en ωc . Del análisis anterior ser observa que no existe unarelación sencilla entre la señal modulada y (t ) y la señal moduladora x (t ), como sí existía en elcaso de la modulación de amplitud.

2.3.2. Modulación de ángulo de banda angosta

Si en la expresión (2.20), la amplitud máxima deφ(t ) es tal que siempre se cumple la restricción:

|φ(t )|máx < 1, (2.21)

entonces, la señal modulada y (t ) se aproxima como

y (t )≈ a cosωc t −Aφ(t )sinωc t . (2.22)

El formato de modulación (2.22) se conoce como la señal modulada en ángulo de banda an-gosta. De esta manera,

yN BPM (t )≈ a cosωc t −a kp x (t )sinωc t (2.23a)

yN B F M (t )≈ a cosωc t −a k f

∫ t

−∞x (τ)dτ

!sinωc t , (2.23b)

donde yN BPM (t ) es la señal modulada en fase de banda angosta (Narrowband Phase Modula-tion–NBPM) y yN B F M (t ) la señal modulada en frecuencia de banda angosta (Narrowband Fre-quency Modulation -NBFM ). Las expresiones anteriores indican que la señal modulada en án-gulo de banda angosta consiste de una portadora sin modular más un término en el que φ(t )multiplica a la señal portadora desplazada en −π/2 radianes. Esta multiplicación genera dosbandas laterales con centro en ωc . Si φ(t ) tiene ancho de banda Ω, el ancho de banda de laseñal modulada en ángulo de banda angosta es igual a ∆ωNBPM = 2Ω, como en el caso de lamodulación en amplitud DSB-LC.

Ejemplo 2.3 Sea la señal moduladora una sinusoidal purax (t ) = a cosωm t . En el caso de FM, la fre-cuencia instantánea está dada por

ωi (t ) =ωc +k f x (t ) =ωc +a k f cosωm t .

La desviación de frecuencia máxima es igual a∆ω = a k f , con lo cual la frecuencia instantánea esωi (t ) =ωc +∆ωcosωm . La fase de esta señal de FM es

θ (t ) =ωc t +a k f

∫ t

−∞cos(ωmτ)d t τ=ωc t +

a k f

ωmsinωm t =ωc t +β sinωm t ,

dondeβ = a k f /ωm = ∆ω/ωm es un coeficiente adimensional de la desviación de frecuencia máxima a lafrecuencia moduladora. Luego, empleando la expresión(2.23b), la señal de FM de banda angosta es

yN B FM (t ) = a cosωc t −βa sinωm t sinωc t . (2.24)

80 Capítulo 2. Principios de modulación

La ecuación (2.24) sigue la misma forma que la modulación de amplitud DSB-LC que usauna moduladora sinusoidal (ver ecuación (2.9)) yDS B−LC (t ) = a cosωc t +µa cosωm t cosωc t .Debido a esta similitud, el coeficiente β recibe el nombre de índice de modulación. En la modu-lación de fase de banda angosta, x (t ) = a sinωc t , lo que conduce a

yN BPM (t ) = a cosωc t −βa sinωm t sinωc t ,

donde el índice de modulación es β = kp a .

La condición enunciada en la expresión (2.21) se traduce en el caso sinusoidal en que el índicede modulación sea menor que uno, esto es β < 1. En la práctica, un valor de β < 0.2 es suficientepara lograr una modulación angular de banda angosta con moduladora sinusoidal.

2.3.3. Modulación de ángulo de banda ancha

Cuando la condición (2.21) no tiene lugar, entonces, los términosφ(t )sinωc t ,φ2(t )/2! cosωc t ,φ3(t )/3! sinωc t , y de mayor orden se deben tener en cuenta en el cálculo del correspondienteespectro de Fourier. En forma general, este análisis no es sencillo desde el punto de vista analíti-co; se requiere calcular la DEE de todos los términos que aparecen en la sumatoria de la expre-sión (2.20). La forma más común de aproximación considera el caso en el cual la señal modu-ladora corresponde a una señal sinusoidal.

Caso sinusoidal. Sea x (t ) = a cosωm t la señal moduladora. En el caso de FM, la frecuenciainstantánea es igual a

ωi (t ) =ωc +a k f cosωm t =ωc +∆ωcosωm t ,

por lo tanto, la fase instantánea se determina como

θ (t ) =

∫ t

0

ωi (τ)dτ=ωc t +β sinωm t ,

de lo cual, la señal modulada en frecuencia está dada por

yF M (t ) =ℜ¦

Ae jωc t e jβ sinωm t .©

(2.25)

La señal exponencial e jβ sinωm t en la expresión (2.25) es una función periódica del tiempocon frecuencia fundamental ωm = 2π/T [rad/s], que puede representarse usando la serie deFourier:

e jβ sinωm t =

∞∑

k=−∞Fk e j kωm t , (2.26)

donde

Fk =1

T

∫ T /2

−T /2

e jβ sinωm t e−j kωm t d t .

2.3. Modulación sinosoidal análoga de ángulo 81

Mediante el cambio de variable ξ=ωm t = (2π/T )t , la expresión anterior es igual a

Fk =1

∫ π

−πe j (β sinξ−kξ)dξ.

1

0.8

0.6

0.4

0.2

0

−0.2

−0.40 1 2 3 4 5 6 7 8 9 10 11 12

Jk (β )

β

J0

J1 J2 J3 J4 J5 J6 J7 J8 J9J10

Figura 2.16: Funciones de Bessel de primera clase,Jk (β )

La integral anterior, que es función de losvalores de k ∈N y β ∈R+, puede evaluarse enforma numérica y se conoce con el nombrede la función de Bessel de primera clase, la cualse denota por Jk (β ). El cálculo de algunas deestas funciones se muestran en la Figura 2.16.En general, se puede demostrar que la fun-ción de Bessel de primera clase cumple lassiguientes propiedades:

a). Jk (β )∈R,

b). Jk (β ) = J−k (β ), para k par.

c). Jk (β ) =−J−k (β ), para k impar.

d).∑∞

k=−∞ J 2k (β ) = 1.

Empleando la definición de Jk (β ), la ecuación (2.26) puede escribirse como

e jβ sinωm t =

∞∑

k=−∞Jk (β )e

j kωm t ,

con lo cual yF M (t ) es igual a

yF M (t ) =ℜ(

a e jωc t∞∑

k=−∞Jk (β )e

j kωm t

)

= a∞∑

k=−∞Jk (β )cos ((ωc +kωm )t ) .

A diferencia de la modulación de amplitud, en la que el número de bandas laterales es finito(igual a dos), en la modulación de frecuencia, el número de bandas laterales es infinito. Sin em-bargo, debido al comportamiento monótono de las funciones de Bessel en las que la amplitudde Jk (β ) disminuye a medida que k aumenta, como se observa en la Figura 2.16, el número sig-nificativo de bandas laterales disminuye con k creciente, por lo cual se considera que, desde unpunto de vista práctico, la potencia está contenida dentro de un ancho de banda finito. La Figu-ra 2.17 muestra las magnitudes de las bandas laterales para diferentes valores de β . El índicede modulación β es función de la desviación de frecuencia máxima ∆ω y la frecuencia de laseñal moduladora sinusoidal ωm . En la Figura 2.17(a), la frecuencia ωm se hace constante y semuestra el espectro de línea en función de los cambios de∆ω. Valores crecientes de β implicanamplitudes menores para las componentes espectrales. En la Figura 2.17(b), la desviación de

82 Capítulo 2. Principios de modulación

frecuencia máxima,∆ω, se hace constante y se muestran los cambios en el espectro de línea enfunción de los cambios de la frecuencia del tono moduladorωm .

ωc

ωc

ωc

ωc

ωc

ω

ω

ω

ω

ω

β = 1

β = 2

β = 5

β = 10

β = 15

ωm

(a) ωm constante

ωc

ωc

ωc

ωc

ωc

ω

ω

ω

ω

ω

β = 1

β = 2

β = 5

β = 10

β = 20

∆ω∆ω

∆ω∆ω

∆ω∆ω

∆ω∆ω

∆ω∆ω

(b) ∆ω constante

Figura 2.17: Densidad espectral de la señal de FM de banda ancha con moduladora sinusoidal

Una propiedad de las funciones Jk (β ) es que su amplitud disminuye rápidamente para losvalores de k mayores que β . Algunos ejemplos de esta propiedad se observan de la Figura 2.17.El ancho de banda para valores grandes de β puede aproximarse si sólo se tienen en cuenta lasbandas laterales para las cuales k ≤ β . Para k > β se considera que la amplitud de Jk (β ) es lo

2.3. Modulación sinosoidal análoga de ángulo 83

suficientemente pequeña para no ser tenida en cuenta. De esta manera, el ancho de banda paravalores grandes de β se puede aproximar como

∆ωF M = 2kωm ≈ 2βωm = 2∆ω

ωmωm

≈ 2∆ω.

Aumiendo valores pequeños de β , las únicas funciones de Bessel de magnitud considerableson J0(β ) y J1(β ), como se puede observar de la Figura 2.16. De aquí que el ancho de banda enel caso de banda angosta se pueda aproximar como ∆ωF M = 2ωm .

Una regla que permite aproximar el ancho de banda para cualquier valor de β se conoce conel nombre de la regla de Carson y calcula el ancho de banda como

∆ωF M ≈ 2ωm (1+β ).

x (t )kp

a sinωc t

−π2 a cosωc t

yN BPM (t )−

+

(a) Modulación de fase

x (t )k f

a sinωc t

−π2 a cosωc t

yN B F M (t )−

+

∑∫

(b) Modulación de frecuencia

Figura 2.18: Esquemas de modulación de banda angosta

La regla de Carson se aproxima a los valores correctos en los límites en que β toma valorespequeños o valores grandes. También se emplea para cualquier señal de banda limitada. En estecaso, el índice de modulación se conoce en forma general como índice de dispersión o índicede desviación D y se define como

D =desviación de frecuencia máxima

ancho de banda de x (t )=∆ω

Ω.

En términos del índice de desviación, la regla de Carson es igual a

∆ωF M ≈ 2Ω(1+D).

Generación de señales moduladas en ángulo. La generación de señales moduladas en ángu-lo de banda angosta se realiza mediante la implementación directa de las ecuaciones (2.23a)y (2.23b), tal y como se muestra en los diagramas de la Figura 2.18. La Figura 2.18(a) muestrael esquema de generación de señales moduladas en fase de banda angosta, mientras la Figura2.18(b) muestra el esquema de generación de señales moduladas en frecuencia de banda angos-ta. La generación de señales moduladas en ángulo de banda ancha se puede realizar de maneraindirecta a través de un esquema de modulación conocido como modulación indirecta de FMtipo Armstrong. En este esquema de modulación, primero se genera una señal de banda angos-ta que se transforma en un señal de banda ancha empleando multiplicadores de frecuencia. Un

84 Capítulo 2. Principios de modulación

multiplicador de frecuencia es un circuito que multiplica el argumento de la señal sinusoidalde entrada por un factor n . Por ejemplo, si la señal de entrada al multiplicador de frecuencia esx (t ) = a cos

ωc t +φ(t )

, entonces, la señal de salida es x (n , t ) = a cos

nωc t +nφ(t )

.

El coeficiente n en frente de la faseφ(t ) tiene por objetivo aumentar el valor de la desviaciónmáxima de frecuencia∆ω o en otras palabras del índice de desviación D. La Figura 2.19 muestraun diagrama en bloques simplificado del modulador tipo Armstrong.

Multiplicadorde frecuencia

x (t ) xW B F M (n , t )yN B F M (t )NBFM

Figura 2.19: Diagrama de bloques simplificado del generador indirecto de onda FM tipo Armstrong

Demodulación de señales moduladas en ángulo. La demodulación de una señal de FM re-quiere de un discriminador o sistema que produzca una salida proporcional a la desviación defrecuencia instantánea de la señal de entrada. Tal sistema recibe el nombre de discriminador defrecuencia, para el cual, cuando la entrada es una señal modulada de ángulo, entonces su salidatendrá la forma,

yd (t ) = kddφ(t )

d t,

donde kd es la sensibilidad del discriminador.

Detector deenvolvente

xc (t ) xc (t ) aωi (t )d

d t

Figura 2.20: Demodulación angular usando diferenciación directa

En el caso de FM, la salida del discriminador ideal de frecuencias es yd (t ) = kd k f x (t ).Un aproximación al discriminador ideal de frecuencia consiste de un diferenciador ideal segui-

do de un detector de envolvente, como se muestra en la Figura 2.20. De nuevo, si la entrada aldiferenciador se tiene la señal (2.18a), la salida del diferenciador está dada por

y (t ) =−a

ωc t +

dφ(t )

d t

sinωc t +φ(t )

.

de la cual se observa, que la señal xc (t ) está modulada, tanto en amplitud como en frecuencia.La envolvente de y (t ) es

aωc t +dφ(t )/d t

,

y la salida del detector de envolvente es entonces proporcional a la frecuencia instantánea

yd (t ) =ωi (t ).

2.3. Modulación sinosoidal análoga de ángulo 85

Problemas

7. Determinar la frecuencia instantánea en Hz de cada una de las siguientes señales

a). 10cos(200πt +π/3)

b). 10cos(20πt +πt 2)

8. Una señal modulada de ángulo se describe por

y (t ) = 10cos

2π(106)t + 0.1sin(103)πt

a). Encontrar a x (t ) si se considera y (t ) como una señal de PM con kp = 10.

b). Encontrar a x (t ) si se considera y (t ) como una señal de FM con k f = 10π.

9. Sean x1(t ) y x2(t ) dos señales de mensaje, mientras yc1(t ) y yc2(t ) son las señales moduladas

correspondientes a x1(t ) y x2(t ), respectivamente.

a). Demostrar que cuando la modulación es DSB (AM), entonces la suma

x1(t )+x2(t )

produce una señal modulada igual a

yc1 (t )+ yc2(t )

b). Demostrar que si la señal es de ángulo modulado, la señal modulada producida por lasuma x1(t )+x2(t ) no será yc1 (t )+ yc2(t ), esto es, la propiedad de superposición no aplicaa las señales moduladas de ángulo.

10. Calcular el espectro de yF M (t ) correspondiente a la portadora que se modula en ángulo por

la suma de dos sinusoides:

yF M (t ) = a cos(ωc t +β1 sinω1t +β2 sinω2t )

dondeω1 yω2 no están relacionadas armónicamente (es decir, una de ellas no se puede expre-sar como múltiplo de la otra).11. Determinar el ancho de banda para la siguiente señal modulada en ángulo:

y (t ) = 10cos(2π108t + 200cos 2π103t )

12. Una portadora de 20 MHz se modela en frecuencia usando una sinusoide, tal que la máxima

desviación de frecuencia es 100 kHz. Determinar el índice de modulación y el ancho de banda

86 Capítulo 2. Principios de modulación

aproximado de la señal de FM si la frecuencia de la señal moduladora es 1 kHz, 100 kHz y 500kHz.13. Considérese la señal de ángulo modulado

y (t ) = 10cos(ωc t + 3sinωm t )

Asuma que la señal es PM y que f m=1 kHz. Calcular el índice de modulación y encuentrar elancho de banda cuando

a). f m se dobla.

b). f m se disminuye a la mitad.

14. Repetir el problema anterior asumiendo que la señal es de FM.

15. Una portadora se modula en frecuencia con una señal sinusoidal de 2 kHz resultando en

una desviación máxima de frecuencia de 5 kHz.

a). Encontrar el ancho de banda de la señal modulada.

La amplitud de la señal moduladora se incrementa por un factor de 3 y su frecuencia sedisminuye a 1 kHz.

b). Encontrar la máxima desviación de frecuencia y el ancho de banda de la señal nueva-mente modulada.

2.4. Modulación banda base de pulso 87

2.4. Modulación banda base de pulsoEn la modulación de pulso, la señal portadora consiste de un tren de pulsos y la modulación serealiza al variar algún parámetro de esta señal portadora en forma proporcional a la señal deinformación. La modulación consiste en cambiar los tres parámetros básicos de los pulsos enforma proporcional al valor determinado sobre una malla discreta de tiempo o valor muestreadode la señal moduladora.

2.4.1. Modulación análoga de pulso

La información se transmite de forma análoga, aunque en tiempo discreto. Existen tres tipos demodulación análoga de pulso, la modulación por amplitud de pulso (Pulse Amplitude Modu-lation - PAM), la modulación por ancho de pulso (Pulse Width Modulation - PWM) y la modu-lación por posición de pulso (Pulse Position Modulation - PPM).

Modulación por amplitud de pulso

Cuando se tiene que la amplitud del pulso en un tren de pulsos cambia en proporción direc-ta con las valores muestreados de x (t ), tal como se ilustra en la Figura 2.21(a). La modulaciónpor amplitud de pulso se realiza de manera similar al muestreo, empleando pulsos de amplitudplana (Flat-top sampling) (Figura 2.21(b)). Este tipo de muestreo contrasta con el muestreo de-nominado natural (natural sampling), en el cual la amplitud de los pulsos muestreadores no esconstante, si no que cambia con la forma de la señal continua que se muestrea, como se observaen la Figura 2.21(c).

x (t )

t

t

yPAM (t )

Instantes de muestreo

(a) Ejemplos de oscilogramas en PAM

(b) Muestreo con pulsos de amplitudplana

(c) Muestreo natural

Figura 2.21: Ilustración del tipo de modulación PAM

La modulación PAM se realiza a través de dos operaciones conocidas como muestreo y re-tención. En el muestreo la señal moduladora x (t ) se muestrea de manera instantánea cada Tsegundos, donde T se selecciona de acuerdo al teorema del muestreo. En la retención, la du-ración de cada muestra se sostiene por un período de τ [s]. El objetivo de retener el pulso porun período prolongado es evitar el uso excesivo del ancho de banda del canal de transmisión,

88 Capítulo 2. Principios de modulación

debido a que el ancho de banda es inversamente proporcional a la duración del pulso. Sin em-bargo, debe tenerse cuidado qué tan largo es el pulso que se utilice debido a un fenómeno quese conoce como efecto de apertura, y que se explica a continuación.

La señal PAM puede escribirse como

yPAM (t ) =∑

k

x (k T )rectτ(t −k T ), (2.27)

donde T es el período de muestreo, x (k T ) es el valor muestreado de x (t ) obtenido en el tiempot = k T y la señal rectτ(t ) representa un pulso rectangular estándar de amplitud igual a uno y du-ración τ. La expresión (2.27) corresponde a realizar la convolución entre la señal x (t )muestrea-da de forma instantánea y el pulso rectangular rectτ(t ). En efecto, la versión muestreada deforma instantánea de x (t ) está dada como

xδ(t ) =∑

k

x (k T )δ(t −k T ).

De la convolución de xδ(t ) con el pulso rectτ(t ) se obtiene

xδ(t ) ∗ rectτ(t ) =

∫ ∞

−∞xδ(s )rectτ(t − s )d s =

∫ ∞

−∞

k

x (k T )δ(s −k T )rectτ(t − s )d s

=∑

k

x (k T )

∫ ∞

−∞δ(s −k T )rectτ(t − s )d s =

k

x (k T )rectτ(t −k T )

= yPAM (t ).

De esta manera, la señal modulada por amplitud de pulso es igual a

yPAM (t ) = xδ(t ) ∗ rectτ(t ).

− 2πT

2πT0 ω

|Xδ(ω)| |X (ω)|

(a) Espectro empleando muestreo natural

− 2πT

2πT0 ω

|YPAM (ω)| |Q(ω)| 6= |X (ω)|

(b) Espectro en el muestreo de amplitud plana

Figura 2.22: Efecto de apertura

La DEE de la señal yPAM (t ) se obtiene apli-cando la propiedad de convolución de la TF(ver ec. (1.55)) a la ecuación anterior (dondeω0 = 2π/T ),

YPAM (ω) = Xδ(ω)F rectτ(t )

T

k

X (ω−kω0)sinc (ωτ/2) .

(2.28)

En el caso del muestreo instantáneo, laseñal x (t ) puede recuperarse al aplicar un fil-tro pasabajas a F−1 Xδ (ω). Sin embargo,al muestrear con pulsos de amplitud plana,la señal que se recupera al aplicar el filtropasabajas no equivale a x (t ), si no a una ver-sión distorsionada de x (t ). Esto se debe a que

2.4. Modulación banda base de pulso 89

el espectro centrado en cero para el caso de YPAM (ω) no corresponde al espectro original de x (t ),X (ω), sino a una versión distorsionada del mismo, Q(ω), tal que Q(ω) 6= X (ω), como se observade la Figura 2.22(b). Igualmente, en la ecuación (2.28), se observa que el espectro para k = 0es igual a X (ω)sinc (ωτ/2). El efecto de esta distorsión consiste básicamente en la eliminaciónde contenido de altas frecuencias en la densidad espectral de la señal original. Este efecto seconoce como efecto de apertura. Entre más larga sea la duración del pulso o apertura τ, máspronunciado será el efecto. El efecto de apertura puede corregirse empleando un ecualizadorcon respuesta en frecuencia igual a

He c (ω) =1

τsinc (ωτ/2).

La ecualización puede evitarse si la duración del pulso es relativamente pequeña en com-paración al tiempo de muestreo. Un criterio que se emplea en la práctica es τ/T ≤ 0.1.

Se puede generar modulación PAM unipolar si al tren de pulsos modulado en la ecuación(2.27) se le agrega en fase un tren de pulsos de amplitud constante A. En este caso, la modulaciónpor amplitud de pulso unipolar es igual a

yPAM−U N I (t ) =∑

k

a

1+µx (k T )

rectτ(t −k T ),

donde el índice de modulación µ controla la cantidad en la que varía la amplitud. La condición1+µx (k T ) > 0 garantiza que la señal modulada contenga únicamente pulsos positivos y evitalos pulsos faltantes.

El espectro correspondiente a la señal PAM unipolar está dado como

YPAM−U N I (ω) =τa

T

k

δ(ω−kω0)+µX (ω−kω0)

sinc (ωτ/2) .

De la expresión anterior se observa que el espectro de la señal modulada incluye impulsosen todos los armónicos kω0 y en ω = 0. La reconstrucción de la señal x (t ) requiere de un blo-queador de componentes dc, el filtro pasabajas y dependiendo de la duración de los pulsos, deun ecualizador.

Modulación análoga por ancho y posición de pulso

Dos formas alternativas de modulación por tren de pulsos incluyen la modulación por duracióno ancho de pulsos y la modulación por posición de pulsos. En la modulación PWM los valoresmuestreados de la señal moduladora x (t ) se emplean para variar la duración de los pulsos in-dividuales de la señal portadora, como se muestra en la Figura 2.23(a). En la modulación PPMla posición relativa de cada pulso con respecto a los instantes de muestreo, cambia en formaproporcional a los valores muestreados de x (t ) ( ver Figura 2.23(b)).

La Figura 2.24(a) muestra el diagrama en bloques de un generador de señales PWM y señalesPPM. El sistema emplea un comparador y un generador de ondas en forma de diente de sierracon período T . La salida del comparador es igual a cero, excepto cuando la señal moduladorax (t ) excede el valor de la señal diente de sierra, en cuyo caso la salida es constante y positiva,generando de esta manera la señal PWM. La modulación por posición se obtiene al aplicar laseñal PWM a un generador de pulsos monoestable que se activa por lo cambios de flanco en su

90 Capítulo 2. Principios de modulación

x (t )

yPW M (t )

Instantes de muestreo

t

(a) Modulación por ancho de pulso

x (t )

yPPM (t )

Instantes de muestreo

t

(b) Modulación por posición de pulso

Figura 2.23: Ejemplos modulación de pulsos por duración y por posición

respectiva entrada y produce pulsos cortos de duración constante (ver Figura 2.24(b)).

+

_

x (t )

GeneradorDiente de sierra

Comparador

Monoestable

PWM

PPM

(a) Esquema de modulación PWM y PPM

PWM

PPM

x (t )

t

t

t

T tk

τk

(b) Formas de onda PWM y PPM

Figura 2.24: Generación de ondas PWM y PPM

La duración del pulso k -ésimo en la señal PWM puede representarse por

τk = τ0

1+µx (k T )

,

en dondeτ0 representa la duración del pulso cuando x (k T ) = 0 y el índice de modulaciónµ con-trola la duración de los pulsos en la modulación. Al igual que en la modulación PAM unipolar,la condición 1+µx (k T )> 0 evita los pulsos faltantes y duraciones negativas cuando x (k T )< 0.

El k -ésimo pulso en la señal PPM comienza en el instante tk dado por

tk = k T + td + t0x (k T ),

en el que la posición k T + td representa x (k T ) = 0 y la constante t0 controla el desplazamientodel pulso modulado.

2.4. Modulación banda base de pulso 91

2.4.2. Modulación digital de pulso

La modulación digital de banda base es un paso necesario en cualquier comunicación digital yconsiste básicamente en la conversión de la señal análoga en señal digital. También se conocecomo conversión análoga-digital o modulación digital de pulso. Dos esquemas importantes demodulación digital de pulso son la modulación por código de pulso (Pulse Code Modulation -PCM) y la modulación delta (Delta Modulation - DM).

Modulación por código de pulso

En la modulación por código de pulso, la señal moduladora se representa a través de una se-cuencia de pulsos codificados, que se logra al representar la señal en forma discreta, tanto entiempo como en amplitud. Las operaciones básicas en un sistema PCM son el muestreo, lacuantización y la codificación, como se muestra en la Figura 2.25. En la etapa de muestreo, laseñal análoga se convierte en señal de tiempo discreto. En la etapa de cuantización los valorescontinuos de amplitud se representan empleando un conjunto finito de valores y en la etapa decodificación a cada nivel de cuantización se le asigna un código.

x (t )Muestreo Cuantización Codificación

Figura 2.25: Esquema modulación por código de pulsos

Cabe anotar que el uso conjunto de las etapas de cuantización y codificación es que lo quedistingue la modulación de código de pulsos de la modulación análoga de pulsos.

Muestreo. La operación de muestreo está sustentada en el teorema de muestreo, 1.3. En par-ticular, para asegurar una reconstrucción perfecta de la señal de información, la razón de dis-cretización debe ser mayor que dos veces el valor de la componente de frecuencia más altaωmax

de la señal que se desea muestrear.

mp

0

−mp

t

(a) Forma de onda

Salida

Entrada∆

2

3∆2

5∆2

7∆2

9∆2

−∆2

− 3∆2

− 5∆2

− 7∆2

− 9∆2

−∆−2∆−3∆−4∆−5∆ ∆ 2∆ 3∆ 4∆ 5∆

(b) Función de transferencia

Figura 2.26: Cuantización uniforme

Aunque en el modelo ideal de discretización, la señal muestreada se obtiene al multiplicar

92 Capítulo 2. Principios de modulación

la señal continua con un secuencia de impulsos, en la práctica, la señal de tiempo discreto seobtiene mediante muestreo natural o muestreo con pulsos de amplitud plana (o modulaciónPAM).

Cuantización. Un vez la señal análoga ha sido muestreada, la señal obtenida se cuantiza, conlo cual se genera una nueva representación de la señal de información que es discreta tanto entiempo como en amplitud. La cuantización puede realizarse de forma uniforme o no uniforme.Un ejemplo de cuantización uniforme se muestra en la Figura 2.26. Se asume que la amplitudde la señal x (t ) está restringida al intervalo

−mp ,mp

. Este intervalo se divide en un número

M de sub-intervalos, cada uno de tamaño ∆ = 2mp /M , como se muestra en la Figura 2.26(a).El valor de amplitud para una muestra particular se aproxima empleando el punto medio delintervalo en el que el valor de la muestra subyace. La curva característica de entrada-salida delcuantizador uniforme se muestra en la Figura 2.26(b).

x (t )

t

mp

−mp

Niveles de cuantización

Figura 2.27: Cuantización no uniforme

La diferencia entre la señal de entrada al cuantizador uniforme y la respectiva señal de salidase conoce como el error de cuantización o el ruido de cuantización. Para una señal aleatoria elruido de cuantización ec puede variar en el intervalo [−∆/2,∆/2]. Asumiendo que el error decuantización puede tomar cualquier valor en el intervalo [−∆/2,∆/2], el error de cuantizacióncuadrático medio está dado por

⟨e 2c ⟩=

1

∫ ∆/2

−∆/2e 2

c d ec =∆2

12.

El esquema de cuantización uniforme asume implícitamente que los valores de amplitud dela señal de entrada están distribuidos de manera uniforme. En otras palabras, que los valoresmenores en amplitud son igualmente probables a los valores mayores en amplitud. En la prác-tica, los valores de amplitud de la señales no están distribuidos uniformemente. Por ejemplo,en la transmisión telefónica de señales de voz, las amplitudes menores predominan y las am-plitudes mayores son relativamente escasas. Emplear un esquema de cuantización uniformepara este caso resulta ineficiente en el sentido de que muchos de los niveles de cuantizaciónno se utilizan. Una manera de enfocar este problema es emplear un esquema de cuantizaciónno uniforme. En la cuantización no uniforme, los valores menores de amplitud son cuantizadosmediante niveles de cuantización de menor tamaño. Esta idea se ilustra en la Figura 2.27. El

2.4. Modulación banda base de pulso 93

x = xmp

y

0

1

1

−1

−1

Un

ifo

rme

No uniforme

∆x

∆y

Figura 2.28: Características de un compresor.

esquema de cuantización no uniforme equivale a comprimir primero las muestras de la señalpara luego usar un esquema de cuantización uniforme. La curva característica de un compresortípico se muestra en la Figura 2.28. El eje horizontal corresponde a la señal de entrada normal-izada (xn (t ) = x (t )/mp ) y el eje vertical corresponde a la señal de salida y . El compresor ma-pea el incremento de la señal de entrada ∆x en incrementos ∆y que son mayores, si la señaltoma valores de amplitud menor, ó incrementos∆y menores si la señal toma valores de ampli-tud mayor. De esta manera, el cuantizador uniforme empleará un mayor número de niveles decuantización∆ para representar los valores de amplitud menor de la señal y un menor númerode niveles de cuantización para representar los valores de amplitud mayor. Una expresión par-ticular que se emplea en la práctica (en Norte América y Japón) como ley de compresión seconoce como ley µ y se define como

y =log(1+µ|x/mp |)

log(1+µ)sgn(x ), |x/mp | ≤ 1,

donde µ es una constante positiva.

Otra ley de compresión que se emplea en la práctica (en Europa) se conoce como ley A y estádada como

y =

A

1+ log A

x

mp

si

x

mp

≤1

A

1+ log

A

x

mp

1+ log Asgn(x ) si

1

A≤

x

mp

≤ 1.

La Figura 2.29 muestra ejemplos de la ley µ y la ley A. Los sistemas de telefonía digital enNorte América emplean la ley µ con µ = 255, mientras los sistemas europeos usan la ley A conA = 87.6.

Con el objetivo de restaurar las muestras de la señal a sus niveles correctos, se utiliza, en el

94 Capítulo 2. Principios de modulación

x = xmp

y1

1

−1

−1

Ley A

Ley µ

Figura 2.29: Cuantización no uniforme: Ley µ y ley A , para µ= 16 y A = 40.

lado de la recepción, un expansor con una característica complementaria a la del compresor. Lacombinación de compresión y expansión se conoce como compansión.

t1t2 t3

t4 t5

t

5

4

3

2

1

0

−1

−2

−3

−4

−5

4.5

3.5

2.5

1.5

0.5

−0.5

−1.5

−2.5

−3.5

−4.5

a) Forma de onda

Tiempo de Valor Valor Número Códigomuestreo muestreado cuantizado código binario

t1 −0.9 −0.5 4 0100t2 3.1 3.5 8 1000t3 2.1 2.5 7 0111t4 −2.7 −2.5 2 0010t5 −4.4 −4.5 0 0000

b) Tabla con modulación digital de banda base

Figura 2.30: Ejemplo modulación digital de banda base.

Codificación. La tarea del codificador en la modulación por código de pulso consiste en tra-ducir la muestra cuantizada en un número código. En forma general, el número código se con-vierte a su representación binaria. Esta secuencia de bits se transforma en una secuencia depulsos adecuados para la transmisión (ver sección 2.5). En esta caso la modulación se conoce

2.4. Modulación banda base de pulso 95

como PCM binaria. La Figura 2.30 muestra un ejemplo de modulación PCM binaria. La señalx (t ) toma valores entre 5 y −5 [V]. El tamaño de ∆ es igual a 1 V. Se realiza cuantización uni-forme con 10 niveles de cuantización localizados en−4.5,−3.5, . . . ,3.5,4.5 V. Se asigna el númerocódigo 0 a−4.5 V, el número código 1 a−3.5 V, sucesivamente hasta asignar el número código 9a 4.5 V. Cada número código tiene su representación binaria, desde 0000 para el número código0 hasta 1001 para el número código 9.

Modulación delta

Los valores muestreados de la señal análoga que se obtienen al aplicar el teorema del muestreopor lo general están correlacionados. Es posible explotar esta correlación presente en las mues-tras de forma tal que el proceso de codificación se pueda realizar con un número menor de bits.Considérese un esquema de modulación donde en lugar de transmitir los valores muestreados,se transmite la diferencia entre valores sucesivos. Esto es, si x [n ] es la muestra n-ésima, en lugarde transmitir x [n ], se transmite la diferencia d [n ] = x [n ]−x [n−1]. Si en el receptor se conocend [n ] y el valor previo de la muestra x [n − 1], es posible reconstruir x [n ]. La diferencia entre losvalores de muestras sucesivas es por lo general mucho menor que los valores de las muestrasy por esta razón se necesita un menor número de bits para su codificación. Es posible mejorareste esquema de modulación si el valor de la muestra anterior se emplea para estimar el valorde la muestra actual. Si la muestra estimada es x [n ], la diferencia que se transmite es el errorde predicción d [n ] = x [n ]− x [n ]. Si el valor que se predice x [n ] es lo suficientemente cercano ax [n ], la respectiva diferencia entre los dos valores es inclusive menor que la diferencia entre dosmuestras sucesivas. La modulación delta lleva al extremo la idea anterior al sobre muestrear laseñal de bandabase de manera tal que el error de predicción puede codificarse empleando unúnico bit. En efecto, el sobre muestreo incrementa la correlación entre muestras adyacentes loque resulta en un error de predicción que suele ser mucho menor que en el caso del muestreosimple. En la modulación delta la muestra estimada está retrasada un período de muestreo.

La Figura 2.31 muestra el esquema básico de la modulación delta. La señal de tiempo discretox [n ] se compara con la muestra estimada x [n ] = xp [n − 1], donde xp [n ] es una versión cuan-tizada de x [n ] y así se genera la señal de error de tiempo discreto d [n ]. Esta señal de error secuantiza en un sólo bit y luego se codifica para ser transmitida como una secuencia de bits.

x [n ]

+

+

+

∑ d [n ]Cuantizador

de un bit

d p [n ]Codificador

Señalcodificada

xp [n ]

xp [n − 1]

z−1

Acumulador

Figura 2.31: Diagrama en bloques de un modulador delta.

96 Capítulo 2. Principios de modulación

Dentro del acumulador, la señal cuantizada xp [n ] se obtiene como

xp [n ] = xp [n − 1]+d p [n ],

donde d p [n ] = ∆sgn(d [n ]). Igualmente xp [n − 1] = xp [n − 2] + d p [n − 1]. Sustituyendo en laexpresión para xp [n ] se tiene

xp [n ] = xp [n − 2]+d p [n − 1]+d p [n ].

Procediendo de forma iterativa y asumiendo condición inicial igual a cero, xp [0] = 0, se obtienela siguiente expresión para xp [n ],

xp [n ] =n∑

k=0

d p [k ].

x (t )

t

xp (t )

T

Figura 2.32: Ejemplo modulación delta.

De esta expresión se infiere que el demodu-lador consiste únicamente de un acumuladoro sumador. La Figura 2.32 muestra las formasde onda de la señal de tiempo continuo x (t ) yla señal xp (t ), que corresponde a la versión entiempo continuo de la señal xp [n ]. Se obser-va cómo xp (t ) resulta ser una aproximaciónen forma de escalera de la señal x (t ).

La modulación delta está sujeta a dos tiposde errores de cuantización: la distorsión porsobrecarga de pendiente y el ruido granular.La diferencia entre la señal cuantizada xp [n ]y la señal de tiempo discreto x [n ] está dadapor el error de cuantización ec [n ], esto es, xp [n ] = x [n ] + ec [n ]. La entrada al cuantizador deun sólo bit en la Figura 2.31 está dada como e [n ] = x [n ]− x [n − 1]− ec [n − 1]. Lo cual quieredecir, que, omitiendo el error de cuantización ec [n ], la entrada al cuantizador corresponde auna diferencia en el sentido inverso de la señal de entrada, que, a su vez, puede interpretarsecomo la aproximación digital de la derivada de la señal de entrada. Si se considera la pendientemáxima de la señal de tiempo continuo x (t ), resulta claro que para que la secuencia de muestrascuantizadas xp [n ] se incremente con la misma velocidad que la señal de tiempo discreto x [n ]en una región de máxima pendiente de x (t ), se requiere satisfacer la siguiente condición

T≥máx

d x (t )

d t

.

Al no cumplirse esta condición, el tamaño de∆ resulta insuficiente para que la aproximaciónen forma de escalera xp [t ] siga los segmentos de mayor pendiente de x (t ). Esta fenómeno seconoce como sobrecarga de pendiente y se ilustra en la Figura 2.33(a). El error de cuantizaciónresultante se conoce como distorsión por sobrecarga de pendiente.

En contraste, el ruido granular ocurre cuando el tamaño del escalón∆ es grande en compara-ción a la pendiente local de la forma de onda x (t ). El ruido granular tiene una interpretación

2.4. Modulación banda base de pulso 97

Distorsión porsobrecarga de pendiente

(a) Sobrecarga de pendiente

Ruido granular

(b) Ruido granular

Figura 2.33: Errores de cuantización en modulación delta

similar al error de cuantización en el esquema de cuantización uniforme de la modulación porcódigo de pulsos. Un ejemplo de ruido granular se muestra en la Figura 2.33(b). Si se asumeque el error de cuantización sigue una distribución uniforme en el intervalo [−∆,∆], el error decuantización cuadrático medio está dado por

⟨e 2c ⟩=

1

2∆

∫ ∆

−∆e 2

c d ec =∆2

3.

Problemas

16. Una señal de pulsos modulados se genera al muestrear uniformemente el mensaje descrito

como x (t ) = cos (2πt /Tm ) para valores t = nT , donde T = Tm/3. Hacer un programa en elcomputador que dibuje:

a). La señal PWM que se obtiene con µ= 0.8, τ0 = 0.4T .

b). La señal PPM con td = 0.5T y t0 = τ= 0.2T .

17. La expresión analítica para xPW M no tiene una forma simple debido a que el ancho de pulso

τk es función del tiempo. Sin embargo, es posible encontrar una expresión sencilla e informa-tiva, si se asume que la señal PWM tiene pulsos de amplitud a centrados en t = k T y que τk

cambia lentamente de pulso a pulso. Bajo estas suposiciones mostrar que la forma de onda parala señal PWM está dada por

yPW M (t )≈aτ0

T

1+µx (t )

+

∞∑

n=1

2a

πnsin

nφ(t )

cos(nω0t ),

dondeφ(t ) = (πτ0/T )

1+µx (t )

.

98 Capítulo 2. Principios de modulación

18. Analizar la forma del espectro de la señal yPW M (t ) del punto anterior.

19. Demostrar que, si x (t ) es una señal continua de banda limitada W rad/s, entonces

k

π[x (t )þ sinc(k t )] = x (t ), para k ≥W.

Por lo tanto, demostrar que (wn/π) (sinc(W t )þ sinc(wn t )) = sinc(W t ), para wn ≥W.20. Determinar la rapidez mínima de muestreo y el intervalo de Nyquist de las señales:

a). sinc(100t ) b). sinc2(100t ) c). sinc(100t )+ sinc(50t ) d)sinc(100t )+ sinc2(60t )

21. Sea x (t ) una señal de banda limitada. Demuestrar que

∫ ∞

−∞(x (t ))2d t = T

∞∑

n=−∞(x (nT ))2, T =

π

W

22. Una señal análoga se cuantiza y transmite usando un sistema PCM. Si cada muestra en el

receptor debe conocerse dentro de un ±0.5% del valor de escala completa pico a pico, cuántosdígitos binarios debe contener cada muestra?23. Considérese una señal sinusoidal x (t ) = a cosωm t a la entrada de un modulador delta con

tamaño de escalón ∆. Mostrar que la distorsión por sobre carga de pendiente ocurre si

A >∆

ωm T=∆

f s

f m

,

donde f s = 1/T es la frecuencia de muestreo.

2.5. Modulación digital de radiofrecuencia 99

2.5. Modulación digital de radiofrecuencia

2.5.1. Descripción básica

Uno de los principales problemas en el diseño y realización de sistemas de Telecomunicaciones(STC) multicanales, es la escogencia del método de modulación de las señales que pueda brindarmejores resultados de fiabilidad, eficiencia espectral y compatibilidad electromagnética conotros radiosistemas vecinos.

ASK

FSK

PSK

Código 111 000

Figura 2.34: Formas de onda en modulación digitalde portadora.

El angostamiento del ancho de banda dellóbulo principal junto con la disminución delnivel de los lóbulos laterales espectrales dela señal, permiten disminuir la influencia delas interferencias entre símbolos de la señalsimilares. La Figura 2.34 ilustra los tres esque-mas básicos de modulación digital de porta-dora. En los últimos tiempos se ha realiza-do un cambio en los métodos de modulaciónutilizados en los STC. Desde el antes utilizadocorrimiento de fase binario (BPSK Phase ShiftKeying) o de su modalidad diferencial (DBP-SK Differential PSK ), se va hacia los méto-dos de modulación con valores múltiples defase (M-ary PSK), por ejemplo el corrimientode fase cuaternario (QPSK- Quadrature PSK )o de su modalidad con codificación relativa(DQPSK).

Otros métodos de corrimiento que se em-piezan a utilizar son una modalidad de losmétodos de multiplexación en cuadratura deseñales PSK (cuaternarias) con un corrimien-to adicional en uno de sus canales (OQPSK- Offset QPSK ). En estas señales hay un retra-so adicional de la secuencia informativa delcanal en cuadratura de la señal que es igual aTs/2, donde Ts es el período de pulso informa-tivo. Las influencias de los efectos no linealesde los radiocircuitos y de los medios físicos de transmisión, además de las limitaciones espec-trales (filtración preliminar para el angostamiento del ancho de banda), disminuyen significa-tivamente la fiabilidad de los STC. En la práctica, en los medios físicos de radiotransmisión setiene un gran nivel de no linealidad; además, muchas veces los dispositivos óptimos de trabajode las señales pueden tener también caracter no lineal y por ello es más recomendable utilizarmétodos de modulación con envolvente constante (Constant Enveloment Signals).

En general, el modulador transforma el mensaje a transmitir d (t ) en la señal modulada y (d , t )de tal manera que se cumpla la igualdad:

y (d , t ) =ℜ f E d (t )expj (ωc t +φ0), (2.29)

100 Capítulo 2. Principios de modulación

dondeωc = 2π f c es la portadora,φ0 es la fase inicial instantánea, f E (t ) es una función comple-ja, dada en la definición 2.1, que determina el método de modulación digital empleado. Además,el mensaje enviado d (t ) consiste en una serie de pulsos discretos de información con una du-ración de Ts [s]:

d (t ) =∞∑

t=−∞d kψ(t −κTs ),

siendo ψ(t ) la función de cambio de la envolvente o función ventana de los pulsos que se de-termina como:

ψ(t ) =

(6= 0; κ≤ t ≤ (κ+ L s )Ts

0; para otros t ,

donde L s es la cantidad de pulsos durante la cual el valor de la envolvente es diferente de cero.En general, a partir de la expresión (2.29) la señal modulada y (t ) se puede representar en formade una serie cuasiarmónica:

y (t ) =∞∑

k=−∞yk (t −κTs ,φc +θk ), k Ts ≤ t ≤ (k + 1)Ts , (2.30)

donde θk es el desplazamiento adicional de los armónicos, cuyo valor no depende de los sím-bolos de información enviados. Teniendo en cuenta que θk = 2π f c t , entonces, y (t ) se puederepresentar en (2.30) en forma de suma de dos componentes en cuadratura:

yi (t ) =αi (t )cos(ωc t +φc )−βi (t )sin(ωc t +φ0), (2.31)

donde:

d i (t ) =αi (t )+βi (t ) αi (t ) =αiψ(t ), βi (t ) = βiψ(t ).

Cabe anotar que en su forma más simple, d i =αi +βi .

Los diferentes tipos de modulación digital se determinan mediante el alfabeto α1,αi , . . . ,αm ,β1,βi , . . . ,βm y de la funciónψ(t ). Teniendo el último par de expresiones se puede representarel pulso de digitales en banda base yi (t ,φ0) en la forma:

yi (t ) =αiψ(t )cos(ωc t +φ0)−βiψ(t )sin(ωc t +φ0), (2.32)

el cual representa un espacio bi–demensional conformado por el siguiente par de vectores base:ψ(t )cos(ωc t +φ0) y−ψ(t )sin(ωc t +φ0).

De otra parte, la densidad espectral de potencia de la señal y (t ), se representa por medio delespectroFy (f ) de la envolvente compleja de la señal y (t ) por la expresión:

Sy (f ) = (Sy (f − f c )+Sy (f + f c ))/4,

donde Sy (t ) es la DSP unilateral de la señal y (t ).

2.5. Modulación digital de radiofrecuencia 101

2.5.2. Modulación digital de amplitud

La modulación ASK representa datos digitales como variaciones de amplitud de una señalportadora, de tal forma que la señal modulada está dada por:

y (t ) =ψ(t −k Ts )cos(ωc t ), (2.33)

donde,

ψ(t ) = rectT =

(1; 0≤ t ≤ T

0; t < 0 t > T.

En un sistema de modulación ASK tal como se muestra en la ecuación (2.33), la señal por-tadora conmuta entre los estados encendido y apagado, de acuerdo a la secuencia de bits deentrada.

Ejemplo 2.4 Graficar la señal modulada en ASK, si la moduladora es la secuencia11010.La Figura 2.35 muestra la señal moduladora (Figura 2.35(a))con períodoT = 200[m s ], una señal

portadora con períodoTc = 100[m s ] (Figura 2.35(b)) y la señal modulada resultante (Figura 2.35(c)).

0 200 400 600 800 1000−1

−0.5

0

0.5

1

1.5Señal Moduladora

Tiempo

Am

plitu

d

(a) Señal Moduladora

0 200 400 600 800 1000−1.5

−1

−0.5

0

0.5

1

1.5

Tiempo

Am

plitu

d

Señal Portadora

(b) Señal Portadora

0 200 400 600 800 1000−1.5

−1

−0.5

0

0.5

1

1.5

Tiempo

Am

plitu

dSeñal Modulada en ASK

(c) Señal Modulada

Figura 2.35: Modulación ASK: sobre el ejemplo 2.4

La DEE de la señal modulada en ASK se puede deducir de manera análoga a la modulaciónAM convencional (ec. (2.7)), donde:

Y (ω) =Fy (t )= (X (ω+ωc )+X (ω−ωc ))/2,

En éste caso, X (ω) = Tssin(π f Ts )

π f Ts, por tanto la DEE de la señal modulada en ASK será:

Fy (t )= Ts

2

sin(π(f − f c )Ts )

π f Ts+

Ts

2

sin(π(f + f c )Ts )

π f Ts,

que corresponde a un espectro de doble banda lateral al rededor de la frecuencia de la portadoraf c .

102 Capítulo 2. Principios de modulación

2.5.3. Modulación digital de fase

La secuencia de pulsos discretos con modulación digital se puede representar en la siguienteforma:

y (t ) =ψ(t −k Ts )cos(ωc t +∞∑

k=−∞φr (t −k Ts )+φ0), (2.34)

en la cual se asume que la envolvente no lleva información y por lo tanto,

ψ(t ) = rectT =

(1; 0≤ t ≤ T

0; t < 0 t > T.(2.35)

Además, se tiene que

θk = 2π f c k Ts ; φ(r ) = d r v (t )π/M ; d r = (M − 2r + 1); r = 1,2, . . . ,2M ;M = 2n ; n ∈N. (2.36)

Es de aclarar que v (t ) es la ley de cambio de la fase; como ejemplos de esta ley se tienen lossiguientes:

v (t ) =

t /δ, 0≤ t ≤ Ts

1, δ≤ t ≤ Ts

(Ts − t )/δ, Ts −δ≤ t ≤ Ts

(2.37a)

v (t ) = sin(nt /Ts ); 0≤ t ≤ Ts (2.37b)

v (t ) =1

21− cos(2πt /Ts )sin2 (nt /Ts ) ; 0≤ t ≤ Ts . (2.37c)

El modelo de la señal PSK de (2.34) se puede representar en forma de cuadratura, (2.31), en-tonces, se cumple que

α(t ) =∑

cosφ(r ); β (t ) =∑

sinφ(r ). (2.38)

En el caso particular de las secuencias binarias (M = 2,N = 1), para las señales PSK se tienequeφ(r )(t ) = 0,π, luego, la expresión (2.34) será:

y (t ) = cos(ωc t +φ0+φr ), (k − 1)Ts ≤ t ≤ k Ts . (2.39)

Entonces, el espectro de la señal binaria PSK de (2.39) se determina por:

Sy (f ) = Ts

sin(f πTs )

π f Ts

2

.

Modulación digital de fase en cuadratura (QPSK): La señal PSK se puede representar en for-ma de dos señales con modulación digital de amplitud (ASK) cuyas portadoras están desfasadasuna a otra en un valor de 90 (componentes en cuadratura), con lo cual el modelo de (2.31), parael caso de variación de fase se denomina modulación de fase en cuadratura, cuyas respectivas

2.5. Modulación digital de radiofrecuencia 103

envolventes complejas en (2.38) se pueden describir como:

α(t ) =∑

kcos(φ(r ))ψ(t ); β (t ) =−

∑k

sin(φ(r ))ψ(t ),

asumiendo que α(t ) y β (t ) se determinan para v (t ) en el caso concreto pulsos con funciónventana constante (v (t ) = 1). Cuando la forma de la ventana es depurada, por ejemplo, es lafunción (2.37a), entonces se tiene que

α(t ) =

cosπ2 d i

t−k Ts∆

= cos

π2

t−k Ts∆

, k Ts ≤ t ≤ k Ts +∆

cosπ2 d i

= 0, k Ts +∆< t < (k + 1)Ts −∆

cosπ2 d i

t−k Ts∆

= cos

π2(k+1)Ts−t

, (k + 1)Ts −∆≤ t ≤ (k + 1)Ts

β (t ) =

sinπ2

t−k Ts∆

, k Ts ≤ t ≤ k Ts +∆

d i k Ts +∆< t < (k + 1)Ts −∆d i cos

π2(k+1)Ts−t

, (k + 1)Ts −∆≤ t ≤ (k + 1)Ts .

Mientras, para las ventanas sinoidales (ver ec. (2.37b)), se tiene que

α(t ) = cos

π

2sin

π

Ts(t −k Ts )

= J0

π

2

+ 2

∞∑

p=1

J2π

π

2

cos

2pπ

Ts(t −k Ts )

β (t ) = d i sin

π

2sin

π

Ts(t −k Ts )

= 2

∞∑

p=1

J2π−1

π

2

sin

(2p − 1)

π

Ts(t −k Ts )

,

donde (k − 1)Ts ≤ t ≤ k Ts y Jn (·) son las funciones de Bessel.

En general, los elementos d i que conforman el alfabeto de transmisión para M ≥ 4, se deter-minan como:

d i = expπ

2+ 2i

π

2

, i = 0,1, . . . ,M − 1. (2.40)

De la expresión (2.40), en el caso de QPSK (M = 4) se tienen los siguientes valores concretosde estados de fase d i = −90,0,90,180. De otra parte, los métodos de modulación de fase confunción de cambio de fase v (t ), cuando presentan cambios abruptos de fase en 180 conllevana la caída de la envolvente de la señal. Por ejemplo, en la ec. (2.37a) conllevan la aparición de ladeformación significativa de la envolvente, principalmente, por su proceso mediante disposi-tivos no lineales, lo que a su vez disminuye la fidelidad de los STC. Sin embargo, la introducciónde un desplazamiento o retardo en el tiempo adicional en una de las componentes en cuadratu-ra (por lo general en el canal de cuadratura) puede brindar un mayor nivel de constancia de laenvolvente. En este caso, la expresión para la fase θk en la ec. (2.36) será:

θk = 2π f c k Ts +kπ

2= 2π

f c +

1

4Ts

k Ts ,

entonces Así, la expresión (2.29) para el formato de QPSK con desplazamiento adicional tiene la

104 Capítulo 2. Principios de modulación

forma

y (d , t ) =ℜe j (ωc t+φc )∑

kd k (t )e

j kπ/2, (2.41a)

=∑

kd k (t )cos(ωc t +φc +kπ/2)

=∑

k(−1)k d 2k (t )

cos(ωc t +φ0)−

∑k(−1)k d 2k+1(t )sin(ωc t +φ0)

. (2.41b)

La expresión (2.41a) corresponde al formato de señal ASK con un mismo valor de portadora,para la cual la fase cambia en π/2 después de cada símbolo. Mientras, la expresión (2.41b) es lasuma de dos componentes en cuadratura, adicionalmente desplazadas en el tiempo, de maneraque la secuencia de pulsos pares se puede representar como la componente de sinfase y la deimpares como la de cuadratura. Siψ(t ) se diferencia de la función determinada en la ec. (2.35),entonces en este caso, las ecuaciones (2.41a) y (2.41b) se determinarán así:

y (t ) =k∑

d kψ(t −k Ts )cos(ωc t +φ0+kπ/2),

y (t ) =∑

k

(−1)k d 2kψ(t − 2k Ts )cos(ωc t +φ0)

−∑

k

(−1)k d 2k+1ψ(t − (2k + 1)Ts )sin(ωc t +φ0).

En la práctica, el tipo de modulación de fase con desplazamiento adicional, descrito por lasanteriores ecuaciones y denominado modulación QPSK con desplazamiento (OQPSK), tieneamplio uso, para el cual son válidas las expresiones:

α(t ) =∑

k

αk rectT (t − 2k Ts )

β (t ) =∑

k

βk rectT (t − (2k + 1)Ts ),

donde αk = (−1)k d 2k , βk = (−1)k d 2k+1, d k ∈ −1,+1 .

La modulación QPSK tiene amplio uso, entre otras razones, por su gran efectividad espectral(del orden de 1.5 a 1.8 b/s), alto nivel de fidelidad y nivel relativamente bajo de complejidadde realización. Debido a que las señales QPSK poseen relativamente altos niveles en los lóbu-los laterales del espectro, es necesario filtrar la señal modulada a la salida del transmisor. La nolinealidad de este proceso de filtración, conlleva el aumento considerable de la energía fuerade banda. Por cuanto la diferencia entre QPSK y OQPSK consiste en el desplazamiento adi-cional entre los canales en cuadratura, entonces, en el caso del proceso lineal sus espectros nose diferencian. Sin embargo, OQPSK tiene menor nivel de energía fuera de banda para el procesono lineal. Además, cabe anotar que mientras en QPSK puede cambiar el valor de la fase en 180,entonces es posible el decaimiento total de la envolvente, lo que sucede en las señales OQPSKcon menor frecuencia. En OQPSK, la fase cambia en la mitad de los intervalos de modulaciónen ±90, eliminando así gran cantidad de los cambios de fase en 180.

2.5. Modulación digital de radiofrecuencia 105

2.5.4. Modulación digital de frecuencia

El modelo de formato digital (2.29) para FSK tiene la forma:

y (t ) = cos(ωc t +φ(t )), φ(t ) = 2πh

∫ t

−∞d (τ)dτ+θ0, (2.42)

donde f c es la frecuencia portadora,φ(t ), es la función lineal de cambio de la fase, h es el índicede modulación y d (t ) es la secuencia de pulsos de información enviada, la cual se determinamediante la expresión:

d (t ) =∑

kd kψ(t −k Ts ), d =±1,±3,±(M − 1);M ∈ 2n ;n ∈N+.

El diagrama de estructura del modulador FSK se puede implementar mediante un generadorcontrolado por voltaje (VCO) con salida en forma de la oscilación sinosoidal del tipo:

cos(ω0t + 2πh

∫d (τ)dτ).

Los siguientes métodos de modulación de ángulo con envolvente constante encuentran usopráctico:

a). Corrimiento de frecuencia con fase continua (CPFSK).

b). Corrimiento de frecuencia con características parciales.

c). Corrimiento de frecuencia con múltiples valores del índice de modulación (Multi-h PSK).

d). Corrimiento de fase correlacionada (CORPSK).

La primera forma directa de limitación y mejoramiento del espectro de las señales moduladaspor corrimiento angular consiste en allanar o alisar los cambios de fase entre los símbolos in-formativos hasta llegar a su continuidad, esto es, que la frecuencia instantánea no tenga ningúnpunto de discontinuidad en el tiempo, como el caso de las señales con corrimiento de frecuen-cia con fase continua (CPFSK - Continuous Phase Frequency Shift Keying) o, por lo menos, dis-minuir la frecuencia y la amplitud de estos puntos de discontinuidad, por ejemplo, realizandocambios transitorios de fase con valores intermedios (Multi–h PSK).

Modulación digital de frecuencia con fase continua (CPFSK): Este formato de modulacióncorresponde a señales con valores relativamente bajos para el índice de modulación h (por logeneral, h < 2), que se forman sin rompimiento de fase en el momento del cambio de los pulsosde información. La señal modulada CPFSK en general se puede escribir de la siguiente manera:

y (t ) =u m cos

2π f 0t + 2π

∫ t

0

∆f a i d x +φ0

!,

donde u m es la amplitud, f 0 es la frecuencia, φ0 es la fase de la portadora de la señal, ∆f es ladesviación de la frecuencia y a i = ±1, i ∈ N+, i-ésimo símbolo de la secuencia informativa depulsos.

106 Capítulo 2. Principios de modulación

En general, CPFSK representa la transformación de la secuencia de pulsos digitales de infor-mación, d (t ), en una función continua de la fase en el tiempo φ(t ,d ). En este tipo de modu-lación, se puede construir códigos especiales con relaciones de malla entre sus elementos, loscuales pueden bien maximizar la distancia de Euclides de las señales moduladas o bien aumen-tar la cantidad de valores posibles de cambios de fase. Un aumento posterior de las cualidadesespectrales de las CPFSK se obtiene en caso de elección simultánea de la ley de modulaciónde la fase y/o frecuencia, de tal manera, que se aumente la cantidad de derivadas continuas dela señal modulada. En la práctica, se emplean señales de modulación digital de frecuencia conlongitud finita de la ley de cambio de la frecuencia, para los cuales la función de cambio de laenvolvente, se extiende por una cantidad de símbolos L s ∈R+, a diferencia de lo que ocurre en(2.35), esto es:

ψ(t ) =

(0; t < 0 t > L s Ts

6= 0; t ≤ t ≤ L s Ts ,(2.43)

entonces, la señal modulada CPFSK se puede representar en la forma:

y (t ) =∞∑

k=−∞ψ(t −k Ts )cos(ωc t +φ(t ,d )+φ0), (2.44a)

φ(t ,d ) = 2πh

∫ t

−∞

∞∑

i=−∞d iψ(t − i Ts )dτ, i k Ts < t < (i + 1)Ts . (2.44b)

Típica e independiente del formato digital, el desfase aleatorio inicial φ0 se asume con fun-ción densidad de probabilidad uniforme,

p (φ0) = 1/(2π), φ0 ∈ [0,2π]

De otra parte, un caso especial de análisis se tiene cuando h es igual a 1/2, luego, la exigen-cia de ausencia de distorsiones entre canales significa que en la señal y (t ), se debe cumplir lasiguiente condición:

q (t ) =

∫ t

−∞ψ(x )d x , h =

∫ Ts

0

ψ(t )d t =1

2,

con lo cual la desviación de faseφ(t ,d ) teniendo en cuenta la ec. (2.44b), será:

φ(t ,d ) = 2πh∑

kd k q (t −k Ts ).

Cada cambio elemental,∆φm , de la desviación de fase en el transcurso del tiempo Ts es igual:

∆φm = 2πh∑

k

d k

∫ m Ts

(m−1)Ts

q (x −k Ts )d x

= 2πh∑

kd k qi (m −k + 1)Ts −qi (m −k )Ts ,

2.5. Modulación digital de radiofrecuencia 107

que al tener en cuenta la relación entre los pulsos, (2.43), entonces,

∆φm = 2πhL s−1∑

i=0

d m−1q(i+1)Ts −qi Ts

= 2πhL s−1∑

ι=0

d m−1

∫ (L+1)Ts

LTs

q (x )d x . (2.45)

De acuerdo al valor L s diferencian formatos de modulación digital con enlace entre símbolosde frecuencia (cuando L s > 1) y formatos sin enlace de frecuencia (cuando L s = 1).

Las expresiones analíticas para la función densidad espectral de potencia Sy (f ) de las señalesCPFSK se puede hallar recurriendo a los modelos (2.44a) y (2.45), para el caso de un intervalo L s

finito del pulso de modulación de frecuencia ψ(t ), asumiendo además que no hay correlaciónde los símbolos de información. Sin embargo, la complejidad y el volumen de la memoria delos cálculos exigidos para el espectro aumentan drásticamente con el incremento de L s . En estesentido, el empleo de cálculos basados en la función de correlación permiten disminuir taleslimitaciones. La expresión general para la función de autocorrelación de las señales CPFSK sepuede representar de la forma:

R(τ) =R(τ+m Ts ) =

1

Ts

∫ m

0

i=1−L s

2

M

k=1

cos(2πhk i q (θ − i Ts )−q (θ −τ− (i −m )Ts )

!dθ ,

para 0 ≤ τ < Ts , m = 0,1,2, . . . , donde q (L s Ts ) = 1/2, esto es, cuando m ≥ L s ó τ ≥ L s Ts , en-tonces R(τ) = 0 (cuando h = (2k + 1)/2; k = 0,1, . . .).

Empleando una función de aproximación escalonada del cambio de fase φ(t ,d ), la funciónde autocorrelación se puede escribir así:

R(τ) =∑

nR(nTs/µ)Λ(τµ/Ts −n ), Λ(t ) =

(1− |t | , |t |< 1

0, para otros t .

donde µ/Ts es la frecuencia de discretización de los pulsos de fase. En particular, para el caso dela transmisión de pulsos con igual probabilidad y de la condición q (L s Ts ) = 1/2 los valores de lafunción de autocorrelación se calculan como:

R(nTs /µ) =µ−1µ−1∑

p=0

L s+n/µ∏

i=0

log(M−1)∏

l=0

cos

2l

n−1∑

m=0

q(p + iµ−m )T/µ

!

,

con lo cual el espectro de potencia se calcula, finalmente, mediante la siguiente expresión:

Sy (f ) = 2

∫ (L s+1)T

τ

R(τ)cos(2f τ)dτ, h =

2k + 1

2

, k = 0,1,2, . . . ,N+. (2.46)

108 Capítulo 2. Principios de modulación

2.5.5. Modulación mínima de frecuencia con fase continua

Teóricamente, los métodos CPFSK, que se diferencian de acuerdo con el índice de modulaciónelegido h, brindan una fidelidad igual a la máxima posible, sin embargo construir un receptorcoherente ideal, hasta hoy, es una tarea técnicamente compleja. La dificultad radica en la im-plementación de las señales coherentes de reloj y sincronización, necesarias para la recepción,para cualquier valor de h. En particular, los esquemas que pueden recomendarse para cualquierrelación señal/ruido son realizables sólo para valores enteros de h ∈ I+. Por otra parte, la efec-tividad de la utilización del espectro de las señales CPFSK aumenta cuando el valor del índice demodulación disminuye (h < 1) . Además, la máxima fidelidad potencial de las señales binariasse obtiene maximizando la distancia Euclídea (1.13), dado el conjunto de señales informativasd 0,d 1, que se determina como:

max‖y (d 1, t )− y (d 2, t )‖∀h

=max 1

2Es

∫T

y (d 1, t )− y (d 2, t )

2 d t ,∀h

donde Es es la energía contenida en cada bit.

La solución de la anterior tarea de optimización, cuando T = Ts , implica que la mayor fideli-dad se obtiene para h ' 0.71. No obstante, para mejorar aún más la fidelidad del STC es nece-sario aumentar el intervalo de análisis de la señal recibida. Así, en el caso de duplicar el inter-valo (T = 2Ts ), el índice de modulación óptimo de CPFSK es aproximadamente igual a h ' 0.5.En la práctica, el caso de h = 0.5 tiene amplio uso, cuando el desplazamiento de fase es iguala π/2, que corresponde al mínimo valor de fase necesario para obtener un ensamble binariode señales del tipo FSK ortogonales; motivo por el cual se denomina corrimiento mínimo defrecuencia (MSK – Minimum Shift Keying).

En concordancia con la definición para las señales con modulación digital de radiofrecuenciaFSK, dada en (2.42), y asumiendo la constancia de los símbolos informativos, esto es, cuandose tiene que d k (t ) = d k ,∀t ∈ T , la señal MSK se puede representar como la suma de doscomponentes PSK en cuadratura (ver Figura 2.36), o sea:

y (t ) = cos Xkψcos(t )cos(2π f 0t +φ0)

−d k cos Xkψsin(t )sin(2π f 0t +φ0), k = 0,1, . . . ,N+, k Ts ≤ t ≤ (k + 1)Ts ,

donde

ψcos(t ) = sin(πt /Ts ),ψsin(t ) = sin(πt /Ts ),

siendo Xk =π∑k=1

i=0 (d i+1−d i )/2, la fase inicial.

Cabe anotar que Xk toma los valores±kπ, de acuerdo con la polaridad de los símbolos inicial-mente enviados d i =±1 en el intervalo de transmisión Ts . De esta manera, en cada instante detiempo t , la señal MSK contiene determinada información sobre otros símbolos antes transmi-tidos; efecto denominado enlace de fase entre símbolos o trama de fase, el cual, bien utilizado,puede aumentar la fidelidad de la recepción de la señales. A propósito, empleando la relación

2.5. Modulación digital de radiofrecuencia 109

del enlace de fase entre los valores de Xk y Xk+1, para las señales MSK se puede obtener:

y (t ) =

d 2k−1Rcos(t − 2k Ts )cos(2π f 0t )−d 2k−2ψsin(t − 2(k − 1)Ts )sin(2π f 0t )

(2k − 1)Ts ≤ t ≤ 2k Ts ,

d 2k−1ψcos(t − 2k Ts )cos(2π f 0t )−d 2k−2ψsin(t − 2k Ts )sin(2π f 0t )

2k Ts ≤ t ≤ (2k + 1)Ts .

(2.47)

Del análisis de la ecuación (2.47) se observa que las componentes en cuadratura de la señalMSK representan dos secuencias de pulsos, con un corrimiento adicional entre ellas en el tiem-po igual a Ts , donde una de las secuencias es par y la otra impar.

-

- -

?

6

-

-

-

-- -

-

6

?

-

MSK

F P B

F P B

sinπtTs

cosπtTs

× Ts/2 ×

Σ

× ×

sin (ωot )

cos (ωot )cosπtTs

sinπtTs

×

×

cos (ωot )

sin (ωo t )

QPSK

PSK

×

×

OQPSK

Figura 2.36: Generador en cuadratura generalizado

La expresión (2.47) se identifica con la manera general de describir una gran clase de señalesclasificadas dentro de los métodos de modulación digital con componentes en cuadratura sobreuna misma portadora y que se diferencian de acuerdo con el tipo de funciones empleadas parala modulación de la envolvente de los pulsos en cada una de las componentesψsin(t ) yψcos(t ).En particular, para las señales QPSK se tiene:

ψcos(t ) =

(1p2

, 0≤ t ≤ 2Ts

0, para otros valores de t, ψsin(t ) =

(1p2

, −Ts ≤ t ≤ Ts

0, para otros valores de t .

Como antes se había dicho, en las señales PSK y QPSK se tienen rompimientos o puntos dediscontinuidad en la fase iguales a π, los cuales generan caídas completas de la envolvente dela señal hasta 0, a su paso por algún circuito selectivo. Motivo por el cual, aumenta la proba-bilidad de que el sistema pueda ser neutralizado por alguna interferencia externa al STC y porlas interferencias entre símbolos. En el caso de las señales OQPSK, los cambios de fase en πson menos probables y codificando apropiadamente la señal, pueden eliminarse. Sin embargo,el rompimiento de fase de ±π/2 empeora las propiedades espectrales de la señal y, de cierta

110 Capítulo 2. Principios de modulación

manera, la hace vulnerable a la no linealidad del medio físico de transmisión. Cuando se estánutilizando las señales MSK, independientemente de que polaridad lleve el símbolo de informa-ción d i =±1, la fase cambia su valor en ±π/2 linealmente, con lo cual se puede brindar la con-tinuidad de la envolvente. De hecho, cuando la señal MSK pasa a través de un circuito selectivoel nivel de su envolvente sigue siendo constante, neutralizando así sus efectos no lineales.

Propiedades energéticas de las señales MSK: El espectro de potencia del tipo de modulaciónMSK se deduce de la expresión (2.46), cuando h = 0.5, y M = 2:

Sy (f ) =T

µ

sin(π f T /µ)

(π f t /µ)

2−R(0)+ 2

L s+(n/µ−2)∑

n=0

R(nTs /µ)cos(2f nTs /µ)

.

Sin embargo, una expresión más compacta se puede obtener considerando que el parámetrode información d k se puede determinar como una secuencia aleatoria del tipo markoviano.Así, las expresiones de la envolvente espectro de las señales MSK y QPSK son las siguientes,respectivamente:

Sy

f=

8Ts

1+ 4cos 4π f Ts

π2

1− 16T 2s f 2

2 , MSK (2.48a)

Sy

f= 2Ts

sin

2π f Ts

2π f Ts

, QPSK . (2.48b)

De (2.48a) y (2.48b), se infiere que la utilización de las señales MSK permite disminuir signi-ficativamente el nivel de energía espectral fuera de la banda en relación con las señales PSK,debido a que el primer máximo lateral del espectro Sy

f

para las señales MSK es igual a −23dB. De hecho, el nivel de los lóbulos laterales del espectro para las señales MSK decrece conuna razón proporcional de

f Ts

, mientras que para QPSK esta es de

f Ts2, Además, el uso de

MSK permite angostar el ancho de banda del lóbulo principal del espectro (es el que determinael ancho de banda de trabajo de los sistemas), pues mientras el ancho de banda para MSK esde 1.5

Ts, para las señales PSK es de 2.0/Ts . Cabe notar que el ancho de banda del trabajo para las

señales de modulación digital en cuadratura (QPSK, OQPSK) es igual a 1.0/Ts . Para el caso de lasseñales MSK, el 99% de la cantidad de energía del espectro G

f

esta concentrada en el lóbuloprincipal, mientras que para las señales PSK, esta cantidad es solo del 92%.

Formato de modulación generalizado de MSK: El desarrollo de los métodos de corrimientoestá condicionado a la necesidad de disminuir la potencia espectral fuera de banda en los STC.Con este fin, se ha formado una clase completa de señales CPFSK con características de rápidadisminución de la potencia espectral fuera de banda. Los principios de formación de estas señales están basados en una modulación adicional de la fase continua. Así por ejemplo, se planteael problema de síntesis de una señal que brinde el mínimo valor de potencia fuera de banda, apartir de las señales MSK, cuya solución implica la generación de la función de modelación de

2.5. Modulación digital de radiofrecuencia 111

la envolvente de los símbolos informativos en la siguiente forma:

ψcos (t ) =

cos

2πt2Ts

ϑ1 (t )

, 0≤ t ≤ Ts

cos

2πt2Ts

ϑ2 (t )

, −Ts ≤ t ≤ 0

ψsin (t ) =

sin

2πt2Ts

ϑ1 (t )

, 0≤ t ≤ Ts

sin

2πt2Ts

ϑ2 (t )

, −Ts ≤ t ≤ 0,

donde ϑ1,2 (t ) es una función adicional de variación de la fase continua, que puede tomar unvalor de ceros solo en los extremos del intervalo de modulación [0,Ts ] de los símbolos de infor-mación. Un amplio uso ha tenido el formato de modulación digital, obtenido a partir del últimopar de expresiones para la generación de la función de modelación de la envolvente de los sím-bolos informativos y que consiste en la introducción de función de variación de la frecuencia deforma sinusoidal (SFSK sinusoidal FSK ), para las cuales la anterior expresión se simplifica hastala siguiente forma:

ϑ (t ) =

1− sinc

2πt2Ts

, 0≤ t ≤ Ts

0, |t |> Ts .

La comparación de métodos MSK (sin modulación adicional de fase) y SFSK muestra unmejoramiento de este último tipo de señales en efectividad espectral y en fidelidad, en casode que los medios físicos de transmisión sean no lineales.

112 Capítulo 2. Principios de modulación

Problemas

24. Una modem establece una comunicación a 56k bps . Determinar cual es el mejor método

de modulación digital para el que se presenta un menor ancho de banda.25. Se desea transmitir una señal modulada ASK a través de un sistema de modulación ordi-

naria. Es posible detectar una señal de este tipo con un demodulador síncrono?. Demostrar.26. Se tienen dos fuentes de información que transmiten a la misma velocidad (2kbps) pero con

diferentes codificaciones. La primera fuente transmite con una codificación NRZ (sin retornoa cero) y la segunda fuente con RZ (con retorno a cero). Ambas señales viajan por el mismosistema de comunicaciones con modulación MSK. ¿Cuál de las dos fuentes requerirá menorancho de banda para la transmisión de la información?27. Suponga las dos fuentes de información del ejercicio anterior. En este caso, ambas trans-

miten con codificación NRZ, pero la primera fuente maneja un esquema MSK y la segunda unesquema QPSK. Determine cuál de las dos fuentes es más eficiente en términos espectrales, enel sentido de que las dos fuentes transmiten la misma información pero con diferente ancho debanda. Grafique el espectro de potencia de las dos señales.28. Para el generador en cuadratura de la Figura 2.36 se tiene un problema de desfase en la

señal sinusoidal de la forma sin(ω0t +φ). Se desea generar una señal PSK. Muestre los efectosde dicho desfase en la señal resultante en tiempo y frecuencia.

3Aleatoriedad en señales y sistemas

La señal aleatoria ξ (s ) corresponde a un proceso, que se desarrolla sobre la variable s . Cuan-do la variable del argumento de la señal aleatoria, que usualmente es el tiempo, discurre

continuamente, entonces se habla de funciones aleatorias. Si en cambio, la variable del tiempocorresponde a una malla de valores discretos, s1,s2, . . . ,sn , entonces se habla de sucesiones oseries aleatorias. El análisis de las señales aleatorias, en gran medida, depende de si cambia o nosu estructura de aleatoriedad con respecto a su variable del argumento.

3.1. Señales aleatorias en el tiempo

t

t i

· · ·

ξn (t )

ξ1 (t )ξ2 (t )

ξ3 (t )

ξ (t )

Figura 3.1: Trayectorias de una señal aleatoria

Los fenómenos, que se desarrollan a lo largodel argumento correspondiente al tiempo ydescritos por una señal aleatoria ξ (t ), sepueden analizar a partir de un conjunto lon-gitudinal de mediciones o registros de val-ores ξi (t ) ∈ ξ : i = 1, . . . ,N como se ilus-tra en la Figura 3.1. En este caso, se definecomo trayectoria u observación a cada unade las mediciones simultáneas ξi de un mis-ma señal aleatoria. Se define como ensambleo conjunto a todas las posibles trayectorias,ξi (t ), medidas o registradas en un interva-lo de observación, que se relacionan con unmismo fenómeno aleatorio, ξ (t ).

En cualquier caso, las señales aleatorias pueden ser descritas mediante un ensamble de múlti-ples observaciones, entonces, se generan dos clases diferentes de promedios: se pueden efectu-ar mediciones sucesivas a lo largo de una misma observación ξ (t ) a partir de las cuales se hallansus momentos y valores de aleatoriedad o valores promedios de tiempo E

¦ξn

i (t )©, así mismo,

se pueden examinar todas las observaciones del ensamble, en un momento de tiempo dado t i

con lo cual se hallan los valores promedios de ensamble Eξn (t i ).

113

114 Capítulo 3. Análisis de aleatoriedad

3.1.1. Estacionariedad de las señales aleatorias

Las características básicas de la estructura de aleatoriedad de las señales corresponden a losmomentos y valores de aleatoriedad, los cuales pueden cambiar en el tiempo. Así por ejemplo,la FDP con dimensión múltiple p

ξ1,ξ2, . . . ,ξn ; t1,t2, . . . , tn

corresponde a los valores instantá-

neos de las respectivas FDP singulares ξn (tn ).

Un proceso se considera estacionario cuando su estructura de aleatoriedad no cambia en eltiempo, en particular, un proceso estocástico se define como estacionario en el sentido angosto,si sus funciones de probabilidad no son variables en el tiempo, esto es:

p (ξi , t ) = p (ξi , t +∆t ) , ∀∆t

condición, que prácticamente es bastante difícil de comprobar.

En cambio, un proceso estocástico ξ(t ) se define como estacionario en el sentido amplio,cuando todos sus momentos y valores de aleatoriedad no varían para cualquiera que sean lostiempos de análisis

t1,t2, . . . ,

.

Eξn (tn )= cons t .

E(ξ (tm )−m1ξ (tm ))(ξ (tn )−m1ξ (tn ))= cons t

En consecuencia, los momentos de las señales estacionarias se asocian con los siguientespromedios de tiempo:

@ Valores medios

Eξn (t )

=

∞∫

−∞

ξn (t )d t ¬ ξn (t ), n ∈N (3.1)

@ Valores medios centralizados

Eξn (t )−ξ (t )=

∞∫

−∞

ξ (t )−ξ (t )

nd t , n ≥ 2, n ∈N (3.2)

@ Valores de correlación

Kξη (tm , tn ) =Eξ (tm )−m1ξ (tm )

η (tn )−m1η (tn )

=

∞∫

−∞

ξ (tm )−m1ξ (tm )

η∗ (tn )−m1η (tn )

d t

= Rξη (tm , tn )−m1ξ (tm )m1η (tn ) (3.3a)

Rξη (tm , tn ) =Eξ (tm )η∗ (tn )=

∞∫

−∞

ξ (tm )η∗ (tn )d t (3.3b)

3.1. Señales aleatorias en el tiempo 115

Cuando en los núcleos de valores de correlación se tiene el caso de dos variables aleatoriasdiferentes, ξ (t ) 6= η (t ), se habla de la función de correlación mutua, mientras en el caso deanálisis de una misma función, ξ (t ) = η (t ), se dice de función de correlación propia. Si se tienendos variables aleatorias ξ (t ) y η (t ) con los respectivos valores de correlación propia Rξ (tm , tn )

y Rη (tm , tn ), de forma adicional se considera la matriz de correlación:

R=

Rξ (tm , tn ) Rξη (tm , tn )

Rηξ (tm , tn ) Rη (tm , tn )

Ejemplo 3.1 Sea la suma de dos señales aleatoriasη (t ) =ξ1 (t )+ξ2 (t ) .El valor medio del proceso resultante se determina como:

Eη (t )=Eξ1 (t )+ξ2 (t )=Eξ1 (t )+Eξ2 (t )=m1ξ1 (t )+m1ξ2 (t )

Mientras, la función de correlación de la señal aleatoria resultante será:

Rη (tm , tn ) =Eξ1 (tm )−m1ξ1 (tm )Eξ2(tn )−m1ξ2(tn )

que se calcula como

=Eξ1(tm )−m1ξ1 (tm )+ξ2(tm )−m1ξ2 (tm )Eξ1(tn )−m1ξ1 (tn )+ξ2(tn )−m1ξ2 (tn )=Eξ1(tm )−m1ξ1 (tm )Eξ1(tn )−m1ξ1 (tn )+Eξ1(tm )−m1ξ1 (tm )×Eξ2(tn )−m1ξ2(tn )+Eξ2(tm )−m1ξ2 (tm )Eξ1(tn )−m1ξ1 (tn )+Eξ2(tm )−m1ξ2(tm )Eξ2(tn )−m1ξ2(tn )

con lo cual se tiene que

Rη (tm , tn ) = Rξ1 (tm , tn )+Rξ1ξ2 (tm , tn )+Rξ2ξ1 (tm , tn )+Rξ2 (tm , tn )

Al considerar que las variablesξ1 (t ) y ξ2 (t ) son no correlacionadas, entonces

Rη (tm , tn ) = Rξ1 (tm , tn )+Rξ2 (tm , tn )

Asumiendo que se analiza la suma de la señal aleatoriaξ1 (t ) con otra señal no aleatoriax (t ), se obtieneel siguiente valor medio:

Eη (t )=Eξ1 (t )+x (t )=Eξ1 (t )+x (t )

con la respectiva función de correlaciónRη (tm , tn ) = Rξ1 (tm , tn ) .Si la variablex (t ) se convierte en constantex (t ) = cons t ., se obtienen los momentos:

Eη (t )=Eξ1 (t )+ c=mξ1 (t )+m1c

Rη (tm , tn ) = Rξ1 (tm , tn )+σ2c

Se puede demostrar, que para la sumaη (t ) = aξ1 (t )+bξ2 (t ) se tienen los momentos:

Eη (t )= a m1ξ1 (t )+b m1ξ2 (t )

Rη (tm , tn ) = a 2Rξ1 (tm , tn )+b 2Rξ2 (tm , tn )+abRξ1ξ2 (tm , tn )+Rξ2ξ1 (tm , tn )

116 Capítulo 3. Análisis de aleatoriedad

Ejemplo 3.2 Hallar la función de correlación de la siguiente suma de señales aleatorias

ξ (t ) =N∑

n=1

ξn (t )

dondeξn (t ) = ξnc cosωn t +ξns sinωn t , siendoξc y ξs valores aleatorios no correlacionados con mediacero e igual varianzaσ2

ξnC=σ2

ξnS=σ2

ξn.

La función de correlación deξn (t ) = ξnc cosωn t +ξns sinωn t se calcula como:

Rξn (t1, t2) =Eξn (t1)ξn (t2)=E(ξnc cosωn t1+ξns sinωn t1) (ξnc cosωn t2+ξns sinωn t2)=σ2

ξnCcosωn t1 cosωn t2+σ

2ξnC

sinωn t1 sinω0t2

=σ2ξn

cosωn (t1− t2)

que da como resultado

Rξ (t1, t2) =

N∑

n=1

Rξn (t1, t2)

=

N∑

n=1

σ2ξn

cosωn (t1− t2)

Transformación lineal de señales aleatorias. Sea un sistema con entrada x y salida y , descritopor un operador linealK , tal que cumpla las siguientes condiciones:

a). y =K λx=λK x, λ= const .

b). y =K x1+x2=K x2+K x1

En los casos de transformación de variables, son importantes los valores de aleatoriedad ymomentos de los procesos de entrada o salida, dada la descripción del sistema en la formaη=K ξ.

En particular, el valor medio y la función de correlación de la salida son de la forma:

m1η (t ) =Eη (t )=EK ξ (t )=K Eξ (t ) (3.4a)

Rη(tm , tn ) =Eη(tm )−m1η(tm )Eη(tn )−m1η(tn )=EK

¦ξ(tm )−m1ξ(tm )

©EK

¦ξ(tn )−m1ξ(tn )

©

=K¦Eξ(tm )−m1ξ(tm )

©K¦Eξ(tn )−m1ξ(tn )

©

=K(tm )K(tn )

¦Eξ(tm )−m1ξ(tm )Eξ(tn )−m1ξ(tn )

©

=K(tm )K(tn )

¦Rξ (tm , tn )

©(3.4b)

Cabe anotar que la suposición de estacionariedad simplifica las expresiones (3.4a) y (3.4b),obtenidas para la transformación de señales, así:

Eη (t )=EK ξ (t )=K Eξ (t )=m1η

K(tm )K(tn )

¦Rξ (tm , tn )

©=KK(τ)

¦Rξ(τ)

©, τ= tm − tn

3.1. Señales aleatorias en el tiempo 117

De otra parte, la reacción de un sistema lineal e invariante en el tiempo (1.63) se describe porla reacción del operador lineal del sistema a la función δ(t ), o respuesta a impulso h(t ), por loque si a la entrada del sistema se tiene la señal aleatoriaξ (t ), mientras a la salida se tiene la señalaleatoria η (t ) , entonces, se observan las siguientes relaciones en el tiempo entre los momentosde entrada y salida del sistema:

m1η (t ) =

∞∫

0

m1ξ(t −τ)h(τ)dτ (3.5a)

Rη (tm , tn ) =

∞∫

0

∞∫

0

Rξ (tm −τm , tn −τn )h(τm )h(τn )dτm dτn (3.5b)

Ejemplo 3.3 Dados, para la variableξ (t ), la mediam1ξ (t ) = a t 2 y la función de correlación

Rξ(tm , tn ) =σ2ξ exp−α |tm − tn |

Hallar los momentosm1η, Rη (tm , tn ) y varianza de la señal aleatoria en caso de su transformaciónlineal,definida como:

η (t ) = dξ/d t

El valor medio es igual a:

m1η (t ) =K Eξ (t )=d

d tm1ξ (t )

= 2a t

La función de correlación del proceso de salida se halla diferenciando dos veces la función de correlacióndel proceso de entrada, de la siguiente manera:

tm > tn : Rξ (tm , tn ) =σ2ξ

e−α(tm−tn )

∂ tmRξ (tm , tn ) =−σ2

ξαe−α(tm−tn )

∂ 2

∂ tm∂ tnRξ (tm , tn ) =σ

2ξα2e−α(tm−tn )

Así mismo se halla el caso contrario:

tm < tn : Rξ (tm , tn ) =σ2ξe−α(tn−tm )

∂ tmRξ (tm , tn ) =σ

2ξαe−α(tn−tm )

∂ 2

∂ tm∂ tnRξ (tm , tn ) =−σ2

ξα2e−α(tn−tm )

Juntar ambos casos de análisis (tm > tn y tm > tn ) es imposible. Por lo tanto, se puede inferir que lafunción de correlaciónRξ (tm , tn ) no tiene la segunda derivada para el valortm = tn , luego, el procesoξ (t )no es diferenciable.

118 Capítulo 3. Análisis de aleatoriedad

Ejemplo 3.4 Un proceso aleatorio corresponde a la transformaciónξ (t ) = φ f (t ), siendof una funcióndeterminística yφ una variable aleatoria. Determinar si el procesoξ (t ) es estacionario.

La estacionariedad en el sentido amplio, exige la invariabilidad en el tiempo de los valores de aleato-riedad, por ejemplo del primer momento inicial(3.1) y la varianza(3.2),

Eξ (t )=Eφ f (t )= f (t )Eφ

Eξ (t )−ξ (t )

2=Eφ f (t )−φ f (t )

2= f 2 (t )Eφ

que resultan variantes en el tiempo, y por ende, el procesoξ (t ) no es estacionario.

3.1.2. Ergodicidad de las señales aleatorias

Sea el proceso estacionario, en el cual se conocen los valores del primer momento inicial de cadauna de las n trayectorias. Considerando la estacionariedad del proceso, la esperanza matemáti-ca del mismo en cualquier corte de tiempo t i , como se muestra en la Figura 3.1, se determinade la forma

m1ξ(t i ) =1

n

n∑

k=1

ξk (t i )

El cálculo de primer momento, por alguna de las observaciones definida en un intervalo deanálisis T , se puede realizar segmentando el intervalo en una malla se subintervalos, determi-nados sobre los momentos de tiempo tk = k∆t , k = 1, . . . ,n , esto es, n = T /∆t . La estimaciónde la esperanza sobre la malla de subintervalos se determina de la expresión:

fm1ξi =1

n

n∑

k=1

ξi (tk )∆t

que al hallar el límite, resulta en

fm1ξin→∞≈ 1

T

T∫

0

ξi (t )d t

Por cuanto, se asume que las propiedades de aleatoriedad de los procesos estacionarios semantienen invariantes en el tiempo, entonces, cuando se tiene un número n suficientementegrande, para cada trayectoria se cumple la igualdad

fm1ξi =m1ξ(t i ), i = 1, . . . ,n

Generalizando la expresión anterior, un proceso aleatorio estacionario se define como ergódi-co, cuando los valores promedios de tiempo y de ensamble son idénticos, esto es,

Eξni (t )=Eξn (t i ) (3.6)

La media de cada observación del ensamble es igual a la media de la observación media delensamble. De (3.6), se entiende que un proceso ergódico es estacionario, pero no viceversa.

3.1. Señales aleatorias en el tiempo 119

La estimación de los momentos (3.1) para una señal ergódica ξ (t ) se describe como

eEξn (t )=

∞∫

−∞

ξn (t )w (t )d t , n ∈Z (3.7)

siendo w (t ) la función de peso, que cumple la restricción

lımT−→∞

T∫

0

w (t )d t = 1

La función de peso rectangular es la más frecuentemente empleada en la estimación de losmomentos en (3.7),

w (t ) =

(1/T, 0≤ t ≤ T

0, otros valores de t(3.8)

La función de peso (3.8) corresponde a la respuesta a impulso (1.63) de un filtro lineal, cuyarespectiva función de transferencia es denominada característica espectral.

Φ(ω) =F w (t )=

∞∫

−∞

w (t )e−jωt d t

que en el caso particular de (3.8) es igual a Φ(ω) = e−jωT/2 sinc(ωT /2).Los valores de aleatoriedad dados en (3.1), (3.2), (3.3a) y (3.3b) para los procesos ergódicos,

teniendo en cuenta la estimación (3.8), toman las respectivas expresiones:

Eξn (t )= lımT−→∞

1

T

T∫

0

ξn (t )d t , n ∈N (3.9a)

Eξn (t )−ξ (t )= lımT−→∞

1

T

T∫

0

ξ (t )−ξ (t )

nd t , n ≥ 2,n ∈N (3.9b)

Rξ (τ) = lımT−→∞

1

T

T

(ξ (t ))ξ∗ (t +τ)

d t (3.9c)

Kξ (τ) = lımT−→∞

1

T

T

ξ (t )−ξ (t )

ξ∗ (t +τ)−ξ (t )

d t

= Rξ (τ)−m 21ξ (3.9d)

Los momentos de las señales ergódicas se relacionan con el siguiente sentido físico:

A Valor medio ξ (t ) es la componente constante.

120 Capítulo 3. Análisis de aleatoriedad

A El valor medio al cuadrado ξ (t )2

corresponde a la potencia de la componente directa.

A Valor cuadrático medio ξ2 (t ) es la potencia promedio.

A La varianzaσ2ξ es la potencia de la componente alterna.

A La desviación estándarσξ corresponde al valor rms.

A La función de correlación propia corresponde a la potencia de la componente alterna

Ejemplo 3.5 Hallar la función de correlación de la señal aleatoriaξ (t ) = a cosωt +φ

, siendoφ la

variable aleatoria.A partir de la definición(3.9c) se tiene que

Rξ (τ) = lımT→∞

1

T

T∫

0

a cosωt +φ

a cos

ωt +ωτ+φ

d t

= lımT→∞

a 2

T

T∫

0

1

2

cos

ωτ+φ

+ cos

2ωt +ωτ+2φ

d t

La primera integral se calcula de la forma

a 2

2T

T∫

0

cosωτd t =a 2

2cosωτ

Mientras, la segunda integral es igual a

a 2

2T

T∫

0

cos2ωt +2φ+ωτ

d t =

a 2

2Tcos

2φ+ωτ

T∫

0

cos 2ωt d t − a 2

2Tsin

2φ+ωτ

T∫

0

sin 2ωd t

Por cuanto,

lımT→∞

T

cos kωt d t = lımT→∞

sinc (kωT ) = 0, lımT→∞

T

sin kωt d t = 0,∀k ∈Z

Finalmente se obtiene la siguiente expresión para la función de correlación:

Rξ (τ) =a 2

2cosωτ

Por su papel preponderante en la descripción de procesos estacionarios que las funciones decorrelación y covarianza tienen, deben tenerse en cuenta sus siguientes propiedades:

(a). Paridad. Rξ (τ) =R∗ξ (−τ) , Kξ (τ) = Kξ(−τ)

3.1. Señales aleatorias en el tiempo 121

A partir de la estacionariedad del proceso se puede demostrar la simetría de los valores decorrelación respecto a los argumentos t1 y t2 :

Eξm (t1)−ξm (t1),ξn (t2)−ξn (t2)=Eξn (t2)−ξn (t2),ξm (t1)−ξm (t1)

(b). Valor máximo.Rξ (τ)

≤ Rξ (0) ,Kξ (τ)

≤ Kξ (0).

Por cuanto es evidente la siguiente desigualdadE(ξ (t )±ξ (t +τ))2 ≥ 0, abriendo parén-tesis, se obtiene

ξ2 (t )+ξ2 (t +τ)± 2ξ (t )ξ (t +τ)≥ 0

Debido a la estacionariedad del proceso, los dos primeros términos son iguales, con locual se obtiene la cota máxima de la función.

ξ2 (t )≥±ξ (t )ξ (t +τ)⇒Rξ (0)≥ Rξ (τ)

Por cierto, de (3.3a) se tienen los siguiente valores en el origen:

Kξ (0) =1

T

T∫

0

ξ (t )−ξ (t )

ξ∗ (t )−ξ (t )

d t =σ2

ξ, (3.10a)

Rξ (0) =1

T

T∫

0

ξ (t )ξ∗ (t )d t =ξ2 (t ) (3.10b)

(c). Continuidad. Si la función Rξ (τ) es continua en τ= 0, entonces Rξ (τ) también será con-tinua para todo τ.

(d). Periodicidad. Cuando se cumple que:

Rξ (τ) = Rξ (τ+T ) ,∀τ ∈ T

(e). Restricción en la forma. Dado un proceso, que sea físicamente realizable, la transformadade Fourier de su función de correlación debe cumplir la siguiente restricción de forma:

Rξ (τ)©≥ 0, ∀ω (3.11)

(f). Convergencia. Si el proceso aleatorio ξ (t ) no es periódico, entonces se cumple,

lım|τ|−→∞

Rξ (τ) =ξ2 (t ), lım|τ|−→∞

Kξ (τ) = 0,

En este sentido se introduce el concepto de intervalo de correlación, que se puede deter-minar, bien como la parteβ 1 del valor máximo de la función de correlación, bien comola mitad de la base del rectángulo ∆τe con altura unitaria y área igual a la de la función

122 Capítulo 3. Análisis de aleatoriedad

de correlación normalizada. En el primer caso, el intervalo de correlación corresponde alvalor τ = τc , tal que el valor de la función normalizada de correlación sea considerable-mente pequeño:

Rξ(τc )

σ2ξ

=β ≈ 0.05. . . 0.1 (3.12)

mientras en el segundo caso, el intervalo se calcula a partir de la integral

∆τe =1

Rξ (0)

∞∫

0

Rξ (τ)dτ (3.13)

Ejemplo 3.6 Hallar el intervalo de correlación para la función de correlación expresada en la forma,

Rξ (τ) = kÀ

1−α2τ2

De la expresión(3.12), se tiene que

1−α2τ2c

= β

⇒ τc =1

α

r1−ββ

mientras para el segundo caso de definición en(3.13) se obtiene

∆τ=

∞∫

0

1

1+α2τ2dτ=

1

αarctanατ

0

Por último, se puede decir que la función de correlación caracteriza la dependencia estadísti-ca entre los valores instantáneos del proceso, dados en diferentes momentos del tiempo. Así, porejemplo, sea la diferencia cuadrática media entre dos valores instantáneos del proceso definidade la forma,

εξ (τ) =E(ξ (t )−ξ (t +τ))2

de la cual se observa que

εξ (τ) =ξ2 (t ) +ξ2 (t +τ)− 2ξ (t )ξ (t +τ) = 2ξ2 (t )− 2Rξ (τ)

= 2Rξ (0)− 2Rξ (τ)

luego,

2Rξ (τ)+ εξ (τ) = 2Rξ (0) = const

3.1. Señales aleatorias en el tiempo 123

Por lo tanto, la función de correlación complementa la desviación cuadrática media hasta unvalor constante y proporcional a la potencia del proceso.

En la práctica, es usual considerar las siguientes formas de clasificación de los procesos ergódi-cos de acuerdo a su función de correlación propia:

6

-

6

-

6

-

6

-

6.... ......................................................................................................................................................................................

(a ) (b ) (c ) (d )

0 0 0 0τ τ τ τ

R (τ) R (τ) R (τ) R (τ)

τ1

a

Figura 3.2: Clasificación de funciones de correlación

a). Procesos con correlación nula, en los cuales el valor de la función de correlación es cero,excepto para el corte de tiempo R (0)∼ δ (τ) (Figura 3.2(a )).

b). Procesos con correlación continua, en los cuales el valor de la función cambia sobre undominio continuo, (Figura 3.2(b )).

c). Procesos con correlación discreta o procesos de Markov, cuando la función de correlacióncambia de forma escalonada sobre una malla discreta de valores del intervalo de corre-lación τk , (Figura 3.2(c )).

Dentro de los procesos de Markov, una clase importante corresponde al caso cuando lafunción de correlación discreta se limita a un solo escalón (Figura 3.2(d )) lo que se inter-preta como la dependencia de dos valores contiguos del proceso.

Realmente, el proceso ilustrado en la Figura 3.2(d ) es un modelo abstracto, en la medida enque la función de correlación no cumple con la condición de existencia (3.11), para todos losvalores del intervalo de correlación τ, como se observa de la relación:

∞∫

0

R (τ)cosωτdτ=

τ1∫

0

a cosωτdτ

=a

ωsinωτ1 0, ∀τ

124 Capítulo 3. Análisis de aleatoriedad

Ejemplo 3.7 Seanξ (t ) y η (t ), señales aleatorias dadas en un intervalo finito de tiempot ∈ Tξ. Hallar lafunción de correlación mutua usando la descomposición ortogonal de Fourier.

Las series de Fourier(1.24), para las señales aleatorias,ξ (t ) y η (t ), tienen la misma forma,

x (t ) = a 0+

∞∑

n=1

(a n cosnΩt +b0 sin nΩt ) , Ω=2π

Tξ, x ∈

ξ,η

La descomposición de Fourier de la versión con desfase de cada proceso tiene la forma,

x (t +τ) = a 0+

∞∑

n=1

a n cos nΩτcosnΩt −∞∑

n=1

a n sin nΩτsin nΩt+

+

∞∑

n=1

bn sin nΩτcosnΩt +∞∑

n=1

bn cos nΩτsinnΩt

Reemplazando ambas expresiones, en la definición de la función de correlación mutua,

Rξη (τ) = a 0ξa 0η+1

2

∞∑

n=1

a nξa nη+bnξbnη

cos nΩτ+

1

2

∞∑

n=1

a nξbnη−a nηbnξ

sin nΩτ

Cuando se asume la paridad de ambas señales aleatorias en análisis, entonces, los términos del senos seconvierten en0; bξ = bη = 0, luego, la anterior expresión se simplifica hasta,

Rξη (τ) = a 0ξa 0η+1

2

∞∑

n=1

a nξa nη cos nΩτ

Concretamente, se puede hallar la función de correlación propia para el tren de pulsos cuadrados, mostradoen la Figura 3.3(a ), empleando la descomposición ortogonal de Fourier.

La serie de Fourier de la función tren de pulsos cuadrados tiene la forma

ξ (t ) =Ω∆t

2+

2

π

∞∑

n=1

1

nsin n

Ω∆t

ncos nΩt

la cual se reemplaza por la expresión, obtenida anteriormente para el caso de funciones pares, haciendoa ξ = aη, con lo que la función de correlación propia resulta en

Rξ (τ) = a 20ξ+

1

2

∞∑

n=1

a 2nξ cos nΩτ

=

Ω∆t

2

+4

π2

1

2

∞∑

n=1

1

n 2sin2 n

Ω∆t

2cosnΩτ

Teniendo en cuenta la siguiente expresión cerrada, obtenida para la suma [12]:

∞∑

n=1

sin2 nα

n 2cos nx =

−π

4x +

πα

2−α2

2, 0< x < 2α

−α2

2, 2α< x <π

entonces, se observa claramente, que la función de correlación corresponde a un tren de pulsos triangularescomo se muestra en la Figura 3.3(b ).

3.1. Señales aleatorias en el tiempo 125

-

6

-

......................................

-

6

TT

TTT

T

TT

TT

ξ (t )

0

1

Ω∆t

Ωt τ

π 2π0

Rξ (τ)

Ω∆t−Ω∆t(b )(a )

Figura 3.3: Función periódica pulso cuadrado

3.1.3. Descomposición espectral de señales aleatorias

Del ejemplo 3.2, se observa que la función de correlación resultante Rξ (t1, t2) es estacionaria,en la medida en que el argumento del coseno depende sólo de la distancia entre los valores detiempo |t2− t1|. Por lo que la función de correlación resultante es:

Rξ(t1, t2) =Rξ(τ) =∑

n

σ2ξn

cosωnτ, σ2ξ =

n

σ2ξn

De lo anterior, se plantea la tarea de representación de señales mediante la serie generalizadade Fourier (1.24), pero ampliada al caso de procesos aleatorios estacionarios.

Sea ξ (t ) un proceso estacionario en el sentido amplio, dado en el intervalo (0,T ). Entonces,su descomposición ortogonal tendrá la forma:

ξ (t ) =∞∑

n=0

ξnφn (t ) (3.14)

donde los coeficientes de descomposición, en concordancia con (1.19), se determinan como:

ξn =1

en

T∫

0

ξ (t )φ∗n (t )d t , ei =

T∫

0

φ2n (t )d t (3.15)

Sin embargo, a diferencia de la representación (1.24), los coeficientes de (3.15) son aleatorios,por lo que la convergencia de la suma en (3.14) hacia la señal aleatoria ξ (t ), se debe entenderen el sentido del valor cuadrático medio:

lımN→∞

E|ξ (t )−∑N

nξnφn (t )|2= 0

Uno de los problemas importantes a resolver es la selección del conjunto base de repre-sentación φn (t ), el cual puede ser escogido por los dos siguientes principios: Primero, quese brinde el menor error de representación para un número N dado de coeficientes, o bien, se-gundo, que se genere el menor número N de coeficientes, para un valor requerido de error derepresentación. Así mismo, es importante que los coeficientes (3.15) tengan correlación cero en-

126 Capítulo 3. Análisis de aleatoriedad

tre ellos, por cuanto las tareas asociadas al proceso de señales aleatorias se resuelven de maneramás fácil.

Se puede demostrar que para una señal aleatoria, representada por la serie (3.14), que ten-ga función de correlación continua R(t ,τ), el valor de la esperanza del error cuadrático mediointegral (potencia media de error), expresado como:

E

T∫

0

ξ (t )−

N−1∑

n=0

ξnφn (t )

!2

d t (3.16)

el error será el mínimo posible (3.16), para cualquier N , si el conjunto base de representaciónφn (t ) : n = 0,1, . . . ,N − 1 cumple la condición homogénea de Fredholm de segundo tipo [13,14]:

λiφi (t ) =1

T

T∫

0

Rξ(t ,τ)g (τ)dτ (3.17)

donde φn (t ) son las funciones propias (solución) de la ecuación y los coeficientes λn son losvalores propios del núcleo Rξ(t ,τ) de la ecuación. El conjunto de funciones propias φn (t )es ortogonal, cuyos coeficientes pueden ser escogidos de tal manera que puedan ser ortonor-males. Los coeficientes de descomposición (3.14) de la señal aleatoria, en caso de emplear elconjunto base de representación φn (t ) que cumplan con (3.17), resultan tener correlaciónnula. Además, si la señal aleatoria se asume del tipo Gaussiano, entonces los coeficientes resul-tan ser independientes estadísticamente. Así mismo, si se cumple que E ξn = 0, entonces, elvalor de la varianzaσ2

ξnconverge al respectivo valor propio λn .

Para el conjunto base de representación φn (t ), que cumple la condición (3.17), la esperanzade la potencia de error (3.16), dada en el intervalo (0,T ), se determina como:

ε2T =

1

TE

T∫

0

(ξ (t )−

N−1∑

n=0

ξnφn (t )

)2

d t

=1

T

T∫

0

Eξ2 (t )d t − 2

T

T∫

0

N−1∑

n=0

Eξnξ2 (t )φn (t )d t

+1

T

T∫

0

N−1∑

m=0

N−1∑

n=0

Eξmξnφm (t )φn d t

Por lo que se tiene que

ε2T =σ

2ξ−

N−1∑

n=0

σ2ξn

(3.18)

3.1. Señales aleatorias en el tiempo 127

La expresión (3.18) permite hallar el número N de componentes de la serie de descomposi-ción (3.14), que brinde un valor a priori dado de error de representación.

La descomposición de señales aleatorias, que tengan función de correlación continua, por laserie (3.14), en la cual el conjunto base de representación corresponde a las funciones propias,se denomina descomposición de Karhunen-Loève (K-L).

El ruido blanco gaussiano, mostrado en el literal §3.1.4 con función de correlación (3.32), sepuede descomponer en el intervalo (0,T ) empleando cualquier conjunto base ortogonal, peroen todo caso, los coeficientes de descomposición serán valores aleatorios gaussianos estadísti-camente independientes con igual varianza de valor N0/2.

3.1.4. Densidad espectral de potencia

La descripción directa de una señal aleatoria ξ (t ) en el dominio espectral, mediante la TF,

Ξ (ω) =

∞∫

−∞

ξ (t )e−jωt d t

es imposible de realizar, principalmente, porque la integral (1.40) implica cumplir las condi-ciones de Dirichlet (sección §1.3.1), las cuales no ocurren para cualquier observación de proce-so estacionario en el sentido amplio, particularmente, la condición de convergencia exige que elproceso sea absolutamente integrable; condición que sólo se alcanzaría para señales aleatoriasde contenido cero.

El empleo de la TF exige la modificación de la representación para las observaciones de laseñal estacionaria, de tal manera que la integral (1.40) converja, para lo cual, la forma más sen-cilla consiste en el truncamiento de la trayectoria ξ (t ), empleado en el cálculo de sus momentosde una observación sobre un intervalo de tiempo (−T,T ), descrito en (3.9a) y (3.9b), que usa lafunción ventana rectangular:

ξT (t ) = rectT (t )ξ (t ) (3.19)

La trayectoria de la señal aleatoria truncada de (3.19) es válida, mientras la varianza del pro-ceso sea finita. Así, se asegura la convergencia de la integral (1.40).

De otra parte, el empleo del teorema de Parsevall, (1.47), para la observación truncada (3.19),asumiendo su valor medio igual a cero, da como resultado:

T∫

−T

ξ2T (t )d t =

1

∞∫

−∞

|ΞT (ω)|2 dω

cuyo promedio se obtiene acorde con la ventana de estimación (3.8):

1

2T

T∫

−T

ξ2T (t )d t =

1

4πT

∞∫

−∞

|ΞT (ω)|2 dω

La parte izquierda de la última expresión es proporcional a la potencia del proceso en el inter-

128 Capítulo 3. Análisis de aleatoriedad

valo de análisis (−T,T ). Es más, cuando se analizan las señales aleatorias estacionarias, al hacerel intervalo T →∞, la potencia tiende al valor cuadrático medio dado en (3.9a), esto es,

E 1

2T

T∫

−T

ξ2T (t )d t =E 1

4πT

∞∫

−∞

|ΞT (ω)|2 dω

lımT→∞

1

2T

T∫

−T

Eξ2T (t )d t = lım

T→∞

1

4πT

∞∫

−∞

E|ΞT (ω)|2dω

lımT→∞

1

2T

T∫

−T

ξ2T (t )d t = lım

T→∞

1

4πT

∞∫

−∞

E|ΞT (ω)|2dω

lımT→∞

1

2T

T∫

−T

ξ2T (t )d t =

1

∞∫

−∞

lımT→∞

E|ΞT (ω)|22T

Eξ2T (t )=

1

∞∫

−∞

lımT→∞

E|ΞT (ω)|22T

En el caso de los procesos ergódicos, el promedio de ensamble es igual al promedio de tiempo,con lo que se obtiene,

ξ2T (t ) =

1

∞∫

−∞

lımT→∞

E|ΞT (ω)|22T

dω (3.20)

El operador dentro de la integral (3.20) es el promedio de tiempo del espectro de la obser-vación de la señal aleatoria, denominado densidad espectral de potencia (DEP),

Sξ(ω)¬ lımT→∞

E|ΞT (ω)|22T

(3.21)

Si la señal ξ (t ) tiene unidades [V ], entonces la densidad Sξ(ω) tiene unidades [V 2/Hz ], queen correspondencia con (3.20), determina el valor cuadrático medio del proceso. Así,

ξ2T (t ) =

1

∞∫

−∞

Sξ(ω)dω (3.22)

La densidad espectral de potencia puede ser interpretada como la potencia media concentra-da en los límites de una banda de frecuencia con banda de paso igual a 1 Hz para una frecuenciacentral del espectro igual aω/2π [Hz ].

Atendiendo a las condiciones de realización físicas de los procesos aleatorios, la DEP tiene,entre otras, las siguientes propiedades:

3.1. Señales aleatorias en el tiempo 129

a). Sξ (ω)∈R, está determinada en el espacio de los reales,

b). 0≤Sξ (ω)<∞, es positiva semidefinida y acotada,

c). Sξ (ω) = Sξ (−ω), es par. En consecuencia, la representación de Sξ(ω) en forma de fun-ciones racionales, debe contener estrictamente polinomios de potencias pares:

Sξ(ω) =s0ω2n +a 2n−2+ · · ·+a 2ω2+a 0

ω2m +b2m−2+ · · ·+b2ω2+b0, Sξ(ω)∈Q

La expresión (3.22) se obtiene asumiendo el valor medio igual a 0 del proceso aleatorio. Sinembargo, se puede demostrar que la relación puede ser generalizada, obteniéndose:

σ2ξ =

1

∞∫

−∞

Sξ (ω)dω (3.23)

Transformada de Wiener-Jinchin. La expresión (3.9c) define la función de correlación comola esperanza matemática del producto de dos funciones determinadas en el tiempo. Sin embar-go, de la sección anterior, resulta que la DEP está relacionada con la esperanza matemática delproducto de las TF de estas misma funciones. Entonces, debe existir una relación directa entreesas dos esperanzas matemáticas.

Sea una señal aleatoria con DEP, definida en (3.21),

Sξ(ω) = lımT→∞

E|ΞT (ω)|22T

= lımT→∞

EΞT (ω)ΞT (−ω)2T

Desarrollando las respectivas integrales de Fourier, se obtiene

Sξ(ω) = lımT→∞

1

2TE

T∫

−T

ξT (t1)e (jωt1)d t1

T∫

−T

ξT (t2)e (−jωt2)d t2

= lımT→∞

1

2TE

T∫

−T

d t2

T∫

−T

e (−jω(t2−t1))ξT (t1)ξT (t2)d t1

El operador de promedio, atendiendo a la propiedad de linealidad de la TF, se puede incluirdentro de la integral:

Sξ(ω) = lımT→∞

1

2T

T∫

−T

d t2

T∫

−T

e (−jω(t2−t1))EξT (t1)ξT (t2)d t1

El operador de promedio de las funciones dentro de la integral corresponde a la función decorrelación propia Rξ(t1, t2) para la señal estacionaria en análisis, pero truncada hasta ξT (t ). Alrealizar el cambio de notación, τ= t2− t1, por cuanto d t2 = dτ, entonces, la anterior expresión

130 Capítulo 3. Análisis de aleatoriedad

toma la forma:

Sξ(ω) = lımT→∞

1

2T

T−t1∫

−T−t1

T∫

−T

e−jωτRξ(t1, t1+τ)d t1

=

∞∫

−∞

lım

T→∞

1

2T

T∫

−T

Rξ(t1, t1+τ)d t1

e−jωτdτ (3.24)

La expresión dentro del operador de promedio en la integral (3.24) corresponde a la funciónde correlación (3.9c), asumiendo la media del proceso ξ (t ) = 0. En otras palabras, la DEP de laseñal aleatoria ξ (t ) corresponde a la TF de la respectiva estimación en el tiempo de la funciónde correlación propia Rξ(t , t +τ), esto es, Sξ(ω) =F

¦Rξ(t , t +τ)

©.

Por cuanto en los procesos estacionarios se cumple que la función de correlación no dependedel tiempo inicial del intervalo de análisis, esto es, Rξ(t , t +τ) = Rξ(τ), entonces, se obtiene quela DEP de un proceso estacionario en el sentido amplio es la TF de su función de correlación:

Sξ(ω) =F¦

Rξ(τ)©

(3.25)

De manera inversa se puede obtener que:

F−1¦

Sξ(ω)©=F−1

¦F¦

Rξ(τ)©©=Rξ(τ) (3.26)

El par conjugado de expresiones (3.25) y (3.26) conforma la Transformada de Winner-Jinchinque tiene un valor fundamental en el análisis de señales estacionarias, debido a que establecenla relación de su representación entre el dominio del tiempo (la función de correlación) y eldominio de la frecuencia (la DEP).

Ejemplo 3.8Hallar la DEP para la función de correlación

Rξ (τ) =σ2ξ

exp(−α|τ|)

Empleando la relación (3.27a) se tiene:

Sξ(ω) =2

π

∞∫

0

σ2ξ

e−α|τ| cosωτdτ=2σ2

ξ

π

∞∫

0

e−ατdτcosωτdτ

La anterior integral se puede resolver por tabla:

Sξ(ω) =2σ2

ξ

π

e−ατ

α2+ω2(αcosωτ+ωsinωτ)

0

=2σ2

ξ

π

α

α2+ω2

En la Figura 3.4 se presentan la función de correlación (parte superior) y la respectiva DEP (parteinferior); ambas calculadas para los casos deα= 1 y α= 0.25 y asumiendo un valor de la varianza unitario.

3.1. Señales aleatorias en el tiempo 131

−3 −2 −1 0 1 2 30

0.4

1

−3 −2 −1 0 1 2 3

10−1

100

α= 0.25α= 1

Densidad espectral de potencia Sξ(ω)

Función de Correlación Rξ (τ)

Figura 3.4: Resultados del ejemplo 3.8.

Empleando la propiedad de paridad de la función de correlación, las expresiones (3.25) y(3.26) se pueden llevar a las respectivas formas:

Sξ(ω) = 2

∞∫

0

Rξ(τ)cosωτdτ (3.27a)

Rξ(τ) =1

π

∞∫

0

Sξ(ω)cosωτdω (3.27b)

En la práctica, en calidad de valores de aleatoriedad para los procesos aleatorios, también seemplean los diferentes parámetros de su DEP, por ejemplo, los siguientes:

a). Ancho de banda efectivo de espectro

∆ωe =1

Sξ (0)

∞∫

−∞

Sξ (ω)dω

el cual está relacionado con el intervalo de correlación (3.13), por la expresión

∆τ=1

2

Sξ (0)

Rξ (0)

b). Los siguientes momentos de frecuencia:

– La media, m1ω =2

σ2ξ

∞∫

0

ωSξ(ω)dω,

– El valor cuadrático medio, m2ω =2

σ2ξ

∞∫

0

ω2Sξ(ω)dω,

132 Capítulo 3. Análisis de aleatoriedad

– La Varianza,σ2ξ =

2

σ2ξ

∞∫

0

(ω−m1ω)2 Sξ(ω)dω

De otra parte, en el núcleo de la integral (3.24) está presente la función de correlación propia,que en el caso de considerar la función de correlación mutua (definida en (3.3b)), entonces, lafunción espectral respectiva es definida como la densidad espectral de potencia mutua:

Sξη (ω) =

∞∫

−∞

Rξη(τ)e−jωτdτ (3.28)

Cabe anotar, que cuando las señales aleatorias ξ (t ) y η (t ) tienen correlación nula, esto es,Rξη(τ) = 0, la correspondiente DEP mutua también es de contenido 0.

La relación entre las densidades de potencia Sξη (ω) y Sηξ (ω) se deduce a partir del análisisde las partes real e imaginaria de la definición (3.28),

Sξη (ω) =

∞∫

−∞

Rξη (τ)cosωτdτ− j

∞∫

−∞

Rξη (τ)sinωτdτ, (3.29)

donde las respectivas funciones de correlación mutua se definen como

Rξη (τ) = lımT→∞

1

T

T∫

0

ξ (t )η (t +τ)d t , (3.30a)

Rηξ (τ) = lımT→∞

1

T

T∫

0

η (t )ξ (t +τ)d t (3.30b)

En la última integral, (3.30b), se realizan los siguientes cambios de variables: λ= t +τ, luego,t = λ−τ, d t = dλ, con lo cual,

Rηξ (τ) = lımT→∞

1

T

T∫

0

η (λ−τ)ξ (λ)dλ

regresando de nuevo a la variable t , se obtiene,

Rηξ (τ) = lımT→∞

1

T

T∫

0

η (t )ξ (t −τ)d t

Al comparar la última expresión con la definición (3.30b) se observa el cumplimiento de la

3.1. Señales aleatorias en el tiempo 133

igualdad Rξη (τ) =Rηξ (−τ), que al sustituir en la (3.29), resulta en

Sηξ (ω) =

∞∫

−∞

Rξη (−τ)cosωτdτ− j

∞∫

−∞

Rξη (−τ)sinωτdτ

Sea−τ= λ, entonces

Sηξ (ω) =

−∞∫

Rξη (λ)cosωλd (−λ)− j

−∞∫

Rξη (λ)sin (−ωλ)d (−λ)

=

∞∫

−∞

Rξη (λ)cosωλdλ+ j

∞∫

−∞

Rξη (λ)sinωλdλ

de lo cual, finalmente, se obtiene que

Sηξ (ω) =S∗ξη (ω)

Ruido blanco Gaussiano (RBG). Se denomina ruido blanco gaussiano al modelo de la señalaleatoria que se define, convencionalmente, como una proceso ergódico con FDP gaussiana yDEP constante en todo el dominio de la frecuencia (Figura 3.5(b )),

S (ω) =N0,ω∈ (−∞,∞) . (3.31)

6

6

- -

6R (τ) S (ω)

τ ω0 0

N0 N0

(a ) (b )Figura 3.5: Modelo del ruido blanco gaussiano

El modelo (3.31), denominado ruido blanco por su analogía espectral con la luz blanca, tienefunción de correlación propia obtenida mediante la TF (Figura 3.5(a )):

R (τ) =

∞∫

−∞

N0

2e j 2π f t d f =

N0

2δ (τ) (3.32)

Del modelo (3.32), se observa que R (τ) = 0, ∀τ 6= 0, de tal manera, que cualquier par dediferentes valores tomados del RBG no son correlacionadas y, por lo tanto, se pueden considerar

134 Capítulo 3. Análisis de aleatoriedad

que ambos son estadísticamente independientes. Cabe anotar que el modelo (3.32) implica quela varianza del RBGσ2→∞.

En realidad, todos los dispositivos de procesos de señales eléctricas poseen un ancho de ban-da finito ∆ω, y en consecuencia cualquier clase de ruido también tendrá un ancho de bandafinito a la salida de todo dispositivo. Cuando se asume la constancia de la DEP en el ancho debanda finito∆ω<∞, se tiene el siguiente modelo de ruido:

(S (ω) =N0, (−∆ω<ω<∆ω) ,R (τ) =N0∆ωsinc (2∆ωτ) ,

(3.33)

Puesto que el ancho de banda espectral resultante (3.33) es menor que del ruido blanco, almodelo filtrado se le conoce como ruido rosado o blanco de banda finita, para el cual ademásse cumple que su potencia de salida es finita e igual a N0∆ω y su valores instantáneos estáncorrelacionados.

En la práctica, se define el ancho de banda equivalente del ruido∆ωe :

∆ωe =1

H0

∞∫

0

H

f2 d f , (3.34)

donde H0 =H

f

maxes la ganancia de voltaje del filtro en la frecuencia central. Luego, la

potencia de ruido promedio filtrado es:

N =

∞∫

−∞

H

f2N0d f =N0

∞∫

0

H

f2d f =N0H0∆ωe , (3.35)

La última ecuación muestra el efecto del filtro separado en dos partes: la selectividad de fre-cuencia relativa, representada por medio de ∆ωe , y la ganancia de potencia representada pormedio de H0. Por definición, el ancho de banda equivalente de ruido de un filtro ideal es su an-cho de banda real. En los filtros reales,∆ωe es algo mayor que el ancho de banda a 3 dB [15]. 0.

3.1. Señales aleatorias en el tiempo 135

Problemas

1. Hallar el primer momento inicial m1ξ (t ) y la varianzaσ2ξ(t ) del proceso con FDP,

p (ξ, t ) =1p

2πexp

−ξ

2

2e 2αt +αt

2. Hallar la función de correlación y determinar la condición de estacionariedad de la señal

aleatoria

η (t ) = y (t )ξ (t )

siendo y (t ) una función no aleatoria.3. Calcular los intervalos de correlación para las siguientes funciones de correlación Rξ (τ):

a). a exp (−α|τ|) b). a exp−α2τ2

c). a exp

−α2τ2

cosω0τ d). a sincατ

4. Hallar la función de correlación propia de la señal aleatoria periódica,

ξ (t ) =∞∑

n=1

1

nsin nΩt

5. Hallar la función de correlación Rξ (τ) de un proceso aleatorio estacionario con DEP dada

así:

Sξ(ω) =

(N /2, |ω1| ≤ω≤ |ω2|0, otros valores deω

6. Hallar la DEP Sξ(ω) del proceso aleatorio ξ, cuya función de correlación es igual a

Rξ (τ) =

σ2ξ

1− τ

T

, |τ| ≤ T

0, otros valores de t

7. Demostrar que para un proceso estacionario dado, el cambio de escala a en el argumento

de la función de correlación, corresponde al siguiente cambio de escala en la DEP,

Rξ (aτ)⇔1

aSξ

ω

a

8. Demostrar que, en forma general, la DEP conjunta Sξη (ω) no es una función par.

9. Demostrar que no existe un proceso estacionario ξ(t ), tal que su función de correlación

136 Capítulo 3. Análisis de aleatoriedad

Rξ(τ) sea constante en cierto intervalo de tiempo (τ1,τ1) y que sea así mismo igual a cero fueradel mismo intervalo:

Rξ(τ) =

(σ2ξ, |τ|<τ1

0, otros valores de τ

10. Determinar en la función de correlación

R(τ) =σ2 exp−α|τ|

para qué valores de α existe la densidad espectral de potencia. Realizar su cálculo.11. Calcular la función de correlación R(τ) y la densidad espectral de potencia de la siguiente

señal aleatoria:

ξ(t ) = a sin(ωc t +φ)

donde a ,ω= const . yφ es la fase aleatoria inicial, distribuida uniformente dentro del intervalo(−π,π).12. Hallar la función de correlación Rξ(τ) del proceso estacionario, con valor medio igual a cero

y densidad espectral de potencia en la forma:

Sξ(ω) =

N0/2 −ωmax ≤ω≤−ωmin

N0/2, ωmin ≤ω≤ωmax

0 otros valores deω

Seguidamente, para el caso concreto deωmin = 0, determinar el valor del intervalo tk+1− tk ,para el cual los valores ξ(tk+1) y ξ(tk ) tienen correlación igual a cero.13. Demostrar que para el proceso estacionario Gaussiano, ξ(t ), con densidad espectral de

potencia limitada pero no uniforme, dada en la forma:

Sξ(ω) =

(αcos(2π f α), 0≤ f ≤∆f

0, f < 0, f >∆f, ∆f = 1/4α

los valores de ξ(t ) ubicados consecuentemente a una distancia de ∆t = 2k∆f , ∀k ∈ Z+ sonestadísticamente dependientes.

3.2. Paso de señales aleatorias por sistemas lineales 137

3.2. Paso de señales aleatorias por sistemas lineales

En concordancia con la descripción de sistemas lineales hecha en el numeral §1.4, se presentanlos siguientes tres métodos de análisis.

3.2.1. Análisis en el tiempo

La forma directa de análisis es la convolución (1.54), que relaciona la señal aleatoria de salidaη (t ) con la entrada ξ (t ), a través de la respuesta a impulso del sistema h (t ):

η (t ) =

∞∫

0

ξ (t −τ)h(τ)dτ (3.36)

El límite superior de la integral en (3.36) es escogido igual al valor τ→∞, a fin de analizar elcomportamiento asintótico del sistema en régimen de estado estable, antes que hacerlo igual at , que corresponde al régimen transitorio.

El operador de promedio sobre ambos términos de (3.36) se generaliza en la forma:

E∫

T

ξ (t ) g (t )d t =∫

T

Eξ (t )g (t )d t

donde g (t ) es una función no aleatoria que varia en el tiempo.

El intercambio en la operación de integración con el operador de promedio, implica la sim-plificación del análisis; intercambio que se realizar cuando se cumplen las condiciones:

a).

T

E|ξ (t )|g (t )d t <∞

Al asumir la estacionariedad de los procesos de entrada, cuando los operadores de prome-dio son invariantes en el tiempo (ver (3.1)), entonces, se consideran una constante k quesale fuera de la integral. En calidad de función g (t ) representativa del sistema se empleala respuesta a impulso h (t ), por lo que la restricción, que corresponde a la condición deestabilidad del sistema, se resume a k

∫T|h (t ) |d t <∞.

b). ξ (t )∈ T , aunque se puede tener que T →∞.

Valor medio de salida. Para un sistema lineal e invariante en el tiempo, cuando a su entradase tiene una señal estacionaria, teniendo en cuenta (3.36), está dado por

Eη (t )=E

∞∫

0

ξ(t −λ)h(λ)dλ=

∞∫

0

Eξ(t −λ)h(λ)dλ

=m1ξ

∞∫

0

h(λ)dλ (3.37)

138 Capítulo 3. Análisis de aleatoriedad

Sin embargo, la integral de la respuesta a impulso en (3.37) se puede representar de formaalterna como la TF para el caso único de análisis de la componenteω= 0, esto es,

Eη (t )=m1ξ

∞∫

0

h(λ)dλ=m1ξ

∞∫

0

h(λ)e−jωλdλ

ω=0

=m1ξH (0) (3.38)

La expresión (3.38) es evidente, porque muestra que el primer momento, al ser una constante,afecta solamente la componenteω= 0 de la función de transferencia del sistema. Sin embargo,un proceso aleatorio a la salida de un circuito lineal, activado por una entrada a partir de t = 0,se expresa por la integral (1.54), que se diferencia de la (3.36) por su límite superior. Por lo tanto,la expresión (3.37) para el valor medio se corrige en la forma:

Eη (t )=m1ξ

t∫

−∞

h (λ)dλ=m1ξa (t )

=m1η (t ) (3.39)

El valor medio para cualquier sistema lineal resulta directamente proporcional a la funciónde transición del sistema a (t ), que a su vez depende del tiempo, entonces, el proceso a la salidaes no estacionario, mientras el sistema no esté en régimen de estado estable.

0 0.5 1 1.5 2 2.5 3 3.5 4 4.50

m1ξ (t )0.95maxm1ξ

RC t

α= 1α= 2

Figura 3.6: Cambio del valor medio en el tiempo del ejemplo 3.9.

3.2. Paso de señales aleatorias por sistemas lineales 139

Ejemplo 3.9 En el circuitoRC del ejemplo 1.14, se tiene una señal aleatoriaξ (t ) de voltaje, definidaa partir del momentot = 0 que corresponde a RBG con valor mediom1ξ. Determinar el cambio del valormedio en el tiempo del voltaje de salidaη (t )

La ecuación diferencial del circuitoRC de la Figura 1.14(a) tiene la forma:

d t+αη (t ) =αξ (t ) , α= 1/RC

Considerando que el capacitor en el momentot = 0 está descargado, y por ende,η(0) = 0, la anteriorecuación diferencial tiene la siguiente solución:

η (t ) =αe−αt

∫ t

0

e αλξ(λ)dλ

Por lo que el valor medio del voltaje de salidaη (t ) del circuitoRC es igual a:

Eη (t )=αe−αt

∫ t

0

e αλEξ(λ)dλ=αe−αt

∫ t

0

e αλm1ξdλ=m1ξαe−αt e αt −1

De esta manera, el valor medio a la salida cambia en el tiempo de la siguiente forma:

m1η (t ) =m1ξαe−αt e αt −1

La Figura 3.6 representa el cambio del valor medio(3.39) de la señal aleatoria de salidaη (t ) en eltiempo (para dos valores diferentes deα), que corresponde a un intervalo de no estacionariedad del proceso.Este intervalo es transitorio y su existencia, siendo proporcional al factor de inerciaα= RC del sistema, seconsidera insignificante con relación al intervalo total deanálisis del proceso.

Cuando a la entrada del sistema lineal hay un proceso no estacionario, determinado a partirdel momento t = 0, el valor medio del proceso a la salida, dado por la relación (3.37), es igual a:

Eη (t )=

t∫

0

h (λ)m1ξ (t −λ)dλ= h (t ) ∗m1ξ (t ) (3.40)

La expresión (3.40) coincide con el resultado obtenido en (3.5a), para el caso de transforma-ción lineal de señales aleatorias. En general, el análisis en estado transitorio del sistema linealse puede realizar para cada uno de los momentos, tanto en el caso estacionario, como en el noestacionario. Sin embargo, debido a la dificultad en la solución del caso transitorio, es frecuenteque el análisis se limite al régimen de estado estable.

Valor cuadrático medio de salida. El análisis es similar al caso anterior del valor medio, aunque,aquí es preferible introducir dos variables de integración, a fin de representar la multiplicacióninterna del operador de promedio en forma de una integral doble, así:

Eη2 (t )=E

∞∫

0

ξ(t −λ1)h(λ1)dλ1

∞∫

0

ξ(t −λ2)h(λ2)dλ2

140 Capítulo 3. Análisis de aleatoriedad

que luego de realizar los respectivos términos de integración resulta en

Eη2 (t )=E

∞∫

0

dλ1

∞∫

0

ξ (t −λ1)ξ (t −λ2)h(λ1)h(λ2)dλ2

=

∞∫

0

dλ1

∞∫

0

Eξ (t −λ1)ξ (t −λ2)h(λ1)h(λ2)dλ2 (3.41)

La operación de promedio dentro de la integral corresponde a la función de correlación de laseñal aleatoria de entrada, evaluada en los siguientes puntos:

Eξ (t −λ1)ξ (t −λ2)=Rξ(t −λ1− t +λ2)

=Rξ(λ2−λ1)

Por lo que la expresión (3.41) se formula en la siguiente forma:

Eη2 (t )=

∞∫

0

dλ1

∞∫

0

Rξ(λ2−λ1)h(λ1)h(λ2)dλ2 (3.42)

Ejemplo 3.10 En el circuitoRC del ejemplo 1.14, se tiene a la entrada una señal aleatoriaξ (t ) de voltaje,que corresponde a RBG. Determinar el valor cuadrático mediodel voltaje de salidaη (t ).

El valor cuadrático medio de salida determinado por (3.42),teniendo en cuenta el valor de la funciónde correlación del RBG (3.32), es igual a,

Eη2 (t )=

∞∫

0

dλ1

∞∫

0

N0

2δ (λ2−λ1)h(λ1)h(λ2)dλ2 =

N0

2

∞∫

0

h2(λ)dλ

=N0

2

∞∫

0

αe−αλ

2dλ=

N0α2

2

∞∫

0

e−2αλdλ=N0α2

2

e−2αλ

−2α

0

=N0

2

α

2

En consideración, cuando en vez de asumir un ruido con varianza infinita, se asume un ruido concorrelación nula, valor medio cero, pero varianza finita,σ2

ξ = D <∞, el proceso a la salida del dispositivolineal es unívocamente cero,

η (t ) =

t∫

0

h (τ)ξ (t −τ)dτ≡ 0

en la medida en que los momentos(3.40) y (3.42) son iguales a0.Cabe anotar, que la resolución de este ejemplo es relativamente simple, pero solo si el proceso a la

entrada es del RBG, en caso contrario, cuando el proceso es otra naturaleza, la resolución de la integraldoble (3.42) presenta serias dificultades.

3.2. Paso de señales aleatorias por sistemas lineales 141

Función de correlación de salida. En este caso, se puede tomar el resultado obtenido en elanálisis de la transformación de señales aleatorias con operadores lineales. Particularmente,asumiendo la estacionariedad del proceso de entrada de (3.5b), se obtiene:

Rη(τ) =

∞∫

0

dλ1

∞∫

0

Rξ (λ2−λ1−τ)h (λ1)h (λ2)dλ2 (3.43)

La varianza del proceso a la salida resulta de hacer τ= 0 en la expresión (3.43), inclusive parael caso de análisis de regimen transitorio

σ2η (t ) =

t∫

0

dλ1

t∫

0

Rξ (λ2−λ1)h (λ1)h (λ2)dλ2

Funciones de correlación mutua entrada-salida. En los sistemas lineales, es de suponer al-guna relación de dependencia estadística entre los señales aleatorias de entrada y salida, dadapor la respectiva función de correlación mutua, que se considera en dos formas:

Rξη(τ) =Eξ (t )η(t +τ)=Eξ (t )

∞∫

0

ξ (t +τ−λ)h(λ)dλ

=

∞∫

0

Eξ (t )ξ(t +τ−λ)h(λ)dλ

=

∞∫

0

Rξ(τ−λ)h(λ)dλ (3.44a)

Rηξ(τ) =Eξ(t +τ)η (t )=Eξ(t +τ)

∞∫

0

ξ (t −λ)h(λ)dλ

=

∞∫

0

Eξ(t +τ)ξ(t −λ)h(λ)dλ

=

∞∫

0

Rξ(τ+λ)h(λ)dλ (3.44b)

Por cuanto la función de convolución dentro de ambas integrales es par con relación a lavariable λ=−τ, y la respuesta a impulso se define solo para valores positivos de λ, entonces, esde esperar que la función de correlación mutua Rξη(τ), en general, se diferencie de Rηξ(τ).

142 Capítulo 3. Análisis de aleatoriedad

Ejemplo 3.11 En el circuitoRC del ejemplo 1.14, se tiene una señal aleatoriaξ (t ) de voltaje, definida apartir del momentot = 0 que corresponde a RBG. Determinar el cambio de la función de correlación en eltiempo del voltaje de salidaη (t ).

La expresión (3.43), sustituyendo la función de correlación del RBG (3.32), toma la forma:

Rη (τ) =

∫ ∞

0

dλ1

∫ ∞

0

N0

2δ (λ2−λ1−τ)h (λ1)h (λ2)dλ2

=N0

2

∫ ∞

0

h (λ)h (λ+τ)dλ=N0

2Rh (τ)

De lo anterior, se observa que en presencia del RBG a la entrada de un sistema lineal e invariante en eltiempo, la función de correlación de la señal aleatoria de salida es proporcional a una dependencia, que demanera condicional, se puede denominar función correlación de la respuesta a impulso del sistema, esto es,

Rη (τ) =Sξ(ω)Rh (τ)

El análisis en el tiempo de la función de correlación de salida se realiza integrando hasta el valort ,

Rη(t1, t2) =N0

2α2e−α(t1+t2)

∫ t1

0

∫ t2

0

e α(λ1+λ2)δ (λ1−λ2)dλ2dλ1

Por cuanto, en el desarrollo de la integral doble es de tener en cuenta que es cierta la siguiente expresión:

∫ λ0+ε

λ0−εg (λ0−λ)dλ= g (λ0)

solo paraε > 0, cuando el punto específicoλ= λ0 se encuentra dentro de los límites de integración, entonces,el análisis se lleva a cabo para dos casos:

1. t2− t1 > 0:

∫ t1

0

∫ t1

0

e α(λ1+λ2)δ (λ1−λ2)dλ2dλ1 =

t1∫

0

e αλ2 dλ2

∫ t1

0

e αλ1δ (λ1−λ2)dλ1

=

∫ t1

0

e 2αλ2 dλ2 =1

e 2αt1 −1

2. t2− t1 < 0:∫ t2

0

∫ t2

0

e α(λ1+λ2)δ (λ1−λ2)dλ2dλ1 =1

e 2αt2 −1

Juntando ambas soluciones se obtiene la siguiente función de correlación del proceso de salida:

Rη (t ,τ) =αN0

4e α|τ|

1− e−2αt

La varianza resulta al hacerτ= 0:

σ2η(t ) =

αN0

4

1− e−2αt

Como se observa, la varianza tiene la misma forma de cambio que la media a la salida del ejemplo3.9; sólo que la varianza crece dos veces más rápido que la media, esto es, tiene un menor intervalode transición (curva′ · −′ paraα= 2 de la Figura 3.6).

3.2. Paso de señales aleatorias por sistemas lineales 143

Ejemplo 3.12 Hallar ambas funciones de correlación mutua entre la entrada y la salida del circuitoRCdel ejemplo 1.14, si se tiene una señal de entrada aleatoriaξ (t ) de voltaje, que corresponde a RBG.

Teniendo en cuenta las expresiones(3.44a) y (3.44b), se obtiene

Rξη(τ) =N0

2

∫ ∞

0

δ(τ−λ)h(λ)dλ= N0

2h(τ)u (τ)

Rηξ(τ) =N0

2

∫ ∞

0

δ(τ+λ)h(λ)dλ=N0

2h(−τ)u (−τ)

Los resultados obtenidos sobre la asimetría de las respectivas funciones de correlación conjunta confir-man lo obtenido en el numeral §3.1.4.

3.2.2. Análisis en la frecuencia

El análisis matemático en el tiempo presenta dificultades de solución en el desarrollo de losmomentos de salida, para el caso de procesos aleatorios con FDP diferente a la gaussiana, de-bido a la presencia en la mayoría de ellas de las integrales dobles, de las cuales una de ellos esla correlación. Así por ejemplo, la expresión (3.43) entre las funciones de correlación (3.5b) deentrada y salida en un sistema lineal e invariante en el tiempo, en caso de análisis del régimenestacionario y para una señal aleatoria estacionaria, está dada por la relación:

Rη(τ) =

∞∫

0

dλ1

∞∫

0

Rξ (λ2−λ1−τ)h(λ1)h(λ2)dλ2

En este sentido, es preferible realizar el análisis de la transformación de cada uno de los mo-mentos y valores de aleatoriedad sobre el dominio de la frecuencia, a fin de reducir la compleji-dad del desarrollo matemático.

La representación en la frecuencia de los procesos aleatorios está dada por la DEP, la cual a suvez, se relaciona con la función de correlación a través de las transformadas de Wiener-Jinchin(ecs. (3.25) y (3.26)):

Sη (ω) =F¦

Rη(τ)©=

∫ ∞

−∞

¨∫ ∞

0

dλ1

∫ ∞

0

Rξ (λ2−λ1−τ)h (λ1)h (λ2)

«e−jωτdτ

=

∞∫

0

dλ1

∞∫

0

h (λ1)h (λ2)dλ2

∞∫

−∞

Rξ (λ2−λ1−τ)e−jωτdτ

=

∞∫

0

dλ1

∞∫

0

h (λ1)h (λ2)dλ2Sξ (ω)e−jω(λ2−λ1)dλ2

=Sξ (ω)

∞∫

0

h (λ1)ejωλ1 dλ1

∞∫

0

h (λ2)dλ2e−jωλ2dλ2

Sη (ω) =Sξ (ω)H (−ω)H (ω) =Sξ (ω) |H (ω)|2 (3.45)

144 Capítulo 3. Análisis de aleatoriedad

La expresión (3.45) es similar a la obtenida para la DEP de señales en (1.68); analogía quepuede ser empleada en los métodos de análisis de funciones de transferencia descritas por fun-ciones racionales, cuando a la entrada se tienen procesos estacionarios.

Ejemplo 3.13 Hallar la DEP de salida para el circuitoRC del ejemplo 1.14, si a la entrada se tiene RBGξ (t ).

De hecho, teniendo en cuenta la densidad espectral de potencia del ruido blanco (3.31), entonces

Sη(ω) =N0

2|H (ω)|2 = N0

2

α

jω+α

α

−jω+α=

N0

2

α2

ω2+α2

La varianza, en este caso, se halla integrando la anterior expresión:σ2η =

N0

2

α

2.

Por último, de la expresión (3.23), se puede encontrar la varianza:

σ2η =

1

∞∫

−∞

Sη(ω)dω=

∞∫

−∞

Sξ(ω)H (ω)H (−ω)dω

El valor cuadrático medio, teniendo en cuenta la relación dada en (3.38) para el valor medio,se halla de la siguiente manera

m2η =σ2η+m 2

1η =

∞∫

−∞

Sξ(ω)H (ω)H (−ω)dω+m 21ξ (H (0))

2

3.2.3. Empleo de operadores lineales

En la sección §3.1.1 se analiza la transformación de variables empleando operadores lineales.Un sistema lineal e invariante en el tiempo descrito por la ecuación diferencial (1.66), se puederepresentar empleando operadores en la siguiente forma:

Aη (t )

p , t

=B ξ (t )

p , t

(3.46)

dondeA

p , t=∑

m αm p m yB(p , t ) =∑

n βn p n son los operadores de salida y entrada, res-pectivamente, siendo p = d /d t . De la expresión (3.46), se obtiene la relación formal entre laseñal de entrada y salida, mediante los respectivos operadores:

η (t ) =Bp , t

A

p , t ξ (t )=K ξ (t )

p , t

Empleando el operadorK

p , t

para la descripción del sistema, se pueden hallar las respec-tivas expresiones para los siguientes momentos estadísticos:

m1η (t ) =K¦

m1ξ (t )©

p , t

(3.47a)

Rη (t1, t2) =K¦K¦

Rξ (t1, t2)©

p , t2©

p , t1

(3.47b)

3.2. Paso de señales aleatorias por sistemas lineales 145

Ejemplo 3.14 Dado un proceso estacionarioξ(t ), con valor mediom1ξ y con función de correlaciónRξ =σ2

ξrξ(τ), a la entrada de un dispositivo de promedio deslizante con apertura finita de tiempo(t−T, t+T ).Hallar el cambio de los respectivos valores medios.

El proceso a la salida se determina como

η (t ) = (2T )−1

∫ t+T

t−T

ξ (λ)dλ (1)

con valor medio y función de correlación, respectivamente,

m1η =Eη (t )=1

2T

∫ t+T

t−T

Eξ (λ)dλ=mξ

Rη (τ) =Eη (t )−m1η,η (t +τ)−m1η=1

4T 2

∫ t+T

t−T

∫ t+τ+T

t+τ−T

Rξ (u − v )d u d v,

El núcleo de la integral se reemplaza por la expresión:

Rξ (u − v ) =1

∫ ∞

−∞Sξ (ω)exp

jω (u − v )

⇒ Rη (τ) =1

2π4T 2

∫ ∞

−∞Sξ (ω)dω

∫ t+T

t−T

exp−jωv

d v

∫ t+τ+T

t+τ−T

exp

jωu

d u

=1

∫ ∞

−∞Sξ (ω) (sinc (ωT ))2 dω (2)

Por lo tanto, el espectro de salida es de la forma,Sη (ω) = Sξ (ω) |sinc (Tω)|2, que se concentra enel lóbulo principal de la funciónsinc, en la cercanía de los valoresωT . De esta manera, se eliminan lascomponentes espectrales superiores, esto es, se eliminan los cambios rápidos del procesoξ(t ) en el tiempo.

La comparación de(3.36) con (1) muestra que la operación de promedio deslizante en el tiemposeanaliza como el paso de una señal aleatoriaξ(t ) a través de un sistema lineal con respuesta a impulso yfunción de frecuencia, dadas respectivamente como,

h (t ) =

¨1/2T, |t |< T0, |t |> T

, H (ω) = sinc (∆ω)

Reemplazando en(2), Sξ (ω) = F

Rξ (λ)

e intercambiando el orden de integración, se obtiene lafunción de correlación de salida,

Rξ (τ) =1

2T

∫ 2T

−2T

1−|λ|2T

Rξ (τ−λ)dλ (3)

La varianza del proceso a la salida se halla asumiendo en(3), τ= 0,

σ2η= Rη (0) =

1

2T

∫ 2T

−2T

1− |λ|

2T

Rξ (λ)dλ

Entonces para el cálculo de la varianza del promedio deslizante en el tiempo de una señal estacionariaen el sentido amplio, es necesario conocer su función de correlación,

σ2η = Rη (0) =

1

2T

∫ 2T

−2T

1−|λ|2T

Rξ (λ)dλ=

σ2ξ

2T

∫ 2T

−2T

1−

τ

T

rξ (τ)dτ (4)

La expresión(4) presenta interés para los modelos de señales aleatorios, enla medida en que se analizasu valor asintótico,lımT→∞σ2

η(T ) = 0.

146 Capítulo 3. Análisis de aleatoriedad

Ejemplo 3.15 Sea un sistema diferenciador de primer orden, a cuya entradase aplica la señal aleatoriaξ (t ) con valor medio,m1ξ (t ) = sinωt , y con función de correlación que se expresa en la forma

Rξ(t1, t2) =σ2ξ

exp (−α (t2− t1))2

Determinar la media y la varianza del proceso a la salida.La señal aleatoria a la salidaη (t ) se relaciona con la entrada, mediante el operador lineal de diferen-

ciación,η (t ) =K ξ (t )p , t

= dξ/d t , entonces, de las relaciones(3.47a) y (3.47b) se obtiene:

m1η (t ) =d

d tm1ξ (t ) =ωcosωt

Rη (t1, t2) =∂ 2

∂ t1∂ t2Rξ(t1, t2) = 2σ2

ξαe−α(t2−t1)2

1−2α (t2− t1)2

Haciendot2 = t1 = t se encuentraRη(t , t ) =σ2η = 2ασ2

ξ.

Así mismo, sea un sistema integrador,η (t ) =∫ t

0ξ (λ)dλ a la entrada del cual se aplica una señal

aleatoriaξ (t ) con valor mediom1ξ (t ) y función de correlaciónRξ (τ). Determinar el valor medio y lafunción de correlación del proceso a la salida.

De manera similar al caso anterior, teniendo en cuenta que laintegral corresponde a un operador lineal,se obtiene la relación entre los momentos de entrada y salida,

m1η (t ) =

∫ t

0

m1ξ (t )d t

Haciendom1ξ (t ) = m1ξ = cons t , se observa que la media a la salida resulta variable en el tiempo,m1η (t ) =m1ξt (excepto para el casom1ξ = 0), luego el proceso a la salida presenta un comportamiento noestacionario. A efecto de simplificar el análisis se asumem1ξ (t ) = 0, entonces la función de correlación, apartir de las relación(3.47b) resulta en:

Rη (t1, t2) =

∫ λ1

0

∫ λ2

0

Rξ (t1, t2)d t1d t2

la cual muestra, que para integrar una señal aleatoria se exige la existencia de su función de correlación.Asumiendo además, la estacionariedad del proceso a la entrada, la función de correlación del proceso a lasalida se resume hasta la integral doble

Rη (t1, t2) =

∫ λ1

0

∫ λ2

0

Rξ (t1− t2)d t1d t2

que depende por separado det2 y t1 y no de su diferencia, por lo tanto, el proceso a la salida no esesta-cionario.

La varianza se puede obtener de la última integral, teniendoen cuenta(3.10b) [16]:

σ2η(t ) = 2

∫ t

0

(t −τ)Rξ (τ)dτ

En general, se puede decir que las FDP cambian a su paso por operadores lineales, excepto para el casogaussiano, que mantiene su estructura.

3.2. Paso de señales aleatorias por sistemas lineales 147

Problemas

14. Hallar la FDP de la suma correspondiente a la mezcla lineal, x (t ) = s (t ) + η (t ), cuando

ambos procesos tienen correlación mutua nula, donde s (t ) = s0 cosωt +φ

es la señal útil y

η (t ) es el ruido con densidad normal N (m1η,ση.)15. Un proceso aleatorio η (t ) está compuesto de una cantidad N 1 de señales aleatorias

independientes ξi , cada una de ellas con FDP Rayleigh. Hallar la FPD del proceso suma.16. Dados los procesos

ξ1 (t ) = a cosωc t , ξ2 (t ) = b sinωc t

siendo ωc = const, y a ,b variables aleatorias invariables en el tiempo. Hallar la esperanza, lafunción de correlación del proceso suma η (t ) = ξ1 (t ) +ξ2 (t ) y establecer las condiciones parasu estacionariedad.17. Sea el proceso aleatorio ξ (t ) con función de correlación Rξ (τ), para el cual se define el

proceso diferencial como

ξ∆ (t ) =ξ (t +∆t )−ξ (t )

que contiene la información de la diferencia de valores del proceso aleatorio ξ (t ) distanciadosen el tiempo por el intervalo∆t . Demostrar las siguientes igualdades (donde R∆ (τ) es la funciónde correlación del proceso diferencial):

R∆ (τ) = 2Rξ (τ)−Rξ (τ+∆)−Rξ (τ−∆) , S∆ (ω) = 4sin2 ω∆

2Sξ (ω)

18. Hallar la función de correlación mutua entre el proceso aleatorio ξ (t ) y su derivada dξ/d t ,

además hallar su relación con la respectiva DEP Sξ (ω).19. Sea la función de correlación de un proceso aleatorio ξ (t ) de la forma

Rξ (τ) =σ2ξ exp

−α2τ2

Hallar la función de correlación de la derivada del proceso dξ/d t y calcular sus valores máximoy mínimo. Además hallar la función de correlación del proceso definido como:

η (t ) =ξ (t )+dξ/d t

20. Encontrar la diferencia en las funciones de correlación para el caso de RBG y ruido rosado

a la salida a la salida del circuito RC (ejemplo 3.9).21. Hallar la función de correlación de la integral del proceso aleatorio ξ (t ) con función de

correlación Rξ (τ) =σ2ξ exp (−α |τ|).

148 Capítulo 3. Análisis de aleatoriedad

22. Hallar la función de correlación y la respectiva DEP a la salida de cada uno de los circuitos

del problema 1.20(a), cuando a la entrada se tiene RBG.23. Hallar la función de correlación de salida del circuito mostrado en el ejemplo 3.9, si la

función de correlación de entrada es la expresión

Rξ(τ) =αN0

2exp (−α |τ|)

24. Sea un proceso aleatorio η (t ) a la salida de un sistema lineal. Hallar la relación entre la

varianzaσ2η con la respuesta a impulso del sistema, cuando a la entrada hay RBG.

25. Sea el RBG a la entrada de un elevador al cuadrado (η (t ) = ξ2 (t )). Encontrar la FDP, la media

y la varianza a la salida del sistema no lineal.26. A la entrada de un circuit básico de diferenciación se tiene el proceso aleatorio ξ(t ) con

valor madio m1ξ(t ) = sinβ t y función de correlación:

Rξ(t1, t2) =σξ exp(−α(t2− t1)2)

Determinar los valores de la media, m1η, y varianza, σ2η(t ), del proceso aleatorio, η, a la salida

del sistema.27. A la entrada del circuito RC , mostado en el ejemplo 1.14, a partir del momento t = 0 se

aplica la señal aleatoria, ξ(t ), que consiste en ruido blanco Gaussiano con valor medio m1ξ yfunción de correlación:

Rξ(τ) = (N0/2)δ(τ)

Determinar el valor medio, m1η, y la función de correlación, Rη(t1, t2), de la tensión, η(t ), apli-cada sobre el condensador C .28. Sea un sistema lineal con parámetros invariantes en el tiempo, tal como se describe por la

ecuación diferencial (1.66), a la entrada del cual se aplica el proceso aleatorio, ξ(t ), con valormedio, m1ξ. Hallar el valor medio de la reacción, η(t ), del sistema.29. A la entrada de un ciercuito diferenciador ideal se tiene un proceso aleatorio estacionario

Gaussiano, ξ(t ), con valor medio igual a cero, m1ξ = 0. Determinar la función de correlacióndel proceso η = dξ/d t a la salida del circuito, cuando se considera cada una de las siguientefunciones de correlación a la entrada, respectivamente:

Rξ(τ) =σ2ξ exp(−α|τ|)(1+α|τ|)

Rξ(τ) =σ2ξ exp(−α|τ|)(cos(ω0τ+

α

ω0sinω0|τ|))

Rξ(τ) =σ2ξ exp(−α2τ2)

3.3. Filtración óptima lineal por mínimos cuadrados 149

3.3. Filtración óptima lineal por mínimos cuadrados

- -

6

?-

-

-K1ξ,η

h(t ,τ)

x ∈ ξ

+

-K0 ξ

θ

z θ = h ∗z

ε = ‖θ−θ‖

η

Figura 3.7: Filtración de señales

En este caso, la filtración optimiza la formade representación de los dispositivos linea-les de proceso, como observa en la Figura3.7, en la cual las observaciones iniciales x

pertenecientes al proceso ξ interactúan conla perturbación η, en general, se analiza lacombinación lineal; acción que se represen-ta mediante el funcional de transformaciónK1ξ,η

, cuya señal de salida pasa por el fil-

tro lineal, representado por la respuesta a im-pulso h(t ,s ) y que se escoge, de tal maneraque la salida del filtro en el momento t corresponda al mínimo del error cuadrático medio dela estimación θ ⊂x, que se contiene en la señal ξ. El mismo parámetro en estimación se puededescribir por la transformaciónK0 ξ.

Cuando se analiza la transmisión de señales, durante la cual es importante asegurar un valormínimo de distorsión, el operador de transformaciónK0 describe un canal ideal, y por lo tanto,se hace necesario sintetizar un filtro con respuesta a impulso, conectado en serie al canal realcon operador de transformaciónK1, de tal manera que su salida corresponda a alguna trans-formación tan cercana como se pueda aK0.

3.3.1. Optimización de la respuesta a impulso

Sea z (t ) una trayectoria para la combinación lineal, expresada en forma del proceso aleatorioaditivo: z (t ) = x (t ) +η (t ) , tal que ‖x‖,‖η‖ <∞. En calidad de estimación θ (t ) se toma el valorfiltrado de la observación:

θ (t ) =

∞∫

−∞

h (t ,τ)z (τ)dτ (3.48)

siendo h (t ,τ) la respuesta a impulso del dispositivo lineal, que por ahora se asume sin restric-ciones de causalidad en su implementación práctica. No obstante, el filtro se considera quecumple con la condición de estabilidad.

La estimación (3.48) es ante todo sesgada, en la medida en que

m1θ (t ) =

∞∫

−∞

h (t ,τ)

m1x (τ)+m1η (τ)

dτ 6=m1x (t )

donde m1η (t ) y m1x (t ) son las respectivas medias de la señal útil y de la perturbación.

El valor cuadrático medio del error, determinado como ε = (θ − θ )2, se obtiene mediante supromedio de tiempo, que en caso emplear la estimación (3.48), es igual a:

ε2 (t ) =Eθ (t )− θ (t )

2 (3.49)

150 Capítulo 3. Análisis de aleatoriedad

Al tomar el error, (3.49), como criterio de calidad se puede encontrar la respuesta a impul-so que brinde su mínimo valor con respecto a todos los demás posibles sistemas lineales. Enparticular, al reemplazar (3.48) en (3.49), se obtiene:

ε2 (t ) =E

θ

2 (t )− 2

∞∫

−∞

h (t ,τ)z (τ)θ (t )dτ

+

∞∫

−∞

∞∫

−∞

h (t ,λ1)h (t ,λ2)z (λ1)z (λ2)dλ1dλ2

=Eθ 2 (t )− 2

∞∫

−∞

h (t ,τ)Ez (τ)θ (t )dτ+

+

∞∫

−∞

∞∫

−∞

h (t ,λ1)h (t ,λ2)Ez (λ1)z (λ2)dλ1dλ2 (3.50)

Sean conocidas las funciones de correlación propia, Ri (t1, t2) , i = z ,θ , además, de la res-pectiva función de correlación mutua Rzθ (t1, t2) entre los procesos z (t ) y θ (t ).

Por cuanto,

Ez (λ1)z (λ2)=Rz (λ1,λ2)

=Rx (λ1,λ2)+Rξ (λ1,λ2)+Rξx (λ1,λ2)+Rxξ (λ1,λ2) (3.51a)

Ez (τ)θ (t )=Rzθ (λ1,λ2) =Rθ (τ, t )+Rzθ (τ, t ) (3.51b)

entonces, reemplazando (3.51a) y (3.51b) en (3.50) se obtiene que

ε2 (t ) = Rθ (t , t )− 2

∞∫

−∞

h (t ,τ)Rzθ (τ, t )dτ

+

∞∫

−∞

∞∫

−∞

h (t ,λ1)h (t ,λ2)Rz (λ1,λ2)dλ1dλ2 (3.52)

La expresión (3.52) muestra que el error cuadrático medio de la estimación lineal θ (t ) de-pende, tanto de las funciones de correlación propia Ri (t1, t2) , i = z ,θ , como de la funciónde correlación mutua Rzθ (t1, t2) de los procesos z (t ) y θ (t ), pero de ninguna manera de la es-tructura más fina de estos procesos [16]. En general, se puede demostrar que, dadas todas lasanteriores funciones de correlación, la mejor estimación lineal en el sentido del error cuadrático

3.3. Filtración óptima lineal por mínimos cuadrados 151

medio corresponde al filtro con respuesta a impulso que cumpla la ecuación integral [17]:

Rzθ (τ, t ) =

∞∫

−∞

hopt (t ,λ)Rz (τ,λ)dλ (3.53)

El reemplazo de (3.53) en (3.52), resulta en

ε2 (t ) =Rθ (t , t )− 2

∞∫

−∞

∞∫

−∞

h (t ,τ)hopt (t ,λ)Rz (τ,λ)dτdλ

+

∞∫

−∞

∞∫

−∞

h (t ,λ1)h (t ,λ2)Rz (λ1,λ2)dλ1dλ2

luego

ε2 (t ) =Rθ (t , t )−

∞∫

−∞

∞∫

−∞

hop t (t ,τ)hopt (t ,λ)Rz (τ,λ)dτdλ

+

∞∫

−∞

∞∫

−∞

Rz (λ1,λ2)¦

h (t ,λ1)−hopt (t ,λ1)©¦

h (t ,λ2)−hopt (t ,λ2)©

dλ1dλ2 (3.54)

Por cuanto, sólo el último término de (3.54) contiene la función desconocida h(t ,λ), la cualdebe ser definida positiva [16], entonces el menor valor de ε2 (t ) ocurre cuando el último tér-mino es 0, esto es, cuando el filtro tiene respuesta a impulso h(t ,λ)≡ hopt(t ,λ). En este caso, elvalor mínimo de error será:

ε2min (t ) =Rθ (t , t )−

∞∫

−∞

∞∫

−∞

hopt (t ,τ)hopt (t ,λ)Rz (τ,λ)dτdλ

Teniendo en cuenta (3.53), entonces

ε2min (t ) =Rθ (t , t )−

∞∫

−∞

hopt (t ,λ)Rzθ (λ, t )dλ

De otra parte, la expresión (3.43) relaciona las funciones de correlación propia a la entrada ysalida de un sistema lineal, con lo cual, la última expresión toma la forma definitiva,

ε2min (t ) =Rθ (t , t )−Rθ (t , t ) (3.55)

la cual implica, en primer orden, que el mínimo error cuadrático medio corresponde a la dife-rencia de los valores cuadráticos medios del proceso a estimar y de su estimación. En segundo

152 Capítulo 3. Análisis de aleatoriedad

lugar, se tiene que Rθ (t , t )≤ Rθ (t , t ).

Si se asume la estacionariedad de los procesos θ (t ) y η (t ), por lo menos en el sentido am-plio, además el filtro se supone con parámetros en (1.66) invariables en el tiempo, entonces laecuación integral (3.53) toma la forma denominada ecuación de Wiener-Hopf :

Rzθ (τ) =

∞∫

−∞

hopt (λ)Rz (τ−λ)dλ (3.56)

La invariabilidad de los momentos de aleatoriedad de los procesos estacionarios, supone lainvariabilidad en el valor del error cuadrático medio, cuyo valor mínimo (3.55), es:

ε2min =Rθ (0)−

∞∫

−∞

∞∫

−∞

hopt (λ1)hopt (λ2)Rz (λ1−λ2)dλ1dλ2

=Rθ (0)−

∞∫

−∞

hopt (λ)Rzθ (λ)dλ

con lo que el error cuadrático medio es igual a ε2min = Rθ (0)− Rθ (0) = m2θ −m2θ , esto es, se

determina por la diferencia de los valores medios de potencia, tanto del proceso a estimar, comode la propia estimación.

En concordancia con (3.22), los valores medios de potencia se pueden expresar a través de lasrespectivas densidades espectrales de potencia,

ε2min =

1

∞∫

0

Sθ (ω)−Sz (ω)

Hopt (ω)2

dω (3.57)

siendo Hop t (ω) la función de transferencia del filtro óptimo lineal, además

Sz (ω) =Sθ (ω)+Sη (ω)+Sθη (ω)+Sηθ (ω) (3.58)

donde Sθ (ω), Sη (ω), Sθη (ω) y Sηθ (ω) son las densidades espectrales de potencia propias y mu-tuas de los procesos θ (t ) y η (t ), de manera correspondiente.

De esta manera, la respuesta a impulso óptima de un sistema lineal, en caso de asumir laestacionariedad de los procesos, consiste en la solución de la ecuación integral (3.56), sin teneren cuenta la condición de causalidad, mediante la TF en la forma,

Szθ (ω) =Sθ (ω)+Szθ (ω) =Hopt (ω)Sz (ω)

de donde, teniendo en cuenta (3.58), se tiene

Hopt (ω) =Szθ (ω)

Sz (ω)=

Sθ (ω)+Szθ (ω)

Sθ (ω)+Sη (ω)+Sθη (ω)+Sηθ (ω)(3.59)

3.3. Filtración óptima lineal por mínimos cuadrados 153

Reemplazando (3.59) en (3.57) se obtiene el valor del mínimo error cuadrático medio,

ε2min =

1

∞∫

0

Sθ (ω)Sz (ω)− |Szθ (ω)|2

Sz (ω)dω (3.60)

Si se considera la correlación nula entre las señales θ (t ) y η (t ), esto es, Rθη (τ) = 0, entonces,sus DEP mutuas también son nulas, Sθη (ω) =Sηθ (ω) = 0, por lo que la función de transferenciaóptima de un sistema lineal tiene la forma,

Hopt (ω) =Sθ (ω)

Sθ (ω)+Sη (ω)

De (3.60), y reemplazando Szθ (ω) = Sθ (ω), además Sz (ω) = Sθ (ω) +Sη (ω), se obtiene paralas señales de correlación nula,

ε2min =

1

∞∫

0

Sθ (ω)Sη (ω)

Sθ (ω)+Sη (ω)dω (3.61)

El error cuadrático medio (3.61) se puede hacer igual a cero, cuando las densidades espec-trales de potencia de las señales θ (t ) y η (t ) no se translapan, esto es, cuando para todo valor deω se cumple que Sη (ω) = Sθ (ω) = 0, lo cual a su vez implica que por lo menos uno de los dosespectros debe tener ancho de banda finito. En caso contrario, siempre ocurrirá un error.

En síntesis, la filtración de una señal estacionaria a partir de su combinación lineal con otroproceso estacionario, de tal manera que el error cuadrático medio sea 0, corresponde al casoen que las respectivas DEP de ambos procesos tienen rangos de frecuencia en los cuales nohay aporte energético. En este sentido, si se analiza la filtración del proceso θ (t ) dado sobre unfondo de ruido blanco Gaussiano, entonces de (3.61) se obtiene

ε2min =

N0

∞∫

0

Sθ (ω)

Sθ (ω)+N0dω

que implica, que siempre se tiene en condiciones reales un valor diferente de 0 para el errorcuadrático medio.

3.3.2. Condición de realización física

Un filtro lineal con respuesta a impulso óptima (3.53) no es físicamente realizable, al no cumplirla condición de causalidad, por cuanto hop t (t ,λ) 6= 0, para t < λ. Al observar en el numeral§3.3.1, la operación de filtración se realiza después de analizada la combinación lineal de lasseñales θ (t ) yη (t ) sobre todo el intervalo de tiempo t ∈ (−∞,∞), lo cual implica que la filtraciónóptima realiza la estimación del valor del proceso en un momento dado con retardo infinito.

La condición de realización física implica que la filtración debe realizarse sobre la observaciónz (t ) determinada hasta el momento de tiempo, en el cual se realiza la estimación,

h (t ,τ) = 0, ∀τ< 0 (3.62)

154 Capítulo 3. Análisis de aleatoriedad

Reemplazando la condición de causalidad (3.62) en (3.48) se obtiene la estimación de θ (t )con un filtro físicamente realizable,

θ (t ) =

t∫

−∞

h (t ,τ)z (τ)dτ

Frecuentemente, la estimación se realiza sobre intervalos cerrados y finitos de análisis, estoes, (t −T, t ), por lo que para la anterior integral se ajustan los límites en la siguiente forma,

θ (t ) =

t∫

t−T

h (t ,τ)z (τ)dτ=

T∫

0

h (t , t −λ)z (t −λ)dλ (3.63)

El reemplazo de (3.63) en (3.49), y al efectuar las mismas transformaciones de (3.50) se ob-tiene la correspondiente expresión del error cuadrático medio del filtro óptimo que se ajusta ala condición de realización física, asumiendo un intervalo finito de estimación:

ε2 (t ) = Rθ (t , t )− 2

T∫

0

h (t , t −τ)Rzθ (t −τ, t )dτ+

+

T∫

0

T∫

0

h (t , t −λ1)h (t , t −λ2)Rz (t −λ1, t −λ2)dλ1dλ2 (3.64)

El filtro lineal óptimo para la definición del error acotado (3.64), implica que su respuestaimpulso causal debe cumplir la ecuación integral,

Rzθ (t −τ, t ) =

T

hopt (t , t −λ)Rz (t −τ, t −λ)dλ, τ ∈ T (3.65)

con lo cual el valor mínimo de ε2min (t ) del filtro óptimo físicamente implementable es

ε2min (t ) = Rθ (t , t )−

T∫

0

hop t (t , t −λ)Rzθ (t −λ, t )dλ

Al asumir tanto la estacionariedad de los procesos θ (t ) y η (t ), como la invariabilidad de susparámetros en el tiempo, entonces, las anteriores relaciones toman la forma definitiva:

Rzθ (τ) =

T

hopt (λ)Rz (τ−λ)dλ,τ ∈ T

ε2min =Rθ (0)−

T

hopt (λ)Rzθ (λ)dλ

3.3. Filtración óptima lineal por mínimos cuadrados 155

Estimador básico de una constante. Sea la señal θ = a s (t ), siendo s (t ) una función conocidaa y la amplitud aleatoria. Se exige, entonces, hallar la respuesta del filtro lineal que minimize elerror cuadrático medio de la estimación θ = a s (t ) hecha de la trayectoria ξ (t )+η (t ) ∈ (t −T, t ),siendo η (t ) un proceso aleatorio independiente de a , con η (t ) = 0 y función de correlaciónRθ (t1, t2).

La solución de la ecuación integral (3.65), reemplazando Rzθ (t1, t2) y Rθ (t1, t2) por:

Rzθ (t −τ, t ) =Ea 2s (t −τ)s (t )Rz (t −τ, t −λ) =Ea 2s (t −τ)s (t −λ)+Rη (t −τ, t −λ)

con lo cual, para τ ∈ T se obtiene que

Ea 2s (t −τ)s (t ) =∫ T

0

hopt (t , t −λ)Ea 2s (t −τ)s (t −λ)−Rη (t −τ, t −λ)

dλ,

La solución de la anterior ecuación integral tiene la forma, hopt (t ,τ) = k s (t )v (t ) , siendo v (t )a su vez la solución de la ecuación integral [18],

∫ t

t−T

v (λ1)Rη (λ2,λ1)dλ1 = s (λ2), λ2 ∈ (t −T, t )

Al reemplazar las anteriores expresiones en la solución buscada de (3.65) se obtiene,

Ea 2= k

Ea 2

∫ T

0

v (t −λ)s (t −λ)dλ+ 1

!

⇒ k =Ea 2 Ea 2

∫ T

0

v (t −λ)s (t −λ)dλ+ 1

!−1

El filtro óptimo, en este caso de estimación, tiene respuesta a impulso,

hopt (t ,τ) =Ea 2s (t )v (t )

1+Ea 2∫ t

t−T

v (λ)s (λ)dλ

A partir de la trayectoria z (t ), que implica la adición del proceso η (t ), observada en el inter-valo de tiempo (t −T, t ), la estimación de la señal en el momento t tiene la forma:

a s (t ) =

∫ T

0

hopt (t , t −λ)z (t −λ)dλ=Ea 2s (t )

∫ t

t−T

z (λ)v (λ)dλ

1+Ea 2∫ t

t−T

v (λ)s (λ)dλ

156 Capítulo 3. Análisis de aleatoriedad

por lo cual, la estimación de la misma amplitud de la señal es igual a

a =

Ea 2∫ t

t−T

z (λ)v (λ)dλ

1+Ea 2∫ t

t−T

v (λ)s (λ)dλ

que resulta ser sesgada, como se observa de su valor promedio,

Ea=EaEa 2

∫ t

t−T

s (λ)v (λ)dλ

1+Ea 2∫ t

t−T

v (λ)s (λ)dλ

Aunque asintóticamente, cuando Ea 2 →∞, esta puede ser considerada como no sesgada.El respectivo error cuadrático medio de la estimación a está dado por la expresión:

ε2min (t ) =Ea 2s 2 (t )−kEa 2

∫ T

0

s 2 (t )s (t −τ)v (t −τ)dτ

=Ea 2s 2 (t )

1−k

∫ t

t−T

v (λ)s (λ)dλ

!

que al reemplazar el valor de la constante k resulta en

ε2min (t ) =E(a −a )2 s 2 (t )

=Ea 2s 2 (t )

1+Ea 2∫ t

t−T

v (λ)s (λ)dλ

En el caso particular, cuando la filtración del parámetro aleatorio se considera inmersa enruido blanco aditivo con densidad espectral de potencia N0/2 y función de correlación

Rη (t ,λ) =N0

2δ (t −λ) ,v (τ)

=2

N0s (τ)

con lo cual, finalmente, la respuesta a impulso óptima hallada tiene la forma:

hopt (t ,τ) =

2Ea 2N0

s (t )s (τ)

1+2Ea 2

N0

∫ t

t−T

s 2 (λ)dλ

3.3. Filtración óptima lineal por mínimos cuadrados 157

a la cual le corresponde el siguiente valor de error cuadrático medio

ε2min (t ) =

Ea 2s 2 (t )

1+2Ea 2

N0

∫ t

t−T

s 2 (λ)dλ

3.3.3. Filtros acoplados

En el numeral §3.3, se analiza la calidad de filtración mediante el criterio del error cuadráticomedio, que se justifica cuando en el proceso de la señal tiene sentido el análisis de la depen-dencia del error en el tiempo. En otras tareas, es más importante establecer simplemente lapresencia o ausencia de la señal inmersa en la perturbación, se resuelve mediante la filtraciónque brinde la máxima relación señal/ruido, sin importar cuánto se afecte la señal útil.

Sea z (t ) = x (t ) +η (t ), la combinación lineal de la señal útil y la perturbación aleatoria η (t ),que se supone estacionaria (en el sentido amplio) con valor medio η (t ) = 0 y función cono-cida de correlación propia Rη (τ). La estimación de la señal en el intervalo de observación Tcorresponde al valor

x (t ) =

T∫

0

h(τ)z (t −τ)dτ (3.66)

donde h (τ) es la función respuesta a impulso que debe determinar, asumiendo la linealidad delsistema y la invariabilidad de sus parámetros de definición en el tiempo. La relación anterior sepuede escribir de la forma:

x (t ) = x1 (t )+ v (t )

donde

x1 (t ) =

T∫

0

h(τ)x (t −τ)dτ, v (t ) =

T∫

0

h(τ)η (t −τ)dτ

La relación por potencia de señal/ruido se determina como la relación del valor cuadrático

medio la señal de salida x 21 (t ), estimada en un momento determinado del tiempo t0, sobre la

varianza del ruido a la salida del filtroσ2v , así,

S/N =x 2

1 (t )

σ2v

(3.67)

El filtro lineal óptimo, en el sentido del máximo valor de la relación S/N ¬µmax, se denominafiltro acoplado.

En cualquier sistema lineal con respuesta a impulso h (τ), teniendo en cuenta (3.67), se cumple

158 Capítulo 3. Análisis de aleatoriedad

la siguiente desigualdad:

µmaxσ2v −x 2

1 (t0) =µmax

T∫

0

T∫

0

h (λ1)h (λ2)Rη (λ2−λ1)dλ2dλ1−

T∫

0

h (τ)x (t0−τ)dτ

2

≥ 0 (3.68)

de tal manera, que el símbolo de la igualdad, que corresponde al caso del filtro acoplado, ocurrepara la función h (τ) = ha c (τ, t0), que cumpla con la ecuación integral:

T∫

0

ha c (τ; t0)Rη (t −τ)dτ= k (t0)x (t0− t ) , t ∈ [0,T ] (3.69)

siendo k (t0) una constante, que para el momento t0 es igual a

k (t0) =

T∫

0

ha c (τ; t0)x (t0−τ)dτ

µmax=

x1c (t0)

µmax=

σ2v c

x1c (t0)

donde la señal x1c y la varianzaσ2v c están dados a la salida del filtro acoplado. Cabe anotar, que

si existe la función ha c (τ, t0) como solución de (3.69), entonces esta misma ecuación se cumplepara c ha c (τ, t0), siendo c una constante (por cierto, el valor µmax no cambia), con lo cual larespuesta a impulso del filtro acoplado puede ser determinada hasta el valor de su factor deescala.

Una solución directa se puede hallar al asumir que la perturbación corresponde a ruido blan-co Gaussiano con función de correlación propia Re t a (t −τ) =N0δ (t −τ). Al despejar la funcióndelta dentro de la integral, mediante la propiedad de selectividad, la respuesta a impulso del fil-tro acoplado toma la forma,

ha c (t ; t0) =k (t0)

N0x (t0− t ) , t ∈ [0,T ] (3.70)

El análisis de la estructura de ha c (t ; t0) en (3.70), muestra que la respuesta a impulso del filtroacoplado, obtenida en este caso, es directamente proporcional a la forma imagen con respec-to al eje vertical, que pasa por el valor de tiempo t = t0, de la señal útil x (t ) en el intervalo(t0−T, t0), con el consecuente traslado del origen de las coordenadas hasta el punto t = t0. Enel caso simple cuando t0 = T , la respuesta a impulso del filtro acoplado corresponde a la repre-sentación espejo de la señal con respecto al eje vertical, que divide en dos el intervalo de análisis(0,T ), como se observa en la Figura 3.8.

3.3. Filtración óptima lineal por mínimos cuadrados 159

6

-

.........................R.........................

.........................

...................

..................................................

..................................................................

................................................................

...............................................

.........................

...................

.................

........................

...................................................................

..................

....................................

.................................................................

t0−T tt0

0 T τ

x (t ) ha c (t )

x (t ), ha c (t )

Figura 3.8: Ejemplo de la simetría inherente quesiempre se presenta en la respuesta a im-pulso de un filtro acoplado

El máximo valor de la relación señal/ruido,a partir de (3.68), es igual a

µmax =

T∫

0

x 2 (t0−τ)dτ

2

N0

T∫

0

x 2 (t0−τ)dτ

=1

N0

T∫

0

x 2 (t0−τ)dτ=Ex

N0

esto es, el valor corresponde a la relación deenergía de la señal sobre la DEP del ruido N0,en el intervalo (t0−T, t0).

La función de transferencia Ha c (ω; t0) del filtro acoplado con respuesta a impulso (3.70), sedetermina como

Ha c (ω; t0) =

∞∫

−∞

ha c (t ; t0)e−jωt d t =

k (t0)

N0

T∫

0

x (t0− t )e−jωt d t

=k (t0)

N0e−jωt0

t0∫

t0−T

x (t )e jωt d t

lo que puede ser interpretado como

Ha c (ω; t0) =k (t0)

N0e−jωt0X ∗ (ω; t0,T )

Por lo anterior, durante la separación de una señal de su mezcla aditiva con el ruido blanco,la respuesta a impulso del filtro acoplado es proporcional al espectro conjugado X ∗ (ω; t0,T ) dela señal útil y del truncado en el intervalo (t0−T, t0).

En forma general, se puede obtener la expresión de la respuesta a impulso para el caso decualquier DEP de ruido dado Sη (ω), pero sin tener en cuenta la condición para la realizaciónfísica del filtro, de manera particular, al suponer que se tiene la observación z (t ) para todos losvalores de t ∈R, generalizando los límites de la integral (3.66):

x (t ) =

∞∫

−∞

h (τ; t0)z (t −τ)dτ

160 Capítulo 3. Análisis de aleatoriedad

En este caso, la ecuación (3.68), para todos los valores de t , toma la siguiente forma:

∞∫

−∞

ha c (τ; t0)Rη (t −τ)dτ= k (t0)x (t0− t )

que al hallar la transformada de Fourier se convierte en:

Ha c (ω; t0)Sη (ω) = k (t0)X∗ (ω)e jωt0

con lo cual, la respuesta a impulso del filtro acoplado generalizado tiene la forma:

Ha c (ω; t0) = k (t0)X ∗ (ω)

Sη (ω)e−jωt0 (3.71)

El máximo valor de la relación señal/ruido, en concordancia con (3.68) se calcula como:

µmax =

∞∫

−∞

ha c (τ, t0)x (t0−τ)dτ

2

∞∫

−∞

∞∫

−∞

ha c (λ1; t0)ha c (λ2; t0)Rη (λ2−λ1)dλ1dλ2

=

1

∞∫

−∞

Ha c (ω; t0)X (ω)ejωt dω

2

1

∞∫

−∞

Sη (ω) |Ha c (ω; t0)|2 dω

valor en el cual, al sustituir Ha c (ω; t0) por (3.71), se obtiene la expresión final

µmax =1

∞∫

−∞

|X (ω)|2

Sη (ω)dω (3.72)

Cuando la perturbación corresponde al ruido blanco gaussiano, de la expresión (3.72) resultaentonces el siguiente valor

µmax =1

2πN0

∞∫

−∞

|X (ω)|2 dω

Por último, cabe anotar que la estimación de la señal a la salida del filtro acoplado es sesgada,

3.3. Filtración óptima lineal por mínimos cuadrados 161

por cuanto

Ex (t )=E

T∫

0

ha c (τ; t0)z (t −τ)dτ=

T∫

0

ha c (τ; t0)x (t −τ)dτ

= x1c (t ) 6= x (t )

Filtros activos y pasivos. Sea el dispositivo, que realiza la estimación óptima por el criterio delmáximo valor de relación señal/ruido de la forma

x (t ) =

T

ha c (τ)z (t −τ)dτ (3.73)

siendo ha c (τ) la solución no homogénea de la ecuación integral (3.73) y z (t ) la combinaciónaditiva de la señal útil y ruido, observadas en el intervalo (t −T, t ). La expresión (3.73) se puedeinterpretar de dos maneras. En el primer caso, el filtro acoplado es un sistema lineal con paráme-tros constantes, cuya respuesta a impulso ha c (τ) se determina por la forma de la señal y de lafunción de correlación del ruido, acordes con la descripción (3.69). En el caso particular del rui-do blanco gaussiano, la respuesta a impulso se obtiene de la representación espejo de la señalútil.

Sea un generador, que trabaja por el principio descrito por la solución (3.69), entonces, laestimación x (t ) se obtiene mediante el dispositivo de correlación, en el cual la función ha c (τ),obtenida de un generador local, se multiplica la observación de entrada y retenida, mientrasel producto obtenido se integra por todo el intervalo de observación. Esta clase de dispositivospara la extracción de señales se denominan filtros activos, a diferencia de un sistema lineal conrespuesta a impulso ha c (τ), que se denomina filtro pasivo.

Ejemplo 3.16 Sea la señal pulso cuadrado

x (t ) =

¨a , −τp

À2≤ t ≤τp

À2

0, |t |>τp

À2

El espectro del pulso corresponde al calculado en el ejemplo1.7,X (ω) = aτp sinc(ωτp/2). En concordanciacon(3.71) se obtiene que

Ha c (ω; t0) = k (t0)aτp |sinc(ωτp/2)|/Sn (ω)

De la anterior expresión se observa que la respuesta de frecuencia del filtro acoplado se define sobreun rango infinito de frecuencias, mientras su desfase difieredel la señal original. En el sentido estricto, talfunción de transferencia es imposible de realizar, por lo que en la práctica el acople del filtro se limita hastael lóbulo principal, en el cual se considera se concentra el proceso de la mayor parte de la energía de la señal,mientras su desfase se hace tanto como se pueda igual a0.

162 Capítulo 3. Análisis de aleatoriedad

Problemas

30. Sea la señal pulso cuadrado

x (t ) =

(a/2

e jω0t − e jω0t

, −τp/2≤ t ≤τp /2

0, |t |>τp /2

Hallar la función de transferencia y respuesta impulso del respectivo filtro acoplado.31. Sea la señal pulso cuadrado modulado

x (t ) =

(a/2

e jω0t − e jω0t

, −τp/2≤ t ≤τp /2

0, |t |>τp /2

Hallar la función de transferencia y respuesta impulso del respectivo filtro acoplado.32. Sea la señal de banda ancha

x (t ) =

(a/2 cos (ω0t +(d i − 1)π/2) , 0≤ t ≤ T

0, 0> t > T

Asumiendo que la sucesión de valores d i = −1,1 ∈ Td : i = 1, . . . ,N , T = N Td , corresponde auna serie de valores aleatorios, hallar la función de transferencia y respuesta impulso del res-pectivo filtro acoplado.33. Sea el filtro acoplado, que trabaja por el principio (3.73). Hallar la respuesta a impulso del

filtro acoplado, asumiendo que la DEP de la señal útil es

Sx (ω) =S0

1+(ωT )2

mientras la perturbación es RBG.

4Fidelidad y detección de señales

La fidelidad se define como la medida de la capacidad que cualquier sistema de telecomu-nicaciones tiene para reproducir, a la salida del receptor, una réplica exacta de la informa-

ción de la fuente original. La medida básica de distorsión está basada en la potencia del errorcuadrático medio entre la señal enviada y la estimada a la salida del receptor. Sin embargo, talmedida usualmente se implementa de diferente manera para cada uno de los tipos de modu-lación informativos. Particularmente, en los sistemas de transmisión analógicos se emplea larelación de potencia señal a ruido, mientras en los sistemas de transmisión digital se emplea lala probabilidad de error de detección.

4.1. Fidelidad en sistemas analógicos

4.1.1. Relación señal a ruido

Considérese un proceso aleatorio x (t ) en calidad de señal con contenido informativo útil, conpotencia Sx , que se aplica a la entrada de un sistema de comunicaciones, para el cual se asumeque el canal de transmisión es lineal e introduce únicamente ruido aditivo η(t ), con potenciaN . A la salida del canal aditivo se tendrá, entonces, el siguiente proceso aleatorio:

y (t ) = x (t )+η(t ) (4.1)

El análisis de fidelidad asume que la perturbación η(t ) corresponde al ruido blanco Gaus-siano con media cero, y densidad espectral de potencia Sη(ω) y función de correlación, Rη(τ)(ambas descritas en la sección §3.1.4). Además, el modelo del canal asume que la correlaciónentre el ruido y la señal de información es nula, por lo tanto, se tiene que:

Ey 2(t )=Ex 2(t )+η2(t )=Ex 2(t )+Eη2(t )=Sx +N

Al dividir la última expresión por la potencia del ruido, N , se tiene que

Sy /N =Sx/N + 1

163

164 Capítulo 4. Fidelidad y detección de señales

En la práctica, es usual la transmisión para valores de la relación señal/ruido suficientementealtos, esto es, Sx/N 1, con lo cual, Sy /N ≈Sx/N , y es de inferir que la influencia del ruido seala mínima. En otras palabras, entre mayor sea la relación señal/ruido, Sy /N , menor debe ser ladistorsión presentada en el canal y debe considerarse entonces que la fidelidad de transmisiónserá mayor.

En general, el análisis de fidelidad se resume al cálculo del valor de variación en relaciónseñal/ruido entre la entrada y salida del sistema de proceso:

κ=Ss/Ns

Se/Ne, κ≥ 0 (4.2)

donde Ss , y Ns son las potencias de salida de la señal útil y el ruido, respectivamente, mientrasSe , y Ne son las potencias respectivas de señal y ruido aplicada a la entrada del dispositivo deproceso. Por cierto, cuando κ > 1, se habla de ganancia de proceso que mejora la fidelidad, encambio cuando κ≤ 1, entonces, se considera que el sistema de proceso empeora la fidelidad.

4.1.2. Fidelidad en sistemas de banda base

HLP F-

6

--+

+

x (t )

η(t )

Figura 4.1: Sistema de comunicaciones para unaseñal banda base

Inicialmente, se considera un sistema deanálisis de señales en banda base, cuando enel modelo (4.1), el proceso de la señal se re-sume a su simple filtración pasabajos, comose ilustra en la Figura 4.1. Tales sistemas pre-sentan importancia en la adquisición y medi-da de señales, cuando el filtro Pasabajos tienefunción de transferencia,

HLP F (ω)=

(1, |ω| ≤ΩF

0, |ω| ≥ΩF

donde ΩF ¦ Ωx = 2π f max, es el ancho de banda, siendo f max la componente espectral hastadonde se considera se encuentra información útil, contenida en el proceso aleatorio x (t ). ElRBG a la entrada del filtro se asume con un ancho de banda, tal que

ΩηΩF (4.3)

A la entrada del filtro, la potencia de la señal es simplemente Sx , Cuando no hay presencia delRBG, el sistema no debe afectar la señal de entrada más que mediante un retardo τr , esto es,y (t ) = x (t −τr ). Así, la potencia de la señal a la salida estará dada por:

Sy =Ex 2(t −τr )=1

∫ Ωx

−Ωx

Sx (ω)dω

=Sx (4.4)

Así mismo, dado el RBG con con DEP N0/2 a la entrada del modelo del canal, entonces, la

4.1. Fidelidad en sistemas analógicos 165

potencia del ruido a la salida del sistema estará dada por:

Eη2(t −τr )=1

∫ Ωx

−Ωx

N0

2dω

=N0Ωx/(4π) (4.5)

0 200 400 600 800 1000

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

Señal mensaje

Tiempo

Am

plitu

d

(a) Señal banda base

0 200 400 600 800 1000−3

−2

−1

0

1

2

3Señal + Ruido

Tiempo

Am

plitu

d

(b) Señal banda base + rui-do

0 50 100 150 2000

100

200

300

400

500

600Espectro señal mensaje

Frecuencia (Hz)

(c) Espectro señal bandabase

0 50 100 150 2000

100

200

300

400

500

600Espectro señal + ruido

Frecuencia (Hz)

(d) Espectro señal bandabase + ruido

Figura 4.2: Efecto del canal de comunicaciones con ruido blanco gaussiano

Luego, la ganancia de proceso, dada en (4.2), teniendo en cuenta (4.4) y (4.5), corresponde ala relación

κ=Sy

N0Ωx /(4π)/

Sx

N0Ωη/(4π)

=Ωη

Ωx

cuyo valor resulta ser κ 1, habida cuenta de la condición (4.3). En consecuencia, el aumentoen la ganancia de proceso es evidente al introducir un filtro pasabajos que limite el contenidoespectral de la señal, hasta donde se considere exista información útil. De otra manera, las com-ponentes espectrales no informativas generan distorsión adicional en el proceso y, por lo tanto,pérdida de fidelidad.

4.1.3. Fidelidad en sistemas de amplitud modulada

El modelo de los canales de transmisión, que incluye señales con modulación de radiofrecuen-cia, implica la presencia de un filtro pasabanda ideal con banda pasante centrada en la frecuen-cia portadora, ωc , y ancho de banda, 2∆Ωx , igual al de la señal modulada, de tal manera quelimite el ancho de banda del ruido a la entrada del receptor; por lo tanto,

HBP F (ω)=

(1, ωc −Ωx ≤ |ω| ≤ωc +Ωx

0, otros valores deω

El modelo de ruido también debe considerarse de banda estrecha y su modelo describe porla expresión:

η(t ) = ηc (t )cosωc t −ηs (t )sinωc t (4.6)

166 Capítulo 4. Fidelidad y detección de señales

donde ηc (t ) y ηs (t ) son las componentes en fase y de cuadratura, respectivamente, las cualesse asumen con igual potencia, esto es, Eη2

c (t )=Eη2s (t )=Eη2(t )/2. Luego la potencia del

ruido modulado en el canal de radiofrecuencia es igual a:

Ne =Eη2(t )= 2

∫ ωc+Ωx

ωc−Ωx

N0

2dω

= 2N0 f max

con lo cual la relación señal/ruido a la entrada del demodulador se da por la relación simple:

Se/Ne =Se /2N0 f max (4.7)

La ecuación (4.7) corresponde a la relación señal/ruido de la señal banda base (ver ec. (4.6)),multiplicada por un factor de 1/2, como resultado de la relación entre el ancho de banda delfiltro pasa banda y el ancho de banda de la señal.

Dada la señal de amplitud modulada con doble banda lateral a la entrada del demodulador,que teniendo en cuenta (2.9), se expresa mediante el índice de modulación en la forma:

y (t ) = a (1+µx (t ))cosωc t +ηc (t )cosωc t −ηs (t )sinωc t (4.8)

su demodulación sincrónica implica la siguiente operación:

y (t )cos(ωt ) = a (1+µx (t ))cosωc t cosωc t +(ηc (t )cosωc t −ηs (t )sinωc t )cosωc t

= (a (1+µx (t ))+ηc (t )+ (ηc (t )+a (1+µx (t )))cos 2ωc t )/2+(ηs (t )sin 2ωc t )/2

Entonces, la salida del detector, que se obtiene luego de remover las componentes de altafrecuencia y su valor medio, será:

z (t ) = a (1+µx (t ))+ηc (t )

En consecuencia, la relación señal/ruido a la salida del demodulador sincrónico de señalescon amplitud modulada es

Ss/Ns = a 2µ2Sx/2N0 f max,

de tal manera, que la ganancia de proceso se determina por la relación

κ=a 2µ2Sx/2N0 f max

Se/2N0 f max(4.9)

Por cuanto en la práctica, el índice de modulación es cercano a la unidad,µ→ 1, al normalizarel valor pico de la señal, esto es, a = 1, entonces la ganancia de proceso es κ= 1. Dicho de otramanera, en la modulación sincrónica de doble banda lateral no hay mejora en la fidelidad.

En general, se puede demostrar que la demodulación de señales con banda lateral única con-lleva a la misma ganancia de proceso, κ= 1, obtenida para el caso de doble banda lateral.

4.1. Fidelidad en sistemas analógicos 167

Ejemplo 4.1 Calcular el efecto en la relación señal/ruido a la entrada del demodulador de la presencia dela parte residual para los sistemas de modulación de amplitud AM residual.

Al incrementar el ancho de banda en un sistema de banda lateral única para transmitir la parte residualse tiene que:

HB PF (ω)=

¨1, ωc −Ωv ≤ |ω| ≤ωc +Ω

0, otros valores deω

siendoΩv el incremento en la banda de paso del filtro para el paso de la parte residual, con lo cual la potenciadel ruido a la salida del sistema será entonces:

Eη2(t )= 1

π

∫ ωc+Ω

ωc−Ωv

N0

2dω

=N0( f max+Ωv

2π)

De la ecuación anterior se puede deducir que la relación señal a ruido a la entrada del demodulador severá afectada porN0Ωv /2π. CuandoΩv =Ω, se tendrá entonces un sistema de doble banda lateral perdiendoasí los efectos de limitación del filtro incurriendo en una disminución de dicha relación.

4.1.4. Fidelidad en sistemas de modulación de ángulo

El modelo de un canal Gaussiano aditivo, asumiendo el formato de la señal con modulación deángulo, es el siguiente:

y (t ) = a cos(ωc t +φ(t ))+ηc (t )cosωc t −ηs (t )sinωc t (4.10)

en el cual la desviación de fase, φ(t ), se expresa mediante las relaciones (2.16a) y (2.16b), paralos casos de modulación de fase y frecuencia, respectivamente. El modelo de canal (4.10) nohace evidente la influencia del RBG sobre la salida del discriminador de ángulo, como ocurríapara las señales de amplitud modulada en (4.8). Por lo tanto, se debe obtener un modelo queincluya explícitamente en el ángulo las componentes de ruido, para lo cual, inicialmente, sepuede expresar el ruido de banda angosta en forma polar, así:

y (t ) = a cos(ωc t +φ(t ))+ rη(t )cos(ωc t −φη(t ))

donde rη(t ) =pη2

c (t )+η2s (t ) es la envolvente de ruido, la cual se describe mediante la función

densidad de probabilidad de Rayleigh, mientras la desviación de fase de ruido, determinada porφη(t ) = tan−1(ηs (t )/ηc (t )), se rige por la densidad de probabilidad uniforme.

El desdoblamiento de ambas componentes de la última ecuación en un solo término dedesviación de fase se hace al expandir el siguiente argumento:

ωc t +φη(t ) =ωc t +φ(t )+φη(t )−φ(t )

Luego, la señal a la entrada del demodulador se puede escribir en la forma:

y (t ) = a cos(ωc t +φ(t ))+ rη(t )cos(φη(t )−φ(t ))cos(ωc t +φ(t ))

− rη(t )sin(φη(t )−φ(t ))sin(ωc t +φ(t ))

168 Capítulo 4. Fidelidad y detección de señales

que al reagrupar en función de los argumentos dependientes de la portadora de radiofrecuen-cia, toma la siguiente forma:

y (t ) = (a + rη(t )cos(φη(t )−φ(t ))cos(ωc t +φ(t ))− rη(t )sin(φη(t )−φ(t ))sin(ωc t +φ(t ))

=ρ(t )cos(ωc t +φ(t )+φr (t ))

donde

φr (t ) = tan−1 rη(t )sin(φη(t )−φ(t ))a + rη(t )cos(φη(t )−φ(t )

ρ(t ) =p(a + rη(t )cos(φη(t )−φ(t ))2+(rη(t )sin(φη(t )−φ(t )))2

La envolvente ρ(t ) derivada de la influencia del ruido sobre la señal útil, en esencia debe serconstante, ρ(t ) = const ., por cuanto se asume que la información está reflejada en el ángulo.De otra manera, sus fluctuaciones generarían distorsiones adicionales en la señal salida del dis-criminador. Sin pérdida de generalidad, la señal a la entrada del demodulador se puede asumiren el formato:

y (t ) = cos(ωc t +Φ(t )), Φ(t ) =φ(t )+φr (t )

siendo Φ(t ) la desviación total de fase, que incluye tanto la influencia de la señal útil como la delruido de banda angosta.

Cabe anotar que dependiendo de la relación señal/ruido se consideran los dos siguientescasos particulares de análisis:

a). Cuando a 2 Er 2η(t ), esto es la relación señal/ruido de entrada resulta mucho mayor

que 1. Entonces, para la desviación de fase, φr (t ), se cumple la aproximación,

φr (t )'rη(t )

asin(φη(t )−φ(t )),

luego

Φ(t ) =φ(t )+rη(t )

asin(φη(t )−φ(t ))

que implica que a mayor potencia de la señal, cuando crece el valor de a , entonces menores la influencia del ruido. Por lo tanto, el comportamiento de la desviación total de faseestá dado mayoritáriamente por la desviación de fase útil,φ(t ).

b). Cuando a 2 Er 2η(t ), que implica que la relación señal/ruido de entrada es mucho

menor que 1, con lo cual se tiene que rη(t )sin(φη(t )−φ(t )) ' a + rη(t )cos(φη(t )−φ(t ),luego

Φ(t ) =φη(t )−a

rη(t )sin(φη(t )−φ(t ))

entonces, el comportamiento de la desviación total de fase está dado mayoritáriamentepor la desviación de fase de ruido, φη(t ). En otras palabras, el demodulador disminuye

4.1. Fidelidad en sistemas analógicos 169

la influencia de la señal útil y demodula el ruido; caso que en la práctica no tiene mayorsentido de análisis.

Es de anotar, que específicamente existe un valor de relación señal/ruido, a partir del cualse da el trocamiento de ambos casos analizados, y que se conoce como el efecto umbral.

Asumiendo que la transmisión de la señal modulada se realiza en condiciones favorables depotencia, esto es, Sx/N 1, entonces la salida del discriminador, habida cuenta de las rela-ciones (2.16a) y (2.16b), para la demodulación de señales de fase y frecuencias serán, respecti-vamente:

z (t ) = kDΦ(t ) = kDφ(t )+ηPM (t ), PM

z (t ) =1

2πkD

d t=

1

2πkD

d t+ηF M (t ), FM

donde kD es la ganancia del discriminador de ángulo, ηPM (t ) y ηF M (t ) son las componentes deruido de salida, analizadas para las variedades respectivas de modulación de ángulo, y que sedeterminan como:

ηPM (t ) = kDΦ(t ) = kDφη(t ) = kDrη(t )

asin(φη(t )−φ(t ))

ηF M (t ) =kD

dφηd t

=kD

d

d t

rη(t )

asin(φη(t )−φ(t ))

De otra manera, al normalizar el valor pico de la señal moduladora, xn (t ), la salida del dis-criminador se expresa como:

z (t ) = kD kp xn (t )+ηPM (t ), PM

z (t ) = kD f d xn (t )+ηF M (t ), FM

donde f d = kp/2π se denomina desviación de frecuencia y es el máximo cambio de frecuenciaque puede experimentar el valor nominal de la señal portadora.

Sobre las anteriores expresiones se puede realizar el cálculo de la relación señal/ruido a lasalida del discriminador de ángulo, en particular, la potencia de la señal útil de salida es:

SPM = k 2D k 2

pEx2n (t ) (4.11a)

SF M = k 2D f 2

d Ex2n (t ) (4.11b)

En cuanto al cálculo de la potencia del ruido de salida, el argumento sin(φη(t )−φ(t )) exigeel conocimiento de la fase útil, φ(t ), la cual depende entonces del valor concreto de la señalmoduladora, xn (t ), que a su vez se asume desconocido. Sin pérdida de generalidad, se puedehacer xn (t ) = 0, esto es, teniendo en cuenta el modelo (4.10) se tiene que,

rη(t )sin(φη(t )−φ(t )) = rη(t )sin(φη(t ))

=ηs (t )

Por lo tanto, los modelos de las componentes de ruido a la salida del discriminador se simpli-

170 Capítulo 4. Fidelidad y detección de señales

fican, respectivamente, hasta,

ηPM (t ) =kD

aηs (t )

ηF M (t ) =kD

2πa

dηs

d t

Teniendo en cuenta la expresión (3.35) para potencia del ruido de banda finita, entonces, lapotencia del ruido a la salida del demodulador de fase será:

NPM =Eη2PM (t )=

k 2D

a 2 Eη2s (t )

=k 2

D

2πa 2

2π f max

N0d f

=k 2

D

a 2N0 f max

De lo anterior, y basados en el valor de la potencia de la señal de fase modulada en (4.11a), larelación señal/ruido a la salida del demodulador de fase resulta en,

(SPM/NPM )s =k 2

D k 2pEx 2

n (t )2(k 2

D/a2)N0 f max

=a 2k 2

pEx 2n (t )

2N0 f max

El cálculo de la ganancia de proceso con respecto a la fidelidad implica conocer la relaciónseñal/ruido a la entrada del demodulador, que para el caso se puede tomar como

(S/N )e =S

N0

2f max

=a 2Ex 2

n (t )2N0 f max

entonces,

κ=a 2k 2

pEx 2n (t )

2N0 f max

,a 2Ex 2

n (t )2N0 f max

= k 2p (4.12)

Debido a la limitada excursión del valor maxkp = π, entonces el máximo valor de gananciaes tan solo de maxκ=π2 ' 10, que es demasiado modesto, habida cuenta de que en la prácticase requieren valores por encima de 1000!.

En el caso de la demodulación de las señales con frecuencia modulada, el discriminador bási-camente está dado por un circuito diferenciador, para el cual, asumiendo que a la entrada setiene RBG, la densidad espectral a la salida, basados en la relación (3.45), es proporcional a(2π f )2N0, con lo cual la potencia del ruido a la salida del discriminador de frecuencia se expre-

4.1. Fidelidad en sistemas analógicos 171

sa como:

NF M =Eη2F M (t )=

k 2D

a 2 Edη2

s

d 2t

=k 2

D

2πa 2 N0

2π f max

f 2d f

=1

3

k 2D

a 2 N0 f 3max

El análisis detallado de la anterior expresión, debido a la presencia del múltiplo no lineal,f 3

max, indica que el aporte la función densidad de potencia del ruido, por cada porción espec-tral, no es uniforme. En particular, en un sistema de telecomunicaciones con múltiples abona-dos agrupados por canales de frecuencia, el usuario con la porción espectral más baja le corres-ponderá una relación señal/ruido mucho más favorable que al canal, que esté ubicado en laporción superior del espectro. En otras palabras, no hay cómo asegurar una misma calidad enla fidelidad del servicio para todos los usuarios del sistema. En la práctica, se emplean sistemade preénfasis, que generan el acomodamiento de la densidad espectral de la señal modulado-ra (antes de su modulación), de tal manera, que se asegure un valor constante en la relaciónseñal/ruido en todo en ancho de banda del sistema.

El valor de la señal/ruido a la salida del demodulador corresponde a relación (4.11b) sobre laúltima expresión,

(SF M /NF M )s =k 2

D f 2d Ex 2

n (t )13

k 2D

a 2 N0 f 3max

= 6

f d

f max

2 a 2Ex 2n (t )

2N0 f max

= 6β 2(S/N )e

siendo β el índice de modulación (ver §2.3.3). Luego de la expresión anterior, es evidente que laganancia de proceso para la demodulación de señales con frecuencia modulada será,

κ= 6β 2 (4.13)

la cual, debido al rango de valores que puede tomar β ∈ [0,∞), teóricamente puede ser tangrande como se quiera, tan sólo variando cualquiera de los dos parámetros, f d ó f max, como seilustra en la Figura 2.17.

Por último, la comparación de las respectivas expresiones de ganancia de proceso, (4.9), (4.12)y (4.13), indica que la mejor fidelidad es provista por las señales con frecuencia modulada, lacual puede ser tan grande como se quiera. Luego, se tiene el tipo de modulación con fase, perosu valor de ganancia de proceso es tan bajo que en la práctica es comparable con la fidelidad delas señales con amplitud modulada, considerada la peor cuando no hay ganancia de proceso.

172 Capítulo 4. Fidelidad y detección de señales

0.

Problemas

1. Encontrar la densidad espectral de potencia y la amplitud de una señal banda base de tipo

sinusoidal, tal que se tenga una relación señal/ruido de 8dB, asumiendo que el ruido presenteen el canal tiene una constante de N0 = 1/5000, y el filtro ideal paso bajo que modela el receptortiene un ancho de banda de 700Hz .2. Mostrar qué efectos traería consigo la introducción de una desfase φ en el detector no co-

herente para la demodulación de AM en la relación señal a ruido a la salida del demodulador.3. Un canal de comunicación para la transmisión de audio, requiere una relación señal a ruido

de 20d B para cumplir con los niveles de calidad requeridos para determinada aplicación. Lainformación se modula en frecuencia de la siguiente manera:

Yi (t ) = 10cos[103(2π)t + 3sin[10(2π)t ]]

Encontrar la señal mensaje y la potencia del ruido requerida para cumplir con la relaciónseñal a ruido exigida. Suponga que la señal está modulada en banda angosta.4. Hallar la ganancia de de proceso en en la modulación con frecuencia modulada cuando se

emplea el siguiente filtro de preénfasis

|He (f )|=1

p1+(f /f c )

2

siendo f c la frecuencia de corte por 3 dB.

4.2. Métodos de detección de modulación digital 173

4.2. Métodos de detección de modulación digitalDada una mezcla de la señal útil ξ y alguna perturbación η, el objetivo de la filtración consisteen obtener una estimación, bien sea de la misma señal útil en general, ξ, o bien de alguno desus parámetros o características de interés, ξ(θ ), con estructura aleatoria. De otra manera, la fil-tración implica buscar la transformación de la trayectoria x (t )∈ ξ en análisis a fin de obtener lamejor estimación, por un criterio dado, de los valores de un proceso aleatorio en un momentodeterminado del tiempo del intervalo de observación. Además de la estimación del mismo pro-ceso ξ, en la práctica, a partir de las respectivas observaciones x ∈ ξ, dadas sobre un intervalode tiempo de análisis, tiene sentido la estimación de alguna transformación lineal del procesoaleatorio, por ejemplo, el desplazamiento en el tiempo, la diferenciación o integración múltipleo la combinación de estas transformaciones.

Aunque en la mayoría de los casos, los sistemas óptimos de proceso no son lineales. No obs-tante, el desarrollo de los métodos de filtración lineal tiene mayor importancia, por cuanto suaplicación presenta mejor sentido práctico. De otra parte, debido a que cualquier suposición delinealidad no implica su condición de realización física (causalidad del sistema), es usual para lasíntesis de filtros el empleo de la solución secuencial: primero, la comprobación de la condiciónde linealidad y luego, la de causalidad.

En algunos casos, como criterio de calidad en la estimación del valor de una señal aleatoria,se escoge el valor medio de la potencia del error para un ensamble dado de trayectorias, esto es,el valor cuadrático medio de la desviación estándar de la estimación. En otros casos, el criteriode calidad corresponde a la relación de las potencias de la señal contra la de perturbación.

El análisis de filtros no lineales se puede considerar de diversas maneras, cada una de ellasacopladas a la naturaleza de no linealidad del proceso. En general, entre las aproximaciones másconocidas están las relacionadas con la caracterización de los sistemas no lineales mediante lasuma infinita de los integrales de Volterra. Otra aproximación consiste en la representación,dadas las restricciones pertinentes, en forma de procesos de Markov.

4.2.1. Modelo de detección Gaussiana

Sea un conjunto de señales de información, xk (t ) : k = 1, . . . ,n con suficientemente estruc-tura conocida, bien sea de naturaleza determinística o aleatoria, y para las cuales se exige quesolo puede existir una señal, xk (t ), durante un intervalo dado de observación T, que además seasume perturbada por alguna trayectoria de la distorsión aleatoria η(t ).

A efectos de análisis, la perturbación η(t ) se considera RBG aditivo, con lo cual, la trayectoriasobre la cual se realiza la detección tiene la forma:

y (t ) = xk (t )+η(t ), t ∈ T (4.14)

de tal manera, que pueden generarse las respectivas hipótesis sobre cuál de las k posibles señalesestá presente en un intervalo dado de observación.

La tarea de detección, de acuerdo con el número n de posibles señales de información, puedeser binaria, (n = 2), o bien múltiple, (n > 2). Sobre el mismo carácter de las señales de informa-ción, se pueden diferenciar las siguientes tres tareas:

a). Detección de las señales determinísticas con parámetros conocidos (sistemas sincrónicosde comunicación digital).

174 Capítulo 4. Fidelidad y detección de señales

b). Detección de señales determinísticas con parámetros desconocidos (detección de radar,sistemas asincrónicos de comunicación digital).

c). Detección de señales de información con estructura aleatoria (detección sísmica, radioas-tronomía, radioprospección).

Sea un conjunto de señales xk (t ), k = 1, . . . ,N , dado el modelo de observación (4.14), para elcual se introduce la FDP condicional con dimensión múltiple, p (y |xk ) de la variable y , bajo lacondición de que esté presente la señal de información xk , en el intervalo dado de observación.La toma de decisión sobre cuál de las posibles señales está presente, implica que todo el espacioG, conformado por las señales de información, sea dividido de forma determinada en m sube-spacios, Gi ⊂G : i = 1, . . . ,N . De tal manera, que al tenerse y (t )∈Gi , t ∈ T , entonces, se tomala decisión de que está presente la señal x i (t ). Sin embargo, debido a la interacción del ruidoη(t ), el verdadero valor de la medida de la señal presente xk (t ) se altera, como se muestra en laFigura 4.3, luego, pueden ocurrir dos casos extremos en la toma de decisión:

– Primero, que la perturbaciónη1(t ) cambie el valor real de medida, pero la señal xk (t ) sigareflejándose, mediante y1(t ), en su respectivo subespacio Gk , con lo que la decisión setoma correctamente sobre cuál de las señales fue detectada.

– Segundo, que la trayectoria η1(t ) altere la medida, de tal manera que la señal xk (t ), re-flejada en y2(t ), traspase la frontera γk i y se ubique en un subespacio diferente, esto es,xk → Gi , para todo i = 1, . . . ,N , i 6= k ; por lo tanto, se genera un error en la toma dedecisión durante la detección de la respectiva señal.

-PPPPPPPPPPPPPq

BBBBBN

*

............................................................................................. ........................................................................................................................................

........................

...........................

...................................................................................

.......................

.......................................

.............................................................................................................................................................................................

...................................

.............................

..................................

............

..........................

..........................

............................................................................................

.......................................................

.............................................

...............................................

.......................................................................................................................................................................................................................................................................

.................................................................................................................................................

....................................................................

......................................

........................................... ....... ...... ....... .. ..................... ............................................................................. ....................................................................................................

.......................................................................................................................................................................................................................................................................................................................................................................

................................

.......................

.......................................................................................

....................................................................................

.........................................................

........

Gn

Gk

G i

Gm

0

η1

η2

y1

y2

xkγk i

γ′k i

γk m

γ′k m

G

Figura 4.3: Espacios de decisión

Es evidente que la conformación de lossubespacios y, en particular, el cambio de lasfronteras influyen sobre la probabilidad deerror de la detección de las señales de infor-mación. Así por ejemplo, si en vez de tomarla frontera γk m , dada la observación y1, en-tonces la detección de xk (t ) es incorrecta, porcuanto se toma la decisión Gm . Por el con-trario, para la trayectoria y2, al cambiar lafrontera hasta γk i el espacio de decisión Gi seamplia y la detección de xk ya se convierte encorrecta.

La FDP condicional de detección correctase da por la integral múltiple:

p (x i |x i ) =

G i∈G

p (y |x i )d y (4.15)

Mientras, la FDP condicional complementaria de error tiene la forma

p (x j |x i ) =

G i

p (y |x i )d y , ∀j = 1, . . . ,N , j 6= i (4.16)

4.2. Métodos de detección de modulación digital 175

De esta manera, dado un criterio de decisión, la mejor división de los subespacios de lasseñales de información (denominada toma de decisión óptima de detección) se realiza mediantelos métodos de teoría de toma de decisión estadística.

4.2.2. Detección bayesiana de señales

Sea la función de pérdida f c ε en forma de los valores c j i , que resultan de la toma incorrecta dela decisión de detección de la señal x i , cuando realmente se tenía x j . Las funciones de pérdidaasumen c i j = 0, sin embargo, se puede generalizar su definición y considerar el caso cuandoc i j 6= 0, asumiendo el sentido de función de costos de decisión.

La función de riesgo condicional para la detección de x i se determina como

rg (x i ) =

N∑

n=1

c i j p (x j |x i )

Dada la FDP a priori de aparición, p (x i ), para la señal x i , entonces el riesgo medio, cuando seasume la presencia de una sola señal de información en el intervalo de análisis, toma la forma

Rg (x i ) =Erg (x i )=N∑

n=1

rg (x i )p (x i ) =

N∑

n=1

N∑

n=1

c i j p (x i )p (x j |x i )

Teniendo en cuenta (4.15) y (4.16) se obtiene

Rg (x i ) =

N∑

n=1

N∑

n=1

c i j p (x i )

∫D j p (y |x i )d y (4.17)

El método de detección se considera óptimo, de acuerdo al criterio de riesgo medio, cuandoel valor de (4.17) se hace mínimo, cuyas variables de optimización son las características delas señales, en particular la estructura y parámetros de los operadores de transformación delas señales mismas, que conforman las fronteras de los respectivos subespacios de toma dedecisión.

Detección binaria

Sea una observación, y (t ), que corresponde al modelo (4.14), la cual se representa por una suce-sión de valores y [n ], n = 0, . . . ,N − 1, que corresponde a un vector,y, con dimensión N . Sean lashipótesis H0 y H1, conformadas para los casos de aparición de las señales x0 y x1, respectiva-mente, con lo cual se pueden tener los siguientes resultados de decisión:

1. Se acepta H0 y H0 es cierta, entonces se asigna el costo de decisión c00

2. Se acepta H1, pero H1 es cierta, c10

3. Se acepta H1 y H1 es cierta, c11

4. Se acepta H0, pero H1 es cierta, c01

Las decisiones 1 y 3 son correctas, mientras las decisiones 2 y 4 resultan incorrectas y generanel correspondiente error.

176 Capítulo 4. Fidelidad y detección de señales

Definidas las probabilidades a priori P0 y P1, que corresponden a la probabilidad de apariciónde las señales x0 y x1, respectivamente, el riesgo medio (4.17) resulta en

Rg = c00p (x0)p (x0 |x0)+ c10p (x0)p (x1 |x0)+ c11p (x1)p (x1 |x1)+ c01p (x1)p (x0 |x1) (4.18)

El valor de la función de costos se define de tal manera que, los coeficientes de error seanmayores que cero, c10 > 0,c01 > 0, mientras para los coeficientes de decisión acertada se tenga,c00 ≤ 0,c11 ≤ 0, con lo cual se cumple que,

c10 > c00,c01 > c11 (4.19)

La función de decisión consiste en la conformación, a partir del espacio total de decisión ydada la función de transformación del espacio de observaciones, D = g (y ), para los subespaciosde decisión D0 y D1, que corresponden a las respectivas hipótesis: H0 y H1.

Como antes se dijo, la regla de decisión óptima consiste en la determinación de la fronteraγ, que minimice el riesgo medio (4.17). Por cuanto, para el subespacio Di , i = 0,1, se toma lahipótesis Hi , entonces

p (x0|x0) =

D0

p (y |x0)d y (4.20a)

p (x1|x0) =

D1

p (y |x0)d y (4.20b)

p (x1|x1) =

D1

p (y |x1)d y (4.20c)

p (x0|x1) =

D0

p (y |x1)d y (4.20d)

donde p (y |x0) y p (y |x1) son la FDP condicionales de aparición de la trayectoria y (t ), cuando seasume la presencia de las señales de información, x0 y x1, respectivamente.

Las integrales de ambas FDP, tomadas por los respectivos subespacios de decisión, D0 y D1,determinan la validez de las correspondientes hipótesis, H0 y H1. Reemplazando en (4.18), lasexpresiones (4.18) y (4.20d), se obtiene el valor de riesgo

R = c00p (x0)

D0

p (y |x0)d y + c10p (x0)

D1

p (y |x0)d y

+ c11p (x1)

D1

p (y |x1)d y + c01p (x1)

D0

p (y |x1)d y

4.2. Métodos de detección de modulación digital 177

Las relaciones (4.15) y (4.16) son complementarias, en el sentido en que,

D1

p (y |x i )d y = 1−∫

D0

p (y |x i )d y , i = 0,1

luego, el riesgo se expresa en función de un solo subespacio de decisión, por ejemplo, D0,

R = p (x0)c10+p (x0)c11

+

D0

p (x1) (c01− c11)p (y |x1)−

p (x0)(c10− c00

p (y |x0)

d y (4.21)

Los dos primeros términos en (4.21) corresponden a los valores fijos de pérdida, que no de-penden de la selección de las fronteras del subespacio de decisión D0. Por lo tanto, la mini-mización del riesgo R significa configurar el subespacio D0, de tal manera que se incluyan úni-camente los valores negativos (valores de pérdida) de la integral en la expresión (4.21), esto es,de la condición:

p (x1) (c01− c11)p (y |x1)−p (x0) (c10− c00)p (y |x0)< 0

que se puede escribir en la forma

p (y |x1)

p (y |x2)<

p (x0)(c10− c00)

p (x1)(c01− c11)

De lo anterior, la función de decisión toma la forma

p (y |x1)

p (y |x2)

H1><

H0

p (x0)(c10− c00)

p (x1)(c01− c11)= γ (4.22)

La parte derecha de la expresión (4.22) es la función de verosimilitud,

Λ(y )∆=

p (x0) (c10− c00)

p (x1) (c01− c11)(4.23)

que implica en (4.22) que es más verosímil la hipótesis con la mayor FDP a posteriori, para unatrayectoria dada de y (t ).

La parte derecha de (4.22) corresponde a un valor fijo γ, calculado a partir de la relación entrelas probabilidades de aparición de las señales x0 y x1 y los respectivos costos de decisión, quese determina como

γ=p (x0) (c10− c00)

p (x1) (c01− c11)

En general, el riesgo medio es uno de los criterios de decisión más generalizados, pero su em-pleo implica una gran cantidad de información sobre los procesos de análisis, que en la prácticano siempre está disponible.

178 Capítulo 4. Fidelidad y detección de señales

Detección del observador ideal

Sean los coeficientes de la función de costos iguales y definidos de la forma:

c i j =

(0, i = j

1, i 6= j

con lo cual se asume que todos los errores de decisión conllevan a un mismo costo y, por lotanto, el riesgo medio corresponde a la probabilidad total de aparición del error

R = Pe =

N∑

i=1

N∑

j=1j 6=i

p (x i )

D j

p (y |x i )d y (4.24)

El criterio (4.24) determina el mínimo valor medio de errores, mientras la probabilidad dedetección correcta sea la máxima, que se alcanza cuando la decisión de que la señal detectadapertenece al subespacio Di , cumple la condición,

p (y |x i )p (x i )> p (y |x j )p (x j ), ∀j 6= i (4.25)

En esencia, dadas las N − 1 condiciones (4.25), se tiene la siguiente regla de detección:

maxj

¦p (x j )p (y |x i )

©= p (x i )p (y |x i ) (4.26)

esto es, la decisión sobre cuál fue la señal detectada recae en aquella que tenga la máxima FDPa priori.

Detección del máximo de probabilidad a posteriori

Debido a que p (x i )p (y |x i ) = p (x i |y )p (y ), donde p (x i |y ) es la FDP a posteriori de que se tienela señal x i , cuando se mide la observación y , mientras, p (y ) es la densidad marginal de la señalmedida, entonces, en concordancia con el teorema de Bayes, se tiene,

p (x i |y ) =p (x i )p (y |x i )

N∑i=1

p (x i )p (y |x i )

(4.27)

luego, el algoritmo de detección óptimo, en este caso, tiene la forma

maxj

p (x i |y )

= p (x i |y ) (4.28)

La comparación de los algoritmos (4.26) y (4.28) muestra que ambos conllevan a la mismadecisión óptima, y por lo tanto, los correspondientes criterios son equivalentes. Además, ambosexigen la misma información a priori del proceso en análisis.

Detección minimax

En caso de desconocer las probabilidades a priori de aparición de las señales, el riesgo (4.17) sepuede calcular sobre la peor densidad de probabilidad, p (x i ), i = 1, . . . ,N , que se asume de tal

4.2. Métodos de detección de modulación digital 179

manera que se obtenga el mayor valor del riesgo medio, luego,

R =minD j

maxp (x i )

N∑

i=1

N∑

j=1

c i j p (x i )

D j

p (z |x i )d z

Detección de Neymann–Pearson

Existen casos en los cuales se tiene una clara asimetría en las pérdidas de decisión. En el casoparticular de la detección binaria, el criterio minimiza uno de los dos tipos de error (1 ó 2).

En la práctica, tiene sentido brindar la mínima probabilidad de error del tipo 1,

p (x0 |x1) =

D0

p (y |x1)d y

para un valor dado probabilidad de error tipo 2,

p (x1 |x0) =

D1

p (y |x0)d y

con lo cual, el algoritmo de detección (4.28), para el caso de detección binaria, se simplificasignificativamente hasta la expresión p (x1 |y ) > p (x0 |y ), que al tomar en cuenta (4.27) puededescribirse de cualquiera de las siguientes dos formas:

p (x1)p (y |x1)> p (x0)p (y |x0)

p (y |x1)/p (y |x0)> p (x0)/p (x1)

Esto es, Λ(y ) = γ, donde γ = p (x0)/p (x1). El umbral γ no es conocido, pero se escoge a partirde un valor asumido para el error α2 del tipo 2. Ambas FDP de error se expresan en función dela relación de verosimilitud, haciendo el cambio de variables, y →Λ,

p (y |x1)d y = p (Λ|x1)dΛ, p (y |x0)d y = p (Λ|x0)dΛ

En este caso, el espacio de decisión D se transforma en un eje de valores, Λ, en el cual el valorγ corresponde a la frontera entre los espacios de decisión, por lo tanto,

p (x0 |x1) =

D0

p (y |x1)d y =

γ∫

0

p (Λ|x1)dΛ

p (x1 |x0) =

D1

p (y |x0)d y =

∞∫

γ

p (Λ|x0)dΛ

El valor γ, entonces, se puede determinar dada la condición∫∞γ

p (Λ|x0)dΛ=α2. Como resul-

180 Capítulo 4. Fidelidad y detección de señales

tado, el detector óptimo por Neymann-Pearson realiza el algoritmo

Λ> γ (4.29)

Si la condición (4.29) es cierta, entonces, el algoritmo asume la detección concreta de x1(t ).

Detección por medidas de información

En este caso, el criterio analiza la cantidad de información en la detección mediante la medida(5.2), que relaciona la información mutua de una señal dada con respecto a las demás, y divididasobre su entropía, (5.3). En el caso binario, se escoge la señal con mayor relación,

R = I (x j ,x i )/H (x i ) = 1−H (x i |x j )/H (x i ), i 6= j , i , j = 0,1

Cabe anotar que, dados dos sucesos con probabilidades respectivas p1 y p2, la mayor entropíase obtiene para p1 = p2:

H (x1|x0) =−

p1 lnp1+

1−p1

ln

1−p1

En la práctica, el criterio de detección informativo conlleva a los mismos resultados que loscriterios (4.26) y (4.27).

4.2.3. Detección de máxima verosimilitud

Cuando en el algoritmo (4.26), se asume la FDP uniforme para todas las señales, p (x j ) = 1/N ,entonces el criterio se expresa solamente en términos de la función de verosimilitud,

p (y |x i ) =maxjp (y |x j ) (4.30)

El criterio de detección (4.30) ha obtenido mayor aceptación debido a la simplicidad relativade implementación, que exige espacios de observación no muy grandes.

De otra parte, teniendo en cuenta (4.22) el criterio de Bayes se puede expresar en términosdel criterio de máxima verosimilitud

Λ(y )H1><

H0

γ (4.31)

Los valores de las densidades a priori y de los costos influyen solamente en el cálculo del um-bral, mas no en la estructura del algoritmo, que se basa en la estimación de Λ(y ). En este sentidola sintonización de los valores de los costos y probabilidades de generación de las señales, quefrecuentemente se hace de forma heurística, no influye en la forma de toma de decisión, y másbien ocurre la sintonización fina de la ubicación del umbral.

Debido a que ambas partes de la igualdad (4.31) son positivas, entonces en vez de tomar di-rectamente la relación de verosimilitud, se emplea su logaritmo, que es una función monótona.Así, el criterio (4.31) toma la forma

lnΛ(y )H1><

H0

lnγ (4.32)

que es adecuada, debido a que en la práctica la mayoría de FDP p (y |x i ) son exponenciales.

4.3. Recepción óptima coherente de señales digitales 181

4.3. Recepción óptima coherente de señales digitales

4.3.1. Receptor óptimo potencial binario

Sea el modelo de un canal Gaussiano, dado en concordancia con el principio de detección(4.14), que para el caso de transmisión digital de señales moduladas tiene la siguiente forma:

z (t ) = y (d i , t )+η(t ), t ∈ T (4.33)

donde y (d i , t ) contiene la información útil, representada mediante el alfabeto digital a prioridefinido, d∈ d i : i = 1, . . . ,N − 1, N = 2n , n ∈Z+.

El modelo del canal (4.33) incluye además las siguientes restricciones:

– en cada momento del tiempo, t ∈ T, (siendo T la longitud de cada símbolo) se asume lapresencia de uno y solamente un símbolo informativo,

– las propiedades estadísticas, que describen la generación de la fuente informativa d, seasumen conocidas,

– el ancho de banda espectral de la señal modulada es finito e igual a∆f , además, densidadespectral de potencia del ruido blanco es N0.

El algoritmo de recepción óptima de señales digitales corresponde a desarrollar el detector(la regla de toma de decisión) que provea la calidad óptima de recepción, esto es, la mejorforma de recuperar el contenido de los símbolos informativos. En la práctica, por cuanto elcriterio de detección (4.30) ha obtenido mayor aceptación (debido a la simplicidad relativa deimplementación), usualmente se desarrolla el criterio de máxima verosimilitud para la recep-ción óptima de las señales y (d 0, t ) y y (d 1, t ), afectadas por el ruido blanco Gaussiano η(t ) conparámetros N (0,σn ).

Sea la trayectoria del ruido η(t ) que se discretiza, con un periodo de muestreo∆t = 1/2∆f , yconforma la sucesión ηi : i = 1,m, en el cual se considera que todos sus valores son variablesaleatorias independientes. Por lo tanto, la correspondiente FDP de dimensión múltiple Gaus-siana se puede representar en la forma,

Pη(η1,η2, · · · ,ηm ) =1

(2πσ2η)

m/2

m∏

k=1

exp−η2

k/2σ2η

=1

(2πσ2η)

m/2exp

− 1

2σ2η

m∑

k=1

η2k

!

donde m = T /∆t = 2T∆f , siendo T el intervalo de análisis para la detección, y σ2η = N0∆f es

la varianza del ruido.

La FDP condicional p (y |d i ) de registro de la trayectoria, con respecto al modelo (4.33), corres-ponde a la densidad de probabilidad, Pη(z (t ) − y (d i , t )), dada para la observación del ruidoη(t ) = z (t )− y (d i , t ), de la cual se genera la sucesión de valores discretizados,

η(tk ) = z (tk )− y (d i , tk ) =∆z i [k ]

182 Capítulo 4. Fidelidad y detección de señales

cuya notaciones, para efectos de simplicidad se cambian como:

∆z i [k ]¬z [k ]− y [d i ,k ]

y que le corresponde la FDP con dimensión múltiple de la forma

p (z |d i ) = Pη(∆z i [1], · · · ,∆z i [m ]) =1

(2πσ2η)

m/2exp

− 1

2σ2η

m∑

k=1

∆z 2i [k ]

!

En forma concreta, asumiendo que la transmisión ocurre para un alfabeto binario, N = 2,cuando d∈ d 0,d 1, entonces, la relación de verosimilitud, (4.23), tiene la forma

Λ(z ) =Pη(z −d 1)

Pη(z −d 0)= exp

− 1

2σ2η

m∑

k=1

(∆z 21[k ]−∆z 2

0[k ])

!

= exp

− 1

N0

m∑

k=1

(z [k ]− y [d 1,k ])2− (z [k ]− y [d 0,k ])2

∆t

!(4.34)

donde la densidad espectral de potencia del ruido se expresa como N0 =σ2η/∆f = 2σ2

η∆t .Teniendo en cuenta (4.34), el criterio de detección (4.32), toma la forma

lnΛ(z ) =− 1

N0

m∑

k=1

(z [k ]− y [d 1,k ])2− (z [k ]− y [d 0,k ])2

∆t

H1><

H0

lnγ

asumiendo que el ancho de banda ∆f es suficientemente grande y, por lo tanto, ∆t → 0, en-tonces la sumatoria anterior se reemplaza por la operación de integración,

− 1

N0

T∫

0

(z (t )− y (d 1, t ))2− (z (t )− y (d 0, t ))2

d t

H1><

H0

lnγ (4.35)

Al comparar la parte izquierda de la expresión (4.35) con (1.13), se observa que en la detecciónde una señal inmersa en ruido blanco Gaussiano, el criterio de Bayes corresponde a la compara-ción de distancias en el espacio de señales entre la observación de la señal recibida z (t ) y cadauna de las señales de información y (d 0, t ) y y (d 1, t ) (con precisión hasta la constante 1/N0):

−‖z − y (d i )‖H1><

H0

lnγ, i ∈ 0,1

Fijar la función de costo con pesos variables es una tarea sumamente difícil, por lo que enla práctica se asumen los pesos dados en (4.19), que implican condiciones simples de imple-mentación. Adicionalmente, los sistemas de transmisión suelen ser simétricos en cuanto a laspropiedades de las fuentes de generación informativa, esto es, P(d i ) = P(d j ) = 1/N , ∀i 6= j , conlo cual γ= 1 y lnγ= 0, luego la regla de decisión del detector binario (4.34), se simplifica hasta:

T

(z (t )− y (d 1, t ))2− (z (t )− y (d 0, t ))2

d t

H0><

H1

0 (4.36)

4.3. Recepción óptima coherente de señales digitales 183

-

-

- -

- -

-

-

@@ --

?

6

— (·)2∫ k T

(k−1)T

— (·)2∫ k T

(k−1)T

Toma de

decisión al decodificador

z (t ) d k

Gd 1

d 0

G

Figura 4.4: Diagrama del receptor óptimo potencial

La expresión (4.36) determina las sucesión de operaciones o algoritmo de trabajo necesariopara implementar el receptor óptimo digital binario, dada la señal recibida z (t ). La Figura 4.4muestra el diagrama del respectivo algoritmo, en el cual se notan los dispositivos de resta (−−),los elevadores al cuadrado ((·)2), los integradores (

∫) y los respectivos generadores G de símbo-

los informativos (d 0 y d 1). Cabe anotar, que el dispositivo de integración trabaja por intervalosde T sobre cada señal. De la misma manera, el dispositivo de toma de decisión permanece des-conectado y solo se cierra cada T segundos, cuando se ha finalizado el análisis de la señal.

Realmente, el dispositivo que implementa el receptor óptimo digital binario de la Figura 4.4 sepuede generalizar a alfabetos N de mayor orden, tan sólo agregando paralelamente más brazosde proceso hasta completar el número total de elementos informativos de transmisión.

Cabe anotar que el algoritmo de trabajo (4.36) se puede expresa en términos de comparaciónentre las respectivas distancias Euclídeas:

‖z − y (d 1)‖H0><

H1

‖z − y (d 0)‖

la cual, para cualquier alfabeto, N , el receptor óptimo digital se generaliza como

ed →min∀i‖z − y (d i )‖, i ∈ 0, . . . ,N − 1

esto es, durante el intervalo de transmisión t ∈ [t −k T, t − (k −1)T ], la decisión sobre el respec-tivo símbolo enviado, d k , se toma para aquel que tenga la menor divergencia, en el sentido delerror cuadrático medio, con la respectiva señal de referencia.

184 Capítulo 4. Fidelidad y detección de señales

4.3.2. Receptor de correlación óptimo potencial binario

La presencia de elementos no lineales de proceso en el algoritmo de trabajo de la Figura4.4, en particular, de los dispositivos elevadores al cuadrado, implica dificultades en su imple-mentación. Una forma de evitar estos dispositivos, se obtiene desarrollando el algoritmo de tra-bajo (4.36) que no contenga tales elementos de proceso. Así, a partir de la siguiente desigualdadpara el caso del detector binario (4.34),

T

(z (t )− y (d 1, t ))2d tH0><

H1

T

(z (t )− y (d 0, t ))2d t , ∀t ∈ T

al abrir los paréntesis dentro del integral y suprimiendo en ambos lados de la desigualdad eltérmino

∫T

z 2d t se llega a la siguiente versión de algoritmo de trabajo:

T

z (t )y (d 0, t )d t − 0.5E0

H0><

H1

T

z (t )y (d 1, t )d t − 0.5E1, E i =

T

y (d i , t )2d t ∀t ∈ T (4.37)

donde E i = ‖d i ‖ es la energía de cada símbolo informativo.El diagrama del respectivo algoritmo de trabajo para la última expresión se muestra en la

Figura 4.5, en el cual los dispositivos de multiplicación de notan mediante×. El primer términode cada lado de las desigualdad corresponde al producto escalar, con lo cual la última expresiónse puede escribir como

⟨z ,d 0⟩− 0.5‖d 0‖H0><

H1

⟨z ,d 1⟩− 0.5‖d 1‖

cuya generalización para alfabetos N , compuestos por símbolos informativos con igual energía‖d i ‖ = ‖d j ‖, i 6= j , i , j = 0, . . . ,N − 1, implica que el receptor óptimo digital se rige por el si-guiente algoritmo de trabajo:

ed →max∀i⟨z ,d i ⟩, i ∈ 0, . . . ,N − 1 (4.38)

esto es, durante un intervalo de transmisión, la decisión sobre el respectivo símbolo enviado, d ,se toma sobre aquel que tenga el mayor parecido con la respectiva señal de referencia.

El principio de trabajo del algoritmo (4.38) se mantiene para el caso de alfabetos con símbolosinformativos de diferente energía ‖d i ‖ 6= ‖d j ‖, i 6= j ; propiedad que se puede observar, de formamás simple, en el caso binario. En particular, el algoritmo de trabajo (4.37) se puede representaren forma sencilla como:

T

z (t )y (∆d , t )d tH0><

H1

∆E (4.39)

donde y (∆d , t ) = y (d 1, t )−y (d 0, t ), que se puede entender como la señal de diferencia, mientras∆E = (E1 − E0)/2 es el umbral de decisión. A propósito, cuando ‖d i ‖ = ‖d j ‖, i 6= j , entonces∆E = 0, de lo cual se observa la semejanza entre el anterior algoritmo de trabajo (4.37) con laregla de decisión (4.38).

4.3. Recepción óptima coherente de señales digitales 185

∫ k T

(k−1)T—×

∫ k T

(k−1)T—×

-

-

- -

- -

-

-

@@ --

?

6

?

6

Toma de

decisión al decodificador

z (t ) d k

Gd 1

d 0

G

E1/2

E0/2

Figura 4.5: Diagrama del receptor de correlación óptimo potencial binario

Ejemplo 4.2 Sea el sistema de transmisión binario de banda base provistode los símbolos informativosy (d 1, t ) = a , y (d 0, t ) = 0. Hallar la diferencia contra otro sistema de transmisión de radiofrecuencia conalfabetoy (d 1, t ) = a cos(ωc t +φ), y (d 0, t ) = 0, en cuanto a sus respectivos algoritmos de trabajo.

Para el primero de los sistemas se cumple que:y (∆d , t )= a , E1 = a 2T, E0 = 0, luego∆E = a 2T /2. Porlo tanto, el algoritmo de trabajo(4.39) tiene la forma:

T

z (t )d tH0><

H1

a T/2

En el segundo caso, ocurre quey (∆d , t ) = a cos(ωc t +φ) = y (d 1, t ), E1 = a 2/2, E0 = 0, por lo tantoresulta que∆E = a 2T /4, con lo cual se tiene

T

z (t )cos(ωc t +φ)d tH0><

H1

a T /4

La Figura 4.6 contiene ambos diagramas del receptor óptimo de los casos analizados en este ejemplo.En los casos, tanto el filtro pasabajos (FPB) como el detectorde umbral son necesario, mientras el circuitoencerrado con líneas punteadas, que corresponde a demodulador de portadora, es válido sólo para el caso delsegundo alfabeto, cuando se tienen símbolos modulados.

Cabe anotar, que el diagrama 4.6 también se puede emplear para el caso de modulación binaria BPSK,cuandoy (d 1, t ) = a cos(ωc t ), y (d 0, t ) = a cos(ωc t +π). En tal caso, simplemente se ajusta el umbral alvalor de∆E = 0.

4.3.3. Fidelidad de detección óptima binaria

La fidelidad del receptor óptimo, en cualquiera de las variedades antes discutidas, regido porel algoritmo de trabajo (4.36) supone el modelo de un canal Gaussiano, (4.33), cuando en elreceptor, en un instante dado del tiempo, puede aparecer solamente uno de los dos posibleselementos del alfabeto digital, d 0,d 1, que se asumen son generados por la fuente en formaequiprobable. La señal recibida, z (t ), se considera aleatoria, primero, porque de antemano no

186 Capítulo 4. Fidelidad y detección de señales

- - -

6 66

- -

6T ∆E

Al decodificador

ed k

FPBDetector

umbralde×

G

z (t )

T

Figura 4.6: Diagrama conjunto del receptor óptimo binario

es conocida la realización del mensaje transmitido, segundo, por la presencia del ruido, η(t ).

Cuando el símbolo enviado es d 1, dado el momento del tiempo t ∈ T , entonces, en concor-dancia con el algoritmo de trabajo del receptor (4.39), se debe cumplir la desigualdad:

T

z (t )(y (d 1, t )− y (d 0, t ))d t > (E1− E0)/2 (4.40)

de otra manera, el receptor toma la decisión de que ha sido enviado el símbolo alterno d 0. Elenvío del símbolo d 1 implica que en la señal recibida, z (t ) = y (d 1, t )+η(t ), la presencia del ruidopuede generar el error en la determinación del símbolo enviado, P(d 0|d 1), la cual se termina porla probabilidad en el no cumplimiento de la desigualdad (4.40), esto es, en la probabilidad deque se cumpla la siguiente desigualdad:

T

y (d 1, t )(y (d 1, t )− y (d 0, t ))d t +

T

η(t )(y (d 1, t )− y (d 0, t ))d t < 0.5

T

(y 2(d 1, t )− y 2(d 0, t ))d t

la cual se puede reagrupar en los siguientes términos:

T

η(t )(y (d 1, t )− y (d 0, t ))d t <−0.5

T

(y (d 1, t )− y (d 0, t ))2d t

A una relación similar se llega, cuando se asume que el símbolo enviado es d 0. Por lo tanto, enambos casos la probabilidad de error es igual: P(d 0|d 1) = P(d 1|d 0) = Pe , que implica la simetríadel canal de transmisión.

Al analizar en detalle la última desigualdad, se observa que el término de la izquierda con-tiene el ruido, η(t ), con lo cual se convierte en una variable aleatoria, mientras el término dela derecha es determinístico y debe corresponder a un escalar (en esencia, es el umbral de de-cisión). Por lo tanto, la desigualdad se puede escribir en la forma:

ξ<−0.5E∆ (4.41)

donde ξ=∫

Tη(t )y (∆d , t )d t , E∆ =

∫T

y 2(∆d , t )d t , y (∆d , t )d t = y (d 1, t )− y (d 0, t ).

El modelo de canal Gaussiano impone la distribución normal del ruido η(t ), con valor medioigual a cero, esto es, N (0,ση ). Por cuanto, la variable ξ corresponde a la transformación linealdel ruido, mediante la operación simple de integración, entonces, se debe asumir que la misma

4.3. Recepción óptima coherente de señales digitales 187

tiene también densidad de probabilidad Gaussiana con valor medio:

Eξ=∫

T

Eη(t )y (∆d , t )d t = 0

y varianza igual a

σ2ξ =Eη2(t )=

T

T

Eη(t1)η(t2)y (∆d , t1)y (∆d , t2)d t1d t2

la cual, teniendo en cuenta el ejemplo (3.10), resulta en el valor σ2ξ = 0.5N0E∆.

La probabilidad de error del receptor óptimo binario, Pe , como antes se dijo, está dada por laprobabilidad de cumplimiento de la desigualdad (4.41), esto es,

Pe =

∫ −0.5E∆

−∞p (ξ)dξ=

∫ −0.5E∆

−∞N (0,0.5N0 E∆ )dξ

=

∫ ∞

α

N (0,1 )dζ (4.42)

donde ζ=−ξ/σξ, mientras α= 0.5E∆/σξ =p

E∆/2N0.La probabilidad de error, Pe , en (4.42), se puede calcular mediante la siguiente expresión:

Pe = 0.5(1−Φp

E∆/2N0)

donde Φx = 2p2π

∫ x

0exp(−ζ2/2)dζ, que es una función integral del tipo monótona creciente

con valores extremos Φ0= 0 y Φ∞= 1.Dada la densidad espectral de potencia para el ruido Gaussiano, presente en un canal de

transmisión binario simétrico, entonces la probabilidad de trocarse cada uno de los símbo-los del mensaje a la salida del receptor, básicamente, depende de diferencia energética de lasseñales: E∆ = ‖y (d 1, t )− y (d 0, t )‖22. La fidelidad es mayor (la probabilidad de error es menor)entre más grande sea la distancia energética de las señales, sin tener en cuenta la forma de lasmismas.

El cálculo de la fidelidad del detector óptimo binario se puede realizar para el caso de análi-sis de los formatos básicos de modulación digital, conformados por los siguientes señales detransmisión:

1. ASK: y (d 0, t ) = 0, y (d 1, t ) = a cos(ωc t ), tal que ‖y (d 1, t )‖2 = E .

Por lo tanto, E∆ = ‖y (d 1, t )− y (d 0, t )‖2 = E .

2. FSK (formato ortogonal): y (d 0, t ) = a cos(ω1t ), y (d 1, t ) = a cos(ω2t ), donde se tiene que‖y (d 1, t )‖2 = ‖y (d 1, t )‖2 = E .

Por lo tanto, E∆ = ‖E − j E‖2 =p

2E .

3. PSK: y (d 0, t ) = a cos(ωc t ), y (d 1, t ) =−a cos(ωc t ), con ‖y (d 1, t )‖2 = ‖y (d 1, t )‖2 = E .

Por lo tanto, E∆ = ‖E + E‖2 = 2E .

188 Capítulo 4. Fidelidad y detección de señales

Esto es, el mayor valor de fidelidad corresponde al formato bipolar de BPSK, que en dos ve-ces (3 dB) supera el valor de distancia energética con respecto al formato de FSK, que a su veztambién tiene una diferencia de 3 dB en la distancia energética contra el formato de ASK, queresulta tener la peor fidelidad entre las señales consideradas de modulación.

Se puede demostrar que el máximo valor de E∆, para obtener la menor probabilidad de error,se obtiene cuando y (d 1, t ) = −y (d 0, t ); en otras palabras cuando los símbolos son antípodos,que corresponde justo a la modulación bipolar BPSK, por lo que la fidelidad obtenida en estecaso se dice que es la del receptor óptimo potencial binario.

Problemas

5. Desarrollar el algoritmo de detección, dado el RBG con valor medio cero y matriz de corre-

lación R, para el proceso aleatorio descrito en la forma:

y (t ,ϑ) =m∑

k=1

ϑk xk (t ) =ϑx(t )

donde xxx (t ) = xk (t ) : k = 1, . . . ,m es un sistema dado de funciones determinísticas linealmenteindependientes, ϑϑϑ = ϑk : k = 1, . . . ,m es el vector de parámetros aleatorios con FDP conocidapk (ϑϑϑ). La hipótesis H0 consiste en que la trayectoria ξ= (x1,x2, . . . ,xN ) corresponde solo al rui-do, mientras, la hipótesis alternativa H1 corresponde a la presencia del proceso aleatorio masRBG. Hallar la relación de verosimilitud.

5Teoría de la información

5.1. Fuentes de información

5.1.1. Medida de la información

La teoría de la información estudia el modo de describir y transmitir un mensaje y correspondea un conjunto de elementos de percepción que se dirigen a los sentidos y determinan nuestrasreacciones y nuestro estado interior. Estos elementos de percepción pueden ser signos natu-rales o artificiales, o simplemente, símbolos que traducen esos signos. Los signos han de serconvencionales, mientras su significado se establece a priori mediante un código. Esto es, latransmisión de la información se desarrolla a través de los códigos. Por cierto, la informacióncontenida en cada uno de los elementos del código transmitido, se mide teniendo en cuentasu grado de incertidumbre. En concordancia con la definición 2.1 sobre modulación dada en elCapítulo §2, la codificación adapta la fuente y el canal de tal manera que se asegure la máximaconfiabilidad en la transferencia de información, en forma análoga al acople analizado para lamáxima transferencia de energética.

Una fuente de información responde a un modelo de una entidad física que produce unasucesión de símbolos o salidas de forma aleatoria. Los símbolos generados pueden ser númerosreales tales como mediciones de un voltaje empleando un transductor, números binarios comoen el caso de un computador, campos bidimensionales de intensidad como en una secuenciade imágenes, formas de onda continua o discontinua, etc. El espacio que contiene todos losposibles símbolos de salida se denomina alfabeto de la fuente.

En el contexto de la comunicación, la información es simplemente el bien producido por lafuente para ser transferido a algún usuario en el destino: Este hecho implica que la informaciónno estaba previamente disponible en el destino; de lo contrario, la medida asumida de informa-tividad en la transferencia sería cero.

Sea, por ejemplo, el siguiente conjunto de eventos en una predicción meteorológica: a), sal-drá el sol, b) habrá tormentas dispersas, c)ocurrirá un tornado . El primer mensaje no llevaefectivamente ninguna información, ya que se está casi seguro por adelantado que el sol saldrá.No obstante, la predicción de lluvia proporciona información que no estaba disponible previa-mente. El tercer pronóstico contiene mucha más información, en la medida en que los torna-

189

190 Capítulo 5. Teoría de la información

dos son eventos poco frecuentes e inesperados. El anterior listado se ha dispuesto en orden deprobabilidad decreciente de cada uno de los eventos. Mientras menos posible sea el mensaje,se asumirá que mayor información contendrá el respectivo contenido. Dicho de otra manera,la medida de información debe estar relacionada con la incertidumbre que tiene el usuario conrespecto al contenido del mensaje, que a propósito se mide en conjunto con todas las variantesde contenidos posibles.

Sin tener en cuenta algún aspecto subjetivo de la fuente o el usuario, entonces, la medidade la información involucra la probabilidad de ocurrencia de un mensaje. Sea x i un mensajearbitrario y P(x i ) = pi la probabilidad de que el evento x i se seleccione para la transmisión,luego, la cantidad de información asociada con x i debe ser alguna función de pi .

La medida de información debe cumplir las siguientes propiedades:

1. la información debe ser estrictamente positiva, I i ∈R+,

2. I i = 0 si y solo si Pi = 0,1, esto es, no hay ninguna incertidumbre,

3. la medida deber ser aditiva, I i > I j ,∀pi < p j , que implica que la información crece cuan-do la incertidumbre también aumenta. De modo que la información total es igual a lasuma de las contribuciones de ambos mensajes individuales.

Definición 5.1 En concordancia con las anteriores exigencias, Shannon definió la medida de lainformación de mediante la siguiente función logarítmica:

I i ¬− logb pi = logb1

pi(5.1)

donde b es la base logarítmica. La cantidad I i se denomina la información propia del mensaje x i .El valor de I i depende solamente de pi , sin tomar en cuenta cuál es el contenido real del mensajeo sus posibles interpretaciones.

De (5.1), se infieren las siguientes propiedades:

I i ≥ 0, ∀0≤ pi ≤ 1

I i → 0, ∀pi → 1

I i > I j , ∀pi < p j

Cabe anotar que la propiedad de aditividad de la medida se demuestra, toda vez que parauna fuente que produce dos mensajes sucesivos e independientes, x i y x j , con probabilidadconjunta P(x i ,x j ) = pi Pp j , entonces,

I i j = logb1

pi p j= logb

1

pi+ logb

1

p j= I i + I j

de modo que la información total es igual a la suma de las contribuciones de ambos mensajesindividuales.

La especificación de la base logarítmica b determina la unidad de información. Usualmente,se toma b = 2 y la unidad correspondiente es el bit, (– binary digit), que corresponde a la canti-dad de información necesaria para seleccionar entre dos alternativas igualmente probables.

5.1. Fuentes de información 191

5.1.2. Entropía

Fuente discreta sin memoria. Sea una fuente que emite una sucesión de símbolos, pertene-cientes a un alfabeto finito y a priori definido, F = f 1, f 2, . . . , fq , que se eligen de acuerdocon una ley a priori establecida de probabilidad. El modelo más elemental de fuente asume lacompleta independencia estadística de los símbolos (símbolos sucesivos no dependen de sím-bolos emitidos anteriormente). Tal fuente de información se conoce como fuente sin memo-ria y se describe completamente por su respectivo alfabeto F y las probabilidades de cadasímbolo:p (s i ) : i = 1, . . . ,p (sq ).

Dado un símbolo f i , con probabilidad de observación pi y, por lo tanto, con valor de infor-mación elemental, pi . Entonces, para un número N de observaciones, la información total Iobtenida será: I =

∑Nn=1

N pi

log

1/pn

. De esta manera, la información promedio obtenidaa partir de cada símbolo será:

I /N = (1/N )N∑

n=1

N pn

log

1/pn=

N∑

n=1

pn log

1/pn

Teniendo en cuenta que lımx→0 x log(1/x ) = 0, por conveniencia se define que el valor depn log(1/pn ) sea 0 cuando pn = 0.

Otras medidas de información se determinan por las siguientes relaciones:

– Información propia condicional de la variable xm , conocida la variable aleatoria yn ,

Ixm |yn

=− log p

xm |yn

– Información mutua de dos variables o información de yn con respecto a xm ,

Ixm ;yn

= log p

xm |yn

(5.2)

– Información propia del evento conjuntoxm ,yn

,

Ixm ,yn

=− log p

xm ,yn

– Cantidad media de información presente en xn , como elemento del alfabeto xn ,

I

X ;ym=

N∑

n=1

Ixn ;ym

p

xn |ym=

N∑

n=1

p

xn |ym

logp

xn |ym

p (xn )

– Cantidad media de información mutua sobre los elementos correspondientes a un alfa-beto Y =

ym : m = 1. . . ,M

para un valor determinado de xn ,

I (xn ;Y ) =M∑

m=1

Ixn ;ym

p

ym |xn=

M∑

m=1

p

ym |xn

logp

ym |xn

p

ym

192 Capítulo 5. Teoría de la información

– Valor medio de la cantidad completa de información mutua entre conjuntos (Y ,X ),

I (X ;Y ) =N∑

n=1

M∑

m=1

pxn ,ym

log

pxn |ym

p (xn )

=

M∑

m=1

p

ym

I

X ;ym

Definición 5.2 Sea el alfabeto compuesto por la variable aleatoria discreta X que puede tomarlos valores x i ∈ X con función de probabilidad p (x ) = Pr X = x. Se define la entropía de lavariable, X como medida de la incertidumbre asociada:

I (X ) =EI (xn )=N∑

n=1

p (xn ) I (xn )

=−N∑

n=1

p (xn ) log p (xn )¬H (X ) (5.3)

La entropía es la principal característica de un fuente de información: entre más alto sea elvalor de la entropía mayor es la información contenida por el conjunto X .

La entropía se puede entender como un funcional de la distribución de X , mas no depende delos valores actuales medidos para la respectiva variable aleatoria. Así, considerando una nuevavariable g (X ) = log(1/p (X )) =− log PX = xn, entonces, el respectivo valor esperado será:

Eg (X )=N∑

i=n

g (xn )p (xn ) =

N∑

n=1

− log P X = xnP X = xn,

que implica que la entropía de una distribución de probabilidad corresponde al valor esperadode su información.

Ejemplo 5.1 Desarrollar un programa que simule dos observaciones con longitudN , para las variablesaleatoriasX i ∈ x l : l = 1, . . . , L , i = 1, 2, que permita analizar el comportamiento de sus respectivosvaloresde entropía para los siguientes casos:

– Ambas variables tienen FDP Gaussiana, con valor medio cero. Estimar las entropías para valores derelación de las varianzas:σ2

X1= kσ2

X2, k = 1, . . . , 10.

– La variableX1 tiene FDP Gaussiana, mientras la variableX2 se genera con FDP uniforme; ambas conlos mismos valores medio y de varianza.

En la Figura 5.1(a), se muestran los resultados para el caso de generación de ambas variables gaussianascon mediam1X1 =m1X2 = 0, peroσ2

X1= kσ1

X2. Se observa que la estimación de la entropía converge a un

mismo valor para ambos casos de análisis.La Figura 5.1(b) corresponde al caso de diferentes FDP (gaussiana y uniforme) y muestra que el valor de

la entropía, para dos sucesiones aleatorias con iguales valores medio y de varianza, depende de la estructurade aleatoriedad.

5.1. Fuentes de información 193

2 4 6 8

1.2

1.5

1.6

2

k

H (X i )

(a) Igual FDP (Gaussiana).

2 4 6 8

1.5

2

normaluniforme

k

H (X i )

(b) Diferente FDP.

Figura 5.1: Entropía en función de k =σ2X2/σ2

X1, N = 4096 y L = 8.

5.1.3. Propiedades de la entropía

a). Definida positiva: H (X )≥ 0, en tanto que para la medida (5.3), se cumple que pk ∈R(0,1),y además log(1/pk )∈R(0,1).

b). Aditividad: Sea H (Y |X ) la entropía condicional de los valores del conjunto Y , dado unconjunto de eventos X , entonces, la entropía H (Y ,X ) del conjunto de eventos conjuntosX e Y se define como:

H (Y ,X ) =H (X ) +H (Y |X ) =H (Y )+H (X |Y )

Por cierto, si los conjuntos X e Y son independientes, entonces H (Y |X ) = H (Y ), por lotanto, se cumple que H (Y ,X ) =H (X )+H (Y ).

c). Valor acotado. Si el conjunto de valores X = xn : n = 1, . . . ,N , la máxima entropía con-tenida está acotada por el valor H (X )≤ lg N , donde la igualdad tiene lugar cuando todoslos valores xn son equi–probables e independientes estadísticamente.

Sean dos distribuciones de probabilidad cualquiera p0,p1, . . . ,pK−1 y q0,q1, . . . ,qk−1para el alfabeto dado X de la fuente discreta. Al intercambiar la base del logaritmo (2 anatural), entonces, la entropía se expresa como:

K−1∑

k=0

pk logqk

pk=

1

log 2

K−1∑

k=0

pk lnqk

pk(5.4)

Por cuanto, lnx ≤ x − 1,x ≥ 0 entonces,

K−1∑

k=0

pk logqk

pk≤ 1

log 2

K−1∑

k=0

pk

qk

pk− 1

≤ 1

log 2

K−1∑

k=0

qk −pk

≤ 1

log 2

K−1∑

k=0

qk −K−1∑

k=0

pk

!

= 0

194 Capítulo 5. Teoría de la información

de lo anterior, se deduce la desigualdad∑K−1

k=0 pk log(qk /pk ) ≤ 0, la cual, a propósito,ocurrirá, sí y solo si, pk = qk ,∀k . De hecho, este caso corresponde a un alfabeto con sím-bolos equi–probables, cuando qk = 1/K ,∀k = 0,1, . . . , K − 1, con entropía igual a,

K−1∑

k=0

qk log1

qk= log K

Al reemplazar en (5.4) la entropía de la última expresión, entonces, finalmente se obtiene

K−1∑

k=0

pk log1

pk≤ log K

luego H (X )≤ log K .

Ejemplo 5.2 Demostrar que para dos sucesos con probabilidades respectivas,p1 y p2, la mayor entropíase obtiene parap1 = p2.

Al reemplazar en la definición de entropía(5.3), p2 = 1−p1, se tiene que

H (X ) =−p1 ln p1+p2 ln p2

=−p1 ln p1+

1−p1

ln

1−p1

El máximo valor dep1 se obtiene al diferenciar e igualar a cero la anterior ecuación,

d H

d p1=−

p1

1

p1+ ln p1− ln

1−p1

= 0

Al resolver la ecuación se obtiene quep1 = 0.5, luego,p1 = p2. La Figura 5.2 ilustra el presente ejemplo.

0

0.5

1.0

0 0.5 1.0

H(p)

p

Figura 5.2: Función de entropía binaria H (p )

Extensión de una fuente discreta sin memo-ria. Al considerar bloques (conformadospor n símbolos sucesivos) en lugar de sím-bolos individuales, entonces, la fuente degeneración se asume extendida con alfabetoX n y K n bloques distintos (donde K es elnúmero de símbolos distintos en el alfabetoX de la fuente original). En el caso de unafuente discreta sin memoria, los símbolosde la fuente son estadísticamente indepen-dientes. Por tanto, la probabilidad de un sím-bolo en X n es igual al producto de las proba-bilidades de los n símbolos en X que con-forman dicho símbolo en X n . Entonces, parala entropía de la fuente extendida, H (X n ), secumple que,

H (X n ) = nH (X )

5.1. Fuentes de información 195

Ejemplo 5.3 Sea una fuente discreta sin memoria con alfabetoX = s0, s1, s2 con las respectivas proba-bilidades1/4, 1/4, 1/2. Luego, la entropía de la fuente será

H (X ) = p0 log1

p0+p1 log

1

p1+p2 log

1

p2=

1

4log4+

1

4log 4+

1

2log 2=

3

2bits

Sea la extensión de segundo orden para la fuente, cuyo alfabeto X contiene tres símbolos, tal que elalfabetoX 2 de la fuente extendida tendrá nueve combinaciones, presentadas en la primera fila de la tabla 5.1y notadas porσi : i = 1, . . . , 8. La segunda fila de la tabla muestra la composición de estos nueve bloques entérminos de la secuencia correspondiente de símboloss0, s1 y s2, tomando dos a la vez. Las probabilidadesde los nueve bloques de símbolos de la fuente extendida se representa en la última fila de la tabla. De loanterior se deduce que la entropía de la fuente extendida es:

H (X 2) =

8∑

i=0

p (σi ) log1

p (σi )=

1

16log16+

1

16log 16

1

8log 8

1

16log16

= 3bits

A propósito, se cumple queH (X 2) = 2H (X ).

Símbolos de X 2 σ0 σ1 σ2 σ3 σ4 σ5 σ6 σ7 σ8Secuencias s0s0 s0s1 s0s2 s1s0 s1s1 s1s2 s2s0 s2s1 s2s2

correspondientesProbabilidades p (σi )

116

116

18

116

116

18

18

18

14

Tabla 5.1: Alfabeto de la extensión de segundo orden para una fuente discreta sin memoria

Definición 5.3 (Velocidad de información) Cuando una fuente emite secuencias de n 1 sím-bolos, la información total a transferir se aproxima a nH (X ) bits, que asumiendo una velocidadde generación de r símbolos por [s] en promedio, resulta en un tiempo de duración de n/r . Estoes, la información se transfiere con una tasa promedio nH (X )/(n/r ) = r H (X ) [b/s]. Entonces, sedefine la velocidad de la información de una fuente como:

R ¬ r H (X )b/s (5.5)

En general, la información proveniente de una fuente discreta sin memoria puede ser codifi-cada como dígitos binarios y se transmite por un canal sin ruido con una tasa de señalizaciónrb ≥ R [b/s].

Entropía conjunta y entropía condicional. La definición de entropía se puede extender a unpar de variables aleatorias dadas, con densidad de probabilidad conjunta p (x ,y ), o entropíaconjunta H (X ,Y ) :

H (X ,Y ) =−∑

x∈X

y∈Y

px ,y

log p

x ,y

=−Elogp (X ,Y )

196 Capítulo 5. Teoría de la información

De forma similar, se define la entropía condicional como el valor esperado de la entropía de ladensidad condicional, promediado sobre la variable aleatoria condicional. Esto es :

H (X |Y ) =∑

x∈X

p (x )H (Y |X = x )

=−∑

x∈X

p (x )∑

y∈Y

p

y |x

log p

y |x

=−∑

x∈X

y∈Y

p

x ,y

log p

y |x

=−Elog p (Y |X )

Regla de la cadena: La entropía de un par de variable aleatorias es la entropía de una de lasvariables más la entropía condicional de la otra. Así,

H (X ,Y ) =−∑

x∈X

y∈Y

p

x ,y

log px ,y

=−∑

x∈X

y∈Y

p

x ,y

log p (x )p

y |x

=−∑

x∈X

y∈Y

p

x ,y

log p (x )−∑

x∈X

y∈Y

px ,y

log p

y |x

=−∑

x∈X

p (x ) log p (x )−∑

x∈X

y∈Y

px ,y

log p

y |x

= H (X ) + H (Y |X )

Ejemplo 5.4 Sea la densidad conjunta de(X , Y ) expresada mediante la siguiente tabla:X

Y 1 2 3 41 1/8 1/16 1/32 1/322 1/16 1/8 1/32 1/323 1/16 1/16 1/16 1/164 1/4 1/0 1/0 1/0

La densidad marginal deX es(1/2, 1/4, 1/8, 1/8), mientras la marginal deY es(1/4, 1/4, 1/4, 1/4), porlo tantoH (X ) = 7/4 y H (Y ) = 2. Además,

H (X |Y ) =4∑

i=1

p (Y = i )H (X |Y = i )

= 1/4H (1/2, 1/4, 1/8, 1/8)+1/4H (1/4, 1/2, 1/8, 1/8)

+1/4H (1/4, 1/4, 1/4, 1/4)+1/4H (1, 0, 0, 0)

= 1/4×7/4+1/4×7/4+1/4×2+1/4×0

= 11/8bits

Finalmente, se puede calcularH (Y |X ) = 13/8 y H (X , Y ) = 27/8.

5.1. Fuentes de información 197

Entropía relativa e información mutua. También denominada distancia de Kullback-Liebler,notada como d (p‖q ), es considerada una medida de la distancia entre dos densidades y midequé tan cierto es cuando se asume que una distribución es p (x ), cuando en realidad es q (x ):

d

p‖q=∑

x∈X

p (x ) logp (x )

q (x ),

Cabe anotar, que en la anterior expresión, puede existir algún símbolo x ∈ X tal que p (x ) >0 y q (x ) = 0, entonces, se tienen en cuenta los siguientes valores asintóticos: 0log 0/0 → 0,0log 0/q → 0 y p log p/0 → ∞. Aunque se cumple que el valor de d

p‖q

≥ 0 y es cero si,

solo si p = q , no es estrictamente una distancia entre dos distribuciones, por cuanto que no essimétrica y tampoco satisface la desigualdad triangular.

Por otro lado, la cantidad de información que una variable aleatoria contiene acerca de otrade igual naturaleza se denomina Información Mutua y pondera la reducción en la incertidum-bre de una variable debido al conocimiento de la otra. Sean dos variables aleatorias X y Y confunción de probabilidad conjunta p (x ,y ) y función de probabilidad marginal p (x ) y p (y ), res-pectivamente. La información mutua I (X ;Y ) es la entropía relativa entre la distribución con-junta y el producto de las distribuciones p (x )p (y ):

I (X ,Y ) =∑

x∈X

y∈Y

p

x ,y

logp

x ,y

p (x )p

y

= d

p

x ,y‖p (x )p

y

=Elogp (X ,Y )

p (X )p (Y )

Ejemplo 5.5 SeaX = 0, 1, para la cual se considera el par de distribuciones,p (x ),q (x )∈ X , tales que

p (0) = 1− r , p (1) = r y q (0) = 1− s , q (1) = s

Entonces, se tiene que:

dp‖q

= (1− r ) log

1− r

1− s+ r log

r

s

dq‖p

= (1− s ) log

1− s

1− r+ s log

s

r

Al asumirr = s , entoncesd (p‖q ) = d (q‖p ) = 0. En particular, sear = 1/4 y s = 1/4:

dp‖g

= 1/2log

1/2

3/4+1/2 log

1/2

1/4= 1−1/2 log3= 0.2075bit

dq‖p

= 3/4log

3/4

1/2+1/4 log

1/4

1/2= 3/4 log 3−1= 0.1887bit

En general,d (p‖q ) 6= d (q ||p ).

198 Capítulo 5. Teoría de la información

La relación entre entropía e información mutua se puede expresar con las siguientes relaciones:

I (X ;Y ) =∑

x ,y

p

x ,y

logpx ,y

p (x )p

y

=∑

x ,y

p

x ,y

logpx |y

p (x )

=−∑

x ,y

p

x ,y

log p (x )+∑

x ,y

p

x ,y

log px |y

=−∑

x

p (x ) log p (x )−−

x ,y

px ,y

log p

x |y

=H (X )−H (X |Y ) (5.6)

H (X ) H (Y )

H (X |Y ) H (Y |X )

H (X ,Y )

I (X ;Y )

Figura 5.3: Diagrama de Venn para las medidas deinformación

Por lo tanto, la información mutua I (X ;Y )es la reducción de la incertidumbre sobre X ,debido al conocimiento de Y . Por simetría, setiene que:

I (X ;Y ) =H (Y )−H (Y |X ) (5.7)

esto es, X dice tanto de Y como Y dicede X . Así mismo, H (X ,Y ) = H (X ) +H (Y |X ),entonces I (X ;Y ) = H (X ) + H (Y ) − H (X ,Y ),luego,

I (X ;X ) =H (X )−H (X |X ) =H (X )

que implica que la información mutua de una variable con ella misma es la entropía de dichavariable, motivo por el cual la entropía es referida a veces como la auto-información de unavariable. La Figura 5.3 presenta un diagrama de Venn que ilustra las relaciones entre H (X ), H (Y ),H (X ,Y ), H (X |Y ), H (Y |X ), y I (X ;Y ). Se puede observar que la información mutua I (X ;Y ) corres-ponde a la intersección de la información de X con la información de Y .

Fuente discreta con memoria o fuente de Markov En esta clase de fuentes, la aparición decada símbolo en una fuente no es independiente del anterior, es decir, los símbolos no son es-tadísticamente independientes. El número de símbolos precedentes de los cuales depende laaparición de un nuevo símbolo corresponde al orden de la fuente. Así, en una fuente de Markovde orden M la dependencia de un nuevo símbolo es respecto a los M últimos símbolos genera-dos por la fuente.

Sea una fuente con memoria de orden M = 1 que genera n símbolos x1,x2, . . . ,xn , entoncesse tiene el conjunto de probabilidades condicionales p j i = p (x j |x i ), i , j = 1, . . . ,n, que indicanla probabilidad de que se genere el símbolo x j dado el símbolo x i , siendo x i el último símbologenerado por la fuente. De forma similar, para una fuente con memoria y orden M ∈N+ se tieneel conjunto de probabilidades condicionales:

p (x i |x i−1,x i−2, . . . ,x i−M ) : i = 1, . . . ,n

5.2. Codificación de una fuente 199

Un ejemplo evidente se encuentra en el idioma castellano, para el cual, la probabilidad a pri-ori de aparición de la letra /u / es p (u ) = 0.07, pero si se condiciona su aparición al hecho deque la penúltima letra generada sea la /q/, entonces la respectiva probabilidad condicional deaparición de /u / dada /q/ es p (u |q ) = 1, mientras que por el contrario la probabilidad de /u /,dada /o/, tan solo es p (u |o) = 0.001.

La entropía condicional de fuentes de Markov considera su historia. Sea I j i =− log(p (x j |x i ))

la información producida por el símbolo x j , dado x i , la entropía de la fuente X con memoria es

H (X ) =∑

I

J

p (x j )p (x j |x i ) log1

p (x j |x i )

De la expresión (5.3) para las fuentes sin memoria, es claro que la inclusión de las probabili-dades condicionales reduce la incertidumbre media de las fuentes de Markov, así, dada unafuente X M con memoria de orden M , entonces, H (X M ) < H (X ). En este sentido se define laredundancia ρ, como la diferencia ponderada entre ambas clases de generación e implica quese tienen símbolos que no son realmente necesarios para la transmisión de información:

ρ = 1−H (M )/H (X ) (5.8)

Una fuente sin memoria ofrece ventajas en cuanto a los requerimientos de hardware y soft-ware, pero dado que tiene una mayor entropía requerirá de un mayor ancho de banda comoconsecuencia de una mayor tasa de información. Por el contrario, las fuentes con memoria quedemandan una mayor complejidad en su realización, implican un menor ancho de banda, to-da vez que la tasa de información es menor. Cabe anotar que aunque la redundancia afecta laeficiencia del ancho de banda del canal, su implementación es necesaria para neutralizar losefectos de distorsión provocados por las perturbaciones.

5.2. Codificación de una fuente

Inicialmente se considera una fuente discreta sin memoria que produce n símbolos igualmenteprobables, de modo que la velocidad de información (5.5), es R = r log n y, por lo tanto, todos lossímbolos llevan la misma cantidad de información, con lo cual se podría implementar la trans-misión eficiente mediante un alfabeto de M estados o posiciones con una tasa de señalizaciónigual a la tasa de símbolos r . Pero cuando los símbolos tienen probabilidades diferentes, tal queR = r H (X ) < r log n , la transmisión eficiente requiere de un proceso de transformación de lafuente o codificación que tome en cuenta la cantidad variable de información por símbolo.

5.2.1. Propiedades de los códigos

Fuente Códigoy1 0y2 11y3 00y4 01

Tabla 5.2: Código de bloque no singular

Se define un código de bloque cuando seasigna cada uno de los símbolos del alfabetode la fuente original X a una secuencia fija desímbolos del alfabeto transformado o códi-go Y , mediante la transformaciónK , esto es,K : X 7→ Y . Las secuencia fija y j ∈ Y recibe elnombre de palabras código que correspondeal símbolo x i .

200 Capítulo 5. Teoría de la información

Una restricción natural es que todas las palabras código yi sean diferentes, entonces el códi-go de bloque se denomina no singular. Sin embargo, aún cuando todas las palabras código seandiferentes, es posible encontrar algún caso en que una secuencia dada pueda tener un origenindefinido. La tabla 5.2 muestra un ejemplo de código de bloque no singular, en la cual se ob-serva que en el caso de la secuencia 0011, su transformación podría corresponder a y3y2, perotambién a y1y1y2, que implica enunciar una condición más restrictiva que la no singularidad. Sedebe asegurar que dos secuencias cualquiera de símbolos con la misma longitud den lugar a se-cuencias distintas de símbolos código. Desde luego, también será necesario que dos secuenciasde símbolos de la fuente, incluso de diferente longitud, correspondan a secuencias de símboloscódigo distintos. Finalmente, se dice que código de bloque es unívocamente decodificable, si ysolamente si, su extensión de orden M es no singular para cualquier valor finito de M .

5.2.2. Códigos instantáneos

Fuente Código A Código Bs1 00 0s2 01 10s3 10 110s4 11 1110

Tabla 5.3: Códigos unívocamente decodificables

Fuente Código Cs1 0s2 01s3 011s4 0111

Tabla 5.4: Otro código unívocamente decodificable

En la Tabla 5.3 aparecen dos ejemplos decódigo que son unívocamente decodifica-bles, con sus respectivos símbolos de lafuente. El código A plantea un procedimien-to más sencillo para generar códigos unívo-camente decodificables. Todas sus palabrastienen la misma longitud, y además, es evi-dente que A es no singular.

El código B es unívocamente decodificablepuesto que es no singular, y constituye lo quese denomina un código coma; esto es, en B el0 actúa como una coma que separa una pal-abra de la siguiente. Al observar una secuen-cia de símbolos puede interpretarse la comacomo el lugar donde termina una palabra ycomienza la siguiente.

La capacidad de reconocer una palabra código, inmersa en una secuencia finita de símbolos,es propia de la configuración de los mismos códigos. En realidad esta propiedad está íntima-mente asociada con el concepto de código unívocamente decodificable. La Tabla 5.4 consideraotro ejemplo de código de esta clase. El código C difiere de A y B en un aspecto importante.Si se recibe una secuencia binaria compuesta de palabras del código C no se podría decodi-ficar la secuencia según se vaya recibiendo. Por ejemplo, al tener 01, no hay como asegurar quecorresponde al símbolo s2 hasta que no se tenga recibido el siguiente símbolo. Si ese siguientesímbolo es 0, entonces se infiere que 01 corresponde verdaderamente a s2. Por el contrario, si es1, se debe analizar un símbolo más, antes de poder afirmar que se trata de s3 (001) ó s4 (0111).Este retraso es inherente al proceso de codificación cuando se utiliza el código C ; aspecto queno sucede con los códigos A y B , donde se pueden decodificar las palabras según van llegando.En consecuencia, se dice que un código unívocamente decodificable se denomina instantáneocuando es posible decodificar las palabras de una secuencia, sin necesidad del conocimiento delos símbolos que las suceden. Los códigos A y B del ejemplo son códigos instantáneos. Mientrasel código C , que constituye un ejemplo de código unívoco, no es instantáneo.

Sea X i = x i 1 x i 2 . . . x i m una palabra de un código. Se denominará prefijo de esta palabra a la

5.2. Codificación de una fuente 201

secuencia de símbolos (x i 1 x i 2 . . . x i j ), donde j ≤m . La condición necesaria y suficiente para queun código sea instantáneo, es que ninguna palabra del código coincida con el prefijo de otra.

5.2.3. Código binario

Un codificador binario convierte cada símbolo de la fuente entrante H (x ), en palabras de códi-go, que constan de dígitos binarios producidos con alguna tasa fija rb . Visto desde su salida,el codificador se asimila a una fuente binaria con entropía H (X (2)) y velocidad de informaciónrb H (X (2)) ≤ rb log 2 = rb . Cabe anotar, que la codificación no genera información adicional nidestruye información, siempre que el código sea descifrable en forma única. Entonces, igua-lando las velocidades de información de la entrada y salida del codificador, se concluye queR = r H (X ) = rb H (X (2))≤ rb ó rb/r ≥H (X ).

La relación n = rb/r, llamada longitud promedio de código, físicamente corresponde al númeropromedio de dígitos binarios por símbolo de la fuente, esto es, n =

∑Mi=1 Pi Ni , donde n i repre-

senta la longitud de las palabras de código para el i -ésimo símbolo.

En general, el teorema de codificación de la fuente de Shannon establece que el valor mínimode n está limitado por:

H (X )≤ n <H (X )+ε, ε ∈R+, (5.9)

donde ε es una cantidad que puede hacerse arbitrariamente tan pequeña como se quiera.De hecho, se habla de la codificación óptima de la fuente cuando se alcanza el límite inferiorn = H (X ). En la práctica, a menudo basta con una codificación subóptima cuando se cumpleque n >H (X ), asegurando que el código tenga una eficiencia razonablemente alta. La relaciónR/rb =H (X )/n ≤ 1 sirve como medida de eficiencia para códigos subóptimos.

El teorema de codificación de la fuente presupone un código descifrable en forma única paraasegurar que no se pierda información; requerimiento que impone una restricción adicionale indirecta sobre n . Específicamente, como una condición suficiente y necesaria para que uncódigo binario sea descifrable en forma única, las longitudes de las palabras n i deben ser talesque se cumpla la desigualdad de Kraft:

K =M∑

i=1

2n i ≤ 1

El proceso de codificación más sencillo genera un código de longitud fija, donde toda las pala-bras de código tienen la misma longitud n i = n . La desigualdad de Kraft se convierte entoncesen K = M 2−n ≤ 1. De modo que la capacidad para ser descifrable requiere que n ≥ log M ,con lo que la eficiencia resultante es H (X )/n ≤H (X )/ log M . Cuando H (X ) < log M , una mayoreficiencia requiere de una codificación de longitud variable para reducir la longitud promediode código n .

5.2.4. Compresión de datos

Una característica común de las señales generadas por una fuente está en que, de forma natu-ral, estas tienen una cantidad importante de información que es redundante, y su transmisiónrepresenta un desaprovechamiento del ancho de banda del canal. La operación que implemen-

202 Capítulo 5. Teoría de la información

ta la transmisión eficiente de información mediante la disminución significativa o eliminaciónde la redundancia se denomina compresión de datos. Cuando el código resultante es una repre-sentación de la fuente, que no solo es eficiente respecto al número promedio de bits por sím-bolo, sino que también es exacto en el sentido de que la señal original puede ser reconstruidasin pérdida de información, entonces se habla de compresión sin pérdida, en caso contrario setiene compresión con pérdida.

Definición 5.4 Código prefijo: Sea una fuente discreta sin memoria con alfabeto s0,s1, . . . ,s K−1,con probabilidades de generación p0,p1, . . . ,pK−1. Sea que la palabra código asignada al sím-bolo sk de la fuente, denotada como mk1 ,mk2 , . . . ,mkn , y cuyos elementos conforman el alfabeto0,1, siendo n la longitud de palabra código. La parte inicial de la palabra código se forma conlos elementos mk1 , . . . ,mk i con i ≤ n. Cualquier secuencia construida con la parte inicial de lapalabra código se denomina prefijo de la palabra código. Entonces, un código prefijo se definecomo un código en el cual ninguna palabra código es el prefijo de otra palabra código.

La Tabla 5.5 ilustra la anterior definición, considerando los códigos para tres fuentes. El códigoI no es un código prefijo, por cuanto el bit 0 (la palabra código para el símbolo s0) es un prefijo de00, que a su vez es la palabra código para s2. Así mismo, el bit 1, la palabra código para el símbolos1, es un prefijo de 11 y también es la palabra código para s3. De forma similar, se concluye queel código III tampoco es un código prefijo. No obstante, en el caso del código II se puede afirmarque si es un código prefijo.

Símbolo Probabilidad Código I Código II Código IIIs0 0.5 0 0 0s1 0.25 1 10 01s2 0.125 00 110 011s3 0.125 11 111 0111

Tabla 5.5: Ejemplo de un código prefijo

EstadoInicial

s0

s1

s2

s3

0

10

10

1

Figura 5.4: Ejemplo de árbol de decisión

La decodificación de una secuencia creadacon un código prefijo, exige que inicialmentese decodifique una palabra código a la vez,comenzado con el primer elemento de la se-cuencia mediante un procedimiento equiva-lente al de un árbol de decisiones como el rep-resentado en la Figura 5.4 para el código II dela Tabla 5.5. El árbol tiene un estado inicial ycuatro terminaciones que corresponden a lossímbolos de la fuente s0,s1,s2,s3. Se toma elprimer elemento de la secuencia recibida porel decodificador; este primer bit llevará al de-codificador hacia el terminal s0 si resulta ser0, de lo contrario (es igual a 1), se orientará elárbol hacia el siguiente punto de decisión. Elprocedimiento se repite hasta alcanzar algún

5.2. Codificación de una fuente 203

terminal, cuando esto sucede el decodificador se dirige nuevamente hacia su estado inicial, asísucesivamente se continua analizando la secuencia de bits. Cabe anotar que cada bit recibidose analiza una sola vez, así, la secuencia 1011111000 se decodifica como s1s3s2s0s0.

Código Huffman: Este código asigna a cada símbolo del alfabeto una secuencia con longitudaproximadamente igual a la cantidad de información transmitida por cada elemento. El resulta-do es un código con una longitud promedio de palabra de código cercana al límite fundamentalestablecido por la entropía de la fuente discreta sin memoria. El código Huffman reemplaza elconjunto de probabilidades de la fuente por uno más simple. El proceso de reducción se realizapaso a paso hasta alcanzar un conjunto final de solo dos probabilidades, para el cual (0,1) esun código óptimo. A partir de este código trivial, se realiza el procedimiento inverso al descritoy finalmente se obtiene el código Huffman para una fuente dada. En concreto, el algoritmo decodificación Huffman sigue estos pasos:

1. Etapa de División: Se ordenan los símbolos de la fuente en orden descendiente según suprobabilidad. Se asignan los valores 0 y 1 a los dos símbolos con menor probabilidad.

2. Los dos símbolos encontrados en el paso 1 se combinan para ser reemplazados por unonuevo que tenga probabilidad igual a la suma de las dos probabilidades de ambos símbo-los originales. En este punto se reduce en uno el tamaño del conjunto de probabilidades.El nuevo símbolo es incluido en la lista generada en el paso 1 en el lugar correspondientesegún su probabilidad.

3. El paso 2 se repite hasta que la lista contenga solo dos elementos, a los que se les asignarálos valores de 0 y 1.

El código para cada símbolo original se construye con un algoritmo inverso al descrito, ha-ciendo el seguimiento de los valores 0 ó 1 asignados a los predecesores sumando de cada uno.

Ejemplo 5.6 Sea un alfabeto de una fuente discreta sin memoria compuestode cinco símbolos con susprobabilidades respectivas de generación como se muestranen la Figura 5.5(a). Las columnas a su derecharepresentan la evolución del algoritmo de codificación Huffman, que finaliza tras cuatro iteraciones y quegenera el correspondienteárbol de Huffman, cuyas palabras código se muestran en la tabla inferior.

Del árbol se tiene que la longitud promedio de palabra códigoes:

L = 0.4(2)+0.2(2)+0.2(2)+0.1(3)+0.1(3) = 2.2

La entropía de la fuente discreta sin memoria, notada comoH (X ), tiene un valor de:

H (X ) = 0.4 log1

0.4+0.2 log

1

0.2+0.2 log

1

0.2+0.1 log

1

0.1+0.1 log

1

0.1= 0.5287+0.4643+0.4643+0.3321+0.3321

= 2.1219bits

Es de notar que la diferencia entre la entropía de la fuenteH (X ) y la longitud promedio de la palabracódigo L es tan solo de un3%, que está en concordancia con un código Huffman que asigna a cada sím-bolo del alfabeto, una secuencia de bits con longitud aproximadamente igual a la cantidad de informacióntransmitida por el mismo.

204 Capítulo 5. Teoría de la información

s4

s3

s4

s1

s0

BCDEFGF

0.1

0.1

0.2

0.2

0.4

HIJKJ L

0.2

0.2

0.2

0.4

HIJKJ LL

0.2

0.4

0.4

HIJKJ LLL

0.4

0.6

HIJKJ LM

NO N

O NO N

O

(a) .

s4

s3

s4

s1

s0

PQRSTUT

0.10.10.20.20.4

VWTSXSYUYZXZ

011010

111000

VXUXSWX [\ZY]T

(b) .

Figura 5.5: Árbol de Huffman

Es importante decir que dada una fuente,la versión del código Huffman no es única,debido a que existe arbitrariedad en la for-ma en que se asignan los valores de 0 y 1en la etapa de división del algoritmo. Lo mis-mo sucede en el momento de incorporar cadanuevo símbolo generado a la lista de proba-bilidades, en la medida en que cada símbo-lo puede ser ubicado dentro de la lista (enorden descendiente), tan arriba o tan abajocomo sea posible. Aunque esta arbitrariedadinfluye en la diferencia entre las longitudesde las palabras código, la longitud promediosigue siendo la misma. Se puede plantear unamedida para la varianza de L como:

σ2 =

K−1∑

k

pk

l k − L

2

donde p0,p1, . . . ,pK−1 son las probabilidades de la fuente y l k es la longitud de la palabra códigoasignada al símbolo sk . Comúnmente se observa que cuando un nuevo símbolo es ubicado tanarriba como sea posible, el código Huffman tendrá una varianza σ2 más pequeña que para elcaso contrario.

Código Lempel–Ziv. Un inconveniente que tiene el código Huffman está en que necesita cono-cer a priori el modelo de probabilidad de la fuente, que en la práctica no se tiene. El algoritmoLempel-Ziv que es adaptativo y más sencillo de implementar, supera tal limitación y se llevaa cabo básicamente, separando la secuencia de datos por segmentos que corresponden a lassubsecuencias más cortas que no se hayan registrado previamente.

En contraste con la codificación Huffman, el algoritmo Lempel-Ziv emplea un código de lon-gitud fija para representar un número variable de símbolos; esta característica hace del algorit-mo Lempel-Ziv una opción adecuada para transmisiones síncronas.

Rendimiento y redundancia de un código. La cantidad de información por símbolo de unafuente X se puede definir en términos del número equivalente de dígitos binarios necesariopara su representación. Esto es, el valor medio de incertidumbre de una fuente X expresado endígitos con unidades de r -estados es Hr (X ). Sea L la longitud media de un código unívoco conr -posiciones pertenecientes a la fuente X . Por cuanto L no puede ser inferior a Hr (X ), se puededefinir el rendimiento del código η como:

η=Hr (X )/L,

que se relaciona con la redundancia de un código (5.8) en la forma:

ρ = 1−η= L−Hr (F )

L

5.2. Codificación de una fuente 205

Ejemplo 5.7 Sea la fuente sin memoria con elementos,X = x1,x2, descrita por los valores de las prob-abilidadesp (x1) = 1/4 y p (x2) = 1/2. Entonces su entropía será:

H (X ) = 1/4 log4+3/4 log4/3= 0.811bits

Se plantea el siguiente código compacto para la fuente:

x i p (x i ) Código compactox1 3/4 0x2 1/4 0

La longitud media del código es de 1 bit, por lo tanto su rendimiento seráη = 0.8811. Una mejora seobtiene mediante la codificación de la extensión de orden dosX 2.

σi p (σi ) Código compactof 1 f 1 9/16 0f 1 f 2 3/16 10f 2 f 1 3/16 110f 2 f 2 1/16 111

En este caso, la longitud media del código que es27/26, mientras la entropía aumenta hasta2H (X ),además su rendimiento esη2 = (2×0.811×16)/27. Al codificar las extensiones del tercer y cuarto orden seobtiene, respectivamente:η3 = 0.985, η4 = 0.991

206 Capítulo 5. Teoría de la información

5.3. Canales de transmisión

5.3.1. Medidas de capacidad en canales

Los factores como el ancho de banda y la potencia del ruido presente en el canal, restringenla cantidad de información que se puede transmitir. Es posible demostrar que en presencia deruido blanco gaussiano se puede transmitir información a través de un canal con una velocidadno mayor a su capacidad C [b/s]:

C =∆Ω log2 (1+S/N ) ,

donde∆Ω [Hz] es el ancho de banda de canal, S es la potencia de la señal que se transmite y Nes la potencia del ruido (blanco gaussiano) presente.

En esencia, el objetivo es distinguir la señal recibida de amplitudp

S+N en presencia delruido con amplitud

pN , que implica que las variaciones menores de

pN no podrán ser detec-

tadas. En consecuencia, el número máximo de niveles que pueden ser distinguidos sin errorestará dado por:

M =

pS+Np

N=

Ç1+

S

N

con lo cual, la máxima cantidad de información que se transmite por cada pulso mediante Mniveles distintos estará dada por:

I = log2 M = log2

Ç1+

S

N

=1

2log2

1+

S

N

La capacidad del canal corresponde a la máxima cantidad de información por unidad detiempo [s]. Por lo tanto, si un canal puede transmitir un máximo de K pulsos por segundo, setiene que la capacidad C del canal es:

C =K

2log2

1+

S

N

, [bits/s]

Un sistema con ancho de banda ∆Ω que puede transmitir un máximo de 2∆Ω pulsos porsegundos, tendrá una velocidad máxima de transmisión de:

C =∆Ω log2 (1+S/N ) (5.10)

De la expresión (5.10) o Ley de Shannon-Hartley, es claro que en el caso de una transmisiónlibre de ruido (N = 0), la capacidad nominal del canal sería infinita. Además, a partir de la inter-acción entre el ancho de banda y la potencia de la señal, se infiere que para transmitir la infor-mación a una velocidad determinada se puede emplear menos potencia de la señal transmitida,mientras se incremente su ancho de banda de forma correspondiente (sistemas con efectividadenergética). De igual manera, se pueden reducir los requerimientos de ancho de banda siempreque se aumente la potencia de la señal (sistemas con efectividad espectral).

5.3. Canales de transmisión 207

5.3.2. Transmisión de información en canales discretos

- -p (y j |x i )X Y

x0

x1^x I−1

y0

y1^y J−1

X

Y

Figura 5.6: Canal discreto sin memoria

Canal discreto sin memoria. Correspondea un modelo estadístico compuesto por unaentrada x = x i : i , . . . , I ∈ X , una saliday = y j : j , . . . , J ∈ Y que es una versión dex distorsionada por la perturbación, y el res-pectivo conjunto de probabilidades de transi-ción p

y j |x i

= P

Y = y j |X = x i

,∀i , j , como se muestra en la Figura 5.6. A propósito, puede

ocurrir que I 6= J . Tanto x como y son vectores aleatorios. En cada unidad de tiempo, el canalrecibe un símbolo de entrada x i y, como respuesta se emite un símbolo de salida yi a partir de unalfabeto Y . Un canal se dice discreto cuando ambos alfabetos X e Y tienen una longitud finita;así mismo, se dice de un canal sin memoria cuando, en un instante de tiempo dado, el símbolode salida depende solamente del respectivo símbolo de entrada y no de entradas previas.

A partir de las probabilidades de transición de los símbolos que genera la respectiva matrizde canal (discreto y sin memoria) con dimensión i × j , se tiene:

P =

p

y0|x0

p

y1|x0· · · p

y J−1|x0

......

...p

y0|x I−1

p

y1|x I−1:· · · p

y J−1|x I−1

Cabe anotar que cada fila de la matriz de canal P corresponde a una entrada fija, mientras quecada columna corresponde a una salida fija. Además, la suma de los elementos sobre cualquierade las filas de la matriz es siempre igual a uno, esto es,

∑ J−1j=0 p

y j |x i

= 1, ∀j .

Sea el vector de entradas a un canal discreto sin memoria, seleccionadas de acuerdo a la dis-tribución de probabilidad y conocidas como probabilidades a priori, p (x i ), i = 0, . . . , I − 1. Esdecir, el evento de que la entrada del canal sea X = x i ocurre con un valor de probabilidadigual a p (x i ) = P (X = x i ) . Así mismo, se define el vector aleatorio de la salida del canal Y , comop (yi ), i = 0, . . . , J −1. Se asume conocida la densidad de probabilidad conjunta de las variablesaleatorias X e Y :

p

x i ,y j

= P

X = x i ,Y = y j

= P

Y = y j |X = x i

P (X = x i )

= p

y j |x i

p (x i )

La distribución de probabilidad marginal de la variable aleatoria de salida Y se obtiene pro-mediando la dependencia de p (x i ,y j ) por x i :

p

y j

= P

Y = y j

=

I−1∑

i=0

P

Y = y j |X = x i

P (X = x i )

=

I−1∑

i=0

p

y j |x i

p (x i ),∀j = 0,1, . . . , J − 1 (5.11)

La ecuación 5.11 establece que al conocer las probabilidades a priori de entrada p (x i ) y la ma-triz del canal p (y j |x i ), entonces es posible calcular las probabilidades de los diferentes símbolosde salida p (y j ).

208 Capítulo 5. Teoría de la información

Ejemplo 5.8 Sea un canal discreto sin memoria binario (I = J = 2), con símbolos de entrada(x0 = 0,x1 =1) y salida(y0 = 0, y1 = 1), que es simétrico, esto es,p (0 | 1) = p (1 | 0). El diagrama de probabilidad detransición de un canal binario simétrico se muestra en la Figura 5.7.

Sean las probabilidades de los símbolos,

p (x0) = p , p (x1) = 1−p

y probabilidades de transición directa

p (y0|x1) = p (y1|x0) =α, p (y0|x0) = p (y1|x1) = 1−α

Este modelo representará un sistema de transmisión binario, en el cual los errores son estadísticamenteindependientes y las probabilidades de error son iguales para todos los símbolos, de modo que la probabilidadde error promedio es

pe = p (x0)p (y1|x0)+p (x1)p (y0|x1) = pα+(1−p )α=α

A partir de las probabilidades de transición directa, se calcula la información mutua(5.6) en función delos valores dep y α. La entropía en el destinoH (Y ) puede ser calculada asumiendo que la salida del canales una fuente binaria con probabilidades de símbolop (y0)y p (y1) = 1−p (y0). Por lo tanto,H (Y ) = Ωp (y0),dondeΩ(p ) = p log 1

p+(1−p ) log 1

1−p. Además,

p (y0) = p (y0|x0)p (x0)+p (y0|x1)p (x1) =α+p −2αp

luego,

H (Y |X ) =∑

xp (x i )

∑y

p (y j |x i ) log1/p (y j |x i )

,

que se reduce aΩ(α). La simetría del canal hace que el resultado obtenido sea independiente del valor dep .Finalmente se tiene que

I (X ; Y ) = Ω(α+p −2αp )−Ω(α)

De modo que la transferencia de información en un canal binario simétrico dependerá de la probabilidadde errorα y de la probabilidad de la fuentep . Si el ruido es pequeño, entoncesα 1 e I (X ; Y ) =Ω(p ) =H (X );si el ruido es muy grande, entoncesα= 1/2 e I (X ; Y ) = 0.

x0 = 0

x1 = 1

y0 = 0

y1 = 1

1−α

1−αα

αp (x0) = p

p (x1) = 1−p

Figura 5.7: Canal binario simétrico

Es necesario resaltar que la capacidad decanal es una propiedad de cualquier mediofísico de propagación destinado a la trans-misión de información e incluye además, lasespecificaciones de los tipos de modulación oacople de señal (binarias, r -estados, ortogo-nales, simples, etc.), más el tipo de recep-tor que se usa, el cual determina la fidelidaddel sistema. Todas las especificaciones estáncontenidas en la matriz de canal.

Información mutua de un canal discreto.Idealmente, el canal de transmisión debe re-producir en el destino los símbolos emitidospor la fuente X . No obstante, el ruido y otros problemas en la transmisión alteran los símbolosde la fuente, lo que da como resultado un alfabeto Y de símbolos diferentes en el destino y, por lo

5.3. Canales de transmisión 209

tanto, la información transferida disminuye también. Se definen las siguientes probabilidadesque describen un canal de transmisión:

– P(x i ) es la probabilidad de que la fuente seleccione el símbolo x i para la transmisión.

– P(yi ) es la probabilidad de que el símbolo yi se reciba en el destino.

– P(x i ,yi ) es la probabilidad conjunta de que se transmitió x i y se recibió yi .

– P(x i |yi ) es la probabilidad condicional de que se transmitió x i dado que se recibió yi .

– P(yi |x i ) es la probabilidad condicional de que se recibió yi dado que se transmitió x i .

x2

x1

y1

y2

y3p (y3|x2)

p (y1|x1)

p (y1|x2)

p (y2|x1)

p (y2|x2)

p (y3|x1)

Figura 5.8: Probabilidades de transición directapara un canal discreto ruidoso.

A efectos de simplicidad se asume que elcanal sin memoria es invariable en el tiem-po, de manera que las probabilidades condi-cionales y de transmisiones de símbolos pre-vios son independientes del tiempo. Cabeanotar que las probabilidades condicionalesP(yi |x i ) tienen entonces significado especialcomo las probabilidades de transición directadel canal. En este sentido, la Figura 5.8 mues-tra las transiciones directas para un canal rui-doso con dos símbolo de la fuente y tres sím-bolos de destino. Si este sistema está proyec-tado para enviar yi = y1 cuando x i = x1 yy j = y2 cuando x j = x2, entonces las prob-abilidades de error de símbolos están dadaspor P(yi |x i ) para j 6= i . La descripción cuan-titativa de la transferencia de información enun canal discreto sin memoria comienza porsu información mutua, que mide la cantidad de información transferida cuando se transmite x i

y se recibe yi :

I

x i ;y j

¬ log

P

x i |y j

P (x i )bits (5.12)

Sea un canal ideal sin ruido tal que cada yi identifica de manera única una x i particular;entonces P(x i |yi ) = 1 e I (x i ;yi ) = log(1/P(x i )), de modo que la información transferida es iguala la información de x i .

Por otra parte, al asumir que el ruido del canal tiene un efecto tan grande que yi no se rela-ciona en absoluto con x i ; entonces

P(x i |yi ) = P(x i ), (x i ;yi ) = log 1= 0

de modo que no se transfiere información. La mayoría de los canales de transmisión caen entreambos extremos analizados de transferencia: completa o nula.

210 Capítulo 5. Teoría de la información

En general, se define la información mutua promedio del canal como:

I (X ;Y )·

x ,y

P

x i ,y j

I

x i ,y j

=∑

x ,y

P

x i ,y j

log

P

x i |y j

P (x i )bits/simbolo,

donde los índices de la sumatoria indican que el promedio estadístico se toma sobre ambos alfa-betos. La cantidad I (X ;Y ) representa la cantidad promedio de información de la fuente ganadapor el símbolo recibido, para distinguirla de la información promedio por símbolo de la fuente,representada por la entropía de la fuente H (X ). Dada la similitud, de la expresión (5.7) se infierela información mutua del canal I (X ;Y ) = H (X )−H (X |Y ), que establece que la transferenciapromedio de la información por símbolo es igual a la entropía de la fuente menos el error intro-ducido por el canal y definido como:

H (X |Y )·

x ,y

P

x i ,y j

log

1

P

x i |y j

En otras palabras, el error anterior representa la información perdida en un canal ruidoso. Deotra parte, extendiendo la definición (5.6) al canal, se tiene que I (X ;Y ) = H (Y )−H (Y |X ), queestablece que la información transferida es igual a la entropía en el destino H (Y )menos la en-tropía del ruido H (Y |X ) añadida por el canal. La interpretación de H (Y |X ) se deduce del hechode que el conjunto de probabilidades de transición directa P(y j |x i ), incluye las probabilidadesde error de símbolos.

Capacidad de un canal discreto sin memoria. Cuando una fuente emite un símbolo pertene-ciente al conjunto x1,x2, . . . ,x I ∈X , el receptor recibe los símbolos y1,y2, . . . ,y J ∈ Y , tales queY puede o no ser idéntico al conjunto X , dependiendo de la naturaleza del receptor. Asumiendoque se tiene un receptor libre de ruido, entonces la recepción de algún símbolo y j determinaunívocamente el mensaje transmitido. Sin embargo, en presencia de ruido se tiene cierta in-certidumbre respecto al símbolo transmitido cuando se recibe y j . El valor p (x i |y j ) representa laprobabilidad condicional de que se transmitió x i cuando se recibe y j , entonces existe una in-certidumbre dada por log(1/p (x i |y j )) que corresponde a la pérdida de información a causa delruido presente en el canal. Si se recibe y j se puede calcular la pérdida promedio de informaciónH (x |y j ) de la siguiente manera:

Hx|y j

=∑

i

p (x i |y j ) log1

p

x i |y j

,bits/simbolo

Al generalizar el promedio de la pérdida de información, para todos los símbolos recibidos,

5.3. Canales de transmisión 211

entonces,

H (X |Y ) =∑

j

p

y j

H

X |y j

=∑

i

j

p

y j

p

x i |y j

log

1

p

x i |y j

=∑

i

j

p

x i ,y j

log

1

p

x i |y j

Los parámetros de un canal relacionados con los alfabetos de la fuente y destino tienen proba-bilidades de transición directas y fijas, entonces, la única forma de variar I (X ;Y ) corresponde alas probabilidades de la fuente P(x i ). En consecuencia, la transferencia de máxima informaciónrequiere de estadísticas específicas de la fuente, obtenidas quizá, a través de la codificación dela fuente. El valor máximo resultante de I (X ;Y ) se denota como:

Cx ¬maxP(x i )

I (X ;Y ), bits/simbolo,

que representa la máxima cantidad de información transferida por símbolo en el canal (enpromedio) y se llama capacidad del canal, la cual también se mide en función de la velocidadde información. Específicamente, si s representa la máxima tasa de símbolos permitida por elcanal, entonces la cantidad por unidad de tiempo es C = s Cs , bits/s, que representa la máxi-ma tasa de transferencia de información. El significado de la capacidad del canal se hace másevidente a la luz del teorema fundamental de Shannon para un canal ruidoso.

Definición 5.5 Sea un canal con capacidad C , por el cual se transmiten símbolos de una fuenteque tiene una velocidad de información R < C , entonces existe un sistema de codificación tal,que la salida de la fuente se transmite por el canal con una frecuencia de errores tan pequeñacomo se quiera arbitrariamente. Por el contrario, si R > C , entonces no es posible transmitir lainformación sin errores.

- - - -_`abca defghijfeklgmjkge

demnokpeklgmjkge jµqoprjfep

djmjs pgm ktgfeµ= 2ν u C = sν

R ≤C rb ≥ R s = rb/ν

Figura 5.9: Sistema de codificación para un canal discreto sin ruido

La extensión del anterior teorema se puede considerar a partir de las siguientes dos particu-laridades. Primero, sea un canal ideal sin ruido por el que se quieren transmitirµ= 2v símbolos,entonces I (X ;Y ) =H (X ), la cual se maximiza si P(x i ) = 1/µ, ∀i , esto es:

Cx =maxP(x i )

H (X ) = log(µ) = v

por lo tanto, C = s v . En este caso, la transmisión sin error se basa en el hecho de que el canalno tiene ruido. No obstante, aún se necesita un sistema de codificación como el ilustrado en

212 Capítulo 5. Teoría de la información

la Figura 5.9 para acoplar la fuente y el canal. Asumiendo que se tiene un codificador binarioel cual genera dígitos con una tasa rb ≥ R para la conversión de símbolos de µ-estados en elcanal con tasa s = rb/ logµ= rb/v , entonces, se tiene que R ≤ rb = s v =C , bits/s, por lo que lacodificación óptima de fuente logra una transferencia máxima de información con R = rb =C .Una transmisión con R > C requeriría un sistema de codificación que viola la desigualdad deKraft; en consecuencia, ocurrían errores de codificación aunque el canal no sea ruidoso.

Un caso más práctico, incluyendo el ruido del canal, corresponde al canal simétrico binario(descrito en el ejemplo 5.8). Previamente se encontró que I (X ;Y ) = Ω(α+ p − 2αp )−Ω(α) conΩ(α) constante para probabilidad de error α fija. La función Ω(α+p − 2αp ) varía con la proba-bilidad p de la fuente, y alcanza un valor máximo de uno cuando α+p − 2αp = 1/2; condiciónque se cumple para cualquier α si p = 1/2, esto es, cuando hay símbolos de entrada binariosigualmente probables. Así, la capacidad de un canal binario simétrico es

Cs = 1−Ω(α)

El tráfico de Cs versus α en la Figura ??, muestra que Cs ≈ 1 para α 1, pero la capacidadcae rápidamente hasta cero conforme α→ 0.5. La misma curva se aplica para 0.5 ≤ α ≤ 1 si sereemplaza α con 1−α, equivalente a intercambiar los dos símbolo de salida.

La transmisión confiable para un canal binario simétrico requiere la codificación del canalpara el control de errores, además de la codificación de la fuente. La probabilidad de error pordígito de mensaje binario podría, en efecto, hacerse mucho menor que la probabilidad de errorα en la transmisión. Por ejemplo, el código de Hamming tiene una tasa de código Rc = 11/15 yprobabilidad de error de salida Pb e ≈ 14α2 por dígito del mensaje; si el canal binario simétricotiene α= 10−3 y tasa de símbolo s , entonces el código de Hamming da por resultado Pb e ≈ 10−5

a la tasa de dígitos del mensaje rb = Rc s ≈ 0.73s .

El teorema de Shannon afirma que un mejor sistema de codificación produciría transmisiónvirtualmente libre de error con la tasa

rb =R ≤C

= s (1−Ω(α))≈ s

5.3.3. Entropía e información para ensambles continuos

Entropía diferencial. Sea una variable aleatoria continua X con función de densidad de proba-bilidad f X (x ). De manera similar a la entropía de una variable aleatoria discreta se plantea lasiguiente definición:

h (X ) =

∫ ∞

−∞f X (x ) log

1

f X (x )d x

siendo h(X ) la entropía diferencial de X .

En general, una variable aleatoria X se puede analizar como la forma límite de una variablediscreta que toma los valores xk = k∆x donde k = 0,±1,±2, . . .; y ∆k se aproxima a cero. Pordefinición, la variable aleatoria continua X asume un valor en el intervalo [xk ,xk +∆k ] conprobabilidad f X (xk )∆k .

De lo inmediatamente anterior, si ∆k → 0, entonces, la entropía ordinaria de la variable

5.3. Canales de transmisión 213

aleatoria continua X puede escribirse mediante el siguiente límite:

H (X ) = lım∆x→0

∞∑

k=−∞f X (xk )∆x log

1

f X (xk )∆x

= lım∆x→0

∞∑

k=−∞f X (xk ) log

1

f X (xk )

∆x − log∆x

∞∑

k=−∞f X (xk )∆x

!

=

∫ ∞

−∞f X (x ) log

1

f X (x )

d x − lım

∆x→0log∆x

∫ ∞

−∞f X (x )d x

Teniendo en cuenta que el área total bajo la curva de la función de densidad de probabilidadf X (x ) es uno, finalmente se obtiene:

H (X ) = h (X )− lım∆x→0

log∆x

Cabe anotar que en el límite cuando∆x → 0, el término− log∆x →∞. Por lo tanto, la entropíade una variable aleatoria continua es infinitamente grande. En efecto, debido a que la variableasume un valor en cualquier parte del intervalo (−∞,∞), su incertidumbre asociada tiende a in-finito. La solución a tal limitante hace que en la práctica se adopte la entropía diferencial h(X ),acotada con un término − log∆x en calidad de referencia. Además, al tener en cuenta que lainformación transmitida por un canal es realmente la diferencia entre dos entropías que tienenuna referencia común, entonces la información será la misma para el caso de la diferencia en-tre los correspondientes términos de entropía diferencial. Cuando se tiene un vector aleatoriocontinuo X conformado por n variables aleatorias X1,X2, . . . ,Xn se define la entropía diferencialde X como:

h (X) =

∫ ∞

−∞f X (X) log

1

f X (X)dX ,

donde f X (X) es la función de densidad de probabilidad marginal de X.

Ejemplo 5.9 Sea una variable aleatoriaX uniformemente distribuida en el intervalo(0, a ), con funciónde densidad de probabilidad

f X (x ) = 1/a , ∀x ∈ [0, a ]

.Entonces, su entropía diferencial será:

h (X ) =

∫ a

0

1/a log (a )d x

= loga

De la anterior expresión se tiene queloga < 0 paraa < 1, y por lo tanto, a diferencia del caso paravariable aleatoria discreta, la entropía diferencial de una variable aleatoria continua puede ser negativa.

214 Capítulo 5. Teoría de la información

Ejemplo 5.10 Sea un par de variable aleatoriasX e Y , descritas por sus funciones de densidad de proba-bilidad f X (u ) y f Y (u ), respectivamente.

A partir de la desigualdad fundamental, en el caso de canalesdiscretos,∑

k pk log(qk /pk )≤ 0, se infierela siguiente expresión para el caso continuo:

∫ ∞

−∞f Y (u ) log

f X (u )

f Y (u )d u ≤ 0,

lo que equivale a:

−∫ ∞

−∞f Y (u ) log f Y (u )d u ≤−

∫ ∞

−∞f Y (u ) log f X (u )d u ,

en donde la parte izquierda de la desigualdad corresponde a la entropía diferencial de la variable aleatoriaY ,por lo tanto:

h (Y )≤−∫ ∞

−∞f Y (u ) log f X (u )d u (1)

Sean ambas variables aleatoriasX e Y del tipo gaussiano y descritas con los mismo valores de mediaµ yvarianzaσ2, esto es:

f X (u ) = f Y (u ) =1p

2πσexp

u −µ2

2σ2

(2)

Si se sustituye la ecuación(2) en(1) y cambiando la base del logaritmo de2→ e , se obtiene:

h (Y )≤− log2 e

∫ ∞

−∞f Y (u )−

u −µ

2

2σ2− logp

2πσ

≤ 1/2ln

2πσ2= h (X ) , (3)

en donde la igualdad se dará solo sif X (u ) = f Y (u ). De la entropía(3), se desprenden las siguientes dospropiedades para una variable aleatoria gaussiana:

1. Dada una varianza finitaσ2, la variable aleatoria gaussiana tiene la entropía diferencial más grandeque puede alcanzar cualquier variable aleatoria.

2. La entropía de una variable aleatoria gaussianaX , depende únicamente de la varianza deX y esindependiente del valor de la media deX .

Información mutua Sea un par de variables aleatorias continuas X e Y , para las cuales, enanalogía del caso de variables discretas, se define la información mutua:

I (X ;Y ) =

∫ ∞

−∞

∫ ∞

−∞f X ,Y

x ,y

log

f Xx |y

f X (x )d x d y ,

donde f X ,Y (x ,y ) es la función de densidad de probabilidad conjunta de X e Y , y f X (x ,y ) es lafunción de densidad de probabilidad condicional de X dado Y = y . Al igual que para el casodiscreto, se observan las siguientes propiedades de la información mutua:

1. I (X ,Y ) = I (Y ,X )

2. I (X ;Y )≥ 0

5.3. Canales de transmisión 215

3. I (X ;Y ) = h(X )−h(X |Y ) = h(Y )−h(Y |X )

El parámetro h(X ) representa la entropía diferencial de X , asimismo para h(Y ). El términoh(X |Y ) es la entropía diferencial condicional de X dado Y , y se define por la doble integral:

h (X |Y ) =∫ ∞

−∞

∫ ∞

−∞f X ,Y

x ,y

log

1

f Xx |yd x d y

Capacidad de los canales continuos La transferencia de información usando un canal con-tinuo corresponde a la transmisión de señales desde la fuente que emite una señal x (t ), la cualluego de ser afectada por el ruido presente en el canal, es recibida en el destino en forma de laseñal y (t ). Por analogía con el caso discreto, la información mutua promedio se define como:

I (X ;Y )¬

∫ ∞

−∞

∫ ∞

−∞pX Y (x ,y ) log

pX (x |y )pX (y )

d x d y (5.13)

donde px (x ) es la función de densidad de probabilidad de la fuente y pX Y (x ,y ) es la función dedensidad de probabilidad conjunta. Promediando con respecto a X y Y se eliminan las poten-ciales ambigüedades de la entropía relativa, mencionadas anteriormente. Así pues, el términoI (X ;Y )mide la transferencia de información absoluta por muestra de y (t ) en el destino. A partirde la ecuación 5.13 se puede demostrar que I (X ;Y ) ≥ 0. Caso que solo se dará si I (X ;Y ) = 0,cuando el ruido es tan grande que y (t ) no está relacionada con x (t ).

Usualmente, se conoce la función de distribución de probabilidad de transición directa pY (y |x )y no de pX (x |y ). Por lo tanto, se debe calcular el valor de I (X ;Y ) a partir de:

I (X ;Y ) =H (Y )−H (Y |X ) (5.14)

en donde H (Y ) es la entropía en el destino y H (Y |X ) es la entropía del ruido que está dada por:

H (Y |X ) =∫ ∞

−∞

∫ ∞

−∞pX (x )pY (y |x ) log

2

pY (y |x )d x d y

Si se tiene ruido aditivo independiente en el canal de tal forma que y (t ) = x (t )+n (t ), entoncespY (y |x ) = pY (x +n ) = pN (y −x ), donde pN (n ) es la función densidad de probabilidad del ruido.En consecuencia, se puede reducir el término H (Y |X ) a:

H (Y |X ) =∫ ∞

−∞pN (n ) log

1

pN (n )d n , (5.15)

siendo independiente del valor de pX (x ).Un canal con función de densidad de probabilidad de transición directa fija implica que la

máxima transferencia de información por muestra de y (t ) es:

Cs ¬maxpX (x )

I (X ;Y ), bits/muestra,

luego, asumiendo que el canal es de banda limitada a B [Hz], y (t ) también es una señal de ban-da limitada, definida completamente por los valores de las muestras (tomadas con frecuencia

216 Capítulo 5. Teoría de la información

Nyquist f s = 2B ). La frecuencia f s corresponde a la tasa máxima posible para el ancho de bandadado B (las muestras tomadas con una frecuencia mayor no serán independientes y no apor-tarán información adicional). Por lo tanto, la tasa máxima de transferencia de información es:

C ¬ 2BCs ,bits/s, (5.16)

la cual define la capacidad de un canal continuo de banda limitada. Se puede aplicar el teoremafundamental de Shannon para un canal ruidoso, teniendo en cuenta que la transmisión sinerrores es posible desde el punto de vista teórico para una tasa de información R ≤C .

El modelo de canal continuo de mayor interés corresponde al canal de ruido gaussiano aditivoque suele definirse por medio de las siguientes propiedades:

1. El canal brinda una transmisión libre de error para un ancho de banda dado B , y cualquierpérdida de potencia durante transmisión es compensada mediante amplificación.

2. El canal restringe la entrada ofrecida por la fuente, a una señal x (t ) de banda limitada conpotencia promedio fija con valor S = x 2.

3. La señal recibida en el destino estará modificada por la adición de ruido blanco gaussianode banda limitada n (t ), con media cero y potencia promedio N = n 2 =N0 B .

4. la señal y el ruido se asumen como independientes de modo que y (t ) = x (t )+n (t ), por lotanto, y 2 = x 2+ n 2 =S+N .

El cálculo de la entropía H (Y |X ) para ruido gaussiano aditivo se realiza mediante la ecuación5.15. Teniendo en cuenta que PN (n ) es una función gaussiana con media cero y varianzaσ2 =N ,se tiene que H (Y |X ) = 1

2(log 2πe N ). Por otro lado, observando que H (Y |X ) no depende de la

función de densidad de probabilidad de la fuente, se usan las ecuaciones 5.14 y 5.15, con lo cualse obtiene:

Cs =maxpX (x )(H (Y )−H (Y |X )) =

maxpX (x )

H (Y )

− 1

2log 2πe N

Se asume que la señal en el destino y (t ) tiene una potencia promedio fija y 2 = S +N , demodo que H (Y )≤ 1

2 log(2πe (S+N )). Si PX (x ) es una función gaussiana con media cero, entoncesy = x +n tiene densidad Gaussiana y H (Y ) se maximiza. Por lo tanto,

Cs = 1/2 log 2πe (S+N )− 1/2log 2πe N = 1/2 log

S+N

N

Finalmente, sustituyendo el valor de Cs en la ecuación 5.16 se obtiene:

C = B log (1+S/N ), (5.17)

siendo S/N la relación señal-ruido en el destino.La ecuación 5.17 es conocida como la ley de Hartley-Shannon. Cuando se acopla con el teo-

rema fundamental, tal ecuación establece el límite superior para la transmisión confiable deinformación usando un canal con ruido blanco gaussiano de banda limitada, dado por la de-sigualdad R ≤ B log (1+S/N ) [b/s]. 0.

5.3. Canales de transmisión 217

Problemas

1. Un locutor de radio describe una imagen de televisión oralmente con 1000 palabras de su

vocabulario de 10.000 palabras. Suponga que cada una de las 10.000 palabras de su vocabulariotiene la misma probabilidad de aparición en la descripción de esta imagen. Considèrese quela imagen está compuesta por unos 300,000 elementos, cada uno de los cuales puede tomaruno de los 10 niveles de gris perceptibles para producir el contraste adecuado. Además, paracualquier elemento de la imagen, los 10 niveles de brillo tienen la misma probabilidad. Deter-minen la cantidad de información que difunde el locutor al describir la imagen. ¿Diría ustedque el locutor puede hacer una buena descripción de la imagen con 1000 palabras?2. Una fuente emite seis mensajes probabilidades 1/2, 1/4, 1/8, 1/16, 1/32 y 1/32, respectiva-

mente. Encuentre la entropía de la fuente. Obtenga el código binario y encuentre la longitudmedia de la palabra código. Determine la eficiencia y la redundancia del código.3. Una fuente emite cinco mensajes con probabilidades 1/3, 1/3, 1/9, 1/9 y 1/9, respectiva-

mente. Encuentre la entropía de la fuente. Obtendrá el código 3-ario y la longitud media de lapalabra código. Determine la eficiencia y la redundancia del código.4. Para los mensajes del problema 2, obtenga el código 3-ario y encuentre la longitud media de

la palabra código. Determine la eficiencia y la redundancia de este código.5. Para los mensajes del problema 3, obtenga el código binario y encuentren la longitud media

de la palabra código. Determine la eficiencia y la redundancia de este código.

Bibliografía

[1] V. I. Kupreev and V. V. Nosach, Algoritmy i programy tsifrovoy filtratsii v obrabotke poletnoy informatsii. Kiev:Vozdushnyi transport, 1988.

[2] I. I. Privalov, Vvedenie v teoriju funktsii kompleksnogo peremennogo. Moskva: Nauka, 1977.

[3] A. M. Trakhman and V. A. Trakhman, Osnovy teorii diskretnij signalov v finitnij intervalaj. Moskva: SoviestkoeRadio, 1975.

[4] L. A. Zalmanson, Fourier, Haar, Walsh Transforms and their application in Control, Communications and otherFields. Moscow: Nauka, 1989.

[5] K. A. Samoylo, Radiotejnicheskie tsepi i signaly. Moskva: Radio i Svjaz, 1982.

[6] R. E. Edwars, Fourier Series: A Modern Introduction. Camberra: SV, 1979, vol. I, II.

[7] I. S. Gonorovskiy, Circuitos y señales radiotécnicos. Moscú: Progress, 1972.

[8] E. A. Guillemin, The Mathematics of Circuit Analysis. New York: John Wiley, 1949.

[9] L. E. Franks, Signal Theory. New Jersey: PH. Englewood Cliffs, 1969.

[10] N. Zajarchenko and P. Nudelman, Osnovy peredachi diskretnij signalov. Moskva: Radio i Svjaz, 1990.

[11] N. Levan, Systems and signals. New York: Springer Verlag, 1983.

[12] A. Zaezdnyi, Osnivy Raschetov po Statisticheskoy Radiotekhnike. Moskva: Svjaz, 1969.

[13] V. I. Tijonov, Statisticheskaja radiotejnika. Moskva: Radio i Svjaz, 1982.

[14] P. S. Akimov, A. I. Senin, and V. I. Solenov, Signaly i ij obrabotkav informatsionnyj sitemaj. Moskva: Radio iSvjaz, 1994.

[15] G. R. Cooper and C. D. McGuillen, Probabilistic Methods of Signal and System Analysis. Pardue University,1986.

[16] B. R. Levin, Teoriticheskije osnovy statistichekoy radiotekniki. Moskva: Radio i Svjaz, 1989.

[17] W. B. Davenport and W. L. Root, An Introduction to the Theory of Random Signals and Noise. New York:McGraw-Hill, 1958.

[18] I. S. Guelfand and A. A. Jaglom, Integrirovanie v Funktsionalnyj Prostranstvaj. Moskva: YspejMatNauk, 1951.

219