universita’diroma’sapienza’infocom.uniroma1.it/~lorenz/testi/sesto_2020_12_10.pdfsegnali...

61
1 . Universita’ di Roma ’Sapienza’ Dispense per il corso di Segnali Deterministici e Stocastici Corso di Laurea in Ingegneria Clinica Segnali aleatori Lorenzo Piazzo Versione Bozza del 10/12/2020

Upload: others

Post on 29-Jan-2021

2 views

Category:

Documents


0 download

TRANSCRIPT

  • 1

    .

    Universita’ di Roma ’Sapienza’

    Dispense per il corso di Segnali Deterministici e Stocastici

    Corso di Laurea in Ingegneria Clinica

    Segnali aleatori

    Lorenzo Piazzo

    Versione Bozza del 10/12/2020

  • 2

  • Indice

    1 Introduzione 5

    2 Segnali aleatori 7

    2.1 Segnali e sequenze aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    2.2 Densita’ di probabilta’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2.3 Medie d’insieme del primo ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    2.4 Medie d’insieme del secondo ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    2.5 Densita’ e medie congiunte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

    2.6 Operazioni sui processi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

    3 Processi stazionari 27

    3.1 Funzioni invarianti alla traslazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    3.2 Processi stazionari in senso stretto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

    3.3 Processi stazionari in senso lato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

    3.4 Medie di insieme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    3.5 Spettro e banda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.6 Filtraggio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

    3.7 Campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

    3.8 Ergodicita’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

    4 Processi notevoli ed applicazioni 43

    4.1 Classificazione e processi notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

    4.2 Somma di processi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

    4.3 Rumore termico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

    4.4 Quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

    5 Appendice 53

    5.1 Fenomeni e variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

    5.2 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

    5.3 Densita’ notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

    5.4 Unita’ logaritmiche - Decibel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

    5.5 Formule utili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

    3

  • 4 INDICE

  • Capitolo 1

    Introduzione

    Questa dispensa e’ il seguito della dispensa ”Segnali deterministici” dello stesso autore [1] e fornisce

    un’introduzione ai segnali aleatori. Si da’ per scontato che il lettore abbia letto la [1], a cui ci si riferisce

    in molti punti. Per esempio, le notazioni che useremo sono le stesse che abbiamo introdotto in [1] sezione

    1.4. Inoltre, per seguire questo testo, il lettore deve possedere qualche conoscenza di base di calcolo

    delle probabilita’. Alcuni risultati, presi da [2], vengono riassunti in appendice per poterli citare durante

    l’esposizione.

    Per quanto riguarda i segnali deterministici, ottime presentazioni sono [7, 8]. Per quanto riguarda

    calcolo delle probabilita’ e segnali aleatori, ottimi libri sono [3, 4, 5]. Testi che coprono sia i segnali

    determinstici che quelli stocastici sono [6, 9].

    5

  • 6 CAPITOLO 1. INTRODUZIONE

  • Capitolo 2

    Segnali aleatori

    Molti fenomeni fisici di interesse emettono segnali non noti a priori. Per esempio uno strumento che suona,

    un bersaglio che riflette il segnale di un radar, il rumore termico che disturba un apparecchio di misura

    sono tutti esempi di fenomeni fisici che emettono segnali non noti a priori. Questi segnali non possono

    essere analizzati con gli strumenti introdotti per trattare i segnali deterministici, cioe’ considerando i

    segnali come funzioni note, ma possono essere caratterizati in termini statistici. Questo approccio viene

    formalizzato nel seguito di questo capitolo, introduendo il concetto di segnale o processo aleatorio.

    Dopo le definizioni, date nella prima sezione, vengono presentati gli strumenti quantitativi con i quali

    si analizzano questi segnali ed in particolare le densita’ di probabilita’ e le medie di insieme. Nell’ultima

    parte del capitolo vengono discusse alcune operazioni che si applicano ai processi aleatori.

    2.1 Segnali e sequenze aleatori

    Ricordiamo che, nel calcolo delle probabilita’, dato un fenomeno aleatorio ed indicato con Ω l’insieme dei

    suoi possibili risultati, una variabile aleatoria e’ una regola per associare ad ognuno dei possibili risultati

    un numero. Quindi, come illustrato in figura 2.1, una variabile aleatoria e’ una funzione X(ω) dove ω ∈ Ωe’ il risultato di una esecuzione (ripetizione) del fenomeno. In modo simile un processo aleatorio e’ una

    regola per associare ad ognuno dei possibili risultati una funzione [3]. Quindi un processo aleatorio e’

    una funzione x(z, ω) definita per ω ∈ Ω e per z appartenente ad un insieme opportuno1. Il caso di cuici occuperemo e’ quello in cui z e’ una variabile temporale. In particolare, se l’insieme di definizione di

    z e’ continuo, useremo t al posto di z. In questo caso il processo x(t, ω) e’ una funzione del tempo e

    del risultato del fenomeno e viene anche detto un segnale aleatorio oppure un processo tempo continuo.

    Se invece l’insieme di definizione di z e’ discreto, useremo n al posto di z. In questo caso il processo

    x(n, ω) e’ una funzione dell’indice n e del risultato del fenomeo aleatorio e viene anche detto una sequenza

    aleatoria oppure un processo tempo discreto. Lo sviluppo della teoria e’ praticamente identico nei casi

    tempo continuo e tempo discreto, quindi tratteremo principalmente il caso continuo estendendo al caso

    discreto quando ritenuto utile. Sulla base della definizione, un processo si puo’ visualizzare in modo

    schematico come mostrato in figura 2.2 e cioe’ come un insieme di funzioni del tempo, dette realizzazioni

    del processo, ciascuna etichettata con uno dei possibili risultati. La variabile ω viene detta la variabile

    d’insieme e le variabili t oppure n le variabili temporali.

    E’ utile notare che la scrittura x(t, ω) ha le seguenti quattro interpretazioni. Pensando sia t che ω

    come variabili rappresenta un processo. Pensando t variabile ed ω assegnato, e’ una particolare funzione

    del tempo (realizzazione). Pensando t assegnato e ω variabile, e’ una variabile aleatoria che viene detta

    estratta dal processo. Pensando sia t che ω come valori assegnati, e’ un numero. Il contesto chiarira’ quale

    1Una deifnizione equivalente e’ dire che un processo aleatorio e’ una infinita’ di variabili aleatorie, x(z, ω), indicizzate

    con un parametro z che varia in un insieme opportuno.

    7

  • 8 CAPITOLO 2. SEGNALI ALEATORI

    Figura 2.1: Rappresentazione schematica di una variabile aleatoria. E’ una funzione che associa un

    numero reale ad ogni risultato del fenomeno aleatorio.

    Figura 2.2: Rappresentazione schematica di un processo. E’ una funzione che associa una funzione del

    tempo ad ogni risultato del fenomeno aleatorio.

    delle quattro interpretazioni viene usata. Le stesse considerazioni valgono per il caso tempo discreto,

    ovvero per la scrittura x(n, ω). Nel seguito, per semplificare la notazione, ometteremo di indicare la

    dipendenza dalla variabile di insieme e quindi scriveremo semplicemente x(t) per indicare il processo

    x(t, ω).

    Per fissare le idee e semplificare la presentazione, conviene imporre alcune condizioni sulle realizzazioni,

    che d’ora in poi verrano ritenute valide se non specificato altrimenti. Per prima cosa, assumeremo che,

    nel caso continuo, le realizzazioni siano definite per tutti i valori di t, da −∞ a +∞. Analogamente,nel caso discreto, le realizzazioni sono definite per tutti i valori interi di n, da −∞ a +∞. Inoltre, nelcaso continuo, conviene assumere che le realizzazioni verifichino alcuni requisiti minimi di regolarita’.

    In particolare, assumiamo che siano funzioni continue quasi ovunque. In generale, le realizzazioni sono

    funzioni a valori complessi ma, per semplicita’, nello sviluppo e negli esempi ci concentriamo sul caso dei

    processi a valori reali, estendendo al caso complesso dove ritenuto utile.

    Sorgente aleatoria. Ricordiamo che nella definizione di una variabile aleatoria, si suppone che il

    fenomeno aleatorio sia ripetibile un numero a piacere di volte, in modo che sia possibile produrre diverse

    determinazioni della variabile aleatoria. Ma quando il fenomeno aleatorio viene usato per definire un

    processo, visto che il risultato e’ una funzione del tempo che dura da −∞ a ∞, non e’ pensabile diripetere il fenomeno aleatorio piu’ di una volta. Quindi l’ipotesi di ripetibilita’ viene sostituita con

    quella di replicabilita’, ovvero si suppone di disporre di un numero alto a piacere di copie dello stesso

    fenomeno aleatorio, dette sorgenti aleatorie, ciascuna delle quali produce una realizzazione del processo

    corrispondente. In particolare, data una sorgente, a priori non e’ noto quale delle realizzazioni verra’

    prodotta e la sorgente va analizzata come un processo aleatorio. Invece a posteriori, dopo aver osservato

    l’uscita, la sorgente produce una realizzazione del processo e cioe’ un segnale deterministico. A livello

    grafico una sorgente aleatoria viene indicata con un cerchio da cui esce una freccia etichettata con la

    realizzazione emessa, come mostrato in figura 2.3.

  • 2.1. SEGNALI E SEQUENZE ALEATORI 9

    Figura 2.3: Rappresentazione grafica di una sorgente aleatoria.

    Esempio 1 Rumore termico. Consideriamo una resistenza. Gli elettroni contenuti al suo interno sono

    in continuo e casuale movimento e questi movimenti fanno si’ che ai capi della resistenza sia presente

    una differenza di potenziale (tensione), indicata con v(t), anche quando la resistenza non e’ inserita in un

    circuito. Questa tensione non e’ nota a priori, varia nel tempo ed e’ diversa fra resistenza e resistenza.

    Inoltre la sua ampieza dipende dalla temperatura a cui si trova la resistenza, visto che questa e’ una

    misura appunto della velocita’ con cui si muovono gli elettroni. Per questo motivo la tensione v(t) e’

    detta rumore termico. Per trattare il rumore termico in modo quantitativo e’ possibile modellarlo come

    un processo aleatorio di cui ogni resistore sia una sorgente che produce una particolare realizazione. �

    Notiamo che nell’esempio che abbiamo appena visto non abbiamo dato una descrizione completa

    del fenomeno aleatorio ne’ del processo. Per esempio non abbiamo specificato l’insieme dei risultati, ne’

    l’associazione fra risultati e realizzazioni. Questa e’ la situazione normale, la piu’ diffusa in pratica. Infatti,

    le definizioni che abbiamo dato sono astrazioni, utili per inquadrare il ragionamento a livello teorico ma

    normalmente troppo complicate per essere sfruttate in un approccio quantitativo. Per affrontare i processi

    in modo operativo, useremo altri strumenti, in particolare i concetti di densita’ e medie di insieme, che

    verranno introdotti nelle sezioni successive. Solo in casi particolarmente semplici, e’ possibile specificare

    il fenomeno aleatorio ed il processo in modo piu’ completo. Qui sotto vediamo due casi importanti.

    Processi ad aleatorieta’ parametrica. Un processo si dice ad aleatorieta’ parametrica quando le sue

    realizzazioni possono essere espresse come funzioni del tempo contenenti uno o piu’ parametri aleatori.

    Per esempio, data una variabile aleatoria A = A(ω) con densita’ pA(a), possiamo considerare il seguente

    processo

    x(t) = Acos2(2πft)

    le cui realizzazioni sono costituite da coseni quadri a frequenza f , fase zero e ampiezza aleatoria. Per

    rendersi conto che l’espressione precedente definisce in effetti un processo possiamo riscriverla rendendo

    esplicita la dipendenza dalla variabile di insieme. Si ottiene

    x(t, ω) = A(ω)cos2(2πft).

    In questo caso e’ spesso possibile specificare il fenomeno aleatorio sottostante e quindi il legame fra

    risultati e realizzazioni. Per esempio, possiamo pensare che la variabile A sia ottenuta facendo girare un

    puntatore (si veda sezione 5.1) e sommando 1/2 al risultato, in modo che abbia distribuzione uniforme

    in [0, 1]. Alcuni esempi di realizzazioni ottenute in questa ipotesi sono mostrati in figura 2.4.

    In conclusione, per i processi ad aleatorieta’ parametrica si dispone di una espressione analitica espli-

    cita. Questi processi sono quindi un caso particolarmente semplice e sono piu’ facili da analizzare e

    studiare. Inoltre, sono un modello adeguato per molti fenomeni ed apparati fisici di interesse pratico.

    Esempio 2 Processo armonico Un oscillatore e’ un circuito realizzato in modo da produrre una tensio-

    ne sinusoidale con una frequenza f , una ampiezza a ed una fase φ nominalmente assegnate. Naturalmente,

    gli oscillatori reali producono forme d’onda i cui parametri si discostano dai valori nominali. Mentre lo

    scostamento per l’ampiezza e la frequenza e’ di solito piccolo e puo’ essere trascurato, la fase risulta

    difficile da controllare ed e’ praticamente casuale. Allora, la forma d’onda prodotta da un oscillatore puo’

    essere moedellata come un processo ad aleatorieta’ parametrica dato da

    x(t) = cos(2πft+ φ)

  • 10 CAPITOLO 2. SEGNALI ALEATORI

    Figura 2.4: Esempi di realizzazioni del processo x(t) = Acos2(2πft) con A variabile aleatoria uniforme

    nell’intervallo [0, 1].

    dove φ e’ una variabile aleatoria con densita’ uniforme in [0, 2π] oppure in [−π, π]. Questo processo vienedetto un processo armonico. Le realizzazioni del processo sono coseni con ampiezza e frequenza assegnate

    e fase aleatoria. Alcuni esempi sono mostrati in figura 2.5. �

    Sequenza iid. Consideriamo una sequenza aleatoria xn cosi’ definita. Per un qualsiasi n assegnato, xne’ una variabile aleatoria con densita’ p(a). Per ogni coppia di interi n e m 6= n, le variabili aleatorie xne xm sono statisticamente indipendenti. Quindi, la sequenza e’ costituita da variabili indipendenti e con

    la stessa densita’ di probabilita’ e viene detta una sequenza di variabili indipendenti ed identicamente

    distribuite (iid, independent, identically distributed). La sequenza iid e’ un processo aleatorio semplice

    ed importante. Vediamo due esempi.

    Esempio 3 Consideriamo un puntatore del tipo descritto in sezione 5.1 che viene fatto girare infinite

    volte. Numeriamo le girate con gli interi da −∞ a +∞ ed indichiamo con xn il risultato dela n-esimagirata. Il risultato e’ una variabile aleatoria con densita’ uniforme in [−1/2, 1/2]. Inoltre xn e’ statisti-camente indipendente da xm poiche’ il risultato di una girata non ha impatto sul risultato di un’altra

    girata. La sequenza e’ dunque una sequenza iid. Alcune realizzazioni sono mostrate in figura 2.6. �

    Esempio 4 Consideriamo una moneta che viene lanciata infinite volte. Numeriamo i lanci con gli interi

    da −∞ a +∞ ed indichiamo con xn il risultato dell’n-esimo lancio, ponendo xn = 1 se esce testa exn = 0 se esce croce. Il risultato e’ una variabile aleatoria con densita’ uniforme discreta. Inoltre xne’ statisticamente indipendente da xm poiche’ il risultato di un lancio non ha impatto sul risultato di

    un’altro lancio. La sequenza e’ dunque una sequenza iid. Alcune realizzazioni sono mostrate in figura

    2.6. �

    2.2 Densita’ di probabilta’

    Densita’ del primo ordine. Consideriamo un processo x(t) a valori reali e fissiamo l’attenzione sul

    valore che assume in un particolare istante, per esempio t1. Come abbiamo visto nella sezione precedente

    questo valore non e’ noto a priori ed e’ invece una variabile aleatoria, indicata con x(t1), che si dice

    estratta dal processo nell’istante t1. Per comprendere meglio la situazione si osservi la figura 2.7 che

  • 2.2. DENSITA’ DI PROBABILTA’ 11

    Figura 2.5: Esempi di realizzazioni del processo armonico.

    Figura 2.6: Esempi di realizzazioni di processi iid. Sulla sinistra, girate di puntatori. Sulla destra, lanci

    di moneta.

    mostra alcune realizzazioni ed il valore che assumono per t = t1. Come si vede il valore che il processo

    assume in t1 puo’ essere il valore di una qualsiasi delle sue realizzazioni e non e’ noto fino a che non si

    osserva la realizzazione. Visto che x(t1) e’ una variabile aleatoria, possiamo descriverla tramite la sua

    densita’ di probabilita’, che e’ una funzione di una variabile data da

    px(t1)(a).

    La notazione che abbiamo usato qui sopra e’ quella tipica del calcolo delle probabilita’, in cui si usa p per

    indicare la densita’ e si pone a pedice la variabile aleatoria di cui p e’ la densita’. Inoltre abbiamo usato

    a come variabile indipendente invece di x perche’ il simbolo x e’ gia’ usato per indicare il processo.

    Nella densita’ che abbiamo appena scritto, t1 e’ pensato come un numero assegnato. Ma possiamo

    cambiare punto di vista e pensare invece che t1 sia una variabile, che assume valori sui numeri reali (sui

    tempi). Per maggiore chiarezza, possiamo sostituire t1 con t, che e’ il simbolo usato di preferenza per

    indicare una variabile temporale. Con questo cambiamento di punto di vista la funzione

    px(t)(a)

    non e’ piu’ la semplice densita’ di probabilita’ di una variabile aleatoria ma una infinita’ di densita’, una

    per ogni valore di t, e viene detta la densita’ del primo ordine del processo. Per sottolineare la differenza

  • 12 CAPITOLO 2. SEGNALI ALEATORI

    Figura 2.7: Variabile aleatoria estratta al tempo t1. A priori, la variabile puo assumere il valore di una

    qualsiasi realizzazione.

    Figura 2.8: Esempio di densita’ del primo ordine di un processo. Per ogni assegnato t resta definita la

    densita’ di una normale variabile aleatoria.

    e’ possibile introdurre una seconda notazione per questa funzione, che rende esplicita la dipendenza dalla

    variabile temporale. In particolare, la indicheremo anche come

    px(a; t).

    L’ultima espressione rende chiaro che la densita’ del primo ordine di un processo e’ una funzione di due

    variabili, di cui la seconda e’ una variabile temporale che indica l’istante di estrazione. Un esempio e’

    riportato in figura 2.8. In modo del tutto simile, si puo’ definire la densita’ del primo ordine per un

    processo tempo discreto: basta sostituire t con n. Anche l’estensione al caso di un processo a valori

    complessi e’ immediata. In questo caso, la variabile estratta e’ complessa e occorre considerare la densita’

    congiunta delle parti reale ed immaginaria. Quindi la densita’ del primo ordine risulta essere una funzione

    di tre variabili.

    Esempio 5 Consideriamo il processo x(t) = A cos2(2πt) dove A e’ una variabile aleatoria con densita’

    uniforme nell’intervallo [−1/2, 1/2]. Per un assegnato t, la variabile estratta x(t) sara’ quindi uniformenell’intervallo [− cos2(2πt)/2, cos2(2πt)/2]. Usando la (5.25) si ottiene la seguente densita’ per il processo

    px(a; t) =1

    cos2(2πt)rect

    (

    a

    cos2(2πt)

    )

    .

    Si noti che per t = k/2+ 1/4 con k intero, il coseno vale zero. In questo caso la variabile x(t) non e’ piu’

    aleatoria ma puo’ valere solo zero. Questo fatto viene rispecchiato nella densita’, che non e’ definita per

  • 2.2. DENSITA’ DI PROBABILTA’ 13

    Figura 2.9: Variabili aleatorie estratte dal processo in t1 e t2.

    t = k + 1/4, ma che per t → k + 1/4 e’ una delta-successione tendente ad un impulso di area unitariaallocato in zero. �

    Esempio 6 Consideriamo il processo x(t) = A cos2(2πt) dove A e’ una variabile aleatoria con densi-

    ta’ uniforme nell’intervallo [0, 1]. Per un assegnato t, la variabile estratta x(t) sara’ quindi uniforme

    nell’intervallo [0, cos2(2πt)]. Usando la (5.25) si ottiene la seguente densita’ per il processo

    px(a; t) =1

    cos2(2πt)rect

    (

    a− cos2(2πt)/2cos2(2πt)

    )

    .

    Esempio 7 Consideriamo il processo iid ottenuto lanciano infinite volte una moneta, in cui testa vale 1

    e croce vale 0. In questo processo la variabile estratta x[n] ha una densita’ discreta uniforme a due valori.

    Allora, usando la (5.24), la densita’ del processo si scrive

    px(a;n) =1

    2δ(a) +

    1

    2δ(a− 1).

    Si noti che non dipende da n. �

    Esempio 8 Consideriamo il processo iid ottenuto facendo girare infinite volte un puntatore. In questo

    processo la variabile estratta x[n] ha una densita’ uniforme nell’intervallo [−1/2, 1/2]. Allora, usando la(5.25), la densita’ del processo si scrive

    px(a;n) = rect(a).

    Si noti che non dipende da n. �

    Misura della densita’ di probabilita’. Negli esempi precedenti e’ stato possibile ricavare la densita’ di

    probabilita’ in modo analitico, ma per la maggior parte dei processi questo non e’ possibile. In questi casi,

    quando il processo modella un sistema fisico, e’ possibile, almeno in linea di principio, misurarla. A questo

    fine si deve disporre di un numero sufficiente di sorgenti che producano una realizzazione del processo.

    Si osservano poi i valori delle realizzazioni nell’istante t1. Questi valori sono altrettante determinazioni

    della variabile x(t1) e permettono di stimare la sua densita’, per esempio tramite un istogramma [2].

    Densita’ del secondo ordine. La densita’ del primo ordine fornisce informazioni sul valore del processo

    in un certo istante ma non dice se e come sono legati i valori del processo in istanti diversi. Quindi, non

    fornisce una descrizione sufficiente del processo da un punto di vista statistico. Per ovviare a questo

  • 14 CAPITOLO 2. SEGNALI ALEATORI

    problema, possiamo introdurre la densita’ del secondo ordine. A questo fine, consideriamo due istanti

    di tempo, indicati con t1 e t2. I valori che il processo assume in questi istanti, cioe’ x(t1) e x(t2),

    non sono noto a priori, come mostrato in figura 2.9, ma sono sono una coppia di variabili aleatorie,

    estratte dal processo. Supponendo che il processo sia a valori reali, questa coppia di variabili aleatorie

    sara’ caratterizzata da una densita’ congiunta che possiamo scrivere con le due notazioni che abbiamo

    introdotto e cioe’ come

    px(t1)x(t2)(a, b) oppure px(a, b; t1, t2).

    Nelle scritture qui sopra abbiamo supposto che gli istanti t1 e t2 siano assegnati, cosi’ che le espressioni

    forniscono la densita’ congiunta di una coppia di variabili aleatorie. Ma possiamo cambiare punto di vista

    e pensare che t1 e t2 siano variabili che assumono valori sull’asse dei tempi. Con questo secondo punto di

    vista, le scritture qui sopra esprimono la densita’ del secondo ordine del processo, che risulta essere una

    funzione di quattro variabili, di cui due temporali. In modo del tutto simile, si puo definire la densita’

    del secondo ordine per un processo tempo discreto: basta sostituire t con n. Anche l’estensione al caso di

    un processo a valori complessi e’ immediata. In questo caso, le variabili estratte sono complesse e occorre

    considerare la densita’ congiunta delle loro parti reali ed immaginarie. Quindi la densita’ del secondo

    ordine risulta essere una funzione di sei variabili.

    Esempio 9 Consideriamo la sequenza iid ottenuta facendo girare infinite volte un puntatore e ricavia-

    mone la densita’ del secondo ordine px(a, b;n1, n2). Consideriamo due variabili estratte x[n1] e x[n2] ed

    indichiamo con p1(a) e p2(b) le loro densita’. Come sappiamo, hanno tutte e due densita’ uniforme e

    quindi

    p1(a) = rect(a) p2(b) = rect(b).

    Per ricavare la densita’ congiunta, analizziamo separatamente i casi in cui n1 e n2 sono diversi o uguali.

    Nel primo caso, in cui n1 6= n2, le variabili x[n1] e x[n2] sono due variabili diverse e sono statistica-mente indipendenti per ipotesi (la sequenza e’ iid). Quindi la densita’ congiunta, che sara’ indicata con

    pn1 6=n2(a, b) si ottiene dal prodotto delle marginali ed e’ pari a

    pn1 6=n2(a, b) = p1(a)p2(b) = rect(a)rect(b).

    Nel secondo caso, in cui n1 = n2, le variabili x[n1] e x[n2] sono la stessa variabile. Quindi la densita’

    congiunta e’ degenere e si compone di un termine pari alla densita’ della prima, rect(a), e di un secondo

    termine che e’ un impulso che impone l’uguaglianza fra le determinazioni delle due variabili, δ(a− b). Lacongiunta, che sara’ indicata con pn1=n2(a, b), e’ quindi pari a

    pn1=n2(a, b) = p1(a)δ(a− b) = rect(a)δ(a− b).

    A questo punto, per scrivere la densita’ del processo, possiamo unire i due casi tramite l’impulso discreto,

    δ[n1 − n2], che vale zero se n1 6= n2 e vale uno se n1 = n2. Procedendo in questo modo si ricava

    p(a, b;n1, n2) = (1− δ[n1 − n2]) pn1 6=n2(a, b) + δ[n1 − n2] pn1=n2(a, b),

    e cioe’, esplicitamente

    p(a, b;n1, n2) = (1− δ[n1 − n2]) rect(a)rect(b) + δ[n1 − n2] rect(a) δ(a− b). (2.1)

    Si noti che la densita’ del secondo ordine dipende dalla differenza fra n1 e n2. �

    Densita’ di ordine superiore. Il procedimento che abbiamo usato per definire le densita’ del primo

    e del secondo ordine puo’ essere esteso ad un ordine qualsiasi. A questo scopo si assegnano n di istanti

    di tempo, t1, ..., tn, e si estraggono le corrispondenti variabili dal processo, x(t1), ..., x(tn). La densita’

  • 2.3. MEDIE D’INSIEME DEL PRIMO ORDINE 15

    congiunta delle variabili estratte si scrive (supponendo il processo a valori reali ed usando la notazione

    con i tempi esplicitati)

    px(a1, ..., an; t1, ..., tn).

    Se si pensa che gli istanti t1, ..., tn siano assegnati, la scrittura precedente fornisce la densita’ congiunta

    delle variabili estratte. Invece, pensando gli istanti come variabili temporali, la scrittura fornisce la

    densita’ di ordine n del processo, che risulta essere una funzione di 2n variabili.

    A livello teorico, se siamo in grado di ricavare le densita’ di ordine comunque elevato, abbiamo una

    conoscenza statistica completa del processo. Ma naturalmente questo e’ possibile solo in casi molto

    semplici. Di norma non siamo in grado di specificare tutte le densita’. Questo non e’ un problema

    perche’, in pratica, per la maggior parte delle applicazioni e’ sufficiente una conoscenza solo delle densita’

    del primo e del secondo ordine. Anzi, in molte applicazioni anche questa e’ una conoscenza troppo

    dettagliata e ci si puo’ accontentare di una descrizione statistica piu’ sintetica, basata su alcune medie

    che vengono introdotte nelle prossime sezioni.

    2.3 Medie d’insieme del primo ordine

    Dato un processo x(t), estraiamo una variabile aleatoria all’istante t, indicata ancora con x(t). Possiamo

    valutare la media, la varianza ed il valore quadratico medio di questa variabile. In particolare, indicando

    con E{.} l’operatore di valore atteso (si veda sezione 5.2), il valore medio e’

    µx(t) = E{x(t)}, (2.2)

    il valore quadratico medio (VQM, oppure MSV, Mean Square Value) e’

    πx(t) = E{|x(t)|2} (2.3)

    e la varianza e’

    σ2x(t) = E{|x(t)− µx(t)|2}. (2.4)

    Inoltre la radice della varianza viene detta la deviazione standard ed si indica con σx(t). Ora notiamo

    che, nelle scritture precedenti, possiamo pensare che t sia assegnato e in questo caso x(t) e’ una variabile

    aleatoria, le medie appena viste sono numeri e sono le normali medie della variabile aleatoria, che si

    incontrano in calcolo delle probabilita’. Se invece pensiamo che t sia variabile, le scritture precedenti

    definiscono le medie d’insieme del primo ordine del processo, che non sono numeri ma, in generale,

    funzioni del tempo, visto che la variabile aleatoria cambia per ogni diverso t. Questo fatto e’ stato

    evidenziato mettendo il tempo come argomento fra parentesi. Come secondo commento notiamo che

    abbiamo dato le definizioni nel caso generale di un processo complesso. Nel caso di un processo reale, il

    modulo quadro puo’ essere sostituito da un semplice quadrato.

    Per quanto riguarda il calcolo delle medie di insieme, questo puo’ farsi utilizzando il teorema fonda-

    mentale del valore atteso e cioe’ la (5.2). In particolare, supponendo che il processo sia reale e indicando

    la sua densita’ di probabilita’ con px(a; t), si ricava

    µx(t) = E{x(t)} =∫

    apx(a; t)da (2.5)

    πx(t) = E{|x(t)|2} =∫

    |a|2px(a; t)da (2.6)

    σ2x(t) = E{|x(t)− µx(t)|2} =∫

    |a− µx(t)|2px(a; t)da. (2.7)

    Nel caso in cui il processo sia a valori complessi la valutazione del valore atteso si puo’ fare in modo

    del tutto simile, con la sola complicazione che l’integrale da semplice diviene doppio, visto che va fatto

  • 16 CAPITOLO 2. SEGNALI ALEATORI

    Figura 2.10: A sinistra, legame qualitativo fra densita’, valore medio, valore quadratico medio e varianza

    di una variabile aleatoria. Sulla destra, reppresentazione schematica della media di un processo: e’ il

    baricentro della densita’ del processo al variare del tempo.

    congiuntamente sulla parte reale e sulla parte immaginaria. Per semplicita’ omettiamo le espressioni

    relative.

    Le espressioni precedenti permettono di calcolare le medie del primo ordine a partire dalla densita’

    del primo ordine del processo ma questo non e’ l’unico modo di ricavarle. Come vedremo, in molti

    casi le medie possono essere ricavate per altre vie, sfruttando le proprieta’ del valore atteso e il teorema

    fondamentale. Per concludere notiamo che l’estensione delle definizioni appena date e delle considerazioni

    appena fatte al caso di processi tempo discreti e’ immediata. E’ sufficente sostituire la variabile t con un

    indice n.

    Interpretazione e proprieta’. Il significato delle medie del primo ordine di un processo e’ analogo

    a quello delle medie di una normale variabilie aleatoria, si veda figura 2.10. La differenza e’ che danno

    informazioni sul valore del processo al tempo t, visto che sono calcolate sulla variabilie aleatoria estratta

    dal processo in un istante t. In particolare il valore medio rappresenta il valore attorno al quale, nell’istante

    t, si concentrano i valori di x(t). Il valore quadratico medio indica di quanto il quadrato di x(t) si

    distacca dallo zero e quindi e’ una misura della entita’ del processo nell’istante t. La varianza e’ la media

    del quadrato della distanza di x(t) dal suo valore medio e quindi e’ ancora una misura della entita’ del

    processo. La radice della varianza, e cioe’ deviazione standard, indica di quanto l’ampiezza del processo, in

    un istante t, si distacca dal valore medio nello stesso istante e quindi e’ una terza misura di entita’. Infine,

    notiamo che le tre medie che abbiamo introdotto non sono indipendenti l’una dall’altra. In particolare,

    dalla (5.22), si ottiene

    σ2x(t) = πx(t)− |µx(t)|2 (2.8)

    da cui segue che se la media e’ zero, varianza e MSV sono uguali. L’equazione si estende al caso discreto

    semplicemente sostituendo il tempo t con un indice n.

    Esempio 10 Consideriamo il processo x(t) = Acos(2πft) dove A e’ una variabile aleatoria unifome in

    [0, 1]. Per il valore medio abbiamo

    µx(t) = E{x(t)} = E{Acos(2πft)} = E{A}cos(2πft) =1

    2cos(2πft),

    dove abbiamo usato le proprieta’ del valore atteso e il valore medio di una variabile a densita’ uniforme

    riportati in appendice. Per il valore quadratico medio abbiamo

    πx(t) = E{x2(t)} = E{A2cos2(2πft)} = E{A2}cos2(2πft) =1

    3cos2(2πft),

  • 2.3. MEDIE D’INSIEME DEL PRIMO ORDINE 17

    Figura 2.11: Grafico dell densita’ uniforme nell’intervallo [−π, π].

    dove abbiamo usato le proprieta’ del valore atteso e il valore quadratico medio di una variabile a densita’

    uniforme riportati in appendice. Per la varianza, usando la (2.8), abbiamo

    σ2x(t) = πx(t) + µ2x(t) =

    1

    12cos2(2πft).

    Esempio 11 Processo iid. Consideriamo la sequenza iid ottenuta facendo girare un puntatore infinite

    volte. La generica variabile estratta ha densita’ uniforme in [−1/2, 1/2]. Quindi, usando i risultati diappendice, abbiamo

    µx[n] = 0 πx[n] =1

    12σ2x[n] =

    1

    12

    Si noti che le medie del primo ordine di questo processo non dipendono dal tempo. �

    Esempio 12 Processo armonico. Consideriamo il processo armonico x(t) = cos(2πt + φ) in cui φ e’

    una variabilie aleatoria con distribuzione uniforme nell’intervallo [−π, π] e quindi

    pφ(a) =1

    2πrect

    ( a

    )

    ,

    come mostrato in figura 2.11. Usando la (5.2) possiamo scrivere

    µx(t) = E{x(t)} = E{cos(2πt+ φ)} =∫

    cos(2πt+ a)pφ(a)da.

    L’ultimo integrale si calcola facilmente sostituendo pφ(a) con la sua espressione e risulta

    µx(t) =1

    ∫ π

    −π

    cos(2πt+ a)da = 0

    dove l’ultima uguaglianza si ottiene notando che nell’integrale e’ presente una funzione sinusoidale

    integrata esattamente su un periodo. In modo simile usando la (5.2) possiamo scrivere

    πx(t) = E{|x(t)|2} = E{cos2(2πt+ φ)} =∫

    cos2(2πt+ a)pφ(a)da.

    L”ultimo integrale si calcola facilmente sostituendo pφ(a) con la sua espressione ed usando poi la (5.28).

    Risulta

    πx(t) =1

    ∫ π

    −π

    cos2(2πt+ a)da =1

    ∫ π

    −π

    [1

    2+

    1

    2cos(4πt+ 2a)]da =

    =1

    ∫ π

    −π

    da+1

    ∫ π

    −π

    cos(4πt+ 2a)da =1

    2

    dove abbiamo usato il fatto che l’ultimo integrale si annulla visto che e’ una funzione sinusoidale integrata

    esattamente su due periodi. La varianza sara’ uguale al VQM, visto che la media e’ zero. Si noti che le

    medie del processo armonico non dipendono dal tempo. �

  • 18 CAPITOLO 2. SEGNALI ALEATORI

    Figura 2.12: Realizzazioni di due processi con differenti velocita’ di variazione e stesse medie del primo

    ordine.

    Misura delle medie di insieme. Esattamente come accade per la densita’ di probabilita’, nei casi in

    cui il processo e’ un modello per un fenomeno fisico, anche se non si dispone di una espressione analitica

    che permetta il calcolo delle sue medie d’insieme e’ comunque possibile ricavarle tramite una misura.

    Consideriamo per esempio il valore medio. Supponendo di disporre di n sorgenti aleatorie che producono

    altrettante realizzazioni del processo, che indichiamo con x(i)(t) per i = 1, ..., n, una stima del valore

    medio del processo, indicata con µ̂(t) e’ data da [2]

    µ̂(t) =1

    n

    n∑

    i=1

    x(i)(t)

    e la stima risulta tanto migliore quanto maggiore e’ n.

    2.4 Medie d’insieme del secondo ordine

    Le medie d’insieme del primo ordine caratterizzano il valore di un processo in un certo istante t, ma non

    dicono nulla sulle relazioni che esistono fra i valori del processo in istanti diversi. Per esempio in figura

    2.12 abbiamo riportato alcune realizzazioni di due processi, x(t) e y(t). I due processi sono chiaramente

    diversi ed in particolare il primo varia piu’ velocemente del secondo, ma hanno le stesse medie del primo

    ordine. Quindi, queste medie non sono in grado di catturare questo aspetto.

    La relazione fra i valori di un processo in istanti diversi puo’ essere caratterizzata introducendo le

    medie d’insieme del secondo ordine del processo. In particolare, assegnati due istanti t1 e t2 ed estratte

    le variabili corrispondenti x(t1) e x(t2), possiamo considerare la loro correlazione

    Rx(t1, t2) = E{x(t1)x∗(t2)}. (2.9)

    e la loro covarianza

    Cx(t1, t2) = E{[x(t1)− µx(t1)][x(t2)− µx(t2)]∗}. (2.10)

    Come per medie del primo ordine, nelle ultime scritture, possiamo pensare che t1 e t2 siano assegnati; in

    questo caso le medie sono numeri e normali medie di una coppia di variabili, gia’ studiate in calcolo delle

    probabilita’. Se invece pensiamo che t1 e t2 siano variabili, le scritture precedenti definiscono le medie

    d’insieme del secondo ordine del processo, che non sono numeri ma, in generale, funzioni di una coppia

    di variabili temporali. Questo fatto e’ stato evidenziato mettendo le variabili t1 e t2 come argomento fra

    parentesi. In particolare, la prima equazione viene chiamata la funzione di autocorrelazione del processo

    e la seconda la funzione di autocovarianza. Piu’ brevemente spesso si dice semplicemente correlazione e

  • 2.4. MEDIE D’INSIEME DEL SECONDO ORDINE 19

    covarianza. Notiamo anche che abbiamo dato le definizioni nel caso generale di un processo complesso.

    Nel caso di un processo reale, le definizioni possono essere semplificate eliminando il coniugato.

    Il calcolo delle medie di insieme del secondo ordine puo’ farsi utilizzando il teorema fondamentale

    del valore atteso. In particolare, supponendo che il processo sia reale e indicando la sua densita’ di

    probabilita’ del secondo ordine con px(a, b; t1, t2), dalla (5.2) si ricava

    Rx(t1, t2) = E{x(t1)x∗(t2)} =∫

    ab∗px(a, b; t1, t2)da db. (2.11)

    Cx(t1, t2) = E{[x(t1)− µx(t1)][x(t2)− µx(t2)]∗} =

    =

    [a− µx(t1)][b− µx(t2)]∗px(a, b; t1, t2)da db. (2.12)

    Nel caso in cui il processo sia a valori complessi la valutazione del valore atteso si puo’ fare in modo

    del tutto simile, con la sola complicazione che l’integrale da doppio diviene quadruplo, visto che va fatto

    congiuntamente sulla parte reale e sulla parte immaginaria delle due variabili. Per semplicita’ omettiamo

    le espressioni relative.

    Le espressioni precedenti permettono di calcolare le medie del secondo ordine a partire dalla densita’

    del secondo ordine del processo ma anche in questo caso spesso le medie possono essere ricavate per altre

    vie, sfruttando le proprieta’ del valore atteso e il teorema fondamentale. Per concludere notiamo che

    l’estensione delle definizioni appena date e delle considerazioni appena fatte al caso di processi tempo

    discreti e’ immediata. E’ sufficente sostituire i tempi t1 e t2 con due indici n1 e n2.

    Interpretazione e proprieta’. Le interpretazioni e le proprieta’ delle medie del secondo ordine di un

    processo seguono immediatamente da quelle delle medie di una coppia di variabili aleatorie. Esaminiamo

    il caso tempo continuo ma l’estensione al caso discreto e’ immediata, basta sostituire t con n. In primo

    luogo, dalla (5.23), si ricava

    Cx(t1, t2) = Rx(t1, t2)− µx(t1)µx(t2)∗, (2.13)

    che mostra che correlazione e covarianza sono legate e sono uguali negli istanti in cui la media del processo

    e’ nulla. Un’altra osservazione utile e’ che, a partire dalle definizioni, e’ immediato verificare le seguenti

    relazioni

    Rx(t, t) = πx(t) (2.14)

    Cx(t, t) = σ2x(t) (2.15)

    che mostrano che varianza e MSV si possono ricavare da covarianza e correlazione.

    Visto che correlazione e covarianza sono legate, studiamo le proprieta’ della covarianza: quelle della

    correlazone sono analoghe. Dalla discussione fatta in sezione 5.2 sappiamo che la covarianza e’ una misura

    di somiglianza fra variabili aleatorie. Quindi la covarianza del processo misura la somiglianza fra i valori

    del processo negli istanti t1 e t2. In particolare, la covarianza gode delle seguenti proprieta’

    1) x(t1) e x(t2) statisticamente indipendenti → Cx(t1, t2) = 0.2) |Cx(t1, t2)| ≤ σx(t1)σx(t2)3) x(t2) = ax(t1) ↔ |Cx(t1, t2)| = σx(t1)σx(t2)

    Come si vede la covarianza vale zero se i valori del processo sono statisticamente indipendenti. In questo

    caso la conoscenza del valore del processo in t1 non da’ nessuna informazione sul valore in t2 (e viceversa):

    i valori sono massimamente diversi e la covarianza e’ minima. Inoltre il modulo della covarianza e’

    limitato dal prodotto delle deviazioni standard e se raggiunge questo valore per qualche coppia di istanti,

    i valori del processo in quegli istanti sono proporzionali, determinsticamentre legati. Quindi, se e’ noto il

    coefficiente di proporzionalita’, da uno dei due si puo’ calcolare l’altro: i valori sono massimamente simili

    e la covarianza e’ massima. La covarianza puo’ essere nulla anche se i due valori non sono statisticamente

    indipendenti. In questo caso i valori si dicono scorrelati. Questa e’ una condizione simile ma meno forte

  • 20 CAPITOLO 2. SEGNALI ALEATORI

    Figura 2.13: Grafico qualitativo delle funzioni di covarianza per i due processi di figura 2.12.

    dell’indipendenza statistica. In particolare, due valori scorrelati sono ancora poco legati e le variabili

    aleatorie scorrelate godono di alcune delle proprieta’ di quelle indipendenti.

    Consideriamo di nuovo i processi mostrati in figura 2.12 e tracciamo un grafico qualitativo della

    covarianza nei due casi. Visto che la covarianza e’ una funzione a due variabili, per semplicita’ tracciamo

    il grafico di C(t, 0) e cioe’ il grafico della covarianza fra il valore del processo al tempo zero ed il valore ad

    un generico tempo t. Il grafico e’ tracciato in figura 2.13 e mostra che la covarianza e’ molto diversa nei

    due casi. Per il processo x(t), che varia velocemente, il valore in zero e il valore in t perdono raidamente

    correlazione all’aumentare di t. La covarianza ha un picco in zero, dove i due valori sono identici, e poi

    diminuisce rapidamente verso lo zero. Per il processo y(t), che varia lentamente, il valore in zero e in t

    restano correlati molto piu’ a lungo e la covarianza rimane vicina al massimo per un ampio intervallo di

    tempo. L’intervallo di tempo in cui la covarianza rimane vicina al massimo valore si chiama l’intervallo

    di correlazione o di coerenza e la sua durata misura per quanto tempo i valori del processo rimangono

    correlati.

    Esempio 13 Consideriamo il processo x(t) = Acos(2πft) dove A e’ una variabile aleatoria unifome in

    [0, 1]. Per la correlazione abbiamo

    Rx(t1, t2) = E{x(t1)x(t2)} = E{Acos(2πft1)Acos(2πft2)} =

    = E{A2}cos(2πft1)cos(2πft2) =1

    3cos(2πft1)cos(2πft2),

    dove abbiamo usato le proprieta’ del valore atteso e il valore medio di una variabile a densita’ uniforme

    riportati in appendice. Per questo processo, nell’esempio 10 avevamo ricavato la media, che era

    µx(t) =1

    2cos(2πft).

    Allora, per la covarianza, usando la (2.13) si ottiene

    Cx(t1, t2) = Rx(t1, t2)− µx(t1)µx(t2) =1

    3cos(2πft1)cos(2πft2)−

    1

    4cos(2πft1)cos(2πft2) =

    =1

    12cos(2πft1)cos(2πft2).

  • 2.4. MEDIE D’INSIEME DEL SECONDO ORDINE 21

    Esempio 14 Consideriamo la sequenza iid ottenuta facendo girare infinite volte un puntatore. Per questa

    sequenza, nell’esempio 9 abbiamo ricavato la densita’ del secondo ordine px(a, b;n1, n2). Possiamo quindi

    usare le (2.11) e (2.12) per calcolare correlazione e covarianza. Questo non e’ il metodo piu’ veloce, come

    vedremo nel prossimo esempio, ma e’ istruttivo. Per la correlazione abbiamo

    Rx[n1, n2] =

    a b px(a, b;n1, n2) da db =

    =

    a b {(1− δ[n1 − n2]) rect(a)rect(b) + δ[n1 − n2] rect(a) δ(a− b)} da db

    dove nell’ultimo passaggio abbiamo sostituito la densita’ del processo data dalla (2.1). Sviluppando

    l’integrale ricaviamo

    Rx[n1, n2] = (1− δ[n1−n2])[∫

    a rect(a)da

    ] [∫

    b rect(b)db

    ]

    + δ[n1−n2]∫

    a rect(a)

    [∫

    b δ(a− b)db]

    da.

    I primi due intergrali sono tutti e due nulli, come e’ facile verificare (sono il valore medio di una variabile

    uniforme), quindi

    Rx[n1, n2] = δ[n1 − n2]∫

    a rect(a)

    [∫

    b δ(a− b)db]

    da.

    L’integrale interno, in db, si valuta con le proprieta’ dell’impulso e vale a. Quindi si ottiene

    Rx[n1, n2] = δ[n1 − n2]∫

    a2 rect(a) da.

    L’ultimo intergrale si valuta facilmente (e’ il VQM di una variabile uniforme) per ottenere

    Rx[n1, n2] =1

    12δ[n1 − n2].

    Visto che la media del processo e’ zero, come abbiamo gia’ verificato, la covarianza e’ identica. Si noti

    che correlazione e covarianza dipendono dalla differenza fra gli indici n1 e n2. �

    Esempio 15 Consideriamo la stessa sequenza iid vista nell’esempio precedente e ricaviamo la correla-

    zione per altra via. La correlazione e’ il seguente valore atteso

    Rx[n1, n2] = E{x[n1]x[n2]}.

    Quando n1 6= n2 le variabili sono indipendenti e a media nulla, quindi abbiamo

    Rx[n1, n2] = E{x[n1]x[n2]} = E{x[n1]}E{x[n2]} = 0.

    Quando n1 = n2 le variabili sono la stessa variabile, uniforme nell’intervallo [−1/2, 1/2], quindi abbiamo

    Rx[n1, n2] = E{x[n1]x[n2]} = E{x2[n1]} =1

    12.

    Unendo i due casi con l’impulso discreto si riottiene la correlazione dell’esempio precedente. �

    Misura delle medie del secondo ordine. Quando il processo e’ un modello per un fenomeno fisico

    e’ possibile ricavare le medie del secondo ordine tramite una misura [2]. Consideriamo per esempio

    l’autocorrelazione. Supponendo di disporre di n sorgenti aleatorie che producono altrettante realizzazioni

    del processo, che indichiamo con x(i)(t) per i = 1, ..., n, una stima della autocorrelazione del processo,

    indicata con R̂(t1, t2) e’ data da

    R̂(t1, t2) =1

    n

    n∑

    i=1

    x(i)(t1)x(i)(t2)

    e la stima risulta tanto migliore quanto maggiore e’ n.

  • 22 CAPITOLO 2. SEGNALI ALEATORI

    2.5 Densita’ e medie congiunte

    In alcune applicazioni e’ necessario introdurre e analizzare piu’ di un processo contemporaneamente. Per

    cominciare, consideriamo il caso semplice in cui sono presenti due processi, x(t) e y(t). Per caratterizzare

    statisticamente la coppia di processi, possiamo considerare una coppia di variabili aleatorie, x(tx) e y(ty),

    ottenute estraendo il valore del primo processo nell’istante tx e il valore del secondo processo nell’istante

    ty. In questo modo resta definita la densita’ congiunta delle due variabili, che si scrive

    pxy(a, b; tx, ty).

    La scrittura qui sopra, se tx e ty sono pensati come valori assegnati, definisce la densita’ congiunta della

    coppia di variabuli aleatorie estratte. Ma cambiando punto di vista e pensando tx e ty come variabili,

    definisce la densita’ congiunta della coppia di processi, che risulta essere una funzione di quattro variabili e

    che costituisce il primo livello di descrizione statistica della coppia di processi. Naturalmente, e’ possibile

    considerare densita’ di ordine superiore, estraendo un numero maggiore di variabili, ma di solito non e’

    necessario ne’ pratico nelle applicazioni. Inoltre, l’approccio si estende in modo ovvio per caratterizzare

    statisticamente piu’ di due processi, estraendo una variabile aleatoria da ogni processo di interesse.

    Oltre che la densita’ di probabilita’ congiunta, e’ possibile considerare anche medie d’insieme con-

    giunte, che coinvolgono variabili aleatorie estratte da entrambi i processi. Per esempio si definisce la

    cross-correlazione (o intercorrelazione) come

    Rx,y(t1, t2) = E{x(t1)y∗(t2)}

    e la la cross-covarianza (o intercovarianza) come

    Cx,y(t1, t2) = E{[x(t1)− µx(t1)][y(t2)− µy(t2)]∗}.

    L’interpretazione ed il significato di queste medie d’insieme sono analoghi a quelli gia’ visti per il caso

    della autocorrelazione e della autocovarianza ed in particolare sono entrambi una misura di somiglianza

    fra le due variabili aleatorie coinvolte nella loro definizione.

    Per brevita’ rinunciamo ad una trattazione piu’ approfondita di questi argomenti per la quale il lettore

    interessato puo’ consultare testi specifici, per esempio [3]. Notiamo pero’ che un caso che spesso ricorre

    nelle applicazioni e’ quello in cui i processi risultano statisticamente indipendenti, perche’ generati da

    apparati o fenomeni distinti. In questo caso l’analisi si semplifica e le densita’ e le medie congiunte si

    ottengono da quelle marginali. Per esempio, se i processi sono indipendenti, per la densita’ congiunta

    risulta

    pxy(a, b; tx, ty) = px(a; tx)py(b; ty).

    Inoltre, come e’ facile verificare valutando le medie, la covarianza e’ nulla mentre la correlazione si riduce

    al prodotto delle medie. Infatti

    Rx,y(t1, t2) = E{x(t1)}E{y∗(t2)} = µx(t1)µ∗y(t2).

    2.6 Operazioni sui processi

    Sui processi e’ possibile definire tutte le operazioni che vengono applicate ai segnali deterministici. Il

    risultato e’, in generale, un nuovo processo. La definizione delle operazioni e’ intuitiva e una descrizione

    generale dell’approccio e’ la seguente. Supponiamo di avere uno o piu’ processi ed una operazione che

    opera sui segnali deterministici. Possiamo applicare questa operazione ad una realizzazione dei processi

    ed ottenere un altro segnale deterministico, che viene riguardato come una realizzazione del processo

    risultato. Vediamo alcuni casi di interesse.

  • 2.6. OPERAZIONI SUI PROCESSI 23

    Figura 2.14: Passaggio di un processo attraverso un sistema. Ogni realizzazione del processo di ingresso

    attraversa il sistema e produce una realizazione del processo di uscita.

    Somma di processi. Supponiamo di avere due processi x(t) e y(t) e di voler definre la loro somma

    z(t) = x(t) + y(t).

    Per ogni assegnato valore della variabile di insieme ω, la realizzazione del processo x e’ un segnale

    deterministico x(t, ω) e quella del processo y un segnale deterministico y(t, ω). Sommando questi due

    segnali si ottiene

    z(t, ω) = x(t, ω) + y(t, ω)

    che e’ la realizzazione del processo risultato per l’assegnato valore di ω. Al variare di ω sui possibili

    risultati del fenomeno aleatorio, l’espressione precedente definisce il processo risultato z(t).

    Passaggio attraverso un sistema. Consideriamo un processo x(t) ed un sistema Γ. Facendo passare

    una realizzazione del processo, sia x(t, ω) attraverso il sistema si ottiene un segnale di uscita y(t, ω), come

    illustrato in figura 2.14. Al variare di ω resta definito il processo

    y(t) = Γ{x(t)}

    che viene detto il processo di uscita. Si noti che questo esempio comprende, come casi particolari, i

    sistemi LTI ed quindi la traslazione e la scalatura di un processo.

    Esempio 16 Consideriamo un processo dato da

    x(t) = A[cos(2πt) + cos(2π3t)]

    dove A e’ una variabile aleatoria uniforme in [0, 1]. Supponiamo che il processo attraversi un sistema LTI

    con risposta in frequenza

    H(f) = rect(f/4).

    Per ricavare una espressione per il processo di uscita y(t), consideriamo una realizzazione del processo di

    ingresso, che si scrive come sopra ma pensando che A sia un numero assegnato, e calcoliamo l’uscita corri-

    spondente. Per il calcolo lavoriamo in frequenza e ricaviamo la trasformata di Fourier (FT) dell’ingresso,

    che e’ la somma di quattro impulsi:

    X(f) =A

    2[δ(f + 1) + δ(f − 1) + δ(f + 3) + δ(f − 3)]

    La trasformata dell’uscita si ottiene come Y (f) = X(f)H(f). Il prodotto e’ mostrato in figura 2.15 ed e’

    Y (f) =A

    2[δ(f + 1) + δ(f − 1)].

  • 24 CAPITOLO 2. SEGNALI ALEATORI

    Figura 2.15: Trasformate dei segnali e risposta in frequenza del filtro dell’esempio 16.

    Figura 2.16: Campionamento di un processo. Ogni realizzazione del processo viene campionata e produce

    una realizazione del processo tempo discreto di uscita.

    Antitrasformando, si ottiene

    y(t) = Acos(2πt).

    Nell’espressione precedente, A e’ un valore assegnato e y(t) una realizzazione del processo di uscita. Ma

    cambiando punto di vista e considerando di nuovo A una variabile aleatoria l’espressione precedente

    fornisce il processo di uscita. �

    In linea di principio, le densita’ e le medie di insieme del processo risultato si possono calcolare a partire

    dalle densita’ e medie dei processi operandi. In pratica, questo e’ effettivamente possibile solo in casi

    molto semplici. Per brevita’, non sviluppiamo questo punto in modo organico. Ci limitiamo a studiare

    alcuni casi importanti. Uno e’ riportato qui sotto. Altri verranno analizzati nei capitoli successivi.

    Campionamento. Un campionatore a passo T e frequenza F = 1/T e’ un particolare sistema, in cui

    entra un processo tempo continuo x(t) e da cui esce un processo tempo discrto x[n]. Le realizzazioni

    dell’uscita si ottengono campionando le realizzazioni dell’ingresso, come mostrato in figura 2.16. In questo

    caso, le densita’ e le medie dell’uscita si ottengono immediatamente dalle densita’ e medie dell’ingresso.

    Infatti, consieriamo una variabile aleatoria estratta all’indice n dal processo di uscita, x[n]. Questa e’ la

    stessa variabile che si estrae dal processo di ingresso all’istante t = nT e cioe’ x[n] = x(nT ). Allora, per

  • 2.6. OPERAZIONI SUI PROCESSI 25

    esempio, la densita’ del primo ordine del processo di uscita (indicata con le parentesi quadre) sara’

    p[a;n] = p(a;nT )

    e cioe’ si ottiene campionando la densita’ del processo di ingresso (indicata con le parentesi tonde) sulla

    variabile temporale. Analogamente, per il valore medio del processo avremo

    µx[n] = E{x[n]} = E{x(nT )} = µx(nT ),

    e cioe’, ancora, che si ottiene campionando il vaore medio del processo di ingresso. Gli stessi risultati

    si ottengono per le altre medie e si estendono immediatamente anche alle densita’ e medie di ordini

    superiori.

  • 26 CAPITOLO 2. SEGNALI ALEATORI

  • Capitolo 3

    Processi stazionari

    Il concetto di processo aleatorio introdotto nel capitolo precedente e’ un modello adatto per molti feno-

    meni di interesse, ma e’ anche troppo generale per i nostri scopi ed e’ complicato da un punto di vista

    matematico. Fortunatamente, molti dei segnali di interesse nelle applicazioni possono essere rappresen-

    tati con un modello semplificato, quello di processo stazionario. In questi processi, le caratteristiche

    statistiche di interesse non cambiano se tutte le realizzazioni vengono traslate di un certo tempo. I pro-

    cessi stazionari sono piu’ semplici da trattare matematicamente. In particolare, come vedremo in questo

    capitolo, per questi processi esistono strumenti analitici sostanzialmente identici a quelli esistenti per i

    segnali di potenza. Grazie a questo fatto, l’analisi dei processi stazionari si sviluppa in modo molto simile

    a quella dei segnali deterministici.

    Come nel capitolo precedente ci concentriamo sui segnali tempo continui limitandoci a considerare i

    segnali tempo discreti negli esempi e nei casi in cui l’ estensione dei concetti ai segnali tempo discreti non

    sia immediata.

    3.1 Funzioni invarianti alla traslazione

    Visto che ci servira’ nel corso del capitolo, diamo la seguente definizione

    Definizione 1 Una funzione f di n variabili, f(t1, t2, ..., tn), si dice invariante alla traslazione se risulta

    f(t1, t2, ..., tn) = f(t1 + T, t2 + T, ..., tn + T ) ∀t1, t2, ..., tn, T. (3.1)

    A parole, il valore della funzione non cambia se a tutti i suoi argomenti viene aggiunta una stessa quantita’

    ovvero, pensando che le variabili siano temporali, se tutti vengono traslati della stessa quantita’ tempo.

    Esaminiamo una proprieta’ delle funzioni invarianti.

    Una funzione f , di n variabili e invariante alla traslazione puo’ essere specificata tramite una funzione

    f̄ di n− 1 variabili. Infatti, usando la definizione con T = −tn otteniamo

    f(t1, t2, ..., tn) = f(t1 − tn, t2 − tn, ..., 0).

    Allora, possiamo definire

    f̄(t1, t2, ..., tn−1) = f(t1, t2, ..., tn−1, 0) (3.2)

    che e’ una funzione di n− 1 variabili, e dalle relazioni precedenti si ricava

    f(t1, t2, ..., tn) = f̄(t1 − tn, t2 − tn, ..., tn−1 − tn), (3.3)

    27

  • 28 CAPITOLO 3. PROCESSI STAZIONARI

    che mostra che f si puo’ ottenere dalla f̄ . Visto che ci serviranno fra poco, specializziamo la proprieta’

    ai casi particolari di funzioni ad una e due variabili.

    Consideriamo una funzione f(t), di una variabile, e supponiamo che sia invariante ad una traslazione.

    Dalla definizione segue che

    f(t) = f(t+ T ) ∀t, T

    e visto che l’equazione precedente deve essere verificata per qualsiasi T , usando T = −t ricaviamo

    f(t) = f(0) = f̄

    ovvero che la funzione f(t) e’ una costante, cioe’ una funzione di 0 variabli, ed e’ pari al valore che assume

    nell’origine.

    Consideriamo ora una funzione f(t1, t2), di due variabili, e supponiamo che sia invariante ad una

    traslazione. Dalla definizione segue che

    f(t1, t2) = f(t1 + T, t2 + T ) ∀t1, t2, T

    e visto che l’equazione precedente deve essere verificata per qualsiasi T , usando T = −t2 ricaviamo

    f(t1, t2) = f(t1 − t2, 0).

    Allora, introducendo

    f̄(t) = f(t, 0). (3.4)

    dalle ultime due equazioni ricaviamo che

    f(t1, t2) = f̄(t1 − t2).

    L’ultima espressione mostra che la f non dipende dai suoi argomenti separatamente, ma solo dalla loro

    differenza. E’ utile notare che, di conseguenza, nella espressione analitica della f gli argomenti compaiono

    sempre sottratti, cioe saranno sempre nella forma (t1− t2). Inoltre, si noti che, visto che la f e’ invariantealla traslazione, la funzione f̄ si puo’ definire, piu’ in generale, cosi’

    f̄(t) = f(τ + t, τ). (3.5)

    dove τ e’ un numero qualsiasi.

    La definizione di funzione invariante alla traslazione si estende senza difficolta’ al caso tempo discreto,

    sotituendo t con n e imponendo che la traslazione sia un numero intero. Anche le proprieta’ sono le

    stesse.

    3.2 Processi stazionari in senso stretto

    Definizione 2 Un processo x(t) si dice Stazionario in Senso Stretto (SSS, Strict Sense Stationary) se le

    sue densita’ di probabilita’ sono invarianti ad una traslazione delle variabili temporali, ovvero se verificano,

    per qualsiasi n, la seguente condizione

    p(a1, a2, ..., an; t1, t2, ..., tn) = p(a1, a2, ..., an; t1 + T, t2 + T, ..., tn + T ) ∀t1, t2, ..., tn, T.

    Se la condizione e’ verificata fino ad un certo valore di n e non oltre, il processo si dice stazionario fino

    all’ordine n. �

    A parole, la definizione precedente richiede che le densita’ del processo non cambino se si traslano gli

    istanti di estrazione delle variabili tutti della stessa quantita’.

  • 3.2. PROCESSI STAZIONARI IN SENSO STRETTO 29

    Sulla base delle proprieta’ delle funzioni invarianti alla traslazione viste nella sezione precedente, se il

    processo e’ SSS la densita’ del primo ordine, px(a; t), non dipende dalla variabile temporale. In particolare,

    si puo’ definire una funzione densita’ ad una sola variabile, data da

    p̄x(a) = px(a; 0)

    e scrivere

    px(a; t) = p̄x(a). (3.6)

    Inoltre, la densita’ del secondo ordine, px(a, b; t1, t2), dipende solo dalla differenza delle variabili temporali.

    Usando la (3.2) si puo’ definire la seguente densita’

    p̄x(a, b; t) = px(a, b; t, 0)

    e poi esprimere la densita’ del processo tramite la (3.3) come

    px(a, b; t1, t2) = p̄x(a, b; t1 − t2). (3.7)

    Analogamente, tutte le densita’ di ordine superiore si semplificano e possono essere espresse con una

    variabile temporale in meno. Infine, usando la (3.6) nelle (2.5),(2.6) e (2.7) si ricava immediatamente che

    le medie di insieme del primo ordine sono costanti, non dipendono dal tempo. E usando la (3.7) nelle

    (2.11) e (2.12) si verifica che le medie di insieme del secondo ordine dipendono solo dalla differenza delle

    variabili temporali.

    Nel caso tempo discreto, la definizione di processo SSS e’ identica, sostituendo t con n. Anche in

    questo caso le densita’ e le medie di insieme si semplificano come gia’ visto per il caso tempo continuo.

    Esempio 17 Processo iid. Consideriamo il processo iid ottenuto facendo girare infinite volte un pun-

    tatore. Per questo processo abbiamo ricavato la densita’ del primo ordine nell’esempio 8 e quella del

    secondo nell’esempio 9. In particolare abbiamo trovato

    px(a;n) = rect(a).

    p(a, b;n1, n2) = (1− δ[n1 − n2]) rect(a)rect(b) + δ[n1 − n2] rect(a) δ(a− b).E’ facile controllare che le densita’ precedenti sono invarianti ad una traslazione degli indici temporali.

    Quindi il processo e’ SSS al II ordine. Il processo e’ in realta’ SSS a qualsiasi ordine, ma non lo dimostriamo

    per brevita’. �

    Esempio 18 Consideriamo il processo x(t) = A cos2(2πt) dove A e’ una variabile aleatoria con densita’

    uniforme nell’intervallo [−1/2, 1/2]. Per questo processo, nell’esempio 5, abbiamo ricavato la densita’ delprimo ordine, che era

    px(a; t) =1

    cos2(2πt)rect

    (

    a

    cos2(2πt)

    )

    .

    Visto che la densita’ dipende dal tempo e non e’ invariante alla traslazione, il processo non e’ SSS,

    nemmeno al primo ordine. �

    Come abbiamo accennato, quando un processo e’ SSS, densita’ e medie si semplificano. Inoltre, come

    vedremo, per questi processi e’ possibile introdurre ulteriori strumenti matematici, che agevolano l’analisi

    e la rendono simile a quella per i segnali deterministici di potenza. Purtroppo, la stazionarieta’ stretta

    e’ una condizione forte, che non sempre e’ verificata dai processi che si incontrano in pratica. Inoltre,

    per verificare analiticamente che un processo sia SSS, e’ necessario avere un’espressione per le densita’

    di probabilita’, che di solito non e’ disponibile. Fortunatamente, molte delle semplificazioni che si hanno

    per i processi SSS, si hanno anche per una classe piu’ ampia di processi, che soddisfa condizioni di

    stazionarieta’ meno forti. Questa seconda classe di processi stazionari viene introdotta nella prossima

    sezione.

  • 30 CAPITOLO 3. PROCESSI STAZIONARI

    3.3 Processi stazionari in senso lato

    Definizione 3 Un processo x(t) si dice Stazionario in Senso Lato (WSS, Wide Sense Stationary) se il

    suo valore medio e la sua funzione di autocorrelazione sono invarianti alla traslazione. �

    La definizione precedente richiede che media e correlazione del processo non cambino se si traslano gli

    istanti di estrazione delle variabili tutti della stessa quantita’. Sulla base delle proprieta’ delle funzioni

    invarianti alla traslazione che abbiamo discusso in sezione 3.1, possiamo equivalentemente dire che un

    processo e’ WSS se sono verificate le seguenti due condizioni:

    C1) La media e’ una costante: µx(t) = µx,

    C2) L’autocorrelazione dipende dalla differenza degli argomenti: Rx(t1, t2) = R̄x(t1 − t2),

    dove, nell’ultima condizione, abbiamo usato la (3.4) per definire la funzione

    R̄x(t) = Rx(t, 0). (3.8)

    Quindi, per un processo WSS, possiamo considerare due funzioni di autocorrelazione: la Rx(t1, t2), a due

    variabili, e la R̄x(t), a una variabile. Le due autocorrelazioni sono equivalenti, nel senso che da una delle

    due si puo’ ricavare l’altra, come si vede dalle formule qui sopra. Notiamo anche che, visto che Rx e’

    invariante, R̄x si puo’ anche definire come

    R̄x(t) = Rx(τ + t, τ),

    e visto che Rx(t1, t2) = E{x(t1)x∗(t2)} risulta

    R̄x(t) = E{x(τ + t)x∗(τ)}. (3.9)

    L’ultima equazione fornisce una definizione alternativa di R̄x, come valore atteso. Inoltre mostra che, per

    un processo WSS, il valore atteso considerato qui sopra non dipende da τ , ma solo da t, che e’ un’altra

    maniera di dire che la correlazione e’ invariante.

    Anche se le due funzioni Rx(t1, t2) e R̄x(t) sono equivalenti, quella a una variabile e’ piu’ facile

    da trattare analiticamente. Quindi sara’ quella che useremo di preferenza d’ora in poi. Inoltre, per

    semplificare la notazione, d’ora in poi lasceremo cadere la barra ed indicheremo tutte e due le funzioni

    con Rx: si potranno ancora distinguere osservando il numero di variabili.

    Come abbiamo visto nella sezione precedente, se un processo e’ SSS al secondo ordine o piu’, le medie

    del primo e del secondo ordine verificano le due consizioni scritte qui sopra e quindi il processo e’ anche

    WSS. Al contrario, un processo WSS non e’ necessariamente SSS, nemmeno al secondo ordine.

    Tutte le definizioni, le proprieta’ ed i concetti che abbiamo introdotto in questa sezione si estendono

    in modo ovvio al caso tempo discreto. Basta sostituire t con n.

    Esempio 19 Processo armonico. Consideriamo il processo armonico x(t) = cos(2πt+ φ) in cui φ e’

    una variabilie aleatoria con distribuzione uniforme nell’intervallo [−π, π] e quindi

    pφ(a) =1

    2πrect

    ( a

    )

    .

    Per questo processo abbiamo calcolato la media, nell’esempio 12, ed abbiamo trovato che non dipendeva

    dal tempo ed era nulla. Per verificare che il processo sia WSS dobbiamo studiare la correlazione. Abbiamo

    Rx(t1, t2) = E{x(t1)x(t2)} = E{cos(2πt1 + φ)cos(2πt2 + φ)} =

    = E

    {

    1

    2cos[2π(t1 + t2) + 2φ] +

    1

    2cos[2π(t1 − t2)]

    }

  • 3.3. PROCESSI STAZIONARI IN SENSO LATO 31

    dove nell’ultimo passaggio abbiamo usato la (5.32). Per proseguire usiamo la (5.10) e scriviamo

    Rx(t1, t2) =1

    2E {cos[2π(t1 + t2) + 2φ]}+

    1

    2E {cos[2π(t1 − t2)]} =

    =1

    2E {cos[2π(t1 + t2) + 2φ]}+

    1

    2cos[2π(t1 − t2)]

    dove l’ultimo passaggio vale perche’ l’argomento del secondo valore atteso non e’ aleatorio, ma determi-

    nistico. A questo punto, usando il teorema fondamentale del valore atteso, abbiamo

    Rx(t1, t2) =1

    2

    cos[2π(t1 + t2) + 2a]pφ(a)da+1

    2cos[2π(t1 − t2)] =

    =1

    ∫ π

    −π

    cos[2π(t1 + t2) + 2a]da+1

    2cos[2π(t1 − t2)] =

    1

    2cos[2π(t1 − t2)]

    dove l’ultimo passagio segue dal fatto che l’integrale e’ nullo, essendo l’integrale di una funzione sinusoidale

    su due periodi. Osservando l’ultima equazione si nota che la correlazione dipende dalla differenza degli

    istanti di estrazione e quindi risulta invariante alla traslazione, come e facile verificare. Quindi il processo

    armonico e’ WSS.

    Visto che e’ WSS, per il processo armonico si puo’ definire una funzione di autocorrelazione ad una

    sola variabile. Usando l’ultima espressione e la (3.8) si ricava

    Rx(t) =1

    2cos(2πt). (3.10)

    La correlazione ad una sola variabile puo’ essere ricavata anche dalla definizione (3.9), come vediamo nel

    prossimo esempio. �

    Esempio 20 Processo armonico. Consideriamo ancora il processo armonico dell’ultimo esempio e

    controlliamo la stazionarieta’ per altra via. In particolare, valutiamo direttamente il valore atteso (3.9)

    e controlliamo che non dipenda da τ . I calcoli sono molto simili a quelli gia fatti. Abbiamo

    E{x(τ + t)x(τ)} = E{cos[2π(τ + t) + φ]cos(2πτ + φ)} =

    = E

    {

    1

    2cos[2π(2τ + t) + 2φ] +

    1

    2cos(2πt)

    }

    dove nell’ultimo passaggio abbiamo usato la (5.32). Per proseguire usiamo la (5.10) e scriviamo

    E{x(τ + t)x(τ)} = 12E {cos[2π(2τ + t) + 2φ]}+ 1

    2E {cos(2πt)} =

    =1

    2E {cos[2π(2τ + t) + 2φ]}+ 1

    2cos(2πt)

    dove l’ultimo passaggio vale perche’ l’argomento del secondo valore atteso non e’ aleatorio, ma determi-

    nistico. A questo punto, usando il teorema fondamentale del valore atteso, abbiamo

    E{x(τ + t)x(τ)} = 12

    cos[2π(2τ + t) + 2a]pφ(a)da+1

    2cos(2πt) =

    =1

    ∫ π

    −π

    cos[2π(2τ + t) + 2a]da+1

    2cos(2πt) =

    1

    2cos(2πt)

    dove l’ultimo passagio segue dal fatto che l’integrale e’ nullo, essendo l’integrale di una funzione sinusoidale

    su due periodi. Osservando l’ultima equazione si nota che il valore atteso non dipende da τ e quindi la

    correlazione dipende solo dalla differenza degli istanti di estrazione e risulta invariante alla traslazione.

    Questa e’ una seconda maniera di verificare che il processo e’ WSS ed inoltre permette di ricavare

    direttamente la correlazione ad una variabile. �

  • 32 CAPITOLO 3. PROCESSI STAZIONARI

    Esempio 21 Consideriamo il processo x(t) = Acos(2πft) dove A e’ una variabile aleatoria unifome in

    [0, 1]. Il valore medio di questo processo e’ stato ricavato nell’esempio 10 ed era

    µx(t) =1

    2cos(2πft).

    Il valore medio dipende dal tempo e non e’ invariante alla traslazione. Quindi il processo non e’ WSS.

    Visto che e’ istruttivo, calcoliamo il valore atteso (3.9). Abbiamo

    E{x(τ + t)x(τ)} = E{Acos[2π(τ + t)]Acos(2πτ} =

    = E{A2}cos[2π(τ + t)]cos(2πτ) = 13cos[2π(τ + t)]cos(2πτ)

    dove abbiamo usato le proprieta’ dei valori attesi ed il valore quadratico medio di una variabile uniforme

    riportati in appendice. Come si vede, in questo caso il valore atteso dipende sia da τ che da t. Quindi

    l’autocorrelazione non dipende solo dalla differenza degli istanti di estrazione e non e’ invariante alla

    traslazione, confermando che il processo non e’ WSS. �

    Esempio 22 Consideriamo il processo iid ottenuto facendo girare infinite volte un puntatore. Come

    abbiamo visto nell’esempio 17, questo processo e’ SSS al secondo ordine e quindi sara’ anche WSS.

    Ammette quindi una seconda funzione di autocorrelazione, ad una variabile. La correlazione a due

    variabili e’ stata ricavata nell’esempio 14 ed era

    Rx[n1, n2] =1

    12δ[n1 − n2].

    Dall’ultima equazione, usando la (3.8), per la correlazione ad una variabile si ricava

    Rx[n] =1

    12δ[n] (3.11)

    La correlazione ad una variabile puo’ anche essere ricavata usando la (3.9). In particolare si puo’ valutare

    il seguente valore atteso

    E{x[m+ n]x[m]}

    che non dipende da m perche’ il processo e’ WSS. Il calcolo e’ facile e viene lasciato come esercizio. �

    3.4 Medie di insieme

    Nella sezione precedente abbiamo visto che in un processo WSS la media e la correlazione si semplificano

    e diventano rispettivamente una costante ed una funzione ad una variabile. In particolare, nei processi

    WSS valgono, per definizione, le seguenti condizioni

    C1) La media e’ una costante: µx(t) = µx.

    C2) L’autocorrelazione dipende dalla differenza degli argomenti: Rx(t1, t2) = Rx(t1 − t2).

    E’ facile verificare che anche le altre medie si semplificano. Infatti risulta che

    C3) Il VQM e’ una costante: πx(t) = πx,

    C4) La varianza e’ una costante: σ2x(t) = σ2x,

    C5) La covarianza dipende dalla differenza degli argomenti: Cx(t1, t2) = Cx(t1 − t2).

    La C3) si ricava usando la (2.14) e scrivendo

    πx(t) = Rx(t, t) = Rx(t− t) = Rx(0), (3.12)

  • 3.4. MEDIE DI INSIEME 33

    Figura 3.1: Misura della media in un istante t1 per un processo stazionario (a sinistra) e non (a destra).

    che fornisce anche un legame fra il VQM e la correlazione ad una variabile. La C5) si ricava usando la

    (2.13), la C1) e la C2). Infatti

    Cx(t1, t2) = Rx(t1, t2)− µx(t1)µx(t2)∗ = Rx(t1 − t2)− |µx|2 = Cx(t1 − t2)

    che fornisce anche un legame fra la correlazione e la covarianza ad una variabile. Infine la C4) si ricava

    usando la (2.15) e la C5). Infatti

    σ2x(t) = Cx(t, t) = Cx(t− t) = Cx(0)

    che fornisce anche un legame fra la varianza e la covarianza ad una variabile. Tutti i risultati si estendono

    facilmente al caso tempo discreto: basta sostituire t con n.

    Significato e proprieta’. Il significato delle medie di insieme di un processo WSS e’ lo stesso che queste

    medie hanno nei processi in generale. E quindi, la media e’ il valore attorno a cui oscillano i valori del

    processo, il VQM e la varianza misurano l’entita’ del processo e la correlazione e la covarianza misurano

    la somiglianza fra i valori del processo in due istanti temporali. La differenza fondamentale con il caso

    generale e’ che per un processo WSS, le medie del primo ordine sono costanti e quelle del secondo ordine

    dipendono solo dalla differenza dei due istanti. Questi fatti hanno implicazioni importanti. Il fatto che

    le medie del primo ordine siano costanti implica che l’entita’ del processo rimane uguale su tutto l’asse

    dei tempi. Quindi, le realizzazioni non tendono a zero e sono di norma1 segnali di potenza. Un’altra

    conseguenza, fondamentale, e’ che su un processo stazionario diventa piu’ semplice fare previsioni sui

    valori futuri sulla base dei valori presenti o passati. Per esempio, supponiamo di effettuare una misura

    del valore medio di un processo stazionario x(t) nell’istante t1, usando un certo numero di realizzazioni,

    come mostrato in figura 3.1. Visto che il processo e’ stazionario, il valore cosi’ misurato fornisce la media

    anche per tutti i futuri istanti di tempo. Al contrario, effettuare la misura in t1 per un processo non

    stazionario y(t) non e’ di nessuna utilita’, perche non da’ nessuna indicazione sui valori che la media potra’

    assumere nel futuro. Analoghe considerazioni possono essere ripetute per le altre medie di insieme, sia

    del primo che del secondo ordine.

    Le medie di insieme di un processo WSS godono di proprieta’ che pero’ non approfondiamo. Ci

    limitiamo a notare che, come e’ facile verificare, l’autocorrelazione e la covarianza godono di simmetria

    Hermitiana e cioe’

    Rx(−t) = R∗x(t) Cx(−t) = C∗x(t).1Da un punto di vista matematico, e’ possibile costruire processi stazionari che contengono realizzazioni che sono segnali

    di energia. Ma questa situazione non e’ di interesse pratico. Inoltre gli eventuali segnali di energia possono essere assimilati

    ad un segnale nullo ed il processo puo’ essere ridefinito senza comprenderli.

  • 34 CAPITOLO 3. PROCESSI STAZIONARI

    Figura 3.2: Andamento tipico della autocorrelazione di un processo WSS a media nulla e senza componenti

    periodici.

    Inoltre, per motivi che saranno chiari fra poco, nei processi stazionari, il VQM si chiama anche la potenza

    del processo e si indica con Px. Usando questa nuova simbologia, la (3.12) si riscrive cosi’

    Px = Rx(0) (3.13)

    e, a parole, afferma che la potenza del processo e’ pari all’autocorrelazione valutata in zero.

    Osservando la (3.9) si vede che la correlazione Rx(t) e’ una misura della somiglianza fra due valori del

    processo presi a distanza t. Sulla base delle proprieta’ della covarianza viste in sezione 2.4 e del legame

    fra correlazione e covarianza, per la correlazione risulta

    |Rx(t)| ≤ Px = Rx(0)

    e quindi che la correlazione ha un massimo in zero. Inoltre, di solito i valori estratti dal processo sono

    sempre meno correlati all’aumentare della loro distanza. Quindi la correlazione tende a diminuire e, per

    un processo a media nulla, tende a zero ed ha tipicamente la forma riportata in figura 3.2. Il tempo

    in cui rimane vicina al valore massimo indica il tempo per il quale il valore del processo cambia poco e

    si chiama il tempo di correlazione o di coerenza del processo. La forma della correlazione cambia se le

    realizzazioni sono periodiche, nel qual caso la correlazione risulta anch’essa periodica. Inoltre se la media

    e’ diversa da zero, la correlazione non tende a zero ma al quadrato della media.

    Relazione con le medie temporali. Le realizzazioni del processo sono segnali deterministici. Su

    questi segnali sono definite alcune medie temporali che hanno significato analogo alle medie di insieme

    definite sul processo. Vogliamo approfondire il legame fra le medie temporali delle realizzazioni e le

    medie di insieme del processo. Cominciamo col riscrivere le definizioni di entrambi perche’ e’ utile per

    confrontarle. Per tenere queste quantita’ distinte, usiamo il grassetto per indicare le medie temporali.

    Inoltre, nelle definizioni per le medie temporali, usiamo l’operatore di media temporale introdotto in [1]

    sezione 3.6. Con queste notazioni, abbiamo la seguente tabella

    Media temporale Media d’insieme

    Media Mx = T{x(t)} µx = E{x(t)}Potenza Px = T{|x(t)|2} Px = E{|x(t)|2}Correlazione Rx(t) = T{x(τ + t)x∗(τ)} Rx(t) = E{x(τ + t)x∗(τ)}

    La tabella mostra che esiste una somiglianza formale fra le medie di insieme e quelle temporali. Ci

    chiediamo se esista anche un legame quantitativo fra i due tipi di medie. Per approfondire questo punto

    concentriamoci, per esempio, sulla potenza. Nelle definizioni precedenti, quando la potenza viene valutata

    come media temporale, x(t) rappresenta un segnale deterministico, mentre quando viene valutata come

    media di insieme, x(t) rappresenta un processo. In tutti e due i casi la potenza e’ un numero, un valore

  • 3.5. SPETTRO E BANDA 35

    Figura 3.3: Esempi delle realizzazioni di un processo, per i vari valori di ω, il risultato del fenomeno

    aleatorio sottostante. Su ognuna di queste si puo’ calcolare la potenza P = P (ω), che risulta una

    variabile aleatoria.

    deterministico. D’altra parte, dato un processo, possiamo pensare di valutare la potenza come media

    temporale su ogni realizzazione, come mostrato in figura 3.3. In questo modo Px diventa una variabile

    aleatoria, di cui e’ possibile valutare il valore atteso E{Px}. Sviluppando il calcolo2 si ottiene

    E{Px} = Px.

    Ripetendo il ragionamento per le altre medie, con passaggi del tutto simili si ottiene anche

    E{Mx} = µx.

    E{Rx(t)} = Rx(t). (3.14)Le equazione precedenti, a parole, dicono che, per i processi stazionari, le medie di insieme sono il valore

    atteso delle medie temporali delle realizzazioni del processo. Questo risultato stabilisce precisamente il

    legame fra i due tipi di medie e permette di pensare le medie di insieme in modo piu’ intuitivo. Inoltre

    sara’ utile per lo sviluppo della teoria.

    Tutte le definizioni, le proprieta’ ed i concetti che abbiamo introdotto in questa sezione si estendono

    in modo ovvio al caso tempo discreto. Basta sostituire t con n.

    3.5 Spettro e banda

    Per un processo WSS x(t), si definisce lo spettro di densita’ di potenza, indicato con Px(f), come la FT

    della funzione di autocorrelazione (a una variabile) e cioe’

    Px(f) = FT{Rx(t)}.

    Visto che la correlazione gode di simmetria Hermitiana, lo spettro risulta una funzione reale delle fre-

    quenza. Inoltre, ricordando che l’integrale della trasformata e’ pari al valore della funzione nell’origine

    2Per valutare il valore atteso, ricordiamo la definizione esplicita di potenza, che e’ la seguente:

    Px = limT→+∞

    1

    T

    ∫ T/2

    −T/2|x(t)|2dt.

    A questo punto, valutiamo il valore atteso. Abbiamo

    E{Px} = E

    {

    limT→+∞

    1

    T

    ∫ T/2

    −T/2|x(t)|2dt

    }

    = limT→+∞

    1

    T

    ∫ T/2

    −T/2E

    {

    |x(t)|2}

    dt =

    = limT→+∞

    1

    T

    ∫ T/2

    −T/2Pxdt = Px lim

    T→+∞

    1

    T

    ∫ T/2

    −T/2dt = Px.

  • 36 CAPITOLO 3. PROCESSI STAZIONARI

    (proprieta’ dei valori nell’origine della FT), dalla (3.13) e dall’ultima relazione si ricava

    Px =

    Px(f)df,

    e cioe’, a parole, che l’integrale dello spettro di densita’ di potenza e’ pari alla potenza (VQM) del processo.

    Si noti che questa e’ esattamente la stessa relazione che esiste nel caso di un segnale deterministico di

    potenza e giustifica il nome dato allo spettro di densita’ di potenza. Piu’ in generale, come vedremo, lo

    spettro di un processo WSS ha la stessa definizione e proprieta’ simili a quello di un segnale di potenza.

    Per proseguire, si noti che, trasformando la (3.14) e scambiando il valore atteso con la trasformata, si

    ricava

    E{Px(f)} = Px(f) (3.15)

    dove Px(f) e’ lo spettro di densita’ di potenza della generica realizzazione. La formula precedente mostra

    che lo spettro del processo e’ la media dello spettro delle singole realizazioni, come succedeva per le altre

    medie. Inoltre, visto che gli spettri delle realizzazioni sono non negativi, lo spettro del processo, che e’ il

    valore atteso di quantita’ non negative, risulta non negativo anch’esso.

    Banda. A partire dallo spettro, e’ possibile definire la banda di un processo stazionario. Possiamo

    considerare diverse definizioni, che tornano utili in casi diversi. Le piu’ stringente e’ la seguente

    Definizione 4 Dato un processo stazionario, la sua banda e’ l’insieme dell’asse delle frquenze su cui lo

    spettro di densita’ di potenza e’ maggiore di zero. �

    La definizione precedente puo’ essere inadeguata per certe applicazioni o quando lo spettro e’ composto

    da impulsi. In questi casi puo’ essere utile sostituire la banda con l’intervallo di banda:

    Definizione 5 Dato un processo stazionario, il suo intervallo di banda e’ il piu’ piccolo intervallo

    simmetrico dell’asse delle frequenze che contiene le frequenze su cui lo spettro e’ maggiore di zero. �

    Le due definizioni precedenti si dicono in senso stretto, perche’ richiedono che lo spettro ad una certa

    frequenza sia nullo per escludere la frequenza dalla banda. Ma in pratica puo’ essere sufficiente assumere

    che lo spettro sia piccolo a sufficenza per escludere le corrispondenti frequenze dalla banda. Quindi

    possiamo dare queste altre due definizioni, che definiscono la banda in senso pratico:

    Definizione 6 Dato un processo stazionario, la sua banda e’ l’insieme dell’asse delle frquenze su cui lo

    spettro di densita’ di potenza e’ non trascurabile. �

    Definizione 7 Dato un processo stazionario, il suo intervallo di banda e’ il piu’ piccolo intervallo

    simmetrico dell’asse delle frequenze che contiene le frequenze su cui lo spettro e’ non trascurabile. �

    Chiaramente, le definizioni precedenti vanno completate specificando un criterio per ritenere lo spettro

    trascurabile. Questo criterio puo’ variarare a seconda dell’applicazione che si sta’ considerando. In tutti i

    casi, una volta ricavata la banda con una delle definizioni viste prima, resta definita la larghezza di banda

    del processo (spesso detta, per brevita’, semplicemente banda), che e’ pari alla misura della banda.

    Nella sezione precedente abbiamo visto che la durata della funzione di correlazione e’ pari al tempo

    di coerenza del processo. Visto che lo spettro e’ la FT della correlazione e visto che, come noto dalla

    teoria della FT, banda e durata sono inversamente legate, risulta che, qualitativamente, i processi con

    un tempo di correlazione breve, che quindi variano velocemente nel tempo, hanno una banda larga, come

    mostrato in figura 3.4. Al contrario, come mostrato nella stessa figura, i processi che variano lentamente

    e quindi hanno lunghi tempi di correlazione, risultano a banda stretta.

    Relazione fra banda del processo e banda delle realizzazioni. Le realizzazioni del processo hanno

    uno spettro di densita’ di potenza e quindi una banda corrispondente, che puo’ variare da realizzazione a

  • 3.5. SPETTRO E BANDA 37

    Figura 3.4: Correlazione e spettro di un processo a banda larga e basso tempo di correlazione (sopra) e

    a banda stretta e alto tempo di correlazione (sotto).

    realizzazione. E’ utile chiedersi se e come sono legate la banda del processo con quella delle realizzazioni.

    Una risposta a questa domanda viene data qui sotto, limitatamente alla banda in senso stretto.

    Assegnamo una frequenza f0 e consideriamo il valore dello spettro del processo, Px(f0), che e’ un

    numero, ed il valore dello spettro della generica realizzazione, Px(f0), che e’ una variabile aleatoria.

    Usando la (3.15) possiamo concludere che Px(f0) e’ il valore atteso di Px(f0). Ora notiamo che Px(f0)

    e’ non negativo e che, se una variabile aleatoria non negativa ha media nulla, allora le sue determinzaioni

    devono essere tutte nulle3. Possiamo quindi concludere che se Px(f0) = 0, allora Px(f0) = 0. Questo

    implica che tutte le realizzazioni hanno banda (in senso stretto) minore o uguale a quella del processo.

    Tempo discreto. Nel caso tempo discreto lo sviluppo si puo’ ripetere. Lo spettro viene definito come la

    trasformata dell’autocorrelazione. Ma visto che nel caso tempo discreto la correlazione e’ una sequenza,

    occorre usare la DTFT,

    Px(f) = DTFT{Rx[n]},che risulta periodica di periodo 1, se si usa la versione normalizzata, o F se si usa la versione non

    normalizzata. Usando la proprieta’ dei valori nell’origine, dallo spettro si ricava la potenza come l’integrale

    normalizzato su un periodo e cioe’

    Px =

    ∫ 1/2

    −1/2

    Px(f)df Px =1

    F

    ∫ F/2

    −F/2

    Px(f)df

    a seconda che lo spettro sia normalizzato o meno. Anche le definizioni di banda e larghezza di banda

    si ripetono identiche, con la sola avvertenza di limitarsi a considerare le frequenze