singular spectrum analysis applicata a segnali cerebrali

Upload: rgaeta

Post on 06-Jul-2015

100 views

Category:

Documents


2 download

TRANSCRIPT

Universit degli studi di RomaTOR VERGATACorso di Laurea in FisicaTESI DI LAUREASINGULAR SPECTRUM ANALYSIS APPLICATA A SEGNALI CEREBRALILAUREANDO: RELATORI:Roberto Gaeta Prof. Roberto BenziN. di matricolaDott. Livio NariciF 000060Universit degli studi di RomaTOR VERGATACorso di Laurea in FisicaTESINETECNICHESTRUMENTALI PERLARIVELAZIONE DI SEGNALI IMMERSI NEL RUMORERELATORE:Prof. Sergio CantaranoMISURE DINAMICHE DI CAMPI CRITICI IN GIUNZIONI TUNNELRELATORE:Prof. Matteo CirilloIntroduzioneUna definizione ostensiva di ci che sia la fisica afferma:la fisica tutto ci che studiano i fisici. Nel passato tutto ci che era vivente non veniva studiato dai fisici, semplicemente perch lenorme complessit che mostra anche la pi semplice struttura biologica, non permetteva alle conoscenze passate di formulare una teoria, o anche un semplice modello matematico su tali sistemi. Ma negli ultimi tre decenni levoluzione delle prestazioni dei calcolatori da una parte e della ricerca matematica dallaltra, ha portato sempre pi i fisici allo studio di strutture biologiche. Attualmente i sistemi fisici possono essere classificati in tre categorie1: 1) Sistemi fisici descritti da teorie matematiche conosciute, relativamenteinsensibili a piccole variazioni dei dati iniziali, i quali permettono alla teoria matematica di fornire previsioni sul comportamento del sistema su lunghi o lunghissimi periodi di tempo.2) Sistemi fisici descritti da teorie matematiche conosciute, sensibili a piccole variazioni dei dati iniziali, i quali permettono alla teoria matematica di fornire previsioni sul comportamento del sistema solo su brevi o brevissimi periodi ditempo.3) Sistemi fisici senza alcunateoria matematica che l descriva.Nella terza categoria rientrano certamente la grandissima parte dei sistemi biologici. Per arrivare ad una teoria matematica che descriva un sistema, bisogna prima di tutto ottenere dati sperimentali in modo che sia possibile confutare o meno le previsioni 1R. Vautard, P. Yiou e M. Ghil, Physica D58 (1992) 95fornite dalla teoria. Ma vi sono dei sistemi biologici, per i quali non solo difficile formulare unateoria,mapersino difficile ottenere dati sperimentali che possano essereinterpretati anche da un modesto modello matematico. Il pi complesso fra questi forse il cervello. Esistono molti modi per studiare questo sistema, la biologia ha descritto i suoi componenti fondamentali : i neuroni; la psicologia ne ha studiato le sue funzioni cognitive,, ma che sono anche le pi evanescenti dal punto di vista dellametodologiascientifica. Il fisicoinvecevedeil sistemacervellocomeuna scatolaneracondeterminati ingressi euscite, doveper ingressi si intendono stimoli fisiciquantitativamente misurabili che stimolano in qualche modo tutto ci cheesistedentroquestascatolanera, mentreperuscitesi intendonodi nuovo quantitfisichemisurabili chesonoprodottedaquestascatolanera. Unavolta ottenuti i dati sperimentali, il fisico cercher di trovare un modello o meglio ancora una teoria che descriva (e preveda) i dati ottenuti (i dati futuri). evidente che il fisicorispettoallopsicologo, si pone problemi misurabili, anchesepuessere affascinante parlare della creativit o della timidezza esse non sono propriet misurabili; invece rispettoal biologo, il fisico si pone in una visione olistica, trascurando completamente che cosa ci sia dentro la scatola nera. Il problema iniziale dunque avere gli appropriati strumenti matematici che permettano di ottenere delle informazioni interpretabili dalle misure ottenute. Nel caso di misure neuromagnetiche il segnale che si ottiene estremamente complicato. Questatesi vuoledimostrarelapplicabilitsusegnali cos complessi erumorosi, comequelli delcervello, diunanuovatecnicamatematicanonlinearedettaSSA (acronimo di Singular Spectrum Analysis), usata gi da anni per lanalisi di segnali digitali, introdottainoceanografiadaColebrook2, eindinamicanonlineareda Broomhead e King3e da Fraedrich4. Questa tecnica permette di riconoscere oscillazioni in un segnale rumoroso e di studiarne landamento temporale. Il concetto basedella SSApuesserericavato dalla pi classica PCA (acronimo di Principal Component Analysis)(vedi 2.1). La PCA usata nel caso di M segnali, provenienti da M punti dello spazio differenti, ed ogni segnale viene espanso in un sottospazio di dimensione M dalla PCA, mentre nella SSA si ha un solo segnale che viene espanso in modo opportuno in un sottospazio di dimensione M. La differenza sostanziale che nella PCA il numero M fissato dal numero di segnali che si analizzano, mentre nella SSA il numero M arbitrario. Sia la PCA che la SSA sono delle applicazioni del pigenerale teorema matematicodi espansione bi-ortogonale di Karhunen-Love5. Vautard e Ghil hanno dimostrato che quando nel segnale sono presenti delle oscillazioni persistenti, nello spettro degli autovalori della matrice di autocovarianza del segnale sono presenti delle coppie di autovalori quasi uguali6. Sempre Vautard e Ghil hanno introdotto unatecnica ad hoc per riconoscere la frequenza di queste oscillazioni7, una volta riconosciuta si procede con la ricostruzione tramite la tecnica dellecomponentiricostruite(vedi 2.2), della oscillazione. Il problema maggiore derivadal fattocheVautarde Ghil nel loro articolo applicano questi algoritmi su 2J.M. Colebrook, Oceanol. Acta 1 (1978) 9.3D.S.Broomhead e G.P.King,On thequalitative analysis of experimental dynamicalsystems,in: Nonlinear Phenomena and Chaos, ed S. Sarkar (Adam Hilger, Bristol, 1986)4K. Fraedrich, J. Atmos. Sci. 43 (1986) 4195M. Love, Probability Theory, 3rd ed. (Van Nostrand, Princeton, 1962).6R. Vautard e M. Ghil, Physica D35 (1989) 3957R. Vautard, P. Yiou e M. Ghil, Physica D58 (1992) 95segnali di prova che, nel peggiore dei casi, erano composti da unoscillazione e da un rumorecon la stessavarianza.Se supponiamo che il rumore sia rumore bianco, il quale haunospettrodiFouriercon uguale intensitsututtelefrequenze,mentre unoscillazione di una data frequenza, anche se modulata in ampiezza ha uno spettro puntuale, alloratenendocontodiquestoedel teoremadi Parseval (Thm1.12.9), concludiamo che gli spettri di Fourier dei segnali utilizzati come esempi da Vautard e Ghil sono sufficientemente puliti. Nel nostro caso invece ci troviamo con segnali che hanno uno spettro di Fourier tipo fig.27. Nulla quindi ci permetteva di affermare se la tecnica ad hoc introdotta da Vautard e Ghil potesse ritenersi valida anche nel caso di segnali siffatti. Latesi consistitanel continuosviluppodel programmaper lanalisi SSA, lultima versione, (la 37-esima) riportata in App. A. Le versioni sono state tante per il fatto che larticolo su cui si basa lintera costruzione della procedura (R. Vautard - P. Yiou - M. Ghil, Physica D58 1992 95) omette una caratteristica essenzialedellaSSA(vedi 2.3e2.4). Questofattounitoallincertezzadella validitdellatecnicaintrodottaadhocdaV. eG. nel casodi segnali molto rumorosi, non permetteva di capire cosa andava modificato nella tecnica di riconoscimentodelleoscillazioni.In unaltro articolo degli stessi autori si trova la descrizione di questa caratteristica (formula 2.3.1). Nella tesi si propone una nuova tecnica diriconoscimentodelleoscillazioni (def.2.4.2) che permette lapplicazione dellaSSAa segnali moltorumorosi, (prima di arrivarealla def.2.4.2la nuova proposta era la def.2.4.1). Utilizzando sempre gli stessi parametri per lanalisi SSA, i risultati ottenuti con le varie definizioni, rappresentati in fig. 74 (con la def.2.4.2) e in fig.73 (con la def.2.4.1) sono riportati in tabella:Oscillazioni trovate con la tecnica di Vautard e Ghil def.2.3.2Con la def.2.4.1 Con la def.2.4.22 33 58Tab. a I risultati si riferiscono allanalisi SSAdel canale 1(uno dei gradiometri che rilevava il campo magnetico cerebrale) i parametri dellanalisi sono M=700 (numero di autovalori) e RR=10 (vedi def.2.3.3)La fig.74 importante perch conferma i risultati ottenuti, dagli studiosi di neuromagnetismo, ed in pi mostra che la SSA permette di ottenere dei risultati pi raffinati rispetto alle tecniche precedenti (vedi 3.4). La tesi dunque dimostra che la nuovaproposta(def.2.4.2) per riconoscereleoscillazioni, permettelapplicabilit della tecnica SSA anche nel caso di segnali estremamente rumorosi. Lastesuradellatesi consisteessenzialmentein4capitoli. Nel primocapitolosi riassumono tutti gli elementi teorici che sono di base per la comprensione della SSA. Nel secondocapitolosidescrivecomesi arrivaallaSSA8, lecaratteristichedella tecnica e infine la nuova proposta per il riconoscimento delle oscillazioni. Il capitolo tre si apre con dei cenni sul cervello e sulla tecnica utilizzata per lacquisizione dati, poi si dilunga sulla discussione dei risultati ottenuti. Nel capitolo 4 si descrivono le conclusioni e possibili prospettive future per la SSA.8La formalizzazione in definizioni e teoremi della PCA, della SSAe la dimostrazione della formula 2.2.1 sono elaborazioni personali. Capitolo 1Elementi teorici1.1 Spazi lineari Linsieme non vuoto si dice spazio lineare se soddisfa le seguenti condizioni:120 057) :):) ( ) :) , = ++ = +3)+ ( + ) = ( + ) +4) + (- ) = 06) a( ) = ( )a ,b8) 1 =9) (a + b) = a + b10) a( + ) = a + a + a ab abDefinizione 1.1.1Siauno spazio lineare. Si dice che gli N vettori 1 2, , ... ,N sonolinearmentedipendentiseesistonoNnumeri {ci}nontuttinulli tali che: ci iiN 01. Incasocontrariogli Nvettori sonodettilinearmente indipendenti.Nota 1 Da adesso sar sottinteso che lo spazio lineare.Definizione1.1.2UnospazioNsi diceN-dimensionalesecontiene Nvettorilinearmente indipendenti e se N+1 vettori sono sempre linearmente dipendenti.Definizione 1.1.3 Ogni insieme di N vettori linearmente indipendenti in si dice costituire una base.Assegnata una base esiste una corrispondenza biunivoca tra i vettori dello spazio N e lo spazio delle N-ple ordinate di numeri.Teorema1.1.1Sia{ei}unabasediNeAunamatricerealeNNtalechedetA 0 i vettori {ej} definiti da:eeeAeeeNTN1212''' |.

`,

|.

`,

(1.1.1)sono una base.Dimostrazione Si ha( ) e c e a c e a cssNs k kskNs k ks ssNkNsN' |.

`, |.

`, 1 1 1 1 10dato che {ei} una base si deve averea cks ssN 01 ma essendo A non singolare segue che tutti i cs sono nulli, dunque {ei} una base. c.v.d.Teorema 1.1.2 Siano {ei} ed{ei}due basi di N. Sia N e siano {ci} e {ci} le N-ple ordinate di numeri che rappresentano il vettore nellerispettive basi. Allora vale la relazione:ccAcc1212 c cN N |.

`,

|.

`,

'''(1.1.2)dove A la matrice di trasformazione da una base allaltra come in (1.1.1).Dimostrazione |.

`, |.

`, c e c e a e a c e c a ci i i k kikNk ki iiNkNiNiNk kkNki iiN' ' ' ' '1 1 1 1 1 1 1 dunquecc.v.d.k1.2 Spazi EuclideiDefinizione 1.2.1 Uno spazio dicesimetricose in esso definita una funzione reale d(,) definita , e che soddisfi le seguenti propriet: 1) d( , ) 0 (ilsegno di uguaglianza vale se e solo se ) ; 2)d d ( , ) ( , ) ; 3) d d d ( , ) ( , ) ( , ) +.Definizione 1.2.2 Sia uno spazio lineare. Si abbia unapplicazione : che soddisfi le seguenti propriet: 1) ( ) ( ) ( ) + + ;2) ( ) ( ) a a a ; allora lapplicazione si dice funzionale lineare.Definizione1.2.3Unospaziorealedicesinormatoseinessodefinitoun funzionalelineare: dettonormachesoddisfi leseguenti propriet: 1) 0 0= 0 ; 2) + + , ; 3)a a a .Nota2Unospazionormatoanchemetrico; sufficienteintrodurreladistanza d( , ) .Definizione 1.2.4 Si definisce prodotto scalare in uno spazio lineare complesso lapplicazione bilineare (, ) : c (con c si intende linsieme dei numericomplessi), tale che , soddisfi le seguenti propriet:1) ( , ) ( , ); 2) ( + , ) ( , ) + ( , ); 3) (a , ) a ( , );4) ( , a) a( , ); 5) ( , ) 0.Un prodottoscalaremoltoutilizzato il seguente i iNiN, c1 si pu verificare che esso soddisfa la def. 1.2.4.Definizione1.2.5 Sidefiniscespazio euclideouno spazio lineare con un prodotto scalare fissato in esso.Nota 3 Uno spazio euclideo anche normato se si definisce ( , )12 . Quindi anche metrico (vedi nota 2).Definizione 1.2.6 Due vettori ,si dicono ortogonali se ( , ) 0Dato uno spazio euclideo N il prodotto scalare di due vettori in una data base {ei} data da:( ) ( ) , , |.

`, a e e a b e ei i siNi s i ss i , bss=1N1 Definizione 1.2.7Si dice matrice metricala matrice NxN che ha come elementi iprodotti scalari( ) h e eis i s ,Definizione 1.2.8 Una base si dice ortonormale se his = isIn una base ortonormale il prodotto scalare dato semplicemente da ( ) , a bi iiN1Ogni base pu essere ortonormalizzata usando il metodo di Gram-Schmidt. 91.3 Matrici diagonalizzabiliDefinizione 1.3.1 Siano A e B due matrici N x N. Si dicecommutatore di A e Bla matrice [A , B] definita come:[ ] A B A B B A , Le matrici A e B si dice che commutano se [ ] A B , Definizione 1.3.2 Sia A una matrice N x N. Si dice aggiunta hermitianala matrice A+ che verifica la relazione ( ) ( ) , , A A + ,N9VediG. Strang Algebra lineare e sue applicazioniLiguori Editore pag.161Definizione 1.3.3SiaAunamatrice NxN. Lamatrice Asi dicehermitiana (autoaggiunta hermitiana) se A=A+. Definizione 1.3.4 Sia un numero complesso. Si dice che un autovaloredella matrice A se det(A - I) = 0. Dove con I si intende la matrice unitaria.Definizione 1.3.5 Per ciascuno autovalore della matrice A associato uno spazio di vettori {, detti anche autovettori i quali soddisfano la relazione A .Teorema 1.3.1 Gli autovalori di una matrice hermitiana sono realiDimostrazione ( ) ( ) ( ) ( ) ( ) ( ) A A A A A +, , , , , , c.v.d.Teorema1.3.2Siano1 2dueautovaloridistinti dellamatricehermitianaA, e siano 1 2gli autovettori associati. Allora ( ) 1 20 , .Dimostrazione Si ha( ) ( ) A A 1 1 1 2 1 1 2 1 prodotto scalare con 2, ,(*) in modo simile si ha( ) ( ) A A 2 2 2 1 2 2 1 2 prodotto scalare con 1, ,(**) ora sfruttando le propriet del prodotto scalare e che A hermitiana si ha: ( ) ( ) ( ) ( ) 2 1 1 2 1 2 1 2, , , , A A A A + quindi sottraendo membro a membro la (**) con la (*) si ottiene( ) ( ) 02 1 1 2 ,dato che gli autovalori sono distinti si ha la tesi. c.v.d.Teorema 1.3.3Ogni matrice hermitiana A ammette una base di autovettoriortonormaliDimostrazioneSia1 unautovettore di A. Linsieme V1definito da ( ) { VN1 10 : , hadimensione N-1. Questo sottospazio ortogonale a1 lasciato invariante da A; infatti si ha: ( ) ( ) ( ) ( ) ( ) 1 1 1 1 1 1 10 , , , , , A A A A V +allora 1A dunque esister almeno unaltro autovettore 2di A appartenente al sottospazio V1; anche il sottospazio V12 definito da( ) ( ) { VN12 1 20 0 : , , , invariante rispettoadAequindi esisteralmenoun altroautovettoredi Aappartenentea questo sottospazio; si continua in modo simile fino ad esaurire tutto lo spazio. c.v.d.Definizione 1.3.6 Una matrice si dice diagonalizzabile se esiste una matrice M tale che: MAM1 (trasformazione di similitudine)dove una matrice diagonale.Teorema 1.3.4 Sia A una matrice hermitiana. A diagonalizzabile.Dimostrazione Prendiamo come matrice M, la matrice composta dagli N autovettori ortonormali ( ) i i i iN1 2, , ...... , diA, chesappiamodalthm1.3.3formareuna base. AlloraMNN NN

]]]]]]] 11 12 13 1N21 22 23 21 si verifica facilmente che M-1 = MT. Ora il prodotto MAMT una matrice che ha sulla diagonale gli autovalori di A e tutti gli altri elementi sono nulli. c.v.d.Nota Si dimostra che le matrici pi generali che sono diagonalizzabili sono le matrici cosiddette normali. Una matrice W si dice normale se [W , W+] = 0.1.4Definizione assiomatica della probabilitSia un insieme non vuoto, definiamo gli elementi di eventi, e spazio deglieventi. Consideriamo inoltre linsieme nullo { e come eventi. Un esperimento unoperazione che in determinate condizioni produce degli eventi. Linsieme di tutti gli eventi possibili di si dice spazio degli eventi associato . Siano 1 , 2 due spazideglieventiassociati agliesperimenti1, 2esottoinsiemi dellospazio degli eventi .Lunione 1 2 definita come linsieme degli eventi prodotti da 1 o da 2. Lintersezione 1 2 definita come linsieme degli eventi in comune prodotti da1e da2.1 e 2si diconoincompatibilise 1 2 . Una sequenza 1 2, , ... ,n dettase ii=1nesaustiva . Consideriamo un esperimentocon spazio degli eventi associato.Ad ogni evento E assegniamo un numero reale p(E) detta probabilit di E, la quale soddisfa i seguenti assiomi (Kolmogorov):Assioma 1 E p E 0 1 ( )Assioma 2 p( ) 1Assioma 3 Se gli eventi E1,E2,..., Ensono eventi incompatibili a due a due, allora ( ) p E p Eiiniin |.

`, 1 11.5 Variabili stocasticheQuando abbiamo definito lo spazio degli eventi non abbiamo specificato che cosa o come sono gli elementi ad esso appartenenti. Gli elementi dello spazio ovviamente dipenderanno dallesperimento. Per esempio al lancio di una moneta associato uno spazio degli eventi composto da testa e croce, ma possiamo sempre costruire una funzione che associ a questi eventi dei numeri reali. Questa funzione si dice mappa.Definizione 1.5.1 Una variabile stocastica , X una mappaX : tale che ad ogni elementoE corrisponde un unico numero reale X(E).Sia . In questo caso si ha la mappa identit, ed quindi naturale pensare che la variabile stocastica non la mappa ma bens gli stessi risultati numerici dellesperimento. Ci rimane da definire la probabilit per le variabili stocastiche.Definizione 1.5.2{ definiamo dove ep X p E E X E ( ) ( ( )) ( ) ; ( ) Ovviamente se questa definizione tautologica. Da adesso se non specificato altrimenti sar sempre che . Le variabili stocastiche possono essere discrete o continue. Se non specificato per variabile stocastica intendiamo variabile stocastica discreta.1.6 Operatore di aspettazioneDefinizione 1.6.1 Sia X una variabile stocastica con pi = p(X=xi). Per ogni funzione g(X) di X definiamo loperatore di aspettazione da:[ ] E g X g x pi ii( ) ( ) Loperatore E un operatore lineare.Definizione 1.6.2 Definiamo n-esimo momento sullorigine la quantit:[ ] nnE X ' (n=1,2,3,...)Il momento sullorigine di ordine 1 anche definito come media x pi ii.Definizione 1.6.3 Definiamo n-esimo momento sulla media la quantit:( )[ ] nnE X (n=2,3,4,...)Il momento sulla media di ordine 2 anche definito comevarianza ( ) 22 p xi ii. Mentrelaradicequadratadellavarianzasi dicedeviazione standard.1.7 Funzioni di distribuzioneDefinizione 1.7.1 Data una variabile stocastica X, la funzione di distribuzione di X,F(X) definita da:( )F x p X x ( ) Tutte le funzioni di distribuzione hanno le seguenti propriet:10 130)( ) lim ( ))lim ( ) ( ) 0 F(x) 1x2)lim , h 0, x F(x + h) F(x)4)xx - x + +F x F xF x h F xh1.8 Processi stocastici stazionariDefinizione 1.8.1 Un processo stocastico , {Xt}, un insieme di variabili stocastiche indicizzatedal simbolot, dovet T Z doveconZintendiamolinsiemedeinumeri relativi.Ad ogni t il processo stocastico definisce una variabile stocastica.Definizione1.8.2Unprocessostocastico{Xt}, si dicestazionariodi ordine1se [ ] E Xt una costante indipendente da t.Definizione 1.8.3 Un processo stocastico {Xt}, si dice stazionario di ordine 2 se:[ ]( ) ( )[ ][ ]1232))) E E EXX XX Xtt tt t + una costante indipendente da tuna costante indipendente da t funzione solo di 1.9 La funzione di autocovarianza edi autocorrelazioneDefinizione 1.9.1Sia {Xt} un processo stazionario di ordine 2. Si dice autocovarianza ( )C la funzione definita da:( )( ) ( )[ ]C E X Xt t +si definisce inoltre la funzione di autocorrelazione ( ) come:( )( )( ) CC 0Da adesso in poi se non specificato altrimenti consideriamo solo processi stocastici reali.Teorema 1.9.1Sia {Xt} un processo stazionario di ordine 2. La funzione diautocovarianza possiede le seguenti propriet:( )( ) ( )( ) ( ){ 1 02 02)) CC3) CXt CCDimostrazioneSi pusupporreche il processo stazionario abbia media nulla, ci non diminuisce il grado di generalit del teorema.1) Segue direttamente dalla def. 1.8.3 c.v.d.2) Dati 1 2, costruiamo la combinazione lineare 1 2X Xt t++allora:** ( )[ ][ ]( ) ( ) ( )E X X E X X X X C C Ct t t t t t 1 2212 222 21 2 12221 22 0 0 2 + + + + ++ + +dove abbiamo utilizzato la linearit delloperatore di aspettazione e che il processo stazionario fosse di ordine 2. Ora la quantit ** una quantit maggiore o uguale a zero. Se vediamo lultimo termine come unequazione di secondo grado, una volta in 1 e unaltra in 2 troviamo che la condizione per la quale la ** deve essere positiva ( )[ ]( )[ ] C C 02 2 c.v.d.3)( )[ ] [ ]( )C E X X E X X Ct t s s + pongot- =s c.v.d.Teorema 1.9.2 Lautocovarianza un prodotto scalareDimostrazione Vediamo se lautocovarianza soddisfa la def. 1.2.4. Supponiamo che la media del processo stocastico sia nulla. Si ha: [ ] [ ]( )[ ] [ ] [ ][ ] [ ][ ] [ ][ ]12302))) E E E a4) E a5) EX X E X XX X X E X X E X XaX X aE X XX aX aE X XX Xt s s tt r s t s r st s t st s t st t+ + CCc.v.d.Il fatto che lautocovarianza sia un prodotto scalare ci permette di dire che il modulo della deviazione standard la norma di {Xt}. Ed inoltre ci permette di introdurre il concetto di ortogonalit (def.1.2.6).Definizione1.9.2Si diceprocesso puramente stocasticodi ordine 2, un processo stocastico {Xt} che soddisfi le seguenti condizioni:[ ]( )[ ]( )1222) E Xt = costante2) E Xt costante3) C= 000tt2 ' Un processo puramente stocastico comunemente conosciuto come rumore bianco. Dal punto di vista dellautocorrelazione si dice anche non correlato. Dal punto di vista dellautocovarianza come prodotto scalare si dice che {Xs} ortogonale a {Xt} per s t (qui s e t vanno intese come diverse sequenze ordinate di indici).Definizione 1.9.3 La matricesimmetrica N x N( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )( ) ( )TC C C nC C CC C CC n C

]]]]]]]0 1 11 0 12 1 01 0 si dice matrice di autocovarianza.Teorema 1.9.3 La matrice di autocovarianza T ha le seguenti propriet:1 00)1) i = 1,..., NNi Ti iT semi - definita positivaSiano gli autovalori di T. Allora ,Dimostrazione1) Sia {ai} una N-pla di numeri reali. Definiamo la variabile stocastica a Xi iiallora abbiamo [ ]( )02

]]] E E a a X X a a C i si s i ss ii ss ic.v.d.2) Gli autovalori di T sono reali perch una matrice simmetrica hermitiana (vedi Thm 1.3.1).Ora essendo la matrice di autocovarianza semi-definita positiva si ha:T TT T T ora essendo 0 0 c.v.d.1.10 Stime della funzione di autocovarianzaSia {Xt} un processo stazionario di ordine 2, e siano dati i valori di Xt per t=1,2,...,N.Definizione 1.10.1 Si dice stima imparziale della media la quantit:Infatti abbiamo:[ ] [ ] E XNE XNNttN 1 11 Ora dobbiamo verificare per la consistenza che la varianza di questa stima sia finita.( ) ( )ENXNXNt sNrNrssNttNtNsNr NN1 111 1221 1211 + |.

`,

|.

`,

]]] |.

`,

XNXttN11doveabbiamopostor=t-sepoi invecedi sommareunavoltaper t epoi per s, sommiamo per le diagonali del reticolo formato dal quadrato t per s. Ora se il limite:( )limNr NNrNr +|.

`,

'' 111finitoalloralavarianzadellastimadellamediatendeazerocomeNtendead infinito.Definizione 1.10.2 Si dice stima imparziale dellautocovarianza la funzione:Per vedere le propriet di questa funzione facciamo prima questa osservazione:( ) ( )[ ]( ) ( ){ ( )( ){ [ ]( ) ( )[ ]( ) ( ) ( )X X X X X X X XX X X X N X Xt t t ttNtNt ttN + + + + ++ 1 1210 dove abbiamo assunto cheXttallora possiamo scrivere:( )( ) ( )[ ]( )~CNX X Xt ttN +1 21dunque:( )[ ] ( ) ( )[ ]( )[ ]( ) ( )[ ]( )E CNE X X E XNC E XCteNt ttNtN~ cos tan + 1 1221 122( )( ) ( )( )~ CNX X X Xt ttN t t t+11= 0, 1, 2, .... , N - 1Allora la differenza fra( ) ( )~C eC di ordine 1/N e come prima approssimazione possiamo trascurare questo termine di ordine 1/N.Esiste unaltra stima in letteratura data da:(1.10.1)Questastimadellaautocovarianza, nonostantesiausatanellamaggiorpartedelle librerie di statistica per computer, ha la propriet che al tendere di verso il modulo di N-1 la stima data dalla 1.10.1 diverge in modo notevole dalla covarianza; infatti trascurando il termine di ordine 1/N si ha:( )[ ]( ) ( )E CNCNCtN |.

`,

111comunque se