8 - stima minimi quadrati -...

43
8 - STIMA MINIMI QUADRATI 8.1 Introduzione al problema Si misurano in modo indipendente i tre angoli di un triangolo qualsiasi: 3 2 1 , , α α α , ottenendo le seguenti osservazioni: 03 02 01 , , α α α . Ogni misura i 0 α è una estrazione da una variabile casuale con media i α e varianza 2 i σ , lo scarto i i 0 i v α α = è un errore nella misura. Se si considerano gli errori come accidentali, si può supporre che le medie i α delle osservazioni angolari soddisfino la relazione caratteristica del triangolo: π α α α = + + 3 2 1 Si consideri ora la variabile casuale 03 02 01 0 L α α α + + = , che per quanto detto a proposito delle funzioni di variabili casuali, ha media e varianza:

Upload: hadiep

Post on 16-Feb-2019

217 views

Category:

Documents


0 download

TRANSCRIPT

8 - STIMA MINIMI QUADRATI

8.1 Introduzione al problema Si misurano in modo indipendente i tre angoli di un triangolo

qualsiasi: 321 ,, ααα , ottenendo le seguenti osservazioni:

030201 ,, ααα .

Ogni misura i0α è una estrazione da una variabile casuale

con media iα e varianza 2

iσ , lo scarto ii0iv αα −= è un errore nella misura.

Se si considerano gli errori come accidentali, si può supporre che le medie iα delle

osservazioni angolari soddisfino la relazione caratteristica del triangolo:

πααα =++ 321

Si consideri ora la variabile casuale 0302010L ααα ++= , che per quanto detto a proposito

delle funzioni di variabili casuali, ha media e varianza:

8 – Stima minimi quadrati ________________________________________________________________________________________________

2

[ ] πααα =++= 3210LE

[ ] 2

3

2

2

2

10

2 L σσσσ ++=

Le osservazioni, dato che sono inficiate dagli inevitabili errori di misura, non soddisferanno

del tutto l’equazione di condizione, cioè si otterrà:

πααα ≠++= 0302010L .

La relazione di vincolo è un’informazione aggiuntiva ai dati numerici delle osservazioni dei

tre angoli: ovviamente è conveniente tenere conto di entrambe le informazioni nella ricerca

di una stima delle grandezze; del resto se volessimo fare dei calcoli coerenti con il

triangolo, per esempio calcolarne le coordinate dei vertici, si rende necessario che le

grandezze angolari siano compatibili con la relazione geometrica esprimente il vincolo.

Prendiamo in considerazione il caso in cui le misure abbiano la stessa precisione:

22

3

2

2

2

1 σσσσ ===

Dato l’errore di chiusura ∆:

3213213210302010 vvvvvvL ++=+++−++=−++=−=∆ παααπαααπ ,

poiché, in questo semplice caso gli errori hanno la stessa dispersione, risulta intuitivo

scegliere come stima degli scarti un terzo dell’errore di chiusura, per simmetria. Si ha:

3vvv 321

∆===

dove si definisce:

ii01 ˆv αα −= .

In modo che la stima della grandezza (l’osservazione stimata) sia:

3vˆ i01i0i

∆−=−= ααα .

8 – Stima minimi quadrati ________________________________________________________________________________________________

3

In tale maniera si distribuisce l’errore di chiusura in modo eguale sui tre angoli.

Con tale stima si continua a soddisfare il vincolo:

παααααα =∆−++=++ 302010321 ˆˆˆ .

Inoltre, si potrebbe dimostrare che le stime delle osservazioni sono meno disperse delle

osservazioni stesse:

22

ˆ 32

iσσ

α= .

La variabile casuale a tre dimensioni:

03

02

01

0

ααα

α =

é distribuita in uno spazio a tre dimensioni, e ha media:

3

2

1

ααα

α = .

Fig. 1

Poiché si deve rispettare il vincolo del triangolo, significa che il vettore media α deve

stare sul piano π, mentre il vettore delle osservazioni α0 non giace in quel piano. E’

intuitivo pensare che lo stimatore dovrà giacere sul piano, ma nella posizione il più vicino

possibile (secondo un determinato criterio di distanza) al vettore delle osservazioni α0. La

figura 2 illustra il concetto.

8 – Stima minimi quadrati ________________________________________________________________________________________________

4

Fig. 2

Si cerca a questo punto di minimizzare la distanza euclidea (la più tradizionale) e nello

stesso tempo si mantiene il vincolo: è noto che la ricerca del minimo vincolato si ottiene

applicando un moltiplicatore di Lagrange.

Se si introduce la distanza euclidea, si minimizza proprio una forma quadrata, da cui il

nome di stima minimi quadrati:

∑ −=−−=−3

1

2

ii0i0

T

0

2

0 )ˆ(min)ˆ()ˆmin(ˆmin αααααααα

vincolato alla condizione:

πα =∑3

1ii .

La funzione da minimizzare viene modificata con l’aggiunta della funzione di vincolo,

moltiplicata per il cosiddetto moltiplicatore di Lagrange:

.)ˆ(()ˆ( ii

2

ii0i ∑ −+∑ − παλαα

Differenziando rispetto ad iα , si ottiene dunque:

0)ˆ(2 i0 =+− λαα

8 – Stima minimi quadrati ________________________________________________________________________________________________

5

cioè:

2ˆ i0i

λαα −= .

Tenendo conto nuovamente del vincolo:

πλαα =−∑∑ =23ˆ i0iii

∆=⎥⎦⎤

⎢⎣⎡∑ −=

31

31

21

i0i παλ .

In conclusione, si ottiene lo stesso risultato ottenuto in modo intuitivo:

3ˆ i0i

∆−= αα .

Nei prossimi paragrafi vedremo l’uso più generale dei minimi quadrati.

8.2 Proiezioni ortogonali e minimi quadrati

Sappiamo che il prodotto interno di due vettori x ed y è xT y; esso è zero solo se x ed y

sono ortogonali.

Ricordiamo che la lunghezza di un vettore a n dimensioni è:

2

n

2

2

2

1

2 x...xxx +++=

(geometricamente significa applicare il teorema di Pitagora n-1 volte).

Supponiamo che dato un vettore (un punto) nello spazio a n dimensioni si ricerchi la

distanza (euclidea) da una data retta, in una direzione a: si cerca lungo la direzione a il

vettore (punto) p (secondo la norma euclidea) più vicino a b.

In questo caso la retta che congiunge p e b è ortogonale al vettore a.

8 – Stima minimi quadrati ________________________________________________________________________________________________

6

Fig. 3

Quello di cui abbiamo bisogno per il calcolo é solo la constatazione che la retta da b al più

vicino punto p=xa con x quantità incognita:

(b-xa) =⊥a,

ovvero:

aT (b-xa)=0,

da cui segue che:

aabax

T

T

= .

Questa formula porta, come conseguenza, un importante teorema dell’algebra lineare: la

diseguaglianza di Schwartz.

Infatti, se si calcola la distanza tra b e p, cioè il valore del segmento bp, si ottiene:

)aa()ba()aa)(bb(aa

aaba

aa)ba(2bba

aabab

T

2TTTT

T

T

T

2TT

2

T

T −=⎟

⎠⎞

⎜⎝⎛+−=− .

Questa distanza, e a maggior ragione il suo quadrato, non può che essere positiva, sicchè

il numeratore non può essere negativo:

0)ba()aa)(bb( 2TTT ≥− .

Aggiungendo a entrambi i membri (aTb)2 e estraendo la radice quadrata:

b

a p

8 – Stima minimi quadrati ________________________________________________________________________________________________

7

babaT ≤ .

La situazione è analoga quando invece di una retta consideriamo un piano o più in

generale un sottospazio S di Rn: anche in questo caso si tratta di trovare un vettore p nel

sottospazio il più vicino possibile (secondo la norma euclidea) a b, cioè la proiezione di b

in quel sottospazio.

Il problema descritto fino a questo punto in termini geometrici è un classico problema di

una soluzione ai minimi quadrati di un sistema sovradeterminato: il vettore b rappresenta i

dati ottenuti da serie di esperimenti o di questionari, le osservazioni, le misure, che

contengono errori che non permettono al vettore b di giacere nel sottospazio considerato:

in alternativa si sceglie allora il vettore p, in quanto giace nel sottospazio, ma è il più vicino

a b.

Dato un sistema Ax = b, a prima vista si dice che ha soluzione oppure no: se b non è nello

spazio delle colonne il sistema è incompatibile e la eliminazione di Gauss fallisce.

Prendiamo il caso di un sistema di m equazioni in una sola incognita:

2x= b1

3x= b2

4x= b3

esso è risolubile solo se i bi stanno nel rapporto 2:3:4, cioè la soluzione è unica ed esiste

solo se b è lungo la direzione determinata dal vettore a:

432

.

Spesso è comunque necessario cercare di dare una soluzione a questi sistemi

incompatibili; una possibilità potrebbe essere quella di trovare la soluzione per la parte del

sistema compatibile, e trascurare il resto, il che non ha giustificazione se le equazioni

(osservazioni) hanno la stessa validità, inoltre in questo caso alcune osservazioni non

avrebbero alcun errore e le altre errori di grande entità; una soluzione utilizzata

tradizionalmente è quella di mediare l’errore, distribuirlo, spalmarlo, su tutte le equazioni

8 – Stima minimi quadrati ________________________________________________________________________________________________

8

(osservazioni). Come si può immaginare esistono vari modi di ottenere questa

mediazione, tuttavia uno dei più noti è quello di minimizzare la somma dei quadrati degli

errori:

Σ2=(2x-b1)2+(3x-b2)2+(4x-b3)2

Solo se esiste una soluzione, Σ2=0, in caso contrario, che tra l’altro è quello più comune, è

necessario calcolare il minimo di tale funzione parabolica:

( ) ( ) ( )[ ] 04bx43bx32bx22dxd

321

2

=−+−+−=Σ

da cui la soluzione:

29b4b3b2x 321 ++

= .

Dato in generale un qualsiasi vettore non nullo a, ed un qualsiasi vettore b, la formula

generale prevede la minimizzazione dell’errore, cioè della lunghezza del vettore ax-b,

ovvero del suo quadrato:

( ) ( )[ ]( ) ( ) bbbxa2axabaxbax

bxa...bxabaxTT2TT2

2/12

mm

2

11

+−=−−=Σ

−++−=−=Σ

da cui si ottiene:

0ba2axa2dxd TT

2

=−=Σ

aabax

T

T

= .

Questa soluzione, dal punto di vista geometrico, è proprio la proiezione p=xa. Cioè il punto

più vicino a b sulla retta determinata da a.

8 – Stima minimi quadrati ________________________________________________________________________________________________

9

Supponiamo ora che le misure non siano ugualmente attendibili, cioè non siano affidabili

allo stesso livello, per esempio una misura sia migliore perchè ottenuta con maggiore

precisione strumentale oppure per un campione più grande, è intuitivo pensare che invece

di minimizzare il quadrato della lunghezza euclidea del vettore degli scarti:

( ) ( ) ( ) ( )2

4

2

3

2

2

2

1

2 bxbxbxbx −+−+−+−=Σ

4bbbbx 4321 +++

=

si minimizzi il quadrato di una lunghezza “pesata”:

( ) ( ) ( ) ( )2

44

2

33

2

22

2

11

2 bxpbxpbxpbxp −+−+−+−=Σ

( ) ( ) ( ) ( )[ ] 0bxpbxpbxpbxp2dxd

44332211

2

=−+−+−+−=Σ

4321

44332211

ppppbpbpbpbpx

++++++

= .

Esempio

Un paziente obeso viene pesato in quattro momenti diversi nelle stesse

condizioni, ottenendo le seguenti misure, espresse in kg:

b1=150, b2=153, b3=150, b4=151.

Qual è il valore migliore, nel senso dei minimi quadrati?

aabax

T

T

=

1111

a

151150153150

b ==

xm1514

151150153150x ==+++

=

8 – Stima minimi quadrati ________________________________________________________________________________________________

10

Si tratta dunque della già vista media ponderata nel caso di misure dirette.

Fig. 4

Nella figura 4, un vettore osservazioni è proiettato sul vettore colonna di A (media), mentre

nel secondo caso, in cui il valore di b1 è più affidabile dell’altro, il vettore osservazioni

viene proiettato sempre sul vettore colonna di A, ma poiché la media ponderata sarà più

piccola della media, è più vicina alla misura b1 e per visualizzare tale risultato, si può

immaginare il secondo asse stirato, in modo che abbia maggiore importanza.

Il passo successivo riguarda un sistema più generale del precedente, e una conseguente

variante dell’approccio geometrico.

Se la proiezione di un vettore su una retta corrisponde ad un sistema di m equazioni in

una incognita, vediamo di seguito a che cosa corrisponde un sistema a più variabili, cioè di

m equazioni in n incognite, dove m>n, cioè il sistema è incompatibile. E’ probabile che non

esista una scelta di x che verifichi i dati presenti nel vettore b, cioè è probabile che il

vettore b non sia una combinazione lineare dei vettori che costituiscono le colonne di A. Si

tratta anche in questo caso di rendere minimo l’errore nel senso della norma L2 (minimi

quadrati).

L’errore è la distanza tra b e p=Ax, che giace nello spazio delle colonne di A:

bAx −=Σ .

Dunque p deve essere la proiezione di b sullo spazio generato dalle colonne di A e il

vettore differenza bxA − deve essere perpendicolare a tale spazio.

8 – Stima minimi quadrati ________________________________________________________________________________________________

11

Fig. 5

Ogni vettore nello spazio di A è una combinazione lineare dei vettori colonna della matrice

A, è un vettore della forma Ay. Ma per ogni combinazione deve valere la condizione che

siano perpendicolari al vettore differenza (errore) bxA − .

Pertanto:

0)bxA()Ay( T =−

[ ] 0bAxAAy TTT =− .

Da cui si deduce la famosa soluzione ai minimi quadrati:

0bAxAA TT =− .

Si tratta delle cosiddette equazioni normali: se le colonne di A sono linearmente

indipendenti, allora la matrice ATA, detta matrice normale, è invertibile, e la soluzione

unica ai minimi quadrati è:

( ) bAAAx T1T −= .

La proiezione di b sullo spazio delle colonne di A è pertanto:

8 – Stima minimi quadrati ________________________________________________________________________________________________

12

( ) bAAAAxAp T1T −== .

Si tratta di costruire una retta perpendicolare da b allo spazio definito dalle colonne della

matrice A. La matrice che permette questa costruzione è la matrice cosiddetta proiezione

P:

( ) T1T AAAAP −= .

Tale matrice proietta, infatti, un vettore qualsiasi b sullo spazio delle colonne di A: sicché

p=Pb è la componente di b nello spazio delle colonne di A, mentre b-Pb è la componente

nel complemento ortogonale, ed è il vettore errore. La matrice proiezione ha due proprietà

fondamentali:

- è idempotente, nel senso che P2=P

- è simmetrica P=PT.

8.3 Regressione lineare Supponiamo di eseguire una serie di esperimenti e di avere ipotizzato il seguente modello:

b=C+Dt,

cioè una funzione lineare della variabile t.

Ad esempio si misura ad intervalli di tempo la distanza di un satellite da una certa

stazione: in questo caso t è il tempo e b la distanza; ovvero si misurano le deformazioni su

una struttura caricata in modo variabile: t è il carico e b la deformazione. Se la relazione è

lineare e non ci sono errori, già due sole misure di b a due diversi valori di t determinano la

retta: ma in genere ci sono errori e punti ulteriori non vanno a cadere sulla retta, sicché

siamo invogliati a cercare una qualche media dei vari esperimenti e a trovare una retta in

un certo senso ottimale, che non dobbiamo confondere con la retta su cui si proiettava il

vettore dei dati b.

8 – Stima minimi quadrati ________________________________________________________________________________________________

13

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

=⎥⎦

⎤⎢⎣

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

m

2

1

m

2

1

b..

bb

DC

t1....t1t1

che è sintetizzabile in:

Ax=b.

Tale sistema non è in generale risolvibile.

Noi scegliamo ora C e D in modo che vengano minimizzati gli errori nel senso dei minimi

quadrati, cioè che venga minimizzata la somma dei quadrati degli errori, come nel caso

precedente, o per via geometrica o per via algebrica:

- nel primo caso, tutti i vettori Ax giacciono nel piano delle colonne di A e in questo

piano cerchiamo il vettore che sia il più vicino a b, che è la proiezione p=A x ,

rendendo minimo il vettore scarto v=b-p

- nel secondo, viene minimizzata la lunghezza al quadrato di Ax-b:

minbAx 2=− .

Poichè le colonne di A sono indipendenti, ricorriamo alla solita stima minimi quadrati e

normalizziamo il sistema:

⎥⎦

⎤⎢⎣

⎡∑∑∑

=

⎥⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢⎢

⎥⎦

⎤⎢⎣

⎡⋅⋅⋅⋅⋅⋅

=2

ii

i

m

2

1

m1

T

tttm

t1....t1t1

tt11

AA

∑∑

=⋅⋅⋅

⎥⎦

⎤⎢⎣

⎡⋅⋅⋅⋅⋅⋅

=2

i

i

m

1

m1

T

bb

b

b

tt11

bA

∑∑

⎥⎦

⎤⎢⎣

⎡∑∑∑

==−

2

i

i

1

2

ii

i

bb

tttm

DC

x .

8 – Stima minimi quadrati ________________________________________________________________________________________________

14

Esempio

Si cerchi la retta che si avvicina di più ai tre punti: (0,6), (1,0), (2,0).

Stiamo cercando i valori di C e D che soddisfino le tre equazioni:

C+D*0=6

C+D*1=0

C+D*2=0

Tale sistema non ha soluzione, in quanto il secondo membro, il vettore b non

è combinazione lineare delle colonne di A:

006

b211101

A =⎥⎥⎥

⎢⎢⎢

⎡=

La necessaria stima minimi quadrati permette di ottenere:

t35b35

xbAxAA TT −=→=→=

12

1v

125

pb −=−

==

p1=5

b1=6 v1=1

v3=1

b3=0

p3=-1

v2=-2

p2=2

b2=0

8 – Stima minimi quadrati ________________________________________________________________________________________________

15

8.4 Trattazione algebrica della stima minimi quadrati

2.4.1 Minimi quadrati con equazioni di condizione Nelle seguenti trattazioni algebriche, verranno usati i seguenti simboli:

.toapprossimavalore~stimatovaloreˆteoricovalore

osservatovalore0

====

αααα

αααα σ QC 2

0= é la matrice di varianza-covarianza delle osservazioni, in cui 2

0σ è una

costante di proporzionalità a priori incognita, che viene stimata a posteriori, mentre la ααQ

è detta matrice dei cofattori. Se le misure sono indipendenti, la matrice ααQ è diagonale e

PQ 1 =−

αα , dove P è la cosiddetta matrice dei pesi da attribuire alle osservazioni, alle misure.

Si imposta la relazione di minimi quadrati relativa agli scarti tra valori osservati e valori

stimati:

min)ˆ(Q)ˆ( 0

1T

0 =−− − αααα αα .

8 – Stima minimi quadrati ________________________________________________________________________________________________

16

Tale forma quadratica coincide con quella ad esponenziale della normale ad n dimensioni

che compare nella funzione di verosimiglianza (nell’ipotesi di distribuzione normale).

Si deve pertanto risolvere il problema di minimo vincolato:

min)ˆ(Q)ˆ( 0

1T

0 =−− − αααα αα

0Cˆ =+αβ .

Si opera con i moltiplicatori di Lagrange:

min)Cˆ()ˆ(Q)ˆ( T

0

1T

0 =++−− − λαβαααα αα .

Per comodità si utilizza la funzione seguente:

Φ=++−−=Φ − min)Cˆ()ˆ(Q)ˆ(2/1 T

0

1T

0 λαβαααα αα .

Si calcolano e si pongono uguali a zero le derivate parziali:

0Cˆ)Cˆ( T' =+=+=Φ αβαβλ

0)ˆ(Q T

0

1' =+−=Φ − λβααααα .

Dopo i seguenti passaggi elementari:

⎩⎨⎧

=+

=+− −−

0Cˆ0QˆQ T

0

11

αβλβαα αααα

⎩⎨⎧

=+−

−=

0C)Q(Qˆ

T

0

T

0

λβαβλβαα

αα

αα

⎩⎨⎧

=+−

−=

0CQQˆ

T

0

T

0

λβββαλβαα

αα

αα

8 – Stima minimi quadrati ________________________________________________________________________________________________

17

⎩⎨⎧

+−=

+=−

)C()Q(Qˆ)C()Q(

0

1TT

0

0

1T

βαβββααβαββλ

αααα

αα .

Si introduce anche la quantità seguente:

)C()Q(Qˆv 0

1TT

0 +−=−= − βαβββαα αααα .

Si può provare la correttezza delle stime. Inoltre la varianza delle stime è inferiore alla

varianza dei dati di partenza; questo significa che le stime sono migliori dei dati di

partenza, delle misure: la stima è efficiente. Tralasciamo la dimostrazione, che è analoga

a quella svolta per il caso dei minimi quadrati con parametri aggiuntivi incogniti.

2.4.2 Equazioni con parametri aggiuntivi incogniti Le equazioni risolventi con parametri aggiuntivi incogniti, sono del tipo:

CAx +=α ,

in cui α sono le osservazioni e x i parametri aggiuntivi incogniti.

Tali equazioni sono verificate nei valori medi:

CxA +=α .

Si vogliono trovare delle stime tali che si abbia:

( ) ( ) minˆQˆ 0

1T

0 =−− − αααα αα

e nello stesso tempo venga rispettato il modello:

CxAˆ +=α .

8 – Stima minimi quadrati ________________________________________________________________________________________________

18

Si opera con i moltiplicatori di Lagrange, imponendo la seguente condizione:

( ) ( ) ( ) minCxAˆˆQˆ2/1 T

0

1T

0 =−−+−−=Φ − λααααα αα .

L’espressione, qualora si scriva 0CxAv α−+= e si ipotizzino le osservazioni indipendenti

PQ 1 =−

αα e αααα σ QC 2

0

== , diventa:

( ) minCxAvvPv2/1 T

0

T =+−−+=Φ λα .

Si calcola dunque il minimo rispetto v,x, λ:

.0CxAv

0Ax'

0vPv'

0

'

T'

'

=+−−=Φ

=−=Φ

=+=Φ

α

λ

λ

λ

Ricavando dalla prima espressione v stimato e introducendolo nella terza si ricava:

).CxA(PCxAP

Pv

0

0

1

1

αλαλ

λ

−+−=

+−−−−=

Inserendo il valore diλ nella seconda espressione, si ottiene:

[ ] [ ].)C(PA)PAA()C(PA)PAA(x0)C(PAxPAA

0)CxA(PA

0

T1T

0

T1T

0

TT

0

T

−=−−=

=−+

=−+

−− ααα

α

Sostituendo la stima di x nell’espressione della stima di v:

8 – Stima minimi quadrati ________________________________________________________________________________________________

19

[ ]

[ ] .CPCA)PAA(APA)PAA(AICPCA)PAA(APA)PAA(A

C)C(PA)PAA(ACxAv

T1T

0

T1T

0

T1T

0

T1T

00

T1T

0

+−+−−=

=−+−=

=−+−=−+=

−−

−−

αααααα

Si prova la correttezza di x :

[ ] xxE = .

Poiché:

[ ] [ ][ ]

[ ][ ] 0xAEC

0xE)PAA()C(PA)C(PAxE)PAA(

)EC(PAxE)PAA()C(PAx)PAA(

TT

TT

0

TT

0

TT

=+−=+−

−=−

−=−

−=−

αα

αα

α

ma siccome sappiamo che

0CxA =−+ α

l’equazione precedente risulta verificata.

Si calcola la matrice di varianza-covarianza xxC con la legge di propagazione della

covarianza:

[ ][ ][ ][ ][ ] [ ].)PAA(ˆI)PAA(ˆ

)PAA(PAA)PAA(ˆ)PAA(IPAA)PAA(ˆ

)PAA(PAPPA)PAA(ˆ)PAA(PAPQA)PAA(ˆC

1T2

0

1T2

0

1TT1T2

0

1TT1T2

0

1T1T1T2

0

1TT1T2

0xx

−−

−−

−−

−−−

−−

==

==

=

==

==

σσσσσσ αα

Si prova la correttezza di v :

[ ] [ ] [ ] 0CxAECxAEvECxAˆv

0

00

=−+=−+=

−+=−=

ααααα

data la correttezza di x e il fatto che il modello lineare è verificato nei valori medi.

Si calcola la matrice di varianza–covarianza delle stime degli scarti:

8 – Stima minimi quadrati ________________________________________________________________________________________________

20

[ ] [ ][ ] [ ]

[ ][ ][ ][ ]

[ ][ ]

[ ][ ] [ ].AAQPˆA)PAA(APˆ

A)PAA(AA)PAA(A2PˆIA)PAA(AA)PAA(IAA)PAA(APˆ

A)PAA(PAA)PAA(AA)PAA(PAPA)PAA(APˆA)PAA(PAIIA)PAA(APˆA)PAA(PAIPPA)PAA(APˆA)PAA(PAIPPA)PAA(AIˆ

A)PAA(PAIQPA)PAA(AIˆC

T

xx

12

0

T1T12

0

T1TT1T12

0

T1TT1TT1T12

0

T1TT1TT1T1T1T12

0

T1TT1T12

0

T1T1T1T12

0

T1T1T1T2

0

T1TT1T2

0vv

−=−

=+−=

=+−−

=+−−

=−−=

=−−

=−−=

=−−=

−−−

−−−

−−−−

−−−−−−

−−−

−−−−

−−−

−−

σσσ

σσ

σσσσ αα

Si prova la correttezza di α :

[ ] αα =ˆE

[ ] [ ] .CxACxAEˆECxAˆ

ααα

=+=+=+=

Si calcola la matrice di varianza covarianza delle stime delle osservazioni αα ˆˆC :

αααα σσ ˆˆ2

0

T

xx

2

0ˆˆ QˆAAQˆC == .

Come si è visto:

[ ]vvˆˆ

ˆˆ

T

xx

12

0vv

CCCCCAAQPˆC

−=

−=−= −

αααα

αααασ

e per i termini in diagonale principale:

2v

22ˆ ii0i

σ−σ=σ αα

pertanto la stima di α è efficiente (ha una varianza minore di quella delle osservazioni.

8 – Stima minimi quadrati ________________________________________________________________________________________________

21

Calcoliamo infine la stima della varianza 2

0σ :

[ ] [ ][ ] [ ][ ] [ ][ ] [ ][ ] [ ][ ][ ] [ ] [ ] [ ] [ ][ ]

[ ] [ ][ ] [ ] [ ][ ] [ ]nmˆITrITrˆ)PAA(PAATrITrˆA)PAA(PATrITrˆA)PAA(PAITrˆPQTrˆPCTr

vvPETrvvPETrvvPTrEPvvTrEPvvETrPvvE

2

0nm

2

0

1TT

m

2

0

T1T

m

2

0

T1T

m

2

0vv

2

0vv

TTTTTT

−=−=−

=−=−=========

−−

σσσσσσ

[ ].nmvPvEˆ

T2

0 −=σ

Poichè la media non è effettuabile, si pone:

nmvPvˆ

T2

0 −=σ .

Si dimostra che tale stima è corretta:

[ ] [ ] 2

0

2

0T

2

0 nm)nm(

nmvPvEˆE σ

σσ =

−−

=−

= .

E’ da notare che se (m-n) tende ad infinito, la stima della varianza tende a zero: pertanto

le stime di v,ˆ,x α sono consistenti, in quanto la loro varianza va a zero, quando il numero

di osservazioni m tende ad infinito.

2.5 Applicazioni dei minimi quadrati Vi sono due applicazioni principali:

− L’interpolazione, ovvero l’adattamento di un modello ad un insieme di dati: il

modello è noto, ma non sono noti i suoi coefficienti che, pertanto, vengono stimati.

Come dato di partenza si hanno le osservazioni, le relative precisioni e le eventuali

correlazioni; il dato di arrivo consiste nelle stime dei coefficienti, con le relative

precisioni ed eventuali correlazioni. Osserviamo che un modello si dice “grigio” se

ha forma di legge, “nero” se non è nota la legge di tipo matematico seguita dagli

eventi, in tal caso non è definibile un modello teorico ma esso deve essere

8 – Stima minimi quadrati ________________________________________________________________________________________________

22

ipotizzato a priori (anche in questo caso, il modello di stima fornisce unicamente i

coefficienti e non il modello);

− Reti, ovvero tutto ciò che sia schematizzabile per mezzo di un grafo (insieme di

vertici collegati da lati). Dato di partenza sono le osservazioni sui lati, con le

precisioni e le correlazioni; dato di arrivo sono i parametri dei vertici (le coordinate

nelle reti topografiche) con le precisioni e correlazioni relative.

Esempio

Sia dato il circuito elettrico in figura, di cui sono note le resistenze R1 ed R2,

mentre sono state misurate con la stessa precisione ed in modo

indipendente le intensità di corrente I1 I2 ed I.

E’ possibile scrivere le equazioni di condizione e stimare ai minimi quadrati le

osservazioni, ma è anche possibile risolvere il problema con il metodo dei

parametri incogniti, in quel caso la stima delle osservazioni segue la stima

del parametro aggiuntivo incognito. R1

I A I1 B

Metodo delle equazioni di condizione I2

Le osservazioni siano: R2

001,1552,0443,0

0 =α espresse in [A].

Mentre i dati noti:

R1=50 Ω e R2=40 Ω.

Le equazioni di condizione esprimono le leggi della fisica:

2211

21

IRIRIII

⎪⎩

⎪⎨⎧

=

=+

cioè:

0C =+αβ .

8 – Stima minimi quadrati ________________________________________________________________________________________________

23

Nel caso in esame:

⎟⎟⎠

⎞⎜⎜⎝

⎛−

−=

00

C04050111

β .

Il prodotto βα0:

∆=−

=07,0006,0

0βα

410010103

K T == ββ

000246,000082,000082,0336066,0

)(K 1T1

−−

== −− ββ

00082,033607,001066,0368852,0

011475,0295082,0K 1T

−−=−β

002074,000296,000097,0

K 1T −−

=∆−β

998926,05549590,04439670,0

Kˆ 1T

0 =∆−= −βαα

Osserviamo come si giunga allo stesso risultato con la stima minimi quadrati ai parametri incogniti. L’equazione alle osservazioni, in questo caso è:

CAx +=α

in cui:

000

C,Vx,

R/1R/11R/1R/1

A,III

21

2

1

2

1

=∆=

+

==α

8 – Stima minimi quadrati ________________________________________________________________________________________________

24

998926,0554959,0443967,0

ˆˆ

19836,22)(ˆˆ,067705,0

8689,327,00305,0,045,0025,002,0,045,0025,002,0

01

0

1

==

==∆==

=====

xA

AAAVxA

NAANAA

TTT

TT

α

αα

Esempio - Regressione lineare

Siano date le seguenti osservazioni α0 in corrispondenza delle variabili

indipendenti x1 ed x2:

α0 x1 x2 85,3 -1 -1 72,3 1 1 71,4 0 1,2154 72 0 -1,2154 87 -1 -1

55,6 1 1 85 0 0

70,9 1,2154 0 68 0 0

89,6 -1,2154 0 Si ipotizzi un modello lineare: α=b0+b1x1+b2x2 e si stimino i tre parametri

incogniti.

Scrittura del problema:

Matrice disegno A

1 -1 -1 1 1 1 1 0 1,2154 1 0 -1,2154 1 -1 -1 1 1 1 1 0 0 1 1,2154 0 1 0 0 1 -1,2154 0

8 – Stima minimi quadrati ________________________________________________________________________________________________

25

Matrice normale N

10 0 0 0 6,954394 4 0 4 6,954394

Matrice inversa N-1

0,1 0 0 0 0,214883 -0,1236 0 -0,1236 0,214883

Vettore dei termini noti normalizzati Tn

757,1 -67,128 -45,1292

Vettore delle soluzioni

40079,1b8469,8b

71,75b

2

1

0

−=−==

Vettore delle osservazioni stimate α

85,9576965,4623174,0074877,4125285,9576965,4623175,71 64,9574875,71 86,46252

8 – Stima minimi quadrati ________________________________________________________________________________________________

26

2.6 I problemi non lineari La trattazione, fin qui svolta, sui problemi minimi quadrati ha riguardato esclusivamente

l'ambito lineare di questi. D'altra parte, la maggior parte dei fenomeni e processi sono non-

lineari e tale caratteristica si ripercuote, inevitabilmente, nella loro modellazione. Pertanto

anche la trattazione dei problemi minimi quadrati deve potersi estendere in ambito non-

lineare, fornendo modelli adatti all'analisi dei dati di questi fenomeni e processi.

La non-linearità dei problemi minimi quadrati può interessare:

− il modello funzionale;

− il modello stocastico.

Vettore degli scarti stimati v

0,657688 -6,83769 2,60748 5,41252 -1,04231 9,862312 -9,29 -5,94252 7,71 -3,13748

Matrice di varianza-covarianza dei parametri incogniti xxC

5,321971 0 0 0 11,43602 -6,57772 0 -6,57772 11,43602

Pertanto le precisioni dei parametri risultano:

3817,3ˆˆ3070,2ˆ

2b1b

0b

==

=

σσ

σ

8 – Stima minimi quadrati ________________________________________________________________________________________________

27

Nel primo caso si ha, direttamente, la non-linearità delle equazioni di condizione pure,

osservazione, pseudo-osservazione, vincolo, ecc.; nel secondo caso la matrice di

varianza-covarianza delle osservazioni non è del tutto nota, solo a meno di una costante.

Lo schema generale per l'attuazione di detta procedura si compone dei seguenti passi:

1. inizializzazione del problema e preparazione dei dati di partenza, in base a

informazioni a priori di sufficiente approssimazione;

2. avvio di un contatore per il controllo delle iterazioni;

3. effettuazione di un passaggio in ambito lineare ed ottenimento di risultati intermedi;

4. calcolo di una norma sui risultati intermedi ottenuti per il controllo delle iterazioni;

5. esecuzione di un test d'arresto del ciclo iterativo, capace di valutare in alternativa il

contenimento della suddetta norma al di sotto di un'opportuna soglia prefissata,

oppure il superamento da parte del contatore di un numero massimo d'iterazioni

consentite;

6. arresto del ciclo iterativo ed ottenimento dei risultati definitivi, se il test d'arresto è

soddisfatto; oppure aggiornamento dei dati di partenza in base ai risultati intermedi

ottenuti, se il test d'arresto non è soddisfatto;

7. incremento del contatore per il controllo delle iterazioni;

8. ripetizione della procedura descritta, a partire dal passo 3.

Si osservi come tale procedura, perquanto del tutto generale, bene si presta alla soluzione

iterativa di tutti e tre i casi sopraccitati di non-linearità dei problemi minimi quadrati. Infatti,

nessuno di essi, pur nella sua specificità, presenta anomalie tali da dover far abbandonare

uno schema molto generale e, conseguentemente, molto collaudato e sicuro.

La figura 6 seguente illustra lo schema a blocchi della procedura iterativa appena esposta.

8 – Stima minimi quadrati ________________________________________________________________________________________________

28

vero falso

inizializzazione iter=0

sol. di un problema lineare

test di controllo

delle iterazioniarresto aggiornamento

iter=iter+1

Fig. 6

La non-linearità del modello funzionale si manifesta, come già detto, nelle equazioni

d'osservazione e pseudo-osservazione. Considerazioni analoghe valgono, ovviamente,

per le equazioni di condizione pure e per le equazioni di vincolo; tuttavia la trattazione a

seguire restringerà l'attenzione alle sole equazioni d'osservazione e pseudo-osservazione,

giudicando l'uso di equazioni di condizione pure estremamente raro e ricordando la

possibilità di passaggio dalle equazioni di vincolo (e da più generali equazioni di

condizione) alle equazioni di pseudo-osservazione.

Si consideri il seguente sistema non lineare:

( )( )

( )⎪⎪⎪⎪

⎪⎪⎪⎪

=

==

n211m

n2122

n2111

x....x,xf.........

x....x,xfx....x,xf

α

αα

Si linearizzi il sistema di equazioni alle osservazioni per mezzo di uno sviluppo in serie di

Taylor approssimato al primo ordine:

8 – Stima minimi quadrati ________________________________________________________________________________________________

29

( ) ( ) ( )

( ) ( ) ( )

( ) ( ) ( )⎪⎪⎪⎪⎪⎪

⎪⎪⎪⎪⎪⎪

−++−+=

−++−=

−++−+=

nn

n

m11

1

mn211m

nn

n

211

1

2n2122

nn

n

111

1

1n2111

x~xxf...x~x

xfx~....x~,x~f

...

...

...

x~xxf...x~x

xfx~....x~,x~f

x~xxf...x~x

xfx~....x~,x~f

δδ

δδα

δδ

δδ

α

δδ

δδ

α

Sia iii xx~x δ=− :

( ) ( )

( ) ( )

( ) ( )⎪⎪⎪⎪⎪⎪

⎪⎪⎪⎪⎪⎪

+++++++=

+++=+++=

+++=+++=

x~fxxf...x

xfx

xf...x

xfx~....x~,x~f

...

...

...

x~fxxf...x

xfx

xf...x

xfx~....x~,x~f

x~fxxf...x

xfx

xf...x

xfx~....x~,x~f

mn

n

m1

1

mn

n

m1

1

mn21mm

2n

n

21

1

2n

n

21

1

2n2122

1n

n

11

1

1n

n

11

1

1n2111

δδδδ

δδδ

δδδ

δδα

δδδδ

δδδ

δδδ

δδα

δδδδ

δδδ

δδδ

δδα

Pertanto dato un sistema d'equazioni non lineari d'osservazione e pseudo-osservazione:

( )xF=α ,

noto (o conosciuto per altra via) un vettore di opportuni valori approssimati dei parametri

x~ , il suo sviluppo in serie di Taylor, arrestato al 1° ordine, ha forma:

( ) ( )( ) ( )( )x~xx~J~x~xx~Fx~F x −+=−+= αα

essendo ( )x~J la matrice Jacobiano della funzione di più variabili F .

8 – Stima minimi quadrati ________________________________________________________________________________________________

30

Si tratta di un modello parametrico e non lineare, che può venire assimilato formalmente

ad un modello lineare, basta infatti porre:

( )xx)x~x(

Ax~JC~

==−

=

=

δ

α

e si ottiene il ben noto modello lineare:

α=Ax+C.

Il vettore α~ costituisce un vettore di costanti numeriche, da addizionarsi alle osservazioni,

per fornire il vettore termine noto.

Ad ogni iterazione, ottenuto il vettore delle nuove incognite ( )x~x − ed aggiornato il vettore

delle incognite originarie ( )x~xx~x −+= , quest'ultimo viene considerato un nuovo vettore di

più opportuni valori approssimati dei parametri, in base al quale effettuare una nuova

linearizzazione, punto di partenza di una nuova iterazione.

La procedura continua, iterativamente, fino ad ottenere la convergenza del metodo alla

soluzione cercata. In pratica, ad ogni iterazione, ne succede una nuova, finché le nuove

incognite sono abbastanza grandi da dare un qualche contributo, utile all'aggiornamento

delle incognite originarie.

Al contrario, quando questo contributo svanisce (cioè tutte le nuove incognite sono ormai

pressoché nulle), la procedura è arrestata, perché si è ottenuta la convergenza del metodo

alla soluzione cercata. La procedura è arrestata, altresì, nel caso sfavorevole in cui, dopo

un numero massimo d'iterazioni consentite, non si ha alcuna convergenza.

La norma calcolata sulle nuove incognite, in base alla quale giudicare l'utilità del contributo

all'aggiornamento delle incognite originarie, è largamente arbitraria.

Una norma dell'estremo superiore:

( )in,1i

x~xmax −==

può essere consigliabile, perché garantisce che, effettivamente, tutte le nuove incognite

siano, ormai, pressoché nulle.

8 – Stima minimi quadrati ________________________________________________________________________________________________

31

La procedura appena descritta, nota come metodo di Newton-Fourier (altrimenti detto, con

un'espressione più antica, degli iperpiani tangenti), può essere notevolmente semplificata

e sveltita scegliendo, ad ogni iterazione dopo la prima, di ricalcolare solo il vettore y~ (ed

adottando il metodo detto, dalle stesse più antiche espressioni, degli iperpiani paralleli),

anziché esso e la matrice Jacobiano. Come evidente, tutto ciò accelera, ad ogni

iterazione, il calcolo della soluzione, in generale, senza arrecare alcun danno alla stessa

ed al solo prezzo di qualche veloce iterazione in più.

Esempio

Sia dato il modello non lineare: bxay +=

che si suppone adatto ad un determinato fenomeno: sono state eseguite con

la stessa precisione ed in modo indipendente le osservazioni yi in

corrispondenza delle variabili indipendenti xi :

x α 1 0,017 2 2,988 3 8,006 4 14,991

E si conoscano i valori approssimati:

999350,1b~;993841,0a~ =−= .

Si stimino i parametri aggiuntivi incogniti a e b.

Nella matrice disegno vengono inserite le derivate rispetto alle due incognite

(colonne) per ogni osservazione (riga), calcolate nei valori approssimati. (si

ricorda che la derivata della funzione y è: y’=xblogx).

Matrice disegno A (ovvero J):

1 0 1 2,7725 1 9,8875 1 22,1807

8 – Stima minimi quadrati ________________________________________________________________________________________________

32

Matrice trasposta AT:

1 1 1 1 0 2,7725 9,8875 22,1807

Matrice normale N :

4 34,8407 34,8407 597,4329

Matrice inversa N-1:

0,508083 -0,02963 -0,02963 0,003402

Vettore dei termini noti :

991,1400614,0

988,2017,0

009,0006,0012,0

017,0

15830

)x~(f0 =

−−=−α

Vettore dei termini noti normalizzati:

0,17357-0,002

))x~f(-(A 0

T =α

La soluzione è dunque:

00065,0006159,0

))x~(f(ANx 0

T1

−=−= − αδ .

Sicché, la stima dei parametri incogniti alla prima iterazione è:

99935,1b

99384,0a

=

−=

8 – Stima minimi quadrati ________________________________________________________________________________________________

33

Esempio - Calcolo di parametri nelle trasformazioni di sistemi di riferimento

In un sistema di riferimento sono note le coordinate di due punti:

ξ1 = 1 η1 =3 ξ2 =2 η2=1.

Le coordinate di tali punti vengono poi misurate in un altro sistema di

riferimento x, y, rototraslato rispetto al precedente:

X1 =3,827 Y1 = 0,828 X2 =3,12 Y1 =1,289

x y

ξ

η

x0y0

θ

P1

P2

Si determinino i tre parametri di trasformazione, sapendo che i loro valori

approssimati sono:

2Y~

1X~45~

0

0

=

=

°=ϑ

Le espressioni che rappresentano le equazioni alle osservazioni sono:

θϑξ

θηϑξ

θϑξ

θηϑξ

~cos~siny~y

~sin~cosx~x

~cos~siny~y

~sin~cosx~x

02

02

01

01

+−=

++=

+−=

++=

8 – Stima minimi quadrati ________________________________________________________________________________________________

34

Il sistema minimi quadrati comporta la scritture dello Jacobiano e la

risoluzione dei vari noti passi.

Il vettore delle osservazioni α0 è noto:

289,11289,3828,0827,3

04

03

02

01

====

αααα

Il vettore C delle osservazioni approssimate è:

2928,1C1213,3C8284,0C8284,3C

4

3

2

1

====

La matrice disegno A (ovvero lo Jacobiano) è data da:

1 0 1,4142140 1 2,8284271 0 0,7071070 1 2,12132

La soluzione prevede, come al solito, i seguenti passi:

Calcolo della matrice normale N:

2 0 2,121320 2 4,949747

2,12132 4,949747 15

Calcolo della matrice inversa N-1

2,75 5,25 -2,121325,25 12,75 -4,94975

-2,12132-4,94975 2

Calcolo dei termini noti normalizzati:

( )01209,00042,00027,0

CAT 0

T

n −−−

=−= α

8 – Stima minimi quadrati ________________________________________________________________________________________________

35

Appendice

Statistica computazionale: i metodi diretti I metodi diretti raggruppano tutti quegli algoritmi della statistica computazionale capaci di

pervenire, in modo esatto, al calcolo della soluzione di sistemi in un solo passo. I più noti e

comunemente impiegati fra questi, sono gli algoritmi di Gauss, quelli Cholesky e di

Householder. Nel prosieguo, si illustrano gli algoritmi di Cholesky, perché maggiormente

flessibili e passibili di generalizzazioni ed estensioni, (l’algoritmo di Gauss è ben noto,

mentre gli algoritmi di Householder sono propedeutici agli algoritmi sequenziali, non trattati

in questa sede).

1. Gli algoritmi di Cholesky (algoritmi di base) Le compensazioni ai minimi quadrati richiedono la costruzione e la soluzione di un sistema

lineare, il sistema normale. Il metodo di Cholesky si applica alla soluzione di tale sistema:

0dCx =+

in cui C= ATA è la matrice normale e d =AT(C-α0) è il vettore dei cosiddetti termini noti

normalizzati.

Come abbiamo visto, esso deve essere preceduto, in una compensazione, dalla

normalizzazione del sistema di m equazioni d'osservazione, con n parametri incogniti

vbAx =+ .

Questo metodo consiste nella fattorizzazione della matrice normale, seguito dalla

soluzione del sistema; dalla matrice fattorizzata si calcola anche l'inversa della matrice

normale data.

Fattorizzazione

Calcolo delle soluzioni:

99995,4400051,2

000051,1

xx~x =+= δ

8 – Stima minimi quadrati ________________________________________________________________________________________________

36

Data una matrice C, simmetrica e definita positiva come è ovviamente la matrice normale,

si vuole calcolare una matrice T, triangolare superiore che soddisfi la relazione (fig. A.1):

CTTT = . (A.1)

Esplicitando in termini scalari si ottiene:

( )

( )

( )1jttttc

1ittttc

1jttcttc

kj

1i

1kkiijiiij

ki

1i

1kkiiiiiii

j111j1

111111

⟩⋅∑+⋅=

≠⋅∑+⋅=

⟩⋅=

⋅=

=

=

Da queste espressioni si ottengono immediatamente quelle effettivamente usate per il

calcolo degli elementi di T:

( )

( )

( )( )1j

t

ttct

1itct

1jtc

t

ct

ii

kj

1i

1kkiij

ij

1i

1k

2

kiiiii

11

j1

j1

1111

⟩⋅∑−

=

≠∑−=

⟩=

=

=

=

(A.2)

E' da notare che la matrice T può essere calcolata sia per righe che per colonne a partire

dall'elemento tii.

Soluzione del sistema

Si deve risolvere il sistema:

0dCx =+ (A.3)

8 – Stima minimi quadrati ________________________________________________________________________________________________

37

di n equazioni in n incognite, avendo a disposizione la fattorizzazione della matrice C .

Il sistema (A.3) si scompone come segue:

dxTTT −= (A.4)

dyTT = (A.5)

yxT −= (A.6)

La risoluzione in successione dei sistemi (A.5) e (A.6) fornisce la soluzione di (A.4) che,

per la (A.1) è equivalente a (A.3). La soluzione di (A.5) e (A.6) è immediata, essendo

triangolari le matrici T e TT.

La prima equazione di (A.5) è:

1111 dyt =

e si può immediatamente risolvere:

11

11 t

dy = .

La seconda equazione è:

2222112 dytyt =+

e da essa si può ricavare y2, essendo noto y1:

22

11222 t

ytdy −= .

Proseguendo dalla prima all'ultima incognita si ha in generale:

11

11 t

dy =

( )1it

ytdy

ii

k

1i

1kkii

i ≠∑−

=

= (A.7)

La soluzione di (A.6) è del tutto analoga, ma si inizia dall'ultima equazione, che contiene

solo l'ultima incognita:

8 – Stima minimi quadrati ________________________________________________________________________________________________

38

nn

nn t

yx −=

( )nit

xtyx

ii

k

n

1ikiki

i ≠∑+

−= += (A.8)

La soluzione del sistema (A.3) si ottiene dunque applicando in successione le espressioni

(A.2), (A.7), (A.8).

Inversione

Si deve calcolare l'inversa C-1 della matrice C, di cui è disponibile una fattorizzazione

(A.1). Dalla (A.1). si ottiene:

( ) ( ) 1T11T1 TTTTC −−−− == (A.9)

da cui:

( ) 1T1 TCT −− = . (A.10)

Queste formule sono entrambe immediatamente operative per il calcolo della matrice

inversa. Si ricordi che nella soluzione a minimi quadrati del sistema di equazioni alle

misure la matrice inversa ha significato statistico: essa, infatti, è proporzionale alla matrice

di varianza - covarianza delle incognite, da cui si ricavano immediatamente gli s.q.m. delle

incognite.

Nelle figure (A.2) e (A.3).si illustrano gli schemi corrispondenti alle formule. Si indicano con

tij gli elementi di T-1 , anch'essa triangolare superiore.

Indicando con cij gli elementi di C-1 dalla (A.10). si ottiene:

( )ij0t

t1t

jk

n

ikik

ii

ik

n

ikik

>=∑

=∑

=

=

γ

γ

Si riportano le espressioni per il calcolo della matrice inversa C-1, modificate per operare

solo nel triangolo superiore, essendo la matrice inversa, come noto, simmetrica:

8 – Stima minimi quadrati ________________________________________________________________________________________________

39

( )( )

( )

( )nit

tt1

ijt

tt

t

t

t1

ii

ik

n

1ikik

iiii

ii

jk

n

1jkikkj

n

1ikik

ii

kjsejkkjsekj

n

1ikik

ij

2

nn

nn

≠∑−

=

>∑+∑

−=

=∑

−=

=

+=

+=+=

<≥

+=

γγ

γγ

γγ

γ

(A.11)

Fig. A.1

Fig. A.2

Fig. A.3

Si noti che è necessario utilizzare un vettore di servizio che contenga volta a volta gli

elementi extradiagonali (cij-1

) di una riga della matrice inversa aventi proprio gli stessi

8 – Stima minimi quadrati ________________________________________________________________________________________________

40

indici i, j degli elementi extradiagonali (tij ) di una riga della matrice triangolare superiore,

ed entrambe necessarie per il calcolo dell'elemento diagonale (cii-1

) della matrice inversa.

2. Considerazioni sull'occupazione di memoria e modalità di memorizzazione

compatta delle matrici I problemi di interpolazione sono caratterizzati da molte osservazioni e relativamente pochi

parametri; ogni equazione alle osservazioni coinvolge in generale tutti i parametri.

Pertanto la matrice disegno A e la matrice normale C sono quasi completamente piene.

Nelle questioni di reti, il numero di osservazioni è in generale di poco superiore al numero

di parametri; ogni equazione alle osservazioni coinvolge pochi parametri (quelli relativi ai

vertici del lato del grafo su cui si sono operate le osservazioni).

Le matrici disegno A e normale C sono, in generale, matrici sparse, cioè con una piccola

quantità di elementi non-nulli rispetto al numero totale di elementi, a causa della struttura

topologica dei problemi reticolari, per esempio nei problemi geodetici e fotogrammetrici.

L'uso delle macchine da calcolo automatiche, piccole o grandi, nell'eseguire

compensazioni pone spesso il problema di economizzare la memoria occupata. E' perciò

necessario disporre di tecniche per memorizzare in modo compatto le matrici A e C,

trattandole poi nel calcolo mantenendo tale forma.

La matrice disegno A può essere memorizzata compatta registrando:

- per ogni equazione (riga) il numero dei coefficienti non-nulli ed i coefficienti stessi,

accompagnati dal numero d'ordine dell'incognita (colonna) cui si riferiscono;

- per ogni incognita (colonna) il numero dei coefficienti non-nulli ed i coefficienti

stessi, accompagnati dal numero d'ordine dell'equazione (riga) cui si riferiscono.

La matrice normale C può essere memorizzata compatta registrando il suo triangolo

superiore essendo, come noto, simmetrica:

- in forma rettangolare, se tutti gli elementi non-nulli sono contenuti in una banda,

ovvero se sono abbastanza vicini alla diagonale principale;

- "a elementi isolati", cioè per ogni colonna il numero dei coefficienti non-nulli ed i

coefficienti stessi, accompagnati dal numero di riga;

- "a profilo", cioè per ogni colonna il numero di tutti i coefficienti, nulli o non-nulli, a

partire dal primo non-nullo, ed i coefficienti stessi.

8 – Stima minimi quadrati ________________________________________________________________________________________________

41

Si osservi che la memorizzazione della matrice normale "a elementi isolati" serve

particolarmente quando si vuole eseguire la soluzione del sistema con metodi iterativi, di

cui non si occupa il presente paragrafo, mentre quello "a profilo", è utile quando si vuole

utilizzare un metodo esatto che richiede la fattorizzazione della matrice normale prima

della soluzione del sistema.

Nelle tre memorizzazioni per colonna sovraesposte, essendo variabile la lunghezza di ogni

colonna, è necessario registrare sequenzialmente tutti gli elementi di un vettore; inoltre per

facilitare l'accesso ad ogni singola colonna è conveniente sostituire al numero che

rappresenta la lunghezza di una colonna un puntatore che indirizzi direttamente al primo

od all'ultimo elemento della colonna stessa.

Nelle figure A.4, A.5, A.6, A.7 e A.8 si esemplificano gli schemi di memorizzazione delle

matrici disegno e normale.

Fig. A.4

8 – Stima minimi quadrati ________________________________________________________________________________________________

42

Fig. A.5

Fig. A.6

Fig. A.7

8 – Stima minimi quadrati ________________________________________________________________________________________________

43

Fig. A.8