parte i segnali e sistemi - istituto nazionale di fisica ... elettronica.pdf · gvp – 25 agosto...

48
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 1 PARTE I SEGNALI E SISTEMI 1. Alcuni esempi introduttivi Gli schemi illustrati nella figura rappresentano quattro tipici sistemi elettronici, che discuteremo brevemente allo scopo di fornire una introduzione esemplificativa ai sistemi, ai segnali e ai problemi di interesse nel campo dell'elettronica. Il primo esempio riguarda un sistema di acquisizione. Il trasduttore 1 T fornisce il 1 Per trasduttore s'intende un dispositivo che trasferisce un segnale da una grandezza di supporto a un'altra, di differente natura fisica; per esempio da una grandezza non elettrica a una elettrica e in tal caso chiamato anche sensore.

Upload: votuong

Post on 15-Feb-2019

216 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

1

PARTE I

SEGNALI E SISTEMI

1. Alcuni esempi introduttivi

Gli schemi illustrati nella figura rappresentano quattro tipici sistemi elettronici, che

discuteremo brevemente allo scopo di fornire una introduzione esemplificativa ai sistemi, ai

segnali e ai problemi di interesse nel campo dell'elettronica.

Il primo esempio riguarda un sistema di acquisizione. Il trasduttore1 T fornisce il

1 Per trasduttore s'intende un dispositivo che trasferisce un segnale da una grandezza di supporto a un'altra, di differente natura fisica; per esempio da una grandezza non elettrica a una elettrica e in tal caso chiamato anche sensore.

Page 2: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

2

segnale x(t), che contiene sia l'informazione relativa all'andamento temporale della grandezza

non elettrica misurata sia un disturbo (rumore additivo). Si tratta di un segnale a basso livello,

che l'amplificatore A amplifica riproducendolo fedelmente e che il filtro F provvede a filtrare

per migliorare il rapporto segnale/rumore. Il convertitore A/D (analogico/digitale) trasforma

infine il segnale analogico in forma digitale permettendone la lettura da parte di un

calcolatore.

Il secondo esempio riguarda un sistema di trasmissione di dati. Qui il segnale x(t)

consiste in una sequenza di impulsi a due livelli, che vengono trasmessi a distanza attraverso

un canale (per esempio una linea telefonica). All'uscita dal canale, il segnale y(t) è deformato,

rispetto a quello d'ingresso, sia dal rumore che dall'effetto della risposta del canale.

L'equalizzatore E (un particolare tipo di filtro) provvede a compensare gli effetti della risposta

del canale e a ridurre il rumore. Il rigeneratore RI (un discriminatore di segno) ritrasforma

infine il segnale nella forma iniziale di impulsi a due livelli.

Il terzo esempio riguarda il sistema di controllo del processo P (che consiste, per

esempio, nell'azionamento di un asse da parte di un motore). Qui si utilizza il principio della

reazione negativa in modo che l'uscita del processo (la posizione angolare dell'asse) segua il

riferimento x(t) e in particolare approssimi, sia pure con un piccolo ritardo, un segnale a

gradino. A questo provvedono il blocco di reazione H e il blocco di compensazione W,

generando il segnale di comando m(t).

L'ultimo esempio riguarda un sistema di alimentazione in continua. La corrente

alternata della rete viene prima rettificata dal raddrizzatore RA, poi filtrata e infine applicata

al regolatore RE che ne stabilizza il valore della tensione. Quest'ultimo dispositivo funziona in

base al principio della reazione negativa, cioè in modo simile a quello del sistema di controllo,

ma utilizzando un riferimento interno costante per produrre un'uscita costante.

Qui richiamiamo l'attenzione sulla natura dei segnali in gioco e sulle funzioni di

elaborazione dei segnali che i vari blocchi sono chiamati a compiere (amplificare fedelmente

un segnale, trasmettere solo certe frequenze e non altre, rettificare un'onda sinusoidale, ecc.)

negli esempi precedenti.

Accenniamo ora brevemente al progetto dei sistemi elettronici. Il progetto di un

sistema, in generale, ha inizio attraverso la stesura delle specifiche, che ne stabiliscono le

prestazioni essenziali in relazioni agli obiettivi prefissati (un sistema di alimentazione, per

esempio, deve fornire corrente al carico collegato all'uscita mantenendo costante la tensione

d'uscita entro limiti prefissati e con un residuo di alternata inferiore a un valore prefissato, per

Page 3: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

3

variazioni date della tensione alternata d'ingresso, del carico e della temperatura).

Sulla base delle specifiche, che riguardano generalmente anche l'affidabilità (cioè la

probabilità che il sistema funzioni correttamente su un tempo prefissato in condizioni

ambientali prefissate → Appendice C) e la spesa ammissibile, viene scelta la struttura

generale del sistema, tenendo conto delle tecnologie disponibili anche in relazione ai costi e al

numero di apparati che si intendono realizzare.

Si procede quindi al progetto di massima delle varie parti del sistema e poi al progetto

dettagliato dei circuiti che le costituiscono, sempre tenendo condo della componentistica

disponibile e dei costi relativi. In questa fase ci si avvale a volte di procedimenti basati su

criteri di sintesi, ma più spesso si procede invece per tentativi, cioè analizzando le prestazioni

ottenibili con una data struttura per verificare se sono accettabili, altrimenti esaminando altre

soluzioni.

Notiamo, per concludere, che nella progettazione giocano tre fattori essenziali: la

conoscenza delle tecnologie realizzative disponibili, la conoscenza delle metodologie di

progetto, in particolare di analisi e di calcolo, e l'esperienza.

I SEGNALI

Come mostrano gli esempi fatti prima, la funzione essenziale dei sistemi, in

elettronica, è quella di elaborare segnali, intesi come grandezze fisiche variabili nel tempo che

costituiscono generalmente il supporto di informazioni. In quanto segue esamineremo prima

alcune caratteristiche generali dei segnali e poi alcune famiglie di segnali che si usano più di

frequente.

2. Segnali analogici e digitali

Una distinzione fondamentale fra i segnali è quella che li suddivide in analogici e

digitali. I primi possono assumere qualsiasi valore in un intervallo prefissato, chiamato

"gamma dinamica" (per esempio è un segnale analogico una tensione variabile fra -15 e +15

volt). I segnali analogici sono dunque grandezze reali. I segnali digitali (o numerici), invece,

possono assumere solo valori discreti appartenenti a un insieme finito; spesso si tratta di

grandezze a due valori, cioè binarie.

Page 4: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

4

La teoria dell'informazione stabilisce che l'informazione associata a un campione di un

segnale, misurata in bit, è data dal logaritmo in base due del numero dei diversi valori

possibili che il segnale stesso può assumere (se sono tutti equiprobabili). L'informazione, a un

dato istante, relativa a un segnale digitale binario è dunque 1 bit (3,322 bit nel caso di un

segnale digitale decimale). L'informazione associata a un segnale analogico non è invece

infinita, come potrebbe sembrare. Il fatto è che gli infiniti valori che un segnale analogico può

assumere non sono, in realtà, tutti distinguibili fra loro a causa dei disturbi che sono sempre

presenti in un sistema fisico reale (fra cui, inevitabile, il rumore di fondo, che discende da

proprietà fondamentali della materia, come l'agitazione termica e la quantizzazione della

carica elettrica). Si conclude pertanto che l'informazione associata a un segnale analogico, a

un dato istante, è log2 N, dove N è il numero di livelli effettivamente distinguibili, esprimibile

come ∆V/δV, dove ∆V è la gamma dinamica e δV è la fascia d'incertezza dovuta al rumore.

3. Segnali a tempo continuo e a tempo discreto

Un'altra distinzione fondamentale riguarda gli istanti di tempo a cui i segnali sono

definiti. I segnali a tempo continuo sono rappresentati da funzioni il cui dominio è costituito

da tutti gli istanti contenuti in un intervallo di tempo (o su tutto l'asse dei tempi): qui il tempo

è una grandezza reale. Il dominio dei segnali a tempo discreto è invece costituito da un

insieme discreto di istanti, che nella maggior parte dei casi sono fra loro equispaziati di un

intervallo Tc detto passo di campionamento. La tabella seguente raccoglie le denominazioni

usate per designare i segnali in relazione alle due suddivisioni che abbiamo considerato.

tempo discreto reale ampiezza reale segnali campionati segnali analogici (a tempo continuo) discreta segnali digitali (non usati)

Per chiarire quanto è stato esposto, facciamo un esempio considerando il sistema

mostrato nella figura, che provvede alla conversione di un segnale dalla forma analogica a

quella digitale (convertitore A/D).

Nel campionatore CA il segnale analogico d'ingresso x(t) viene campionato, cioè

quantizzato secondo l'asse dei tempi agli istanti definiti dagli impulsi forniti dall'orologio O (il

campionatore può essere immaginato, per semplicità, come un moltiplicatore che fornisce in

uscita il prodotto fra il segnale x(t) e gli impulsi di campionamento, intesi di durata brevissima

e di ampiezza unitaria). Si ottiene così il segnale campionato y(kTc), costituito da una

Page 5: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

5

sequenza di impulsi (di ampiezza reale) a istanti discreti di tempo. Questo viene applicato al

quantizzatore Q, che produce in uscita il segnale digitale z(kTc) associando ad ogni

determinato intervallo di valori di y il corrispondente valore di z (per esempio, z è uguale alla

parte intera di y). Il segnale z(kTc) viene poi rappresentato mediante un codice opportuno,

usando più sequenze di impulsi binari zi(kTc) in parallelo, ciascuna delle quali rappresenta un

bit della parola di codice. A quest'ultima operazione provvede il codificatore CO.

E' importante notare che l'operazione di quantizzazione di ampiezza non è reversibile

(non esiste, cioè, una corrispondente operazione inversa che permetta di ricostruire il segnale

di partenza); essa conduce pertanto a perdita d'informazione. L'operazione di quantizzazione

temporale, cioè il campionamento, può, invece, essere resa reversibile scegliendo il passo di

campionamento opportunamente piccolo rispetto alla velocità di variazione del segnale. Il

teorema del campionamento stabilisce, più precisamente, che un segnale x(t) a banda limitata,

cioè il cui contenuto spettrale svanisce al di sopra di una data frequenza fM, può essere

ricostruito esattamente quando si conoscano i suoi campioni, se questi sono equispaziati con

passo:

(1) Tc ≤ 1/2fM

cioè se la frequenza di campionamento 1/Tc è maggiore o uguale della frequenza 2fM, detta

frequenza di Nyquist. La formula di ricostruzione è la seguente:

(2) sin( ( ))( ) ( )( )M c

ck M c

t kTx t x kTt kT

ωω

−=

−∑

Page 6: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

6

Spesso, nella pratica, il segnale viene campionato a una frequenza maggiore di 2fM e

diventa possibile usare formule di ricostruzione approssimata più semplici della (2). Si usano,

per esempio, tecniche di interpolazione, la più semplice delle quali è quella di ordine zero

(campionamento e tenuta, sample and hold): in tal caso il segnale analogico ricostruito ha

valore costante, pari a quello dell'ultimo campione, durante ciascun intervallo Tc.

Le tensioni, le correnti e tutte le altre grandezze fisiche variabili sono segnali analogici, in quanto

funzioni reali della variabile reale tempo. Notiamo che di solito anche le grandezze che costituiscono il supporto

dei segnali digitali sono, in realtà analogiche anch'esse (per convincersi di questo, basta osservare

all'oscilloscopio l'andamento temporale della forma d'onda di un segnale in un circuito logico). Si parla, però, di

segnali campionati se si considera significativo il valore della grandezza fisica di supporto (che può essere una

sequenza di impulsi più o meno stretti) solo a determinati valori discreti del tempo; si parla poi di segnali digitali

solo se, oltre a restringere l'attenzione a determinati istanti (come prima), si considerano significative solo

determinate fasce di valori della grandezza fisica (per esempio, all'uscita di un circuito logico si considerano

usualmente "0" tutti i valori fra 0 e 0,6 volt, "1" tutti i valori fra 3, 2 e 5 volt; il significato di queste due fasce di

valori viene poi riconosciuto correttamente quando il segnale viene applicato all'ingresso di un altro circuito

logico appartenente alla stessa "famiglia" del primo).

In quanto segue ci occuperemo degli andamenti temporali dei segnali, in particolare

analogici, considerando le funzioni che si usano più di frequente. Restringeremo così la nostra

attenzione ai soli segnali deterministici, che sono descritti da funzioni matematiche, a

differenza dei segnali casuali (o stocastici o aleatori) che sono invece descrivibili solo in

termini delle loro proprietà statistiche. I segnali casuali sono infatti associati a fenomeni, come

le fluttuazioni (il rumore), di natura intrinsecamente statistica.

4. Funzioni sinusoidali

La famiglia delle funzioni sinusoidali presenta particolare interesse in elettronica, sia

perchè il teorema di Fourier permette di scomporre in funzioni sinusoidali elementari tutte le

funzioni periodiche di interesse pratico (e l'integrale di Fourier compie analoga operazione su

un'ampia classe di funzioni aperiodiche) sia per altri motivi che vedremo. Rappresentiamo le

funzioni sinusoidali, cioè la classe dei seni e dei coseni, nella forma generale:

(3) x(t) = A sin (ωt + φ)

dove A rappresenta l'ampiezza (valore di picco); ω = 2πf rappresenta la pulsazione o

frequenza angolare, che si misura in radianti/secondo (rad/s), mentre la frequenza f si misura

Page 7: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

7

in hertz (Hz); φ rappresenta la fase, che si misura in radianti (o in gradi). Sono dunque

sufficienti i valori di tre parametri reali: A, ω e φ, per determinare tutto l'andamento temporale

di una sinusoide.

Il valore efficace (root mean square, r.m.s.) della sinusoide (3) è

(4) 2

0

1 ( )2

T

effAx x t dt

T= =∫

Le funzioni sinusoidali sono periodiche2 con periodo T = 1/f = 2π/ω. Derivando o

integrando una sinusoide rispetto al tempo, quante volte si vuole, si ottiene ancora una

sinusoide della stessa frequenza. Sommando assieme due sinusoidi, esse mantengono la

propria identità, in particolare le loro frequenze. Il prodotto di due sinusoidi conduce invece a

una somma di sinusoidi con frequenze diverse da quelle di partenza.

Più in generale, si dimostra facilmente che eseguendo operazioni lineari (algebriche o

differenziali) su una combinazione lineare di sinusoidi di frequenze qualsiasi, si ottiene ancora

una combinazione lineare di sinusoidi delle stesse frequenze; eseguendo invece operazioni

nonlineari si ottengono anche sinusoidi a frequenze diverse di quelle di partenza, in

particolare alle cosidette frequenze di combinazione:

(5) fnmp... = ± nf1 ± mf2 ± pf3 ..... con n, m, p, ... interi

dove fi sono le frequenze delle sinusoidi che interagiscono.

Esercizio. Determinare il contenuto in sinusoidi elementari del segnale x(t) = (cosω1t + cosω2t)3.

Quelle considerate sinora sono funzioni sinusoidali armoniche pure, che si estendono

sull'asse dei tempi da -∞ a +∞. Oltre ad esse si considerano spesso sinusoidi che si estendono

solo sulla parte positiva dell'asse dei tempi e anche "pacchetti d'onda", cioè sinusoidi che

assumono valori diversi da zero solo in un determinato intervallo; queste ultime costituiscono

un esempio di segnale transitorio, cioè dotato di supporto temporale limitato.

Mediante l'integrale di Fourier si rileva che il contenuto spettrale di un pacchetto

d'onda di frequenza f non è una riga alla frequenza f (come nel caso armonico), ma costituisce

uno spettro continuo, tanto più esteso attorno a f quanto più breve è la durata del pacchetto.

2 Non sono periodiche, in generale, le funzioni sinusoidali a tempo discreto del tipo x(kTc)=sin(wkTc+f), mentre è sempre periodico il loro inviluppo.

Page 8: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

8

5. Funzioni periodiche

Fra le funzioni periodiche più usate in pratica consideriamo le onde quadre e le onde

triangolari. L'onda quadra simmetrica unitaria si può rappresentare nella forma

(6) x(t) = sgn(sin(ωt + φ))

dove si è usata la funzione segno, che rappresenta appunto il segno del suo argomento

(sgn(x)=1 se x>0, sgn(x)=-1 se x<0). Le onde quadre presentano in ciascun periodo soltanto

due discontinuità, in corrispondenza alle transizioni di livello, sicchè sono sviluppabili in serie

di Fourier.

Sviluppando l'onda quadra mostrata nella figura, cioè A sgn(cos ωt), si ottiene:

Page 9: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

9

(7) ( ) ( ) ( )cos 3 cos 54 cos ...3 5

t tAx t tω ω

ωπ

= − + −

Queste onde, oltre alla fondamentale, contengono dunque solo le armoniche dispari,

pesate secondo l'inverso dell'ordine armonico.

Sviluppando in serie l'onda triangolare mostrata nella figura si ottiene:

(8) ( ) ( ) ( )2

cos 3 cos 58 cos ...9 25

t tAx t tω ω

ωπ

= + + +

Le onde triangolari hanno dunque lo stesso contenuto spettrale delle onde quadre, ma

pesato diversamente, cioè secondo l'inverso del quadrato dell'ordine armonico. Questo

risultato è in accordo col fatto che un'onda triangolare costituisce l'integrale nel tempo

dell'onda quadra della stessa frequenza.

La definizione di valore efficace (4) può essere applicata alle onde quadre (xeff=A), alle

onde triangolari (xeff=A/√3) e a qualsiasi altro segnale periodico. Per questi segnali si

definisce anche il fattore di picco (o di cresta), dato dal rapporto fra l'ampiezza (valore di

picco) e il valore efficace.

Spesso il valore efficace di un segnale periodico si determina integrando il quadrato

del segnale su un intervallo più lungo del periodo ed estraendo poi la radice quadrata. Il

risultato di questa operazione è esatto (cioè coincide con quello dato dalla (4)) solo se la

durata dell'intervallo d'integrazione è un multiplo del periodo; altrimenti si commette un

errore che, in generale, si riduce al crescere del rapporto fra la durata dell'intervallo e il

periodo del segnale. Quanto si è detto conduce alla seguente definizione alternativa di valore

efficace:

(9) 2lim 1 ( )2

o

o

T

eff To o

x x t dtT T −

=→ ∞ ∫

Page 10: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

10

dove 2To è il tempo di osservazione su cui si esegue l'integrazione (operando su tempo

finito si ottiene una stima di xeff, la cui precisione dipende dalla durata del tempo di

osservazione). Un importantissimo vantaggio della definizione (9) è che essa può essere

applicata anche a segnali non periodici, per esempio casuali, purchè stazionari, cioè con

proprietà statistiche indipendenti dal tempo. Per un segnale a valor medio nullo il valore

efficace definito dalla (9) coincide con la deviazione standard σ.

6. La famiglia delle funzioni impulsive

Un'altra importante famiglia di funzioni è costituita dalla funzione impulsiva, o delta

di Dirac, e dai suoi integrali successivi. Notiamo che non si tratta di funzioni ordinarie, ma di

"funzioni generalizzate", che si introducono nell'ambito della teoria delle distribuzioni3.

La funzione impulsiva unitaria, indicata con δ(t), è una funzione di area unitaria che

assume valore nullo ovunque eccetto l'origine e gode della proprietà integrale:

(10) ( ) 1t dtδ∞

−∞=∫ con δ(t) = 0 per qualsiasi t≠0

Si noti che tale funzione ha dimensioni fisiche pari all'inverso di quelle della variabile

d'integrazione (cioè hertz, nel caso della (10)). Con la notazione Aδ(t-t0) si indica una delta di

area (o, come si dice abitualmente, di intensità) A al tempo

t0. Le funzioni impulsive si rappresentano graficamente con

una freccia verticale al tempo di occorrenza, di lunghezza

proporzionale all'area.

La funzione delta è pari: infatti δ(t-to) = δ(to-t). Essa gode inoltre della seguente

proprietà, detta di "campionamento":

(11) ( ) ( ) ( )o ox t t t dt x tδ∞

−∞− =∫

La funzione impulsiva unitaria δ(t) viene spesso introdotta intuitivamente come il

limite di una sequenza di impulsi rettangolari la cui durata venga fatta tendere a zero e la cui

ampiezza, contemporaneamente, venga fatta tendere all'infinito, col vincolo che l'area si

mantenga unitaria.

3 Per ulteriori approfondimenti rimandiamo al corso di Metodi matematici.

A

to t

Page 11: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

11

L'impulso rettangolare a) è la derivata temporale del segnale b). Quando ε tende a zero, i

due segnali tendono, rispettivamente, all'impulso unitario e al gradino unitario.

Una definizione più rigorosa della funzione delta di Dirac è quella

in termini di una opportuna sequenza "regolare" di funzioni "buone"4

fn(t), tale cioè che il limite ( ) ( )lim

nnf t x t dt

−∞→ ∞ ∫ esiste e vale

precisamente x(0). E' da questa proprietà che derivano la (10) e la (11). Due esempi di

sequenze siffatte, costituite dunque da funzioni ordinarie (in particolare prive di

discontinuità), sono i seguenti:

fn(t) = (n/π)1/2 exp(-nt2) ; gn(t) = sin(nt)/πt

Nessuna grandezza fisica, in realtà, può

assumere valore infinito. E' dunque evidente che la

funzione δ(t) rappresenta solo un modello per la

rappresentazione di segnali, comunque variabili,

che però hanno durata brevissima e ampiezza

grandissima (come quando si considera il teorema

dell'impulso in meccanica). Questo modello è

estremamente utile ed efficace, non tanto per descrivere il segnale stesso, ma, sopratutto, per

studiare gli effetti che esso determina quando viene applicato a un sistema.

Quando in elettrostatica si parla di "carica puntiforme", in un punto Po, si utilizza implicitamente il

concetto di funzione delta: la carica puntiforme infatti una delta di densità di carica, nel cui argomento figurano

le tre coordinate spaziali (xo,yo,zo) del punto Po: δ(x-xo,y-yo,z-zo). Sebbene una densità di carica infinita non

abbia senso, il concetto di carica puntiforme si rivela utilissimo (per esempio per calcolare il potenziale in un

punto P diverso da Po).

L'integrale della δ(t) prende il nome di funzione gradino unitario (unit step function) e

si indica con la notazione u(t) (oppure 1(t) o δ-1(t)):

(12) ( ) ( )0 01 0

t per tu t d

per tδ τ τ

−∞

<= =

<∫

4 Per funzioni “buone” s’intendono quelle che sono derivabili dovunque un numero qualsiasi di volte e che, quando il loro argomento x tende all’infinito, tendono a zero, assieme a tutte le loro derivate, più rapidamente di |x|-n per qualsiasi n.

n=1

n=7

2 0 20

0.5

1

1.51.493

0

f t 1,( )

f t 4,( )

f t 7,( )

2.52.5− t

Page 12: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

12

Si tratta anche qui di una funzione generalizzata, che secondo la visione intuitiva

accennata prima, presenta una discontinuità all'origine, dove il suo valore non è definito. Un

gradino di ampiezza A, con discontinuità al tempo to, si indica con la notazione Au(t-to).

A u(t-to)

Anche la funzione gradino unitario, come la delta, può essere considerata come il

limite di una sequenza di opportune funzioni.

Mediante successive integrazioni si ottengono altre funzioni usate in elettronica: la

rampa unitaria r(t)= t u(t),

la parabola unitaria p(t) = ½

t² u(t), e così via.

Usando opportune

combinazioni di queste

funzioni si possono

rappresentare molti segnali

di interesse pratico. Per

esempio, un impulso

rettangolare di ampiezza

unitaria nell'intervallo fra t1

e t2, si indicherà con

x(t)=u(t-t1)-u(t-t2).

Esercizio. Rappresentare in termini di rampe e gradini un impulso trapezoidale di ampiezza A, che ha inizio al

tempo t1 e termina al tempo t4, assumendo valore costante (A) fra t2 e t3.

Le funzioni che abbiamo considerato ora rappresentano soltanto dei modelli dei

segnali reali. Infatti, non sono realizzabili nè impulsi di durata nulla e di ampiezza infinita, nè

segnali che impieghino un tempo nullo per portarsi da un livello a un altro (gradini ideali). In

particolare è ragionevole approssimare con una funzione delta un impulso reale, come quello

mostrato nella figura seguente, soltanto se la sua durata è significativamente inferiore al

tempo caratteristico di risposta del sistema a cui viene applicato per studiarne l'effetto (e allora

la risposta alla delta non differisce apprezzabilmente da quella all’impulso reale).

to

A

Page 13: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

13

Un impulso che duri 1 microsecondo, per esempio, è bene approssimabile con una

delta quando venga applicato a un amplificatore per audiofrequenze, ma non così se

costituisce l'ingresso a un amplificatore con banda passante più estesa, con tempi caratteristici

di risposta nella regione del µs o ancora più brevi. In quest'ultimo caso, sarà necessario

rappresentare con maggior dettaglio l'andamento temporale dell'impulso per determinare più

realisticamente il suo effetto.

Per caratterizzare un impulso reale x(t),

che abbia supporto temporale nell'intervallo t1, t2,

si usano vari parametri: l'ampiezza massima xM,

l'area

(13)

( )2

1

t

tA x t dt= ∫

la cosidetta "energia"5.

(14) ( )2

1

2t

tE x t dt= ∫

la durata T, definita come la distanza fra i due istanti dove il segnale assume valore pari alla

metà dell'ampiezza massima, e i due tempi di transizione. Questi sono il tempo di salita (rise

time) tr, definito come la distanza fra i due istanti in cui, nel fronte d'onda iniziale, il segnale

assume valore pari al 10% e al 90% del massimo6, e il tempo di discesa (fall time) tf, definito

allo stesso modo del precedente, ma per il fronte d'onda finale.

Le definizioni dei tempi di transizione date sopra sono dette "empiriche" perchè sono

rivolte a facilitare la misura di tali grandezze (per esempio, attraverso l'osservazione

all'oscilloscopio). Vedremo in seguito anche altre definizioni.

5 Le dimensioni fisiche di questa grandezza non sono, in generale, quelli di un’energia. Tuttavia, se il segnale x(t) rappresenta una corrente elettrica (una tensione), la grandezza E ha lo stesso valore numerico dell’energia dissipata in un resistore unitario attraversato dalla corrente (ai terminali del quale sia applicata la tensione). 6 Questa particolare convenzione ha lo scopo pratico di facilitare la misura dei tempi di transizione nelle osservazioni all’oscilloscopio.

| tr | | tf | t

XM 0,9 0,5 0,1

T

Page 14: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

14

I SISTEMI

7. Sistemi e modelli

Il temine sistema viene usato comunemente con uno spettro molto vasto di significati.

Noi lo useremo per indicare sia i sistemi fisici, naturali o artificiali, costituiti da un aggregato

di più elementi (o anche da un solo elemento), sia i modelli matematici che li rappresentano

formalmente. Il termine sistema può essere anche usato, a un livello ancora più astratto, per

indicare una relazione fra due funzioni del tempo, definita dall'operatore che, applicato alla

prima, fornisce la seconda7.

L'aspetto modellistico ha un ruolo essenziale nella trattazione dei sistemi: dei

molteplici aspetti di un dato sistema fisico, un modello permette infatti di evidenziare solo

quelli che hanno rilevanza rispetto a un determinato punto di vista. Ne consegue che, a

seconda dei casi, si potranno considerare per un medesimo sistema modelli anche assai diversi

fra loro. Nella modellizzazione dei sistemi, poi, l'economia ha un ruolo essenziale: non

soltanto occorre tener conto al meglio di tutti gli aspetti che si considerano importanti ai fini

che interessano, ma è opportuno limitarsi solo ad essi. Si cerca sempre, infatti, di arrivare a

una rappresentazione che sia, al tempo stesso, adeguatamente significativa ma anche

sufficientemente semplice.

Facciamo un esempio considerando un dispositivo, il resistore, che, solo in apparenza, si presenta come

semplicissimo e di ovvia rappresentazione. Il resistore può essere descritto in termini essenziali mediante la legge

di Ohm, se il punto di vista è puramente elettrico; dal punto di vista termico, d'altra parte, esso costituisce una

sorgente di calore e altri punti di vista ancora possono essere presi come base per la costruzione di altri modelli

del resistore (trave sospesa agli estremi, ...). Ciascuno di questi modelli, poi, può venire raffinato per rendere

meglio conto del comportamento del dispositivo: nel caso elettrico potremo tener conto della sua induttanza e

capacità parassita; nel caso termico, della sua capacità termica e della resistenza termica che incontra lo

smaltimento verso l'esterno del calore prodotto; e così via. Può anche essere necessario tenere conto

dell'interazione fra diversi punti di vista; per esempio, volendo tener conto della dipendenza dalla temperatura

della conducibilità elettrica del materiale che costituisce il resistore, occorrerà utilizzare un modello del

dispositivo che ne consideri, al tempo stesso, gli effetti elettrici e termici.

Il modello matematico di un sistema fisico è costituito da un insieme di variabili,

ciascuna delle quali rappresenta una determinata grandezza fisica del sistema, e da un insieme

Page 15: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

15

di relazioni matematiche fra le variabili. Il modello stabilisce così in modo formale il

comportamento del sistema

A seconda dei casi, ci si può limitare a considerare le sole variabili di ingresso e di

uscita, attraverso le quali il sistema considerato interagisce con l'esterno, oppure anche

variabili interne al sistema stesso (alcune di queste, come vedremo, giocano un ruolo

importantissimo). Nei sistemi artificiali, costruiti per un determinato scopo, è generalmente

semplice stabilire quali variabili costituiscono gli ingressi e quali le uscite. Nei sistemi

naturali questo, invece, non è affatto ovvio; la scelta, tuttavia, è certamente guidata dagli

obiettivi specifici che ciò si prefigge nella costruzione del modello, oltre che dall'intuizione

fisica. Lo scopo, generalmente, è quello di giungere a una rappresentazione ingresso-uscita,

che permetta di esprimere le grandezze d'uscita del sistema come variabili dipendenti di

opportune relazioni espresse in termini di variabili indipendenti costituite dalle grandezze

d'ingresso.

Così procedendo, l'elaborazione compiuta dal sistema viene ad essere caratterizzata da

un insieme di operatori Γk, uno per ciascuna variabile d'uscita, che fanno corrispondere in

modo univoco gli andamenti temporali di ciascuna delle uscite yk(t) a quelli dell'insieme degli

ingressi xh(t). Nel caso di un solo ingresso e di una sola uscita si ha:

x(t) Γ y(t)

(15) y(t) = Γ x(t)

La natura di questi operatori dipende dalla natura dei modelli con cui si rappresentano

i sistemi. Il caso che considereremo più spesso è quello di operatori lineari integro-

differenziali.

Facciamo un esempio relativo ad un circuito

RLC serie, in cui assumiamo come ingresso l'intensità

i(t) della corrente che lo attraversa e come uscita la

tensione v(t) ai suoi terminali.

L'equazione del circuito è:

(16) ( )( ) 1( ) ( )tdi tL R i t i d v t

dt Cτ τ

−∞+ + =∫

7 Non è affatto detto, in generale, che a un "sistema" descritto da un dato operatore corrisponda un sistema fisico che realizzi tale operazione. La stessa considerazione, d'altronde, si applica anche al caso dei modelli dei sistemi fisici.

Page 16: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

16

e si ha dunque 1 tdL R ddt C

τ−∞

Γ = + + ∫

Una prima distinzione fra i sistemi va fatta in relazione al tipo dei segnali in gioco:

analogici o digitali, a tempo continuo o a tempo discreto. Qualsiasi circuito elettrico è

evidentemente un sistema analogico; un calcolatore elettronico, d'altra parte, sebbene sia

anch'esso un sistema analogico, viene rappresentato assai più efficacemente come un sistema

digitale (generalmente, infatti, non ci interessa il dettaglio fine del comportamento dei suoi

circuiti, mentre ci interessano i segnali digitali che esso presenta in uscita, a determinati istanti

di tempo, in relazione agli ingressi digitali ad esso applicati).

Consideriamo ora alcune proprietà fondamentali dei sistemi che riguardano più

direttamente il loro comportamento, in relazione alla natura delle elaborazioni che essi

compiono sui segnali.

8. Sistemi statici e sistemi dinamici

Un sistema si dice statico (privo di memoria o istantaneo) quando le sue variabili

d'uscita, a qualsiasi istante, dipendono solo dai valori degli ingressi a quello stesso istante. Ciò

significa che le equazioni del sistema sono di tipo algebrico. Un sistema si dice invece

dinamico (dotato di memoria o non istantaneo) quando, a un istante qualsiasi, le sue variabili

d'uscita dipendono anche dai valori degli ingressi a tempi precedenti. Ciò significa che le

equazioni del sistema sono di tipo differenziale (oppure, nel caso dei sistemi a tempo discreto,

si tratta di equazioni alle differenze).

Questa distinzione si applica sia ai sistemi analogici che a quelli digitali: questi ultimi

sono spesso chiamati combinatori se statici, sequenziali se dinamici (una porta logica è un

elemento statico, un flip-flop un elemento dinamico). Il fatto fisico essenziale che distingue i

sistemi dinamici da quelli statici è la presenza di elementi immagazzinatori di energia

(condensatori, induttori, capacità termiche, masse, molle, ...), da cui consegue la capacità di

memorizzare informazioni.

In un sistema dinamico, la memoria del passato è associata proprio a questi elementi.

La conseguenza è che l'andamento temporale delle variabili interne e d'uscita di un sistema, a

partire da un dato istante, dipende solo dagli ingressi applicati a partire da quell'istante e

dall'insieme dei valori (a quello stesso istante) delle variabili associate agli elementi

immagazzinatori di energia. Questi valori, che costituiscono una sintesi essenziale dell'effetto

degli ingressi applicati da -∞ all'istante considerato, rappresentano l'insieme delle condizioni

Page 17: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

17

iniziali per le equazioni differenziali (o alle differenze) del sistema. Per tale motivo esse sono

chiamate variabili di stato. L'insieme dei valori di queste variabili, a ciascun istante,

rappresenta lo stato del sistema. Per esempio, le variabili di stato del circuito RLC considerato

prima sono la tensione del condensatore e la corrente attraverso l'induttore.

L'elaborazione dinamica di un sistema riguarda solamente la dipendenza delle variabili

di stato dall'ingresso. L'uscita, infatti, dipende dallo stato (ed eventualmente anche

dall'ingresso) attraverso relazioni algebriche. Questa è la rappresentazione ingresso-stato-

uscita, che è schematizzata nella figura (dove lo stato è rappresentato con il vettore s(t), le cui

componenti sono le variabili di stato): il

blocco A è un sistema dinamico, il blocco B

un sistema statico.

Un caso importante è quello dei sistemi descritti da equazioni differenziali alle

derivate parziali, in cui ha interesse la distribuzione dell'energia nello spazio, oltre che il suo

andamento nel tempo. Questo è quanto riguarda, per esempio, le vibrazioni di una sbarra

metallica o il campo elettromagnetico in una cavità risonante. Qui il numero delle variabili di

stato è evidentemente infinito. Gli spostamenti dei punti della sbarra e le intensità dei campi

sono infatti funzioni delle coordinate spaziali, oltre che del tempo. Di solito è possibile

ricondurre questi problemi in termini di una molteplicità di equazioni differenziali ordinarie,

con la tecnica dello sviluppo in modi normali.

Assumere un modello statico significa ignorare gli effetti di inerzia (di varia natura) che sono peraltro

sempre presenti in un sistema fisico reale, ammettendo così che l'uscita risponda istantaneamente all'ingresso e,

in particolare, che la risposta a una eccitazione sinusoidale sia sempre la stessa, per qualunque frequenza, anche

se elevatissima. Sebbene ciò sia certamente sbagliato in linea di principio, è evidente l'utilità di un modello

statico per rappresentare i fenomeni in cui gli effetti d'inerzia siano trascurabili sulla scala dei tempi (o delle

frequenze) che interessa.

9. Sistemi lineari e sistemi nonlineari

Dal punto di vista formale, un sistema è lineare se tali sono le equazioni che ne

costituiscono il modello, altrimenti è nonlineare. Dal punto di vista fisico è più significativo

definire lineari i sistemi che verificano il principio di sovrapposizione degli effetti. Questo

principio stabilisce che in un sistema lineare, applicando al quale (separatamente) gli ingressi

x1(t) e x2(t) si ottengono rispettivamente le risposte y1(t) e y2(t), l'applicazione di una

combinazione lineare degli ingressi x(t)=ax1(t)+bx2(t) provoca la risposta y(t)=ay1(t)+by2(t)

A x(t)B

y(t)s(t)

Page 18: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

18

(per qualunque valore dei coefficienti a e b, e per qualunque coppia di segnali d'ingresso x1(t)

e x2(t)). Tutto ciò va considerato al netto dell'effetto delle condizioni iniziali: pertanto, prima

dell'applicazione dei vari ingressi, il sistema si deve trovare nello stato di riposo, cioè con

tutte le variabili di stato uguali a zero.

Il principio di sovrapposizione è evidentemente verificato dai sistemi descritti da

equazioni lineari. Esso presenta grande interesse anche dal punto di vista pratico dato che può

essere utilizzato come test sperimentale della linearità di un sistema.

Facciamo un esempio, per mostrare che la proporzionalità tra causa ed effetto (chiamata "omogeneità")

non è sufficiente a determinare la linearità di un sistema, perchè occorre che sia verificata anche l'”additività”,

richiesta appunto dal principio di sovrapposizione degli effetti. Consideriamo un circuito che, quando la variabile

d'ingresso attraversa lo zero, produce in uscita un impulso di ampiezza pari alla derivata dell'ingresso a

quell'istante. L'effetto è proporzionale alla causa sicchè il sistema è omogeneo; esso, però, non è additivo

(applicando all’ingresso la somma di due segnali, gli attraversamenti dello zero della somma si verificano a

istanti diversi rispetto a quelli di ciascun segnale) e quindi non è lineare.

L'importanza dei sistemi lineari è duplice: da un lato un gran numero di fenomeni

fisici è descritto da equazioni lineari e un modello lineare è dunque appropriato per i

dispositivi basati su questi effetti, dall'altro si tende ad usare modelli lineari anche per sistemi

che tali non sono, dal momento che la trattazione matematica dei sistemi nonlineari è

generalmente assai più complessa di quella dei sistemi lineari (per questi ultimi esistono

metodi di analisi che sono applicabili in generale, non così per i sistemi nonlineari).

D'altra parte, l'interesse per i sistemi nonlineari deriva da almeno tre motivi:

1) molti fenomeni fisici sono intrinsecamente nonlineari, in particolare quelli su cui si

basa il funzionamento di dispositivi elettronici assai importanti;

2) i sistemi fisici reali sono lineari solo in prima approssimazione; generalmente,

infatti, la linearità è verificata accuratamente solo su un intervallo limitato dei valori delle

variabili: quando questi diventano troppo piccoli entrano in gioco effetti di quantizzazione;

quando diventano troppo grandi, effetti di rottura;

3) l'elaborazione dei segnali richiede, in molti casi assai importanti, la disponibilità di

funzioni nonlineari, che si realizzano mediante appositi dispositivi e circuiti (raddrizzatori,

discriminatori, circuiti logici, ecc...).

A ciò si aggiunge l'interesse legato alla eccezionale varietà e ricchezza di

comportamenti dei sistemi nonlineari, nel quadro degli studi sulla dinamica nonlineare che

sono attualmente in vivace sviluppo, e anche l'ovvia considerazione che, sia pure da un punto

Page 19: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

19

di vista puramente matematico, la classe dei sistemi nonlineari è straordinariamente più vasta

di quelli lineari.

Esempi di blocchi funzionali nonlineari usati in elettronica.

Qui non consideriamo i metodi che sono stati introdotti per l'analisi dei sistemi

nonlineari (in realtà solo per alcune particolari classi di tali sistemi). Accenniamo, invece, a

due metodi di linearizzazione dei sistemi nonlineari statici, che sono usati per ricondurne

l'analisi nel quadro di quelli lineari. Entrambi i metodi, ma sopratutto il primo, sono molto

usati nella trattazione dei dispositivi elettronici a semiconduttori.

Consideriamo un sistema descritto dalla relazione ingresso-uscita:

(17) y = f(x)

Page 20: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

20

che supponiamo derivabile, con derivata continua. Poichè si tratta di una relazione algebrica,

il sistema è considerato statico ed è allora possibile tracciarne8 la curva caratteristica, cioè

l'uscita in funzione dell'ingresso.

Il primo metodo, detto di linearizzazione per piccoli segnali, consiste nello sviluppare

in serie l'equazione (17) attorno a un determinato valore xo della variabile d'ingresso, che

stabilisce il punto di lavoro del sistema, allo scopo di individuare una relazione lineare fra le

variazioni delle due variabili x e y (anzichè fra le variabili stesse) rispetto ai valori (xo e yo)

corrispondenti al punto di lavoro.

Si ottiene così: y = f(xo) + (x-xo) [f’(x)]x=xo+ ...

da cui, trascurando gli altri termini dello sviluppo, si ottiene:

(18) ( )'o

o

ox x

x xx f xy y y

δδ =

−= ≈

dove l'approssimazione è tanto migliore quanto più piccole sono le variazioni dei segnali.

Questo metodo è applicabile anche quando una variabile d'uscita dipende da più

variabili d'ingresso x1, x2, ... . Qui il punto di lavoro è stabilito da un opportuno insieme di

valori x1o, x2o, ... La variazione dell'uscita rispetto al valore yo corrispondente al punto di

lavoro si esprime allora nella forma:

(19) δy ≈ f’x1 δx1 + f’x2 δx2 + ...

dove intervengono le derivate parziali della funzione, tutte calcolate nel punto di lavoro.

Il secondo metodo di linearizzazione consiste invece nell'approssimare la relazione

ingresso-uscita con una caratteristica lineare a tratti, cioè suddividendo il dominio della

funzione in intervalli in cui questa possa essere approssimata con un andamento lineare.

Fintanto che il segnale d'ingresso si mantiene entro uno di questi intervalli, il sistema si

comporta linearmente.

Applichiamo questi metodi di linearizzazione a un diodo a giunzione pn, descritto

dall'equazione i = a(e(v/b)-1), dove le variabili i e v sono l'intensità della corrente che attraversa

il diodo e la differenza di potenziale fra i suoi terminali; a e b sono due costanti. Assumiamo

come ingresso la tensione v e come uscita la corrente i.

8 Questo non è possible nel caso dei sistemi dinamici, perchè l'uscita a un dato istante non dipende soltanto

dall'ingresso allo stesso istante.

Page 21: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

21

Il primo metodo fornisce la relazione

/o ov b i ai aev b b

δδ

+= =

dove abbiamo indicato con i0 e v0 i valori delle variabili nel punto di lavoro. Notiamo che il

rapporto così ottenuto ha le dimensioni fisiche di una conduttanza; esso prende il nome di

conduttanza differenziale del diodo. Come mostra la figura, questo metodo consiste

nell'approssimare la curva caratteristica del dispositivo con la retta ad essa tangente nel punto

di lavoro.

Linearizzazione della curva caratteristica di un diodo a giunzione pn: a) mediante la tangente nel punto di lavoro; b) con una approssimazione lineare a tratti

Applicando il secondo metodo, scegliamo di suddividere l'asse v in due parti,

introducendo una tensione di soglia V*: nella prima parte (cioè per v<V*) la corrente i viene

considerata nulla; nella seconda (cioè per v>V* ) la corrente viene espressa dalla relazione

i = G (v-V*), dove la grandezza G rappresenta una conduttanza di valore opportuno. E'

evidente dall'esempio che la scelta del punto di soglia e, più in generale, la scelta del numero

di intervalli in cui suddividere l'asse della variabile d'ingresso è largamente arbitraria; in

pratica queste scelte saranno guidate da criteri di utilità pratica.

10. Sistemi stazionari e sistemi non stazionari

Un sistema si dice stazionario (invariante nel tempo o permanente) quando la sua

risposta a una eccitazione non dipende dal tempo a cui essa viene applicata: se l'ingresso x(t)

provoca la risposta y(t), allora l'ingresso x(t-T) causerà9 la risposta y(t-T), per qualsiasi

valore di T e per qualsiasi funzione x(t). Altrimenti si dice non stazionario (variabile nel

tempo).

I coefficienti che intervengono nelle equazioni di un sistema stazionario debbono

essere dunque indipendenti dal tempo, altrimenti il sistema non è stazionario. Un caso

particolare di sistemi non stazionari è quello dei sistemi probabilistici, in cui i coefficienti

9 Il sistema, all'atto dell'applicazione dei segnali x(t) e x(t-T), si deve trovare evidentemente nello stesso stato.

Page 22: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

22

delle equazioni variano con legge casuale e sono pertanto descritti in termini statistici.

Un criterio di approssimazione dei sistemi non stazionari in termini di sistemi

stazionari consiste nel supporre che le variazioni dei coefficienti avvengano molto lentamente,

cioè su una scala temporale assai più estesa di quella che riguarda gli andamenti dei segnali.

Si può allora suddividere l'asse dei tempi in più intervalli, in ciascuno dei quali i coefficienti

siano approssimativamente costanti.

Nel seguito ammetteremo sempre che l'ipotesi di stazionarietà sia verificata, salvo

contraria esplicita indicazione.

Esempio. Un problema di classificazione

Consideriamo il modulatore d'ampiezza, apparecchio usato nelle radiocomunicazioni per variare nel

tempo l'ampiezza di un'onda sinusoidale di alta frequenza (l'onda portante) secondo l'andamento di un segnale di

bassa frequenza (onda modulante) che si vuole trasmettere a distanza. L'uscita del modulatore è un'onda

modulata, che viene poi irradiata da un'antenna.

Chiamando m(t) il segnale modulante, che contiene l'informazione, e p(t) = cos ωpt l'onda portante,

l'uscita del modulatore è data dall'espressione:

y(t) = p(t) (1 + m(t)) = cos ωpt + m(t) cos ωpt

Si tratta, chiaramente, di un sistema statico, che si può classificare come nonlineare oppure come non

stazionario. Se l'onda portante p(t) viene considerata come un segnale d'ingresso, il sistema è evidentemente

nonlineare (e stazionario). Ma se l'onda portante non viene considerata come un ingresso e il suo effetto viene

rappresentato mediante un coefficiente variabile nel tempo (cos ωpt), il sistema allora è non stazionario (e

lineare).

Questi due diversi punti di vista sono rappresentati nei due schemi a blocchi qui sotto.

m(t) MODULATORE MODULATORE

D’AMPIEZZA D’AMPIEZZA

p(t) y(t) m(t) y(t)

Page 23: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

23

RISPOSTE CARATTERISTICHE

11. Risposta libera e risposta forzata

Consideriamo l'andamento temporale del segnale d'uscita y(t) di un sistema a partire

da un istante generico, che assumiamo come origine dell'asse dei tempi, senza perdita di

generalità. Se da t=0 in poi l'ingresso x(t) è nullo, l'uscita è determinata unicamente dallo stato

del sistema all'istante iniziale e prende il nome di risposta libera o evoluzione libera.

I sistemi fisici sono dotati generalmente di memoria finita: onnipresenti effetti di

dissipazione fanno sì che l'energia in essi immagazzinata subisca trasformazioni irreversibili e

venga dissipata. Ne consegue che la risposta libera tende a zero al tendere del tempo

all'infinito. In altre parole, tutte le variabili di stato vanno ad assumere valori trascurabili dopo

un tempo sufficientemente lungo durante il quale gli ingressi siano identicamente nulli.

Quando, invece, a t=0 il sistema si trova in riposo (stato zero) ed è soggetto a una

eccitazione x(t) (diversa da zero da t=0 in poi), l'uscita è determinata unicamente dall'ingresso

e prende il nome di risposta forzata.

Nel caso generale, cioè quando si applica l'eccitazione a un sistema che non si trova a

riposo, il segnale d'uscita dipende sia dall'eccitazione sia dallo stato al tempo t=0. In tal caso

se il sistema è lineare, e allora è verificato il principio di sovrapposizione degli effetti, la

risposta complessiva è costituita dalla somma dell'evoluzione libera e della risposta forzata.

La risposta di un sistema lineare, che al tempo t=0 si trova in uno stato determinato,

all'ingresso x(t) si può dunque esprimere nella forma:

(20) y(t) = yl(t) + yf(t)

dove yl(t) rappresenta l'evoluzione libera a partire dallo stato iniziale (a t=0) ed yf(t)

rappresenta la risposta forzata all'eccitazione x(t) applicata da t=0 in poi.

Si capisce, per quanto detto, che il ruolo dello stato iniziale è simile a quello

dell'eccitazione esterna, nel senso che concorrono entrambi a determinare l'andamento del

segnale d'uscita del sistema. Stato iniziale ed ingresso a partire dall'istante iniziale in poi

costituiscono assieme l'eccitazione generalizzata.

Nei sistemi a memoria finita, quando i segnali d'ingresso si estendono da un istante

iniziale all'infinito, con andamento costante o periodico, diventa significativo anche un altro

Page 24: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

24

modo di decomporre la risposta complessiva y(t). In questo caso ai tempi lunghi, quando si

sono certamente esauriti sia l'evoluzione libera sia l'effetto della brusca applicazione del

segnale d'ingresso, la risposta assume un andamento caratteristico, costante o periodico, che

dipende solo dall'eccitazione e prende il nome di risposta forzata in regime permanente o

risposta permanente yp(t). Il segnale di uscita allora, sempre se nell’ipotesi di linearità del

sistema, si può allora decomporre come segue:

(21) y(t) = yp(t) + yt(t) per t > 0

dove il termine yt(t), chiamato

risposta transitoria, che si

ottiene sottraendo la risposta

permanente da quella totale, si

estende soltanto sul tempo finito

di memoria del sistema.

12. Risposta in regime permanente sinusoidale

Nello studio dei sistemi, in particolare di quelli lineari, presenta particolare interesse la

risposta in regime permanente a una eccitazione sinusoidale (che si suppone dunque applicata

a partire da t = -∞). Questa, infatti, proprio e soltanto nel caso dei sistemi lineari e stazionari,

è costituita ancora da una sinusoide della stessa frequenza di quella applicata in ingresso.

A una data frequenza, dunque, un sistema lineare e stazionario è completamente

caratterizzato dal valore del rapporto fra l'ampiezza della sinusoide d'uscita e di quella

d'ingresso, e dalla differenza fra la fase della sinusoide d'uscita e di quella d'ingresso. Al

variare della frequenza, poi, il rapporto d'ampiezza e la differenza di fase vengono a costituire

due funzioni reali della frequenza: la cosidetta risposta in frequenza (frequency response)

del sistema.

Esaminiamo brevemente come si determinano queste due funzioni, quando si conosca

l'equazione ingresso-uscita di un sistema, usando il metodo simbolico di C. P. Steinmetz.

Page 25: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

25

Rappresentiamo l'ingresso e l'uscita con le forme simboliche10:

(22) x(t) = X cos ωt ←→ X ejωt = X ejωt

y(t) = Y cos (ωt+φ) ←→ Y ej(ωt+φ) = Y ejωt

dove la generica grandezza simbolica è costituita dal prodotto di una corrispondente

grandezza complessa indipendente dal tempo (indicata con sottolineatura per evitare

ambiguità di simboli) per il fattore ejωt. Sostituendo le grandezze simboliche nell'equazione

differenziale del sistema ed eseguendo le necessarie operazioni di derivazione e integrazione,

si ottiene una equazione algebrica con variabili complesse; da questa si ricava il rapporto fra

le due grandezze simboliche, che coincide evidentemente con quello fra le grandezze

complesse Y e X:

(23) ( )j t

j t

Y e YHXe X

ω ϕ

ω

+

= =

Il rapporto H, che è un numero complesso, permette poi di calcolare Y e ϕ conoscendo

X, cioè di determinare compiutamente la sinusoide d'uscita alla frequenza angolare ω. Questo

rapporto dipende in generale dalla frequenza che si considera. Si dimostra facilmente che se i

coefficienti dell'equazione differenziale del sistema sono reali (sistemi fisici) allora H è una

funzione complessa di ω, ma una funzione reale di jω. Conviene dunque esplicitare questa

dipendenza nel simbolo del rapporto H, che pertanto indicheremo d'ora in poi con H(jω).

Questa funzione, chiamata funzione di trasferimento in regime permanente sinusoidale, si

può porre in generale nella forma polare oppure in quella rettangolare:

(24) H(jω) = |H(jω)| e jϕ(ω) = Re[H] + j Im[H]

dove spesso la fase di H(jω) si indica col simbolo /H(jω). Qui il modulo |H(jω)|, che

rappresenta il rapporto fra le ampiezze Y e X, e la fase ϕ(ω), che rappresenta lo sfasamento

della sinusoide d'uscita rispetto a quella d'ingresso, sono le due funzioni reali che

costituiscono la risposta in frequenza, chiamate rispettivamente caratteristica di ampiezza e

caratteristica di fase.

10 In questa rappresentazione i segnali si ottengono prendendo la parte reale delle corrispondenti grandezze simboliche (si può, tuttavia, anche scegliere una diversa convenzione).

Page 26: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

26

Dalla caratteristica di fase si ricavano altre due grandezze: la prima è il ritardo della

sinusoide d'uscita rispetto a quella d'ingresso

(25) T(ω) = ϕ(ω) / ω

la seconda è il ritardo di gruppo

(25') ( ) ( )g

dT

dϕ ω

ωω

=

cioè il ritardo subito da un pacchetto d'onda di frequenza angolare ω applicato all'ingresso del

sistema11.

Quando la funzione H(jω) esprime il rapporto fra la tensione e la corrente (simboliche)

ai morsetti di un circuito in regime sinusoidale permanente, essa prende il nome di impedenza

e si indica col simbolo Z:

(26) Z(jω) = R(ω) + j X(ω)

dove R(ω) si chiama resistenza, X(ω) reattanza. Quando H(jω) rappresenta il rapporto fra la

corrente e la tensione (simboliche) prende il nome di ammettenza e si indica col simbolo Y:

(27) Y(jω) = G(ω) + j B(ω)

dove G(ω) si chiama conduttanza, B(ω) suscettanza.

Facciamo un esempio, applicando il metodo simbolico al circuito RLC serie, già

considerato prima. Sostituendo v(t) e i(t) nell'equazione (16) con le grandezze simboliche

corrispondenti, V ejωt e I ejωt, e semplificando si ottiene

V = jωLI + RI + I / jωC

da cui l'ammettenza

( ) 11

IY jV j L R j C

ωω ω

= =+ +

11 Consideriamo il segnale costituito dalla somma di due sinusoidi di ampiezza unitaria e frequenze angolari ω − ∆ω, ω + ∆ω. Il battimento fra queste crea una serie di pacchetti d'onda con inviluppo 2cos ∆ωt. All'uscita del sistema, l'inviluppo dei pacchetti d'onda è 2 cos(∆ωt+dφ(ω)/dt), cioè essi subiscono il ritardo dφ(ω)/dt.

Page 27: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

27

Di quest'ultima si ottengono il modulo e la fase:

( )( )2 2

11

Y jL C R

ωω ω

=− +

( ) 1/ arctang L CY jR

ω ωω − = −

Si noti che |Y(jω)| presenta un massimo

per ω=ωo, dove ωo=(LC)-½. Alla stessa

frequenza, la derivata della fase è massima.

Nella figura sono rappresentati i grafici

dell'ammettenza in regime sinusoidale del

circuito RLC espressi in forma normalizzata,

cioè in termini del rapporto ω/ωo e del

parametro Q=ωoL/R, avendo scelto R = 1 Ω . Il

modulo è espresso in decibel. Si nota, per Q>1,

il fenomeno della risonanza.

Esprimere in decibel (dB) una grandezza reale x

significa trasformarla mediante la formula

(28) 20 log10(x)

Questa rappresentazione è molto usata in

elettronica per esprimere sia valori di ampiezza che,

sopratutto, rapporti di ampiezza, e questo per vari motivi.

In particolare, è molto più agevole tracciare i

grafici di grandezze espresse in decibel, quando esse

assumono valori che differiscono di molti ordini di

grandezza; inoltre, i rapporti di ampiezza determinati dal

modulo delle funzioni di trasferimento usuali si prestano bene a una rappresentazione approssimata (diagrammi

di Bode) del tipo lineare a tratti (cioè mediante spezzate) in funzione del logaritmo della frequenza. E' poi

evidente che il prodotto (il rapporto) di due grandezze espresse in decibel è dato semplicemente dalla somma

(dalla sottrazione) dei loro valori. Questo risulta assai comodo quando più sistemi lineari sono collegati in

cascata (l'uscita del primo costituisce l'ingresso del secondo, e così via) e si debba determinare la risposta

complessiva in regime sinusoidale permanente come prodotto delle risposte dei vari sistemi.

Come si è detto, la formula (28) si usa per esprimere in decibel valori di ampiezza o di rapporti di

ampiezza. Nel caso di una grandezza p che rappresenti il quadrato di una ampiezza, cioè sia proporzionale alla

potenza, oppure il rapporto fra quadrati di ampiezze, si usa invece la formula:

(28’) 10 log10(p)

Page 28: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

28

Il valore in decibel dato dalla (28') coincide evidentemente con quello dato dalla (28) se p = x².

Osserviamo che basta ricordare anche solo alcuni dati della tabella qui sotto per poter determinare a

mente, sia pure approssimativamente, il valore in decibel di qualsiasi numero.

x xdB x xdB

106 120 1 0

103 60 0,9 -0,9152.. ≈ -1

102 40 0,8 -1,938.. ≈ -2

10 20 1/√2 ≈ 0,707.. -3,010.. ≈ -3

9 19,08.. ≈ 19 0,5 -6,021.. ≈ -6

8 18,06.. ≈ 18 0,4 -7,959.. ≈ -8

10/√2=7,071.. 16,99.. ≈ 17 1/√10 ≈ 0,3162.. -10

5 13.98.. ≈ 14 0,2 -13,98.. ≈ -14

4 12,04.. ≈ 12 √2/10 ≈ 0,141.. -16,99.. ≈ -17

√10=3,162.. 10 0,1 -20

2 6,021.. ≈ 6 0,01 -40

√2=1,414.. 3,010.. ≈ 3 10-3 -60

1 0

10-6 -120

L'andamento del modulo di H(jω) con la frequenza, cioè la caratteristica di ampiezza,

stabilisce le proprietà filtranti di un sistema. Sotto questo punto di vista, i sistemi si possono

comportare come passabasso, che trasmettono tutte le frequenze dalla continua fino a un

limite superiore; passabanda, che trasmettono solo le frequenze comprese in un intervallo;

passaalto, che trasmettono solo le frequenze oltre un limite inferiore, ed eliminabanda, che

trasmettono solo al di fuori di un dato intervallo. Una distinzione assai importante è poi quella

fra i sistemi che trasmettono

anche segnali costanti,

ovvero la componente

continua dei segnali, e quelli

che trasmettono solo segnali

variabili, ovvero la

componente variabile del

segnale (chiamata spesso,

anche se impropriamente,

Page 29: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

29

"componente alternata"). I primi, detti anche sistemi in continua, hanno evidentemente

|H(j0)|≠0, mentre i secondi, detti sistemi in alternata, hanno H(j0)=0.

L'ammettenza del circuito RLC che abbiamo considerato prima è una funzione

continua della frequenza; di questa proprietà godono tutte le funzioni H(jω) dei sistemi che ci

interessano. Le bande di frequenza trasmesse non presentano pertanto limiti netti. I limiti delle

bande di frequenza vengono espressi di solito in termini di frequenze di taglio (cutoff

frequencies) che sono definite come quelle frequenze a cui il modulo della risposta si riduce a

1√2 = 0,707.. (cioè -3 dB) di quello nella banda trasmessa uniformemente (o del massimo in

banda), ossia la risposta in potenza si dimezza.

Esercizio. Determinare analiticamente le due frequenze di taglio, f1 ed f2, e la larghezza di banda f2-f1 per

l'ammettenza del circuito RLC considerato prima.

La risposta in frequenza di un sistema lineare può essere determinata

sperimentalmente12 eseguendo misure a più frequenze (di solito, a spaziatura uniforme su

scala logaritmica) nell'intervallo che interessa. In questo caso, ovviamente, il segnale

d'ingresso non è armonico puro, perchè viene applicato solo a partire da un certo istante. A

noi, d'altra parte, interessa la risposta permanente, sicchè dovremo attendere, per ciascuna

misura, l'esaurimento della fase transitoria iniziale, prima di registrare i valori del rapporto

delle ampiezze e dello sfasamento. La durata di questo intervallo è dominata dalla costante di

tempo più lunga del sistema in esame.

Ai sistemi nonlineari il concetto di risposta in frequenza non è applicabile, dal

momento che l'uscita corrispondente a un ingresso sinusoidale contiene sinusoidi di altre

frequenze, generalmente armoniche di quella d'ingresso (e la frequenza d’ingresso, in certi

casi particolari, può addirittura essere assente in uscita!).

Nel caso dei sistemi solo debolmente nonlineari la risposta in regime permanente

sinusoidale è costituita da una sinusoide distorta, che si può rappresentare come somma di una

sinusoide della stessa frequenza di quella d'ingresso e di varie armoniche di questa. Il rapporto

fra il valore efficace complessivo di queste ultime e quello della fondamentale è usato per

caratterizzare la distorsione d'ampiezza che si verifica in questi sistemi (un caso tipico è

quello di un amplificatore di potenza, vedi parte VII). Notiamo che questo rapporto dipende

12 La possibilità di ricostruire le caratteristiche di ampiezza e di fase interpolando i risultati sperimentali ottenuti soltanto a un insieme di valori discreti della frequenza deriva dalla già menzionata proprietà di continuità di queste funzioni.

Page 30: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

30

dal livello del segnale applicato: di solito (ma non sempre) la distorsione nonlineare aumenta,

prima debolmente e poi più fortemente, al crescere dell'ampiezza dell'ingresso.

Per questi sistemi il rapporto fra l'ampiezza della fondamentale in uscita e l'ampiezza

dell'ingresso non è costante, ma dipende dall'ampiezza dell'ingresso, perchè non vi è

proporzionalità fra causa ed effetto. Questo rapporto d'altra parte può essere usato per

caratterizzare la risposta in frequenza dei sistemi debolmente nonlineari. Si introduce così la

funzione descrittiva:

(29) ( )( )

( )1 ,

,d

Y XH j X

ωω

=

dove Y1(ω, X) indica l'ampiezza della fondamentale (o prima armonica) in uscita, X

l'ampiezza della sinusoide d'ingresso; questa funzione dipende sia dalla frequenza che

dall'ampiezza dell'eccitazione. La caratterizzazione in termini di funzione descrittiva è usata

anche per i sistemi statici, nel qual caso la funzione dipende solo dall'ampiezza e non dalla

frequenza.

Esercizio. Determinare analiticamente la funzione descrittiva di un limitatore simmetrico ( figura a pag.19).

13. Le risposte indici

Un'altra caratterizzazione dinamica dei sistemi, che è molto usata per la sua diretta

applicazione allo studio dei fenomeni transitori e che presenta assai maggiore generalità in

quanto applicabile (con opportune modifiche rispetto alla trattazione che segue) anche a

sistemi nonlineari e/o non stazionari), è costituita dalle cosidette risposte indici. Queste sono

la risposta all'impulso unitario e la risposta al gradino unitario.

La prima è la

risposta impulsiva

(impulse response), che

indicheremo con h(t); la

seconda è la risposta

indiciale o risposta al

gradino (step response), che indicheremo con hu(t). Nel caso dei sistemi lineari la risposta

indiciale è l'integrale della risposta impulsiva:

(30) ( ) ( )t

uh t h dτ τ−∞

= ∫

Page 31: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

31

Infatti, se h(t) rappresenta la soluzione di un'equazione differenziale lineare con

termine noto δ(t), è evidente che la soluzione della stessa equazione con termine noto u(t),

cioè costituito dall'integrale di δ(t), coincide con l'integrale di h(t), espresso dalla (30).

Per il principio di causalità13 gli andamenti delle risposte indici sono identicamente

nulli per t<0. Per t che tende all'infinito, la risposta impulsiva (nei sistemi a memoria finita)

tende a zero, mentre la risposta indiciale tende a un valore finito nei sistemi che trasmettono la

componente continua dei segnali (H(j0)≠0), e tende a zero in quelli che trasmettono solo le

componenti variabili (H(j0)=0).

Il principio di causalità pone il vincolo h(t)=0 per t<0 per i sistemi fisicamente realizzabili. Questo

principio tuttavia non si applica ai sistemi usati per analizzare una sequenza temporale di dati, dopo che essa sia

stata registrata. Questo è il caso degli algoritmi che si applicano a dati registrati su nastro magnetico, mediante un

programma su calcolatore, avendo quindi a disposizione l'andamento sia passato che futuro del segnale. Un

esempio molto semplice è quello di un filtro a media mobile, che assegna all'uscita, a ciascun istante di tempo, il

valor medio dell'ingresso in un intervallo T centrato in t, eseguendo l’operazione:

( ) ( )/ 2

/ 2

1 t T

t Ty t x d

Tτ τ

+

−= ∫

tale filtro ha risposta impulsiva: h(t) = [u(t+T/2) – u(t-T/2)]/T. Nella risposta impulsiva del filtro a media mobile, come in quella di tutti i sistemi non realizzabili

fisicamente, si distinguono la parte causale (per t<0) e la parte anticausale (per t<0).

Sappiamo che l'uscita di un sistema statico a un dato istante dipende solo dal valore

dell'ingresso allo stesso istante. Si conclude pertanto che le risposte indici di un sistema

lineare statico14 coincidono, rispettivamente, con un una funzione delta e con una funzione a

gradino, aventi un medesimo coefficiente di ampiezza.

Il calcolo delle risposte indici di un sistema può essere eseguito risolvendone

l'equazione differenziale ingresso-uscita. Più spesso, in pratica, si preferisce usare il metodo

della trasformazione di Laplace, che conduce più agevolmente al risultato: di questo ci

occuperemo nella III parte del corso. Qui ci limitiamo a illustrare brevemente il calcolo delle

risposte indici attraverso la soluzione diretta dell'equazione, nel caso di un sistema descritto da

13 Tutti i sistemi fisici reali verificano evidentemente questo principio. La condizione che l’effetto segua e non preceda la causa è chiamata anche condizione di “realizzabilità fisica”. 14 Nel caso dei sistemi nonlineari, le risposte indici usuali (a eccitazione unitaria) perdono significato; occorre infatti usare funzioni indici dipendenti da due argomenti, il tempo e l'ampiezza dell'eccitazione. Anche nel caso dei sistemi non stazionari (supposti lineari) occorre usare funzioni indici dipendenti da due argomenti: il tempo a cui si considera la risposta e l'istante di applicazione del segnale di eccitazione).

Page 32: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

32

un'equazione differenziale del primo ordine: il circuito RC passabasso. I risultati che

otterremo sono del tutto

generali, perchè applicabili

a qualunque sistema, di

qualsiasi natura, che sia

descritto dalla stessa

equazione.

Indicando con x(t) la tensione d'ingresso e con y(t) quella d'uscita si ha:

( ) ( ) ( ) ( ) ( )1 1;t t

x t Ri t i d y t i dC C

τ τ τ τ−∞ −∞

= + =∫ ∫

da cui l'equazione ingresso-uscita15, dove τ = RC indica la costante di tempo del circuito:

(31) x(t) = τ y’(t) + y(t)

Calcoliamo la risposta indiciale del sistema, assumendo quindi x(t)=u(t), con la

condizione iniziale y(0)=0. L'integrale generale dell'equazione omogenea associata alla (31) è

evidentemente yg(t)=Ae-t/τ. In questo caso semplice, poi, l'integrale particolare relativo al

termine noto si determina facilmente: yp(t)=1. Specializzando rispetto alla condizione iniziale

assegnata la soluzione complessiva y(t) = 1+ Ae-t/τ si ottiene A= -1. La risposta indiciale è

dunque:

(32) hu(t) = [1 - exp(-t/τ)] u(t)

Derivando rispetto al tempo si ottiene quindi la risposta impulsiva:

(33) ( ) ( ) ( )exp th t u t

ττ−

=

Questa si poteva ottenere direttamente dall'equazione del sistema, specializzando la

soluzione dell'omogenea associata alla condizione iniziale ricavata integrando ambo i membri

della (31) fra 0- e 0+: τ (y(0+)-y(0-))=1, da cui A=1/τ.

Esercizio. Decomporre la (32) nei due termini che costituiscono la risposta transitoria e la risposta permanente.

15 In questo caso particolare l'equazione ingresso-uscita coincide con l'equazione ingresso-stato del sistema, dal momento che l'uscita coincide con l'unica variabile di stato del sistema.

Page 33: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

33

14. Relazioni fra risposte indici e risposta in frequenza

Completiamo l'analisi del sistema descritto dalla (31) determinandone la risposta in

frequenza con il metodo simbolico. Sostituendo nella (31) le grandezze simboliche si ottiene:

(34) ( ) 11

H jj

ωωτ

=+

(35) ( ) ( ) ( )2 2

1 ; arctang1

H j H jω ω ωτω τ

= = −+

/

La forma della (34) (e della (35)) permette di verificare che si tratta effettivamente di

un sistema passabasso, in particolare con risposta unitaria a frequenza zero, in accordo col

fatto che il valore asintotico della risposta indiciale (32) è unitario. Uguagliando la (35) a

1/√2, si ottiene la frequenza limite superiore (frequenza di taglio) del sistema:

(36) 11 0,16

2f

πτ τ= ≈

Nella risposta

indiciale di un sistema si

distinguono i seguenti

parametri caratteristici:

tempo di salita tr (già

definito trattando l'impulso

reale), ritardo (delay time)

td, definito dal tempo a cui

la risposta raggiunge il

50% del valore massimo

(o del valore asintotico ai

tempi lunghi) e tempo di assestamento (settling time) ts. Quest'ultimo rappresenta il tempo

(misurato dall'applicazione del gradino) a partire dal quale la risposta normalizzata si

mantiene definitamente entro la fascia 1-∆, 1+∆, per un valore prefissato16 di ∆.

A volte, come nel caso rappresentato nella figura, la risposta indiciale presenta un

16 La scelta di questo valore dipende dal caso che si considera. Per esempio, se il circuito costituisce il filtro che precede un convertitore A/D, il valore di ∆ sarà ragionevolmente riferito all’ampiezza del quanto di conversione.

Page 34: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

34

picco isolato oppure una serie di oscillazioni smorzate. Si considerano allora anche altri

parametri: sovraelongazione (overshot) s, cioè ampiezza del picco o della prima oscillazione,

periodo T delle oscillazioni, ecc.

Applicando le definizioni precedenti alla risposta indiciale di un filtro RC (32) si

ottengono i seguenti risultati:

(37) tr = 2,1972... τ ≈ 2,2 τ

(38) td = 0,6931... τ ≈ 0,69 τ

(39) ts = 6,9078... τ ≈ 7,0 τ

avendo scelto ∆ = 10-3 nel calcolo del tempo di assestamento.

Sostituendo nella (37) l'espressione (36) della frequenza di taglio, che indichiamo qui

con B nel significato di banda passante, si ottiene la seguente relazione, assai importante e

utile, fra la la risposta nel dominio del tempo e quella nel dominio della frequenza:

(40) B tr = 0,3497... ≈ 0,35

Ricordiamo che tutti i risultati precedenti, dalla (32) alla (40), sono validi per qualsiasi

sistema descritto dall'equazione differenziale (31) e non soltanto per il circuito RC. Si può

dimostrare poi che i risultati (37), (38) e (40) sono validi con ottima approssimazione anche

per i sistemi passabanda che hanno ad alta frequenza lo stesso andamento dei sistemi

passabasso descritti dalla (34), purchè la loro frequenza limite inferiore sia molto minore della

frequenza limite superiore (questo si verifica di solito in molti amplificatori, per esempio in

quelli che coprono la banda audio oppure quella video). Infine, la relazione (40), che presenta

grandissima utilità pratica, risulta valida, sia pure approssimativamente, anche per una classe

più estesa di sistemi, descritti da equazioni differenziali di grado superiore al primo (di solito,

il prodotto B tr assume valori fra ~0,3 e ~0,45).

Le precedenti definizioni del tempo di salita tr e del ritardo td sono dette pratiche o

empiriche, perchè intese a facilitarne la determinazione sperimentale. Per queste stesse

grandezze si usano anche delle diverse definizioni, dette analitiche, che indicheremo con

simboli diversi per evitare ambiguità. Tali definizioni si applicano soltanto ai sistemi

passabasso, la cui risposta indiciale tende, ai tempi lunghi, a un valore asintotico costante non

nullo, purchè questa presenti un andamento monotono crescente (almeno

approssimativamente).

Page 35: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

35

Nelle definizioni analitiche interviene la risposta impulsiva normalizzata

hn(t) = h(t)/hu(∝)

cioè divisa per il valore asintotico della risposta indiciale (che rappresenta l'area della h(t)). Il

ritardo ρ e il tempo di salita σ e sono così definiti:

(41) ( )0 nth t dtρ∞

= ∫

(42) ( ) ( )2

02 nt h t dtσ π ρ

∞= −∫

dove la costante 2π è stata scelta in modo che il tempo di salita σ coincida con il tempo di

salita tr nel caso particolare dei sistemi con risposta impulsiva Gaussiana. Svolgendo il

quadrato che figura nella (42) e utilizzando la (41) si ottiene:

(43) ( )2 2

02 nt h t dtσ π ρ

∞ = − ∫

Applicando le definizioni analitiche al caso del sistema descritto dalla (31) si ottiene:

; 2 2,05066ρ τ σ π τ τ= = ≈

Le definizioni precedenti si possono usare anche per caratterizzare il ritardo e il tempo

di salita di un generico segnale f(t) (che non costituisca, cioè, la risposta indiciale di un

sistema) rispetto a un istante di tempo di riferimento, purchè la funzione f(t) soddisfi le

condizioni date sopra (abbia andamento monotono crescente fra zero e un valore asintotico

non nullo). In questo caso si utilizzerà nelle formule la derivata normalizzata fn'(t) = f'(t)/f(∝)

della funzione f(t).

15. Calcolo della risposta a una eccitazione qualsiasi con le risposte indici

L’importanza delle funzioni indice sta nel fatto che esse consentono, sempre nel caso

dei soli sistemi lineari e stazionari, di calcolare la risposta forzata a una eccitazione di forma

qualsiasi.

Supponiamo che l'ingresso x(t) sia costituito dalla somma di tre impulsi rettangolari di

Page 36: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

36

durata ε, come mostrato nella figura:

x(t) = x1(t) + x2(t) + x3(t).

Questi impulsi, se ε è sufficientemente piccolo

rispetto ai tempi caratteristici del sistema a cui sono applicati, possono essere approssimati

con tre funzioni delta, nel senso che l'effetto di ciascuno di essi è approssimativamente uguale

all'effetto di una corrispondente funzione impulsiva:

x(t) ≈ ε δ(t) – 2 ε δ(t-1) + 3 ε δ(t-3)

Dal momento che, per l'ipotesi di stazionarietà, se la risposta a δ(t) è h(t) quella a δ(t-

T) sarà h(t-T), si conclude, grazie al principio di sovrapposizione degli effetti, che la risposta

di un sistema con risposta impulsiva h(t) all’eccitazione x(t) data sopra è:

y(t) ≈ ε h(t) - 2 ε h(t-1) + 3 ε h(t-3)

Esercizio. Tracciare il grafico del segnale d'uscita di un circuito RC passabasso con τ = 1 s, al quale è applicato

l'ingresso x(t) considerato sopra con ε = 0,25 s: a) ricavandolo in modo esatto, b) ricavandolo approssimando gli

impulsi mediante funzioni delta.

Supponiamo ora che x(t) sia un segnale di forma arbitraria. Suddividendo l'asse dei

tempi in intervalli di durata ∆τ, possiamo esprimere x(t) nella forma della somma seguente:

(44) x(t) = x1(t) + x2(t) + ...

dove ciascuna componente xk(t) coincide con x(t) nel corrispondente intervallo τk, τk+∆τ ed è

nulla altrove. Se ∆τ è sufficientemente piccolo, ciascuna componente elementare xk(t) può

essere approssimata con una funzione delta di area x(tk) ∆τ applicata al tempo tk, contribuendo

così alla risposta con il termine elementare corrispondente:

(45) yk(t) ≈ x(τk) h(t-τk) ∆τ

Sommando tutti questi contributi si ha:

(46) y(t) ≈ Σk yk(t) = Σk x(τk) h(t-τk) ∆τ

0 1 2 3 4 t

1 3

→ ε ←

-2

Page 37: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

37

dove l'errore di approssimazione tende a zero quando ∆τ tende a zero. In tal caso la

sommatoria si trasforma nel seguente integrale, detto di convoluzione:

(47) ( ) ( ) ( )0

ty t x h t dτ τ τ= −∫

dove il limite inferiore d'integrazione rappresenta l'istante t=0 a partire dal quale consideriamo

la risposta forzata del sistema (che si suppone trovarsi nello stato zero) e il limite superiore t è

fissato dal principio di causalità (l'uscita al tempo t non è influenzata dai valori dell'ingresso a

tempi successivi).

L'integrale di convoluzione (47) si scrive anche nella seguente forma equivalente:

(48) ( ) ( ) ( )0

ty t x t h dτ τ τ= −∫

dove l'integrazione si svolge nello stesso intervallo di prima, ma secondo un asse diretto in

verso opposto al precedente: con l'origine τ=0 all’istante t e l'estremo superiore è τ=t, dove si

ha t-τ=0. Le due forme (47) e (48) dell'integrale di

convoluzione possono essere interpretate graficamente

come è mostrato nella figura.

In alto. Calcolo del contributo elementare dell'ingresso al tempo τ'

all'uscita al tempo t' con l'integrale di convoluzione (47)

In basso. Calcolo con l'integrale di convoluzione (48)

La parte in alto suggerisce un metodo grafico per la

valutazione approssimata della risposta y(t') all’istante

t', applicando la (46) ai campioni delle funzioni x(τ) e

h(t'-τ) che si trovano sulla stessa verticale.

Qualche considerazione sui limiti d'integrazione usati nelle due espressioni (47) e (48) dell'integrale di

convoluzione. Essi derivano dal fatto che abbiamo scelto di occuparci della risposta forzata, considerando quindi

soltanto gli effetti dell'ingresso a partire da un istante determinato (t=0) fino al tempo t al quale calcoliamo la

risposta (per l'ipotesi di causalità). Decidendo di calcolare l'effetto di un ingresso applicato a partire da un

generico istante to (che può anche assumere il valore to=-∝) scriveremo:

Page 38: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

38

(49) ( ) ( ) ( ) ( ) ( )0

0 0

t t t

ty t x h t d x t h dτ τ τ τ τ τ

−= − = −∫ ∫

Nel caso dei sistemi non fisicamente realizzabili, come quelli usati per elaborare dati già registrati in

precedenza, cade il vincolo posto dalla causalità e si ha in generale:

(50) ( ) ( ) ( ) ( ) ( )y t x h t d x t h dτ τ τ τ τ τ∞ ∞

−∞ −∞= − = −∫ ∫

Notiamo infine che ad espressioni analoghe alle (47) e (48) si perviene anche decomponendo il segnale

d’ingresso in funzioni a gradino elementari, anzichè in funzioni impulsive. In tal caso l'ingresso viene

rappresentato dalla somma della funzione a gradino x(0)u(t) e di una sequenza di funzioni a gradino elementari,

applicate agli istanti tk, con coefficiente x(tk)-x(tk-∆τ). Ciascuna di queste contribuisce all'uscita y(t) con il

termine elementare (x(τk)-x(τk-1)) hu(t-τk) ∆τ.

16. Integrale di convoluzione e risposta impulsiva

L'integrale di convoluzione nella sua forma generale

(51) ( ) ( ) ( )1 2f t f f t dτ τ τ∞

−∞= −∫

definisce un'operazione binaria fra due funzioni. Nell'insieme delle funzioni ordinarie non

esiste l'elemento identità per tale operazione, cioè una funzione f2(t) che introdotta nella (51)

dia f(t) = f1(t). Questo elemento esiste solo se estendiamo l'insieme delle funzioni considerate

a comprendere anche la funzione impulsiva δ(t), tale che, per qualsiasi funzione ordinaria f(t),

sia

(52) ( ) ( ) ( )f t f t dτ δ τ τ∞

−∞= −∫

La (52) può essere assunta come definizione della funzione delta.

17. Risposta in frequenza e risposta impulsiva Consideriamo un sistema lineare e stazionario, non necessariamente fisicamente realizzabile e quindi

con risposta impulsiva h(t) che può dunque assumere valori diversi da zero anche per t<0. Calcoliamone la

risposta al segnale armonico complesso x(t)=X exp(jωt) applicato a partire da -∝ utilizzando l'integrale di

convoluzione nella forma generale (50):

(53) ( ) ( ) ( ) ( ) ( ) ( )exp exp expy t X j t h d X j t j h dω τ τ τ ω ωτ τ τ∞ ∞

−∞ −∞= − = − ∫ ∫

Page 39: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

39

Sappiamo già, d'altra parte, che in questo caso si ha y(t)=X exp(jωt) H(jω). Si conclude pertanto che la

la funzione di trasferimento di un sistema coincide con la trasformata di Fourier della sua risposta impulsiva

(54) ( ) ( ) ( )expH j j t h t dtω ω∞

−∞= −∫

18. Risposta impulsiva e stabilità

Studiando il sistema descritto dalla equazione (31) si è trovato che la risposta impulsiva altro

non è che una particolare specializzazione della risposta libera alle condizioni iniziali stabilite

a t=0+ dall'effetto di una funzione delta unitaria applicata all'ingresso. Questo risultato è

generale: la risposta impulsiva è costituita dai termini che compaiono nell'integrale generale

dell'equazione omogenea associata a quella del sistema. Nel caso dei sistemi differenziali

questi termini sono determinati dalle radici dell'equazione caratteristica. A ciascuna delle

radici distinte pi corrisponde un esponenziale, reale o complesso,

Ai exp(pit)

mentre in presenza di una radice p con molteplicità m la risposta contiene gli m termini

M0 exp(pt), M1 t exp(pt), ............ Mm-1 tm-1 exp(pt)

Ne consegue che l'andamento asintotico della risposta impulsiva per t che tende

all'infinito è comunque determinato dai termini esponenziali, più precisamente dal valore delle

radici reali, o delle parti reali delle eventuali radici complesse, dell'equazione caratteristica. Se

anche uno soltanto di questi è positivo, allora la risposta impulsiva diverge all'infinito,

indicando che il sistema è instabile. D'altra parte, perchè sia h(∝)=0 occorre che tutti questi

valori abbiano segno negativo.

Una condizione di stabilità usata spesso in elettronica è quella denominata stabilità

b.i.b.o. (bounded input-bounded output, ingresso limitato-uscita limitata). Questa condizione

di stabilità richiede che a un ingresso x(t) limitato corrisponda sempre un'uscita y(t) anch'essa

limitata. Più precisamente si richiede che valga la seguente condizione per qualsiasi ingresso

x(t):

se |x(t)| ≤ X per qualsiasi t, allora |y(t)| ≤ Y per X e Y finiti e per qualsiasi t

Questa particolare condizione di stabilità può essere espressa in termini della risposta

impulsiva ed equivale allora alla condizione di integrabilità assoluta di tale funzione:

Page 40: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

40

(55) ( )-

I = h t dt∞

∞< ∞∫

Infatti se la (55) è verificata, allora, per qualsiasi x(t) limitata, si ha

( ) ( ) ( ) ( ) ( ) ( )- - -

= y t x t h d x t h dt X I h dt X Iτ τ τ τ τ τ∞ ∞ ∞

∞ ∞ ∞− ≤ − ≤ =∫ ∫ ∫

Oltre che condizione sufficiente, la (55) è anche necessaria. Scegliendo infatti h(t)=sin

ωot (corrispondente a una coppia di radici coniugate immaginarie) si ha evidentemente I=∞. E

allora se l'ingresso è x(t)=sin ωot si ha:

( ) ( ) ( ) ( )2

- -0 = sin oy x h d dτ τ τ ω τ τ

∞ ∞

∞ ∞− = = ∞∫ ∫

19. Schemi a blocchi

In quanto precede abbiamo spesso rappresentato graficamente i sistemi mediante

schemi a blocchi. In questa rappresentazione, assai intuitiva, un sistema viene indicato con un

rettangolo, le variabili d'ingresso con frecce entranti nel rettangolo, le variabili d'uscita con

frecce uscenti; alllo stesso modo si indicano le varie parti, o sottosistemi, di sistemi complessi,

e le loro interconnessioni.

Gli schemi a blocchi sono molto usati perchè evidenziano efficacemente come i vari

sottosistemi sono collegati fra loro e perchè permettono di seguire il flusso dei segnali in un

sistema, individuando le elaborazioni compiute dai sottosistemi che essi attraversano. E'

importante osservare che la schematizzazione dei sistemi, e dei sottosistemi, in termini di

schemi a blocchi deriva evidentemente dalla loro rappresentazione mediante relazioni

ingresso-uscita.

Alla base della rappresentazione mediante schemi a blocchi vi sono però due ipotesi

semplificatrici, che non sono quasi mai verificate rigorosamente e che vogliamo qui

evidenziare.

La prima è che la trasmissione dei segnali attraverso i sistemi avvenga in modo

unilaterale, cioè soltanto dall'ingresso verso l'uscita e non viceversa; e cio’ non accade

certamente nel caso di reti passive, come ad esempio un partitore resistivo.

La seconda ipotesi è che un segnale non subisca alcuna modifica quando venga

applicato all'ingresso di un sistema. Si ammette, in particolare, che il segnale d'uscita di un

Page 41: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

41

sistema resti inalterato anche quando venga a costituire l'ingresso di un altro sistema. Questo

può verificarsi soltanto approssimativamente, dal momento che il secondo sistema deve

comunque assorbire energia dal primo perchè avvenga il trasferimento dell'informazione.

L'approssimazione, d'altra parte, è tanto migliore quanto maggiore è il rapporto fra l'energia

disponibile all'uscita del primo sistema e quella assorbita all'ingresso del secondo. Nel caso

dei sistemi lineari e stazionari, per cui si può utilizzare il concetto di impedenza, questa

approssimazione è tanto migliore quanto maggiore è il rapporto fra l'impedenza d'ingresso del

secondo sistema e l'impedenza d'uscita del primo.

Entrambe le ipotesi precedenti non sono più necessarie quando i sistemi vengano rappresentati mediante

circuiti, ossia come interconnessione di una molteplicità di componenti elementari. Ciascun tipo di questi

elementi viene descritto da determinate equazioni, mentre altre equazioni descrivono come i vari elementi sono

collegati assieme. La rappresentazione circuitale, di cui ci occuperemo nelle parti seguenti del corso, tiene conto

infatti, in modo naturale e diretto, sia delle modifiche che il segnale all'uscita di un sistema subisce quando viene

applicato all'ingresso di un altro sistema, sia dell'eventuale flusso inverso dei segnali, dall'uscita verso l'ingresso.

Questo richiede però una maggiore complessità nella rappresentazione dei sistemi: nella descrizione circuitale,

infatti, all'ingresso e all'uscita dei sistemi, non è più sufficiente considerare una sola grandezza fisica, ma ne

occorrono due (tensione e corrente nei sistemi elettrici, forza e spostamento nei sistemi meccanici, temperatura e

quantità di calore nei sistemi termici, ecc.).

Qui vogliamo sottolineare una importantissima differenza nel comportamento dei

sistemi costituiti dal collegamento in cascata di due o più sottosistemi, a seconda che tutti i

sottosistemi costituenti siano lineari oppure uno (o più) di essi sia nonlineare, supponendo qui

che le due ipotesi precedenti (trasmissione unilaterale e interazione energetica trascurabile)

siano entrambe verificate.

Nel primo caso il sistema complessivo è lineare e gode della importante proprietà che

il suo comportamento ingresso-uscita è invariante rispetto all'ordine con cui i sottosistemi

vengono collegati. Questo si dimostra immediatamente nel caso della risposta in regime

sinusoidale permanente: la funzione di trasferimento complessiva è data evidentemente dal

prodotto delle funzioni dei sottosistemi costituenti, sicchè non dipende dall'ordine con cui essi

si susseguono.

In pratica, tuttavia, occorre spesso tener conto anche di altre considerazioni. Per esempio, è certamente

vero che la funzione di trasferimento del sistema ottenuto collegando in cascata un preamplificatore a basso

rumore e un amplificatore di potenza rimane la stessa anche quando si inverte l'ordine con cui si collegano i due

sottosistemi. Però le prestazioni delle due configurazioni saranno assai diverse sia per quanto riguarda il rumore

che la potenza disponibile in uscita.

Page 42: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce

gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.

42

Nel secondo caso, invece, cioè quando anche un solo sottosistema è nonlineare, il

sistema complessivo è nonlineare a sua volta e il suo comportamento ingresso-uscita dipende

dalla disposizione dei sottosistemi (questa dipendenza può essere rilevantissima: si rifletta, per

esempio, al caso in cui il filtro di livellamento preceda, anzichè seguire, il circuito rettificatore

di un alimentatore).

Esercizio. Determinare l'equazione differenziale ingresso-uscita e la risposta in frequenza dei due sistemi nella

figura qui sotto, se i sottosistemi sono governati dalle seguenti equazioni, dove x indica l’ingresso e y l’uscita:

A y' = a y + b x

B y' = c y + d x

A B

B A

Esercizio. Calcolare la risposta a un inpulso rettangolare, con ampiezza di 10 V e durata di 100 ms, del sistema

costituito da un limitatore simmetrico (pag.19), con guadagno 2 nella zona lineare e livelli di limitazione in

uscita di 0,5 V, e da un circuito RC passabasso, con R=1 MΩ e C=1µF:

a) se il limitatore precede il filtro, b) se il filtro precede il limitatore.

20. Grafi di flusso

Una rappresentazione simile a quella degli schemi a blocchi stata formalizzata da

S.J.Mason nel 1953, col nome di grafi di flusso (signal flow graphs), per la rappresentazione

e l'analisi del flusso dei segnali attraverso i sistemi lineari. Un vantaggio di questo metodo che

esso è utilizzabile anche quando i sistemi sono rappresentati in termini circuitali.

In termini matematici, i grafi di flusso costituiscono un metodo per rappresentare

efficacemente e risolvere sistemi di equazioni algebriche lineari.

Page 43: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce
Page 44: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce
Page 45: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce
Page 46: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce
Page 47: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce
Page 48: PARTE I SEGNALI E SISTEMI - Istituto Nazionale di Fisica ... elettronica.pdf · gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag. 4 La teoria dell'informazione stabilisce