appunti di - webalice.it terza.pdf · fisica appunti di ambientale per la classe terza dell...
TRANSCRIPT
1
Appunti di Fisica Ambientale
Per la classe terza dell’articolazione di Biotecnologie Ambientali degli Istituti Tecnici
Alessandro Ciucci [email protected]
Fisica tecnica Fisica dell’atmosfera Energia Eolica Onde Suono
2
Introduzione
Obiettivo di questi appunti è quello di fornire un supporto allo studio della Fisica Ambientale
cercando di partire dalle nozioni più elementari apprese nel biennio per approfondire alcuni
argomenti specifici e delineare, nel finale di ciascun modulo, gli obiettivi di competenza che il
ministero ha indicato. Tali obiettivi sono spesso ambiziosi perché (come ogni vera competenza)
richiedono l’integrazione dei contenuti specifici di più discipline e una conoscenza di alcuni
strumenti matematici che non è ancora sviluppata nella classe terza.
Per questo motivo le prime pagine sono dedicate ad un mini compendio di matematica che è
indispensabile per un trattamento degli argomenti tale da permettere l’avvicinamento alle
competenze in modo non semplicemente qualitativo. Si descrivono, quindi, le funzioni
goniometriche SENO, COSENO e TANGENTE, la funzione ESPONENZIALE crescente e decrescente, i
LOGARITMI.
Gli argomenti che vengono affrontati in questi appunti sono tre: la propagazione del calore, i
gas e la fisica dell’atmosfera, il suono e il rumore.
Ciascun argomento è affrontato con il duplice obiettivo di offrire un compendio di conoscenze
di fisica specifico del settore e fornire gli strumenti interpretativi di alcune problematiche
ambientali di rilievo. Se, quindi, in questi appunti si affronterà il corpo nero, lo si farà sia per poter
interpretare e comprendere l’effetto serra sia per affrontare i temi del risparmio energetico
nell’edilizia ad uso civile ed industriale.
3
Argomenti:
- Strumenti matematici
o Le funzioni goniometriche
o La funzione esponenziale
o I logaritmi
- Il Calore
o Temperatura e calore
o Scale termometriche
o Meccanismi di trasporto del calore
Conduzione
Convezione
Irraggiamento
o Analogia elettrica per la conduzione termica
Resistenza termica
Temperatura di contatto
o Equazione del calore
Derivazione e semplici risoluzioni
La costante tempo
o La grandezze per il risparmio energetico
La trasmittanza
- I gas
o Equazione di stato dei Gas perfetti
o Trasformazioni termodinamiche semplici
Isocora
Isobara
Isoterma
o Trasformazione adiabatica
o I Gas reali
Curve di Andrews
Equazione di Van der Waals
o Cicli termici con i gas reali
Funzionamento delle pompe di calore
- Approfondimenti di termodinamica
Entalpia
Entropia
Energia libera
- Fisica dell’atmosfera
o Formazione e stabilità dell’atmosfera terrestre
Gli involucri di aria
Misure dell’atmosfera
Gli strati inferiori dell’atmosfera
o Struttura e composizione dell’atmosfera terrestre
4
o Equilibrio di una colonna d’aria
o Variazione della pressione con la quota
o Variazione della temperatura con la quota
o Formazione del vento geostrofico
o Semplici modelli di diffusione in atmosfera
- Energia dal vento
o Generalità sui generatori eolici
o La legge di Betz
- Le onde
o Tipi di onde (trasversali, longitudinali, superficiali)
Caratteristiche delle onde (impulsi, treni, onde periodiche, ampiezza, ….)
o Velocità delle onde
o Energia delle onde armoniche
o Principio di sovrapposizione e battimenti
o Principio di Huygens
Diffrazione
Interferenza
Riflessione e rifrazione
- Il suono
o Velocità del suono
o Effetto Doppler
Sorgente in movimento
Osservatore in movimento
Misura della velocità mediante effetto doppler
o La pressione sonora e la scala dei dB
Intensità del suono
Potenza di una sorgente
o La percezione del suono
Le curve isofoniche
La scala dBA
- Il rumore
o
5
Funzioni goniometriche
Consideriamo un triangolo rettangolo come in figura:
Chiamiamo i cateti a e b, l’ipotenusa c. Chiamiamo l’angolo opposto
al cateto a.
Definiamo delle funzioni che dipendono solo dall’angolo
SEN() = a/c (si legge “seno di alpha”, sulla calcolatrice è il tasto “SIN”)
COS() = b/c (si legge “coseno di alpha”, sulla calcolatrice è il tasto “COS”)
TAN() = SEN()/COS() = a/b (si legge “tangente di alpha”, sulla calcolatrice è tasto “TAN”)
Il seno di un angolo è il rapporto tra il cateto che sta davanti all’angolo e l’ipotenusa, il coseno di
un angolo è il rapporto tra il cateto adiacente all’angolo e l’ipotenusa. La tangente di un angolo è il
rapporto tra il cateto opposto all’angolo e quello adiacente
Calcolare il seno e il coseno di un angolo è un operazione che non si può fare a mente, i calcoli
sono semplici solo in alcuni casi particolari, per questa ragione si ricorre alle calcolatrici tascabili
oppure alle applicazioni di calcolo per personal computer o telefono, in passato si usavano delle
tavole.
I valori del seno e del coseno un angolo sono sempre compresi tra -1 e +1. Di seguito si riporta
una tabella riassuntiva dei valori per i principali angoli compresi tra 0° e 180°
ANGOLO gradi
radianti SEN() esatto
SEN() approssimato
COS() esatto
COS() approssimato
TAN() TAN() approssimato
0° 0 0 0 1 1 0 0
30° /6 1/2 0.5 √3/2 0.866 √3/3 0.577
45° /4 √2/2 0.707 √2/2 0.707 1 1
60° /3 √3/2 0.866 1/2 0.5 √3 1.732
90° /2 1 1 0 0 non def.
120° /3 √3/2 0.866 -1/2 -0.5 −√3 -1.732
135° /4 √2/2 0.707 -√2/2 -0.707 -1 -1
150° /6 1/2 0.5 -√3/2 -0.866 -√3/3 -0.577
180° 0 0 -1 -1 0 0 (notiamo che la funzione SENO è crescente tra 0° e 90°, decrescente tra 90° e 180°, sempre positiva. La funzione
COSENO è sempre decrescente tra 0° e 180°, positiva tra 0° e 90°, negativa tra 90° e 180°. Vale per ogni angolo
l’identità goniometrica 𝑆𝐸𝑁2(𝛼) + 𝐶𝑂𝑆2(𝛼) = 1 )
Nella tabella gli angoli sono espressi nei gradi sessagesimali (i normali gradi ai quali siamo abituati)
e in radianti, quest’ultimo modo di esprime gli angoli è diffuso in ambiente scientifico, in radianti
l’angolo piatto vale (pi greco = 3.1459….). Le formule necessarie per fare la conversione da una
scala all’altra sono:
(angolo in gradi) = (angolo in radianti) ×180
𝜋
a
b
c
6
(angolo in radianti) = (angolo in gradi) ×𝜋
180
Per calcolare il valore delle funzioni SEN e COS (sulla calcolatrice sono SIN e COS) dobbiamo
verificare la modalità di espressione dell’angolo. Per usare i normali gradi è necessario che sul
display ci sia una scritta “DEG” o la semplice lettera “D”, per i radianti ci deve essere la scritta
“RAD” o la lettera “R”. C’è poi una terza modalità di esprimere gli angoli (angolo retto = 100) detta
“gradi centesimali”, in questo caso ci sarà la scritta “GRAD” o la lettera “G”. Per passare da una
modalità all’altra è necessario usare il tasto “DRG” (Deg – Rad – Grad).
L’utilizzo delle funzioni goniometriche in geometria permettere di “risolvere” un triangolo
rettangolo conoscendo un lato e un angolo (che non sia quello retto) piuttosto che due dei tre lati.
Sfruttando la definizione data all’inizio e potendo ricavare il valore delle funzioni SEN e COS con un
calcolatore o con le tabelle, è possibile determinare i cateti conoscendo l’ipotenusa:
a = c x SEN()
b = c x COS()
oppure l’ipotenusa conoscendo uno dei due cateti:
c = a / SEN()
c = b / COS()
L’utilità pratica delle funzioni goniometriche è legata al fatto che spesso è più semplice misurare
un anglo piuttosto che una distanza. Le misure degli
angoli si fanno con strumenti ottici
Come esempio di applicazione vediamo come sia possibile misurare l’altezza di un edificio. Si misura la distanza dalla base dell’edificio d e a
quella distanza si misura sotto quale angolo è visibile la l’altezza dell’edificio. L’ipotenusa c sarà c =
d/COS(), mentre l’altezza h = c SEN() Nel caso non sia possibile misurare la distanza dalla base dell’oggetto di cui si intende misurare l’altezza h si procederà in due fasi. Dopo una prima misura di
angolo 1, si avanzerà di un tratto d e si farà una
seconda misura di angolo 2. Per determinare l’altezza h sono necessari i seguenti passaggi:
c1 = h/SEN(1), c2 = h/SEN(2). Osserviamo che la distanza d è la differenza tra i cateti adiacenti agli
angoli che si ottengono moltiplicando l’ipotenusa
per il coseno. d = c1COS(1)-c2COS(2). Sostituendo i valori di c1 e c2 si ha:
𝑑 = ℎ 𝐶𝑂𝑆(𝛼1)
𝑆𝐸𝑁(𝛼1)− ℎ
𝐶𝑂𝑆(𝛼2)
𝑆𝐸𝑁(𝛼2) , quindi per h avremo: ℎ =
𝑑𝐶𝑂𝑆(𝛼1)
𝑆𝐸𝑁(𝛼1)−
𝐶𝑂𝑆(𝛼2)
𝑆𝐸𝑁(𝛼2)
h
d
h
d
7
Facciamo un esempio numerico: Utilizzando i dati nella figura otteniamo:
ℎ = 𝑑
𝐶𝑂𝑆(𝛼1)
𝑆𝐸𝑁(𝛼1)−
𝐶𝑂𝑆(𝛼2)
𝑆𝐸𝑁(𝛼2)
=90.0
0.940
0.342−
0.866
0.500
= 90.0
2.75− 1.73= 88 𝑚
Se il lettore ha riconosciuto la figura, sa anche che si
tratta di una misura più che realistica.
Le misure ottiche di angoli di elevazione posso essere fatte con semplicissimi strumenti (anche
fatti in casa) come quello descritto nella figura sottostante
Ecco come appare il grafico delle funzioni SENO e COSENO con gli angoli espressi rispettivamente
in gradi sessagesimali e radianti
La funzione Esponenziale
Abbiamo familiarità con il concetto di elevamento a potenza di un numero intero, scrivere 34
significa che il dobbiamo moltiplicare i numero quattro volte per se stesso, 34 = 81. Non è difficile
2 = 30° 1
= 20°
d = 90.0 m
8
pensare a nemmeno a 34.5, sarà un qualcosa di intermedio tra 34 e 35 (infatti 34.5 = 140.3, 35 = 243).
Se raffiniamo questo ragionamento possiamo pensare ad un numero intero elevato ad un
esponente che sia, in generale, un numero reale (non necessariamente intero e non
necessariamente un numero originato da una frazione) 3. Ma lo stesso ragionamento lo possiamo
portare a pensare ad un numero reale elevato ad un esponente che sia anch’esso reale. Questa
funzione è spesso riportata nelle calcolatrici tascabili o nelle applicazioni da PC, smartphone e altro
con il tasto xy. . Tra tutte le possibili basi x assume particolare importanza quella che usa il
numero e, detto Numero di Eulero (o numero di Nepero). Tale numero (come è irrazionale e
vale approssimativamente 2,71828. Pertanto il grafico della funzione ex sarà compreso (per x>0)
tra quello di 2x e quello di 3x. L’importanza di questa funzione in fisica è grandissima perché ogni
volta che la variazione temporale dell’intensità di un fenomeno risulta essere proporzionale
all’intensità stessa del fenomeno, si ha che l’andamento nel tempo è descritto dalla funzione
esponenziale (crescente o decrescente).
In fisica, sono descritti da esponenziali le leggi del decadimento radioattivo, la distribuzione delle
particelle in relazione all’energia e alla temperatura, ma anche l’andamento della velocità di un
corpo soggetto al peso e ad una forza di attrito viscoso proporzionale alla velocità.
9
I Logaritmi
Abbiamo tutti una certa familiarità con la seguente espressione 23 = 8, si impara nella scuola
primaria che l’espressione precedente è equivalente a 23 = 2 ∙ 2 ∙ 2 = 8, di questa scrittura
sappiamo fare anche il procedimento inverso, possiamo scrivere cioè √83
= 2, esiste una diversa
domanda legata a questa espressione e cioè: quale esponente devo applicare al numero 2 per
ottenere 8? La risposta alla domanda la si ottiene con i Logaritmi. Possiamo scrivere
log2 8 = 3
Si legge: il logaritmo in base 2 di 8 è uguale a 3. Il numero 2 è chiamato base del logaritmo, il
numero 8 è l’argomento. L’argomento deve essere necessariamente un numero maggiore di zero.
I logaritmi hanno alcune importanti proprietà che li rendevano indispensabili prima dell’avvento
dei calcolatori elettronici:
log𝑎( 𝑏 ∙ 𝑐) = log𝑎 𝑏 + log𝑎 𝑐
log𝑎 𝑏𝑐 = c ∙ log𝑎 𝑏
log𝑎 𝑏 = log𝑐 𝑏
log𝑐 𝑎
Tali proprietà, che non dimostriamo, sono dirette conseguenze delle proprietà delle potenze.
Tra tutte le possibili basi hanno particolare importanza la base 10 e la base e. Le calcolatrici
tascabili riportano queste operazioni con i tasti Log e ln . La funzione ln è detta logaritmo
naturale (e in analisi matematica semplicemente logaritmo). Notiamo che la funzione ln(x) è la
funzione inversa di quella esponenziale. Le applicazioni dei logaritmi sono molteplici, dalla fisica
all’elettronica, spesso legate alla prima proprietà illustrata.
Facciamo un esempio. Si deve eseguire la seguente moltiplicazione 1.234 x 5.678, senza la
calcolatrice ma con la possibilità di usare una tabella di logaritmi. Inizieremo osservando che
log (1.234 × 5.678) = log (1.234) + log (5.678) = 0.0913 + 0.7524 = 0.8455
Quindi il risultato della moltiplicazione sarà
1.234 × 5.678 = 100.8455 = 7.006 che
possiamo ottenere usando la tabella al
contrario. Se lo confrontiamo con il risultato
“esatto” troviamo 1.234 × 5.678 = 7.007,
una discrepanza più che accettabile se
confrontata con la necessità di fare una
moltiplicazione (in colonna) di due numeri di
4 cifre ciascuno.
Una importante applicazione dei logaritmi è
la scala dei “deciBel”, usata in alcuni settori
tecnologici per descrivere grandezze la cui variabilità è molto grande. Il decibel è una grandezza
-1.50
-1.20
-0.90
-0.60
-0.30
0.00
0.30
0.60
0.90
1.20
1.50
0 1 2 3 4 5
Log10(x)
10
derivata dal Bel. Facciamo un esempio legato al suono. Supponiamo di avere un sistema fatto da
microfono, amplificatore e casse audio. Il nostro amplificatore ha la capacità di moltiplicare per
100 il segnale ricevuto dal microfono, cioè se sul microfono incide una potenza Pin = 1 W, alle casse
esce una potenza Pout = 100 W.
La capacità di amplificazione (o guadagno) G viene descritta nel seguente modo:
𝐺 = log10
𝑃𝑜𝑢𝑡
𝑃𝑖𝑛= log10
100
1= 2 [𝐵𝑒𝑙]
Il guadagno G è 2 Bel. Se ridefiniamo il guadagno come la scala Bel moltiplicata per 10 otteniamo
𝐺 = 10 ∙ log10
𝑃𝑜𝑢𝑡
𝑃𝑖𝑛= 10 ∙ log10
100
1= 20 [𝑑𝑒𝑐𝑖𝐵𝑒𝑙]
O semplicemente G = 20 dB. Notiamo che se la potenza in uscita raddoppia, cioè se passa 100 a
200 W, il guadagno cresce di 10Log(2), circa 3 dB
G= 10∙log10
Pout
Pin= 10∙log10
200
1= 10∙( log10 2 + log10 100)= 10 ∙(0.31+2)=23.1 dB
L’utilità pratica della scala dei Decibel risiede nel trasformare una catena di amplificazioni o
perdite (pensate ai segnali delle antenne televisive) in somma di guadagni o perdite (dB negativi)
espressi di decibel.
11
Temperatura e Calore E’ noto che possibile caratterizzare lo stato termico di un corpo con il tatto, la grandezza fisica che descrive lo stato termico si chiama Temperatura, è un grandezza intensiva, è proporzionale all’energia cinetica media che hanno le molecole del corpo stesso. Il calore è una grandezza che descrive l’energia termica complessiva di un corpo (è una grandezza estensiva), è una forma di energia pertanto la sua unità di misura è il Joule. La temperatura, nel sistema internazionale delle unità di misura, si esprime in gradi Kelvin (K senza il segno di grado). Le scale termometriche più diffuse sono tre la scala Kelvin (quella ufficiale del Sistema Internazionale, quella Celsius o centigrada e quella Fahrenheit. Esiste una quarta scala (Réaumur) che non viene più utilizzata. Se facciamo riferimenti ai cambiamenti di stato di aggregazione dell’acqua alla pressione atmosferica (101325 Pa) le tre scale sono così definite: La scala Celsius
pone il valore 0 alla temperatura del ghiaccio fondente (un sistema dove coesistono ghiaccio e acqua pur scambiando calore non cambia la temperatura) e 100 alla temperatura dell’acqua in ebollizione (per questo motivo è comunemente detta scala centigrada). La scala Kelvin pone le due temperature precedenti rispettivamente a 273.15 e 373.15. Questi valori appaiono un po’ bizzarri ma sono stati introdotti dopo che si era osservato l’impossibilità di raggiungere (tecnicamente ma anche logicamente) temperature inferiore al valore di -273.15 °C, detto Zero Assoluto. Non deve apparire strano il fatto che esiste una temperatura “inferiore limite” perché se la temperatura rappresenta l’energia cinetica media vibrazionale delle molecole o degli atomi è possibile che questi siano fermi e che l’energia cinetica sia quindi nulla. Al di sotto di questo limite non ha senso pensare la temperatura. La scala Kelvin pone la sua origine allo zero assoluto e mantiene la divisione in 100 gradi l’intervallo di temperatura determinato dall’acqua. Nella scala Kelvin non esistono valori negativi. La scala Fahrenheit (la più antica delle tre) pone le due temperature rispettivamente a 32 e 212, suddividendo quindi, l’intervallo di temperatura in cui l’acqua è liquida in 180 gradi. Le formule per convertire le scale sono le seguenti:
𝐾 = °𝐶 + 273.15 𝐾 = 5
9 °𝐹 + 255.37
°𝐶 = 𝐾 − 273.15 °𝐶 = 5
9 (°𝐹 − 32)
°𝐹 = 9
5 𝐾 − 459.67 °𝐹 =
9
5 °𝐶 + 32
Confronto tra le più comuni scale termometriche. La scala Réaumur è ormai poco utilizzata
12
Abbiamo detto che il calore rappresenta l’energia interna totale di un corpo e il meccanismi principali che permettono al calore di propagarsi nello spazio sono tre:
Conduzione
Convezione
Irraggiamento. Gli affronteremo in ordine inverso: Irraggiamento: Tutti i corpi che hanno una temperatura superficiale T > 0 K emettono radiazione elettromagnetica e la assorbono. La radiazione elettromagnetica (onde elettromagnetiche) è la propagazione in un mezzo materiale (o nel vuoto) di campo elettrico e uno magnetico che oscillano perpendicolarmente l’uno all’altro. La direzione di propagazione è a sua volta perpendicolare sia al campo elettrico sia al campo magnetico.
La distanza tra due creste consecutive prende il nome di lunghezza d’onda (si indica con la lettera
lambda e si esprime in metri), l’altezza massima dell’oscillazione prende il nome di Ampiezza, mentre il numero di oscillazioni complete compiute in un secondo si chiama frequenza (si indica
con la lettera ni e si esprime in Hz)
Campo elettrico e campo magnetico che si propagano in un mezzo omogeneo
Principali parametri di un'onda
13
Le onde elettromagnetiche hanno comportamenti diversi (e applicazioni diverse) a seconda della loro lunghezza d’onda, pertanto di usa dividere lo spettro elettromagnetico in regioni che raggruppano comportamenti comuni. Un ruolo di rilievo lo occupa un piccolo gruppo di onde con lunghezza d’onda compresa (approssimativamente) tra 400 nm e 700 nm, si chiama radiazione visibile o semplicemente luce. Se un corpo si trova in equilibrio termico con l’ambiente circostante l’intensità della radiazione emessa (intesa come flusso di energia) bilancia quella assorbita. Si determina sperimentalmente che la quantità di energia emessa nell’unità di tempo è proporzionale alla superficie del corpo e alla quarta potenza della temperatura (espressa in gradi Kelvin). Si ha così la legge di Stefan-Boltzmann
𝑃𝑟 = 𝑒 ∙ 𝐴 ∙ 𝜎 ∙ 𝑇4
Pr è la potenza irradiata in Watt, A è l’area espressa in metri quadri, è una costante universale
(costante di Stefan) e vale = 5.6703 x 10-8 [W/m2K-4], e è chiamata emissività della sorgente e varia tra 0 e 1 in relazione alla composizione della superficie del corpo radiante. L’intensità della radiazione emessa non è uniforme alle diverse lunghezze d’onda, in particolare l’intensità è massima ad un determinato valore di lunghezza d’onda che dipende dalla temperatura. Esiste una relazione (determinata sperimentalmente) tra la lunghezza d’onda per la quale l’emissione di radiazione è massima e la temperatura assoluta:
𝜆𝑚𝑎𝑥 𝑇 = 𝑏 Dove b è una costante che vale 2.8977685x10-3 [m*K]. Tale equazione lega la lunghezza d’onda dove si ottiene il massimo di emissione e la temperatura della sorgente e determina come “si sposta il massimo in relazione alla temperatura”. E’ per questo che la relazione è nota come legge dello spostamento di Wien (dal nome dello scienziato che la determino sperimentalmente). Il corpo nero La distribuzione di energia per unità di lunghezza d’onda è riportata nella figura sottostante e prende il nome di “radiazione di corpo nero” o “spettro di corpo nero” perché un cavità in perfetto equilibrio termico dove fosse praticato un piccolo foro si comporterebbe come un “radiatore perfetto” e all’occhio, almeno a basse temperature come quella ambiente, apparirebbe nero. La relazione che descrive la distribuzione dell’energia emessa in funzione della temperatura da un corpo nero fu ricavata da Max Planck nel 1900 ipotizzando che l’energia della radiazione fosse
Spettro elettromagnetico. In relazione alla lunghezza d'onda si hanno comportamenti diversi e le onde assumono nomi diversi
14
divisa in “pacchetti” (che Einstein chiamò poi fotoni) ciascuno di energia proporzionale alla frequenza. Si ha cioè
𝐸𝜐 = ℎ 𝜈 Dove h è una costante (costante di Planck) il cui valore, determinato sperimentalmente, è h =
6.62606954x10-34 [J*s] e è la frequenza della radiazione associata espressa in Hz. Se la radiazione è descritta mediante la lunghezza d’onda, usando la relazione 𝑐 = 𝜆 𝜐, (dove c è la velocità della luce) otteniamo
𝐸𝜆 =ℎ 𝑐
𝜆
La distribuzione dell’intensità della radiazione in funzione della frequenza e della lunghezza d’onda è quindi:
𝐼𝜐 =2𝜋ℎ
𝑐2
𝜈3
𝑒ℎ𝜈𝑘𝑇 − 1
(le sue dimensioni sono J/m2, cioè energia emessa per unità di superficie, che moltiplicata per un intervallo di frequenza fornisce le corrette dimensioni Watt/m2)
Mentre la sua espressione in funzione della lunghezza d’onda è
𝐼𝜆 =2𝜋ℎ𝑐2
𝜆5
1
𝑒ℎ𝑐
𝜆𝑘𝑇 − 1
(le sue dimensioni sono [W/m3], cioè potenza emessa per unità di volume, che moltiplicata per un intervallo di lunghezza d’onda fornisce le corrette dimensioni, [W/m2], potenza per unità di superficie)
Densità di energia (energia per unità di lunghezza d'onda) in funzione della lunghezza d'onda emessa da un corpo nero di superficie 1 m
2. L’energia
emessa aumenta con la temperatura e il massimo di emissione si sposta verso le lunghezze d’onda inferiori.
15
Usando indifferentemente una di queste due espressioni (e con l’aiuto di un po’ di matematica) si possono ritrovare sia la legge di Stefan sia la legge di Wien. Il corpo nero, oltre a rappresentare la sorgente di radiazione ideale, ha moltissime applicazioni. Permette di ricavare la temperatura superficiale di un oggetto attraverso misure di intensità relativa di radiazione e permette di costruire delle sorgenti di radiazione che hanno il massimo di emissività regolato dalla temperatura. Se ad esempio si intende costruire una sorgente che abbia il
massimo di emissione ad una lunghezza d’onda = 15 m, dove la radiazione è fortemente assorbita dall’anidride carbonica. Potremmo usare della ceramica (che in buona approssimazione si comporta come un corpo nero) e portarla alla temperatura di corpo nero che produce il
massimo a 15 m. Utilizzando la legge dello spostamento di Wien abbiamo
𝑇 = 𝑏
𝜆𝑚𝑎𝑥=
0,002898
0.000015= 193 𝐾
Circa -80 °C. Una temperatura decisamente bassa, raggiungibile solo con frigoriferi a doppio stato. Se invece si intende studiare l’assorbimento della CO2 intorno a l = 2.5 mm, otteniamo:
𝑇 = 𝑏
𝜆𝑚𝑎𝑥=
0,002898
0.0000025= 1160 𝐾
Circa 800 °C, la temperatura alla quale il ferro appare incandescente e rosso. Storicamente il corpo nero fu concepito per creare una sorgente di radiazione standard che facesse da campione e permettesse di confrontare altre sorgenti luminose (il dibattito era se fosse migliore l’illuminazione pubblica a gas o quella elettrica, siamo nella prima metà del diciannovesimo secolo, sappiamo poi come è andata a finire) ed ha avuto due ricadute scientifiche che meritano quanto meno un accenno. La prima, già menzionata, riguarda l’introduzione del concetto di pacchetto di energia che Planck fu costretto ad introdurre per spiegare la mancata emissione di radiazione ultravioletta del corpo nero (questa discrepanza era detta “la catastrofe ultravioletta”), il “quanto” introdotto da Planck aprì la strada dell’interpretazione dei fenomeni atomici e della meccanica quantistica. La seconda è di carattere cosmologico. Nel 1965 due ricercatori dei Bell Laboratories (Arno Penzias e Robert Wilson) facendo ricerche sulle trasmissioni radio in atmosfera, si imbatterono in un disturbo che non riuscirono ad eliminare. Approfondirono i loro studi e scoprirono che lo spazio cosmico è permeato da una radiazione di fondo come se ci fosse un corpo nero di temperatura T = 2.7 K. Questa radiazione è considerata una delle più attendibili prove della teoria del Big Bang, la grande esplosione da cui è nato l’universo che espandendosi si è raffreddato e ha lasciato come traccia la radiazione.
16
Recenti esperimenti che hanno utilizzato sensori posti fuori dall’atmosfera terrestre hanno confermato il ruolo di testimone del big bang che ha la radiazione cosmica di fondo, portando l’età dell’universo a poco più di 13 miliardi di anni in accordo con altre considerazioni astrofisiche. Equilibrio per irraggiamento Se un corpo emette energia per effetto della sua temperatura superficiale T0 è anche vero che ne assorbe dall’ambiente circostante con lo stesso meccanismo, se la temperatura ambiente 𝑇∞ non è dissimile da quello del corpo la potenza irraggiata sarà data dalla differenza tra quella emessa e quella assorbita.
𝑃𝑒𝑞 = 𝑒𝐴 𝜎 (𝑇04 − 𝑇∞
4 )
Utilizzando questa espressione e supponendo che e = 0.5, stimiamo quanta energia dissipa per irraggiamento un persona in un’ora. Sia T0 = 36.5 °C cioè 309.5 K, 𝑇∞ = 20 °𝐶, cioè 293 K. La superficie radiante complessiva A = 1.5 m2, otteniamo
𝑃𝑒𝑞 = 𝑒𝐴 𝜎 (𝑇04 − 𝑇∞
4 ) = 0.5 ∙ 1.5 ∙ 5.6703 × 10−8 ∙ (3104 − 2934) =
= 4.2527 × 10−8(9235210000 − 7370050801) = 7.93 × 109 × 10−8 ≅ 80 𝑊
Quindi l’energia persa in un’ora sarà E = Peq x 3600 = 288000 J (circa 70 Kcal, infatti stare in un ambiente a 20 °C senza adeguate coperture provoca una sensazione di freddo!) Lo stesso fenomeno avviene per le pareti e le finestre di una abitazione, non potendo determinare la temperatura esterna e necessitando di una temperatura interna stabile, compresa tra i 22 e i 27 °C, per limitare lo scambio termico per irraggiamento si cercano materiali che abbiano l’emissività più piccola possibile. Convezione Nella convezione, modo di propagazione tipico dei fluidi, la propagazione del calore avviene con trasporto macroscopico di materia. Mentre nei fluidi si può avere anche trasporto di calore per
Spettro della radiazione di fondo misurabile nello spazio corrispondente a un corpo nero di temperatura 2.7 K
17
convezione, il contrario non avviene mai nei solidi, nei quali la convezione non può aver luogo. La convezione, che costituisce il modo di trasporto di calore più sfruttato nelle applicazioni (basta pensare alle caldaie o agli impianti di riscaldamento centralizzati ) può essere naturale o forzata. Nel primo caso le porzioni di fluido più vicine alla sorgente di calore si dilatano diventando più leggere e meno dense di quelle sovrastanti. Le porzioni di fluido più calde prendono il posto di quelle più fredde e viceversa dando così luogo all’instaurarsi di una corrente fluida con trasporto di calore. Nel caso della convezione forzata, le correnti fluide sono provocate artificialmente e per effettuare il trasporto di calore è necessario compiere un lavoro esterno per mantenere le correnti nel fluido; generalmente alla convezione forzata si sovrappone la convezione naturale.
La quantità di calore scambiata, Q, dalla superficie di un corpo solido e un fluido, in un tempo
infinitesimo t, dipende dall’area della superficie di contatto, S, e dalla differenza di
temperatura, T, tra quest’ultima e il fluido.
In una prima approssimazione, secondo un’equazione dovuta a Newton, si può scrivere:
∆𝑄
∆𝑡= ℎ (𝑇0 − 𝑇∞)
dove h è una costante detta coefficiente di convezione.; essa rappresenta la quantità di calore (2) scambiata nell’unità di tempo tra la superficie unitaria e il fluido quando la differenza di temperatura tra essi è di 1°K. La convezione è un meccanismo molto efficace ma anche molto complesso e di difficile. Spesso i moti convettivi sono raggruppati per tipologie caratterizzate da comportamenti simili (moti laminari, turbolenti) e identificate da numeri adimensionali. Il più famoso ed importante è il numero di Reynolds (proporzionale al rapporto tra le forze d’inerzia e le forze viscose). Nei liquidi, come in figura, la convezione avviene quando la parte inferiore, trovandosi a contatto con la sorgente di calore, acquista sufficiente energia da dilatarsi e, essendo più leggera dalla parte sovrastante, tende a salire e si attivano dei moti che fanno salire il liquido caldo e richiamano verso il basso la parte più fredda. Moti convettivi si hanno anche nelle abitazioni e si attivano all’interno dei dispositivi di riscaldamento
Coefficiente h Convezione Naturale Convezione Forzata
Andamento di un fluido per convezione. Nella parte centrale del corpo caldo è ragionevole che la temperatura sia maggiore rispetto ai bordi. Il fluido in contatto con la parte ad alta temperatura avrà una spinta idrostatica maggiore di quello ai bordi, inoltre il fluido salendo si raffredda e si innesca un meccanismo di circolazione.
18
Gas 2 - 25 25 - 250
Liquidi 50 - 1000 50 - 20000
Conduzione: Il meccanismo di propagazione caratteristico delle sostanze solide è la conduzione. La sua interpretazione è relativamente semplice. Trasferimento di energia cinetica attraverso gli urti tra atomi o molecole vicine in moto di agitazione dovuto alla temperatura. Maggiore temperatura corrisponde ad una maggiore energia cinetica che, in urti successivi, tende a distribuirsi in modo uniforme. Si capisce perché il calore fluisce dai corpi (o dalle zone) ad alte temperatura verso i corpi (o le zone) a bassa temperatura. Poiché il numero di atomi coinvolti è enorme (Numero di Avogadro) diventa statisticamente impossibile che siano gli atomi più lenti ad accelerare attraverso gli urti quelli più veloci, succederà il contrario e, se non ci sono interazioni con l’esterno, un sistema fisico isolato tende ad avere la stessa temperatura. L’equazione che descrive il flusso di calore attraverso una parte di solido omogeneo fu trovata sperimentalmente da Fourier
∆𝑄
∆𝑡= 𝑘
𝐴
𝑑 (𝑇1 − 𝑇2)
Dice che se le due facce di una parete di spessore d ed area A, sono mantenute a due temperature diverse T1 e T2 con T1 > T1, si ha un flusso constante di calore dalla faccia a temperatura maggiore verso quella a temperatura minore. Tale flusso sarà inversamente proporzionale allo spessore della parete, direttamente proporzionale alla superficie della parete, alla differenza di temperatura e a un coefficiente k caratteristico del materiale che prende il nome di conducibilità termica. Le unità di misura della conducibilità termica sono W/m*K (oppure J/s*m*K) Analogia elettrica Possiamo riscrivere l’equazione di Fourier nel seguente modo
1
𝑘
𝑑
𝐴 ∆𝑄
∆𝑡= (𝑇1 − 𝑇2)
Chiamiamo il fattore 1
𝑘
𝑑
𝐴 Resistenza Termica e indichiamolo con RT, otteniamo
𝑅𝑇
∆𝑄
∆𝑡= ∆𝑇
Il flusso di calore moltiplicato per una costante (che dipende dalla geometria e costituzione del mezzo) è uguale alla differenza di temperatura. Questa equazione è del tutto analoga alla prima legge di Ohm che lega la corrente elettrica (flusso di carica) alla differenza di potenziale mediante un fattore detto, appunto, Resistenza. Le unità di misura della resistenza termica sono K /W.
19
Mediante l’analogia elettrica è possibile interpretare una situazione come quella descritta in figura. Una parete di superficie A (es 5 m2) è composta da due strati di diverso spessore e diverso materiale (d1 = 5 cm k1 = 0.2 W/m·K, d2 = 10 cm, k2 = 0.7 W/m·K), se le temperature esterne sono T1 = 30 °C e T2 = 20 °C determinare il flusso di calore in regime stazionario e la temperatura intermedia che sia al contatto dei due strati. Calcoliamo la resistenza termica dei due strati:
𝑅𝑇1 = 𝑑1
𝑘1𝐴=
0.05
0.2 ∙ 5= 0.05 [
𝐾
𝑊]
𝑅𝑇2 = 𝑑2
𝑘2𝐴=
0.10
0.7 ∙ 5= 0.03 [
𝐾
𝑊]
La resistenza termica totale sarà Rtotale = RT1 + RT2 = 0.08 [K/W], Il flusso di calore sarà
∆𝑄
∆𝑡=
∆𝑇
𝑅𝑇=
30 − 20
0.08= 125 𝑊
La differenza di temperatura ai bordi del primo strato sarà
∆𝑇1 =∆𝑄
∆𝑡 ∙ 𝑅𝑇1 = 125 ∙ 0.05 = 6.25 °𝐶
E quella ai bordi del secondo
∆𝑇2 =∆𝑄
∆𝑡 ∙ 𝑅𝑇2 = 125 ∙ 0.03 = 3.75 °𝐶
Pertanto la temperatura all’interfaccia sarà
Tintermedia = T1 – T1 = 30 – 6.25 = 23.75 °C
T2
T1
Q/t
A
d1 d2
Tintermedia
i
R1 R
2
Trasmissione del calore per conduzione attraverso una parete formata da due strati e analogia elettrica
20
Questo procedimento può essere generalizzato ed applicato a pareti multistrato (come in figura) e dove sono presenti finestre (in tal caso l’analogia elettrica è con le resistenze in parallelo).
Parete a tre strati (quello intermedio è fortemente isolante) e analogia elettrica
La temperatura di contatto Un situazione particolare deriva dalla temperatura che si percepisce al contatto. Quando due materiali diversi (supponiamo die semispazi infiniti mantenuti a temperature T1 e T2) sono posti in contatto tra loro, all’interfaccia si stabilisce una temperatura che dipende dalle due temperatura e
dai coefficienti b (riportati in tabella, 𝑏 = √𝑘 𝜌 𝑐𝑝) secondo la seguente espressione
𝑇𝑐𝑜𝑛𝑡𝑎𝑡𝑡𝑜 = 𝑇1𝑏1 + 𝑇2𝑏2
𝑏1 + 𝑏2
La temperatura di contatto è importante perché è quella che percepiamo quando tocchiamo qualcosa Tabella dei coefficienti
Materiale
Densità
[Kg/m3]
Conducibilità termica k [W/mK]
Coefficiente di Fourier a
[m2/s] x 10-7
Coefficiente di contatto b [J/m2Ks1/2]
Aria 1.161 0.03 225
Schiuma poliuretano 70 0.03 3.6 44
Carta 930 0.18 1.4 470
Vetro 2500 1.40 7.5 1620
Malta cementizia 1860 0.72 4.96 1020
Mattoni 1920 0.72 4.49 1075
Ferro 7870 80.2 228 17000
Alluminio 2700 237 972 24000
Rame 8933 401 1166 37000
L’equazione del calore
21
Consideriamo un materiale omogeneo a forma di parallelepipedo (una porzione di un muro) di
superficie A e spessore d. Il materiale abbia densità , calore specifico cs e conducibilità termica k. Immaginiamo che la sezione A sia molto grande rispetto allo spessore d (es, A = 2 m2, d = 10 cm). La massa m del materiale sarà il prodotto della densità per il volume 𝑚 = 𝜌 ∙ 𝐴 ∙ 𝑑
Se il materiale modifica la sua temperatura di una quantità T, l’equazione fondamentale della calorimetria ci permette di determinare la variazione della sua energia interna
∆𝑈 = 𝑚 𝑐𝑠 ∆𝑇 Se le due facce sono mantenute a diverse temperature, all’interno del materiale si avrà un flusso di calore costante descritto dalla legge di Fourier
∆𝑄
∆𝑡= 𝑘
𝐴
𝑑 ∆𝑇
Dove T rappresenta la differenza delle temperature. Il flusso di energia sarà dalla faccia a temperatura maggiore verso quella a temperatura minore (principio zero della termodinamica). In condizione stazionarie, cioè se le temperature delle due facce si mantengono costanti (anche se diverse tra loro) nel tempo, si ha un flusso costante di energia che attraversa il materiale e non si
ha accumulo di energia al suo interno (U = 0). L’andamento della temperatura all’interno del materiale sarà descritto da una retta.
La condizione stazionaria non è molto comune, specialmente se intendiamo applicare le equazioni descritte sopra per descrivere gli scambi di calore attraverso le pareti di un edificio. Migliore qualità della vita all’interno si ha quanto più la temperatura interna è stabile e confortevole mentre la temperatura all’esterno varia per tutti i motivi che possiamo immaginare, l’alternanza giorno notte, il vento, la pioggia, etc. Consideriamo allora una situazione non stazionaria, dove la temperatura esterna T1 cambia nel tempo e modifica, di conseguenza, la temperatura T2 all’interno. Il profilo di temperatura nel materiale non sarà né stabile nel tempo né descritto da una linea retta, inoltre il nostro materiale accumulerà temporaneamente calore e lo rilascerà.
Condizione stazionaria
T2
T1
Q/t
A
d
22
Proviamo a descrivere la situazione. Supponiamo che ad un certo istante di tempo t il profilo di temperatura dentro il materiale sia quello descritto in figura,
Consideriamo una sottile fetta del materiale di spessore X (piccolo ma non piccolissimo, in matematica una variazione piccolissima di una grandezza viene detta “infinitesima”), osservando la figura notiamo che attraverso le due facce ci saranno flussi di calore diversi perché la variazione locale (su uno spessore infinitesimo) della temperatura è diversa, maggiore sulla faccia sinistra e
minore su quella destra. Nella parte di materiale individuata dallo spessore X ci sarà, quindi, un temporaneo accumulo di energia determinato dalla diversità dei flussi entranti e uscenti.
𝑑𝑈 = 𝑘 𝐴 [𝑑𝑇
𝑑𝑥|𝑥 −
𝑑𝑇
𝑑𝑥|𝑥+∆𝑥] 𝑑𝑡
dU è l’aumento dell’energia interna che avviene nell’intervallo di tempo dt che produce una variazione infinitesima di temperatura dT, la variazione del flusso è determinata dalla variazione locale di temperatura calcolata sulla faccia sinistra (coordinata x) e sulla faccia destra (coordinata x
+ x). Esprimiamo ora la variazione dell’energia interna in funzione dell’equazione fondamentale della calorimetria, otteniamo
𝜌 𝐴 ∆𝑥 𝑐𝑠 𝑑𝑇 = 𝑘 𝐴 [𝑑𝑇
𝑑𝑥|𝑥 −
𝑑𝑇
𝑑𝑥|𝑥+∆𝑥] 𝑑𝑡
Che può essere riscritta come
𝑑𝑇
𝑑𝑡=
𝑘
𝜌𝑐𝑠 [𝑑𝑇𝑑𝑥
|𝑥 − 𝑑𝑇𝑑𝑥
|𝑥+∆𝑥]
∆𝑥
Il termine a sinistra indica la variazione della temperatura nel tempo, il primo termine a destra indica una costante che indicheremo con la lettera a caratteristica del materiale, Il secondo termine (sempre a destra) indica il cambiamento della variazione di temperatura lungo la coordinata x (in matematica rappresenta la curvatura del profilo di temperatura). Se ora
consideriamo x come molto piccolo (infinitesimo) abbiamo:
T1
(cambia nel tempo)
Condizione non stazionaria
T2 Q/t ≠ costante
A
d
x
23
𝑑𝑇
𝑑𝑡= 𝑎
𝑑2𝑇
𝑑𝑥2
Otteniamo così (non senza acrobazie) la famosa equazione del trasporto del calore che lega la variazione nel tempo della temperatura con la curvatura del profilo spaziale della temperatura stessa. Messa così è poco utile, però permette di riscostruire l’andamento spaziale della temperatura se si conosce come varia nel tempo e il valore della temperatura su una superficie e se si dispone di un computer e di un poco di pazienza. La costante a è il rapporto della conducibilità termica con il prodotto della densità per il calore specifico, ed è chiamata “diffusività termica”, le sue dimensioni sono [m2/s]. Flusso di calore attraverso una parete piana con andamento periodico Passiamo subito al caso che più interessa, ci chiediamo come cambia la temperatura dentro un muro (e sulla superficie interna) quando la temperatura varia su una delle due superfici, magari in modo periodico (periodo = 24 h) oscillando intorno ad un valore medio. Esiste anche un regime variabile (non stazionario) che si ha per esempio nel caso di una variazione repentina della temperatura di una delle due facce limite di una parete, osserviamo che il regime di temperatura nella parete si può raggiungere a profondità più o meno elevate, a seconda di come varia il parametro a (diffusività termica). In sintesi, un repentino crollo di temperatura può essere avvertito, attraverso le diverse sezioni trasversali della parete dopo un tempo estremamente variabile, in funzione del parametro a . Per sintetizzare definiamo: Conducibilità termica: k attitudine di un materiale a condurre il calore.
Capacità termica: ×cs (densità x calore specifico) quantità di energia che un materiale è in grado di accumulare per unità di volume.
Diffusività termica: a rapporto del calore trasmesso per conduzione rispetto al
calore accumulato per unità di volume (k/cs). l'ampiezza della semi-escursione di temperatura T(x), determinata alla profondità x è legata a quella iniziale T0 dalla relazione che definisce lo smorzamento μ dell'oscillazione di temperatura:
𝜇 = 𝑇(𝑥)
𝑇0= 𝑒−𝛽𝑥
Il coefficiente rappresenta l’inverso della distanza per la quale la temperatura è ridotta di fattore 1/e (circa un terzo). E’ ragionevole pensare che questo parametro dipenda dalla conducibilità termica (a maggiore conducibilità corrisponde una maggiore profondità di penetrazione), ci aspettiamo anche una dipendenza dalla frequenza dell’oscillazione (oscillazioni veloci daranno un contributo basato sulla media, quindi si avvertiranno solo a piccole profondità). Si dimostra che il
parametro ha la seguente dipendenza:
𝛽 = √𝜔 ∙ 𝜌 ∙ 𝑐𝑠
2 ∙ 𝑘
24
Un altro parametro importante è il tempo di ritardo o sfasamento, cioè il tempo necessario affinché sulla faccia interna si risentano i massimi e i minimi di temperatura rispetto all'istante in cui essi si verificarono sulla faccia esterna, si calcola in corrispondenza dell'annullamento della funzione seno e si ha:
𝜏𝑅 = 𝛽 ∙ 𝑑
𝜔= 𝛽 ∙ 𝑑 ∙
𝜏0
2𝜋= √
𝜔 ∙ 𝜌 ∙ 𝑐𝑠
2 ∙ 𝑘∙
𝑑
𝜔= √
𝜌 ∙ 𝑐𝑠
2 ∙ 𝑘 ∙ 𝜔∙ 𝑑
Dove 0 rappresenta il periodo dell’oscillazione sulla faccia esterna. In edilizia è importante avere un tempo di ritardo di circa 12 ore per sfruttare al meglio l’oscillazione della temperatura. Possiamo definire anche una velocità di propagazione dell’oscillazione
𝑣 = √2 ∙ 𝑎 ∙ 𝜔 = √2 ∙𝑘
𝜌 ∙ 𝑐𝑠∙ 𝜔
Il reciproco della velocità è il parametro che abbiamo trovato nell’espressione precedente e rappresenta il tempo che la perturbazione impiega per propagarsi di un metro.
Per riassumere potremmo dire che il flusso di calore attraverso una parete, dove la temperatura su una faccia cambia, varia con la stessa frequenza. Sarà importante osservare che una variazione di temperatura su una faccia non si tramette immediatamente perché il calore viene assorbito dalla parete stessa, cioè in caso di aumento di temperatura su una faccia di una parete, la temperatura crescerà anche all’interno della parete nella misura in cui l’energia assorbita dalla parete stessa non comporti una aumento della temperatura all’interno. In tal caso l’aumento di temperatura “si propagherà” con una velocità che dipende dalla conducibilità termica ma sarà ostacolata dalla capacità termica che “trattiene il calore”. I caso di temperatura oscillante in regime periodico è ragionevole pensare che variazioni non si propagheranno fino a grandi profondità per cui possiamo pensare che l’interno di una parete molto spessa (quando l’esterno è esposto a variazioni periodiche della temperatura) sia a temperatura costante corrispondente alla media dell’oscillazione. L’ampiezza dell’oscillazione si attenua seguendo una funzione esponenziale decrescente e le variazioni di temperatura ad una determinata profondità saranno ritardate rispetto alle corrispondenti variazioni sulla faccia esterna. Il sistema si comporta come un
Andamento della temperatura sulla parete esterna e su quella interna. I parametri importanti sono due: Attenuazione che è il rapporto tra la semi escursione massima sulla parete interna e la semi escursione massima sulla parete esterna; Sfasamento che è la distanza temporale tra il massimo della temperatura sulla parete interna e su quella esterna.
25
circuito elettrico con resistenza e condensatore, anche in questo caso il prodotto della resistenza termica per la capacità termica ha le dimensioni di un tempo:
𝜏𝑐 = 𝑅𝑇 ∙𝐶𝑇 = 𝑑
𝐴 ∙ 𝑘 ∙ 𝑚 ∙ 𝑐𝑠 =
𝑑
𝐴 ∙ 𝑘 ∙ 𝜌 ∙ 𝐴 ∙ 𝑑 ∙ 𝑐𝑠 =
𝑑2
𝑘∙ 𝜌 ∙ 𝑐𝑠 →
[𝑚2]
[𝑊𝑚𝐾⁄ ]
∙ [𝐾𝑔
𝑚3] ∙ [𝑊 ∙ 𝑠
𝐾𝑔 ∙ 𝐾] = [𝑠]
Che prende il nome di tempo caratteristico di un edificio o semplicemente costante tempo e rappresenta quanto rapidamente cambi la temperatura in un edificio dove il riscaldamento o il raffrescamento è interrotto. Dobbiamo fare attenzione a non confondere la costante tempo che è una caratteristica del materiale e dello spessore della parete con il tempo di ritardo che dipende dal periodo di oscillazione della temperatura su una delle due facce.
Facciamo un esempio.
Consideriamo una parete di mattoni di spessore d = 15 cm, siano la densità = 1900 kg/m3, la
conducibilità termica k = 0.7 [W/m·K], il calore specifico cs = 850 J/Kg·K, sia il periodo
dell’oscillazione di 24 h corrispondente ad una pulsazione 𝜔 = 2𝜋
𝑝𝑒𝑟𝑖𝑜𝑑𝑜 =
6.28
86400= 7.27 × 10−5 𝑟𝑎𝑑/𝑠
In questo caso abbiamo:
𝜏𝑐 =𝑑2
𝑘∙ 𝜌 ∙ 𝑐𝑠 =
0.152
0.7∙ 1200 ∙ 850 = 32800 [𝑠] ≈ 9 ℎ
𝜏𝑅 = √𝜌 ∙ 𝑐𝑠
2 ∙ 𝑘 ∙ 𝜔∙ 𝑥 = √
1200 ∙ 850
2 ∙ 0.7 ∙ 7.27 ∙ 10−5∙ 0.15 = 15000 [𝑠] ≈ 4 ℎ
Lo spessore indicato non sembra essere adatto ad una parete di un edificio. Per esercizio
determinare lo spessore di una parete di mattoni per avere un tempo di ritardo di 12 h
La Trasmittanza
In edilizia la conduzione termica avviene non necessariamente attraverso strati paralleli e uniformi
per cui, si rende necessario caratterizzare gli scambi di calore attraverso singoli manufatti o
Schema riassuntivo dei fenomeni legati alla trasmissione del calore attraverso una parete in caso di andamento sinusoidale della temperatura su una delle due facce
26
porzioni, descrivendo il manufatto per il suo comportamento rispetto alla trasmissione di calore
per unità di superficie. Riprendendo l’equazione di Fourier per uno strato piano, si definisce la
trasmittanza U
∆𝑄
∆𝑡= 𝑘
𝐴
𝑑 ∆𝑇 = 𝑈 ∙ 𝐴 ∙ ∆𝑇
Per cui, in generale, possiamo definire la trasmittanza come 𝑈 = ∆𝑄
∆𝑡⁄
𝐴∙∆𝑇 [
𝑊
𝑚2𝐾] =
𝑘
𝑑. Possiamo
interpretare la trasmittanza come il flusso di calore che attraversa un metro quadrato per ogni
grado di differenza di temperatura. Il prodotto della trasmittanza U per la superficie ci riporta al
reciproco della resistenza termica. A tal fine si veda il seguente documento dell’ENEA
sull’efficienza energetica utilizzato per il calcolo del risparmio energetico ai fini delle detrazioni
fiscali http://efficienzaenergetica.acs.enea.it/tecnici/trasmittanza.pdf
27
GAS PERFETTI Richiami di teoria cinetica dei gas. Un gas ideale è pensabile come un sistema fisico composto da un numero molto grande di
particelle tutte uguali tra loro, approssimabili con delle sfere rigide, che si muovono di moto
rettilineo uniforme, quando urtano le pareti del contenitore non perdono energia (urto elastico),
non si urtano tra loro (o meglio le loro dimensioni sono così piccole per cui possiamo trascurare le
interazioni interne), hanno un andamento disordinato e pertanto la loro densità media è uniforme
all’interno del contenitore. Le particelle, in prima approssimazione non sono soggette alla forza di
gravità né a forze di interazione reciproca.
Riportiamo la celebre dimostrazione di Maxwell sulla relazione tra energia cinetica media e
temperatura (dimostrazione un poco semplificata)
.
Consideriamo una scatola cubica di lato L all’interno della quale sono contenute N particelle (numero molto grande, milioni e oltre) ciascuna di massa m. Le particelle si muovono in tutte le direzioni possibili e con diverse velocità. La quantità di moto del sistema sarà mediamente nulla mentre il contenuto di energia (trascurando quella potenziale) sarà la somma delle energie
cinetiche delle particelle (il simbolo indica “somma di”)
𝐸𝑡𝑜𝑡𝑎𝑙𝑒 = ∑1
2𝑚𝑖𝑣𝑖
2
𝑁
𝑖=1
Il sistema ha lo stesso contenuto di energia se pensiamo che tutte le particelle abbiano la stessa velocità uguale alla velocità quadratica media (valore ottenuto facendo la media dei quadrati delle velocità). Cioè possiamo scrivere
𝐸𝑡𝑜𝑡𝑎𝑙𝑒 = ∑1
2𝑚𝑖𝑣𝑖
2
𝑁
𝑖=1
= 𝑁 ∙ 1
2𝑚 𝑣𝑚𝑒𝑑𝑖𝑎
2
Sempre senza perdere di generalità possiamo pensare che un terzo della particelle si muova lungo l’asse x, un terzo lungo l’asse y e un terzo lungo l’asse z. Consideriamo, allora, una particella in moto lungo l’asse x. Essa avrà quantità di moto p = m vmedia, quando urta la parete della scatola torna indietro con velocità -vmedia, pertanto ad ogni urto cede alla parete un impulso pari al doppio della sua quantità di moto. L’intervallo di tempo tra due urti
Le particelle del gas sono contenute in un recipiente cubico di
lato L, le particelle si muovono di moto rettilineo uniforme e
urtano elasticamente le pareti. Le velocità sono orientate in
modo casuale.
28
consecutivi sulla stessa parete sarà t = 2L/vmedia, pertanto, usando il teorema dell’impulso, la forza media che le particelle in moto lungo l’asse x (che sono un terzo del totale) esercitano su una parete è
𝐹𝑚𝑒𝑑𝑖𝑎 =𝑁
3 2𝑚𝑣
2𝐿𝑣
= 𝑁
3 𝑚𝑣2
𝐿
Se al posto della forza media sostituiamo la pressione p moltiplicata per l’area L2 di una delle facce otteniamo
𝑝 ∙ 𝐿2 = 𝑁
3 𝑚𝑣2
𝐿 → 𝑝 ∙ 𝐿3 =
2
3 𝑁
1
2 𝑚 𝑣2 → 𝑝 ∙ 𝑉 =
2
3 𝑁
1
2 𝑚 𝑣2 → 𝑝 ∙ 𝑉 =
2
3 𝑁 𝐸𝑐
Dove Ec è l’energia cinetica media della particella. Se confrontiamo l’ultima espressione con la l’equazione di stato dei gas perfetti (scritta nella formulazione con il numero N di particelle e la costante di Boltzmann k)
𝑝 ∙ 𝑉 = 𝑁 ∙ 𝑘 ∙ 𝑇 Otteniamo
𝑁 ∙ 𝑘 ∙ 𝑇 = 2
3 𝑁 𝐸𝑐
Da cui la famosa relazione
𝐸𝑐(𝑚𝑒𝑑𝑖𝑎) = 3
2 ∙ 𝑘 ∙ 𝑇
Con questa dimostrazione Maxwell lega le grandezze come il volume, la pressione e soprattutto la Temperatura con delle grandezze “classiche” come la velocità e la massa, in particolare fissa la relazione già compresa a livello sperimentale che la temperatura sia legata al moto delle particelle, nello specifico all’Energia Cinetica Media. Il valore di questa dimostrazione non è solo didattico, essa fu un importante contributo alla così detta teoria atomica (cioè quella che ai tempi di Maxwell, seconda metà del 19esimo secolo, era solo un modo di pesare alla costituzione della materia come fatta di particelle indivisibili dette atomi) che era in attesa delle conferme che arriveranno negli anni seguenti. E’ utile, per esercizio, stimare la velocità traslazione media che hanno le molecole dei gas a temperatura ambiente secondo la teoria cinetica. Ricordiamo che i gas che compongono l’aria sono in prevalenza molecolari, cioè composti da molecole non semplici (Azoto e Ossigeno che sono biatomici, acqua e anidride carbonica che sono triatomici, solo l’Argo è monoatomico) e che l’energia si ripartisce in energia di traslazione del centro di massa e in energia di rotazione (un po’ come quando si osserva il moto di un bastone). L’equazione di riferimento è
1
2𝑚𝑣2 =
3
2 ∙ 𝑘 ∙ 𝑇
Per cui la velocità sarà
𝑣 = √3 ∙ 𝑘 ∙ 𝑇
𝑚
m è la massa di una singola molecola espressa in kilogrammi e può essere calcolata ricordando che la massa molecolare PM in chimica rappresenta quella quantità espressa in grammi di un sostanza che contiene un numero di Avogadro NA di molecole, pertanto avremo
29
𝑚 = 𝑃𝑀
1000 ∙ 𝑁𝐴
Sostituendo nell’espressione della velocità otteniamo
𝑣 = √3 ∙ 𝑘 ∙ 𝑇
𝑃𝑀
1000 ∙ 𝑁𝐴
= √3000 ∙ 𝑘 ∙ 𝑁𝐴 ∙ 𝑇
𝑃𝑀= √
3000 ∙ 𝑅 ∙ 𝑇
𝑃𝑀
Ora l’espressione della velocità ha una forma un po’ più gestibile, nel caso dell’ossigeno dell’aria O2, abbiamo PM = 32, T = 300 K, quindi
𝑣𝑜𝑠𝑠𝑖𝑔𝑒𝑛𝑜 = √3000 ∙ 𝑅 ∙ 𝑇
𝑃𝑀= √
3000 ∙ 8.3 ∙ 300
32= √233438 ≅ 480 𝑚/𝑠
Una velocità sorprendente, maggiore di quella del suono. Spesso è conveniente esprimere la caratteristiche del gas attraverso la pressione p che il gas esercita sulle pareti del contenitore e il volume V o attraverso la densità, cioè riprendendo l’ultima parte della dimostrazione abbiamo
𝑝 ∙ 𝑉 = 2
3 𝑁
1
2 𝑚 𝑣2 → 𝑣 = √
3 ∙ 𝑝 ∙ 𝑉
𝑁 ∙ 𝑚
Il prodotto N·m è la massa totale del gas, per cui
𝑣 = √3 ∙ 𝑝
𝑁 ∙ 𝑚𝑉
= √3 ∙ 𝑝
𝜌
Dove è la densità del gas espressa in kg/m3. Un gas di ossigeno molecolare che esercitasse la
pressione p = 1 Atm avrebbe densità = 1.43 kg/m3, risulta facile ripetere il calcolo della velocità media. Si tratta della stessa temperatura dell’esempio precedente. La velocità calcolata è quella media (quadratica media, radice della media dei quadrati) però non tutte le molecole avranno la stessa velocità, anzi non è nemmeno detto che la velocità così calcolata sia quella posseduta dal maggior numero di molecole. Infatti è più corretto parlare di “distribuzione di velocità”, Maxwell descrisse anche come le varie velocità fossero distribuite, la sua ipotesi è stata verificata sperimentalmente con un apparato come quello in figura (esperimento di Esterman, Simpson e Stern)
Schema dell'apparto sperimentale usato per misurare la distribuzione delle velocità. Le particelle emesse dal forno F emergono nel tubo solo se hanno velocità orizzontale, proseguono di moto parabolico. La misura di h permette di risalire alla velocità orizzontale.
30
In un apparecchiatura mantenuta sotto alto vuoto un piccolo forno F contiene dei vapori di cesio a temperatura costante T. Le molecole di cesio che escono dal fornetto incontrano due diaframmi
che lasciano passare solo quelle dirette orizzontalmente verso la parete C. A causa della forza di gravità le molecole faranno un moto parabolico (il vuoto spinto garantisce assenza di attrito), con un sensore posto in D e mobile verticalmente di può determinare quante molecole arrivano a ciascuna altezza h che dipende dalla velocità orizzontale e quindi ricostruire la distribuzione delle velocità ad una determinata temperatura T. La legge delle pressioni parziali Una diretta conseguenza della teoria cinetica è la legge delle pressioni parziali di Dalton, formulata
nel 1807 (prima della teoria di Maxwell), afferma che la pressione totale esercitata da una miscela
ideale di gas ideali, è uguale alla somma delle pressioni parziali che sarebbero esercitate dai gas se
fossero presenti da soli in un eguale volume, quindi, la pressione parziale pi di un componente di
una miscela di gas è la pressione che questo avrebbe qualora occupasse, da solo, il volume a
disposizione dell'intera miscela.
Se, ad esempio, in un recipiente di volume V = 1 m3 è contenuta aria secca a pressione
atmosferica, l’azoto contribuirà per il 78% alla pressione (esercitando sulle pareti del contenitore
un pressione pN2 = 0.78x101325 Pa = 79015 Pa), l’ossigeno contribuirà per il 21% (esercitando una
pressione pO2 = 0.21x101300 Pa = 21275 Pa), l’Argon per lo 0.9%. E’ doveroso ricordare che la
pressione esercitata da un gas è proporzionale al numero di molecole, per cui se applicando la
legge delle pressioni si conoscono concentrazioni delle varie specie è bene assicurarsi che esse
siano espresse come frazioni in volume e non in frazioni di massa
Esempio della legge delle pressioni parziali: nel terzo cilindro la pressione è la somma delle pressioni nei primi due
Equazione di Stato dei Gas Perfetti
Distribuzione delle velocità
dell’ossigeno molecolare a tre diverse
temperature: -100 °C, 20 °C, 600 °C.
La velocità quadratica media coincide con
il picco della distribuzione solo ad alte
temperature quando la distribuzione
tende ad essere simmetrica
31
Il gas perfetto in equilibrio è descritto dall’equazione di stato 𝑝𝑉 = 𝑛 𝑅 𝑇, che lega tra loro le tre
variabili di stato P, V e T (Pressione, Volume, Temperatura) mediante il numero di moli n e la
costante R (R è il prodotto di altre due costanti, la costante di Boltzmann k = 1.38x10-23 [J/K] e il
numero di Avogadro NA = 6.022x1023). Se la pressione è espressa in Pascal, la temperatura in gradi
Kelvin e il volume in metri cubi, se n è il numero di moli di gas la costante avremo R = 8.315
[J/K·mole].
Lo studio dei gas ha una grande importanza perché il loro volume può cambiare in modo
importante al variare della temperatura, i gas sono facilmente trasportabili mediante tubi o
condotte. Sono pertanto lo strumento adeguato per recuperare lavoro meccanico (energia
utilizzabile) dal calore che risulta essere energia facile da “produrre” ma spesso utilizzabile e solo
per scambi termici (l’energia non si produce perché si conserva, il termine qui usato “produrre” sta
a significare la facilità con la quale si possono trasformare altri tipi di energia, chimica, potenziale
elettrica etc, in energia termica).
Lo studio dei gas deve quindi essere affrontato insieme alle modificazioni dei parametri p, V, T
(trasformazioni) in relazione agli scambi energetici. Questa parte si chiama termodinamica.
La teoria cinetica dei gas assume un modello di gas perfetto basato, tra le altre, sulle seguenti due
ipotesi:
- Le molecole del gas sono sferette rigide puntiformi
- L’energia di interazione tra le molecole è nulla
Il piano pV
Oltre che alla descrizione di una situazione stabile dei parametri Pressione, Temperatura, Volume,
è importante poter descrivere un gas quando, scambiando calore con l’ambiente, modifica uno o
più parametri. Si dice che il gas subisce una trasformazione. Se la trasformazione avviene
lentamente possiamo ragionevolmente ritenere che l’equazione di stato sia valida durante la
successione temporale della trasformazione, in tal caso si parla di trasformazione reversibile (cioè
che può essere fatta anche al contrario: Es. se facciamo aumentare la pressione di un gas a volume
costante scaldandolo, sarà possibile riportarlo nella condizione inziale raffreddandolo), spesso le
trasformazioni reversibili sono definite con “successione di stati equilibrio”. Lo strumento grafico
per descrivere le trasformazioni reversibili è il piano p-V, dove lo stato di una gas è rappresentato
in un piano cartesiano usando come coordinate la pressione e il volume. Esempio, un
trasformazione di un gas in cui la temperatura resta costante (isoterma), legherà l’espansione del
gas (aumento di volume) alla diminuzione della pressione. Il grafico che ne risulta è un ramo di
iperbole. Al crescere della temperatura il grafico sarà “più lontano” dagli assi come in figura.
32
Andamento delle Isoterme di un gas perfetto per n = 1 moli
Le atre trasformazioni comuni sono l’isobara (pressione costante) e l’isocora (volume costante) e l’adiabatica (senza scambio di calore). Il primo principio della termodinamica E’ il principio di conservazione dell’energia nella sua forma generale, afferma che l’energia scambiata da un sistema fisico (esempio una certa quantità di gas contenuta in un recipiente chiuso da un pistone mobile) è uguale alla somma del lavoro meccanico fatto dal sistema più la
variazione dell’energia interna. Indicando con Q l’energia scambiata (calore scambiato), con L il
lavoro meccanico e con U la variazione dell’energia interna abbiamo
∆𝑄 = 𝐿 + ∆𝑈 Vedremo come il venire meno di queste ipotesi influenzi il comportamento di un gas reale. Trasformazione ISOBARA (pressione costante)
Una trasformazione reversibile a pressione a costante può avvenire con un dispositivo come quello schematizzato nella figura sovrastante a destra. Un gas è contenuto in cilindro chiuso da un pistone mobile. Il cilindro è termicamente isolato sulla superficie laterale mentre può scambiare
Trasformazione ISOBARA. Al gas contenuto nel cilindro viene fornito calore mediante il contatto con un serbatoio termico. Il gas è libero di espandersi, sul pistone mobile sono appoggiati dei pesi per garantire la pressione costante
33
calore attraverso la faccia inferiore in contatto con un serbatoio termico a temperatura regolabile. Nello spazio sopra il pistone è praticato il vuoto e la pressione del gas è bilanciata con dei pesi appoggiato sopra il pistone. Pertanto se il gas assorbe calore attraverso la base del cilindro compirà una espansione a pressione costante e contemporaneamente aumenterà di temperatura perché, come si vede nella figura a sinistra, una espansione a pressione costante intercetta linee isoterme a temperatura crescente. Secondo il primo principio avremo
∆𝑄 = 𝐿 + ∆𝑈 = 𝑝∆𝑉 + ∆𝑈(𝑇) Nel caso un gas perfetto monoatomico, come si ricava dalla dimostrazione delle teoria cinetica dei gas, abbiamo
∆𝑄 = 𝐿 + ∆𝑈 = 𝑝(𝑉𝑓 − 𝑉𝑖) + 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
Sostituendo ai volumi finale e iniziale la loro espressione ricavata dall’equazione dei GAS otteniamo
∆𝑄 = 𝐿 + ∆𝑈 = 𝑝(𝑛𝑅𝑇𝑓
𝑝−
𝑛𝑅𝑇𝑖
𝑝) +
3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
Semplificando per p che resta costante abbiamo
∆𝑄 = 𝐿 + ∆𝑈 = 𝑛𝑅(𝑇𝑓 − 𝑇𝑖) + 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
𝐿 = 𝑛𝑅(𝑇𝑓 − 𝑇𝑖) ∆𝑈 = 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖) ∆𝑄 =
5
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
L’ultima espressione, confrontata con l’equazione fondamentale della calorimetria, permette di calcolare il calore specifico di una mole gas che compie una trasformazione a pressione costante, pertanto si ha
∆𝑄 = 𝑚𝑐𝑠∆𝑇 = 5
2𝑛𝑅∆𝑇 𝑐𝑆 = 𝑐𝑝 =
5
2𝑅
In genere si usa quindi definire il calore specifico a pressione costante cp, che risulta essere lo stesso per tutti gas monoatomici se calcolato mediante uno scambio di calore a pressione costante. Osserviamo che il calore specifico come calcolato dall’espressione precedente è diverso dal calore specifico tabulato per i solidi e per i liquidi ed è definito non per l’unità di massa ma per una mole e per questo motivo è chiamato calore specifico molare. Facciamo un esempio: supponiamo di avere n = 41 moli alla temperatura T = 300 K che occupano
un volume V1 = 1 m3 (la pressione che ne risulta è 𝑝 = 𝑛𝑅𝑇𝑉⁄ = 41 ∙ 8.3 ∙ 300 1⁄ = 102000 𝑃𝑎
(circa la pressione atmosferica), questo gas compie una trasformazione isobara fino ad un volume
V2 = 3V1 = 3 m3. Determiniamo il lavoro L fatto dal gas durante l’espansione, la variazione U
dell’energia interna e il calore totale Q assorbito da gas.
𝐿 = 𝑛𝑅(𝑇𝑓 − 𝑇𝑖) = 41 ∙ 8.3 ∙ (900 − 300) = 204180 J
∆𝑈 = 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖) = 1.5 ∙ 41 ∙ 8.3 ∙ (900 − 300) = 306270 J
∆𝑄 =5
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖) = 2.5 ∙ 41 ∙ 8.3 ∙ (900 − 300) = 510450 J
Come osservazione notiamo che il rendimento della trasformazione, inteso come rapporto tra lavoro meccanico e calore assorbito risulta
34
𝜂 = 𝐿
∆𝑄=
𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
52 𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
= 2
5= 0.4 (40%)
Trasformazione ISOCORA (volume costante)
Trasformazione ISOCORA (volume costante), al gas contenuto nel cilindro viene fornito calore mediante il contatto con un serbatoio termico. Il pistone è bloccato per cui il volume resta costante
Il trasformazione isocora è semplice da immaginare da descrivere, un certa quantità di gas è contenuta in un cilindro chiuso da un pistone NON libero di muoversi, se al gas viene ceduta una certa quantità di calore DQ, il gas si scalderà e aumenterà la pressione. Poiché il gas NON si espande il lavoro L compiuto sarà nullo L = 0 J. Un aumento di pressione a volume costante intercetta linee isoterme a temperatura crescente. Secondo il primo principio avremo
∆𝑄 = 𝐿 + ∆𝑈 = 0 + ∆𝑈(𝑇) Nel caso un gas perfetto monoatomico, come si ricava dalla dimostrazione delle teoria cinetica dei gas, abbiamo
∆𝑄 = ∆𝑈 = 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
𝐿 = 0 ∆𝑈 = 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖) ∆𝑄 =
3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
L’ultima espressione, confrontata con l’equazione fondamentale della calorimetria, permette di calcolare il calore specifico di una mole gas che compie una trasformazione a volume costante, pertanto si ha
∆𝑄 = 𝑚𝑐𝑠∆𝑇 = 3
2𝑛𝑅∆𝑇 𝑐𝑣 =
3
2𝑅
Si definisce così il calore specifico a volume costante, che risulta essere lo stesso per tutti gas monoatomici se calcolato mediante uno scambio di calore a volume costante. Facciamo un esempio: supponiamo di avere n = 41 moli alla temperatura T = 300 K che occupano
un volume V1 = 1 m3 (la pressione che ne risulta è 𝑝 = 𝑛𝑅𝑇𝑉⁄ = 41 ∙ 8.3 ∙ 300 1⁄ = 102000 𝑃𝑎
(circa la pressione atmosferica), questo gas compie una trasformazione isocora fino a p2 = 3p1 = 306000 Pa. Determiniamo l’eventuale lavoro L fatto dal gas durante la trasformazione, la
variazione U dell’energia interna e il calore totale Q assorbito da gas.
𝐿 = 𝑝∆𝑉 = 0 J
35
∆𝑈 = 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖) = 1.5 ∙ 41 ∙ 8.3 ∙ (900 − 300) = 306270 J
∆𝑄 = ∆𝑈 = 306270 J
Come osservazione notiamo che il rendimento della trasformazione, inteso come rapporto tra lavoro meccanico e calore assorbito risulta
𝜂 = 𝐿
∆𝑄=
0
52 𝑛𝑅(𝑇𝑓 − 𝑇𝑖)
= 0
5= 0 (0%)
Trasformazione ISOTERMA (temperatura costante)
Se il gas assorbe lentamente calore attraverso la base del cilindro compirà una espansione a temperatura costante, al crescere del volume essendo costante la temperatura e, quindi, la velocità delle particelle di gas, la pressione diminuirà, come si vede in figura. Secondo il primo principio avremo
∆𝑄 = 𝐿 + ∆𝑈 = 𝑝∆𝑉 + ∆𝑈(𝑇)
Poiché la temperatura non cambia avremo U = 0 mentre per il calcolo del lavoro osserviamo che la pressione diminuisce al crescere del volume. Si può dimostrare (ma la matematica necessaria esula dalle finalità di questo testo) che
∆𝑄 = 𝐿 + ∆𝑈 = 𝑛𝑟𝑇 ln𝑉𝑓
𝑉𝑖+ 0
𝐿 = 𝑛𝑅𝑇 ln𝑉𝑓
𝑉𝑖 ∆𝑈 = 0 ∆𝑄 = 𝑛𝑅𝑇 ln
𝑉𝑓
𝑉𝑖
Facciamo un esempio: supponiamo di avere n = 41 moli alla temperatura T = 300 K che occupano
un volume V1 = 1 m3 (la pressione inziale che ne risulta è 𝑝 = 𝑛𝑅𝑇𝑉⁄ = 41 ∙ 8.3 ∙ 300 1⁄ =
102000 𝑃𝑎, circa la pressione atmosferica), questo gas compie una trasformazione isoterma fino a
V2 = 3V1 = 3 m3. Determiniamo il lavoro L fatto dal gas durante l’espansione, la variazione U
dell’energia interna e il calore totale Q assorbito da gas.
Una trasformazione isoterma
reversibile può essere
ottenuta facendo espandere
lentamente un gas
mantenendo il recipiente in
contatto con un bagno termico
a temperatura costante
36
𝐿 = 𝑛𝑅𝑇 ln𝑉𝑓
𝑉𝑖= 41 ∙ 8.3 ∙ 300 ∙ ln 3 = 112157 J
∆𝑈 = 3
2𝑛𝑅(𝑇𝑓 − 𝑇𝑖) = 0 J
∆𝑄 = 𝑛𝑅𝑇 ln𝑉𝑓
𝑉𝑖= 41 ∙ 8.3 ∙ 300 ∙ ln 3 = 112157 J
Come osservazione notiamo che il rendimento della trasformazione, inteso come rapporto tra lavoro meccanico e calore assorbito risulta
𝜂 = 𝐿
∆𝑄=
𝑛𝑟𝑇 log𝑉𝑓
𝑉𝑖
𝑛𝑟𝑇 log𝑉𝑓
𝑉𝑖
= 1 (100%)
non male se le trasformazioni isoterme fossero semplici da realizzare. Trasformazione ADIABATICA (senza scambio di calore)
Trasformazione ADIABATICA (il gas non scambia calore con l'ambiente esterno) Il cilindro è termicamente isolato. Se la pressione del gas risulta essere maggiore di quella esterna e il pistone è libero di muoversi si avrà una espansione. Il lavoro compiuto porta ad una diminuzione dell’energia interna con conseguente raffreddamento. La trasformazione adiabatica può avvenire nel seguente modo, attraverso una trasformazione isocora si porta un gas ad alta temperatura e alta pressione poi lo si lascia libero di espandersi senza poter scambiare calore, il gas nell’espansione compirà lavoro a spese della propria energia interna con conseguente raffreddamento. Nel piano pV la curva che descrive una trasformazione adiabatica è simile a quella di una isoterma ma più ripida, poiché al crescere del volume la temperatura diminuisce e la curva dell’adiabatica va a intercettare isoterme a temperatura inferiore. Partendo dal primo principio della termodinamica abbiamo
∆𝑄 = 𝐿 + ∆𝑈 = 𝑝∆𝑉 + ∆𝑈(𝑇) = 0
𝑝∆𝑉 = −𝑛𝑐𝑣∆𝑇 Se consideriamo una piccola variazione di stato nell’equazione dei gas avremo
𝑉 ∆𝑝 + 𝑝 ∆𝑉 = 𝑛𝑅 ∆𝑇
37
𝑉 ∆𝑝 = −𝑝∆𝑉 + 𝑛𝑅∆𝑇 = 𝑛𝑐𝑣∆𝑇 + 𝑛𝑅∆𝑇 = (𝑐𝑣 + 𝑅)𝑛∆𝑇 = 𝑐𝑝 𝑛∆𝑇
Dividendo membro a membro otteniamo
𝑉∆𝑝
𝑝∆𝑉= −
𝑛𝑐𝑝∆𝑇
𝑛𝑐𝑣∆𝑇
Semplificando e definendo 𝛾 = 𝑐𝑝 𝑐𝑣⁄ otteniamo
∆𝑝
𝑝= − 𝛾
∆𝑉
𝑉
Simile a quello che otterremmo per una isoterma se non per il fattore (che è maggiore di 1), si può dimostrare che la trasformazione adiabatica è descritta da una relazione del tipo
𝑝𝑉𝛾 = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒 Il lavoro di una trasformazione adiabatica (il cui calcolo analitico esula dagli obiettivi di questi appunti) può essere espresso nel seguente modo
𝐿 = −1
𝛾 − 1(𝑝𝑓𝑉𝑓 − 𝑝𝑖𝑉𝑖) ∆𝑈 = −𝐿 = 𝑛𝑐𝑣∆𝑇 ∆𝑄 = 0
Come esempio consideriamo il gas monoatomico al termine dell’esempio della trasformazione
isocora: n = 41 moli Vi = 1 m3, pi = 306000 Pa (Ti circa 900 K), lasciamo il gas libero di espandersi in
atmosfera, valutiamo l’espansione fino a quando la pressione del gas non eguaglia quella
atmosferica, ipotizziamo che la trasformazione del gas sia adiabatica reversibile, cerchiamo il
volume finale del gas Vf, la temperatura finale Tf, il lavoro L compiuto dal gas e la variazione di
energia interna.
Come prima cosa determiniamo il volume finale osservando che
𝑝𝑖𝑉𝑖𝛾
= 𝑝𝑓𝑉𝑓𝛾
𝑉𝑓 = √𝑝𝑖𝑉𝑖
𝛾
𝑝𝑓
𝛾
Essendo 𝛾 = 𝑐𝑝 𝑐𝑣⁄ = 2.5𝑅 1.5𝑅 = 1.67⁄ , otteniamo
𝑉𝑓 = 33
5⁄ = 30.6 = 1.93 𝑚3
Il lavoro compiuto dal gas e la conseguente diminuzione di energia interna sarà
𝐿 = −1
𝛾 − 1(𝑝𝑓𝑉𝑓 − 𝑝𝑖𝑉𝑖) = −
1
53 − 1
(102000 ∙ 1.93 − 306000 ∙ 1) = 163710 J
La variazione di temperatura conseguente sarà
38
∆𝑇 = −𝐿
𝑛 𝑐𝑣=
−163710
41 ∙ 1.5 ∙ 8.3 = −320 𝐾
Per cui la temperatura finale del gas Tf sarà Tf = Ti – T = 900 – 320 = 580 K, ben lontana dalla
temperatura di 900 K.
La temperatura finale può essere ricavata anche dall’equazione di stato, avremo cioè
𝑇𝑓 = 𝑝𝑓 𝑉𝑓
𝑛 𝑅=
102000 ∙ 1.93
41 ∙ 8.3 ≅ 580 𝐾
E’ possibile fa compiere trasformazioni adiabatiche con temperatura finale inferiore a quella
ambiente.
39
GAS REALI I gas perfetti sono descritti dall’equazione di stato pV = nRT che lega tra loro le tre variabili di stato pressione, Volume e Temperatura. La teoria cinetica che è stata introdotta all’inizio del capitolo precedente (sui gas perfetti) assume un modello di gas perfetto basato anche sulle seguenti ipotesi:
- le molecole che compongono il gas sono sfere rigide puntiformi (volume = zero) - le molecole non esercitano forze tra loro (energia potenziale di interazione = zero)
E cosa nota che è possibile rendere un gas liquido attraverso una compressione, questo processo, per quanto comune non è sempre possibile per tutte le temperature. I gas che durante la compressione diventano liquidi mostrano un comportamento caratteristico. Durante il passaggio di stato si ha scambio di calore e la pressione resta costante. Il primo scienziato a studiare il comportamento dei gas reali fu T. Andrews che determinò sperimentalmente le isoterme dell’anidride carbonica in un ampio intervallo di temperatura.
Andamento della pressione in funzione del volume (scala arbitraria) dell'anidride carbonica. Tali curve sono ricavate per diverse temperature. Il piano pV si divide in quattro regioni che descrivo fasi diverse (liquido, vapore saturo, vapore insaturo, gas)
Per lo studio dei gas reali, il nostro sistema fisico è un cilindro chiuso da un pistone mobile, il gas è contenuto dentro il cilindro che può scambiare calore con l’ambiente esterno ma non materia. Nel cilindro sono inseriti dei sensori di temperatura e di pressone, il volume del gas è determinato dalla posizione del pistone mobile. Consideriamo ad esempio il comportamento dell’anidride carbonica, le cui isoterme furono determinate da T. Andrews e riportate in modo semi quantitativo nella figura precedente. A temperature elevate (T > 80 °C) le isoterme assomigliano a quelle di un gas perfetto. A temperature più basse, le isoterme cominciano a presentare un flesso, ma la pendenza continua ad essere negativa come nel resto della curva. Queste curve (si guardi quella per T = 40 °C) assomigliano ad iperboli solo per valori bassi della pressione (grandi volumi). A piccoli volumi si comportano diversamente. Al decrescere del volume la pressione diventa rapidamente molto grande; la curva ha un asintoto verticale, che non è, come per l’iperbole del gas ideale, l’asse delle pressioni. Scendendo con la temperatura si incontra un’isoterma importante, che è caratterizzata dal fatto che il flesso ha tangente orizzontale (linea rossa in figura). Questa isoterma si chiama isoterma critica. Il punto del flesso (K nella figura) è il punto critico. Le sue coordinate si dicono temperatura critica, pressione critica e volume molare critico
40
(nel caso si abbia a che fare con una mole di gas). Per l’anidride carbonica la temperatura critica vale
Tc = 31.04 °C
Scegliamo una temperatura più bassa delle temperatura del punto critico, ad esempio T = 20 °C nel caso dell’anidride carbonica e percorriamo la curva partendo da un volume molto grande (quindi bassa pressione, condizioni simili a quelle dei gas perfetti). Diminuendo il volume si trova che la pressione del gas aumenta, fino a quando esso non raggiunge un valore ben definito (punto B della figura). A questo punto la pressione rimane costante nonostante il volume continui a diminuire. La pressione resta costante durante la compressione fino al punto A. Dopo questo punto la pressione sale bruscamente e diviene impossibile ridurre ulteriormente il volume in maniera apprezzabile. Il gas che a volumi più grandi si lasciava facilmente comprimere è diventato praticamente incomprimibile. Se si abbassa ulteriormente la temperatura del gas e si ripete l’operazione, si constata che il tratto orizzontale a pressione costante è divenuto più ampio. Il tratto si allunga molto dalla parte dei volumi grandi e molto poco dalla parte dei volumi piccoli. Rispetto alla compressione di una gas perfetto le differenze sono legate al tratto di compressione a pressione costante e l’incomprimibilità al di sotto di un certo limite. Per capire dobbiamo chiederci cosa sia successo al gas durante la compressione del tratto AB (isobara e isoterma insieme). Se avessimo potuto guardare dentro il cilindro avremmo notato che nel punto B inizia la liquefazione del gas. Nel tratto AB sono presenti contemporaneamente ed in equilibrio tra loro le due fasi liquide e gassose della sostanza. Ad una data temperatura questo può avvenire ad una sola pressione, chiamata la pressione del “vapor saturo” o tensione di vapore. Si ricava sperimentalmente che la tensione di vapore, nelle sostanze pure, dipende solo dalla temperatura e non dalla quantità di gas utilizzata nell’esperimento, vale a dire non dipende dal volume del gas. La temperatura Tc è la massima temperatura a cui la sostanza può trovarsi nella fase liquida. A temperature maggiori la sostanza si trova esclusivamente nello stato gassoso. Seguendo una terminologia che risale ad Andrews, il termine vapore viene usato per indicare una sostanza che si trova nello stato gassoso, ma che è al di sotto della temperatura critica, ed il termine gas per indicare una sostanza gassosa al di sopra della temperatura critica. Se il vapore non è in contatto con il suo liquido si dice che è insaturo (o surriscaldato). Parametri critici per alcune importanti sostanze.
Gas Temperatura Critica Tc (K)
Pressione Critica Pc (MPa)
Volume Critico (cm3/mole)
Densità Critica (kg/mole)
Elio 5.3 0.23 58 69 Idrogeno 33.3 1.2 64.5 31 Azoto 126.2 3.39 90 311 Argon 150.9 4.91 85.0 531 Ossigeno 154.8 5.08 74.4 430 Metano (CH4) 191 4.64 98.8 162 Etilene (C2H4) 283.1 5.19 124 225 Etano (C2H6) 305.5 4.88 143 211 Anidride Carbonica (CO2) 304.2 8.1 95.6 460 Propano (C3H8) 369.9 4.2 200 220 Ammoniaca (NH3) 405.6 11.4 74.2 400
Rapporto di comprimibilità
41
Se la legge di Boyle valesse rigorosamente anche per un gas reale, avremmo che per qualsiasi gas e per qualsiasi temperatura T, il rapporto di comprimibilità Z derivato dall’equazione di stato, dovrebbe essere uguale ad 1.
𝑍 = 𝑝𝑉
𝑛𝑅𝑇
E’ possibile osservare sperimentalmente che questo valore non è sempre costante e per pressioni dell’ordine di qualche decina di bar può essere inferiore a 1. Questo dato fa pensare che tra le molecole del gas ci sia una qualche interazione (forza attrattiva, energia di interazione che era stata esclusa nel modello dei gas perfetti). Equazione di stato dei GAS REALI J.D. van der Waals nel 1873 cercò di formulare un’equazione di stato che fosse in grado di descrivere il comportamento dei gas reali in un ampio intervallo di pressioni e temperature. Il punto di partenza è l’equazione di stato dei gas perfetti, alla quale si apportano delle modifiche per tener conto del comportamento “reale” delle molecole del gas. Dal comportamento del gas a piccoli volumi, si deduce che l’approssimazione della molecola come una sferetta puntiforme non può essere valida, ma si deve assumere che la molecola abbia un volume finito. Se abbiamo una mole di gas che comprimiamo il più possibile, possiamo assumere che il volume di questo insieme di molecole sia b. Alla quantità b si dà il nome di covolume del gas, inteso come il volume minimo che una mole di gas può assumere. L’equazione di stato può dunque essere scritta come (equazione di stato di Clausius):
𝑝(𝑉 − 𝑛𝑏) = 𝑛 𝑅 𝑇 Il covolume è un parametro caratteristico di ogni gas che va determinato sperimentalmente All’interno del fluido l’attrazione reciproca tra le molecole è mediamente la stessa in tutte le direzioni e quindi il suo effetto complessivo è trascurabile, mentre negli strati in prossimità delle pareti del recipiente non è così perché la compensazione viene a mancare. Quindi per le molecole che sono in prossimità della parete si ha una forza netta diretta verso l’interno che diminuisce la pressione che avrebbe il gas in approssimazione di gas perfetto. Questa forza è proporzionale al numero di molecole che circondano una data molecola vicino alla parete, quindi è proporzionale alla densità del gas.
D’altra parte la pressione è proporzionale al numero di molecole che battono sulla parete e quindi ancora una volta alla densità del gas. In definitiva il termine correttivo della pressione è
Andamento della forza attrattiva lontano dalla parete del contenitore e in prossimità.
42
proporzionale al quadrato della densità del gas o, equivalentemente, all’inverso del quadrato del suo volume.
𝑝′ = 𝑎 𝑛2
𝑉2
Si ha quindi l’equazione di stato dei gas reali o equazione di Van der Waals
(𝑝 + 𝑎 𝑛2
𝑉2) ∙ (𝑉 − 𝑛𝑏) = 𝑛𝑅𝑇
Le isoterme di Van der Waals coincidono con le isoterme dei gas perfetti solo ad alta temperatura, basse densità, quanto i parametri b ed a possono essere trascurati.
Confronto tra l'Isoterma dei gas perfetti e l'Isoterma di Van der Waals per la CO2 a temperatura superiore a quella critica
43
Isoterme di Van der Waals della CO2 calcolate a quattro temperature. Per le due temperature inferiori a quella critica si osserva l'andamento caratteristico dei gas reali. L’isoterma a T = 315 K ha un andamento somigliante alle isoterme
dei gas perfetti.
Andamento di una isoterma di Van der Waals per temperatura inferiore a quella critica
Per temperature che si avvicinano alla temperatura critica le isoterme hanno un andamento sempre monotono ma mostrano dei flessi. Per temperature inferiori a quella critica (figura precedente) per un tratto importante si discostano dal comportamento dei gas reali. Una volta determinati i parametri a e b è possibile tramite l’equazione di Van der Waals determinare la pressione di vapore saturo imponendo che le aree AcO e OdB siano uguali. Parametri dell'equazione di Van der Waals ricavati sperimentalmente. Con i parametri a e b è possibile risalire alla Temperatura Critica e alla Pressione Critica, così come la pressione di vapor saturo
Sostanza a (J·m3/mole)
b (m3/mole)
Pc (MPa)
Tc (K)
Aria 0.1358 3.64 x 10-5 3.77 133
Anidride Carbonica 0.3643 4.27 x 10-5 7.39 304.2
Azoto 0.1362 3.84 x 10-5 3.39 126.2
Idrogeno 0.0247 2.65 x 10-5 1.30 33.2
Acqua 0.5507 3.04 x 10-5 22.1 647.3
Ammoniaca 0.4233 3.73 x 10-5 11.3 406
Elio 0.0034 2.34 x 10-5 0.23 5.2
Freon 1.0780 9.98 x 10-5 4.12 385
[Costruzione delle le Competenze]
Principio di funzionamento di una pompa di calore (macchina frigorifera)
44
Il calore fluisce esclusivamente dalle zone calde verso le zone fredde, anche nelle macchine
frigorifere succede questo, ma per avere come risultato finale il processo inverso, cioè un flusso
netto di energia termica da una zona fredda verso una zona calda, si sfruttano le proprietà dei gas
che possono essere con processi meccanici compressi, riscaldati e liquefatti a temperature
superiori a quella ambiente, nella fase di liquefazione essi cedono calore all’esterno. Lo stesso gas
liquido viene nuovamente ritrasformato in gas immettendolo mediante una valvola di espansione
in contatto con ciò che si intende raffreddare, infatti il gas a temperatura ambiente e a bassa
pressione evapora e si espande, nell’espansione la temperatura scende fino a valori inferiori a
quelli dell’oggetto da mantenere freddo dal quale, infatti assorbe calore. Sia nella fase di
evaporazione che in quella di espansione si ha passaggio di calore dalla sorgente fredda al gas. Il
gas freddo viene poi compresso adiabaticamente e il ciclo riprende. I flussi di calore avvengono
sempre dal caldo al freddo, è il gas che modifica la sua temperatura nel circuito potendo
condensare (e quindi cedere calore) a temperatura ambiente ed evaporare (e quindi assorbire
calore) a bassa temperatura.
1. condensatore, 2. valvola di espansione, 3. evaporatore, 4. compressore.
Le unità necessarie al funzionamento di una pompa di calore sono:
Il compressore di una pompa di calore crea proprio la differenza di pressione che permette il ciclo
(similmente alla palla che si espande e si contrae): esso aspira il fluido refrigerante attraverso
l'evaporatore, dove il fluido stesso evapora a bassa pressione assorbendo calore, lo comprime e lo
spinge all'interno del condensatore dove il fluido condensa ad alta pressione rilasciando il calore
assorbito. Dopo il condensatore, il fluido attraversa la valvola di laminazione che lo porta in
condizione liquido/vapore (riduce la pressione del fluido), successivamente rientra
Schema di funzionamento di una pompa di calore. Il calore è assorbito dal liquido in evaporazione (serve un gas che evapora a bassa temperatura) e ceduto dopo la fase di compressione dal gas in condensazione (il gas deve condensare a temperatura ambiente). Il passaggio di calore avviene sempre da alta temperatura verso bassa temperatura, è il sistema gas-liquido che si trova ad essere più freddo dell’ambiente che si intende refrigerare e, successivamente, più caldo dell’ambiente circostante dove il calore viene dissipato. Per far compiere al gas i passaggi di stato si consuma energia
45
nell'evaporatore ricominciando il ciclo. Il fluido refrigerante cambia di stato all'interno dei due
scambiatori: passa nell'evaporatore da liquido a gassoso, nel condensatore da gassoso a liquido.
Per il funzionamento di una pompa di calore sono fondamentali alcune proprietà dei gas che si
muovono nel circuito. I gas usati in questo tipo di dispositivi sono comunemente chiamati Freon.
Il diclorodifluorometano comunemente noto con il nome di Freon 12 (R12) è un gas incolore alla
temperatura ambiente, è un liquido non tossico, ininfiammabile, incolore, trasparente. Ha stabilità
termiche e chimiche eccellenti. Non corrode i metalli tranne magnesio e la lega del magnesio. Non
si dissolve in acqua, ma può dissolversi facilmente negli idrocarburi. Come refrigerante è
conveniente e sicuro, può essere utilizzato nei vari sistemi di refrigerazione con una gamma di
temperature da -60, º C a 10, º C. Può anche essere utilizzato in questi campi quali l'industria della
spezia, i trattamenti medici e l'industria di plastica.
Formula chimica CCl2F2
Punto di ebollizione (101.3 KPa) -29.8 °C
Temperatura critica 112.2 °C
Pressione critica 4116.2 KPa
Densità liquida 1291.2 Kg/m3
Il Freon 12 fu scoperto da un inventore americano Thomas Midgley nel 1930, con questa
invenzione la refrigerazione domestica è diventata di uso comune. Come si può vedere dalla
tabella e dalla descrizione, il Freon avente una temperatura critica di 112 °C può essere facilmente
liquefatto a temperatura ambiente (pressione critica circa 4 atmosfere) e cosa altrettanto
importante evapora a pressione atmosferica ad una temperatura di – 29 °C (che risulta essere la
temperatura minima ottenibile con frigoriferi a singolo stadio). Anche se i Freon e gli altri
fluorocarburi si sono sempre dimostrati innocui per gli esseri umani, negli settanta sono sorti dei
dubbi circa il loro effetto sull’ozonosfera. Pertanto dopo l’entrata in vigore del protocollo di
Monteral (1987) tale gas non è più stato usato, oggi si usa il gas identificato con la sigla R409 che è
una miscela a base di clorodifluorometano.
La comuni macchine di condizionamento sono caratterizzate per la loro capacità di
raffreddamento o di calore assorbito. L’unità di misura utilizzata è il BTU. Il British Thermal Unit
(BTU o Btu) è un'unità di misura dell'energia, usata negli Stati Uniti e nel Regno Unito (dove è
generalmente usata nei sistemi di riscaldamento). La corrispondente unità di misura utilizzata nel
Sistema Internazionale è, invece, il joule (J). Una BTU è definita dalla quantità di calore richiesta
per alzare la temperatura di 1 libbra (ovvero 453,59237 grammi) di acqua da 39 °F a 40 °F (3.8 °C a
4.4 °C). Esistono diversi tipi di definizioni tecniche della BTU (principalmente dipendenti
dall'applicazione della definizione data a differenti temperature iniziali dell'acqua o a diverse
densità della stessa) che rendono leggermente variabile il corrispondente valore in joule, esistono
- cioè - diverse tipologie di BTU. Le BTU sono solitamente utilizzate nella definizione del potere
calorifico dei combustibili come anche del potere refrigerante dei sistemi di condizionamento degli
ambienti. (conversioni: 1 BTU = 252 cal, 1 BTU = 1,055056 kJ)
46
Schematizzazione del ciclo termodinamico di una pompa di calore. Le curve delle trasformazioni devono essere al disotto del punto critico. 1-2 (evaporazione), il fluido evapora a bassa temperatura e assorbe calore, nel punto 2 tutto il fluido è in fase vapore. 2 – 3 – 3’ – 4 (compressione - liquefazione), il vapore compresso si surriscalda, la successiva compressione produce condensazione (ad alta temperatura) e cessione di calore all’ambiente esterno. Nel punto 4 il fluido è in fase liquida ad alta pressione 4 – 1 (laminazione) si riduce la pressione permettendo un’espansione che riduce la temperatura
47
Approfondimenti di termodinamica
Entalpia
Con riferimento al primo principio della termodinamica la variazione di energia interna è:
∆U = ∆Q - L in cui:
∆U = variazione di energia interna ∆Q = quantità di calore scambiato con l'ambiente L = lavoro compiuto o subito dal sistema
per le trasformazioni fatte avvenire a pressione costante, il lavoro L può essere calcolato applicando la seguente formula:
L = P · ∆V = P · (V2 - V1)
Pertanto, nel caso di trasformazioni fatte avvenire a pressione costante, secondo il primo principio della termodinamica, la variazione di energia interna di un sistema può essere calcolata con la seguente formula:
∆U = U2 - U1 = ∆Qp - P · (V2 - V1)
in cui:
U2 = energia dello stato finale del sistema U1 = energia dello stato iniziale del sistema ∆Qp = quantità di calore scambiata a pressione costante con l'ambiente V2 = volume finale del sistema V1 = volume iniziale del sistema Ricavando il valore di ∆Qp, si ha:
∆Qp = U2 - U1 + P · V2 - P · V1
ovvero: ∆Qp = (U2 + P · V2) - (U1 + P · V1)
La somma (U + P · V) viene indicata con la lettera H
H = U + P · V
e viene chiamata entalpia o contenuto termico totale di un sistema, in quanto con essa si tiene conto oltre che dell'energia delle particelle che costituiscono il sistema materiale anche dell'energia determinata dalla pressione e dal volume del sistema stesso, la quale viene espressa tramite il prodotto PV che ha le dimensioni di un lavoro (energia).
Possiamo quindi scrivere:
∆Qp = H2 - H1 = ∆H
48
Da questa formula risulta che: durante una trasformazione fatta avvenire a pressione costante la variazione di entalpia del sistema corrisponde al calore scambiato. L'entalpia H è una funzione di stato perché definita come somma di funzione di stato.
Entropia (Storia e definizione)
Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui estrema generalità venne osservata per la prima volta da Sadi Carnot nel 1824) di tutti i sistemi allora conosciuti nei quali si osservava che le trasformazioni avvenivano invariabilmente in una direzione sola, ovvero quella verso il massimo disordine.
In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore), pubblicato nel 1864. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τρoπή, "cambiamento", "punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento di particelle meccaniche interne al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante l'assorbimento del calore.
Per chiarire maggiormente il concetto di entropia possiamo presentare alcuni esempi:
Si pensi di far cadere una gocciolina d'inchiostro in un bicchiere d'acqua: quello che si osserva immediatamente è che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si ottiene una miscela uniforme (stato completamente disordinato). É esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso (separare l'acqua e l'inchiostro) richiederebbe energia esterna.
Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata, ossia isolata dal resto dell'universo, le molecole saranno costrette a rimanere all'interno e non avendo spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre ed urtando casualmente tra di loro e contro le pareti della boccetta usciranno da questa disperdendosi all'esterno (evaporazione). Dopo un certo tempo tutte le molecole saranno uscite disperdendosi. Anche se casualmente qualche molecola rientrerà nella boccetta il sistema complessivo è ormai disordinato e l'energia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile.
Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed essere adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica teorica. È tuttavia bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale. Definizione termodinamica
49
L'entropia S come funzione di stato venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come
∆𝑆 = ∆𝑄𝑟𝑒𝑣
𝑇
dove ΔQrev è la quantità di calore assorbito in maniera reversibile dal sistema a temperatura T. ∆S si esprime in unità entropiche (u.e.) la cui unità di misura è: Cal / (mol · K) o J / (mol · K).
Per quanto riguarda l'entropia (S) occorre osservare che contrariamente a quanto avviene per l'entalpia e l'energia libera, essa può essere misurata in assoluto in quanto è pari a zero l'entropia di un cristallo perfetto alla temperatura di zero K (zero assoluto). Pertanto, mentre si è convenuto di porre uguale a zero l'entalpia di formazione degli elementi nei loro stati standard (25°C e 1 atm), l'entropia di formazione per gli stessi è maggiore di zero e ha un valore ben definito. Per una trasformazione chimica, la variazione di entropia viene calcolata nel seguente modo:
∆𝑆 = ∑ 𝑆𝑝𝑟𝑜𝑑𝑜𝑡𝑡𝑖 − ∑ 𝑆𝑟𝑒𝑎𝑔𝑒𝑛𝑡𝑖
Nelle reazioni che avvengono con un aumento del disordine, l'entropia dei prodotti S(prodotti) è maggiore dell'entropia dei reagenti S(reagenti), per cui: ∆S > 0. Nelle reazioni che avvengono con diminuzione del disordine, l'entropia dei prodotti S(prodotti) è minore dell'entropia dei reagenti S(reagenti), per cui: ∆S < 0. Tenendo conto della definizione di entropia, il secondo principio della termodinamica può essere enunciato nel seguente modo: nei processi spontanei di un sistema isolato l'entropia S deve aumentare, cioè ∆S deve essere maggiore di zero (∆S > 0). Energia Libera Tra il 1875 e il 1876, lo statunitense J. W. Gibbs dimostrò inequivocabilmente che l'unico criterio per stabilire la spontaneità di una reazione è la sua capacità di produrre lavoro utile. Ciò significa che se a temperatura e pressione costante una reazione può produrre lavoro utile essa è termodinamicamente consentita, cioè spontanea. Alle stesse conclusioni e indipendentemente giunse, nel 1882, H. Von Helmholtz, il quale affermò che: il verso secondo cui si svolge una reazione e la sua intensità sono determinati non dalle variazioni dell'energia termica totale (entalpia) ma solo da quella parte di essa che può trasformarsi in lavoro o in altre forme di energia che non siano calore. Helmholtz distinse, dunque, l'energia totale posseduta da un sistema in due parti nettamente distinte, che egli chiamò rispettivamente energia libera (che produce lavoro) ed energia vincolata (non produce lavoro; è calore latente):
𝐸𝑛𝑒𝑟𝑔𝑖𝑎 𝑡𝑜𝑡𝑎𝑙𝑒 = 𝐸𝑛𝑒𝑟𝑔𝑖𝑎 𝑙𝑖𝑏𝑒𝑟𝑎 + 𝐸𝑛𝑒𝑟𝑔𝑖𝑎 𝑣𝑖𝑛𝑐𝑜𝑙𝑎𝑡𝑎
L'energia vincolata è data dal prodotto dell'entropia S per la temperatura assoluta T. L'energia totale è l'entalpia H. Indicando con G l'energia libera, si può pertanto scrivere:
𝐻 = 𝐺 + 𝑇 ∙ 𝑆 da cui:
𝐺 = 𝐻 − 𝑇 ∙ 𝑆
50
Nello studio di un sistema o di una reazione ciò che interessa maggiormente è la variazione delle grandezze coinvolte e quindi la variazione dell'energia libera.
Per giungere alla definizione dell'energia libera partiamo dalle seguenti relazioni termodinamiche:
∆𝑈 = ∆𝑄 − 𝐿
∆𝐻 = ∆𝑈 + 𝑝∆𝑉 (𝑝 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒)
∆𝑆 = ∆𝑄𝑟𝑒𝑣
𝑇 (𝑇 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒)
Nella prima equazione al posto di Q sostituiamo quello di Qrev ricavato dalla terza equazione
(Qrev = ∆S · T):
∆𝑈 = 𝑇 ∙ ∆𝑆 − 𝐿𝑟𝑒𝑣
Dalla seconda equazione si ha inoltre che:
∆𝑈 = ∆𝐻 − 𝑝 ∙ ∆𝑉
Uguagliano le ultime due equazioni, si ha:
∆𝐻 − 𝑝 ∙ ∆𝑉 = 𝑇 ∙ ∆𝑆 − 𝐿𝑟𝑒𝑣
cioè anche:
∆𝐻 − 𝑇 ∙ ∆𝑆 = 𝑝 ∙ ∆𝑉 − 𝐿𝑟𝑒𝑣
Questa espressione, considerato che la temperatura è costante, può a sua volta scriversi:
∆(𝐻 − 𝑇 ∙ 𝑆) = 𝑝 ∙ ∆𝑉 − 𝐿𝑟𝑒𝑣
Fu W. Gibbs ad introdurre la funzione
𝐺 = 𝐻 − 𝑇 ∙ 𝑆
che è una funzione di stato perché H, T, S sono funzioni o variabili di stato. La funzione di Gibbs
viene indicata col nome di energia libera.
L'equazione
∆(𝐻 − 𝑇 ∙ 𝑆) = 𝑝 ∙ ∆𝑉 − 𝐿𝑟𝑒𝑣
può quindi anche scriversi
∆𝐺 = 𝑝 ∙ ∆𝑉 − 𝐿𝑟𝑒𝑣
51
espressione valida a P e T costanti.
Variazione energia libera
Si è visto che l'energia libera G è una grandezza termodinamica calcolabile nel seguente modo:
𝐺 = 𝐻 − 𝑇 ∙ 𝑆
Molto più interessante è lo studio della variazione dell'energia libera esprimibile mediante la seguente equazione nota come equazione di Gibbs-Helmholtz:
∆𝐺 = ∆𝐻 − 𝑇 ∙ ∆𝑆
E' dimostrato che: una reazione, a temperatura e pressione costanti, avviene spontaneamente solo se accompagnata da una diminuzione di energia libera. Cioè se:
∆𝐺 = 𝐺(𝑓𝑖𝑛𝑎𝑙𝑒) − 𝐺(𝑖𝑛𝑖𝑧𝑖𝑎𝑙𝑒) < 0
La variazione di energia libera dipende dalla temperatura e dalla pressione. Nelle reazioni chimiche si conviene, in genere, di considerare le sostanze reagenti e i prodotti della reazione alla stessa temperatura e alla pressione di 1 atm, se la reazione avviene in ambiente aperto. In tal caso, ∆G diviene una caratteristica della reazione e si indica con ∆G°.
Energia libera molare di formazione
Così come si possono calcolare le variazioni di entalpia (∆H) associate alle reazioni chimiche in base alle entalpie molari di formazione (∆H°f) dei reagenti e dei prodotti, è altrettanto possibile calcolare le variazioni di energia libera molare di formazione ∆G°f dei reagenti e dei prodotti:
∆𝐺0 = ∑ ∆𝐺𝑓0(𝑝𝑟𝑜𝑑𝑜𝑡𝑡𝑖) − ∑ ∆𝐺𝑓
0(𝑟𝑒𝑎𝑔𝑒𝑛𝑡𝑖)
Il valore positivo o negativo assunto da ∆G° fornisce, come si è detto, un valido criterio per prevedere la spontaneità di una reazione chimica.
Energia libera e lavoro utile
La funzione G, oltre a fornire un valido criterio per stabilire la spontaneità delle trasformazioni, consente anche di prevedere il massimo lavoro che una trasformazione è in grado di produrre.
E' stato dimostrato che la variazione di energia libera ∆G rappresenta il massimo lavoro utile (Lu) che può essere fornito da un sistema nelle trasformazioni che avvengono a temperatura e pressioni costanti:
∆𝑮 = − 𝑳𝒖𝒕𝒊𝒍𝒆
52
Fisica dell’Atmosfera
Formazione e stabilità dell’atmosfera terrestre (tratto da “il libro di fisica“ di Isaac Asimov)
GLI INVOLUCRI DI ARIA.
Aristotele supponeva che il mondo fosse fatto di quattro involucri sferici, ciascuno costituito di
uno dei quattro elementi della materia: terra (la sfera solida), acqua (l'oceano), aria (l'atmosfera) e
fuoco (una sfera esterna invisibile, che diventava occasionalmente visibile nel bagliore dei lampi).
Egli sosteneva inoltre che all'esterno di queste sfere l'universo fosse composto di un quinto
elemento perfetto, non terrestre, che chiamò "etere" (detto poi, in latino, "quinta essentia",
letteralmente «quinto elemento»).
In questo schema non c'era posto per il vuoto: dove finiva la terra, cominciava l'acqua; dove
finivano entrambe, cominciava l'aria; dove finiva l'aria, cominciava il fuoco; e dove finiva il fuoco,
cominciava l'etere, che continuava fino al confine dell'universo. «La natura,» dicevano gli antichi,
«ha orrore del vuoto.»
MISURE DELL'ATMOSFERA.
La pompa aspirante, un'invenzione utilizzata fin dall'antichità per estrarre l'acqua dai pozzi,
sembrava illustrare in modo mirabile questo orrore del vuoto. Uno stantuffo scorre entro un
cilindro aderendo ermeticamente alle sue pareti; quando si spinge verso il basso la leva della
pompa, lo stantuffo viene tirato verso l'alto, e lascia uno spazio vuoto nella parte inferiore del
cilindro. Ma siccome la natura aborre il vuoto, l'acqua che circonda la base del cilindro fa aprire
una valvola a senso unico posta sul fondo del cilindro stesso, e irrompe nello spazio vuoto.
Ripetendo più volte l'operazione, l'acqua sale sempre di più nel cilindro, fino a traboccare dal
becco della pompa. Secondo la teoria aristotelica, questo sistema avrebbe dovuto consentire di
innalzare l'acqua fino a qualsiasi altezza. Ma i minatori, che dovevano pompare l'acqua verso l'alto
sgombrando il fondo delle miniere, scoprirono che non era possibile sollevare l'acqua per più di
dieci metri sopra il suo livello iniziale, per quanto si pompasse con forza e a lungo.
Galileo si interessò molto a questo problema verso la fine della sua lunga vita di ricercatore. Non
riuscì a raggiungere alcuna conclusione, salvo quella che, a quanto pare, la natura aborre il vuoto
Schema di una pompa per emungimento dell'acqua
53
solo fino a un certo limite; egli si chiese se questo limite sarebbe stato inferiore usando un liquido
più denso dell'acqua, ma morì prima di aver potuto effettuare questo esperimento. I suoi discepoli
Evangelista Torricelli e Vincenzo Viviani effettuarono l'esperimento nel 1644. Scelsero il mercurio,
che ha una densità 13,5 volte maggiore di quella dell'acqua, riempirono con tale liquido un tubo di
vetro lungo un metro, tapparono l'estremità aperta del tubo, lo capovolsero in una vaschetta
piena di mercurio e tolsero il tappo. Il mercurio cominciò a defluire dal tubo nella vaschetta, ma,
quando il suo livello raggiunse i 76 centimetri sopra il livello del mercurio nella vaschetta, esso
smise di uscire dal tubo e si arrestò. Era stato così realizzato il primo "barometro"; i moderni
barometri a mercurio non sono sostanzialmente diversi. Non ci volle molto perché si
comprendesse che l'altezza della colonna di mercurio non era sempre identica. Lo scienziato
inglese Robert Hooke osservò, dopo il 1660, che l'altezza della colonna di mercurio diminuiva
prima dei temporali, aprendo così la via alla previsione scientifica del tempo, cioè alla
"meteorologia". Ma che cosa impediva al mercurio di scendere? Viviani ipotizzò che fosse il peso
dell'atmosfera, che premeva sul liquido nella vaschetta. Era un'idea rivoluzionaria, perché secondo
la concezione aristotelica l'aria non aveva peso, essendo attratta solo dalla propria sfera, al di
sopra della terra. Ora, invece, risultava evidente che una colonna di acqua dell'altezza di dieci
metri, o una colonna di mercurio di 76 centimetri, misuravano il peso dell'atmosfera - cioè il peso
di una colonna di aria di pari sezione, che dal livello del mare si elevasse fin dove giunge
l'atmosfera. L'esperimento dimostrava anche che non necessariamente la natura aborre dal vuoto
in tutte le circostanze. Lo spazio che restava nell'estremo chiuso del tubo dopo la caduta del
mercurio era vuoto, non contenendo altro che una quantità piccolissima di vapore di mercurio;
questo "vuoto torricelliano" fu il primo vuoto prodotto artificialmente.
Il vuoto fu messo quasi immediatamente al servizio della scienza. Nel 1650 lo studioso tedesco
Athanasius Kircher dimostrò che il suono non si propaga nel vuoto, confermando, una volta tanto,
un'affermazione di Aristotele. Nel decennio successivo Robert Boyle mostrò che oggetti molto
leggeri cadevano nel vuoto con la stessa velocità degli oggetti pesanti, confermando in tal modo le
teorie di Galileo sul moto (contro quelle di Aristotele). Se l'aria aveva un peso finito, doveva avere
anche un'altezza finita. Risultò che il peso dell'atmosfera era di 1,033 chilogrammi per centimetro
quadrato; in base a questo dato, si poté calcolare che l'atmosfera doveva essere alta solo otto
Esperimento di Boyle - l'aria nel braccio sinistro del tubo è isolata dall'atmosfera con del mercurio. Aggiungendo mercurio nel tubo a destra si può determinare la relazione tra volume e pressione dell'aria rimasta nello spazio di testa del tubo a sinistra
54
chilometri circa – sempre che la sua densità restasse invariata per tutta la sua altezza. Nel 1662,
però, Boyle dimostrò che questo era impossibile, perché la densità dell'aria cresceva con la
pressione. Boyle prese un tubo a forma di J e, tenendolo verticale, versò del mercurio
nell'imboccatura, all'estremità del ramo più lungo; il mercurio intrappolò un po' d'aria
nell'estremo chiuso del ramo corto del tubo; versando altro mercurio, la sacca di aria si
restringeva, e al tempo stesso la sua pressione aumentava, come Boyle dedusse dal fatto che la
contrazione diminuiva via via che aumentava il peso del mercurio. Effettuando misurazioni
accurate, Boyle dimostrò che, riducendo a metà il volume del gas, la sua pressione raddoppiava; in
altre parole, il volume variava in modo inversamente proporzionale alla pressione. Questa storica
scoperta, nota come "legge di Boyle", costituì il primo passo nella lunga serie di scoperte sulla materia, che
finirono per portare alla teoria atomica.
Se l'aria diminuisce di volume per effetto della pressione, deve essere più densa a livello del mare,
rarefacendosi gradualmente al diminuire del peso dell'aria sovrastante, via via che ci si innalza
verso gli strati superiori dell'atmosfera. Questo fatto fu dimostrato per la prima volta nel 1648 dal
matematico francese Blaise Pascal, che fece salire su una montagna alta circa 1500 metri il
cognato Florin Perier, munito di un barometro, perché osservasse di quanto calava il livello del
mercurio al crescere dell'altitudine.
Calcoli teorici mostrarono che, nell'ipotesi di una temperatura costante alle varie quote, la
pressione dell'aria diminuirebbe di dieci volte ogni 20 chilometri di altitudine in più. In altri
termini, a 20 chilometri di quota la colonna di mercurio controbilanciata dall'aria passerebbe da 76
a 7,6 centimetri; a 40 chilometri sarebbe di 0,76 centimetri, a 60 chilometri di 0,076 centimetri, e
così via. A un'altitudine di 180 chilometri, la pressione dell'aria sarebbe pari a soli 0,000000076
centimetri di mercurio. Può sembrare assai poco, ma il peso globale dell'aria al di sopra dei 180
chilometri di altitudine sarebbe ancora di 5,5 milioni di tonnellate. In realtà tutte queste cifre non
sono che approssimazioni, perché la temperatura dell'aria varia con l'altitudine. Tuttavia questi
dati forniscono un'idea generale della situazione, mostrandoci che l'atmosfera non ha un limite
netto, ma si rarefà gradualmente dissolvendosi nel vuoto dello spazio. Scie di meteoriti sono state
osservate perfino alla quota di 160 chilometri, dove l'aria ha una pressione che è solo un
milionesimo di quella che ha alla superficie della terra e una densità che è solo un miliardesimo.
Eppure è quanto basta per portare all'incandescenza questi minuscoli frammenti di materia,
riscaldati dalla resistenza dell'aria. Quanto poi alle aurore boreali, che sono formate da filamenti di
gas resi luminosi dal bombardamento di particelle provenienti dallo spazio esterno, esse vengono
localizzate fra gli 800 e i 1000 chilometri sopra il livello del mare.
55
GLI STRATI INFERIORI DELL'ATMOSFERA.
Andamento della Pressione, Temperatura, Densità dell'aria con quota. Descrizione dei principali fenomeni associati alla quota. I nomi degli strati sono associati alla temperatura.
56
Prima dell'epoca moderna l'aria era considerata una sostanza semplice e omogenea; all'inizio del
diciassettesimo secolo, il chimico fiammingo Jan Baptista van Helmont cominciò a sospettare che
nell'aria vi fossero vari gas, chimicamente diversi; egli studiò il vapore emesso dalla fermentazione
del succo di frutta ("anidride carbonica"), riconoscendovi una nuova sostanza. Van Helmont fu, in
effetti, il primo a usare il termine "gas": si suppone che egli abbia coniato questa parola, nel 1620
circa, rifacendosi al termine greco "chaos", che indicava la sostanza originaria con cui è stato fatto
l'universo.
Nel 1756 il chimico scozzese Joseph Black studiò a fondo l'anidride carbonica, stabilendo in modo
preciso che si trattava di un gas diverso dall'aria, e dimostrando inoltre che ne esisteva nell'aria
una modesta quantità. Dieci anni dopo Henry Cavendish studiò un gas infiammabile che non si
trovava nell'atmosfera, a cui poi venne dato il nome di "idrogeno"; in tal modo era chiaramente
dimostrata l'esistenza di più gas distinti tra loro. Il primo a comprendere che l'aria era una miscela
di vari gas fu il chimico francese Antoine- Laurent Lavoisier, negli anni successivi al 1770. In uno dei
suoi esperimenti egli scoprì che, riscaldando in un recipiente chiuso una certa quantità di
mercurio, essa si combinava con parte dell'aria, formando una polvere rossa ("ossido mercurico"),
mentre i quattro quinti dell'aria rimanevano sotto forma gassosa. Per quanto si seguitasse a
riscaldare, il volume di questo gas residuo non diminuiva; inoltre, una candela introdotta in tale
gas non bruciava e un topo non riusciva a sopravvivervi. Lavoisier ne concluse che l'aria era
costituita da due gas. La quinta parte che, nel suo esperimento, si combinava con il mercurio era la
componente dell'aria che sosteneva la vita e consentiva la combustione, ed egli la denominò
"ossigeno", mentre chiamò la parte residua "azoto", termine che in greco significa «senza vita».
Quest'ultimo fu chiamato, in diverse lingue, anche "nitrogeno", perché era presente nel nitrato di
sodio, detto comunemente "nitro". Entrambi i gas erano stati scoperti nel decennio precedente,
l'azoto nel 1772 dal medico scozzese Daniel Rutherford e l'ossigeno nel 1774 dal ministro della
Chiesa unitaria inglese Joseph Priestley. Già questo basta a dimostrare che l'atmosfera terrestre è
unica nel sistema solare; oltre alla terra, sette mondi del sistema solare hanno un'atmosfera
significativa, per quanto se ne sa. Giove, Saturno, Urano e Nettuno (i primi due certamente, gli
ultimi due probabilmente) hanno un'atmosfera di idrogeno, con la presenza di piccole quantità di
elio; Marte e Venere hanno atmosfere di anidride carbonica, con azoto come costituente
secondario; Titano ha un'atmosfera di azoto con una scarsa presenza di metano; è solo la terra ad
avere un'atmosfera costituita da due gas in parti quasi uguali, e solo sulla terra l'ossigeno è un
componente importante: l'ossigeno è un gas attivo, così che, in base a semplici considerazioni di
carattere chimico, ci si aspetterebbe che si combini con altri elementi, scomparendo
dall'atmosfera in quanto gas libero.
Verso la metà del diciannovesimo secolo il chimico francese Henri Victor Regnault aveva analizzato
campioni di aria provenienti dalle più svariate parti del mondo e aveva scoperto che la
composizione dell'aria era uguale ovunque: il contenuto di ossigeno era del 20,9 %, e si supponeva
che tutto il resto fosse azoto, salvo una piccola traccia di anidride carbonica. L'azoto è un gas
relativamente inerte, non si combina cioè facilmente con altre sostanze; tale combinazione può
però venir provocata: per esempio, riscaldandolo con magnesio metallico, si ottiene "nitruro di
magnesio" solido. Alcuni anni dopo la scoperta di Lavoisier, Henry Cavendish cercò di eliminare
tutto l'azoto, combinandolo con l'ossigeno sotto l'azione di una scarica elettrica, ma senza
57
successo. Pur provando in tutti i modi, non riusciva a liberarsi di una bollicina di gas residuo, meno
dell'uno per cento della quantità originaria. Cavendish pensò che potesse trattarsi di un gas
sconosciuto, ancora più inerte dell'azoto. Ma non tutti i chimici sono dei Cavendish, così che
nessuno si occupò più dell'enigma e la natura di questo residuo non fu chiarita per un altro secolo.
Nel 1882 il fisico inglese Robert John Strutt, Lord Rayleigh, confrontò la densità dell'azoto ottenuto
dall'aria con la densità dell'azoto ottenuto da determinate altre sostanze chimiche, e scoprì, con
grande sorpresa, che quello proveniente dall'aria era decisamente più denso. Poteva forse darsi
che l'azoto ottenuto dall'aria non fosse puro, ma contenesse piccole quantità di un altro gas più
pesante? Un chimico scozzese, Sir William Ramsay, aiutò Lord Rayleigh a andare più a fondo nella
faccenda, cosa che i due fecero ricorrendo all'aiuto della spettroscopia. Quando riscaldarono il
piccolo residuo di gas rimasto dopo l'eliminazione dell'azoto dall'aria e ne esaminarono lo spettro,
trovarono una nuova serie di righe luminose, che non appartenevano ad alcun elemento noto. Essi
diedero il nome di "argo" (in greco «inerte») all'elemento appena scoperto, che era appunto
altamente inerte. L'argo rendeva ragione di quasi tutto quell'uno per cento di gas ignoto presente
nell'aria; nell'atmosfera c'erano però anche tracce di diversi altri costituenti, ciascuno nella
proporzione di qualche parte per milione. Durante gli anni successivi al 1890 Ramsay proseguì
nelle sue ricerche e scoprì altri quattro gas inerti: il "neon" («nuovo»), il "cripto" («nascosto»), lo
"xeno" («straniero») e l'"elio", che era stato identificato più di trent'anni prima nel sole. In epoca
più recente lo spettroscopio per infrarosso ha rivelato la presenza di altri tre gas: il "protossido di
azoto" (detto «gas esilarante»), di provenienza sconosciuta, il "metano", un prodotto della
decomposizione delle sostanze organiche e il "monossido di carbonio". Il metano proviene dalle
esalazioni delle paludi; si è inoltre calcolato che ogni anno vengono immessi nell'atmosfera circa
40 milioni di tonnellate di questa sostanza, derivanti dalla emissione di gas intestinali da parte di
bovini e altri animali di grosse dimensioni; il monossido di carbonio, probabilmente, è dovuto alle
attività umane, provenendo dalla combustione incompleta di legno, carbone, benzina e altre
sostanze simili.
L'ATMOSFERA: COME SI È FORMATA E COME È STATA TRATTENUTA DALLA TERRA.
Prima di chiederci come si sia formata l'atmosfera della terra, sarà forse meglio discutere come
abbia fatto l'aria a restare attaccata alla terra per tutti gli eoni in cui si è protratto il «balletto» del
nostro pianeta nello spazio. Per rispondere dobbiamo chiamare in causa il concetto di "velocità di
fuga".
LA VELOCITÀ DI FUGA.
Quando lanciamo un oggetto verso l'alto dalla superficie terrestre, l'attrazione gravitazionale lo
rallenta gradualmente finché, dopo un istantaneo arresto, esso inizia a ricadere verso la terra. Se
la forza di gravità restasse uguale a tutte le altitudini, la quota raggiunta dall'oggetto sarebbe
proporzionale al quadrato della sua velocità ascendente iniziale; un oggetto lanciato alla velocità
di 2 chilometri all'ora dovrebbe raggiungere un'altezza quadrupla di un altro lanciato alla velocità
di 1 chilometro all'ora (l'energia cresce cioè con il quadrato della velocità). Ma la forza di gravità
non si mantiene costante: diminuisce lentamente con l'aumentare dell'altezza (per l'esattezza,
diminuisce in modo inversamente proporzionale al quadrato della distanza dal centro della terra).
Supponiamo di lanciare un oggetto verso l'alto con la velocità di un chilometro al secondo; esso
raggiungerà un'altezza di circa 50 chilometri prima di invertire la sua marcia e ricadere (se
58
ignoriamo la resistenza dell'aria); se avessimo lanciato lo stesso oggetto verso l'alto con la velocità
di 2 chilometri al secondo, esso avrebbe raggiunto un'altezza più che quadrupla. All'altezza di 50
chilometri, l'attrazione gravitazionale terrestre è infatti molto inferiore a quella presente al livello
del suolo, quindi da quell'altezza in poi il proiettile sarebbe soggetto a un'attrazione gravitazionale
minore. Pertanto esso salirebbe a più di 200 chilometri (per l'esattezza a 211 chilometri). Data una
velocità ascendente iniziale di 10 chilometri al secondo, un oggetto raggiunge 25400 chilometri di
altezza. A quel punto la forza di gravità non è più di 1 su 25 di quella a livello del suolo. Se
aumentiamo la velocità iniziale dell'oggetto di cinquecento metri al secondo (cioè lo lanciamo alla
velocità di 10,5 chilometri al secondo) esso raggiunge 47400 chilometri di altezza. I calcoli hanno
mostrato che un oggetto lanciato verso l'alto con una velocità iniziale di 11,2 chilometri al secondo
non ricade più sulla terra. È vero che la gravità terrestre farà diminuire gradualmente la sua
velocità, ma questo effetto diventerà sempre più piccolo, e quindi l'oggetto non raggiungerà mai
una velocità zero (cioè non si arresterà mai) rispetto alla terra (e con questo abbiamo sistemato
anche il luogo comune secondo cui «tutto ciò che sale finisce per scendere»).
La velocità di 11,2 chilometri al secondo è dunque la velocità di fuga della terra. Si può calcolare la
velocità di fuga di qualsiasi altro corpo astronomico, in funzione della sua massa e delle sue
dimensioni. La velocità di fuga della luna è di soli 2,4 chilometri al secondo; quella di Marte, di 5,1,
quella di Saturno di 37; quella di Giove, il pianeta di massa maggiore nel nostro sistema solare, è di
61 chilometri al secondo.
Andamento della concentrazione dei principali gas presenti in atmosfera in funzione del tempo passato espresso in miliardi di anni
59
Tutto ciò ha un rapporto diretto con la capacità della terra di trattenere la sua atmosfera. Gli
atomi e le molecole dell'aria si muovono incessantemente in tutte le direzioni, come se fossero
minuscoli missili. Le loro velocità individuali variano moltissimo: noi siamo in grado di parlarne solo
da un punto di vista statistico, per esempio dicendo qual è la frazione di molecole la cui velocità
supera un dato valore, o qual è la velocità media delle molecole in determinate condizioni.
La formula per esprimere questi valori fu elaborata per la prima volta nel 1860 da James Clerk
Maxwell e dal fisico austriaco Ludwig Boltzmann, e viene chiamata "legge di Maxwell- Boltzmann".
La velocità media delle molecole di ossigeno dell'aria, a temperatura ambiente, è di circa 500
metri al secondo. La molecola dell'idrogeno, che pesa un sedicesimo di quella dell'ossigeno, si
muove con una velocità media quadrupla (circa 2000 metri al secondo), perché, secondo la legge
di Maxwell-Boltzmann, la velocità di una data particella a una data temperatura è inversamente
proporzionale alla radice quadrata del suo peso molecolare.
È importante ricordare che stiamo parlando di velocità medie: una metà delle molecole ha infatti
una velocità superiore alla media, una certa percentuale ha una velocità che supera il doppio della
velocità media, una percentuale ancora minore supera il triplo della velocità media, e così via. Una
minima percentuale delle molecole di ossigeno e di idrogeno dell'atmosfera ha una velocità
superiore alla velocità di fuga, cioè a 11,2 chilometri al secondo. Dagli strati inferiori dell'atmosfera
𝐸𝑝(𝑟 > 𝑅𝑇) = −𝐺𝑀𝑇𝑚
𝑟
𝐸𝑚𝑒𝑐𝑐𝑎𝑛𝑖𝑐𝑎 = 𝐸𝑐 + 𝐸𝑝 = 1
2 𝑚 𝑣𝑓𝑢𝑔𝑎
2 − 𝐺𝑀𝑇 𝑚
𝑅𝑇= 0
𝑣𝑓𝑢𝑔𝑎 = √2 𝐺 𝑀𝑇
𝑅𝑇
Calcolo della velocità di fuga
Per stimare la velocità minima che deve avere un corpo per sfuggire all’attrazione terrestre usiamo un
semplice modello basato sulla conservazione dell’energia meccanica (e sull’assenza di attrito).
Ricordiamo che l’energia potenziale gravitazionale di massa m con distanza r dal centro della terra
maggiore del raggio della terra, ha la seguente espressione:
Questa espressione ci dice che a una distanza infinita l’energia potenziale è nulla (poiché è nulla la
forza di attrazione), se poniamo a zero l’energia meccanica totale di in corpo (somma dell’energia
potenziale e cinetica), essendo l’energia cinetica sempre positiva, risulta che l’energia potenziale
gravitazionale è negativa. Questa convenzione permette alcune semplici interpretazioni: un corpo in
un campo gravitazionale con energia totale positiva farà un moto aperto, cioè non resterà legato alla
sorgente del campo gravitazionale (se siamo sulla terra diremmo che non ricade), mentre un corpo con
energia totale negativa non potrà sfuggire alla forza di attrazione.
Per calcolare la velocità minima che deve avere un corpo sulla superficie della terra per sfuggire al
campo gravitazionale sarà sufficiente imporre che l’energia meccanica totale sia nulla.
Ricordando che il raggio della terra RT = 6350 km, che la massa della terra MT = 6.0x1024 kg e che la
costante di gravitazione universale G = 6,67 x 10-11 (Nm2/kg2), otteniamo
𝑣𝑓𝑢𝑔𝑎 = √2 𝐺 𝑀𝑇
𝑅𝑇 = √
2× 6.67×10−11 6.0×1024
6.35×106 = √12.6 × 107 = 11.2 × 103 (𝑚
𝑠)
Cioè 11.2 km/s, che tradotti fanno circa 40000 km/h.
60
queste particelle più veloci non riescono a fuggire, perché vengono rallentate dagli urti con le altre
particelle, più lente di loro. Ma negli strati superiori hanno molta più probabilità di riuscire a
fuggire: in primo luogo, lassù la radiazione solare, non incontrando ostacoli, ne eccita una porzione
maggiore, impartendo loro elevate energie e alte velocità; in secondo luogo, le collisioni sono
molto meno probabili in quell'aria rarefatta. Mentre una molecola vicina alla superficie terrestre
viaggia solo per un decimillesimo di millimetro (in media) prima di avere una collisione con una sua
vicina, all'altezza di 100 chilometri il suo cammino libero medio è di 10 centimetri e alla quota di
225 chilometri supera i mille metri. A quest'ultima altezza il numero medio di collisioni subite da
un atomo o da una molecola è solo di una al secondo, contro i 5 miliardi al secondo al livello del
mare. Pertanto, una particella veloce all'altezza di 160 chilometri e oltre ha buone probabilità di
sfuggire alla terra; se per caso si sposta verso l'alto, passa in regioni di densità ancora minore,
dove la probabilità di subire collisioni sarà ancora più piccola, così che, alla fine, potrà prendere il
volo per gli spazi interplanetari, per non far ritorno mai più. In altri termini, l'atmosfera terrestre
«perde». La perdita, però, riguarda prevalentemente le molecole più leggere. L'ossigeno e l'azoto
sono relativamente pesanti, così che solo pochissime delle loro molecole riescono a raggiungere la
velocità di fuga; quindi, da quando ossigeno e azoto si sono formati, la terra ha perso una quantità
minima dei due gas. Invece, l'idrogeno e l'elio raggiungono facilmente la velocità di fuga; di
conseguenza oggi l'atmosfera terrestre non contiene più quantità significative di questi ultimi due
gas. I pianeti dotati di massa maggiore, come Giove e Saturno, possono trattenere anche
l'idrogeno e l'elio; pertanto essi hanno atmosfere di grande spessore, composte soprattutto di tali
elementi (i quali, dopo tutto, sono le sostanze più comuni nell'universo). L'idrogeno, presente in
grandi quantità, reagisce con gli altri elementi, e quindi il carbonio, l'azoto e l'ossigeno sono
presenti solo sotto forma di composti contenenti l'idrogeno: rispettivamente metano (CH4),
ammoniaca (NH3) e acqua (H2O). L'ammoniaca e il metano, benché presenti nell'atmosfera di
Giove solo come impurità in concentrazioni relativamente modeste, sono stati osservati (per la
prima volta nel 1931, dall'astronomo tedesco-americano Rupert Wildt) perché producono bande
di assorbimento spettrali osservabili, a differenza dell'elio e dell'idrogeno che non ne producono.
La presenza di questi ultimi due elementi è stata accertata con metodi indiretti nel 1952, e
naturalmente confermata in seguito, dal 1973 in poi, dalle sonde passate vicino a Giove.
All'opposto, un pianeta di piccole dimensioni, come Marte, è scarsamente in grado di trattenere
perfino le molecole relativamente pesanti, e la sua densità atmosferica è solo un centesimo di
quella terrestre. La luna, poi, con la sua velocità di fuga ancora minore, non può trattenere alcun
tipo di atmosfera, ed è quindi priva di aria. La temperatura è un fattore altrettanto importante
della gravità. Secondo l'equazione di Maxwell-Boltzmann, la velocità media delle particelle è
proporzionale alla radice quadrata della temperatura assoluta. Se la terra avesse la temperatura
della superficie del sole, tutti gli atomi e le molecole della sua atmosfera verrebbero accelerati fra
quattro e cinque volte, ed essa non riuscirebbe a trattenere l'ossigeno e l'azoto più di quanto oggi
succeda con l'elio e l'idrogeno. Così, Mercurio, pur avendo una gravità alla superficie 2,2 volte
maggiore di quella della luna, a causa della sua temperatura considerevolmente più elevata di
quella del nostro satellite, non riesce a trattenere meglio la sua atmosfera ed è anch'esso privo di
aria. La gravità sulla superficie di Marte è solo di poco superiore a quella di Mercurio; ma, essendo
Marte considerevolmente più freddo di Mercurio (e anche della terra e della luna), esso riesce ad
avere una tenue atmosfera, in virtù più della sua bassa temperatura che della sua gravità alla
61
superficie, non troppo elevata. I satelliti di Giove sono ancora più freddi di Marte, ma hanno anche
una gravità superficiale dell'ordine di grandezza di quella della luna; pertanto non trattengono
un'atmosfera. Titano, il grande satellite di Saturno, è invece tanto freddo da riuscire a trattenere
una spessa atmosfera di azoto. E forse lo stesso vale per Tritone, il grande satellite di Nettuno.
L'ATMOSFERA ORIGINARIA.
Il fatto che la terra possieda un'atmosfera è un serio argomento contro la teoria che essa e gli altri
pianeti del sistema solare abbiano avuto origine da un evento catastrofico, come una quasi-
collisione tra il sole e un'altra stella; tale fatto depone piuttosto a favore della teoria della nube di
polvere e dei planetesimali. Quando polvere e gas della nube si condensarono dando origine ai
planetesimali, e questi, a loro volta, si aggregavano formando un corpo planetario, può darsi che
parte del gas sia rimasta imprigionata entro una massa porosa, come accade all'aria in un cumulo
di neve; in seguito, la contrazione della massa per effetto della gravità avrebbe «spremuto» i gas,
portandoli in superficie. Un dato gas sarebbe stato trattenuto o meno dalla terra anche a seconda
della sua reattività chimica. L'elio e il neon, pur essendo stati sicuramente tra i gas più comuni
nella nube originaria, sono così inerti dal punto di vista chimico da non formare alcun composto, e
sarebbero quindi sfuggiti sotto forma di gas in breve tempo. È questa la ragione per cui le
concentrazioni di elio e di neon sulla terra non sono che frazioni insignificanti delle rispettive
concentrazioni nell'universo in generale. Per esempio, si è calcolato che la terra abbia trattenuto
soltanto un atomo di neon ogni 50 miliardi presenti nella nube originaria. Quanto all'elio
originario, la nostra atmosfera ne ha conservato ancora meno, anzi forse non ne ha conservato
affatto. Se è vero infatti che oggi la nostra atmosfera contiene un po' di elio, è anche vero che esso
potrebbe essere stato prodotto dalla disintegrazione di elementi radioattivi o essere sfuggito da
cavità nel sottosuolo in cui era rimasto intrappolato. L'idrogeno, invece, anche se più leggero
dell'elio o del neon, è stato trattenuto più efficacemente, perché si è combinato con altre
sostanze, soprattutto con l'ossigeno, formando acqua. Si stima che la terra conservi ancora un
atomo di idrogeno ogni 5 milioni di quelli presenti nella nube originaria. Il caso dell'azoto e
dell'ossigeno illustra ancora meglio l'importanza della reattività chimica: nonostante il fatto che la
massa delle molecole di azoto non sia molto diversa da quella delle molecole di ossigeno, la terra
ha trattenuto 1 atomo di ossigeno su 6 originari, essendo l'ossigeno altamente reattivo, mentre ha
trattenuto 1 atomo di azoto su 800 mila, essendo l'azoto elemento inerte.
Quando parliamo dei gas presenti nell'atmosfera, dobbiamo prendere in considerazione anche il
vapore acqueo; e qui ci imbattiamo nell'interessante problema dell'origine degli oceani. Nelle
prime fasi della storia della terra, per quanto allora il nostro pianeta fosse solo moderatamente
caldo, tutta l'acqua doveva trovarsi sotto forma di vapore. Alcuni geologi ritengono che in seguito
l'acqua si sia concentrata nell'atmosfera formando una densa nube di vapore, e che, dopo il
raffreddamento della terra, si sia riversata a torrenti su quest'ultima, formando gli oceani. Altri
geologi, invece, sostengono che gli oceani si sono formati soprattutto con l'acqua che filtrava
dall'interno della terra alla superficie. I vulcani mostrano che esiste ancora una gran quantità di
acqua nella crosta terrestre, perché i gas da essi liberati sono in prevalenza vapor d'acqua. Se così
stanno le cose, gli oceani sono forse ancora in fase di accrescimento, anche se lento. Ma
l'atmosfera terrestre è stata sempre così com'è oggi, fin dalla sua formazione? Ciò appare poco
probabile. In primo luogo l'ossigeno molecolare, che costituisce un quinto del volume
62
dell'atmosfera, è una sostanza così attiva che è estremamente improbabile che esista in forma
libera, a meno che venga prodotto in continuazione; in secondo luogo, nessun altro pianeta ha
un'atmosfera che somigli anche lontanamente alla nostra, così che si è fortemente tentati di
concludere che l'atmosfera terrestre sia l'effetto di eventi unici (come, per esempio, la presenza
della vita, che manca sugli altri pianeti).
Harold Urey ha sostenuto, con dovizia di argomenti, la tesi che l'atmosfera originaria fosse
composta di ammoniaca e metano. Gli elementi più diffusi nell'universo sono idrogeno, elio,
carbonio, azoto e ossigeno, con l'idrogeno di gran lunga preponderante. In tali condizioni, il
carbonio avrebbe avuto un'alta probabilità di combinarsi con l'idrogeno, formando metano (CH4),
l'azoto avrebbe formato ammoniaca (NH3) e l'ossigeno acqua (H2O). L'elio e l'idrogeno in eccesso
naturalmente sarebbero sfuggiti dall'atmosfera; l'acqua avrebbe formato gli oceani, mentre il
metano e l'ammoniaca, gas relativamente pesanti, sarebbero stati trattenuti dalla gravità
terrestre, venendo così a costituire la porzione preponderante dell'atmosfera. Ammesso che tutti i
pianeti dotati di una gravità sufficiente a trattenere un'atmosfera abbiano avuto all'inizio
un'atmosfera di questo tipo, non tutti però l'avrebbero conservata senza mutamenti. Sarebbe
intervenuta a modificare le cose la radiazione solare ultravioletta: i mutamenti sarebbero stati
minimi per i pianeti esterni, i quali, innanzitutto, ricevono relativamente poca radiazione data la
loro distanza dal sole, e, in secondo luogo, possiedono atmosfere molto spesse, capaci di assorbire
considerevoli quantità di radiazione senza subire modificazioni sostanziali; pertanto i pianeti
esterni avrebbero conservato fino ai nostri tempi le loro atmosfere di idrogeno, elio, ammoniaca e
metano. Ben diversamente sarebbero andate le cose per i cinque mondi interni, Marte, la terra, la
luna, Venere e Mercurio. Di essi, la luna e Mercurio sono troppo piccoli e troppo caldi per
trattenere una vera e propria atmosfera. Restano Marte, la terra e Venere, con tenui atmosfere
formate prevalentemente, all'inizio, di ammoniaca, metano e acqua. Cosa sarebbe accaduto
allora? La radiazione ultravioletta, colpendo le molecole di acqua negli strati superiori
dell'atmosfera primordiale della terra, ne avrebbe provocato la dissociazione in idrogeno e
ossigeno ("fotodissociazione"). L'idrogeno sarebbe sfuggito dall'atmosfera, mentre l'ossigeno
sarebbe rimasto. Essendo però altamente reattive, le sue molecole si sarebbero combinate
praticamente con tutti i tipi di molecole con cui fossero entrate in contatto: avrebbero reagito con
il metano (CH4), formando anidride carbonica (CO2) e acqua (H2O); con l'ammoniaca (NH3),
formando azoto (N2) più acqua (H2O). Molto lentamente, ma con un processo continuo, la
composizione dell'atmosfera si sarebbe convertita da metano e ammoniaca in azoto e anidride
carbonica. L'azoto avrebbe manifestato la tendenza a reagire lentamente con i minerali della
crosta terrestre formando dei nitrati, e l'anidride carbonica sarebbe rimasta la componente
principale dell'atmosfera. A questo punto c'è da attendersi che l'acqua continui a subire la
fotodissociazione e l'ossigeno ad accumularsi nell'atmosfera, mentre l'idrogeno sfugge nello spazio
esterno? E se l'ossigeno che seguita ad accumularsi non trova niente con cui reagire (non potendo
più reagire con l'anidride carbonica), non c'è forse da attendersi che all'anidride carbonica
presente nell'atmosfera si aggiunga una certa percentuale di ossigeno molecolare (il che
spiegherebbe la presenza di ossigeno nell'atmosfera terrestre)? La risposta è un secco no, le cose
non possono essere andate così. Quando l'anidride carbonica diventa la componente dominante
dell'atmosfera, la radiazione ultravioletta non provoca più cambiamenti tramite la dissociazione
63
delle molecole di acqua. Non appena comincia ad accumularsi ossigeno libero, nell'atmosfera
superiore si forma un sottile strato di ozono, che assorbe l'ultravioletto, impedendogli di
raggiungere gli strati inferiori dell'atmosfera e bloccando la fotodissociazione. Un'atmosfera di
anidride carbonica è stabile. Ma l'anidride carbonica induce l'effetto serra. Se l'atmosfera di
anidride carbonica è sottile e relativamente lontana dal sole, e se l'acqua presente è poca, l'effetto
è piccolo, come, per esempio, nel caso di Marte. Si supponga, invece, che l'atmosfera di un pianeta
sia abbastanza simile a quella della terra e che esso si trovi altrettanto (o più) vicino al sole. In tal
caso, l'effetto serra sarebbe enorme: le temperature salirebbero, causando l'evaporazione degli
oceani a ritmo sempre maggiore. L'effetto serra verrebbe accentuato dal vapor d'acqua, e il
processo di trasformazione sarebbe accelerato sia con l'aumento della quantità di anidride
carbonica presente nell'aria, sia attraverso gli effetti della temperatura sulla crosta. Alla fine, il
pianeta sarebbe caldissimo, tutta la sua acqua sarebbe passata nell'atmosfera sotto forma di
vapore, che ne nasconderebbe per sempre la superficie sotto una coltre di nubi eterne, ed esso
sarebbe caratterizzato da una spessa atmosfera di anidride carbonica. Questo è esattamente
quanto è accaduto a Venere, che ha dovuto subire un effetto serra accelerato. Quel poco di calore
in più che riceveva per il fatto di essere più vicina della terra al sole ha innescato tutto quanto il
processo. La terra non ha seguito né l'evoluzione di Marte né quella di Venere. Il contenuto di
azoto della sua atmosfera non è penetrato nella crosta, lasciando un sottile e freddo vento di
anidride carbonica, come su Marte; e neppure è accaduto che l'effetto serra trasformasse il
pianeta in un mondo soffocante, desertico, caldissimo, come è avvenuto su Venere. È successo
qualcosa di diverso, e questo qualcosa è stato l'evolversi della vita, forse fin da quando l'atmosfera
era ancora nello stadio ammoniaca/metano. Le reazioni indotte dalla vita negli oceani terrestri
hanno causato la dissociazione dei composti azotati, liberando azoto molecolare; era così
assicurata la permanenza nell'atmosfera di una grande quantità di questo gas. In più, le cellule
hanno sviluppato la capacità di dissociare le molecole di acqua in idrogeno e ossigeno, usando
l'energia della luce visibile, che non viene bloccata dall'ozono.
L'idrogeno si è combinato con l'anidride carbonica formando le complesse molecole che
costituiscono la cellula, mentre l'ossigeno veniva liberato nell'atmosfera. È stato così, grazie alla
vita, che l'atmosfera della terra si è trasformata da un'atmosfera di azoto e anidride carbonica in
un'altra di azoto e ossigeno. L'effetto serra ha subìto una forte riduzione: la terra è rimasta fresca,
capace di conservare il suo bene unico, un oceano di acqua liquida e un'atmosfera ricca di
ossigeno libero. In realtà, la nostra atmosfera ricca di ossigeno potrebbe essere una caratteristica
solo dell'ultimo 10 per cento della durata dell'esistenza della terra; anche solo 600 milioni di anni
fa, può darsi che l'atmosfera contenesse soltanto un decimo dell'ossigeno che contiene oggi. In
ogni caso è a quest'atmosfera ricca di ossigeno libero, così com'è oggi, che dobbiamo la vita nostra
e degli altri viventi; e quest'atmosfera a sua volta deve la propria esistenza ad altri, più antichi
esseri viventi.
(fine dell’estratto dal libro di Asimov)
64
Composizione dell’atmosfera terrestre attuale
La prima atmosfera terrestre, formatasi assieme al pianeta, doveva essere costituita principalmente di H e
He, gas estremamente leggeri che, a causa della piccola massa della Terra e dell’elevata temperatura di una
giovane Terra, sono stati dispersi velocemente nello spazio.
Questa atmosfera è stata presto soppiantata da un’atmosfera di seconda generazione costituita
principalmente dai gas prodotti dalla degassificazione dei materiali che costituiscono il pianeta, soprattutto
acqua e anidride carbonica. Quindi l’atmosfera in cui si è formata la vita doveva essere un’atmosfera
riducente, composta principalmente da questi due componenti, oltre che da idrogeno e probabilmente
ammoniaca. In questo ambiente, assolutamente privo di ossigeno, si è evoluta la vita fino a dare origine ad
una grande quantità di piante che, utilizzando anidride carbonica e producendo ossigeno, hanno
lentamente prodotto un’atmosfera di terza generazione, che è quella che abbiamo attualmente, cioè
composta da un 78% di azoto, 20% di ossigeno, 0,93% di argon, 0,03 di anidride carbonica e uno 0,01% di
altri gas.
Probabilmente la composizione attuale dell’atmosfera è stabile (in equilibrio con la biosfera), in quanto
osservazioni eseguite sui ghiacci del polo indicano che la percentuale di anidride carbonica varia
periodicamente, quindi deve esserci un meccanismo naturale che interviene a compensare la
composizione.
L’atmosfera terrestre risulta stratificata, in composizione e in temperatura. Partendo dalla superficie
terrestre la temperatura diminuisce con l’altezza di 6,4°C/km nello strato più vicino alla superficie terrestre
(Troposfera), per uno spessore variabile da 8-10 km sopra ai poli e 17 km all’equatore, per poi invertire la
tendenza nello strato soprastante fino ad arrivare ad un valore di 0°C (Stratopausa fino a 50 km). Da questo
punto la temperatura torna a diminuire fino ad un’altezza di 80 km, dove raggiunge una temperatura di –
83°C (Mesopausa). Si ha poi la Termosfera, in cui la temperatura torna a salire, la cui parte più bassa
costituisce la Ionosfera (da 80 a 400 km di quota), dove l’intensa interazione con la radiazione solare ionizza
gli atomi dell’atmosfera, producendo correnti elettriche molto intense.
Composizione di dettaglio media della aria
Gas Massa molecolare frazione
Azoto (N2) 28.013 78.08 %
Ossigeno (O2) 31.999 20.95 %
Acqua (H2O) da 0 a 4 %
Argon (Ar) 39.948 0.93 %
Andamento della concentrazione dell'anidride carbonica in funzione del tempo passato (espresso in anni). Le concentrazioni sono ricavate dallo studio dalle carote dei ghiacciai antartici
65
Anidride Carbonica (CO2) 44.010 0.036 % (in aumento) 360 ppmv
Neon (Ne) 20.183 0.0018 % 18 ppmv
Elio (He) 4.003 0.0005 % 5.0 ppmv
Metano (CH4) 16.043 0.00017 % 1.7 ppmv
Kripton (Kr) 83.90 0.0001 % 1.1 ppmv
Idrogeno (H2) 2.016 0.00005 % 0.5 ppmv
Xenon (Xe) 131.30 0.000009 % 0.09 ppmv
Termodinamica dell’atmosfera
La temperatura dell’aria
La misura della temperatura media dell’aria è un’operazione assai complessa, non è difficile immaginare
che l’enormità della superficie terrestre la grande variabilità locale e temporale di questo parametro unito
al fatto che i 7/10 della superficie sono oceani rende la misura di tale importante parametro molto difficile
e complessa. Gli studiosi sono in accordo nello stimare la temperatura media della superficie terrestre in 15
°C (288 K). La sorgente principale di energia è il sole che, come già accennato, si comporta in buona
approssimazione come un corpo nero di temperatura superficiale circa 5900 K. Nella figura sottostante
sono riportate lo spettro teorico di un corpo nero a 5900 K (linea tratteggiata), l’intensità della radiazione
solare che è possibile misurare al di fuori dell’atmosfera e l’intensità della radiazione che giunge sulla
superficie terrestre. Come risulta abbastanza evidente, l’atmosfera è fortemente influenzata dalla
radiazione solare.
Confronto tra lo spettro di corpo nero di una sorgente a 5900 K (linea tratteggiata) con lo spettro solare rilevato sperimentalmente fuori dall'atmosfera e a al suolo. Si osservano importanti "buchi" dovuti all'assorbimento selettivo che alcune molecole fanno. Le più importanti sono CO2 e H2O.
66
Infatti se considerassimo il semplice bilancio radiativo tra sole e terra la temperatura di equilibrio che ne
risulta è diversa sensibilmente da quella determinata sperimentalmente.
L’energia proveniente dal sole subito fuori dall’atmosfera vale I0 = 1370 W/m2, tale valore è detto “costante
solare”, calcolato da Van Allen ha trovato una buona conferma sperimentale. Il flusso di energia
proveniente dal sole è intercettato dalla terra con una superficie efficace pari all’area di un disco dr raggio
uguale a quello terrestre. Poiché la terra gira e la sua superficie è quattro volte quella del cerchio che
intercetta la radiazione solare, la radiazione media sulla superficie esterna dell’atmosfera corrisponde a un
quarto di quella in arrivo dal sole. Tuttavia l’energia che arriva sulla terra è senz’altro minore di quella che
giunge ai limiti dell’atmosfera, questa infatti ha la proprietà di riflettere, diffondere, assorbire e infine
trasmettere alla superficie della Terra la radiazione solare che l’attraversa. Inoltre, essendo la radiazione
solare un onda elettromagnetica policromatica, l’intensità di tali effetti di interazione con l’atmosfera
risulta dipendere dalla lunghezza d’onda della radiazione incidente. Infine, ragionando in termini di
quantità di energia radiante in arrivo che la Terra riesce a trattenere , bisogna considerare che essa dipende
dalla natura della superficie e dal suo grado di umidità e sempre in funziona della lunghezza d’onda della
radiazione incidente: il rapporto tra radiazione riflessa e radiazione solare incidente viene chiamato albedo
(A) della superficie (suolo e mare) ed indipendente dalla presenza dell’atmosfera, il suo valore medio per
tutto il globo viene assunto pari al 4%. Se poi si tiene conto dell’effetto riflettente verso lo spazio ad opera
dell’atmosfera, riferito a tutte le lunghezze d’onda, otteniamo un albedo globale del 35%. Il complemento
ad 1 dell’albedo viene talvolta chiamato nerezza ed indicato con la lettera N.
(𝑎𝑙𝑏𝑒𝑑𝑜) 𝐴 = 𝐼𝑛𝑡𝑒𝑛𝑠𝑖𝑡à 𝑟𝑎𝑑𝑖𝑎𝑧𝑖𝑜𝑛𝑒 𝑟𝑖𝑓𝑙𝑒𝑠𝑠𝑎
𝐼𝑛𝑡𝑒𝑛𝑠𝑖𝑡à 𝑟𝑎𝑑𝑖𝑎𝑧𝑖𝑜𝑛𝑒 𝑖𝑛𝑐𝑖𝑑𝑒𝑛𝑡𝑒
Proviamo ora a calcolare la temperatura della terra in caso di equilibrio radiativo, considerando la terra come un corpo nero, chiamiamo I0 il flusso di energia proveniente dal sole fuori dall’atmosfera, Ia sarà l’energia per metro quadro assorbita dalla superficie terrestre e Ie quella emessa, avremo
𝐼𝑎 = (1 − 𝐴)𝐼0
4
𝐼𝑒 = 𝜎 𝑇𝑇4
Quindi se Ia = Ie
𝑇𝑇 = √(1 − 𝐴)𝐼0
4 𝜎
4
= √(1 − 0.35) ∙ 1400
4 ∙ 5.67 × 10−8
4
= 2.52 × 102 ≈ 250 𝐾
Una temperatura del genere si registra a circa 5 km di altezza sul livello del mare, concludiamo che l’atmosfera contribuisce all’innalzamento della temperatura. Per pressioni e temperature tipiche della troposfera l’aria può essere considerata un miscuglio di gas perfetti ai quali è possibile applicare l’equazione di stato
𝑝𝑉 = 𝑛𝑅𝑇 Ricordiamo che il numero di moli n è il rapporto tra la massa m del gas e il peso molecolare medio Pm, introduciamo allora una nuova costante
𝑅𝑎𝑟𝑖𝑎 = 𝑅𝑎 = 𝑅
𝑃𝑚𝑜𝑙𝑒𝑐𝑜𝑙𝑎𝑟𝑒 𝑚𝑒𝑑𝑖𝑜
Otteniamo
𝑝 𝑉 = 𝑚
𝑃𝑚 𝑅 𝑇 = 𝑚 𝑅𝑎𝑇
67
Considerando come peso molecolare medio dell’aria secca Pm = 29 [PN2 = 28 (80%), PO2 = 32 (20%)]. In atmosfera ha poco significato il concetto di volume, spesso lo stato dell’aria è descritto attraverso la sua densità che otteniamo direttamente dividendo entrambi i membri dell’equazione di stato per il volume
𝑝 = 𝑚
𝑉 𝑅𝑎 𝑇 = 𝜌 𝑅𝑎 𝑇
Ricordiamo che in condizioni normali la densità dell’aria è circa = 1.2 kg/m3 ed 𝑅𝑎 = 𝑅
𝑃𝑚=
1000 ∙8.31
29=
287 [𝐽
𝑘𝑔∙ 𝐾]
Variazione delle pressione con la quota L’atmosfera, data la sua massa, esercita non solo una pressione cinetica ma anche una pressione idrostatica dovuta alla gravità, variabile con la quota.
Consideriamo la pressione p ad una certa quota z e innalziamoci di una piccola quantità z, avremo un piccola diminuzione di pressione dovuta alla massa dm contenuta un piccolo elemento di aria contenuto in
un cilindretto avente area di base dS e altezza z rimasta sotto, avremo cioè
∆𝑝 = −𝑑𝑚 𝑔
𝑑𝑆= −𝜌 𝑑𝑆 ∆𝑧
𝑔
𝑑𝑆= − 𝜌 𝑔 ∆𝑧
Dall’ultima espressione evinciamo che:
- la variazione di pressione è proporzionale alla densità del fluido (per cui la variazione sarà più rapida vicino alla superficie dove l’aria è più densa e meno in quota dove l’aria è più rarefatta)
- maggiore è la densità e più rapidamente decresce la pressione con la quota (osserviamo per inciso
che l’aria umida ha una densità inferiore all’aria secca) La variazione di una grandezza con la posizione prende il nome di gradiente, per cui, l’ultima espressione descrive il gradiente verticale della pressione rispetto alla quota, al suolo questo valore è
∆𝑝 = − 𝜌 𝑔 ∆𝑧 = −1.2 ∙ 9.8 ∆𝑧 ≈ 0.1 (𝑚𝑏𝑎𝑟)∆𝑧 Con riferimento al suolo, la pressione decresce di 0.1 mbar (10 Pa) per ogni metro di altezza (principio di funzionamento degli altimetri a pressione).
Variazione della Temperatura con la quota Supponiamo che un volume di aria, contenente una massa m unitaria (così che il volume occupato sia l’inverso della densità) subisca un sollevamento: trovandosi ad una pressione esterna diminuita di un
fattore p, si espanderà e, poiché non si verifica uno scambio di calore con l’atmosfera circostante a causa della bassa conducibilità termica dell’aria, l’energia per l’espansione verrà fornita dall’energia interna e la temperatura della massa diminuirà (espansione adiabatica). Possiamo schematizzare il processo nel seguente modo:
- l’aria sale e si raffredda a pressione e volume costante variando la propria energia interna della quantità ∆𝑈 = 𝑛 𝑐𝑣∆𝑇
- l’aria si espande contro la pressione esterna richiedendo un’energia pari al lavoro compiuto 𝑝∆𝑉 avremo allora
∆𝑈(𝑇) + 𝐿 = 0 → 𝑛 𝑐𝑣∆𝑇 + 𝑝 ∆𝑉 = 0 → 𝑝 ∆𝑉 = − 𝑛 𝑐𝑣∆𝑇
68
Applichiamo queste osservazioni ad una massa m = 1 kg di aria secca, la massa sarà m = nxPm/1000
(considerando come peso molecolare medio dell’aria Pm = 28.8), in questo modo la densità sarà il
reciproco del volume 𝜌 = 1𝑉⁄
Ricordiamo che
𝑝 𝑉 = 𝑛 𝑅 𝑇 Una piccola variazione di temperatura T si traduce in
𝑝 ∆𝑉 + 𝑉 ∆𝑝 = 𝑛𝑅 ∆𝑇 Confrontando con
𝑝 ∆𝑉 = − 𝑛 𝑐𝑣∆𝑇 E ricordando che per una mole di gas vale R + cv = cp, otteniamo
𝑉 ∆𝑝 = 𝑛𝑅 ∆𝑇 + 𝑛 𝑐𝑣∆𝑇 = 𝑛 𝑐𝑝∆𝑇
Ricordiamo che ∆𝑝 = − 𝜌 𝑔 ∆𝑧, allora possiamo riscrivere
𝑉 (− 𝜌 𝑔 ∆𝑧) = 𝑛 𝑐𝑝∆𝑇
Avendo ipotizzato m = 1 la densità 𝜌 = 1𝑉⁄ , pertanto otteniamo
∆𝑇
∆𝑧= − (
𝑔
𝑛 𝑐𝑝)
Poiché il numero di moli considerato corrisponde alla massa unitaria, si usa il calore specifico per unità di
massa anche nei gas, otteniamo allora
∆𝑇
∆𝑧= − (
𝑔
𝑐𝑝) ≈ 0.01 [°𝐶
𝑚⁄ ]
Che rappresenta il gradiente adiabatico per l’aria secca (Dry Adiabatic Lapse Rate - DALR). Considerando
che il calore specifico dell’aria secca è cp = 1005 (J/kg·K), otteniamo come valore per il gradiente adiabatico
d = 0.01°C/m, un grado ogni cento metri. (il calore specifico è stato calcolato considerando l’aria un gas
biatomico di peso molecolare 28.8, per cui nell’unità di massa ci sono n = 1000/28.8 = 34.7 moli,
moltiplicando questo valore per 7/2·R otteniamo il valore di circa 1000 J/kg·K che abbiamo usato).
L’umidità dell’aria Il valore del gradiente adiabatico trovato teoricamente è maggiore della variazione della temperatura con
la quota che si osserva sperimentalmente. Ciò è dovuto alla presenza in atmosfera di importanti quantità di
vapore acqueo. Tale presenza è generata dall’evaporazione della superficie degli oceani e sulla terraferma
dalla traspirazione delle piante. Una volta presente nella parte inferiore dell’atmosfera, l’umidità viene
trasportata verso l’alto dai moti turbolenti dell’aria, finche, raffreddandosi, condensa e ritorna al suolo
sotto forma di pioggia o neve.
Una massa di aria umida può essere schematizzata come un miscuglio di aria secca a composizione
costante (peso molecolare 28.8) e di vapore acqueo (peso molecolare) 18. Se riprendiamo la formula con la
quale è stato stimato il gradiente adiabatico dell’aria secca osserviamo che dipende dal calore specifico per
unità di massa, calcolato come prodotto del numero di moli di gas contenute in mille grammi per 7R/2. Nel
caso dell’aria umida, essendo il peso molecolare medio inferiore a quello dell’aria secca e poiché la
molecola d’acqua è triatomica, risulta che il calore specifico dell’aria umida è maggiore di quello dell’aria
secca e, di conseguenza, il gradiente adiabatico inferiore. Si deve poi considerare che, in caso di
69
condensazione del vapore acqueo, si avrà un rilascio di calore che contribuirà all’innalzamento della
temperatura riducendo ulteriormente il valore del gradiente adiabatico. Non è possibile dare un valore
univoco per tale grandezza dal momento che il contenuto di umidità dell’aria è molto variabile (da poche
parti per mille fino a qualche percento) e la pressione di saturazione dipende dalla temperatura. In genere
si indica il gradiente adiabatico saturo (Saturated Adiabatic Lapse Rate – SALR) che, a temperatura
ambiente, vale circa
Γ𝑠 = 6.0 °C/1000m La differenza tra i due valori dei gradienti adiabatici da origine a fenomeno termici curiosi, il più famoso di
questi è il FOHN.
Se una massa di aria umida è spinta verso il fronte di una catena montuosa, nel salire verso quote maggiori,
subisce una espansione adiabatica con conseguente raffreddamento. Nella prima parte del moto
ascensionale il raffreddamento sarà molto simile a quello determinato dal gradiente adiabatico per l’aria
secca (poco inferiore). Raggiunta la temperatura per la quale il contenuto di vapore acqueo genera una
pressione uguale a quella di saturazione per quella temperatura, l’acqua inizierà a condensare con
conseguente rilascio di calore innalzamento della temperatura (riducendo quindi il gradiente termico
effettivo). Nella fase di discesa l’aria avrà un contenuto di umidità ridotto rispetto alla salita, pertanto la
fase di compressione con conseguente riscaldamento, seguirà il gradiente adiabatico secco. L’effetto
complessivo sarà una riduzione dell’umidità e un aumento di temperatura.
Il contenuto di umidità dell’aria è espresso in diversi modi:
Umidità Assoluta: è la quantità di vapore acqueo espressa in grammi contenuta in un metro cubo d'aria. Si
esprime come frazione
𝑎 = 𝑚𝑣
𝑉 [
𝑔𝑟
𝑚3]
esprimendo la massa come il prodotto della densità per il volume otteniamo, 𝑎 = 𝑚𝑣
𝑉=
𝜌𝑣 𝑉
𝑉=
𝑝𝑣
𝑅𝑣 𝑇.
Quando un abbassamento di temperatura porta a far coincidere l'umidità assoluta con quella di saturazione
si ha una condensazione del vapore acqueo e il valore termico prende il nome di temperatura di rugiada. In
corrispondenza di questo valore se si ha una superficie fredda si ha la rugiada (brina a valori sotto lo zero),
se la condensazione riguarda uno strato sopra il suolo si ha la nebbia. L’umidità assoluta è però un valore
poco apprezzabile e per questo si preferisce l'utilizzo dell'umidità specifica.
Confronto tra il raffreddamento di massa di aria umida che sale lungo il fianco sinistro di una catena montuosa. Durante la salita l’espansione adiabatica comporta un raffreddamento con conseguente condensazione dell’umidità e rilascio di calore (gradiente medio 6. 5 °C/100m). L'aria (divenuta secca) discende sul fianco opposto con conseguente riscaldamento adiabatico (gradiente medio 10 °C/1000 m). L’effetto complessivo è di un aumento della temperatura e riduzione dell’umidità.
70
Umidità Specifica: è il rapporto della massa del vapore acqueo e la massa d'aria umida (aria secca più
vapore); poiché il contenuto di vapore è generalmente piccolo rispetto al totale, si definisce quindi
l’umidità specifica (o titolo dell’aria umida)
𝑥 = 𝑚𝑣
𝑚𝑎 (
𝑘𝑔 𝑎𝑐𝑞𝑢𝑎
𝑘𝑔 𝑎𝑟𝑖𝑎 𝑠𝑒𝑐𝑐𝑎)
x= 𝑚𝑣
𝑚𝑎=
𝜌𝑣
𝜌𝑎=
𝑝𝑣
𝑅𝑣𝑇 ∙
𝑅𝑎 𝑇
𝑝𝑎=
𝑝𝑣∙𝑅𝑎
𝑅𝑣∙ 𝑝𝑎= 0.622
𝑝𝑣
𝑝𝑎= 0.622
𝑝𝑣
𝑝𝑡𝑜𝑡− 𝑝𝑣
Umidità relativa: indica il rapporto percentuale tra la quantità di vapore contenuto da una massa d'aria e la
quantità massima (cioè a saturazione) che il volume d'aria può contenere nelle stesse condizioni di
temperatura e pressione. Alla temperatura di rugiada l'umidità relativa è per definizione del 100%.
L'umidità relativa è un parametro dato dal rapporto tra umidità assoluta e l'umidità di saturazione.
𝑈𝑅 = 𝑚𝑣
𝑚𝑠𝑎𝑡 ∙ 100 =
𝑝𝑣
𝑅𝑣𝑇 ∙
𝑅𝑣 𝑇
𝑝𝑠𝑎𝑡 ∙ 100 =
𝑝𝑣
𝑝𝑠𝑎𝑡 ∙ 100
Esempio: se una massa d'aria ha una temperatura propria, ad esempio, di 15 °C con una quantità di umidità
relativa pari al 50%, affinché tale umidità possa raggiungere il 100% (saturazione) a pressione costante, e,
magari depositarsi (condensazione) sarà necessario abbassare la temperatura della massa d'aria, ad
esempio, di 5 °C, portarla cioè da 15 °C a 10 °C.
A seguito di un raffreddamento a pressione costante, per effetto della progressiva riduzione della pressione
di saturazione, si ha un incremento dell'umidità relativa, fino a quando essa non arriva al 100%, quando la
psat coincide con la pressione parziale del vapore. Ogni ulteriore raffreddamento provocherà una
condensazione. Tale temperatura prende il nome di temperatura di incipiente condensazione o
temperatura di rugiada, indicata con il simbolo TR. Questa denominazione deriva dal fenomeno naturale
per cui, durante la notte, la graduale diminuzione di temperatura fa sì che questa possa scendere, specie
dopo giornate soleggiate che favoriscono l'evaporazione, a valori tali che la corrispondente pressione di
saturazione diviene uguale o inferiore alla pressione di vapore. In tal caso si deve verificare la
condensazione del vapore in forma di piccole gocce di rugiada affinché la pressione di vapore continui ad
eguagliare la psat.
La determinazione della temperatura di rugiada può essere fatta a partire dalla conoscenza della pressione
di vapore e determinando la temperatura per la quale essa eguaglia la psat. Alternativamente, se UR>50% è
possibile impiegare la seguente equazione empirica:
𝑇𝑅 = 𝑇 − (100 − 𝑈𝑅
5)
Oppure la formula inversa
𝑈𝑅 = 5 ∙ (𝑇𝑅 − 𝑇) + 100
71
Andamento dell'umidità specifica in funzione della temperatura per diversi valori dell’umidità relativa. Conoscendo la temperatura di rugiada e la temperatura dell’aria è possibile ricavare il valore dell’umidità relativa seguendo le linee verdi. Questo tipo di grafici sono detti diagrammi psicrometrici
Stabilità di una colonna d’aria Se una massa d’aria che sale dal suolo incontra, nel suo cammino verticale, un ambiente atmosferico con
gradiente termico uguale a quello adiabatico, essa si troverà ad avere la stessa temperatura, pressione e
densità dell’ambiente circostante: in queste condizioni ogni spostamento verticale è libero e si parla di
equilibrio indifferente. Se invece il gradiente termico verticale dell’ambiente circostante supera quello
adiabatico per aria secca (ambiente superadiabatico), una massa di aria che si solleva sarà sempre più calda
del mezzo in cui si muove, quindi meno densa, la spinta idrostatica favorirà quindi il movimento
ascensionale, lo strato di aria si trova quindi in equilibrio instabile. Infine se il gradiente termico verticale è
inferiore a quello adiabatico per aria secca (ambiente ipoadiabatico) o se ci so trova in situazione di
inversione termica, la massa d’aria è sottoposta a spinte che cercano di riportarla nella sua posizione
originaria, siamo in condizioni di equilibrio stabile.
Nel valutare la stabilità di una colonna di aria dobbiamo considerare non solo il gradiente adiabatico secco
ma anche quello saturo. Le condizioni di instabilità e stabilità saranno fuori dall’intervallo individuato da
questi due valori (vedi figura). Per valori del gradiente termico intermedi si avranno condizioni non sempre
Schema delle possibili situazioni di equilibrio per il cammino verticale di una porzione di aria in relazione all’ambiente circostante. (ELR Equilibrium Lapse Rate, equilibrio in relazione al gradiente di temperatura; il limiti sono le linee di SALE Saturated Adiabatic Lapse Rate e DALR Dry Adiabatic Lapse Rate
72
determinabili, o meglio, la stabilità dipenderà anche da altri fattori. Dal punto di vista “ambientale”, se la
massa di gas della quale si sta valutando la stabilità rispetto a una spinta verticale è una gas inquinante, è la
situazione di instabilità che ne favorisce la dispersione e ne riduce la pericolosità poiché, favorendo il moto
verticale, si riduce la probabilità che il gas ritorni verso terra. Credo che sia quindi intuitivo capire
l’importanza dell’altezza di un camino al fine di minimizzare un eventuale impatto ambientale.
Pasquill (1961) introdusse una suddivisione in sei classi di stabilità (aumentate successivamente a sette),
normalmente usata attualmente per determinare lo stato di stabilità dell'atmosfera.
cat. A Condizioni estremamente instabili >= 1,9 °C/100m
cat. B Condizioni moderatamente instabili 1,7 ≤ < 1,9 °C/100m
cat. C Condizioni leggermente instabili 1,5 ≤ < 1,7 °C/100m
cat. D Condizioni neutre 0,5 ≤ < 1,5 °C/100m
cat. E Condizioni leggermente stabili -1,5 ≤ < 0,5 °C/100m
cat. F Condizioni stabili � -4 ≤ < -1,5 °C/100m
cat. G Stabilità forte < -4 °C/100m.
Le prime tre categorie si riferiscono ad un gradiente di temperatura assoluta superadiabatico, la categoria D
ad un gradiente adiabatico e le ultime categorie E, F e G ad un gradiente subadiabatico. Il gradiente termico
verticale è espresso in °C/100m. Ovviamente il metodo più esatto, per la valutazione del grado di stabilità,
sarebbe quello della determinazione continua del gradiente termico verticale, fino ad una ragionevole
altezza dal suolo, per poi procedere, dopo una congrua serie di osservazioni, alla classificazione dei dati
ottenuti secondo opportuni intervalli di valori del gradiente rispetto all'adiabatica secca.
Questo metodo però, richiedendo molto tempo e particolari strumentazioni di misura, presenta notevoli
difficoltà di attuazione nella pratica. In mancanza di queste informazioni, si attribuisce un valore di stabilità,
uniforme in tutto lo strato di atmosfera, utilizzando i dati disponibili al suolo.
I movimenti orizzontali delle masse di aria
Il vento è il movimento di una massa d’aria atmosferica da un'area con alta pressione ad un'area con bassa
pressione. In genere con tale termine si fa riferimento alle correnti aeree di tipo orizzontale, mentre per
quelle verticali si usa generalmente il termine correnti convettive che si originano invece per instabilità
atmosferica verticale..
In presenza di due punti con differente atmosferica si origina una forza detta forza del gradiente di
pressione o forza di gradiente che agisce premendo sulla massa d'aria per tentare di ristabilire l'equilibrio. Il
flusso d'aria non corre in maniera diretta da un punto all'altro, cioè con stessa direzione della forza di
gradiente, ma subisce una deviazione dovuta alla forza di Coriolis che tende a spostarlo verso destra
nell'emisfero boreale e verso sinistra nell'emisfero australe. A causa di questo effetto il vento soffia
parallelamente alle isobare. In questo caso si parla di vento geostrofico. Tuttavia alle basse quote (meno di
600 m) è necessario tenere anche conto dell'azione dell'attrito con la superficie terrestre, che è in grado di
modificare la direzione del vento di circa 10° sul mare e 15-30° sulla terra rispetto a quella del vento
geostrofico, rendendo il percorso dall'alta pressione alla bassa pressione più diretto. La velocità del vento, o
meglio la sua intensità, dipende dal gradiente barico, cioè dalla distanza delle isobare, e si misura con uno
strumento chiamato anemometro e può essere espressa in:
73
m/s
km/h
nodi (knots in inglese, kn)
L'intensità del vento aumenta in media con la quota per via
delle diminuzione dell'attrito con la superficie terrestre e la
mancanza di ostacoli fisici quali vegetazione, edifici, colline e
montagne. Il complesso dei venti e delle correnti aeree
atmosferiche da vita alla circolazione atmosferica.
Può essere utile ricordare in questa sede l’origine (e quindi
l’utilità) della misura delle distanze (e quindi delle velocità in
nodi, 1 nodo = 1 miglio marino/hora). Tale unità ha grande
importanza pratica. Un nodo (o miglio marino) corrisponde
alla lunghezza dell’arco sulla circonferenza equatoriale
sottesa da un angolo di un primo (un sessantesimo di grado.
Infatti se assumiamo che la circonferenza equatoriale di circa
40.000
km (quarantamila kilometri), dividendo questo valore per 360 e successivamente per 60 otteniamo circa
1.852 km. L’utilità pratica risiede nella corrispondenza diretta tra distanza sulla superficie terrestre e angolo
sotteso al centro (ricordiamo che le coordinate sulla superficie terrestre, longitudine e latitudine, sono
espresse in angoli) e le variazioni delle posizioni espresse in angoli possono essere facilmente raccordabili
con gli spostamenti in miglia marine (e quindi in nodi).
La turbolenza atmosferica
La turbolenza è una proprietà dei fluidi in moto: è costituita da una sequenza di moti caotici ed irregolari
che, pur essendo facilmente identificabili, sono difficilmente definibili. Nell'aria atmosferica determina una
Spostamento delle masse di aria per effetto della rotazione della terra. Nell'emisfero Boreale gli spostamenti saranno verso destra, nell'emisfero Australe verso sinistra.
Generazione del vento Geostrofico. Ad una certa altezza, dove gli effetti dell’attrito con la superficie terrestre possono essere trascurati, le forze orizzontali che agiscono sulle masse di aria sono 2: la forza di pressione dovuta al gradiente orizzontale della pressione e la forza di Coriolis dovuta alla rotazione della terra. All’equilibrio di queste due forze i venti sembrano scorrere parallelamente alle isobare (e non perpendicolarmente come ci si aspetterebbe per effetto della sola forza di gradiente).
74
continua variazione della velocità istantanea e della direzione del vento. La struttura di una massa d'aria in
movimento può essere rappresentata da una successione continua e complessa di fluttuazioni casuali, le
cui dimensioni sono finite ma di durata irregolare e di frequenza variabile. La turbolenza atmosferica può
essere originata da fenomeni di natura meccanica quali la irregolarità della superficie terrestre o dalla
distribuzione verticale del vento; in questi casi il moto turbolento è generato da fenomeni connessi con la
struttura termica verticale dell'atmosfera. Le manifestazioni della turbolenza si definiscono raffiche; la loro
frequenza massima è riscontrabile nel periodo di mezzogiorno, mentre si riducono considerevolmente
durante la notte. La variazione diurna delle raffiche è imputabile allo stato del cielo: se è in atto una
copertura nuvolosa di notevole estensione e ampio spessore, il rapporto fra le oscillazioni istantanee del
vento e il vento medio è pressoché costante per tutto il periodo corrispondente a quel particolare tipo di
copertura. Da ciò si può evincere che la variazione diurna della turbolenza termica del suolo poiché le nubi
tendono ad impedire lo scambio radiativo tra il suolo e gli strati d'aria sovrastanti, i quali, a loro volta,
influenzano il gradiente di temperatura nei bassi strati atmosferici. Questo evidenzia una stretta
correlazione fra il tipo di stabilità degli strati d'aria e il grado di turbolenza della struttura del vento. La
turbolenza assume notevole importanza per i fenomeni di mescolamento. La turbolenza può trasferire
calore: infatti se lo strato d'aria in prossimità del suolo si riscalda fino a divenire più caldo dello strato
immediatamente sovrastante, si stabilirà un gradiente calore-energia al di sopra del suolo. Un elemento
d'aria che si sposta verso l'alto trasporterà una quantità di energia termica maggiore di quella che un
elemento d'aria potrà trasportare spostandosi da un livello superiore verso uno inferiore. In questo caso si
stabilisce un flusso di calore verso l'alto determinato dal moto turbolento. Le proprietà fisiche dell'aria si
trasferiscono pertanto per turbolenza nella direzione dei valori decrescenti. Maggiore è la turbolenza o il
valore del gradiente, maggiore sarà l'instabilità e, di conseguenza, il ritmo con il quale avverrà il
trasferimento o il mescolamento.
Trasporto di inquinanti in atmosfera La diffusione molecolare Un eventuale inquinante gassoso o sotto forma di polvere fine, immesso in atmosfera non resterà
ovviamente nella posizione di immissione ma inizierà un processo di dispersione (diffusione) e sarà
trasportato insieme alle masse di aria soggette ai loro movimenti principali: il vento (per i moti orizzontali)
e le correnti convettive o turbolente per moti verticali
Urti fra molecole e cammino libero medio Se le molecole in un gas non sono esattamente puntiformi, esse possono modificare la loro traiettoria
perché urtano fra di loro (in aggiunta agli ovvi urti con le pareti del recipiente). Consideriamo il caso
realistico in cui le molecole sono sfere rigide di raggio r e poniamoci le seguenti domande:
Con che frequenza urtano con le altre molecole?
Di quanto si spostano in media fra un urto e l'altro?
Per rispondere a queste domande utilizziamo un modello molto semplificato per la dinamica degli urti,
dove le molecole sono sfere rigide di raggio r. Supponiamo che solo una molecola sia in moto e che tutte le
altre stiano ferme. La molecola in moto urta un'altra molecola solo se il centro di quest'ultima si trova ad
una distanza inferiore a 2r dalla sua traiettoria:
75
Nell'intervallo di tempo t la molecola in moto si sposterà di un tratto vt, e durante questo periodo urterà
qualsiasi altra molecola contenuta nel cilindro di raggio 2r e lunghezza vt. Il volume del cilindro è:
∆𝑉 = 𝜋(2𝑟)2𝑣∆𝑡 = 4𝜋𝑟2𝑣∆𝑡
Il numero di molecole con centro contenuto nel volume V sarà proporzionale al volume stesso ed alla
densità numerica (numero di particelle per unità di volume, da confondere con la densità intesa come
massa per unità di volume), quindi è facile determinare il numero di urti per unità di tempo:
∆𝑁 = 𝛿 ∆𝑉 = 4𝜋𝑟2 𝑣 𝛿 ∆𝑡 → ∆𝑁
∆𝑡= 4𝜋𝑟2 𝑣 𝛿
Questo risultato è molto semplificato, dal momento che assume che una sola molecola per volta sia in
moto; esso è sufficiente tuttavia per comprendere la dipendenza della frequenza di urti dai parametri del
sistema ed ottenere il corretto ordine di grandezza. L'analisi è un poco più complessa quando tutte le
molecole sono considerate in moto: in questo caso è possibile dimostrare che la frequenza è sempre
proporzionale a 𝑟2𝑣 𝛿, ma il fattore di proporzionalità è 4√2𝜋 invece di 4𝜋.
Il tempo medio fra gli urti, detto tempo libero medio, è il reciproco della frequenza:
𝜏 = ∆𝑡
∆𝑁=
1
4𝜋√2 𝑣 𝑟2𝛿=
𝑉
4𝜋√2 𝑣 𝑟2𝑁
La distanza media percorsa da una molecola fra un urto e l'urto successivo, detta cammino libero medio, è
data da:
𝜆 = 𝑣 𝜏 → 𝜆 = 𝑉
4𝜋√2 𝑟2𝑁
L'espressione per il cammino libero medio si può riformulare in termini della sezione d'urto totale 𝜎 di una
molecola (per una sfera rigida di raggio r la sezione d'urto è semplicemente l'area di una sezione massima
della sfera, cioè 𝜎 = 𝜋𝑟2):
𝜆 = 𝑉
4 √2 𝜎 𝑁
Il cammino libero medio risulta quindi indipendente dalla velocità della molecola, ed inversamente proporzionale alla sezione d'urto ed alla concentrazione di molecole. In termini delle proprietà termodinamiche macroscopiche del gas:
La particella colorata in rosso urterà le
particelle comprese in un cilindro
determinato dal vettore velocità come
asse e avente un raggio pari al doppio
del raggio della particella stessa
76
𝑝𝑉 = 𝑁 𝑘𝐵 𝑇 → 𝑉 = 𝑁 𝑘𝐵 𝑇
𝑝 → 𝜆 =
𝑉
4𝜋√2𝑁 𝑟2 =
𝑘𝐵𝑇
4𝜋√2 𝑝 𝑟2
Facciamo un esempio di questo valore, supponiamo un gas di Argon alla temperatura ambiente e a pressione atmosferica, possiamo considerare il raggio atomico analogo al raggio classico dell’atomo di Idrogeno rH = 0,5 x 10-10 m
𝜆 = 𝑘𝐵 𝑇
√2 𝜋 𝜎2 𝑝=
8.315 ∙ 3 ∙ 102
1.414 ∙ 3.14 ∙ 25 ∙ 10−20 ∙ 6.02 ∙ 1023
∙ 1.01325 ∙ 105= 0.037 ∙ 10−6 = 37 𝑛𝑚
Il libero cammino medio risulta essere molto piccolo, ciò significa che il numero di collisioni al secondo è
enorme f = v/, dell’ordine di 1010 collisioni al secondo.
77
Diffusione unidimensionale Possiamo immaginare (anche se è poco realistico) che se un inquinante si possa muovere lungo una sola direzione e sia confinato tutto nella posizione x = 0. Indichiamo con N il numero totale di particelle. Supponiamo che le particelle (molecole o polveri) a seguito dei continui urti con le molecole di aria di
possano muovere solo per distanze uguali al libero cammino medio. Dopo un tempo t1 = 1/f (quindi tutte le particelle hanno subito un urto) metà particelle (N/2) si saranno spostate nel verso positivo di un tratto
uguale al libero cammino medio (+), l’altra metà nel senso negativo (-). Dopo un secondo urto (e quindi
dopo un ulteriore intervallo di tempo t = 1/f) le particelle che si trovano a + si saranno divise in due
gruppo da N/4 particelle, un gruppo sarà a distanza +2, l’altro sarà tornato all’origine. Stesso meccanismo
per le N/2 particelle che si trovano a –, dopo il secondo urto N/4 si trovano a -2 e le altre N/4 sono
tornate in posizione 0. Ora abbiamo tre gruppi: N/4, N/2, N/4 rispettivamente nelle posizioni -2, 0, +2.
Dopo il terzo urto avremo: N/8, N/8+N/4, N/4+N/8, N/8 rispettivamente nelle posizioni -3, -, +, +3. E così via.
.
N\Pos - - -0 -9 -8 -7 -6 4 3 2 0 2 3 4 6 7 8 9 0 11
0 0 0 0 0 0 0 4096 0 0 0 0 0 0
1 0 0 0 0 0 2048 2048 0 0 0 0 0
2 0 0 0 0 0 1024 2048 1024 0 0 0 0 0
3 0 0 0 0 512 1536 1536 512 0 0 0 0
4 0 0 0 0 256 1024 1536 1024 256 0 0 0 0
5 0 0 0 128 640 1280 1280 640 128 0 0 0
6 0 0 0 64 384 960 1280 960 384 64 0 0 0
7 0 0 32 224 672 1120 1120 672 224 32 0 0
8 0 0 16 128 448 896 1120 896 448 128 16 0 0
9 0 8 72 288 672 1008 1008 672 288 72 8 0
10 0 4 40 180 480 840 1008 840 480 180 40 4 0
11 2 22 110 330 660 924 924 660 330 110 22 2
12 1 12 66 220 495 792 924 792 495 220 66 12 1
Esempio di diffusione unidimensionale. Nella posizione x = 0 sono concentrate 4096 particelle. A seguito di urti le particelle possono spostarsi a destra o a sinistra (non restano ferme). Lo spazio che percorrono tra due urti consecutivi
è uguale (mediamente) a libero cammino e viene indicato con la lettera . Ipotizziamo che i gruppi di particelle si dividono esattamente in due. Osserviamo che le particelle si disperdono, già dopo 12 urti si può osservare la curva a campana che descrive i processi di diffusione molecolare
Formazione della distribuzione a campana dopo dodici urti. Grafico ottenuto con i dati dell’ultima riga della tabella
Andamento della concentrazione nella posizione 3 in funzione del numero di urti (e quindi del tempo). Osserviamo che una concentrazione diversa da zero compare dopo un urto e che dopo una fase di crescita si può osservare l'inizio della fase di calo
78
La dispersione di un pennacchio
La previsione del destino ambientale di un effluente emesso in atmosfera dalle ciminiere degli impianto industriali rappresenta un problema applicativo importante per la Fisica Ambientale. Facciamo l’ipotesi che il materiale immesso sia esclusivamente gassoso (o con piccolissime particelle solide) e supponiamo che il pennacchio di fumo (plume) abbia la stessa densità dell’aria circostante e che vi sia vento debole unidirezionale. Si illustrano le principali forme che può assumere il pennacchio in relazione all’andamento verticale della temperatura. In termini semi-quantitativi si può affermare che:
- più rapida è la diminuzione della temperatura con la quota, maggiore è il grado di turbolenza e quindi il tasso di dispersione del fumo.
- Minore è il gradiente verticale di temperatura, meno sviluppato è il grado di turbolenza e più lenta è la dispersione. I fumi tendono a disporsi a ventaglio orizzontale.
- In condizioni di inversione termica il fumo tende ad essere trasportato molto lontano dalla sorgente senza subire dispersione per poi ricadere al suolo, in determinate condizioni ambientali, con tutto il suo carico inquinante. Quest’ultima situazione che viene detta di fumigazione si instaura generalmente nelle prime ore del mattino quando il riscaldamento della terra favorisce l’insorgere di turbolenza al suolo.
79
L’energia dal vento (energia eolica, fonte wikipedia) L'energia eolica è la conversione dell'energia del vento in una forma utilizzabile di energia, generalmente grazie all'utilizzo di aerogeneratori che producono energia elettrica, tramite mulini a vento che producono energia . Grandi parchi eolici sono costituiti da centinaia di singoli aerogeneratori collegati alla rete di trasmissione di energia elettrica. L'eolico off-shore è più stabile, fornisce più energia e possiede un minor impatto visivo, tuttavia i costi di realizzazione e manutenzione sono notevolmente più alti. Piccoli impianti eolici on-shore forniscono elettricità a luoghi isolati. Le società elettriche acquistano sempre di più elettricità in eccesso prodotta da piccoli aerogeneratori domestici. L'energia eolica è un'energia alternativa ai combustibili fossili, abbondante, rinnovabile e a sostegno dell'economia verde, ampiamente distribuita, pulita, non produce emissioni di gas serra durante il funzionamento e richiede una superficie di terra non eccessivamente elevata. Gli effetti sull'ambiente sono in genere meno problematici rispetto a quelli provenienti da altre fonti di energia. A partire dal 2011, la Danimarca genera più di un quarto della sua energia elettrica dal vento e 83 paesi di tutto il mondo utilizzano l'energia eolica commercialmente. Nel 2010 la produzione di energia eolica è stata di oltre il 2,5% di tutto il consumo elettrico mondiale, con una crescita stimata del 25% annuo. Il costo monetario per unità di energia prodotta è simile al costo rapportabile ai nuovi impianti a gas naturale e a carbone. L'energia eolica è una fonte stabile di anno in anno, ma ha una variazione significativa su scale di tempo più brevi. L'intermittenza del vento crea raramente problemi quando essa viene utilizzata per fornire fino al 20% della domanda totale di energia elettrica, ma se la richiesta è superiore vi è necessità di particolari accorgimenti alla rete di distribuzione e una capacità di produzione convenzionale. Alcuni metodi per la gestione della potenza prodotta, come quello di possedere sistemi di stoccaggio (come stazioni di pompaggio), turbine geograficamente distribuite, fonti alternative, accordi di esportazione e importazione di energia per aree limitrofe o la riduzione della domanda quando la produzione eolica è bassa, possono ridurre notevolmente questi problemi. Inoltre, le previsioni del tempo consentono alla rete elettrica di essere preparata tempestivamente a seconda delle variazione previste nella produzione.
Energia eolica è l'energia cinetica prodotta dall'aria in movimento, e solitamente prende il nome di vento. Il totale di energia eolica che fluisce attraverso una superficie immaginaria A durante il tempo t è:
80
𝐸 =1
2 𝑚 𝑣2 =
1
2 (𝐴𝑣𝑡𝜌)𝑣2
dove ρ è la densità dell'aria, v è la velocità del vento; Avt è il volume di aria che passa attraverso A (che è considerato perpendicolare alla direzione del vento); Avtρ è quindi la massa m che passa per l'unità di tempo. Notare che ½ ρv2 è l'energia cinetica dell'aria in movimento per unità di volume. La potenza è l'energia per unità di tempo, per l'energia eolica incidente su A (ad esempio uguale all'area del rotore di una turbina eolica) è:
𝑃 =𝐸
𝑡=
1
2𝐴 𝜌 𝑣3
L'energia eolica in una corrente d'aria aperta è quindi proporzionale alla terza potenza della velocità del vento: la potenza disponibile aumenta quindi di otto volte se la velocità del vento raddoppia. Turbine eoliche per la produzione di energia elettrica devono quindi essere particolarmente efficienti a una maggiore velocità del vento.
Limiti nell’estrazione di energia dal vento: la legge di Betz
Indichiamo con v1 la velocità del vento a monte del rotore, con vavg quella in corrispondenza del
rotore e v2 la velocità del vento a valle del rotore. Consideriamo un flusso se siano S1 e S e S2 le
sezioni del flusso in corrispondenza di v1, v e v2. Sia la densità dell’aria che per semplicità
consideriamo costante. Esprimiamo la conservazione della massa, cioè immaginiamo che la
quantità di aria che attraversa al secondo le tre superfici sia costante, tale grandezza pende il
nome di “portata” e rappresenta un flusso.
𝜌 𝑆1 𝑣1 = 𝜌 𝑆 𝑣 = 𝜌 𝑆2 𝑣2 = 𝑓𝑙𝑢𝑠𝑠𝑜 = 𝑞𝑚 (𝑘𝑔
𝑠)
81
Se S2 > S1 allora v2 < v1
L’energia ceduta dal vento al rotore sarà data dalla differenza di energia cinetica posseduta dal
volume d’aria V
∆𝐸 = 1
2 𝜌 𝑉 (𝑣2
2 − 𝑣12)
Il volume può essere espresso nel seguente modo
𝑉 = 𝑆1 𝑣1 ∆𝑡 = 𝑆2 𝑣2 ∆𝑡
Quindi
∆𝐸 = 1
2 𝜌 𝑆1 𝑣1 ∆𝑡 (𝑣2
2 − 𝑣12)
Quindi la potenza P sarà
𝑃 = ∆𝐸
∆𝑡=
1
2 𝜌 𝑆1 𝑣1 (𝑣1
2 − 𝑣22) =
1
2 𝑞𝑚 (𝑣2
2 − 𝑣12)
L’impulso trasmesso da vento al rotore
𝐹 ∆𝑡 = 𝑚 (𝑣1 − 𝑣2) = 𝜌 𝑆 𝑣 ∆𝑡 (𝑣1 − 𝑣2)
Quindi la forza F è
𝐹 = 𝜌 𝑆 𝑣 (𝑣1 − 𝑣2) = 𝑞𝑚(𝑣1 − 𝑣2)
Poiché la potenza è Fv abbiamo
𝑃 = 𝐹 𝑣 = 𝑞𝑚𝑣 (𝑣1 − 𝑣2)
Uguagliando le due espressioni della potenza
82
𝑞𝑚𝑣 (𝑣1 − 𝑣2) = 1
2 𝑞𝑚 (𝑣1
2 − 𝑣22)
Semplificando otteniamo
𝑣 = 𝑣1 + 𝑣2
2
Introduciamo il parametro adimensionale b
𝑏 = 𝑣1 − 𝑣
𝑣1
Per cui
𝑣 = 𝑣1(1 − 𝑏) =𝑣1 + 𝑣2
2
𝑣2 = 𝑣1 (1 − 2𝑏)
Sostituendo nella formula della potenza
𝑃 = 1
2 𝑞𝑚 (𝑣1
2 − 𝑣12(1 − 2𝑏)2)
Ricordando che
𝑞𝑚 = 𝜌 ∙ 𝑆 ∙ 𝑣 = 𝜌 ∙ 𝑆 ∙ 𝑣1(1 − 𝑏)
otteniamo
𝑃 = 1
2 𝜌 ∙ 𝑆 ∙ 𝑣1(1 − 𝑏)(𝑣1
2 − 𝑣12(1 − 2𝑏)2) =
1
2 𝜌 ∙ 𝑆 ∙ 𝑣1(1 − 𝑏)(𝑣1 − 𝑣1 + 2𝑣1𝑏)(𝑣1 + 𝑣1 − 2𝑣1𝑏)
= 𝜌 ∙ 𝑆 ∙ 𝑣12𝑏(1 − 𝑏)2𝑣1(1 − 𝑏) = 2𝜌 ∙ 𝑆 ∙ 𝑣1
3𝑏 ∙ (1 − 𝑏)2
La derivata della potenza P rispetto al parametro b è del tipo
𝑑𝑃
𝑑𝑏= (1 − 𝑏)2 − 2𝑏(1 − 𝑏) = (1 − 𝑏)(1 − 3𝑏)
La derivata si annulla per b = 1 (soluzione banale) e per b = 1/3 dove P assume il valore massimo
83
𝑃 = 2𝜌 ∙ 𝑆 ∙ 𝑣13𝑏 ∙ (1 − 𝑏)2 = 2𝜌 ∙ 𝑆 ∙ 𝑣1
31
3∙ (1 −
1
3)
2
= 2𝜌 ∙ 𝑆 ∙ 𝑣13
4
27∙
Pertanto la potenza massima estraibile corrisponde al limite di Betz rapportato alla potenza
massima del vento, avremo un coefficiente massimo
𝑐𝑝,𝑚𝑎𝑥 = 2𝜌 ∙ 𝑆 ∙ 𝑣1
3 427
12 𝑆 𝜌 𝑣3
= 16
27= 0,59 (59 %)
85
Le Onde Sono molti i fenomeni che nella vita quotidiana ci presentano moti ondulatori. La superficie del mare o
quella di un lago, per esempio, ci appaiono solcate da onde che generalmente si propagano dal largo verso
la riva. Se gettiamo nell’acqua un sasso vediamo apparire una serie di onde circolari che, come anelli
concentrici, si propagano a partire dal punto in cui il sasso ha toccato la superficie dell’acqua. Se
pizzichiamo un elastico teso o la corda tesa di una chitarra otteniamo un moto oscillatorio molto rapido.
Ma molti altri fenomeni, ancora più comuni di quelli appena ricordati, come il suono, la luce o la
trasmissione di segnali attraverso apparecchi radiofonici o televisivi, si basano sulla propagazione di onde,
anche se per le loro caratteristiche non siamo in grado di evidenziarne la natura ondulatoria con i nostri
sensi.
Onde circolari di superficie generate da una goccia che cade. Corde di una chitarra che vibrano.
Tutti questi fenomeni presentano due caratteristiche comuni:
- sono generati, in un punto di un mezzo materiale continuo o anche del vuoto, da una perturbazione che
non rimane confinata in quel punto ma si propaga ai punti adiacenti;
quando per esempio un sasso, cadendo sulla superficie dell’acqua ed entrandovi, la abbassa in quel punto,
questa variazione del livello dell’acqua si trasmette ai punti vicini propagandosi verso l’esterno;
- si ha una trasmissione di informazione (nel senso che la modificazione della grandezza associata all’onda
si propaga nello spazio con una certa velocità) senza che vi sia un trasporto di materia.
86
quando si osservano delle onde che raggiungono la riva di un lago, se ne può dedurre che in qualche punto
la superficie dell’acqua è stata perturbata: o perché vi è stato gettato un sasso, o dal vento, o dal passaggio
di una barca…; non vi è però spostamento di acqua dal punto in cui è caduto il sasso fino alla riva, come si
può verificare osservando il moto di un corpo galleggiante sull’acqua, che viene fatto oscillare
verticalmente dall’onda ma non la segue mentre essa si propaga in direzione orizzontale.
Per quanto detto fin ora il concetto di onda può essere associato ad una qualunque grandezza fisica la cui
modificazione si propaga nello spazio senza necessariamente essere associata al trasporto della materia a
cui la grandezza fisica è associata. Pertanto possiamo potremmo parlare di onde di temperatura, di
pressione e altro. Se la grandezza di cui si osserva la propagazione è la variazione della posizione e il
meccanismo di propagazione è una forza che si esercita tra punti vicini di un mezzo materiale allora
parliamo di onde elastiche. Quello che diremo per questo tipo di onde vale, in generale, anche per altri tipi
di onde (onde sonore, onde elettromagnetiche). Non discuteremo in questa sezione di importanti fenomeni
come lo smorzamento (perdita di energia associata all’onda durante la sua propagazione), assorbimento
(trasformazione dell’energia dell’onda in altre forme di energia), dispersione (modificazione della frequenza
dell’onda).
Un esempio di onde elastiche: le onde trasversali in una corda tesa
Supponiamo di tenere con una mano un’estremità di una lunga corda tesa orizzontalmente, che abbia
l’altra estremità fissata a una parete. Se imprimiamo con la mano una leggera oscillazione verticale,
l’oscillazione si propaga lungo la corda, comunicandosi alle sue successive porzioni che via via si mettono in
movimento: abbiamo generato un’onda che si propaga lungo la corda
Generazione di una onda su una corda
Perché l’onda si propaga lungo la corda? Quando l’estremo della corda viene spostato, per esempio verso
l’alto, tende a trascinare con sé la porzione di corda più vicina, esercitando su di essa una forza. Ma a causa
87
della sua massa questa porzione di corda oppone una resistenza alla forza: si sposta anch’essa
verticalmente, ma con un certo ritardo. A sua volta essa comunica il movimento verticale a una successiva
porzione della corda, e così via. Quanto maggiore è la distanza dal punto in cui inizia il movimento, tanto
maggiore è il ritardo con cui la corda inizia a oscillare. La perturbazione impiega un certo tempo a
comunicarsi alle varie porzioni della corda, e quindi l’onda si propaga lungo la corda con una velocità v
finita.
L’onda che si propaga lungo la corda tesa è un esempio di onda elastica, perché le forze che determinano la
sua propagazione sono di natura elastica: ogni porzione della corda tesa resiste alla perturbazione con una
forza che è proporzionale alla perturbazione stessa. Mentre l’onda si propaga nella direzione della corda, le
singole porzioni della corda oscillano muovendosi in direzione trasversale rispetto a quella individuata dalla
corda. Quando, come in questo caso, il movimento oscillatorio avviene in direzione perpendicolare
rispetto alla direzione di propagazione dell’onda, si dice che l’onda è un’onda trasversale. Le
onde elastiche che si propagano in una corda tesa sono quindi onde trasversali. Come vedremo, anche le
onde elettromagnetiche di cui è composta la luce sono onde trasversali.
Onde elastiche longitudinali
Onda longitudinale generata su una molla. Le onde longitudinali sono dette anche onde primarie a causa della loro maggiore velocità di propagazione rispetto alle onde trasversali (che per questo motivo sono dette onde secondarie). Terminologia mutuata dallo studio dei terremoti. Le onde longitudinali sono percepite “per prime”, quelle trasversali “per seconde”.
Un altro esempio di onde meccaniche: le onde di superficie
Consideriamo ora un’onda che si propaga sulla superficie di un liquido, per esempio l’onda circolare
generata sulla superficie di uno specchio d’acqua da un sasso che vi cade dall’alto. Entrando nell’acqua il
sasso sposta un certo volume d’acqua. Poiché l’acqua è praticamente incomprimibile, un poco di acqua
deve spostarsi per far posto al sasso, determinando un innalzamento del livello dell’acqua nella zona
circostante il punto di caduta del sasso (figura seguente). L’acqua così accumulata “ricade” nell’acqua
sottostante, spostandola a sua volta in una regione via via più esterna: si dà così origine a un’onda che si
propaga verso l’esterno (figure b e c). Nel caso delle onde che si propagano sulla superficie di un liquido
incomprimibile, quindi, il moto delle particelle del mezzo in cui l’onda si propaga avviene sia in direzione
verticale (le varie porzioni di acqua interessate dall’onda vengono prima innalzate e poi ricadono verso il
basso) sia orizzontale (per far posto alle porzioni di acqua sovrastanti che ricadono verso il basso, l’acqua
88
sottostante viene spostata lateralmente): quando passa l’onda, un corpo galleggiante acquista un moto a
forma di ellisse, corrispondente alle due componenti del moto oscillatorio.
Onde monodimensionali, bidimensionali e tridimensionali
Gli esempi di onde che abbiamo considerato comprendono casi di onde che si propagano in un mezzo
caratterizzato da un’unica dimensione, come per esempio la corda tesa; onde che si propagano su una
superficie a due dimensioni, come le onde sulla superficie dell’acqua; e onde che si propagano in un mezzo
tridimensionale, come le onde sonore nell’aria. Si parla allora rispettivamente di onde monodimensionali,
bidimensionali e tridimensionali.
89
In un’onda bidimensionale che si propaga sulla superficie di uno specchio d’acqua chiamiamo cresta
dell’onda la linea che, a un dato istante, congiunge tutti i punti in cui l’onda assume la massima altezza, e
gola la linea che congiunge i punti in cui l’onda assume la massima depressione (figura 8). In modo analogo
si può parlare di creste e di gole anche nel caso di onde monodimensionali o tridimensionali. L’insieme dei
punti contigui che in un dato istante presentano una perturbazione dello stesso valore è detto fronte
d’onda. Nelle onde bidimensionali e tridimensionali la direzione di propagazione dell’onda è sempre
perpendicolare ai fronti d’onda.
Casi particolari di onde tridimensionali sono le onde piane, nelle quali la perturbazione si propaga in ogni
punto nella stessa direzione e con la stessa velocità e i fronti d’onda sono piani paralleli (figura 9.a), e le
onde sferiche, nelle quali la perturbazione si propaga con la stessa velocità in tutte le direzioni a partire da
una sorgente puntiforme centrale e i fronti d’onda sono superfici sferiche concentriche (figura 9.b). Una
piccola porzione di un’onda sferica lontana dalla sorgente può essere approssimata da un fronte d’onda
piano.
La descrizione matematica di un’onda monodimensionale
È necessario passare da una descrizione solo qualitativa della propagazione delle onde, come quella
presentata nel paragrafo precedente, a una trattazione quantitativa. Ci proponiamo quindi, in questo
paragrafo, di descrivere la propagazione di un’onda in termini matematici. Le equazioni matematiche che
90
descrivono la propagazione di un’onda tridimensionale qualsiasi sono piuttosto complesse, e
presuppongono nozioni di matematica di livello superiore.
Affronteremo quindi in modo dettagliato la trattazione matematica della propagazione di un’onda
limitandoci a considerare il caso di un’onda monodimensionale che si propaga in un mezzo omogeneo. Nel
far questo, considereremo successivamente:
a) come la forma che l’onda assume in un determinato istante può essere descritta mediante una funzione
matematica;
b) come la propagazione di quest’onda al variare del tempo può essere descritta mediante una funzione
matematica;
c) qual è la legge del moto di ogni singolo punto del mezzo materiale in cui l’onda si propaga.
La forma dell’onda
Come è possibile esprimere in termini matematici la “forma” dell’onda, ossia l’aspetto che presenterebbe
il mezzo nel quale l’onda si propaga se ne facessimo una fotografia a un determinato istante t?
Consideriamo un’onda trasversale che si propaga lungo una corda tesa coincidente con l’asse x di un
sistema di assi cartesiani, e supponiamo che la vibrazione della corda avvenga nella direzione dell’asse y.
Consideriamo la forma della corda in un determinato istante t, per esempio t0 = 0. Essa può essere descritta
mediante una funzione matematica.
𝑦 = 𝑓(𝑥)
Si possono presentare diverse situazioni. Se la perturbazione riguarda solo una piccola porzione della corda
l’onda prende il nome di impulso. Se la perturbazione riguarda tutta la corda si parla di treno d’onde. Se
l’andamento della funzione f(x) è periodico, ossia se la forma dell’onda si ripete in successive porzioni della
corda si ha un treno d’onde periodico.
In un treno d’onde periodico (o semplicemente in un’onda periodica) le oscillazioni si ripetono uguali in
punti della corda distanziati da una distanza : questa distanza si dice lunghezza d’onda.
E’ possibile dimostrare (teorema di Fourier) che una qualunque onda periodica può essere espressa come
somma (eventualmente infinita) di funzioni seno e coseno. Diventa quindi importantissimo lo studio delle
onde descritte da queste funzioni (onde armoniche) perché rappresentano un gruppo importante di onde
(radio, musica, luce), perché i fenomeni che accompagnano queste onde sono generalizzabili e perché la
loro trattazione è relativamente semplice.
91
𝐴(𝑥) = 𝐴0𝑠𝑒𝑛(𝑘𝑥)
o più in generale, nel caso in cui il valore della perturbazione nell’origine x = 0 non sia nullo,
𝐴(𝑥) = 𝐴0𝑠𝑒𝑛(𝑘𝑥 + 𝜑0)
dove 𝜑0 è una costante scelta in modo opportuno. Un treno d’onde rappresentato da questo tipo di
funzione si dice onda armonica semplice. Quest’ultima equazione descrive la forma dell’onda in particolare
istante t, per avere una descrizione completa dell’onda rispetto ai due parametri fondamentali: posizione x
e tempo t, cerchiamo una descrizione della forma dell’onda in funzione del tempo e della posizione in
modo da poterne studiare l’evoluzione. Tale descrizione è
𝐴(𝑥, 𝑡) = 𝐴0𝑠𝑒𝑛 (2𝜋𝑡
𝑇− 2𝜋
𝑥
𝜆)
A0: ampiezza dell’onda, rappresenta la variazione massima rispetto alla media della grandezza a cui l’onda è
associata
T è il periodo dell’oscillazione, il tempo impiegato da un punto dell’onda a fare un’oscillazione completa, si
misura in secondi. Associato al periodo T c’è la frequenza f (spesso indicata con la lettera greca “ni”) =
1/T rappresenta, come in qualunque fenomeno periodico, il numero di oscillazioni nell’unità di tempo, si
misura in Hz (Hertz). 1 Hz = 1 s-1.
è la lunghezza d’onda. Rappresenta la distanza minima tra due punti dell’onda che oscillano insieme.
Tale equazione descrive un’onda che si propaga nel verso delle x crescenti. Vale sempre la relazione che
/T = vonda
Nella figura sopra è riporta il grafico (costruito con l’ultima equazione) di una onda avente ampiezza A0 = 5
(unità arbitrarie), lunghezza d’onda = 0.77 m e periodo T = 0.0023 s. (Se si trattasse di un onda sonora
sarebbe un LA). Il grafico dell’onda è stato riprodotto per diversi valori di del tempo. T corrispondenti a
frazioni esatte del periodo. Si osserva chiaramente “il moto” dell’onda nel verso delle X crescenti. Se
Osserviamo i due grafici estremi (quello a linea continua e quello con tratto e due punti) osserviamo che in
opposizione di fase, cioè dove il primo ha una cresta, il secondo ha una gola, è come se il secondo fosse
“più avanti” del primo di una tratto corrispondente a mezza lunghezza d’onda, questo spazio in avanti lo si
osserva dopo un tempo corrispondente a metà del periodo. La velocità di propagazione dell’onda è
calcolabile come spazio diviso tempo
𝑣𝑝𝑟𝑜𝑝𝑎𝑔𝑎𝑧𝑖𝑜𝑛𝑒 = 𝑠𝑝𝑎𝑧𝑖𝑜
𝑡𝑒𝑚𝑝𝑜 =
𝜆
𝑇
-6-5-4-3-2-10123456
0 0.5 1 1.5 2 2.5
Posizione X (m) (= 0.77 m)
Onda armonica a diversi istanti
t/T = 0
t/T = 0.1
t/T = 0.2
t/T = 0.3
t/T = 0.4
t/T = 0.5
92
Nel nostro caso = 0.77, T = 0.0023 s, quindi la velocità v = 0.77/0.0023 = 335m/s (la velocità del suono in
aria). Vale la pena ricordare che le funzioni seno e coseno sono funzioni goniometriche, cioè dell’angolo.
L’argomento della funzione deve, quindi, essere un angolo. È per questo che sia il rapporto tempo su
periodo sia quello posizione su lunghezza d’onda è moltiplicato per 2, che rappresenta l’angolo giro in
radianti. Ricordiamo che un moto armonico (e quindi un onda armonica) può essere immaginato come
proiezione unidimensionale di un moto circolare uniforme
Con questa analogia in mente possiamo parlare di velocità angolare e numero d’onda:
velocità angolare 𝜔 = 2𝜋
𝑇 (rad/sec) numero d’onda 𝑘 =
2𝜋
𝜆 (rad/metri)
Allora, per un onda che si propaga verso le x crescenti, l’equazione assume la seguente forma
𝐴(𝑥, 𝑡) = 𝐴0𝑠𝑒𝑛(𝜔𝑡 − 𝑘𝑥)
Notiamo che per descrivere un onda che si propaga nel verso positivo (x crescenti) è necessario avere una
funzione della differenza tra x/ e t/T, una funzione della somma di queste due grandezze descrive un onda
che si propaga nel verso negativo (x decrescenti).
Velocità delle onde
Si consideri una corda inestensibile tesa con tensione T e sia m la sua massa e L la sua lunghezza, possiamo
definire la densità lineare μ = m/L. Supponiamo che tale densità sia uniforme. Si supponga inoltre che, in
seguito ad una sollecitazione da parte di una forza esterna, si formi un’onda che si propaga lungo la corda
stessa. Si vuole determinare quale sia la velocità di tale onda. La parte centrale dell’impulso sulla corda può
essere approssimata come un arco di circonferenza di raggio R e apertura . Se l’angolo è espresso in
radianti la lunghezza della circonferenza sarà R e la massa di quel tratto di corda dm = RPoiché la
forma è un circonferenza su una massa dm agisce la forza centripeta che determinata dalla somma
vettoriale delle tensioni che agiscono ai margini del tratto dm. Quindi, ipotizzando a molto piccolo,
𝜏 = 𝑑𝑚 𝑣2
𝑅
𝑇𝛼 = 𝑅𝛼𝜇 𝑣2
𝑅
Semplificando il raggio di curvatura R e l’angolo , si ricava
93
𝑣 = √𝑇
𝜇
Cioè la velocità dipende esclusivamente dalle caratteristiche del mezzo in cui si propaga. Una eventuale
dipendenza dal raggio di curvatura R avrebbe il significato di dipendenza della velocità dall’ampiezza
dell’impulso. Ma così non è. La velocità è maggiore nei mezzi rigidi (T grande) e nei mezzi poco densi.
Velocità delle onde elastiche longitudinali (velocità del suono) a 0°C e a pressione ordinaria
SOLIDI v (m/s) LIQUIDI v (m/s) GAS E VAPORI v (m/s)
gomma ~50 alcol etilico (etanolo)
1170 anidride
carbonica 259
sughero ~500 mercurio 1450 ossigeno 316
piombo 1230 acqua 1484 aria 332
cemento ~4300 acqua di mare 1510 azoto 334
acciaio e ferro
5100 Olio ~1500 elio 965
Granito ~6000 neon 1435
Un mezzo per il quale la velocità delle onde è del tutto indipendente dalla frequenza è detto non dispersivo
e l’onda mantiene la sua forma durante la propagazione. Dalla legge della velocità si deduce anche che le
onde elastiche trasversali non si possono propagare nei liquidi e nei gas, dove l’elasticità trasversale (di
taglio) è piccola. Questa considerazione unita allo studio dei terremoti ha permesso di capire come è fatto
l’interno della terra.
T T
R
T
T
94
Energia di un onda
Se ricordiamo la definizione di onda, come di un disturbo che si propaga, possiamo domandarci quali siano le grandezze fisiche che si propagano assieme al disturbo stesso. La risposta, ovviamente non è unica, perché dipende dal particolare tipo di disturbo che, di volta in volta consideriamo. Per esempio un'onda meccanica propaga una deformazione, un'onda elettromagnetica propaga la variazione dei campi elettrico e magnetico, possiamo pensare a onde di temperatura, pressione, ecc.
Sappiamo però che tutte le onde si producono quando in un mezzo, assieme ad un disturbo, si manifestano
1. forze di richiamo che si oppongono alla formazione del disturbo stesso, e tendono a riportare il mezzo localmente all'equilibrio.
2. una certa inerzia, che tende, invece, a far rimanere il disturbo nel suo stato di moto.
Quando in un mezzo si propagano onde meccaniche il disturbo è sempre una deformazione locale del
mezzo. Le forze di richiamo sono note col nome di forze elastiche, e l'inerzia corrisponde con la massa
locale del mezzo, più comunemente chiamata densità. Una volta che una deformazione si è prodotta, per
esempio a causa di una forza esterna, una porzione del mezzo si trova fuori equilibrio, quindi una forza
elastica la richiama verso la posizione iniziale. Quando tuttavia la porzione del mezzo si trova di nuovo nella
posizione iniziale, essa, a causa della sua inerzia, tenderà a continuare il suo moto, trovandosi presto fuori
dall'equilibrio in verso opposto alla deformazione iniziale. Forze elastiche di verso opposto alle prime lo
richiameranno di nuovo, e questo intero ciclo si ripete dando luogo ad una oscillazione locale, in grado di
trasmettersi agli elementi adiacenti. In un mezzo continuo la deformazione potrà essere un allungamento,
una compressione, ecc.; in un mezzo costituito da tanti componenti discreti (molle collegate tra loro) la
deformazione sarà invece lo spostamento di ogni oscillatore dalla sua posizione di equilibrio.
Sottolineiamo il fatto che l'esistenza di forze di richiamo e, simultaneamente, di spostamenti dall'equilibrio,
è in grado di produrre un lavoro, quantificabile nel prodotto della componente delle forze nella direzione
dello spostamento per lo spostamento stesso.
∆𝐿 = 𝐹 ∙ ∆𝑆
95
Ma in fisica la capacità di produrre lavoro si chiama energia. Immaginiamo allora una corda percorsa da
un'onda trasversale possiamo distinguere due tipi di energia:
1. l'energia cinetica che è l'energia che ogni porzione della corda possiede a causa della
propria velocità trasversale di oscillazione.
2. l'energia potenziale, che è l'energia dovuta alla deformazione elastica della corda.
Durante il moto oscillatorio queste due energie si trasformano alternativamente l'una nell'altra. Ma
attenzione: la corda non è un punto materiale, bensì un corpo continuo. Ciò significa che queste due
energie non sono concentrate in un punto preciso, ma sono distribuite lungo tutta la corda. Quindi il loro
calcolo non è semplice come per un punto materiale.
La grandezza localmente rilevante non è l'energia totale, ma l'energia per unità di lunghezza, o densità di
energia. A differenza dell'energia totale, che si conserva invariata durante tutto il moto, la densità di
energia può variare localmente col tempo. Essa può trasferirsi da un punto all'altro della corda. Anzi,
precisamente questa quantità si muove insieme con l'onda che percorre la corda, e alla stessa velocità.
In ogni punto della corda
La densità di energia potenziale è massima quando l'elemento di corda si trova nella posizione di
massima deformazione compatibile con i vincoli in quel punto.
La densità di energia cinetica è massima quando l'elemento di corda possiede la massima velocità.
Per semplificare ulteriormente immaginiamo che la corda oscilli di moto armonico. L'energia totale (cioè la
somma della sua energia cinetica e potenziale) di un oscillatore armonico di massa m, che oscilli ad una
pulsazione ω con ampiezza A è facile da calcolare, e vale
𝐸𝑡𝑜𝑡 = 1
2 𝑚 𝜔2𝐴2
Tuttavia abbiamo detto che, nel caso della corda, che è un continuo di oscillatori con massa per unità di
lunghezza (densità) , quindi non ci interessa tanto l'energia totale, ma l'energia per unità di lunghezza
(densità di energia). Essa vale
𝐸𝑝𝑒𝑟 𝑈𝑑𝐿 = 1
2 𝜇 𝜔2𝐴2
Abbiamo anche detto che questa densità viaggia alla velocità v con cui l'onda si propaga lungo la corda.
Quindi la grandezza finale cui siamo interessati è il prodotto della densità di energia per la velocità
𝑊 = 𝐸 ∙ 𝑣 = 1
2 𝜇 𝜔2𝐴2 𝑣
che ha le dimensioni di una potenza (Watt), e indica esattamente il flusso di energia, cioè la quantità di
energia che passa per un certo punto della corda nell'unità di tempo, trasportato dall'onda. Se pensiamo
alla grandezza equivalente in una situazione tridimensionale, anziché sulla nostra corda unidimensionale, la
grandezza diviene un vettore, e si misura in W/m2. Essa indica la quantità di energia che fluisce attraverso
l'unità di superficie in una certa direzione nell'unità di tempo. Il concetto si applica a tutte le forme di
energia, ed è particolarmente adatto a descrivere il fenomeno dell'irraggiamento dell'energia, sia essa
luminosa, sonora, ecc. Molto spesso, poiché il flusso di energia è provocato da onde, si usa misurarne la
media in un dato periodo di tempo, e la grandezza risultante si dice intensità del campo che produce il
flusso. Questa è, per esempio la definizione fisica di intensità sonora.
96
Principio di sovrapposizione
Se in un certo istante due o più onde esistono contemporaneamente in un mezzo in un punto dello spazio,
esse si attraversano senza disturbarsi. Lo spostamento totale di tale punto è la somma degli spostamenti
dovuti alle singole onde.
Le onde per le quali vale il principio di sovrapposizione sono dette lineari e in genere sono caratterizzate da
piccole ampiezze d'onda. Infatti esso è applicabile solo quando esiste una relazione lineare tra la
deformazione prodotta nel mezzo e la forza di richiamo, cioè quando vale la legge di Hooke.
Il principio non è applicabile nel caso di una violenta esplosione, quando le onde generate perturbano il
mezzo oltrepassando i limiti di elasticità, come ad esempio nel caso delle onde sismiche. Tali onde che
violano il principio di sovrapposizione sono dette non lineari.
Battimenti
Supponiamo di avere due corpi che vibrano simultaneamente, i cui suoni si possano rappresentare con
onde sinusoidali con la stessa frequenza e la stessa ampiezza. Queste due onde possono sovrapporsi in
diverse maniere: in fase (interferenza costruttiva), in opposizione di fase (interferenza distruttiva), o in una
via di mezzo. Essendo il suono risultante la somma dei due suoni, nel primo caso questo sarà identico ai
primi due, ma di ampiezza doppia (le creste si sommano e le valli si sommano); nel secondo caso non si
avrà alcun suono risultante (le creste e le valli si compensano in ogni punto annullandosi tra di loro); nel
terzo si avrà un suono di intensità intermedia, a seconda di quanto è lo sfasamento tra i due suoni iniziali.
Naturalmente, avendo i due suoni la stessa frequenza, lo sfasamento sarà costante nel tempo: se ad
esempio la prima cresta del primo suono è perfettamente sovrapposta alla prima cresta del secondo, lo
stesso avverrà per le seconde creste, per le terze e così via (analogamente nel caso di sfasamento
arbitrario).
Supponendo ora che le due frequenze non siano proprio identiche, ma che ci sia una piccola differenza tra
di esse, lo sfasamento questa volta non sarà più costante, ma varierà nel tempo: se ad esempio le prime
L’onda disegnata in verde a quella in rosso hanno lunghezza d’onda diversa verde > rossa (verde < rossa). In blu è riportata la somma (punto a punto) delle due onde. Si osserva che l’onda risultante può essere descritta come un’onda di frequenza intermedia (semi somma, quindi analoga alle frequenze delle componenti) e ampiezza massima doppia, modulata a bassa frequenza (semidifferenza). I caso di onde acustiche la modulazione a bassa frequenza è percepibile.
97
creste dei due suoni coincidevano perfettamente (l'intensità totale quindi era il doppio), le seconde non
saranno perfettamente sovrapposte, perché una arriverà un po' prima dell'altra; per le terze creste questa
differenza di fase sarà ancora più marcata e così via, fino a quando la cresta del primo suono non sarà
sovrapposta a una valle del secondo: i due suoni sono passati in opposizione di fase e l'intensità totale è
zero. Procedendo ancora in maniera analoga, dopo un certo numero di periodi (dipendente dalla differenza
relativa tra le due frequenze iniziali) i due suoni ritorneranno in fase. In altri termini si hanno battimenti
quando lo sfasamento (e quindi il tipo di interferenza) tra due suoni di frequenze simili varia nel tempo.
Questo meccanismo si vede chiaramente nell'immagine.
Una elegante spiegazione matematica del fenomeno si dà tramite le formule di prostaferesi: se rappresentiamo i due suoni con due onde sinusoidali di ampiezza unitaria (per semplicità), possiamo applicare le formule al suono risultante:
sin(𝜔1 𝑡) + sin(𝜔2 𝑡) = 2 cos (𝜔1 − 𝜔2
2 𝑡) sin (
𝜔1 + 𝜔2
2 𝑡) = 2 cos(Ω 𝑡) sin(𝜔 𝑡)
con
Ω = 𝜔1 − 𝜔2
2 𝜔 =
𝜔1 + 𝜔2
2
Se Ω ≪ 𝜔, (cioè se 1e 2 sono vicine), si può esprimere la somma dei due suoni come un suono
di frequenza intermedia, pari a , la cui ampiezza sia modulata alla frequenza molto più bassa .
Dimostrazione: definiamo 𝛼 = 𝜔1 − 𝜔2 e 𝛽 = 𝜔1 + 𝜔2 da cui 𝜔1 = (𝛼 + 𝛽)/2 e 𝜔2 = (𝛼 − 𝛽)/ 2 quindi
sin(𝜔1 𝑡) + sin(𝜔2 𝑡) = sin (𝛼 + 𝛽
2) + sin (
𝛼 − 𝛽
2) =
Principio di Huygens
Il principio di Huygens-Fresnel, o più semplicemente principio di Huygens (dal nome del fisico olandese
Christiaan Huygens), è un metodo di analisi applicato ai problemi di propagazione delle onde. Può avere la
seguente formulazione: Ogni elemento dΣ di un fronte d'onda Σ si può considerare formalmente
come una sorgente secondaria di onde sferiche in fase con la primaria e di ampiezza proporzionale
a quella dell'onda primaria e all'area dΣ. La perturbazione prodotta in un punto dello spazio si può
sempre ottenere come sovrapposizione di tutte le onde sferiche secondarie che raggiungono quel
punto.
Il principio espresso costituisce uno strumento di calcolo molto utile, in quanto consente di determinare
direttamente il fronte d'onda ad un certo istante una volta noto quello ad un qualsiasi istante precedente
98
(o successivo). Il calcolo della figura di interferenza prodotta dall'inviluppo delle onde sferiche secondarie è
possibile sia quando l'onda si propaga liberamente, sia quando essa viene limitata da un ostacolo
impenetrabile ed è pertanto utilizzabile nella determinazione degli effetti di diffrazione prodotti da uno
schermo su una radiazione.
Diffrazione
La diffrazione può venire intuitivamente "letta" come una richiesta di continuità da parte del fronte d'onda
che subisce una discontinuità dal bordo (o dai bordi) di un ostacolo.
La figura a fianco, che simula la diffrazione di un'onda piana
attraverso la fenditura ricorda quanto osservato in un'onda alla
superficie dell'acqua quando passa attraverso una fenditura. Oltre la
fenditura il fronte d'onda incidente è "tagliato" dai due bordi. La parte
di fronte d'onda contigua a ciascun bordo piega attorno al bordo
stesso fornendo così una perturbazione continua. Secondo la chiave
di lettura del principio di Huygens, il fronte d'onda incidente è
l'inviluppo di onde elementari sferiche. Qui, le sorgenti (fittizie) di tali
onde sono nei punti della fenditura. L'inviluppo di tali onde sferiche in
prossimità del bordo si propaga dando luogo a nuovi fronti d'onda successivi.
Interferenza Sia nella figura a fianco sia nella figura sopra, possiamo notare che le onde circolari emesse da tutti i punti
dell’apertura secondo il principio di Huygens nella figura sopra e dalle due sorgenti nella figura a fianco, si sovrappongono secondo uno schema preciso. Come è possibile osservare nella figura successiva, due sorgenti di onde identiche (stessa ampiezza, frequenza e fase) emettono onde in un semispazio omogeneo comune, in ogni punto del semispazio gli effetti delle due onde si sommano secondo in principio di sovrapposizione (vedi anche figura a fianco). Posizionando uno schermo (è ciò che si fa con le onde luminose) a grande distanza dalle sorgenti (molto maggiore della lunghezza d’onda, almeno 100 volte) e parallelo al segmento individuato dalle sorgenti, misurando l’intensità della perturbazione
prodotto sullo schermo dalle due onde si osserva un andamento dell’intensità in cui massimi e minimi si alternano. Ciò è dovuto al fatto che le onde arrivano sullo schermo avendo fatto, in generale, cammini diversi per cui non sono sempre in fase. In particolare sui punti dello schermo per i quali la differenza tra le distanze dalle sorgenti delle onde risulta essere un multiplo intero della lunghezza d’onda, le onde giungeranno in fase e, quindi, l’intensità sarà massima, si parla allora di Interferenza costruttiva. Invece, nei punti dello schermo per i quali la differenza tra le distanze dalle sorgenti delle onde risulta essere multiplo intero della lunghezza d’onda con un mezza lunghezza d’onda in più, le onde giungeranno in opposizione di
fase (quando una presenta un cresta l’altra presenta un gola) e i loro effetti tenderanno ad annullarsi, si dice che c’è interferenza distruttiva. Per riassumere abbiamo:
Differenza di cammino = n INTERFERENZA COSTRUTTIVA
Differenza di cammino = (n + 𝟏
𝟐 ) INTEFERENZA DISTRUTTIVA
Con n = 0, 1, 2, 3, …….
99
E’ possibile descrivere la figura di interferenza facendo riferimento all’angolo che i fronti d’onda emergenti fanno con la perpendicolare alla retta su cui si trovano le sorgenti e lo schermo. Chiamiamo d la distanza tra le sorgenti S1 e S2 (nel caso della luce vengono generate proiettando una luce laser su uno schermo dove sono praticate due sottili incisioni dette fenditure). Se lo schermo è posto a una distanza D
>> d possiamo pensare che un generico punto dello schermo sia visto sotto lo stesso angolo dalle due sorgenti, possiamo esprimere la differenza di cammino ∆ℓ come prodotto della distanza d tra le sorgenti e
l’angolo , avremo cioè ∆ℓ = 𝑑 sin 𝜃
Per cui la condizione di interferenza costruttiva sarà
∆ℓ = 𝑑 sin 𝜃 = 𝑛 𝜆 E quella per l’interferenza distruttiva sarà
∆ℓ = 𝑑 sin 𝜃 = (𝑛 + 1
2) 𝜆
Misura della lunghezza d’onda La figura di interferenza può essere utilizzata per la misura della lunghezza d’onda. Consideriamo due sorgenti identiche e in fase S1 e S2 poste a distanza d, osservando la figura di interferenza che si forma sullo schermo posto a distanza D. Se il primo massimo dopo quello centrale si forma a distanza X, otteniamo:
𝑥 = 𝐷 tan 𝜃 𝑒 𝜆 = 𝑑 tan 𝜃
Da cui otteniamo 𝜆 = 𝑑
𝐷 𝑥
La riflessione delle onde Dato un sistema di onde, ci proponiamo di studiare la riflessione provocata da un ostacolo che delimita i confini del mezzo dove si propaga la perturbazione. 1° Esempio Consideriamo una corda tesa rigidamente saldata per un estremo a un gancio fissato a una parete che rappresenta l'ostacolo. Applichiamo all'altro estremo un rapido impulso in modo da provocare un'oscillazione verso l'alto, chiamata cresta; si origina così un'onda che si propaga con una certa velocità lungo la corda. Arrivata all'estremo fisso, l'oscillazione si riflette in modo che l'ampiezza e la velocità rimangono all'incirca costanti, mentre il profilo dell'onda appare capovolto. Il fatto che il profilo dell’impulso riflesso risulti capovolto è una conseguenza della conservazione della quantità di moto.
S1
S2
X
D
d
100
La corda imprime al gancio una forza verso l’alto. Per il principio di azione e reazione il gancio esercita sulla corda una forza della stessa intensità e direzione ma verso opposto, per cui genera un onda uguale a quella incidente ma con la cresta rivolta verso il basso. 2° Esempio Consideriamo le onde che si possono formare sulla superficie di un liquido. A tal fine immaginiamo di avere un ondoscopio (dispositivo costituito da un recipiente di forma rettangolare avente per fondo una lastra di vetro perfettamente trasparente).Facendo vibrare con frequenza uniforme mediante un motorino una leggera sbarretta o una punta è possibile produrre un sistema di onde. Con la sbarretta si produrranno onde piane, con la punta si otterrà un sistema di onde circolari, ma saranno ambedue periodiche e di tipo armonico. Se, dopo aver disposto sotto il fondo trasparente un foglio di carta bianca che funge da schermo, si illumina la vaschetta dall'alto, le onde possono essere visualizzate attraverso una successione di zone alternativamente chiare e scure: le zone chiare corrispondono alle creste delle onde, quelle scure alle gole. Ciò premesso, si può osservare che un'onda, qualunque sia la natura e la forma, quando incontra un ostacolo viene in parte riflessa, tornando indietro come se provenisse da un'altra sorgente
1 - Riflessione da parte di una superficie piana di un treno di onde piane, rappresentate da una successione di superfici d'onda e da un insieme di raggi perpendicolari alle superfici d'onda. 2- Riflessione di un'onda circolare. Le onde riflesse, sempre circolari e aventi per centro il punto S', simmetrico di S rispetto alla superficie riflettente, appaiono come una successione di onde provenienti da una sorgente fittizia posta in S'. 3.In questa figura, per semplicità, è stata identificato il treno d’onde con un solo raggio incidente a cui corrisponde un solo raggio riflesso. In ogni caso, si trova sperimentalmente che il fenomeno della riflessione segue due leggi:
Prima legge: il raggio incidente, il raggio riflesso e la normale alla superficie di incidenza giacciono nello stesso piano.
Seconda legge: l'angolo di incidenza è uguale all’angolo di riflessione.
Per angolo di incidenza si intende quello formato dal raggio incidente con la normale alla superficie nel punto di incidenza e per angolo di riflessione quello formato dal raggio riflesso con la stessa normale. Nel caso di
un'onda piana si vede chiaramente che, dall'uguaglianza dell'angolo i di incidenza con l'angolo r di riflessione, segue anche l'uguaglianza degli angoli che l'onda incidente e l'onda riflessa formano con la superficie di riflessione e viceversa.
101
Conseguenze della seconda legge (nel caso di un'onda circolare o sferica.) Nella figura a fianco, S è una sorgente puntiforme e SI è un raggio incidente su una superficie di riflessione. S' è l'intersezione del prolungamento del raggio riflesso con la normale SA alla superficie. I triangoli rettangoli SAI e S'AI hanno il cateto AI in comune e gli angoli acuti in I uguali in quanto complementari degli angoli uguali i e i'. Essi sono perciò uguali e di conseguenza SA è uguale a S'A, cioè S' è il punto simmetrico di S rispetto alla superficie di riflessione. Poiché il ragionamento è stato fatto per un generico raggio incidente SI, possiamo concludere: al fascio omocentrico di raggi incidenti uscenti da S corrisponde dopo la riflessione un fascio di raggi ancora omocentrico con centro in S', precisamente un fascio di raggi i cui prolungamenti passano tutti per S'. Quindi a un treno di onde circolari o sferiche emesse da S corrisponde dopo la riflessione un treno di onde ancora circolari o sferiche con centro nel punto S', simmetrico di S rispetto alla superficie di riflessione. A queste conclusioni siamo pervenuti tenendo conto che l'angolo di incidenza i è uguale all'angolo di riflessione i'. Viceversa, dal fatto che un'onda circolare o sferica si riflette generando ancora un'onda circolare o sferica con centro in S', simmetrico a S, segue che l'angolo di incidenza è uguale all'angolo di riflessione.
Rifrazione Quando un'onda elastica attraversa la superficie di separazione di due mezzi caratterizzati da una diversa velocità di propagazione della perturbazione, essa (se l'angolo di incidenza è diverso da zero) cambia direzione. Tale fenomeno si indica con il nome di rifrazione. Per verificare il fenomeno disponiamo sul fondo di un ondoscopio una lastra di plexiglass, in modo che l'acqua risulti meno profonda nella zona in corrispondenza della lastra. Produciamo un treno di onde piane il cui fronte d'onda sia parallelo alla linea di divisione delle due zone di acqua. Si nota che nella seconda zona, dove l'acqua è meno profonda, le onde sono ancora parallele a quelle della prima zona, però sono più vicine fra loro rispetto alle onde incidenti. Questo fatto evidenzia che, con il diminuire della profondità, diminuisce la lunghezza d'onda.
Poiché con l'ausilio di uno stroboscopio è possibile fermare "contemporaneamente" il movimento delle onde nelle due zone di acqua, possiamo affermare che le onde incidenti e quelle rifratte hanno la stessa frequenza. Tale proprietà è una conseguenza del fatto che le frequenze delle onde nelle due zone di acqua
dipendono solo dalla frequenza della sorgente. Indicando con 1, f1 e 2 e f2 i parametri che caratterizzano rispettivamente l'onda incidente e quella rifratta si ha:
𝜆1 𝑓1 = 𝑣1 𝑒 𝜆2 𝑓2 = 𝑣2 che possiamo anche scrivere facendo il rapporto ed eliminando la frequenza:
𝜆1
𝜆2=
𝑣1
𝑣2
. Ossia, la velocità di propagazione delle onde di una determinata frequenza è minore dove l'acqua è meno
profonda ed è maggiore dove l'acqua è più profonda. Disponiamo ora la lastra di plexiglass sul fondo dell'ondoscopio in modo che la linea di divisione formi un angolo non nullo con le onde incidenti. Considerando come prima un treno di onde piane, si vede chiaramente che le onde rifratte, oltre ad essere più vicine tra loro nella zona d'acqua meno profonda a causa della minore velocità di propagazione, sono anche diversamente inclinate rispetto al
102
fascio incidente. Indichiamo con i l’angolo di incidenza e con r, l’angolo di rifrazione (l'angolo che il corrispondente raggio rifratto forma con la stessa normale). Si può osservare che ogni qualvolta un treno di onde passa da una zona più profonda a una meno profonda, l'angolo di rifrazione risulta più piccolo dell'angolo di incidenza; ciò è connesso al fatto che al diminuire della velocità di propagazione della perturbazione, caratterizzata sempre da un trasporto di energia, i fronti d'onda tendono ad assumere una direzione parallela alla linea di separazione. Ripetendo più volte le misure per diversi valori dell'angolo di incidenza, senza modificare la frequenza delle onde né la profondità delle due zone di acqua, si trova che il rapporto:
sin 𝑖
sin 𝑟= 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒
al variare dell'angolo di incidenza. Possiamo affermare che tutti i fenomeni di rifrazione sono regolati dalle seguenti due leggi:
Prima legge: il raggio incidente, la normale alla superficie di separazione dei due mezzi e il raggio rifratto giacciono nello stesso piano;
Seconda legge: il rapporto tra il seno dell'angolo di incidenza e il seno dell'angolo di rifrazione è costante al variare del l’angolo di incidenza, cioè:
sin 𝑖
sin 𝑟= 𝑛12
dove n12 è definito indice di rifrazione del secondo mezzo rispetto al primo e dipende dalla particolare coppia di mezzi considerati. Se l’angolo di rifrazione è più piccolo di quello di incidenza n12 >1 e il secondo mezzo è più frangente del primo. Per quanto abbiamo detto in precedenza l’indice di rifrazione relativo tra i due mezzi dipenderà dal rapporto delle velocità delle onde, in particolare ne passaggio da un mezzo “veloce” ad uno “lento” si avrà un indice di rifrazione maggiore di uno. Se potessimo introdurre un mezzo di riferimento in cui la velocità dell’onda, per quella data frequenza, è massima, potremmo definire gli indici di rifrazione rispetto al mezzo di riferimento. Otterremo allora che i mezzi dove la velocità è minore hanno indici di rifrazione maggiore. Per riassumere potremmo dire che più si riduce la velocità dell’onda allora il mezzo si dice più rifrangente.
Un fascio di onde piane incide sulla superficie AB di separazione di due mezzi trasparenti e viene in parte riflesso e in parte rifratto, nella seconda figura il fascio è rappresentato mediante raggi normali ai rispettivi fronti d’onda, nella terza figura si è considerato, per semplicità, un solo raggio incidente, riflesso e rifratto.
Rifrazione e principio di Huygens
103
La legge della rifrazione, legge di Snell, può essere facilmente dedotta dal principio di Huygens. Un onda il cui fronte è identificato dal segmento AP si muove in un semispazio (quello superiore) in la velocità è v1, nel tempo t in cui l’onda percorre il tratto PB nel semispazio superiore, nel semispazio inferiore l’onda che, per
il principio di Huygens si riforma con la stessa intensità e frequenza, ha percorso un tratto AB’ = v2t. perché la velocità di propagazione di pende dal mezzo. I due triangoli rettangoli APB
e AB’B hanno il tratto AB in comune. Si osserva che l’angolo 1 =
1 perché complementari di uno stesso angolo, così vale per gli
angoli 2 e 2. Avremo allora
𝐴𝐵 = 𝑣1 𝑡
sin 𝜃1=
𝑣2 𝑡
sin 𝜃2
Da cui si deduce
sin 𝜃1
sin 𝜃2=
𝑣1
𝑣2= 𝑛21
Principio di reversibilità del cammino Gli esempi fatti sulla legge di Snell presentano situazioni in cui l’onda passa da un mezzo veloce ad uno più lento con conseguente avvicinamento alla normale (cioè l’onda tende a diventare “più parallela” alla superficie di separazione). Vale anche se il cammino avviene da un mezzo lento ad uno veloce, in tal caso l’onda tende ad allontanarsi dalla normale (cioè l’onda tende a diventare “più perpendicolare” alla superficie di separazione. Angolo limite Nella condizione di rifrangenza di un onda da un mezzo lento ad uno veloce con conseguente aumento dell’angolo di rifrazione rispetto a quello di incidenza esistono angoli per i quali la legge di Snell non ha soluzioni (Sen(r) > 1). Tale situazione si traduce nell’assenza del raggio rifratto, la superficie di separazione si comporta da specchio e l’onda torna indietro seguendo le leggi della riflessione. L’angolo di incidenza per
il quale l’angolo di rifrazione è 90°, prende il nome di angolo limite (L). Cioè
sin(𝜃𝐿) = 𝑣1
𝑣2 sin(90°) =
𝑣1
𝑣2= 𝑛21
Nel caso di passaggio da un mezzo lento ad un mezzo veloce n21 < 1. Esempio l’indice di rifrazione del vetro rispetto all’aria è n21 = 1.5, ciò significa la luce nel vetro si propaga con una velocità 1.5 inferiore a quella del vuoto e dell’aria. Nel caso di passaggio di luce da vetro ad aria l’indice sarà n12 = 1/n21 = 1/1.5 = 0.67. Per cui i raggi di luce che incidono su una superfice di separazione vetro-aria con angoli il cui seno è maggiore di 0.67 non produrranno raggio rifratto ma saranno totalmente riflessi. (𝜃𝐿 = sin−1(0.67) ⋍ 42°)
Disegno non in scala
104
Le onde sonore e i suoni Le sorgenti sonore
Appoggiate una mano su una radio accesa o su uno strumento musicale che sta suonando: avvertirete
chiaramente delle vibrazioni. Proverete la stessa sensazione anche appoggiando le dita sulla gola mentre
parlate. E allora potrete concludere che le sorgenti sonore, cioè i corpi che emettono suoni, vibrano. Noi
possiamo udire come suoni l’effetto di queste vibrazioni perché la superficie della sorgente si accoppia con
l’aria, generandovi onde sonore, cioè onde elastiche longitudinali, che arrivano al nostro orecchio. Qui
appositi sensori le rivelano, trasmettendo al cervello le informazioni come segnali elettrici attraverso il
sistema nervoso. Ed è poi nel cervello che queste informazioni vengono elaborate, producendo ciò che noi
percepiamo appunto come suoni. Non tutte le vibrazioni delle sorgenti, tuttavia, vengono percepite come
suoni, ma soltanto quelle a cui l’orecchio umano è sensibile, cioè quelle la cui frequenza è
approssimativamente compresa fra 20 Hz e 20 kHz. Questa gamma di frequenze, nonostante le variabilità
individuali nella percezione dei suoni, è assunta comunemente come standard per i suoni, portando così a
chiamare ultrasuoni quelli con frequenze maggiori di 20 kHz e infrasuoni quelli con frequenze inferiori a 20
Hz. La sorgente sonora che usiamo normalmente è l’apparato vocale del nostro corpo: un vero e proprio
“strumento a fiato” costituito dalle corde vocali, poste in vibrazione dal flusso d’aria proveniente dai
polmoni, e da un insieme di cavità interne che funziona in modo simile a una cassa di risonanza (La Fisica
attorno a noi 4.) Una sorgente sonora assai comune è l’altoparlante. Parti essenziali di questo dispositivo
sono una bobina, libera di spostarsi fra i poli di un magnete, e una membrana collegata rigidamente alla
bobina. Quando la bobina è percorsa da una corrente elettrica variabile, fra essa e il magnete si esercita
una forza di intensità corrispondente che la pone in vibrazione assieme alla membrana, che a sua volta fa
vibrare l’aria producendo i suoni. Altri esempi di sorgenti sonore sono gli strumenti musicali. Negli
strumenti a corda, come le chitarre o i violini, i suoni sono prodotti dalla vibrazioni di una corda tesa; nei
tamburi, dalle vibrazioni di una membrana tesa. Diverso è il caso degli strumenti a fiato, come i flauti, i
sassofoni e gli organi, nei quali un soffio d’aria mette una vibrazione una colonna d’aria all’interno di una
cavità, dalle cui dimensioni dipende la frequenza del suono che viene emesso.
Il suono
Il suono è generato dalla variazione di pressione in un mezzo materiale (fluido o solido) che si propaga senza trasporto di materia. Esso è caratterizzato da alcune grandezze fondamentali quali l'Ampiezza, la frequenza o il periodo di oscillazione, la lunghezza d'onda e la velocità di propagazione nel mezzo attraversato. Il suono è il principale mezzo di comunicazione dell'uomo e il suo apparato uditivo si è specializzato nel
tempo in modo da ottimizzare l'ascolto del linguaggio parlato. Anche il rumore è un suono ma con
caratteristiche fisico-psichiche non gradite. Il suono è segnale di vita ed ha un profondo impatto sub-
liminare sull’Uomo. L’uso del suono è vario: esso veniva utilizzato dai mongoli per torturare ed uccidere i
prigionieri ponendoli all'interno di una campana metallica e si dice che Alessandro Magno utilizzasse un
grande corno per terrorizzare i suoi nemici.
105
Illustrazione del corno usato da Alessandro Magno
Il suono è quindi un onda elastica di pressione e si propaga nei solidi, nei liquidi e nei gas. Le onde associate
possono essere sia trasversali che longitudinali nei solidi, solo longitudinali nei liquidi e nei gas. Nel nostro
percorso faremo prevalentemente riferimento alla propagazione del suono in aria e alla sua percezione,
pertanto tratteremo esclusivamente onde longitudinali nell’intervallo di frequenze udibili (20 Hz – 20000
Hz).
Velocità del suono in aria
Si consideri un tubo cilindrico di sezione S nel quale un pistone viene spostato con un improvviso
movimento da sinistra verso destra, il pistone si muove di un tratto x in un tempo t, il pistone ha dunque
una velocità media v = x/t, a seguito di tale spostamento si viene a generare nel fluido
immediatamente vicino al pistone un aumento di pressione p e di densità , l’aumento di pressione e di
densità non si manifesta all’istante in tutti i punti del condotto, essendo il fluido dotato di inerzia e di
elasticità, bensì si propaga, verso destra, con velocità v; tale velocità di propagazione di questa
perturbazione provocata nel fluido viene denominata velocità del suono (nella dimostrazione v = vsuono).
Per potere determinare questa velocità consideriamo che nel tempo t in cui il pistone ha percorso il tratto
x, la perturbazione di pressione e densità ha compiuto un percorso vt, la massa di gas imperturbato
(densità ) contenuta nel cilindro di area di base S e altezza vt è la stessa che è contenuta nel cilindro di
area di base S e altezza (v-v)t ma con densità ( + cioè
𝜌 𝑆𝑣∆𝑡 = (𝜌 + ∆𝜌) ∙ 𝑆 ∙ (𝑣 − ∆𝑣)∆𝑡
Svolgendo il prodotto trascurando il termine v otteniamo
v v
x
v x t
p + p
+
106
∆𝜌
𝜌=
∆𝑣
𝑣 (1)
La perturbazione si propaga perché c’è uno squilibrio nella pressione, quindi vale il teorema dell’impulso,
cioè (facendo attenzione a non confondere i significati)
𝐹 ∆𝑡 = 𝑚 ∆𝑣
Nel nostro caso la forza è data dal prodotto della variazione di pressione per la superficie e la massa dal
prodotto della densità per il volume (cilindro di gas imperturbato di altezza vt, quindi il volume
𝑉 = 𝑆 ∙ 𝑣 ∙ ∆𝑡), la variazione di velocità è quella del pistone (∆𝑣) perché è il pistone che determina lo
spostamento della massa di gas, abbiamo quindi
𝐹 = ∆𝑝 ∙ 𝑆
𝑚 = 𝜌 ∙ 𝑆 ∙ 𝑣 ∙ ∆𝑡
∆𝑝 ∙ 𝑆 ∙ ∆𝑡 = 𝜌 ∙ 𝑆 ∙ 𝑣 ∙ ∆𝑡 ∙ ∆𝑣
Semplificando la sezione S e il tempo t otteniamo
∆𝑝 = 𝜌 ∙ 𝑣 ∙ ∆𝑣 (2)
Confrontando la (1) e la (2) otteniamo
∆p
∆𝜌= 𝑣2
Nel caso del suono le compressioni e rarefazioni dell’aria sono molto rapide (centinaia di volte al secondo)
pertanto la compressione del gas è una trasformazione adiabatica che è descritta dalla relazione
𝑝 ∙ 𝑉𝛾 = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒
Come nel caso della conservazione della massa avremo variando sia la pressione p che il volume elevato
alla gamma V, il loro prodotto si mantiene costante, cioè
(𝑝 + ∆𝑝) ∙ (𝑉𝛾 + 𝛾𝑉𝛾−1∆𝑉) = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒
Svolgendo il prodotto e trascurando il termine pV, otteniamo
∆𝑝
𝑝= −𝛾
∆𝑉
𝑉 (3)
Riprendiamo ora la definizione di densità
𝜌 = 𝑚
𝑉, 𝑉 =
𝑚
𝜌
di conseguenza, se la massa resta costante, una variazione di densità e collegata alla variazione di volume
nel seguente modo
107
∆𝑉 = − 𝑚
𝜌2 ∆𝜌
che sostituita nella (3) produce
∆𝑝 = 𝛾𝑝
𝑉∙
𝑚
𝜌2 ∆𝜌
Ricordando che 𝜌 = 𝑚/𝑉 , otteniamo
∆𝑝 = 𝛾 𝑝
𝜌 ∆𝜌 (4)
Riprendiamo ora l’equazione di stato dell’aria considerata come un gas perfetto per cui vale la relazione
𝑝 𝑉 = 𝑛 𝑅 𝑇
parlando di aria libera in atmosfera, poiché ha poco senso parlare di volume del gas, spesso si usa la
seguente equazione (ottenuta dall’equazione di stato dividendo entrambi i termini per il volume e
sostituendo al numero di moli n il rapporto tra la massa del gas e il peso molecolare medio)
𝑝 = 𝜌 𝑅𝑎𝑇
dove è la densità e Ra è la costante dei gas diviso il peso molecolare medio dell’aria (Ra = 8.315 / 28.9 x
1000 = 287 (J/Kg*K). Usando l’equazione di stato dell’aria e semplifichiamo il rapporto pressione su densità
nella (4) e otteniamo
∆𝑝 = 𝛾 𝑅𝑎 𝑇 ∆𝜌 (5)
confrontando con la (2) abbiamo
𝜌 ∙ 𝑣 ∙ ∆𝑣 = 𝛾 𝑅𝑎 𝑇 ∆𝜌
che, a sua volta confrontata con la (1),
∆𝑣 = 𝑣
𝜌 ∆𝜌
dividendo membro a membro, si ottiene
𝜌 ∙ 𝑣 ∙= 𝛾 𝑅𝑎 𝑇 𝜌
𝑣
da cui discende
𝑣 = √𝛾 𝑅𝑎 𝑇
Una diversa espressione si ottiene sempre utilizzando l’equazione di stato, otteniamo
𝑣 = √𝛾 𝑝
𝜌
108
Consideriamo = 1.4 (gas perfetto biatomico), Ra = 287 (J/Kg·K), T = 273 K, otteniamo per la velocità del
suono il seguente valore
𝑣 = √1.4 ∙ 287 ∙ 273 = √109691 = 331 𝑚/𝑠
Un valore sorprendentemente vicino a quello sperimentale (331.45 – fonte wikipedia)
Andamento della densità del gas per effetto del suono. Le onde sonore sono onde di pressione
Materiale Velocità del suono [m/s]
Velocità del suono normalizzata
Aria (20 °C) 343 1
Acqua (13 °C) 1441 4,2
Mattoni 3000 8,7
Vetro 5200 15,2
Legno 3400 9,9
Cemento armato 3400 9,9
Piombo 1220 3,6
Acciaio 5200 15,2
Cartongesso 6800 19,8
Effetto Doppler
La frequenza di un onda sonora è percepita in modo diverso a seconda che la
sorgente dell’onda o l’osservatore siano in moto relativo. L'effetto fu
analizzato per la prima volta da Christian Andreas Doppler nel 1845.
Procedette quindi a verificare la sua analisi in un famoso esperimento: si
piazzò accanto ai binari della ferrovia, e ascoltò il suono emesso da un vagone
pieno di musicisti, assoldati per l'occasione, mentre si avvicinava e poi mentre
si allontanava. Confermò che l'altezza del suono era più alta quando l'origine del suono si stava
avvicinando, e più bassa quando si stava allontanando, dell'ammontare predetto. Hippolyte Fizeau scoprì
109
indipendentemente lo stesso effetto nelle onde elettromagnetiche nel 1848 (in Francia, l'effetto è a volte
chiamato "effetto Doppler-Fizeau").
Consideriamo una sorgente sonora di frequenza f (es f = 200 Hz, quindi T = 1/f = 0.005 s), poiché il suono si
muove in aria a velocità costante vs = 340 m/s, la lunghezza d’onda sarà = vs x T = 340 x 0.005 = 1,7 m. La
sorgente emette due “creste” successiva (alta pressione) a distanza di 0.005 secondi, ogni cresta si muove
alla velocità di 340 m/s e, nel tempo che intercorre tra una cresta e la successiva, percorre 1.7 metri. Cosa
succede se la sorgente sonora si muove di velocità costante vsor = 20 m/s? Alla velocità delle onde non
succede nulla perché come abbiamo visto nel paragrafo precedente essa dipende dai parametri meccanici
del mezzo, cambia però la distanza tra due “creste” successive perché nel tempo T che intercorre tra
l’emissione di due creste la sorgente ha percorso un tratto s = vsor x T = 20 x 0.005 = 0. 1 m, per cui la
lunghezza d’onda 1 che un osservatore fermo rispetto misura sarà
𝜆1 = 𝜆 − 𝑣𝑠𝑜𝑟 ∙ 𝑇 = 1.7 − 0.1 = 1.6 𝑚
Come detto prima la velocità di propagazione dell’onda rimane invariata per cui la frequenza f1 misurata
sarà
𝑓1 = 𝑣𝑠
𝜆1=
𝑣𝑠
𝜆 − 𝑣𝑠𝑜𝑟 ∙ 𝑇=
𝑣𝑠
𝜆 ∙
1
1 − 𝑣𝑠𝑜𝑟 ∙ 𝑇
𝜆
= 𝑓 ∙1
1 − 𝑣𝑠𝑜𝑟𝑣𝑠
Nel nostro esempio abbiamo
𝑓1 = 𝑓 ∙1
1 − 𝑣𝑠𝑜𝑟𝑣𝑠
= 200 ∙1
1 − 20
340
= 200 ∙1
320340⁄
= 212,5 𝐻𝑧
La frequenza “percepita” è maggiore se la sorgente è in avvicinamento all’osservatore (se la sorgente
insegue il suono nella direzione dell’osservatore), minore in caso contrario. Questo fatto è ben noto, il
suono della sirena di un autoambulanza in avvicinamento è percepito più acuto (frequenza maggiore),
mentre è percepito più “grave” (frequenza minore) se l’autoambulanza è in allontanamento (velocità della
sorgente di segno diverso da quello della velocità del suono).
La situazione si presente in modo leggermente diverso nel caso in cui la sorgente sonora è in quiete rispetto
all’aria ed è l’osservatore a muoversi di velocità voss (es. verso la sorgente). Consideriamo i dati dell’esempio
precedente. Sorgente di frequenza f = 200 Hz, osservatore che si avvicina alla sorgente con velocità voss = 20
m/s. Se l’osservatore fosse in quiete osserverebbe due “creste” consecutive ad un intervallo di tempo T =
1/f = 0.005 s. Immaginiamo l’osservatore che si trova nella posizione di una cresta, muovendosi verso la
sorgente, l’osservatore incontrerà la cresta successiva dopo un tempo T1 diverso da periodo T dell’onda,
determinato dalla lunghezza d’onda (che è la distanza tra l’osservatore e la cresta successiva) e dalla
velocità di avvicinamento (velocità relativa) tra la cresta successiva e l’osservatore, avremo cioè
𝑇1 = 𝜆
𝑣𝑠 + 𝑣𝑜𝑠𝑠
Per cui la frequenza f1 percepita sarà
𝑓1 = 1
𝑇1=
𝑣𝑠 + 𝑣𝑜𝑠𝑠
𝜆=
𝑣𝑠 + 𝑣𝑜𝑠𝑠
𝑣𝑠𝑓⁄
= 𝑓 ∙ (1 +𝑣𝑜𝑠𝑠
𝑣𝑠)
Con i dati del nostro esempio abbiamo
110
𝑓1 = 𝑓 ∙ (1 +𝑣𝑜𝑠𝑠
𝑣𝑠) = 200 (1 +
20
340) = 200 (1 + 0.059) = 211,8 𝐻𝑧
Nel caso generale, quando a muoversi sono contemporaneamente sorgente e osservatore avremo (senza
dimostrazione)
𝑓1 = 𝑓 ∙1 ±
𝑣𝑜𝑠𝑠𝑣𝑠
1 ±𝑣𝑠𝑜𝑟𝑣𝑠
Il segno +/- è necessario per sorgente e osservatore in avvicinamento e allontanamento.
Le applicazioni dell’effetto Doppler sono moltissime, spesso fanno riferimento alla possibilità di misurare la
variazione della frequenza di un‘onda. Facendo riferimento alle formule nel caso della sorgente in
movimento avremo
∆𝑓 = 𝑓1 − 𝑓 = 𝑓 ∙1
1 − 𝑣𝑠𝑜𝑟𝑣𝑠
− 𝑓 = 𝑓 ∙ (1
1 − 𝑣𝑠𝑜𝑟𝑣𝑠
− 1) = 𝑓 ∙ (𝑣𝑠𝑜𝑟
𝑣𝑠 − 𝑣𝑠𝑜𝑟 )
Mentre nel caso dell’osservatore in movimento abbiamo
∆𝑓 = 𝑓1 − 𝑓 = 𝑓 ∙ (1 +𝑣𝑜𝑠𝑠
𝑣𝑠) − 𝑓 = 𝑓 ∙ (1 +
𝑣𝑜𝑠𝑠
𝑣𝑠− 1) = 𝑓 ∙ (
𝑣𝑜𝑠𝑠
𝑣𝑠 )
In entrambi i casi la variazione di frequenza è proporzionale alla frequenza (fondamentale) dell’onda. La
misura della differenza di frequenza permette di risalire alla velocità. I ragionamenti sin qui fatti per sono
validi per tutti i tipi di onde, anche per la luce e le onde radio.
L’effetto Doppler si manifesta anche quando l’osservatore non si trova sulla linea di moto delle sorgente e
vice versa. In tal caso solo la proiezione della velocità nella direzione sorgente-osservatore contribuisce
all’effetto doppler, pertanto chiamato l’angolo formato dal vettore velocità e dalla congiungente, le
relazioni diventano
Sorgente in movimento 𝑓1 = 𝑓 ∙1
1− 𝑣𝑠𝑜𝑟 ∙cos 𝜑
𝑣𝑠
Osservatore in movimento 𝑓1 = 𝑓 ∙ (1 +𝑣𝑜𝑠𝑠∙cos 𝜑
𝑣𝑠)
Alcuni dispositivi sfruttano l’effetto doppler per misurare la velocità di un oggetto (ecografia doppler che
misura la velocità del sangue, sonar doppler che misura la velocità di oggetti sommersi in movimento). Ciò
che viene misurato è sia il ritardo tra l’impulso sonoro e il suo eco, sia le frequenze dell’onda inviata e di
quella riflessa dall’oggetto in movimento. Con il ritardo temporale si determina la distanza dell’oggetto che
ha causato la riflessione, con lo spostamento della frequenza la velocità.
Supponiamo che un sonda emetta un impulso di ultrasuoni di frequenza f0 = 100 kHz e sia in grado di
misurarne l’eco sia come tempo di ritardo sia come frequenza ( = vs/f0 = 340 /100000 = 0,0034 m = 3.4
111
mm), per quanto detto sulle onde in generale, sulla diffrazione e sulla riflessione, l’onda sarà riflessa solo da
oggetti che abbiano dimensioni pari ad almeno la lunghezza d’onda. L’onda è inviata contro un oggetto che
si trova alla distanza d = 10 m e si sta muovendo con velocità v = 20 m/s verso la sonda. Ci chiediamo dopo
quanto tempo la sonda registra l’eco e che frequenza avrà l’onda di eco.
Nel tempo t1 che l’onda percorre il tratto che separa la sorgente dall’oggetto in movimento, questo ha
percorso un tratto s = v * t1, abbiamo quindi
𝑑 = 𝑣𝑠 ∙ ∆𝑡1 + 𝑣 ∙ ∆𝑡1
Il suono viene riflesso verso la sorgente e rilevato dopo un tempo t = 2t1 dall’emissione. Se la velocità
dell’oggetto è piccola rispetto a quella del suono è possibile ricavare la distanza d in modo semplice,
altrimenti è importante conoscere la velocità dell’oggetto che ha causato la riflessione.
L’oggetto, per effetto doppler, muovendosi verso la sorgente percepisce una frequenza f1 diversa da f0.
𝑓1 = 𝑓0 ∙ (1 +𝑣
𝑣𝑠) = 100000 ∙ (1 +
20
340) = 105880 𝐻𝑧
Per il principio di Huygens l’onda riflessa ha le stesse caratteristiche dell’onda incidente, quindi frequenza f1
= 105880 Hz. Ora è l’oggetto che si comporta come sorgente di frequenza f1 in moto con velocità v verso
l’osservatore (la sonda) che, a sua volta, percepirà una frequenza f2 diversa da f1,
𝑓2 = 𝑓1 ∙1
1 − 𝑣𝑣𝑠
= 106000 ∙ (1
1 − 20
340
) = 112500 𝐻𝑧
Esaminiamo in dettaglio come poter risalire dalla misura dello spostamento in frequenza alla velocità
dell’oggetto. Sostituiamo nell’espressione di f2 quella di f1 e otteniamo
𝑓2 = 𝑓0 ∙ (1 +𝑣
𝑣𝑠) ∙
1
1 − 𝑣𝑣𝑠
= 𝑓0 ∙𝑣𝑠 + 𝑣
𝑣𝑠 − 𝑣
Per cui, facendo la formula inversa otteniamo
d = 10 m
v = 20 m/s
f0 = 100 kHz
f1 = 106 kHz
112
𝑣 = 𝑣𝑠 ∙ 𝑓2 − 𝑓0
𝑓2 + 𝑓0= 𝑣𝑠 ∙
∆𝑓
2𝑓0 + ∆𝑓
Nel nostro esempio, supponendo che il nostro sistema abbiam misurato f0 = 100 kHz e f = 12 kHz,
abbiamo,
𝑣 = 𝑣𝑠 ∙ ∆𝑓
2𝑓0 + ∆𝑓= 340 ∙
12
2 ∙ 100 + 12= 340 ∙
12
212= 20.3 𝑚/𝑠
Risultato coerente con quanto ipotizzato.
Su questo principio e ragionamento si basa il funzionamento delle ecografo doppler che permette di
rilevare la velocità del sangue e del radar doppler che, in meteorologia, permette di misurare la velocità
degli ammassi nuvolosi.
Una sorgente può muoversi in un fluido con velocità anche maggiori di quella del suono, si definisce il
numero di Mach come il rapporto tra le velocità della sorgente (oggetto) in fluido e del suono nel fluido
stesso. Il numero di Mach è adimensionale.
𝑀 = 𝑣
𝑣𝑠
Si definiscono alcuni regimi schematizzati nella figura seguente
Un aereo in volo a velocità transonica. La nuvola conica, dovuta alla condensazione dell'umidità presente nell'aria, compare a causa della brusca diminuzione di temperatura e pressione dietro l’aeromobile che superato la velocità del suono
Percezione del suono:
La pressione sonora
Come accennato in precedenza, essendo la biologia umana fortemente evoluta in relazione alla
percezione del suono, la misura dell’intensità risulta legata alla dinamica dell’orecchio umano.
113
In generale la fluttuazione locale di pressione p (quella che abbiamo detto generare il suono) è
irregolare e non armonica, quindi non è possibile definire in modo univoco l’ampiezza, pertanto si
definisce il livello di pressione medio come il valore ottenuto su un intervallo di tempo T (molto
grande) del quadrato della fluttuazione di pressione
∆𝑝𝑚2 =
1
𝑇∫ ∆𝑝2(𝑡)𝑑𝑡
𝑇
0
L’espressione matematica sopra definita è chiamate “integrale” e rappresenta l’area compresa tra
l’asse orizzontale e il valore della funzione ∆𝑝2(𝑡), il valore medio rappresenta l’altezza del
rettangolo che ha base T e la stessa area della figura. Facendo riferimento al suono parleremo
genericamente di pressione p intendendo la fluttuazione p rispetto al valore medio. L’orecchio
umano è in grado fluttuazioni di pressione che abbiano come valore minimo p0 = 20 Pa (2x10-5
Pa). Utilizzando questo limite convenzionale come riferimenti si definisce Il livello di pressione
sonora (SPL) o livello sonoro 𝐿𝑝 la misura logaritmica della pressione sonora media di un'onda
sonora rispetto ad una sorgente di riferimento. Viene misurata in decibel:
𝐿𝑝 = 10 ∙ log10 (𝑝
𝑝0)
2
= 20 ∙ log10 (𝑝
𝑝0) 𝑑𝐵
Può essere utile esprimere la pressione del suono in termini di decibel sonori quando si ha a che
fare con problemi legati all'udito, dal momento che l'intensità percepita dall'orecchio è circa
proporzionale al logaritmo del quadrato della pressione sonora.
In caso di più sorgenti la determinazione del livello di pressione sarà fatta “sommando
quadraticamente “ la pressione determinata dalle singole sorgenti
Intensità del suono e potenza sonora
Si definisce intensità del suono l’energia uscente da un volume unitario, nell’unità di tempo,
attraverso la superficie unitaria, nel caso di un onda tridimensionale si può dimostrare che
l’intensità ha la seguente espressione (𝐼 = 𝑒𝑛𝑒𝑟𝑔𝑖𝑎 /(𝑠𝑢𝑝𝑒𝑟𝑓𝑖𝑐𝑖𝑒 ∙ 𝑡𝑒𝑚𝑝𝑜))
𝐼 = 𝑝 ∙ 𝑢
Dove u è la velocità media delle molecole e p la pressione, l’unità di misura dell’intensità è W/m2,
si può anche dimostrare che l’intensità del suono è legata alla pressione dalla seguente relazione
𝐼 = ∆𝑝𝑚𝑒𝑑𝑖𝑜
2
𝜌0 ∙ 𝑣𝑠
Dove 0 è la densità dell’aria e vs la velocità del suono. Considerando i valori per l’aria standard
otteniamo 𝜌0 ∙ 𝑣𝑠 = 400 𝑘𝑔/𝑚2 ∙ 𝑠. Anche l’intensità sonora viene espressa in dB, il valore di
riferimento, come facilmente deducibile, sarà
114
𝐼0 = ∆𝑝0
2
𝜌0 ∙ 𝑣𝑠=
(20 𝜇𝑃𝑎)2
400= 10−12 [𝑊
𝑚2⁄ ]
Si definisce pertanto il livello di intensità sonora nel seguente modo
𝐿𝐼 = 10 log10
𝐼
𝐼0 𝑑𝐵
Ci possiamo chiedere in che relazione sono la scala delle pressioni e la scala delle intensità, si
dimostra che
𝐿𝑝 = 𝐿𝐼 + 0.14
Il fattore correttivo 0.14 risulta dai dati per l’aria in condizioni standard (T = 20 °C, 𝜌0 ∙ 𝑣𝑠 =
400 𝑘𝑔/𝑚2 ∙ 𝑠)
Consideriamo una certa quantità di aria a densità costante 0 contenuta in volume V0 avente
velocità u, la sua energia cinetica Ec sarà (trascurando la parte di variazione di densità e volume)
𝐸𝑐 =1
2 𝜌0 ∙ 𝑉0 ∙ 𝑢2
La sua energia potenziale potenziale Ep è legata al lavoro che l’aria intorno compie con la forza di
pressione, per cui potremmo scrivere
Δ𝐸𝑝 ≈ 𝑝 ∙ ΔV
La conservazione della massa ci dice che
(𝜌0 + Δ𝜌) ∙ (𝑉0 + Δ𝑉) = 𝜌0 ∙ 𝑉0
Se svolgiamo il calcolo e trascuriamo il temine Δ𝜌 ∙ Δ𝑉, abbiamo
Δ𝑉 = − 𝑉0
𝜌0∙ Δ𝜌
Ricordando la relazione che
Δ𝑝
Δ𝜌= 𝑣𝑠
2
Possiamo riscrivere l’energia potenziale nel seguente modo
Δ𝐸𝑝 ≈ 𝑝 ∙ 𝑉0
𝜌0∙
Δ𝑝
𝑣𝑠2
115
La somma di tutti gli incrementi di energia da 0 al valore finale della pressione è (integrale)
𝐸𝑝 =1
2∙
𝑉0
𝜌0∙
𝑝2
𝑣𝑠2
Pertanto l’energia totale (cinetica più potenziale) sarà:
𝐸𝑡 = 𝐸𝑐 + 𝐸𝑝 = 1
2 𝜌0 ∙ 𝑉0 ∙ 𝑢2 +
1
2∙
𝑉0
𝜌0∙
𝑝2
𝑣𝑠2
(da completare)
Facendo ipotesi sulla sorgente, dalla misura dell’intensità sonora, possiamo risalire alla potenza
emessa dalla sorgente. L’ipotesi più semplice prevede che la sorgente sia puntiforme e che
l’energia sia uniformemente distribuita su una superficie sferica intorno alla sorgente. Pertanto se
l’intensità I di una sorgente viene rilevata a distanza R dalla sorgente stessa, la potenza W emessa
dalla sorgente potrà essere determinata moltiplicando l’intensità rilevata per la area di una
superficie sferica avente centro nella sorgente e raggio R (trascurando le riflessioni), otteniamo
quindi
𝑊 = 4𝜋𝑅2 ∙∆𝑝𝑚𝑒𝑑𝑖𝑜
2
𝜌0 ∙ 𝑣𝑠
Considerando la superficie unitaria otteniamo come valere di riferimento 𝑊0 = 10−12 𝑊𝑎𝑡𝑡
dB Sorgente 300 Eruzione del vulcano Krakatoa nel 1883
250 Interno di un tornado
180 Razzo al decollo
140 Colpo di pistola a 1m, auto formula 1
130 Soglia del dolore
125 Aereo al decollo
120 Sirena
100 Discoteca, concerto rock
90 Urlo, fischietto
80 Camion pesante a 1 m
70 Aspirapolvere a 1m; radio alto volume
60 Ufficio rumoroso, radio, conversazione
50 Ambiente domestico
40 Quartiere abitato di notte
30 sussurri
20 Respiro umano
0 Soglia di udibilità
La percezione del suono e la rumorosità
Un suono può essere costituito da un insieme continuo e infinito di frequenze (ognuna con la sua
ampiezza) e in questo caso si parla di rumore. Sia in acustica che in elettronica vengono usati
116
alcuni tipi di rumore per testare strumentazione ed ambienti. Tra i tipi di rumore maggiormente
usati ci sono il rumore bianco e il rumore rosa
Il rumore bianco è costituito dalla sovrapposizione di tutte le frequenze, ognuna con eguale
ampiezza (come in ottica la luce bianca e la sovrapposizione di tutti i colori con uguale intensità), il
rumore bianco serve per verificare la risposta di uno strumento o di un ambiente al variare della
frequenza (è un rumore spesso generato dalla strumentazione stessa e quindi ineliminabile).
Il rumore rosa è un rumore in cui le componenti a bassa frequenza hanno un livello sonoro
maggiore. Tra i tipi di rumore producibili in laboratorio è quello che somiglia maggiormente ai
rumori naturali.
Rumore bianco
Rumore rosa
L'orecchio umano NON HA una sensibilità lineare del rumore, sia per quanto riguarda l'intensità
sia per la frequenza dello stesso, per questo sono state create le curve isofoniche, che descrivono
l'andamento della sensibilità umana per i suoni di diversa intensità e frequenza, l'unità di misura di
queste curve sono i phon, che riportano la scala decibel secondo la scala di sensibilità dell'orecchio
umano.
117
Curve isofoniche
Da queste curve è possibile vedere come la soglia d'udibilità minima sia più alta per le basse
frequenze (sotto i 400 Hz) rispetto alle medie frequenze, soglia che aumenta superati i 4000 Hz,
valore cui si ha la maggiore sensibilità rispetto alle altre frequenze.
Curve di compensazione
Da queste curve di sensibilità sono state ricavate le curve di ponderazione, le quali rappresentano
un grafico tra intensità decibel e frequenza del suono, e ogni qual volta che si vuole verificare la
sensibilità di un orecchio, bisogna sommare l'intensità di pressione (non i dB) tra la curva di
compensazione (composta per la maggior parte delle frequenze da valori negativi) e il suono, poi
riconvertire in dB, in questo modo si conoscerà il valore dB che l'orecchio sente realmente (o che
dovrebbe sentire).
Le curve di compensazione in origine erano 3: A, B e C fatte per diversi valori di intensità percepita
(di cui le ultime due in disuso) e le rispettive scale dB a seconda della curva di compensazione
usata prendono il nome di dBa, dBb e dBc, più recentemente è stata introdotta anche la curva D,
studiata espressamente per il traffico aereo.
Curve di compensazione, in blu la curva A (la più usata)
118
Combinazione di livelli Il livello equivalente Al fine di valutare il suono come possibile fonte di inquinamento poiché provoca disturbo è
necessario definire una nuova grandezza. Se la sorgente sonora non emette in modo continuo ma
la sua intensità varia nel tempo di definisce il livello sonoro equivalente come la media temporale
dell’intensità sonora corretta per la curva dBA. I limiti di rumore fissati dalle normative fanno
riferimento a questa grandezza.
Immaginiamo che il livello sonoro in un punto di campo acustico non sia costante ma vari nel
tempo, è il caso più frequente quando il suono è generato da un rumore. Si introduce il Livello
Sonore Equivalente Leq che nell’intervallo di tempo t rappresenta il livello sonoro continuo
avente lo stesso contenuto energetico del segnale variabile nel tempo. Poiché l’energia di un’onda
è proporzionale al quadrato della sua ampiezza il contenuto energetico è legato al livello sonoro.
Immaginando di poter suddividere l’intervallo di tempo in tanti piccoli intervalli ti nei quali il
livello sonoro può essere considerato costante Li avremo
𝐿𝑒𝑞Δ𝑡 = 10 ∙ log10(Δ𝑡1
Δ𝑡∙ 10
𝐿110 +
Δ𝑡1
Δ𝑡∙ 10
𝐿110 + ⋯ … +
Δ𝑡1
Δ𝑡∙ 10
𝐿110)
Misure di rumore
Effetti del rumore sulla salute Sorgenti di rumore Attenuazione del rumore