implicazioni mediche e biologiche derivanti dall’utilizzo dei principali elettrodomestici e...
TRANSCRIPT
1° Seminario
“Implicazioni mediche e biologiche derivanti dall’utilizzo dei principali elettrodomestici e prodotti di elettronica di consumo”
1. Introduzione• Basi scientifiche: basi biologiche, fisiche e chimiche;• Il mercato dell’elettronica di consumo in Italia e tassi di
penetrazione dei prodotti tra le famiglie italiane.
2. Telefonia mobile e fissa• Tipologia di prodotti in uso;• Problematiche legate all’utilizzo dei prodotti e pratiche
potenzialmente pericolose per la salute dell’individuo.
3. Televisori e apparecchi audio video• Principali tecnologie in uso;• Problemi legati all’utilizzo frequente dei prodotti;• Danni da rumore.
4. Prodotti informatici• Prodotti e tecnologie in uso;• Problemi legati all’utilizzo frequente di personal computer;• Problemi legati all’utilizzo frequente di Internet e della posta
elettronica.
5. Piccoli Elettrodomestici• Tipologia di prodotti in uso;• Problemi legati all’utilizzo frequente dei prodotti.
6. Pericolosità in casa• Incidenti domestici;• Il ruolo degli elettrodomestici e dei prodotti di elettronica di
consumo negli incidenti domestici.
BibliografiaSitografia
2
1. INTRODUZIONE
1.1.Basi scientifiche: basi biologiche, fisiche e chimiche
Gli effetti sul normale equilibrio omeostatico dell’organismo umano provocati
dall’utilizzo dei moderni elettrodomestici e prodotti elettronici si fondano su precise basi
chimiche, fisiche e biologiche.
Di seguito vengono riportati i principali agenti fisici, chimici e biologici potenzialmente
patogeni e i relativi effetti sull’organismo umano, derivati dall’utilizzo frequente e
periodico di tali dispositivi.
a) Energia radiante, campi elettrici ed elettromagnetici
Le radiazioni che hanno effetti patogeni sugli organismi viventi e in particolare
sull’uomo sono, secondo le nozioni della fisica moderna, di natura
corpuscolare oppure elettromagnetica. Le prime sono composte da materia,
mentre le seconde sono composte da energia in pacchetti finiti o quanti che
prendono il nome di fotoni.
La loro energia è stabilita dalla Legge di Planck: ε = h ν dove ε è l’energia, h
la costante di Planck (6,6 x 10-27 erg/sec) e v la frequenza della radiazione;
oppure dalla relazione ε = hc / λ dove λ è la lunghezza d’onda e c è la velocità
dell’onda elettromagnetica nel vuoto (3 x 1010 cm/sec).
Le radiazioni si distinguono inoltre in ionizzanti ed eccitanti a seconda che
producano ionizzazione, ovvero eccitamento degli atomi costituenti la materia
che attraversano. Il fenomeno della ionizzazione consiste nello strappare un
elettrone da un’orbita di un atomo producendo uno ione positivo. L’elettrone
espulso e il fotone incidente possono avere ancora sufficiente energia per
produrre ionizzazioni secondarie. L’energia necessaria è di 10 eV e questo
significa che solo le radiazioni con energia uguale o superiore possono
produrre ionizzazione. Il fenomeno della eccitazione avviene quando una
radiazione con energia inferiore a 10 eV viene assorbita da un atomo: in questo
caso si ottiene l’eccitazione dell’atomo che viene appunto definito eccitato.
Sono radiazioni ionizzanti le α, β, γ, i raggi X e i raggi cosmici; sono invece
eccitanti le radiazioni visibili, quelle dell’infrarosso e dell’ultravioletto, tanto
3
più quanto è maggiore l’energia della radiazione, cioè quanto è minore la
lunghezza d’onda.
Le radiazioni ionizzanti di natura elettromagnetica danno origine a ioni per
effetto fotoelettrico (espulsione di un elettrone per assorbimento di un fotone,
se il fotone incidente ha energia minore di 0,5 MeV), per effetto Compton
(emissione di un elettrone e rimbalzo con energia ridotta del fotone incidente,
se il fotone incidente ha energia compresa tra 0,5 e 10 MeV), o per produzione
di coppie (espulsione di un positrone o di un elettrone che si annichilano e
spariscono come materia, se l’energia del fotone incidente è maggiore a 5
MeV), mentre quelle corpuscolate producono ionizzazione in virtù della carica
che possiedono.
Corpuscolari (composiz.) Elettromagnetiche (λ) Effetti maggioriα Nucleo elioβ ElettroniNeutroniProtoni
Metri
Onde radio 10-2-1Micro onde 1-10-3
Infrarossi 10-3 10-6
Visibile 400-700 nmUltravioletto 190-400 nm
Raggi X 10-8 10-12
Raggi γ 10-12 10-15
Raggi cosmici
Ionizzazione
Eccitazione
Ionizzazione
Le interazioni tra fotoni e radiazioni corpuscolate con la materia vivente sono
comprese in un tempo di circa 10-7 – 10-15 secondi. Questa interazione può
produrre effetti biologici particolari, che diventano riconoscibili in un tempo più
lungo, anche dell’ordine di anni. A seconda del processo che produce e cioè a
seconda dell’energia dei fotoni incidenti, l’assorbimento della radiazione
avviene preferenzialmente in certi tessuti biologici piuttosto che in altri tranne
che per l’effetto Compton che avviene nell’osso.
Nella pratica medica, le radiazioni più temibili sono quelle non ionizzanti, ossia
i campi elettromagnetici che si propagano nello spazio sotto forma di onde
elettromagnetiche, le quali non possiedono l’energia necessaria per causare
fenomeni di ionizzazione, ossia non sono in grado di staccare cariche elettriche
dagli atomi.
4
Le radiazioni non ionizzanti comprendono radiazioni di bassa frequenza e
radiazioni di alta frequenza.
Le sorgenti di radiazioni a bassa frequenza producono radiazioni con frequenze
comprese tra i 3 e i 300 Hz, tuttavia dal punto di vista pratico le frequenze di
maggior interesse sono quelle di 50 Hz, proprie della corrente alternata della
rete elettrica. Le sorgenti di radiazioni a bassa frequenza producono invece
radiazioni con frequenze comprese tra 300 Hz e 300 GHz, tuttavia dal punto di
vista pratico le frequenze di maggior interesse sono quelle riguardanti i ripetitori
radiotelevisivi e le stazioni radio base per la telefonia cellulare.
I campi a frequenza estremamente bassa hanno la capacità di indurre correnti
nel corpo umano che però, considerata la loro modesta entità, sono insufficienti
a consentire ipotesi di danno biologico. Gli effetti acuti si manifestano nel breve
periodo come immediata conseguenza di elevate esposizioni e sono in genere
completamente reversibili. Sono stati segnalati effetti sul sistema visivo e sul
sistema nervoso centrale, stimolazione di tessuti eccitati, extrasistole e
fibrillazione ventricolare. Sono stati segnalati anche sintomi quali cefalea,
insonnia e affaticamento. Gli effetti cronici possono manifestarsi invece dopo
periodi anche lunghi di latenza in conseguenza di lievi esposizioni, senza
alcuna soglia certa; tali effetti hanno natura probabilistica: all’aumentare della
durata dell’esposizione aumenta infatti la probabilità di contrarre un danno ma
non l’entità del danno stesso.
È ancora fonte di acceso dibattito all’interno della comunità scientifica la
relazione tra esposizione a radiazioni non ionizzanti e comparsa di patologie
tumorali (anche se l’Agenzia Internazionale per la Ricerca sul Cancro IARC ha
da tempo classificato i campi magnetici nella classe 2B dei possibili
cancerogeni per l’uomo, insieme al caffè e al cloroformio).
Con il crescere della frequenza aumenta progressivamente l’energia veicolata
dal campo, che viene ceduta ai tessuti sotto forma di calore. Questo effetto è
significativo per i campi ad alta frequenza e viene definito effetto termico.
Le radiazioni da radiofrequenze, a dosi molto elevate, sono in grado di causare
gravi danni legati al calore quali ustioni, cataratta e sterilità temporanea.
Le principali sorgenti di radiazioni elettromagnetiche non ionizzanti oggi
utilizzate, suscettibili di raggiungere livelli variabili di esposizione nelle loro
5
vicinanze, vengono raggruppate in campi statici, a frequenze estremamente
basse, a frequenze intermedie, a radiofrequenze e a microonde.
Per una migliore comprensione di quanto appena illustrato, occorre però anche
fare una doverosa distinzione tra campi elettrici e campi magnetici: i primi
sono creati infatti da differenze di potenziale elettrico, o tensioni, mentre i
secondi si creano quando circola una corrente elettrica. Un campo elettrico
esiste anche se non c’è corrente; se circola una corrente, l’intensità del campo
magnetico varia con il consumo di potenza, mentre l’intensità del campo
elettrico rimane costante. Come i campi elettrici, inoltre, anche quelli magnetici
sono massimi vicino alla loro sorgente e diminuiscono rapidamente a distanze
maggiori.
Di seguito vengono riportate le maggiori differenze tra i due diversi tipi di campi:
Campi elettrici Campi magnetici1. I campi elettrici derivano dalla
tensione2. La loro intensità si misura in Volt al
metro (V/m)3. Un campo elettrico può essere
presente anche se un apparecchio è spento
4. L’intensità del campo elettrico diminuisce con la distanza dalla sorgente
5. La maggior parte dei materiali scherma in qualche misura i campi elettrici
1. I campi magnetici derivano dalla corrente elettrica
2. La loro intensità si misura in ampére al metro (A/m), oppure in microtesla (μT) o millitesta (mT)
3. I campi elettromagnetici esistono solo se un apparecchio è acceso e circola una corrente
4. L’intensità del campo magnetico diminuisce con la distanza della sorgente
5. I campi magnetici non sono schermati dalla maggior parte dei materiali
Cause di presenza nell’ambiente di campi elettrici possono essere coperte
elettriche, bollitori, apparecchi stereofonici, frigoriferi e ferri da stiro. Cause di
presenza nell’ambiente di campi magnetici sono invece asciugacapelli,
frullatori, televisori, trapani e trenini elettrici. Altre sorgenti di onde
elettromagnetiche si trovano nei settori delle telecomunicazioni, delle
trasmissioni radiotelevisive, degli impianti radioamatoriali, negli impianti radar,
sia militari sia civili, e nelle antenne paraboliche per le comunicazioni satellitari.
Sotto vengono riportate le principali sorgenti di onde elettromagnetiche presenti
nell’ambiente:
6
Sorgente Frequenza Lunghezza d’onda OndeApplicazioni
industriali0-3 Hz > 10.000 km Frequenza ultra
bassaElettrodotti
Elettrodomestici3-3.000 Hz 100 km – 10.000 km Frequenza
estremamente bassa
Applicazioni industriali,
Telecomunicazioni, Telefonia - Telegrafia
3-30 kHz 10 km – 100 km Frequenza bassissima
Telecomunicazioni 30-300 kHz 1 km – 10km Bassa frequenzaTelegrafi interfonici,
Telefonia, Radiofonia, Ultrasuoni
300-3.000 kHz 100 m – 1 km Media frequenza
Antenne televisive e radiofoniche
3-30 MHz 10 m – 100 m Alta frequenza
Radiofonia, Televisione
30-300 MHz 1 m – 10 m Altissima frequenza
Televisioni, Ponti radio, Telefonia
mobile, Radiomobile
300-3.000 MHz 10 cm – 1 m Ultra alta frequenza
Telecomunicazioni, TV satellitare
3-30 GHz 1 cm – 10 cm Frequenza superiore
Telecomunicazioni, Elettroterapia,
Radioastronomia, Radar
30-300 GHz 1 mm – 1 cm Frequenza estremamente alta
Di seguito vengono invece riportati i valori indicativi, espressi in microtesla (μT),
dei campi magnetici generati da alcuni elettrodomestici di uso comune a
diversa distanza dal corpo.
Apparecchiatura A ridosso del corpo
A 10 cm dal corpo
A 20 cm dal corpo
A 30 cm dal corpo
Frigorifero 0,5 – 1,7 1,5 1 0,25Lavastoviglie 0,3 – 3,4 0,2 0,11 0,1
Lavatrice 0,1 – 27,5 12,6 10 7,2Televisore 14” 2 - 7 2,5 1 0,5
Radio registratore
0,3 – 1,5 2 0,8 0,4
Asciugacapelli 40 - 100 40 5 1,5Rasoio 50 – 1.300 20 5 1,7
Frullatore 50 - 230 14 3,5 1,5Ventilatore 30 - 50 2,9 0,4 0,15Lampada a
incandescenza60 3,8 0,85 0,27
7
Più nello specifico, i campi elettromagnetici compresi tra 10 e 300 GHz
vengono assorbiti presso la superficie della pelle e delle parti del corpo
esposte, e l’energia che penetra nei tessuti sottostanti è molto ridotta. Le
esposizioni intense e prolungate nel tempo possono essere molto gravi, in
particolare per gli organi poco vascolarizzati come il cristallino dell’occhio o i
testicoli per i quali la dispersione del calore da parte del sistema circolatorio è
più problematica.
I campi elettromagnetici compresi tra 1 MHz e 10 GHz penetrano invece nei
tessuti esposti e producono induzione di correnti elettriche e riscaldamento a
causa dell’assorbimento di energia. A bassi livelli l’aumento localizzato della
temperatura stimola il sistema termoregolatore a ripristinare le condizioni
termiche iniziali di cui l’individuo è conscio. L’effetto può risultare
particolarmente grave in quanto il riscaldamento interessa zone interne del
corpo e non viene direttamente percepito dagli organi sensoriali; per di più
l’organismo non riesce a smaltirlo adeguatamente attraverso i meccanismi di
compensazione del corpo. Come conseguenza del riscaldamento indotto nei
tessuti e delle sollecitazioni anomale dei meccanismi di termoregolazione, si
possono manifestare diverse risposte dovute al calore, come avviene in
conseguenza di manifestazioni febbrili prolungate o in ambienti surriscaldati.
I campi elettromagnetici inferiori a 1 MHz non producono riscaldamento
significativo, ma inducono soprattutto correnti e cariche elettriche, stimolando in
particolare i nervi e i muscoli.
I campi elettrici statici non penetrano nel corpo mentre i campi magnetici statici
si trasmettono inalterati nel corpo umano senza attenuazione di intensità.
Gli effetti indiretti dei campi elettromagnetici possono avvenire attraverso il
contatto diretto tra una persona e un oggetto con un differente potenziale
elettrico. Tale contatto provoca un rapido passaggio delle cariche elettriche
accumulate sulla superficie del corpo umano o dell’oggetto.
Più in generale, di seguito vengono riportati i principali effetti delle radiazioni
ionizzanti a livello cellulare, soprattutto se relativi a danni da radiazioni
luminose, i quali possono essere di tipo reversibile mentre altri possono
risultare addirittura letali:
Cellule labili:effetti prevalenti sul nucleo
Diminuzione numerosi mitosi
In cariocinesi:- adesività
8
Cellule perenni:effetti prevalenti sugli organuli citoplasmatici
↓picnosi
Mitocondri- rigonfiamento- rottura membrana- rottura creste- dissociazione fosforilazioni da ossidazioni
Lisosomi- perossidazione lipidica- rottura membrana- liberazione enzimi
Reticolo endoplasmatico- diminuzione sintesi proteica
- rotture- irregolarità dei cromosomi
↓In riposo:- picnosi- vacuolizzazione nucleare- carioressi- cariolisi
↓Cariocinesi patologiche
rigonfiamentotorbido → necrosi
In Italia sono stati fissati per la popolazione generale dei limiti di esposizione di
100 μT per l’induzione magnetica e di 5 KV/m per il campo elettrico (Decreto
del Presidente del Consiglio dei Ministri dell’8/7/2003, pubblicato dalla G.U.
n. 200 del 28/8/2003). Tale normativa, emanata in completamento della
precedente Legge 36/01 “Legge quadro sulla protezione delle esposizioni a
campi elettrici, magnetici ed elettromagnetici”, ha meglio identificato i limiti
di esposizione e i valori di attenzione per la prevenzione degli effetti a breve
termine e dei possibili effetti a lungo termine nella popolazione dovuti
all’esposizione di campi elettromagnetici generati da sorgenti fisse con
frequenze comprese tra 100 kHz e 300 GHz.
A livello europeo il Consiglio della Comunità ha fissato invece i limiti di
esposizione ai campi elettromagnetici (Raccomandazione del 12/7/1999
pubblicata sulla G.U.C.E. del 30/7/1999) che si rifanno alle linee guida della
Commissione Internazionale sulla Protezione da Radiazioni Non Ionizzanti
9
(ICNIRP Guidelines for limiting exposure to time-varying electric, magnetic and
electromagnetic fields).
b) Corrente elettrica
Il corpo umano che si trovi tra un conduttore e la terra viene attraversato, con
danno, dalla corrente elettrica. Questo dipende dal fatto che l’uomo è
sostanzialmente costituito da una soluzione elettrolitica per cui la corrente
elettrica lo attraversa come attraversa i conduttori elettrolitici, secondo la legge
di Ohm (il rapporto tra la differenza di potenziale ΔV alle estremità del
conduttore e l’intensità I della corrente è costante; ΔV = R dove R è la
resistenza del conduttore, dipendente dal tipo e dalla geometria del conduttore,
e più in particolare da R = ρ l/S dove ρ è la resistenza specifica o resistività del
conduttore, l la lunghezza e S la sezione).
La resistenza elettrica dell’organismo non è costante, ma dipende dalla
costituzione dei tessuti oltre che da altri parametri e varia nei diversi tessuti
essendo in media di 1.000 Ω.
A tensioni superiori a 200 Volt la cute che, a meno che non sia umida, presenta
resistenza elevata, viene perforata e la resistenza diventa quella dei tessuti
interni. Una corrente di una certa intensità e di un certo voltaggio che penetra in
un corpo segue una via prefissata prima di uscire, che dipende dal punto di
ingresso e dalla resistenza minore offerta dai tessuti lungo il suo percorso. In
particolare, il cuore che, per l’elevato contenuto in elettroliti, offre una
resistenza ridotta, viene frequentemente attraversato dalla corrente con la
conseguenza probabile di arresto cardiaco. Se la corrente poi attraversa la
testa, andando verso il tronco, può bloccare anche i centri bulbari.
Le alterazioni da corrente elettrica, iniziano con alterazioni dei sistemi fisico-
chimici che costituiscono l’organismo, da cui derivano gli effetti che si
riscontrano sulle funzioni fisiologiche.
In linea di massima, una corrente continua che attraversa il corpo umano,
provoca delle variazioni della polarizzazione delle membrane cellulari e di
organi con conseguenti variazioni di permeabilità delle membrane stesse e
quindi delle funzioni fisiologiche a queste connesse. In particolare, si verificano
variazioni di distribuzione degli elettroliti nel citoplasma che portano, come
conseguenza, una variazione dello stato chimico-fisico delle proteine, iniziando
10
dalla loro solubilità (aumento di viscosità per attraversamento di corrente
continua) e dalla loro attività come enzimi. Cuore, muscoli e nervi vengono
eccitati da una corrente continua alla chiusura e all’apertura del circuito; in
particolare, il cuore può andare incontro a extrasistolia cui segue, all’aumentare
dell’intensità, fibrillazione prima atriale e poi ventricolare.
L’applicazione di una corrente continua, non per periodi brevi, provoca atrofia al
tessuto muscolare probabilmente conseguente a gravi squilibri elettrolitici e di
membrana.
L’azione della corrente alternata dipende, viceversa, dal fatto che a ogni
alternazione, cioè a ogni inversione della polarità tipico dell’andamento
sinusoidale di tale corrente, si ha inversione nella direzione e nel flusso degli
elettroliti nei diversi tessuti e quindi una inversione ciclica della polarizzazione
fisiologica delle membrane. L’effetto totale dipende dalla frequenza della
corrente: infatti, a parità di tensione e intensità, le basse frequenze sono
sicuramente più dannose delle alte frequenze e le altissime frequenze
possono non produrre effetti lesivi. È probabile che le alte e le altissime
frequenze non siano dannose semplicemente perché l’inversione di polarità, in
questi casi è talmente rapida da non portare variazioni apprezzabili, e quindi
dannose, di permeabilità e di flussi ionici nei sistemi elettrolitici separati da
membrane dell’organismo. L’effetto, viceversa, delle basse frequenze sembra
legato in special modo all’attività cardiaca la cui polarità fisiologica varia
ciclicamente con frequenza propria, per cui la corrente alternata a bassa
frequenza, alterandola, può provocare fibrillazione ventricolare. Nei muscoli
scheletrici la corrente alternata provoca contrazione tetanica contemporanea di
tutte le miofibrille interessate alla contrazione, anche di quelle dei muscoli
respiratori, causando così asfissia.
Un particolare effetto della corrente elettrica sull’organismo umano è quello che
va sotto il nome di folgorazione, come conseguenza di una scarica elettrica di
migliaia di Ampère che attraversa il corpo per un tempo inferiore a 1/1000 di
secondo per una differenza di potenziale di milioni di Volt.
La folgorazione nei casi lievi si limita a produrre una scossa elettrica più o
meno forte, ustioni circoscritte e superficiali, e magari anche svenimento; nei
casi più gravi provoca scottature più o meno estese e profonde (che possono
anche arrivare alla carbonizzazione dei tessuti colpiti), perdita istantanea più o
11
meno duratura della coscienza, della sensibilità e dei movimenti fino alla
paralisi, sospensione repentina ma momentanea dell’attività cardiaca e
respiratoria; nei casi gravissimi induce morte pressoché istantanea per sincope
cardio-respiratoria.
Più in particolare, quindi, l’entità dello shock elettrico dipende direttamente
dalla quantità di carica elettrica immessa nell’organismo nell’unità di tempo,
cioè dall’intensità di corrente elettrica in circolazione nel sistema biologico.
L’azione di questa, in generale, è caratterizzata da vari parametri, quali la sua
frequenza, la durata del contatto e il percorso effettuato.
Esiste un valore soglia dell’intensità di corrente, oltre la quale i suoi effetti
vengono percepiti, e un valore di rilascio, al di sotto del quale il contatto
elettrico accidentale può essere interrotto autonomamente da parte del
soggetto. Anche poco al di sopra di tale valore, a causa della tetanizzazione,
questi viene “congelato” al circuito e lo shock può essere molto pericoloso,
anche se il contatto è di breve durata. Come già illustrato, si può avere paralisi
della respirazione, a causa del permanere della contrazione muscolare, e/o
alterazioni più o meno persistenti dell’attività bioelettrica cerebrale, lesioni
neurologiche del midollo spinale con conseguente paralisi più o meno estesa,
lesioni di organi di senso (vertigini, sordità, abbagliamento o indebolimento
della vista) e infine ustioni esterne e interne, determinate dall’effetto Joule.
Utilizzando la legge di Ohm, è possibile ricavare la quantità di calore prodotto
e, assumendo la densità dei tessuti pari a quella dell’acqua, è possibile risalire
alla variazione di temperatura nell’intervallo di tempo che consente, a sua volta,
di rilevare come la gravità delle ustioni sia legata alla densità di corrente, più
che all’intensità di corrente. Risulta quindi assai più pericolosa una corrente che
viene introdotta nel corpo umano attraverso un contatto di piccole dimensioni,
che la stessa corrente immessa tramite un contatto avente una grande
superficie. La cute, possedendo un’elevata resistività specifica e un basso
calore specifico, è sicuramente il tessuto che viene maggiormente danneggiato.
Le ustioni interne sul percorso della corrente sono pressoché indolori, a causa
della distruzione delle terminazioni sensitive, e sono progressive a causa della
morte successiva dei tessuti nella zona circostante, non immediatamente
necrotizzati. Ciò provoca, tra l’altro, l’immissione in circolo, a distanza di alcuni
12
giorni, di sostanze tossiche e quindi un’insufficienza renale acuta, che può
portare anche a morte inattesa il folgorato, apparentemente in via di guarigione.
Come visto in precedenza, le correnti alternate sono più pericolose, in quanto
causano facilmente il fenomeno della tetanizzazione; tuttavia all’aumentare
della frequenza la pericolosità della corrente diminuisce: infatti se lo stimolo
alternato ha un periodo molto breve, non viene raggiunto il potenziale di soglia
nelle cellule eccitabili e i potenziali d’azione non si innescano. In particolare, a
circa 1 MHz non si ha più shock elettrico, ma esiste tuttavia un effetto, detto
effetto pelle, per il quale l’aumento di frequenza comporta l’interessamento di
strati sempre meno profondi di tessuto. Ciò causa un aumento della densità di
corrente nelle regioni periferiche del corpo, che può portare anche a gravi
ustioni cutanee.
Le ustioni elettriche si distinguono principalmente in:
a) ustioni comuni, causate dall'incendio delle vesti o dell'ambiente secondario
alla scarica elettrica;
b) ustioni da conduttore elettrico reso rovente dal corto circuito, che sono
lesioni a stampo senza caratteristiche proprie dell’elettricità;
c) ustioni da arco voltaico, colpiscono i segmenti corporei più esposti e
producono perdite di sostanza estese e profonde, carbonizzazione completa
dei tessuti, fusione dell'osso in perle di fosfato di calcio e talora mutilazione di
intere parti del corpo;
d) ustioni da corrente elettrica, caratterizzate da necrosi massiva da
coagulazione e disidratazione della cute, e non da carbonizzazione, con
formazione di un'escara di tessuti mummificati;
e) ustioni da fulmine, che possono andare dalla semplice bruciacchiatura dei
peli all'eritema a chiazze, alla necrosi termica, alla carbonizzazione e
all'incenerimento.
Per marchio elettrico si intende invece una lesione cutanea elementare
localizzata al punto di contatto tra la pelle e il conduttore, di cui spesso ne
riproduce la forma. Se ne distinguono di due tipi:
a) senza perdita di sostanza cutanea: costituito da un rilievo rotondo, lineare
o ellittico, leggermente depresso al centro, di colorito giallo pallido e di
consistenza dura. È determinato dallo scollamento degli strati epidermici
13
profondi in seguito alla formazione di bolle gassose per evaporazione di liquidi
cellulari e interstiziali, con integrità del rivestimento corneo;
b) con perdita di sostanza cutanea: può andare da una semplice
disepitelizzazione a una erosione crateriforme, a stampo con margini
sottominati e con fondo giallastro bruno per incartapecorimento del derma, o
rosso bruno per piccole emorragie puntiformi.
Parametro elettrico EffettoIntensità:0 – 25 mA
25 – 75 mA
75 mA – 3 A
oltre 3 A
Tensione (ΔV) bassa:- con resistenza bassa- con resistenza alta
Tensione (ΔV) alta:- con resistenza bassa- con resistenza alta
Effetti della corrente continua:fisici
chimici
fisiologici
Effetti della corrente alternata:bassa frequenza
alta frequenza
altissima frequenza
Contrazioni spastiche o tetaniche della muscolatura (arresto del respiro per spasmo dei muscoli respiratori o laringei)
Probabile arresto cardiaco in diastole
Fibrillazione ventricolare
Arresto cardiaco
Danni diversi che diventano più gravi all’aumentare della resistenza
UstioniMorte
Disturbi nella polarizzazione normale delle membrane
Necrosi coagulativa da acidiNecrosi coagulativa da alcali
Fibrillazione ventricolare
Fibrillazione ventricolareContrazione tetanica dei muscoli respiratori
Non dannosa
Non dannosa
14
c) Tossicità di metalli pesanti e composti chimiciAlcuni metalli pesanti contenuti all’interno dei prodotti elettronici possono essere considerati agenti potenzialmente patogeni poiché, combinandosi con i gruppi sulfidrici –SH, sono in grado di inattivare gli enzimi implicati nelle più importanti reazioni biochimiche dell’organismo umano. Questi elementi vengono assorbiti lentamente perché attraversano le mucose solo quando sono metabolizzati a complessi solubili, si depositano negli organi con molti elementi del sistema reticolo istiocitario, e vengono eliminati per via renale o intestinale.I principali metalli pesanti di interesse patologico, la cui intossicazione può avvenire mediante contatto fisico, inalazione di polveri o ingestione accidentale, sono: Mercurio, Piombo, Argento, Arsenico, Bismuto e Tallio.
Agente Meccanismo d’azione Tipo di intossicazione
Sintomi
Mercurio Irritante localeBlocco gruppi -SH
AcutaSubacutaCronica
VomitoTachicardiaIpotensioneShockAnuriaDissenteriaEmatemesi
Piombo VasocostrizioneParalisiBlocco gruppi -SH
AcutaSubacutaCronica
Orletto gengivaleColica addominaleVomitoDiarreaAnemia normocronicaParalisi del radiale
Argento Irritante localeAstringenteCaustico
AcutaCronica
Pigmentazione cutaneaIrritazione alimentareVomitoDiarrea
Arsenico Inibizione gruppi –SHCitotossicoAumento permeabilità capillare
AcutaSubacutaCronica
GastralgiaVomitoDiarrea
Bismuto Inattiva gruppi –SHIpersensibilità
AcutaSubacutaCronica
DermatitePoliuriaVertiginiLipotimiaJarish Herxheimer
Tallio Accumulo tess. nervosoInibizione gruppi -SH
AcutaSubacutaCronica
AlopeciaAtassiaMovimenti coreiformiDelirio con allucinazioniComa
15
La presenza di questi metalli all’interno dei prodotti elettronici di uso più comune è comunque praticamente nulla. A titolo esemplificativo, infatti, di seguito viene riportata la composizione tipo di una lavatrice (peso medio pari a 67 Kg – fonte APAT), uno degli elettrodomestici più diffusi attualmente nel nostro Paese con una penetrazione di un apparecchio per abitazione:
Materiale Percentuale (%) Quantità (Kg)Acciaio 7 4,69Acciaio zincato 28 18,76Acciaio inox 10 6,7Alluminio 3 2,01Rame 1 0,67Ghisa 11 7,37Plastica 5 3,35Gomma 3 2,01Vetro 2 1,34Legno e plastica 4 2,68Calcestruzzo 22 14,74Altro 4 2,68
La normativa 2002/95/CE, meglio conosciuta come Direttiva RoHS
(Restriction of Hazardous Substances Directive), adottata nel febbraio del
2003 dalla Comunità Europea impone restrizioni sull'uso di determinate
sostanze pericolose nella costruzione di vari tipi di apparecchiature elettriche
ed elettroniche costruiti o importati nell'Unione Europea e, più in particolare,
pone vincoli sull'utilizzo di Piombo, Mercurio, Cadmio, Cromo esavalente,
Bifenili polibromurati ed Etere di difenile polibromurato.
Il piombo è usato prevalentemente nella saldatura dei componenti sui circuiti
stampati (le leghe comunemente usate contengono 40% piombo e 60%
stagno). Il mercurio viene utilizzato in particolari termostati e lampade a
scarica di mercurio. Il cadmio si utilizza nelle batterie ricaricabili, come
protezione alla corrosione e usura di componenti metallici. Il cromo
esavalente, riconosciuto universalmente come agente cancerogeno, viene
usato in trattamenti di cromatura e nella passivazione della zincatura
elettrolitica, su componenti ferrosi e non ferrosi, per evitare la corrosione e
l’usura delle superfici. I bifenili polibromurati ed eteri di difenile polibromurati
sono aggiunti invece ai polimeri plastici per ottenere proprietà ignifughe.
Le concentrazioni massime previste sono dello 0,1% (tranne il cadmio che è
limitato allo 0,01%) del peso di materiale omogeneo. Ciò significa che i limiti
16
non si applicano al peso del prodotto finito, o persino a un componente, ma a
tutta la singola sostanza che compone l’apparecchio elettronico.
Tale normativa è strettamente collegata con la Direttiva comunitaria sulla
rottamazione di apparecchiature elettriche ed elettroniche 2002/96/CE che
regola l'accumulazione, il riciclaggio e il recupero per le apparecchiature
elettriche ed elettroniche obsolete.
Il nostro Paese, recependo le Direttive 2002/95/CE, 2002/96/CE, 2003/108/CE
relative alla riduzione dell'uso di sostanze pericolose nelle apparecchiature
elettriche ed elettroniche, nonché allo smaltimento di rifiuti, ha emanato il
Decreto legislativo n. 151 del 25 luglio 2005 (G.U. 175 del 29/05/05
Supp.Ord. 135) che riguarda i grandi elettrodomestici, i piccoli elettrodomestici,
gli apparecchi informatici e di telecomunicazione, le apparecchiature di
consumo, gli apparati per illuminazione (comprese le lampadine), gli attrezzi
elettronici ed elettrici, i giocattoli, le attrezzature per lo svago e lo sport e i
distributori automatici.
L’inalazione acuta di cadmio può provocare dolore di tipo pleuritico, dispnea,
cianosi, febbre, tachicardia, nausea ed edema polmonare. L’ingestione può
provocare invece grave nausea, vomito, salivazione, crampi addominali e
diarrea. L’esposizione cronica causa anosmia, anemia ipocromica microcitica,
tubulopatia renale con proteinuria e osteomalacia con pseudo fratture.
Il ferro elementare danneggia i mitocondri, provoca perossidazione dei lipidi
causando necrosi renale, tubulare ed epatica e, occasionalmente, danno
miocardico e polmonare. L’ingestione di 20 mg/kg provoca sintomatologia
gastrointestinale, mentre 60 mg/kg causano febbre, iperglicemia, leucocitosi,
letargia, ipotensione, acidosi metabolica, convulsioni, coma, collasso
circolatorio, ittero, elevazione degli enzimi epatici, allungamento del tempo di
protrombina e iperammoniemia.
L’inalazione dei vapori di mercurio provoca infiltrati diffusi o polmonite,
insufficienza respiratoria, edema polmonare, fibrosi e desquamazione
dell’epitelio bronchiale. Le manifestazioni neurologiche includono tremori,
labilità emotiva e polineuropatia. L’esposizione cronica a mercurio produce
tremore intenzionale ed eretismo (eccitabilità, perdita di memoria, insonnia,
timidezza, talvolta delirio). L’ingestione acuta di alte dosi di mercurio metallico
può provocare ematemesi, dolori addominali, insufficienza renale acuta e
17
collasso cardiocircolatorio. I composti organici a base di mercurio possono
provocare neurotossicità caratterizzata da parestesie, turbe della visione,
dell’udito, del gusto e dell’olfatto, instabilità alla deambulazione, astenia, perdita
di memoria e depressione. In gravidanza l’esposizione determina ritardo
mentale e alterazioni neurologiche multiple nel neonato.
L’esposizione al piombo in età infantile include dolore addominale seguito da
letargia, anoressia, anemia, atassia e linguaggio sconnesso. Le manifestazioni
più gravi sono caratterizzate da convulsioni, coma, edema cerebrale
generalizzato e insufficienza renale. L’alterazione dello stato cognitivo è dose-
dipendente. Negli adulti i sintomi da esposizione cronica comprendono dolore
addominale, cefalea, irritabilità, dolore articolare, astenia, anemia, neuropatia
motoria e deficit mnesici. L’esposizione cronica a bassi livelli può provocare
nefrite interstiziale, danno tubulare, iperuricemia e ridotta filtrazione
glomerulare. L’incremento di livelli di piombo nell’osso comporta il rischio di
anemia e ipertensione.
d) Allergeni :
Per allergeni si intendono tutte quelle sostanze di struttura chimica e biologica
varia, generalmente innocue, che agendo da antigeni (cioè provocando la
formazione di anticorpi) sono in grado di provocare la comparsa dello stato
allergico; una patologia assai diffusa nel nostro Paese, che presenta una
prevalenza di circa il 10-15% tra la popolazione italiana.
Nella pratica medica per allergia si intende “qualsiasi stato biologico di alterata
sensibilità e reattività organica verso determinate sostanze; o, più in particolare,
uno stato biologico sostenuto da una reazione antigene-anticorpo specifica che
si manifesta solo alla seconda introduzione della sostanza”.
Nella moderna immunologia clinica tali reazioni, definite anafilattiche e
atopiche, vengono classificate come Ipersensibilità di I tipo e sono
caratterizzate dalla risposta dell’organismo, previamente sensibilizzato da un
precedente contatto con un peculiare immunogeno, quando viene raggiunto
una seconda volta dallo stesso.
La peculiarità del fenomeno anafilattico risiede infatti nella discrepanza con
quanto di solito avviene in seguito alla seconda inoculazione di un antigene
che, generalmente, è responsabile della comparsa della cosiddetta risposta
secondaria. Questa, a differenza della risposta primaria, che si manifesta al
18
primo contatto con l’antigene il quale dà luogo, dopo alcuni giorni di latenza,
alla comparsa in circolo di anticorpi specifici dapprima della classe IgM e poi
della classe IgG, è caratterizzata da un rapidissimo incremento in circolo degli
anticorpi che, questa volta, sono tutti della classe IgG e permangono nel
sangue per un tempo maggiore.
L’anafilassi è, quindi, indotta a mezzo di due successive inoculazioni
dell’antigene, intervallate da un opportuno lasso di tempo, la prima con effetto
sensibilizzante, la seconda con effetto scatenante.
La sintomatologia che interviene immediatamente dopo il contatto scatenante è
riportabile sempre a due fenomeni essenziali: aumento della permeabilità
capillare e contrazione della muscolatura liscia.
Nell’uomo l’anafilassi si manifesta con pallore, perdita di coscienza, respiro
superficiale e frequente, insensibilità agli stimoli esterni, polso impercettibile e
notevole ipotensione; la morte può sopraggiungere in pochi minuti. Le forme
attenuate sono invece caratterizzate da nausea, vomito, orticaria gigante e
dispnea asmatiforme.
Le più comuni manifestazioni di questa patologia, alla quale è ancora oggi
associato il termine di allergia o atopia, consistono essenzialmente in reazioni
anafilattoidi, asma bronchiale, riniti e congiuntiviti, orticaria localizzata e
generalizzata alle quali si associano anche fenomeni di gastroenterite acuta.
Tra le più importanti fonti di possibili allergie, vi sono le polveri fini, particelle
pressoché invisibili a occhio nudo che possono rimanere sospese nell’aria per
un lungo periodo di tempo. La formazione delle polveri dipende sia da eventi
naturali sia da attività umane quali il riscaldamento civile e domestico, le attività
industriali, le attività agricole e, soprattutto, il traffico veicolare. La loro
pericolosità dipende dalla dimensione delle particelle di cui sono composte:
quanto più piccole sono, tanto più profondamente penetrano nell’apparato
respiratorio.
Di notevole interesse medico-scientifico e grande oggetto di dibattito sociale, è
il cosiddetto PM10, sigla che identifica materiale costituito da polvere, fumo e
piccolissime gocce di sostanze liquide, presente nell'atmosfera sotto forma di
particelle microscopiche, il cui diametro è uguale o inferiore ai 10 µm.
Le principali fonti di PM10 sono l'erosione del suolo, gli incendi boschivi, le
eruzioni vulcaniche, la dispersione di pollini, il sale marino, i processi di
19
combustione (tra cui quelli che avvengono nei motori a scoppio, negli impianti
di riscaldamento, in attività industriali, negli inceneritori e nelle centrali
termoelettriche), l’usura di pneumatici, di freni e di asfalto, e dalla
trasformazione in particelle liquide di alcuni gas (composti dell'azoto e dello
zolfo) emessi da varie attività umane.
La nocività delle polveri sottili dipende dalle loro dimensioni, dalla loro natura
chimica e, soprattutto, dalla loro capacità di raggiungere le diverse sezioni
dell'apparato respiratorio. In genere, le patologie legate all'inquinamento da
polveri sottili sono riconosciute essere l'asma, le affezioni cardio-polmonari e la
diminuzione delle funzionalità polmonari. Sulla base di uno studio condotto nel
2000 in otto città del mondo, l'Organizzazione Mondiale della Sanità ha stimato
che le polveri sottili sono responsabili dello 0,5% del totale dei decessi registrati
nell’arco di un anno solare.
I valori limite sono definiti in Italia dal D.L. 60 del 2 aprile 2002; tale Decreto
fissa due limiti accettabili di PM10 nell’atmosfera: il primo è un valore limite di 50
µg/m³ come valore medio misurato in 24 ore da non superare più di 35 volte
all’anno, mentre il secondo come valore limite di 40 µg/m³ come media
annuale.
Particolare tipi di allergeni, molto diffusi nelle case e responsabili della maggior
parte delle reazioni allergiche, sono il Dermatophagoides pteronyssinus e il
Dermatophagoides farinae, più comunemente noti come Acari della polvere.
Più in particolare, si tratta di microrganismi invisibili a occhio nudo, di lunghezza
compresa tra 200 e 400 µm, che si cibano di piccoli frammenti di pelle umana,
della forfora, di funghi e muffe, di alcuni tipi di batteri e di frammenti di insetti. Il
loro ambiente ideale è rappresentato dai luoghi caldi e umidi e la loro presenza
si concentra particolarmente all’interno delle imbottiture di cuscini, materassi,
coperte e peluche, oltre che all’interno di tende, tappeti, e nelle librerie a giorno
dove i libri sono lasciati esposti all'aria. Sono presenti principalmente ad
altitudini inferiori ai 1.500 metri s.l.m. e sopravvivono solo in condizioni di
umidità comprese tra il 55% e il 75% e si sviluppano maggiormente in abitazioni
con livelli di umidità superiori ai 7 g/m3 e con temperature superiori ai 23° C.
Una temperatura tra i 16°C e i 23°C riduce invece il ciclo vitale degli acari da
123 a 34 giorni; le femmine depongono 2,5 uova al giorno a 23°C e invece 3,3
uova al giorno a 35°C. Uno scarso ricambio d'aria determina un incremento
20
della concentrazione degli acari in casa. Essi sono trasportati da particelle più
grandi di 10 micron e quindi non possono essere allontanati in condizioni di
quiete.
I loro allergeni (in particolare alcune proteine presenti sul loro corpo e nelle loro
feci) si liberano nell’aria e vengono facilmente inalati: di conseguenza vengono
in contatto con organi o apparati sensibilizzati provocando la tipica
sintomatologia allergica, soprattutto irritazioni alla pelle, alle vie respiratorie e
agli occhi. Essi sono normalmente innocui per la maggioranza delle persone,
ma nei soggetti già sensibilizzati possono provocare rinite, tosse, asma o
eczema. Il periodo di massima concentrazione ambientale è costituito dalle
stagioni autunnale e invernale. In un grammo di polvere possono essere
presenti da 10 a 1.000 esemplari di Dermatofagoidi.
Un altro tipo di allergeni potenzialmente patogeni per l’organismo umano sono
le muffe, microorganismi di origine vegetale in grado di produrre spore che si
disseminano nell’aria durante il periodo di sporulazione (soprattutto nelle
stagioni estiva e autunnale), provocando la sintomatologia allergica.
Le muffe possono crescere sia all’interno sia all’esterno delle abitazioni.
All’interno si rinvengono principalmente su alimenti non adeguatamente
conservati, su indumenti di lana, su pareti e pavimenti umidi, su carta da parati,
sul terriccio e sulle foglie delle piante, nei sistemi di condizionamento dell’aria e
negli umidificatori. All’esterno delle abitazioni si ritrovano principalmente sul
suolo e su materiale organico in decomposizione. Le condizioni ottimali per il
loro sviluppo sono costituite da una temperatura compresa tra i 18° e i 32°C e
da un’umidità superiore al 65%. Nel nostro Paese la muffa più allergizzante è
l’Alternaria seguita dal Cladosporium.
Oltre ai pollini (tradizionalmente molto diffusi durante la stagione primaverile)
allergeni abbastanza comuni sono infine le forfore di animali domestici,
soprattutto di cani e gatti; si tratta di particelle molto piccole che derivano dalla
saliva degli animali e che si depositano sul loro pelo. Le particelle rimangono
facilmente sospese in aria, aderiscono facilmente a tutte le superfici (indumenti
compresi) e quindi sono difficili da rimuovere e possono essere anche
trasportate involontariamente in ambienti dove non sono presenti animali.
21
e) Suoni e rumori :
Il suono è un fenomeno fisico che stimola il senso dell’udito: esso è provocato
dal rapido movimento o vibrazione di un qualsiasi corpo. Il suono si trasmette
attraverso le onde sonore che si propagano sia nell’aria sia in altri elementi, e
più in particolare, alla velocità di 340 m/sec nell’aria, di 1.435 m/sec nell’acqua
e di 5.127 m/sec nel ferro.
La frequenza viene espressa in Hertz, ed è data dal numero delle oscillazioni
delle onde sonore per unità di tempo e caratterizza l’altezza del suono. La
lunghezza d’onda λ è legata alla frequenza dalla relazione λ = 340 m/sec /
frequenza. Con il termine di pressione acustica, si intende, invece, la
variazione di pressione di un mezzo elastico rispetto al volume statico P0 (cioè
la pressione barometrica in assenza di suoni) causata dalla propagazione di
un’onda sonora nel mezzo stesso. Viene misurata in dine/cm2.
L’energia del suono è data dalla potenza P per unità di superficie e viene
misurata in Watt/cm2.
L’intensità del suono si misura in decibel, (1/10 di un Bell) con i quali si
misura la pressione acustica provocata dal suono nel mezzo di propagazione.
La pressione acustica necessaria perché un suono sia udibile dall’orecchio
umano varia a seconda della frequenza o altezza dei suoni. La quantità di
decibel è data dalla relazione:
dB = log10 intensità del suono in esame / intensità del suono di riferimento
È possibile distinguere tra loro il concetto di suono da quello di rumore: il
suono è in generale una sensazione che nasce nell'uomo quando una
perturbazione meccanica si propaga in un mezzo elastico facendolo vibrare
mentre il rumore è comunemente identificato come una sensazione uditiva
sgradevole e fastidiosa o intollerabile. L’acustica stabilisce comunque una
differenza oggettiva tra suono e rumore, basata sull’analisi delle vibrazioni: se
22
le vibrazioni sono regolari si è in presenza di un suono; se sono invece
irregolari si è in presenza di un rumore. Ciascun individuo ha comunque una
sua personale sensibilità ai suoni, e definisce rumore ciò che percepisce come
non musicale, fastidioso e sgradevole.
L’orecchio umano è in grado di avvertire soltanto suoni compresi tra i 20 e i
20.000 Hz (banda acustica); il massimo della sensibilità uditiva si ha per i
suoni di una frequenza di circa 3.000 Hz. Con l’età tende a diminuire il limite
superiore dei suoni percepibili dall’orecchio umano, nel senso che il giovane
avverte suoni fino a 18-20.000 vibrazioni al secondo, l’uomo maturo suoni fino
a 14-16.000, e il vecchio suoni fino a 8-10.000 vibrazioni al secondo. I suoni di
frequenza inferiore ai 16 Hertz vengono chiamati infrasuoni; quelli superiori ai
20.000 Hertz vengono chiamati ultrasuoni. Un suono di 1.000 Hertz è udibile a
“zero decibel”, mentre scendendo a 30 hertz occorre un’intensità di almeno 60
decibel perché il suono sia udibile. Perché l’orecchio umano possa avvertire
una differenza d’intensità tra due suoni, occorre che questa differenza sia
almeno del 10%.
Più in particolare, la sensibilità dell’orecchio umano non è costante per tutte le
frequenze: ad esempio, se un suono a 1.000 Hz di intensità 20 dB produce una
certa sensazione, per ottenere quella stessa sensazione a 63 Hz sono
necessari circa 45 dB.
Per esprimere l’intensità sonora non secondo i parametri fisici ma secondo
quelli dalla sensibilità umana viene utilizzato il phon. Alla frequenza di 1.000 Hz
il valore del phon coincide con quello del decibel.
Esistono molte fonti potenziali capaci di produrre suoni a decibel elevati. Anche
se tali suoni in piccole dosi non sono dannosi, è bene infatti evitare una lunga
esposizione a suoni di oltre 90 decibel. Anche se breve, un suono intenso può
produrre danni fisici. Per esempio, il suono prodotto da un martello pneumatico
può provocare, al pari di una serata trascorsa all’interno di una moderna
discoteca, danni permanenti all’udito. La soglia del dolore si aggira attorno ai
125 dB (pari a una pressione sonora di circa 2 X 102 microbar).
Dal punto di vista scientifico, invece, sono due gli elementi che concorrono a
rendere un rumore pericoloso per la salute: l’intensità, misurata in decibel, e la
durata.
23
A seconda dell’intensità di un rumore gli effetti sull’organismo possono variare
notevolmente, superati certi limiti vi possono essere dei seri danni all’udito.
Di seguito si riportano i valori dei principali rumori con le relative eventuali
ripercussioni sull’organismo:
- Fino ai 40 dB: l’organismo non ne risente;
- Dai 40 ai 60 dB: si riscontrano i primi segni di fastidio e si alterano alcuni
parametri dell’organismo;
- Dai 60 agli 80 dB: aumenta notevolmente la sensazione di stress e
malessere, con segni fisici come tachicardia e colite;
- Dagli 80 ai 120 dB: potrebbero comparire segni di nausea, capogiri ed
emicrania;
- Oltre i 120 dB: danni all’udito e dolore.
In linea generale, il rumore agisce sull’orecchio umano causando, secondo la
natura e l’intensità della stimolazione sonora, un innalzamento della sua soglia
uditiva e, più in particolare:
24
- uno stato di sordità temporanea con recupero della sensibilità dopo riposo
notturno in ambiente silenzioso (Spostamento Temporaneo della Soglia
Uditiva STS, che può essere di durata breve, media o prolungata, a seconda
che duri da 1-2 minuti a 16 ore e oltre, fino ad assumere l’aspetto di Fatica
uditiva fisiologica prima e Fatica uditiva patologica poi);
- uno stato di fatica con persistenza della riduzione della sensibilità e disturbi
nell’udibilità della voce di conversazione per circa 10 giorni;
- uno stato di sordità da trauma acustico cronico con riduzione dell'intelligibilità
del 50%.
Molto schematicamente, i principali effetti del rumore sull’apparato uditivo ed
extrauditivo, possono essere riassunti:
Apparato uditivo Effetti extrauditiviSpostamento Temporaneo della Soglia Uditiva
a) STS1 = Breve (1-2 minuti)b) STS2 = Media (<16 ore)c) STS3 = Prolungata (>16 ore)
↓ (permanenza rumore)
Spostamento Permanente della Soglia Uditiva = Danno irreversibile
Reazione di allarme
↓Reazione neurovegetativa
↓Lesioni: Cardiovascolari Gastroenteriche Neuroendocrine Sistema Nervoso Centrale Uso scorretto delle corde vocali
Il timpano è messo in pericolo per lo più da forti impulsi rumorosi, specialmente
se improvvisi, come ad esempio le esplosioni o gli spari. In tutti gli altri casi i
danni all'udito subentrano nell'orecchio interno. Un'esposizione eccessiva al
rumore (carico fonico) causa dapprima una diminuzione della sensibilità delle
cellule uditive: si ha allora la sensazione di avere dell'ovatta nelle orecchie.
L'udito è comunque in grado di riprendersi nelle fasi di riposo. La situazione
diventa invece critica allorché i carichi fonici si ripetono, nel qual caso le fasi di
riposo non bastano più e le cellule sono destinate, col tempo, a morire.
Il rischio di un deficit acustico da rumore non dipende per cui dal fatto che il
suono percepito sia gradevole o sgradevole alle orecchie dell’ascoltatore: il
fattore determinante non è tanto il livello massimo che agisce occasionalmente
sull'udito, bensì il livello sonoro medio costituito dal livello sonoro e dalla durata
d'esposizione.
25
Benché l’orecchio sia in grado di proteggersi autonomamente dai suoni costanti
a forte pressione (analogamente a quanto fa anche l’occhio, quando è esposto
a fonti luminose fisse molto intense), è stato scientificamente dimostrato che,
superati precisi limiti di tempo, questa capacità risulta insufficiente e l’eccesso
di pressione sonora può cominciare così a raggiungere la coclea, distruggendo
irreversibilmente le cellule acustiche.
In base a quanto indicato dal Nova Scotia Department of Labour, i tempi limite
di esposizione a pressioni sonore costanti dovrebbero essere:
Pressione sonora costante(indicata in decibel)
Tempo limite di esposizione
80 dB (conversazione media a 1 metro) 16 ore85 dB (ascolto musicale casalingo medio) 8 ore90 dB (pub affollato) 4 ore95 dB (pub affollato con diffusione musicale)
2 ore
100 dB (bar di una discoteca media) 1 ora105 dB (concerto rock a 10 metri) 30 minuti110 dB (martello pneumatico a 1 metro) 15 minuti115 dB (pista di una discoteca media) 7,5 minuti120 dB (decollo jet a 1 metro: morte) 0 minuti
Superati tali limiti di tempo, l’apparato uditivo comincia a subire danni
permanenti e cumulativi. Un tipico segnale di pericolo è dato dagli acufeni o dal
titinnio (tinnitus aurium), fastidiosi ronzii che permangono anche per ore nelle
orecchie dopo aver sostato a lungo in ambienti molto rumorosi. Questi
fenomeni sono dovuti alla perdita funzionale definitiva di una parte delle cellule
cocleari, sopraffatte dall’eccesso di pressione sonora subita.
L’accumularsi di questi danni porterà non solo a una progressiva perdita
dell’udito, ma si rifletterà anche su altre importantissime funzioni vitali, sia
fisiologiche (inducendo variazioni del ritmo cardiaco, della vista, della
coordinazione e del tempo di reazione) che psicologiche (aumentando, ad
esempio, l’aggressività). Un danno da rumore compromette inoltre anche la
capacità selettiva dell’udito, dando l’impressione al soggetto di vivere
costantemente circondato da un “miscuglio di suoni”.
Non solo. L’affievolirsi della percezione uditiva soggettiva porterà
inconsapevolmente il soggetto ad ascoltare la musica a un volume oggettivo
sempre più alto, velocizzando sempre più il progredire della sordità traumatica.
26
Da un punto di vista strettamente fisico, come prima conseguenza, un ambiente
troppo rumoroso stimola la contrazione dei muscoli, aumenta la dilatazione
delle pupille e aumenta i livelli di ormoni dello stress, come cortisolo,
adrenalina e noradrenalina. Oltre i disturbi fisici, sono molto frequenti anche
quelli di tipo psicologico, che si manifestano con aggressività, stress, ansia e
diminuzione della capacità di concentrazione e memorizzazione.
Anche i rumori che circondano gli individui durante il sonno, anche se non li
svegliano, se sono troppo forti possono essere dannosi per la salute. Dormire
nelle immediate vicinanze di una fonte di disturbo può infatti aumentare la
pressione arteriosa e di conseguenza favorire il rischio di disturbi cardiaci. Ad
affermarlo è uno studio condotto da un gruppo di ricercatori dell’Imperial
College di Londra, pubblicato nel febbraio scorso sulla rivista scientifica
European Heart Journal, contenuto all’interno di un progetto finanziato
dall’Unione Europea identificato dalla sigla HYENA (Hypertension and
Exposure to Noise near Airports).
I dati relativi alla ricerca londinese sono il frutto di uno studio, coordinato da
Lars Jarup, che ha coinvolto 140 volontari che abitano nelle vicinanze
dell’aeroporto di Heathrow. Nel complesso, il progetto HYENA ha esaminato i
dati relativi a quasi 6.000 persone le cui case sono situate vicino ai più grandi
aeroporti europei; per il nostro Paese è stato scelto quello di Milano Malpensa.
Sui volontari, e nelle loro abitazioni, sono stati applicati degli strumenti utili a
misurare, durante le ore notturne, la loro pressione arteriosa ogni 15 minuti e
contemporaneamente i livelli di rumore. In base ai dati raccolti si è riscontrato
che all’aumentare dei decibel aumentava in proporzione la pressione. I rumori
sotto ai 35 decibel sembrerebbero non interferire in maniera significativa con la
salute, superato questo limite però le cose iniziano a cambiare. Sebbene i
volontari rimanevano addormentati e non erano consci del disturbo, i rumori
generati dal passaggio di un aereo causavano un aumento della pressione
arteriosa sistolica di 6,2 mmHg e della pressione arteriosa diastolica di 7,4
mmHg. All’aumentare del rumore era associato un aumento della pressione
arteriosa, per ogni 5 decibel di aumento del rumore la pressione arteriosa
sistolica aumentava in media di 0,66 mmHg.
In linea generale, difatti, la mancanza di riposo dovuta a disturbo del sonno
notturno può causare uno stato di stress che si ripercuote direttamente sulla
27
salute, soprattutto perché il cervello interpreta il rumore come un segnale di
pericolo e mette in moto, anche di notte, una serie di reazioni neurovegetative
simili a quelle causate dallo stress, come battito cardiaco accelerato,
respirazione più veloce e aumento della pressione arteriosa.
Secondo l’Organizzazione Mondiale della Sanità durante la notte il rumore non
dovrebbe superare i 50 decibel per evitare problemi di tipo cardiovascolare. Per
evitare i disturbi del sonno come ad esempio l’insonnia, i rumori devono essere
sotto i 42 decibel e per non sentirsi irritati o tesi sotto i 35 decibel. L’esposizione
eccessiva o cronica al rumore può portare alla sordità.
Il D.Lgs. 195/2006 ha fissato i seguenti nuovi limiti per il rumore negli ambienti
di lavoro:
- Valore limite di esposizione (giornata lavorativa di 8 ore): 87dBA;
- Valore superiore di azione (giornata lavorativa di 8 ore): 85 dBA;
- Valore inferiore di azione (giornata lavorativa di 8 ore): 80 dBA;
- Livello di esposizione settimanale al rumore (5 giorni lavorativi, 8 ore al giorno,
nel caso di esposizione giornaliera variabile): 87 dBA.
f) Ill uminazione :
L’illuminazione dei locali deve essere tale da non recare danno all’organismo e,
nello stesso tempo, permettere una piena e regolare funzione dell’occhio in
rapporto alle varie attività svolte.
Il flusso luminoso è la quantità di energia luminosa emessa nell’unità di tempo
da una data sorgente e viene valutata secondo la sensazione luminosa che
produce. L’unità di misura è il Lumen (Lm), che equivale alla quantità di energia
intercettata, in un secondo, da un metro quadro di parete di una sfera del raggio
di un metro e al cui centro si trovi una lampada che ha l’intensità di una Candela
internazionale (CI). Una CI emette, in totale, un flusso luminoso pari a 12,56
Lm; e, viceversa, un Lm corrisponde al flusso emesso da 0,0008 CI.
Si chiama invece Lux (lx), o anche Candela metro, l’effetto illuminante prodotto
da un Lm ripartito in maniera uniforme, su una superficie di un metro quadro,
posta normalmente alla sorgente luminosa e alla distanza di un metro da essa.
Si chiama splendore di una sorgente luminosa, inoltre, il rapporto fra il flusso
luminoso e la superficie della sorgente stessa. L’unità dello splendore è il
28
Lambert, che corrisponde allo splendore di una sorgente che emette un flusso
pari a un Lm per ogni centimetro quadro di superficie luminosa.
Se l’ambiente di lavoro o di svago si trova in condizioni ottimali di illuminazione,
la funzione visiva si esplica senza conseguenze dannose. Un’illuminazione
impropria, sia in difetto sia in eccesso, produce, invece, rapido affaticamento e
qualora agisca a lungo può provocare anche alterazioni dell’occhio più o meno
rilevanti. I valori di illuminazione raccomandati per alcune attività, sono:
da lux a lux In nessun punto dell’ambiente meno
di luxPer leggere e scrivere
Per lavori grossolani
Per lavori di media precisione
Per lavori fini
Per lavori molto fini
50
15
40
60
90
60
25
60
90
250
30
10
20
30
50
I valori di illuminazione ritenuti sufficienti in alcuni locali delle abitazioni sono
invece indicati come:
- Vestiboli e corridoi = da 10 a 20 lux;
- Cucina, stanza da bagno e camere da letto = da 20 a 40 lux;
- Salotti, stanze da pranzo e da soggiorno = da 30 a 50 lux.
Di fronte a deviazioni di qualche entità rispetto ai valori suddetti, l’occhio
reagisce, inizialmente mettendo in opera i vari meccanismi di difesa. Se però
l’azione di una luce impropria si prolunga, si giunge all’affaticamento e,
persistendo la causa, possono manifestarsi alterazioni più o meno cospicue e
irreversibili.
Queste difese, che in gran parte dipendono da movimenti riflessi, sono, fino a un
certo punto, in grado di dosare la quantità di luce che l’occhio e specialmente la
retina possono ricevere. Esse consistono nell’ammiccamento e nel
restringimento della rima palpebrale, nell’aumento della secrezione lacrimale,
nella miosi pupillare e, infine, in riflessi che si svolgono nell’ambito della retina.
Vi sono poi altri meccanismi di difesa rappresentati dall’assorbimento delle
radiazioni luminose a opera delle varie parti dell’occhio con il preciso scopo di
29
proteggere gli elementi più preziosi per la funzione visiva, da azioni troppo
violente, o comunque, lesive.
Continuando lo sforzo, i riflessi di difesa giungono al massimo della loro
capacità, finché, se viene superato il limite di tolleranza allo stimolo, cominciano
a ridursi fino a risultare, poi, completamente aboliti.
Accanto alle alterazioni dei meccanismi di difesa, si manifestano anche altri
fenomeni, quali: secchezza della cornea e sensazioni moleste, in dipendenza
della cessata secrezione lacrimale; aumento della secrezione delle ghiandole di
Meibomio e delle ghiandole di Zeiss; iperpigmentazione delle palpebre;
insufficienza dei muscoli estrinseci dell’occhio; fotofobia con spasmo palpebrale;
emeralopia; irregolarità nelle varie funzioni retiniche; aumento del tempo
nell’adattamento dell’occhio alle varie gradazioni della luce.
Un’illuminazione insufficiente costringe ad avvicinare l’occhio all’oggetto
osservato, a una distanza inferiore a quella normale che è di circa 30 cm; ciò
provoca tutta una serie di disturbi della convergenza e dell’accomodamento con
fenomeni soggettivi quali dolore oculare e pesantezza di testa. Quando poi la
permanenza in ambienti scarsamente illuminati diviene abituale può manifestarsi
la miopia.
Una sorgente luminosa di notevole splendore può causare invece il fenomeno
dell’abbagliamento (parziale o totale) i cui sintomi principali consistono nel
temporaneo indebolimento visivo, iperemia retinica, scotomi, midriasi,
lacrimazione, blefarospasmo e dolori periorbitali.
La mancanza di fissità può infine provocare facilmente fatica oculare.
g) Sick Building Syndrome :
Come è noto l’ambiente domestico, di studio o di lavoro è in grado di influenzare
notevolmente lo stato di salute delle persone che lo frequentano, riducendo o
aggravando l’effetto di fattori di rischio di malattia eventualmente presenti al loro
interno.
Una situazione clinica accertata da tempo che può compromettere il corretto
equilibrio tra l’individuo e l’ambiente, esponendolo a un rischio maggiore di
contrarre malattie, è la cosiddetta “Sindrome dell’edificio malato” o Sick
Building Syndrome, che in realtà non è una vera e propria malattia imputabile
a una causa ben precisa, ma piuttosto una serie di disturbi che affliggono le
30
persone che passano molte ore all’interno di un ambiente chiuso. Più
precisamente, le persone affette da questa forma di patologia lamentano
sensazioni di disagio acuto, come cefalea, irritazione agli occhi, al naso e alla
gola, tosse secca, pelle disidratata, vertigini o nausea, difficoltà di
concentrazione, affaticamento e particolare sensibilità agli odori. I sintomi, che
svaniscono o si attenuano fortemente allontanandosi dall’edificio, sarebbero in
realtà dovuti alla presenza eccessiva di inquinanti nell’aria (inquinamento
indoor). Sotto vengono riportate, in modo schematico, le principali sostanze
inquinanti rilevabili all’interno degli edifici non industriali e dei mezzi di trasporto:
Ambiente Fonte InquinanteCasa Fumo di tabacco
Fornelli a gas
Forni a legna e camini
Materiali da costruzione
Suolo sottostante
Mobili e prodotti per la casa
Riscaldamento a gas
Riscaldamento a kerosene
Isolanti
Particelle respirabili (PM10)Monossido di carbonio (CO)Composti organici volatili
Ossido nitroso (NO2)Monossido di carbonio (CO)
Particelle respirabili (PM10)Monossido di carbonio (CO)Idrocarburi policlici aromatici
RadonFormaldeide
Radon
Composti organici volatiliFormaldeide
Ossido nitroso (NO2)Monossido di carbonio (CO)
Ossido nitroso (NO2)Monossido di carbonio (CO)Anidride solforosa (SO2)
Asbesto (o amianto)Uffici Fumo di tabacco
Materiali da costruzione
Arredamento
Fotocopiatrici e stampanti
Particelle respirabili (PM10)Monossido di carbonio (CO)Composti organici volatili
Composti organici volatiliFormaldeide
Composti organici volatiliFormaldeide
Composti organici volatili
31
Condizionatori
Ozono
Agenti biologiciMezzi di trasporto Aria ambiente
Condizionatori
OzonoMonossido di carbonio (CO)Idrocarburi policlici aromatici
Agenti biologici
La tossicità di queste sostanze non è in genere elevata, ma se accumulate
nell’aria in concentrazioni sufficienti possono causare irritazioni cutanee, oculari,
malesseri, soprattutto se le persone soggiornano in luoghi inquinanti per molte
ore.
Moquette, tappezzerie e impianti di condizionamento possono alloggiare colonie
batteriche, acari e spore fungine le cui tossine possono essere respirate,
causando irritazioni o allergie delle prime vie aeree.
La sintomatologia della Sick Building Syndrome è molto varia: dipende dai
singoli soggetti, dalle condizioni dell’edificio o anche dalle condizioni ambientali
di un singolo ufficio o reparto; investe però almeno il 20% delle persone che vi
soggiornano e permane cronicamente se l’atmosfera interna non viene corretta.
I disturbi più frequenti sono: cefalea, sonnolenza, difficoltà di concentrazione,
nausea, capogiri, infezioni e allergie delle vie respiratorie, senso di costrizione
toracica, difficoltà respiratorie, problemi al naso e alla gola, senso di ostruzione
nasale, prurito, senso di irritazione, gola secca, oppressione, stanchezza,
malessere, febbre, irritazione della pelle, eritema, dermatite allergica e dolore
agli occhi.
h) Tumori
Per tumore si intende una neoformazione di tessuto costituito da cellule atipiche
modificate rispetto alle normali. La malattia tumorale presenta almeno quattro
caratteristiche che la definiscono: clonalità (nella maggior parte dei casi, il
tumore prende origine da una singola cellula mutata, che prolifera fino a formare
un clone di cellule neoplastiche); anaplasia (mancanza della normale
differenziazione cellulare); autonomia (la crescita è completamente svincolata
dai meccanismi di regolazione che operano nell’organismo normale); diffusione
di metastasi (le cellule neoplastiche sviluppano la capacità di proliferare in
modo selvaggio, invadendo i tessuti circostanti e diffondendosi a distanza). I
32
tumori vengono distinti in benigni o maligni a seconda delle caratteristiche
biologiche e morfologiche che ne determinano la maggiore o minore
aggressività. È benigno ogni tumore che non mette in pericolo la vita; che si
accresce lentamente per espansione (e non per invasione dei tessuti
circostanti); che è delimitato da una capsula fibrosa; che non dà metastasi e
resta nella sede di origine; che può essere asportato chirurgicamente, con
guarigione completa del paziente. Viceversa le caratteristiche fondamentali dei
tumori maligni sono la rapida proliferazione di cellule, con grado di maturità
variabile; la mancanza di una capsula fibrosa; l’accrescimento invasivo con
infiltrazione progressiva dei tessuti e degli organismi circostanti; la capacità di
dare origine a localizzazioni secondarie, lontane dalla sede primitiva
d’insorgenza dei tumori.
I tumori dipendono da cause solo in parte comprese con esattezza. Lo sviluppo
di una neoplasia è il risultato di un’interazione complessa di fattori, in parte
interni all’organismo e in parte esterni a esso. Per la maggior parte dei tumori il
rischio cresce con l’età; a parte le neoplasie dell’infanzia, peraltro rare, la
maggior parte dei tumori si sviluppa oltre 50 anni, per il naturale calo delle difese
dell’organismo e per il tempo maggiore di esposizione ai cancerogeni ambientali.
Per quanto concerne il sesso, a parte le differenze relative agli organi genitali, le
localizzazioni cambiano quantitativamente nell’uomo e nella donna: in linea di
massima però, sotto i 10 anni e sopra i 60 l’incidenza di tumori maligni prevale
negli individui di sesso maschile. Complesso è il ruolo esercitato dai fattori
genetici. Per molte delle neoplasie più comuni l’incidenza è più alta fra i pazienti
con una storia familiare di tumore (da 3 fino a 30 volte). Per di più numerose
affezioni ereditarie rare sono associate a un rischio di cancro aumentato o alla
presenza di numerose lesioni preneoplastiche, in grado di evolvere verso
condizioni francamente maligne.
In Italia muoiono per tumore circa 130.000 persone all’anno. Le sedi anatomiche
più colpite, a parte il carcinoma della cute, che è certo il più frequente, ma anche
il più facilmente guaribile, sono dell’80% dei casi rappresentate da dieci
localizzazioni elettive: polmone, mammella, sistema linfatico, stomaco, colon-
retto, prostata, utero, vescica, midollo osseo e pancreas. Il tumore del polmone
è uno dei più frequenti e rappresenta la causa di circa un terzo di tutte le morti
33
per cancro. Al secondo posto tra i maschi le neoplasie della prostata. Nella
donna la mammella è l’organo più frequentemente colpito.
Questi, più nello specifico, i dieci tumori più frequenti in Italia:
Maschi Femmine Entrambi1 Polmone Mammella Polmone2 Stomaco Colon Colon3 Colon Stomaco Stomaco4 Prostata Utero Mammella5 Vescica Polmone Prostata6 Pancreas Pancreas Pancreas7 Laringe Ovaio Vescica8 Leucemie Leucemie Leucemie9 Cavo orale Encefalo Utero10 Fegato Fegato Encefalo
L’Unione Internazionale contro il Cancro ha uniformato sia i criteri di giudizio
clinico dello stadio di sviluppo dei tumori sia la terminologia da utilizzare in
riguardo. Queste considerazioni hanno fornito le basi per la creazione del
sistema TNM che prende in considerazione le dimensioni del tumore primitivo
(T), il coinvolgimento dei linfonodi regionali (N) e la presenza di metastasi a
distanza (M).
L’aggiunta di numeri alla lettera T indica l’aumento graduale delle dimensioni del
tumore primitivo e/o l’estensione locale dello stesso Si utilizzano numeri da 1 a 4
corrispondenti a valori che variano a seconda della regione interessata. Nel caso
che in presenza di metastasi non si sia giunti all’identificazione del tumore
primitivo si indica la condizione come T0 mentre per TX si intende la mancanza
di requisiti minimi per giungere alla definizione del tumore primitivo e per Tis il
carcinoma in situ, una peculiare forma di carcinoma non invasivo a sede
intraepiteliale che non supera la membrana basale.
Analogamente si procede per quanto riguarda i linfonodi interessati e l’eventuale
presenza di metastasi a distanza. Per quest’ultime, la condizione M1 viene
suddivisa secondo le sedi delle principali localizzazioni metastatiche che
vengono indicate con le iniziali delle corrispondenti parole in lingua inglese.
Dalla combinazione dei valori attribuiti a T, N e M si giunge all’identificazione
dello stadio nel quale si trova il tumore. Si considerano quattro differenti stadi:
- Stadio I = T1 N0 M0 (Tumore circoscritto, esente da coinvolgimento di
linfonodi e da metastasi);
34
- Stadio II = T2 N1 M0 (Tumore circoscritto con interessamento linfonodale ed
esente da mestatasi);
- Stadio III = T3 N2 M0 (Tumore infiltrante i tessuti circostanti con
coinvolgimento linfonodale ma esente da metastasi);
- Stadio IV = T4 N3 M1 (Tumore esteso, con ampio interessamento
linfonodale e localizzazione metastatiche).
1.2. Il mercato dell’elettronica di consumo in Italia e i tassi di
penetrazione dei prodotti tra le famiglie italiane
Il rischio di insorgenza di patologie dovute all’utilizzo di apparecchi elettrodomestici ed
elettronici aumenta in relazione alla penetrazione di questi prodotti all’interno di
abitazioni e ambienti di lavoro.
Secondo un’indagine condotta dall’ISTAT agli inizi del 2008 su un campione di circa
19.000 nuclei familiari per un totale di 49.000 consumatori i beni maggiormente diffusi
risultano essere il televisore (95,9%), il telefono cellulare (85,5%) e il
videoregistratore (62%). Rispetto all’anno precedente sono aumentati soprattutto gli
acquisti dei lettori DVD, dal 51,7% al 56,7%, a scapito dei videoregistratori, destinati
nel giro di qualche anno a essere completamente sostituiti. In crescita anche gli
accessi a Internet, dal 35,6% al 38,8% con un miglioramento della qualità della
connessione: calano infatti quelle con linea tradizionale o ISDN a favore della banda
larga. Questi, più nel dettaglio, i risultati emersi dall’indagine condotta dall’ISTAT:
35
Forti divari tecnologici sono riscontrabili andando a segmentare le varie tipologie di
famiglie presenti nella popolazione. Quelle costituite da ultrasessantacinquenni hanno
dichiarato infatti una minore penetrazione dei beni tecnologici, se si escludono il
televisore (96,1%) e il telefono cellulare (52,2%). Ma anche per quanto riguarda, per
esempio, il possesso di apparecchiature legate all’uso della TV, come l’antenna
parabolica o il decoder digitale terrestre, la diffusione è bassissima (rispettivamente il
10,6% e il 6,4%). Al contrario, le famiglie con almeno un minorenne sono senza dubbio
le più hi tech: il 71,2% ha un PC, il 55,7% è dotato di connessione a Internet, che per il
34% è a banda larga, mentre il cellulare ha raggiunto i livelli di penetrazione del
televisore (97,9%). Anche le differenze sociali incidono sui livelli di penetrazione di
questi beni, soprattutto per quanto riguarda i PC e l’utilizzo del web, con un divario che
risulta in crescita. Sul fronte, infine, delle distinzioni geografiche, emerge che il Sud
sconta uno svantaggio nei confronti del Centro e del Nord Italia. Gli unici beni sui quali
le famiglie meridionali hanno parzialmente colmato la distanza rispetto a quelle delle
altre zone del Paese sono le console per i videogiochi e i telefoni cellulari.
Per quanto riguarda il mercato italiano dei beni durevoli, invece, il 2007 si è chiuso con
un controvalore di poco superiore ai 16 miliardi di euro e con un tasso di crescita sul
2006 del +2,9% (fonte: GfK Marketing Service Italia per AIRES). I prodotti di
elettronica di consumo e del settore foto rappresentano insieme oltre il 30% del
mercato, ma se le fotocamere digitali crescono in modo considerevole, l’elettronica
di consumo nel suo complesso cresce meno del mercato. Le performance più
significative sono state quelle dei grandi elettrodomestici cresciuti dell’8% con una
quota che sfiora il 20%, dei piccoli elettrodomestici e dell’home entertainment.
Moderatamente positive anche le variazioni fatte segnare dai settori informatica e
recording media. Unica eccezione negativa, come nei primi sei mesi dell’anno, il
settore della telefonia (-5%).
Più in particolare, il mercato italiano dei grandi elettrodomestici ha confermato nel
2007 la tendenza positiva dell’anno precedente, con una crescita a volume pari al
+5,9% e a valore del +8,2%. Il numero complessivo di pezzi venduti è stato di circa 7,5
milioni e si è tradotto in un giro d’affari pari a 3,2 miliardi di euro. Prendendo in
considerazione i gruppi di prodotto, lavatrici e frigoriferi si confermano essere i più
importanti, rappresentando complessivamente circa la metà delle vendite. Da notare
l’andamento molto positivo delle lavastoviglie, con una crescita del +13% a volume,
superiore di molto alla media del mercato.
36
A chiusura 2007, invece, il mercato dei piccoli elettrodomestici in Italia ha continuato
a crescere sia in termini di giro d’affari (+7%) che di numero di unità (+4%),
raggiungendo quasi i 22 milioni di pezzi e più di 1 miliardo di euro. Tale crescita però
risulta meno dinamica rispetto a quella del 2006, anno in cui il settore dei piccoli
elettrodomestici aveva registrato tassi di crescita a due cifre (+12% a valore e + 10% in
volume). Nonostante la crescita di tutti i comparti, è il personal care a trainare il
mercato grazie a un aumento del giro d’affari del +13%. I comparti cucina e casa
(rispettivamente +4,1% e +2,1) hanno rallentato la loro crescita rispetto al 2006, anno
in cui entrambi avevano registrato un trend positivo pari al +11%.
Le macchine da caffè e i microonde risultano i prodotti più dinamici dell’intero
mercato dei piccoli elettrodomestici, registrando rispettivamente una crescita del +18%
e del +15%.
Il mercato della telefonia in Italia vale 3,3 miliardi di euro, continuando a mostrare una
tendenza negativa: -2,2% rispetto al 2006 (era del –2% anche nel confronto tra 2006 e
2005). Questo trend è stato fortemente influenzato dall’andamento negativo del
mercato della telefonia mobile (-7% rispetto al 2006). Il 2007 è stato un anno
comunque importante per il mercato della telefonia mobile: i volumi sono cresciuti del
3% su base annua, attestandosi a 19,8 milioni di terminali venduti. Negativa invece la
situazione in termini di valore, dove vengono raggiunti i 2,5 miliardi di euro, con un
trend di crescita negativo del –7%. Lo scorso anno è stato anche caratterizzato da
sostanziali cambiamenti dal punto di vista tecnologico: la quota di mercato del
segmento UMTS passa dal 26% del 2006 al 29% del 2007, in forte e continua
accelerazione, visto che a dicembre 2007 ha raggiunto il picco massimo del 34%. I Tv-
fonini rappresentano solo il 3% del mercato totale e il mercato degli smartphone ha
mostrato un incremento costante a livello di terminali venduti.
Durante il 2007 il mercato IT è cresciuto del 2%, trend questo, inferiore rispetto alla
crescita del 2006 che era del 3%. Il giro d’affari generatosi assesta poco al di sopra dei
3 miliardi di euro. L’hardware ha rappresentato il 61% del giro d’affari complessivo,
mantenendo costante il livello di importanza rispetto al 2006, e può essere considerato
il driver del mercato, con una crescita del 2%. All’interno di tale comparto l’unico
gruppo di prodotto a ottenere una performance positiva, in termini di trend in valore
sull’anno, è quello dei PC notebook (+6%), mentre i PC desktop (-6%) e i monitor
LCD (-3%) hanno fatto registrare un calo del proprio mercato.
37
Il comparto delle periferiche, che ha incrementato il suo peso all’interno del mercato IT
arrivando a sfiorare il 10%, ha fatto registrare una crescita in valore rispetto al 2006 del
7%. Crescita sostenuta dal segmento laser, sia delle stampanti (+17%) sia dei
multifunzione (+59%), e dai multifunzione inkjet (+12%). Il segmento stampanti
inkjet, al contrario, è quello più colpito dall’effetto sostituzione, sempre più evidente
nelle periferiche, e perde il 31% di fatturato generato rispetto all’anno precedente.
Il mercato delle fotocamere digitali nel 2007 ha fatto segnare un fatturato superiore ai
635 milioni di euro con un trend positivo dell’8%, che viene confermato anche a
volume, dove si trova un +25,3% per un totale di circa 3 milioni di apparecchi venduti.
La crescita a valore si registra sia nelle fotocamere compatte (+7%) sia nelle reflex
(+14%). I trend a volume sono più forti dei rispettivi a valore: le compatte, infatti, fanno
segnare un +25,9%, mentre le reflex un +41%.
Il mercato dell’elettronica di consumo, nel corso del 2007, ha sviluppato un giro
d’affari complessivo di poco superiore ai 4.340 milioni di euro, facendo segnare un
trend positivo del +2%; questo trend viene confermato dai dati a volume con quasi 26
milioni di pezzi venduti con un trend di crescita positivo del +4%.
Il segmento video rimane sempre il mercato più importante in termini di valore e
nell’ultimo anno ha fatto registrare un trend di crescita del 4,5%. Il fatturato sviluppato
durante il 2007 ammonta a 3.241 milioni di euro. Il maggior contributo è arrivato dai TV
LCD, come accade sin dal 2005, che hanno un peso del 39,1% a valore e sono
cresciuti del 19,8%. Oltre al dato positivo dei TV LCD, si ha anche l’exploit dei lettori
portatili MPEG4 che aumentano di fatturato del 168%, raggiungendo una quota a
valore del 3,3%. Il comparto dei Plasma è cresciuto in volume facendo registrare un
trend del +25,1% ma una diminuzione del suo fatturato annuo del 17,7%.
L’audio statico conferma in chiusura d’anno la situazione, da tempo evidente, di
generale contrazione delle vendite, concludendo a 1,5 milioni di pezzi, che
corrispondono a un calo del –26,5%, per un mercato a valore di 236 milioni di euro, in
flessione del –12,1%.
L’intero mercato Car nel 2007, composto da Car audio, Car Vision, Car Speakers,
Car navigation fisso e portatile, si conferma il secondo mercato dell’elettronica di
consumo per fatturato sviluppato ma soprattutto uno dei soli due che crescono, con un
trend del +13%. In realtà questo sviluppo è dovuto esclusivamente all’ottima
performance dei navigatori portatili, che si confermano uno dei prodotti di maggior
38
successo, riuscendo a contribuire da solo alla crescita a valore dell’elettronica di
consumo con il +2,3%, mentre nel comparto Car sviluppano un +43% di fatturato.
Nonostante questi dati di sostanziale crescita tecnologica, comunque, continua a
persistere il divario tecnologico tra l’Italia e il resto d’Europa e del mondo: nel nostro
Paese, difatti, la dinamica dell'ICT è risultata ancora una volta al di sotto di quella
rilevata alla scala mondiale (+5,5%), nonostante l'interesse diffuso all'information and
communication technology. Dal 2005 al 2007, la penetrazione del cellulare nelle
famiglie italiane è infatti passata dall'80,8 all' 85,5%, quella del PC dal 43,9% al 47,8%
e quella di Internet dal 34,5% al 38,8% (fonte Assinform - NetConsulting).
Ad esempio, l'Internet banking è utilizzato solo dal 12% della popolazione italiana
rispetto al 25% della media europea, l'e-commerce sviluppa appena il 2% del totale
delle vendite al dettaglio, mentre la media europea viaggia a quota 11%. L’Italia
lamenta ancora la più alta percentuale di popolazione, pari al 56%, che non usa
Internet, mentre la media europea è del 40%. In compenso, però, il nostro Paese è
secondo in Europa quanto a quota di popolazione con elevate capacità di utilizzare
Internet: il 9%, subito sotto la Francia (12%) e sopra la media europea (8%).
39
Le connessioni Internet attive attualmente nel nostro Paese sono circa 2.780 milioni,
con una crescita del +8,2% rispetto all’anno passato. Quanto a quest’ultimo dato, è
però positivo registrare l'incremento del numero di accessi ad alta velocità, risultati a
fine 2007 pari a 10,1 milioni (18,7%), 9,8 dei quali in modalità xDSL (+19,2%) e di circa
340.000 su fibra ottica (+5,6%).
40
2. TELEFONIA MOBILE E FISSA
2.1 Tipologia di prodotti in uso
La nascita della telefonia cellulare risale al 1973 quando, nei laboratori di ricerca
dell’americana Motorola, venne effettuata la prima chiamata da un telefono mobile. Da
allora, è stato un continuo susseguirsi di evoluzioni e innovazioni tecnologiche che
hanno fatto compiere alla telefonia mobile dei veri e propri passi da gigante, passando
dalla prima alla terza generazione in soli 15 anni.
I primi standard a conoscere la diffusione di massa sono stati il TACS (Total Access
Communication Systems) e l’ETACS (Enhanced TACS) che permettevano
unicamente di inviare e ricevere chiamate voce; a questi è presto subentrato il sistema
GSM (Global System for Mobile Communications) che, alla tradizionale funzionalità
voce, ha aggiunto la possibilità di trasmettere brevi messaggi di testo, i diffusissimi
SMS (arricchiti in futuro anche da immagini, contenuti audio e contenuti video, fino ad
assumere l’aspetto dei moderni MMS). Dal GSM si è poi passati al GPRS (General
Pocket Radio System) che ha aumentato notevolmente la velocità di trasmissione dei
dati, preparando la strada all’arrivo del sistema EDGE (Enhanced Data rates for GSM
Evolution), prima, e della videotelefonia mobile UMTS (Universal Mobile Telephone
System) poi. Da un’unica frequenza utilizzata (quella degli 800 MHz), inoltre, si è
passati a ben quattro diverse frequenze (850, 900, 1.800 e 1.900 MHz) a disposizione
degli utenti.
Il sistema TACS si basava su una tecnologia di tipo analogico in cui le trasmissioni in
ogni cella radio avvenivano a frequenze diverse, in modo da permettere la coesistenza
delle contigue; la sua successiva evoluzione, il sistema ETACS, aveva introdotto un
considerevole aumento delle frequenze disponibili, rendendo ancora più efficiente e
performante il sistema.
Nel sistema GSM, invece, sia il canale di identificazione sia
quello di conservazione sono totalmente digitali,
permettendo quindi un maggior scambio di dati tra diversi
utenti e la possibilità di utilizzare nuovi servizi. Per la
comunicazione fra stazioni base il GSM utilizza la tecnologia TDMA (Time Division
Multiple Access), basata su una coppia di canali radio in duplex, che consente a più
utenti di condividere lo steso set di frequenze cambiando automaticamente la
41
frequenza di trasmissione fino a 1.600 volte al secondo. Le reti GSM lavorano in diversi
range di frequenza, e sono composte da un insieme di celle radio di varie dimensioni.
Uno dei componenti più importanti e distintivi del sistema GSM è la cosiddetta SIM
(Subscriber Identity Module), una smart card su cui vengono memorizzati i dati
descrittivi dell’utente, compreso il numero di telefono, e che ha la funzione principale di
fornire l’autenticazione e l’autorizzazione all’utilizzo della rete.
Il sistema GPRS è stato progettato per realizzare il trasferimento di dati a media
velocità, utilizzando i canali TDMA della rete GSM. Più in particolare, il GPRS ha
permesso di trasferire dati in pacchetti, rendendo più veloci e più economiche le
comunicazioni tra diversi utenti. L’EDGE, un’ulteriore evoluzione del GPRS, ha
permesso addirittura di raggiungere velocità ancora maggiori, fra i 20 e i 200 kbps.
L’UMTS è infine la tecnologia indicata come terza generazione, in grado di permettere
le videocomunicazione fra gli utenti di telefonia mobile. L’UMTS, basato sullo standard
W-CDMA, utilizza attualmente i protocolli HSPDA (High Speed Downlink Packet
Access) e HSUPDA (High Speed Uplink Packet Access) con una velocità massima
teorica di scaricamento dati in download di 14,4 Mbps e in upload di 7,2 Mbps.
Fondamentalmente l’UMTS utilizza una coppia di canali a 5 MHz di larghezza di
banda, uno nel range 1.900 MHz per la trasmissione e uno nel range 2.100 MHz per la
ricezione.
Un’ultimissima evoluzione della telefonia cellulare, nata
proprio sulla base delle possibilità, sia tecnologiche sia
commerciali, offerte dalla terza generazione, è il DVB-H
(Digital Video Broadcasting Handheald), nuova
piattaforma tecnologica che permette la radiodiffusione
terrestre sui terminali portatili. Per mezzo di questa
nuova tecnologia è possibile infatti ricevere direttamente sul proprio telefonino i canali
televisivi digitali, sia gratuiti sia pay per view e on demand.
Il DECT (Digital Enhanced Cordless Telecommunication) è un sistema di telefonia
sviluppato sulla base del GSM. Al contrario di quest’ultimo, il DECT non è però un
sistema di telefonia mobile ma un sistema di telefonia cordless, cioè un telefono
destinato a un uso domestico o aziendale che si muove all'interno di un'area
geografica definita e/o limitata da una copertura radio offerta da una o più antenne. Se
la copertura radio lo consente è ammessa anche la migrazione da un'area a un'altra.
42
Il sistema DECT GAP definisce invece un profilo di interoperabilità del DECT. Lo scopo
è quello di fare in modo che due differenti prodotti di due differenti costruttori che
seguano non solo lo standard DECT, ma anche il profilo GAP, siano in grado di
interoperare tra loro.
Wi-Fi è il nome commerciale del servizio di accesso e
trasmissione dati a banda larga senza fili che si basa
sulla tecnologia denominata IEEE 802.11b. La
tecnologia permette di realizzare Wireless LAN e
accesso a Internet con una capacità trasmissiva di 11 Mbps. Il protocollo IEEE 802.11b
consente inoltre di poter variare la velocità di trasmissione dati per adattarsi al canale,
la possibilità di scelta automatica della banda di trasmissione meno occupata, la
possibilità di scelta automatica dell'access point in funzione della potenza del segnale
e del traffico di rete, basse potenze di emissione nell'ordine di alcune decine di mWatt
e una copertura con un range dai 30 - 50 metri ai 70 - 100 metri e anche oltre.
Il Bluetooth, invece, è uno standard di comunicazione
internazionale, fissato da un folto gruppo di importanti aziende dei
settori information and communication technology e
telecomunicazioni allo scopo di mettere a punto una nuova
tecnologia che potesse soppiantasse nel tempo gli infrarossi. Più
in particolare, il Bluetooth è rappresentato da un sistema per il trasporto di dati e voce
a corto raggio, ossia in grado di poter connettere tra loro in modalità senza fili
periferiche fino a un massimo di 10 metri di distanza (fino a 100 metri con il protocollo
1.2). La frequenza utilizzata da questa tecnologia di trasmissione è individuabile
attorno al valore di 2,4 GHz, mentre la velocità di comunicazione supportata è
prossima a 1 Mbps. Il suo chip utilizza fino a tre canali voce simultaneamente, oppure
un singolo canale voce, in contemporanea a un altro impiegato con la trasmissione
dati. I canali dati, invece, supportano una velocità di 723,2 Kbps in asimmetrico, oppure
433,9 Kbps in simmetrico.
2.2 Problematiche legate all’utilizzo dei prodotti e pratiche
potenzialmente pericolose per la salute dell’individuo
Numerose sono le problematiche legate all’utilizzo dei moderni telefoni cellulari, quasi
tutte legate all’emissione di radiazioni non ionizzanti in radiofrequenza (comprese tra i
900 MHz e i 2,4 GHz) e alla conseguente creazione di campi elettromagnetici. Per
43
comunicare con la rete i telefoni cellulari emettono difatti bassi livelli di onde radio,
meglio conosciute come frequenze radio o energia RF.
L’unità di misura utilizzata per la quantità di energia RF assorbita dal corpo umano
durante l’uso di telefoni cellulari e cordless è il SAR - Specific Absorption Rate, il
Tasso di assorbimento specifico. Il SAR si misura in Watt di energia irradiata
assorbita dal corpo umano (W/kg) e viene determinato, in condizioni di laboratorio, al
livello di potenza più elevato certificato dai produttori di telefoni cellulari. Più in
particolare, si tratta di una soglia di assorbimento misurata termicamente per ciascun
grammo di tessuto cerebrale e misurato a livello dell’orecchio. Alcuni telefoni analogici
e tutti i telefoni digitali possono emettere più di 2 Watt per chilogrammo nel tessuto
della testa; in genere il valore di SAR dei più moderni telefoni cellulari è compreso tra
0,3 e 1,6 W/kg.
Come già ampiamente trattato, la presenza di un campo elettromagnetico induce
l’insorgenza, nell’ambiente circostante e negli organismi viventi a stretto contatto, di
correnti elettriche e rialzo termico. Oltre a interferire, mediante meccanismi non di tipo
termico, con funzioni cellulari e sistemiche, dando luogo a danni sia a breve che a
lungo termine.
La nota informativa n. 5/2001 della Direzione generale degli Studi del Parlamento
europeo (STOA - Scientific and Technological Options Assesment) afferma che
l’esposizione continuata ai campi elettromagnetici potrebbe provocare danni gravi alla
salute. I rischi sono numerosi: dalle alterazioni al metabolismo alle conseguenze
prodotte dai radicali liberi che possono provocare danneggiamento delle proteine e
delle membrane cellulari, modificazione dei geni e del DNA, riduzione degli ormoni
44
antiossidanti, alterazione dei processi enzimatici e biochimici essenziali, alterazione dei
livelli di calcio presenti nel sistema nervoso centrale, del cervello e del cuore.
Più in particolare, i principali effetti sulla salute riscontrati a seguito all’esposizione a
campi elettromagnetici sono ascrivibili soprattutto all’assorbimento di energia in alcune
parti del corpo, e più precisamente:
a. Frequenze comprese tra 100 kHz e 20 MHz: l’energia assorbita dal tronco
diminuisce rapidamente col diminuire della frequenza, mentre può verificare un
assorbimento significativo a carico del collo e degli arti inferiori;
b. Frequenze comprese tra 20 MHz e 300 MHz: si può registrare un
assorbimento relativamente elevato in tutto il corpo, con valori addirittura
superiori se si considerano le risonanze corporee parziali;
c. Frequenze comprese tra 300 MHz e alcuni GHz: si verifica un assorbimento
significativo e non uniforme a livello locale;
d. Frequenze al di sopra di circa 10 GHz: l’energia viene assorbita soprattutto
dagli strati superficiali dell’organismo.
I sintomi più frequentemente riferiti dagli utenti di telefoni cellulari sono cefalee senza
causa apparente, problemi alla vista e all’udito, sensazioni di nausea o capogiri,
pizzicori alla pelle e intorpidimento o arrossamento del viso e della nuca.
Non è ancora accertata scientificamente la stretta correlazione tra utilizzo del telefono
cellulare e insorgenza di neoplasie di tipo tumorale. Molti sono stati infatti gli studi
scientifici che non hanno fornito risultati certi che possano far pensare a un’eventuale
patologia riconducibile ai campi di radiofrequenza che si propagano dai telefonini in
funzione. Di contro, però, è forse ancora prematuro azzardare una conferma di totale
innocuità degli apparecchi, in special modo se si considera l’evidente contraddittorietà
emersa dalle varie ricerche scientifiche condotte negli ultimi anni.
Ad esempio, una ricerca condotta dal professor Lennart Hardell dell’Università di
Orebro e dal professor Kjell Hansson Mild dell’Umea University e pubblicata
nell’ottobre del 2007 sulla rivista Occupational Environmental Medicine, ha stabilito che
le persone che usano il cellulare da un decennio o più, anche solo per un’ora al giorno,
hanno il doppio di possibilità di sviluppare un tumore nel lato del cervello dove di solito
appoggiano il dispositivo. I due ricercatori svedesi hanno riunito i risultati di 11
precedenti studi svolti in Svezia, Danimarca, Finlandia, Giappone, Germania, Stati Uniti
e Regno Unito, che ribadivano l’aumento del rischio di sviluppare il cancro; cinque dei
sei studi sui glomi, tumori delle cellule che proteggono quelle nervose, avevano
45
confermato il potenziale pericolo, mentre quattro relazioni su cinque avevano rilevato la
presenza di neuromi acustici, forme tumorali benigne ma spesso causa di invalidità
come la sordità. I due svedesi hanno così raccolto i risultati per analizzarli nel loro
complesso e hanno perciò stabilito che le persone che usano il telefonino da oltre un
decennio hanno il 20% in più di possibilità di contrarre una patologia come il neuroma
acustico e il 30% in più di sviluppare un glioma maligno.
Poco prima che lo studio svedese venisse pubblicato, una ricerca inglese sulla
sicurezza dei dispositivi, promossa dalla Mobile Telecommunication and Health
Research Programme, condotta nell’arco di un periodo di sei anni su un campione
molto ampio era arrivata invece alla conclusione che i cellulari non potevano in alcun
caso essere associati a danni biologici. Alle stesse conclusioni era anche giunto un
altro studio del Medical British Journal condotto tra il 2000 e il 2004 su 966 persone
con tumore e su 1.716 volontari sani.
Altro studio degno di interesse è quello pubblicato dai ricercatori dell’Università
dell’Essex nell’estate del 2007 e condotto su 158 volontari – di cui 44 di questi
accusavano, ancora prima di iniziare l’esperimento, emicrania, stanchezza, tensione e
ansia - che per tre anni si sono sottoposti all’osservazione clinica per constatare gli
effetti delle onde emanate dalle antenne di un telefono mobile. I partecipanti ai lavori
sono stati esposti a segnali 2G e 3G, a seguito dei quali, il gruppo di volontari che
lamentava i disturbi citati in precedenza, quando era a conoscenza dell’inizio
dell’esperimento, acuiva i propri fastidi. A questo punto, si è passati a un’ulteriore fase
sperimentale, ovvero, si è tenuto all’oscuro l’intero gruppo di volontari sull’esposizione
dei segnali, col risultato, che dei 44 partecipanti che lamentavano precedentemente i
fastidi fisici, solo due riferivano di sentirli acuiti dopo l’esperimento.
I ricercatori, inoltre, hanno anche rilevato che dopo la fase di irraggiamento delle
stesse onde che si propagano dai telefonini, in nessuno dei partecipanti era comunque
seguito alcun disturbo degno di nota, come eventuale innalzamento della pressione
arteriosa, eventuali turbe, anche momentanee, del ritmo cardiaco e variazioni della
temperatura corporea.
Risultati assolutamente contrari, invece, quelli emersi dallo studio condotto dallo
scienziato americano George Carlo che, dopo tre anni di ricerche a capo dell’Health
Risk Management Group, ha rivelato che il cellulare può provocare tumori al cervello,
danneggiare le funzioni di rigenerazione del sangue e provocare danni ai bambini e
alle donne incinte. Se lo studio da un lato conferma infatti che la radiazione emessa dai
46
cellulari non è sufficiente per provocare la rottura del DNA, dall’altro dimostra che chi
usa il cellulare ha molte più possibilità di contrarre un tumore al cervello.
Un’ulteriore accusa nei confronti dei telefoni cellulari arriva anche dai ricercatori
dell’Università di Nottingham che, a seguito di vari esprimenti in vitro condotti
nell’ottobre del 1999, hanno ipotizzato l’insorgenza di danni fisici a livello della pelle.
Secondo i ricercatori inglesi, infatti, i meccanismi di difesa dell’organismo non
sarebbero in grado di porre immediatamente riparo alle cellule colpite dalle radiazioni
del telefonino, poiché non riuscirebbero a inviare proteine in tempo utile alle aree da
riparare. Il risultato sarebbe un consecutivo raggrinzimento delle strutture anatomiche
e, quindi, un precoce invecchiamento della pelle.
Altro aspetto patologico presentato da un cattivo utilizzo dei telefoni cellulari è la
cosiddetta Dipendenza da telefonino. Emblematico, a tal proposito, è quanto
accaduto a due adolescenti spagnoli di 12 e 13 anni di età lo scorso mese di giugno
che hanno dovuto ricorrere al ricovero forzato presso il Centro per la salute mentale
nell’infanzia e nell’adolescenza di Lleida, nei dintorni di Barcellona. Prima del ricovero
entrambi i ragazzini dimostravano comportamenti aggressivi e anti-sociali, ottenendo
pessimi risultati a scuola; per loro il telefonino era diventato una vera e propria
ossessione e non se ne separavano mai, neanche durante le ore notturne.
L’eccessivo uso del telefonino - così come quello del computer e dei principali mezzi di
comunicazione digitali - rientra anche in quella serie di sindromi patologiche,
identificate con il nome di Tecnostress, che colpiscono principalmente le professioni
ad alto impatto tecnologico, quelle cioè legate all’uso quotidiano di computer e telefoni
cellulari. Secondo alcuni ricercatori, la sua causa risiederebbe nella tensione psichica
causata dal continuo flusso di informazioni provenienti da questi canali e dalla
conseguente necessità di gestirle in maniera più rapida ed efficiente possibile per
molte ore al giorno, generando ripercussioni negative sulla salute dell’organismo. Da
qui il rischio di insorgenza, a lungo andare, di patologie cardiovascolari.
Non bisogna dimenticare, infine, il pericolo forse più importante legato ai telefoni
cellulari che è il loro uso improprio durante la guida che, attualmente, rappresenta una
delle primissime cause di incidenti stradali al pari del consumo di alcool.
Le medesime problematiche imputabili ai telefoni cellulari interessano anche i telefoni
fissi senza fili cordless. Il portatile genera radiazioni soltanto durante la conversazione
telefonica, mentre normalmente la stazione emette in permanenza. I valori di
radiazione di un telefono cordless sono in genere molto bassi: quelli del portatile sono
47
inferiori di circa 40 volte al valore limite raccomandato e quelli della stazione di base,
che diminuiscono rapidamente con l’aumentare della distanza, sono di circa 25 volte
inferiori al limite raccomandato a 20 cm di distanza e di 100 volte a un metro. In ogni
caso, il valore limite del tasso di assorbimento specifico raccomandato dalla ICNIRP,
l’International Commission on Non-Ionizing Radiation Protection, è di 2 W/kg.
Più in generale la base di un telefono DECT emette al massimo 250 mW ERP di
potenza e, per un’applicazione tipica in cui si utilizza un solo cordless, la potenza si
riduce a 10 mW ERP e questo avviene continuativamente, sia che sia in corso una
telefonata sia che il cordless resti appoggiato alla base, salvo alcuni modelli a basso
consumo. La potenza utilizzata è quindi di molto inferiore rispetto a un’antenna di
telefonia cellulare, date le diverse caratteristiche di copertura del servizio. In caso di sei
conversazioni contemporanee, sono stati misurate intensità di campo superiori a 2 V/m
a 50 cm di distanza da una base mentre una base in standby genera un campo di 0,5
V/m circa, sempre a 50 cm dalla base. A titolo di raffronto, un telefono cellulare GSM
ha generalmente una potenza di trasmissione analoga (circa 250 mW): l'effetto di una
base DECT è quindi assimilabile a un terminale GSM continuativamente in
conversazione.
Per il momento, comunque, non si conosce ancora bene nel dettaglio se i campi
elettromagnetici generati dalla telefonia DECT costituiscano o meno un rischio per la
salute ma, ad esempio, lo studio svedese dell’ottobre del 2007 citato in precedenza ha
registrato un aumento nell’insorgenza del neuroma acustico e del glioma maligno.
Per quanto riguarda invece i babyphone, i ricetrasmettitori utilizzati normalmente dalle
mamme per la sorveglianza dei neonati, non sembra allo stato attuale che le radiazioni
emesse possano in qualche modo costituire un rischio per la salute.
Le stesse considerazioni valgono anche per le reti WLAN. L’intensità di radiazione
degli apparecchi dipende dalla potenza di trasmissione e dal flusso dei dati. Le
radiazioni raggiungono il livello più elevato in caso di flusso di dati massimo e
diminuiscono rapidamente con la distanza del trasmettitore. Anche in caso di potenza
di trasmissione e flusso di dati massimi le radiazioni a una distanza di 20 cm sono 10
volte più deboli del valore limite e a una distanza di 1 metro sono 40 volte più deboli.
Per quanto riguarda i collegamenti Bluetooth, lo standard utilizzato per trasmettere
voce e dati su brevi distanze mediante radiazioni ad alta frequenza, l’emissione di
radiazioni è fondamentalmente legata alla classe di potenza di trasmissione. Le
radiazioni degli apparecchi Bluetooth delle classi di potenza 2 e 3 – in cui rientra la
48
maggior parte delle applicazioni utilizzate vicino al corpo - sono deboli e limitate al
raggio locale. I trasmettitori Bluetooth della classe di potenza 1, invece, possono
provocare carichi di radiazioni simili a quelli dei cellulari, se sono utilizzati nelle
immediate vicinanze del corpo. I carichi di radiazioni generati dagli apparecchi
Bluetooth di tutte le classi risultano quindi inferiori ai valori limite raccomandati a livello
internazionale. Secondo lo stato attuale delle conoscenze, è possibile per cui affermare
che queste radiazioni non rappresentano attualmente un pericolo diretto per la salute.
3. TELEVISORI E APPARECCHI AUDIO VIDEO
3.1 Principali tecnologie in uso
Sono numerose le tecnologie utilizzate nel mondo video che vanno dalla tradizionale
tecnica analogica a tubo catodico alle nuove tecnologie digitali al Plasma e a cristalli
liquidi, passando da quelle DLP e LcOS utilizzate nei più moderni proiettori e
retroproiettori.
La tecnologia CRT (Cathode Ray Tube)
si basa sull’utilizzo di un tubo catodico al
cui interno è stato applicato il vuoto
spinto e la cui superficie interna risulta
ricoperta da fosfori. Al suo interno viene
fatto passare un fascio di elettroni,
guidato per mezzo di una elevata
differenza di potenziale elettrico applicata tra catodo e anodo, per mezzo di precisi
campi elettrici o magnetici. Al passaggio di questo fascio di elettroni, i fosfori vengono
eccitati e realizzano sullo schermo televisivo i singoli punti dell'immagine. Più in
particolare, nei televisori e nei monitor la superficie risulta scomposta in righe
successive e l'immagine viene creata modificando l'intensità del fascio di elettroni
secondo l'andamento del segnale video. La scansione ottenuta è frutto della
deviazione prodotta da un campo magnetico variabile generato da elettromagneti
presenti sul collo del tubo stesso.
I videoproiettori CRT risultano formati da tre tubi catodici indipendenti, dedicato
ciascuno a uno dei tre colori primari rosso, verde e blu. Ogni fascio di elettroni viene
fatto passare nel tubo fino alla griglia di scansione che definisce i punti sullo schermo,
49
e poi fatto convergere attraverso un sofisticato sistema di lenti. L’immagine finale
risulta quindi composta dalla sovrapposizione delle tre differenti immagini monocolore.
La tecnologia LCD (Liquid Crystal Display),
utilizzata sia nei Flat TV sia nei videoproiettori,
è basata principalmente sulle proprietà dei
cristalli liquidi a essere attraversati dalla luce
proveniente da uno speciale schermo
polarizzatore o, più nello specifico, sulle
varianti di polarizzazione cromatica causate
dal loro movimento all’interno di microcelle
dotate di piccoli elettrodi. Variando il loro orientamento spaziale, infatti, i cristalli liquidi
sono in grado di variare il fascio di luce proveniente da una lampada alogena e offrire
così numerose varianti di intensità luminosa. Ogni microcella (o pixel) viene suddivisa
in tre differenti sotto-celle (o subpixel) corrispondenti ai tre colori primari, di cui una
con filtro rosso, una con filtro verde e una con filtro blu: variando la luminosità di ogni
singola sezione, il pixel può così dar vita a un diverso colore dello spettro offrendo
un’ampia varietà di colori. Nei videoproiettori, inoltre, la luce viene scomposta in tre
fasci dei rispettivi colori primari rosso, blu e verde, per mezzo di tre appositi specchi
dicroici.
Gli schermi LCD vengono generalmente classificati nelle due differenti categorie
Transmissivi e Riflettivi, a seconda che la luce venga o meno prodotta da una fonte
artificiale posta nella parte posteriore dello schermo: i primi utilizzano la luce
proveniente da uno dei due lati, mentre i secondi utilizzano la luce ambientale riflessa
per mezzo di un apposito specchio. Esiste poi un’ulteriore tecnica, denominata
Transflettiva, che si basa essenzialmente sull’utilizzo di uno specchio posto dietro al
display, capace sia di riflettere la luce frontale, sia di far passare la luce proveniente da
una fonte luminosa posta nella parte posteriore.
Il funzionamento dei televisori al
Plasma si basa sulla ionizzazione
elettrica di un gas nobile come il
neon o lo xeno che viene trasformato
in plasma all’interno di piccole celle
contenute tra due sottilissimi pannelli
di vetro; il plasma prodotto è a sua
50
volta capace di interagire con uno strato di fosfori presente sulla parte apicale delle
stesse celle che, una volta eccitati, sono in grado di produrre luce. Dalle varie
combinazioni di luce emesse da tutti i singoli subpixel derivano le milioni variazioni di
colore tipiche del Plasma.
La tecnologia DLP (Digital Light Processing) è
stata messa a punto da Texas Instruments e
sfrutta la riflessione di una fonte luminosa su
milioni di microscopici specchi, capaci di
muoversi in modo indipendente l’uno dall’altro,
disposti all’interno di una matrice semiconduttrice
disposta su un chip denominato DMD (Digital
Micromirror Device). Secondo questo sistema,
a seconda che i singoli specchi riflettano o devino
il fascio di luce, verrà ottenuto un punto buio o un
punto luminoso. Il colore, invece, viene ottenuto
utilizzando un apposito disco rotante colorato in
verde, rosso e blu che permette di modulare le differenti sfumature provenienti dai chip
DMD. La sovrapposizione delle differenti immagini colorate a un’opportuna velocità fa
in modo che si formi l’immagine finale a colori.
La tecnologia LCoS (Liquid Crystal on Silicon) prevede un funzionamento assai
simile a quella LCD ma, al contrario di quest’ultima, utilizza chip in silicio. Inoltre, il suo
funzionamento si basa sulla riflessione della luce sul pannello anziché sul suo
passaggio attraverso il pannello stesso; anziché essere collocati all’interno di un
elemento piatto in vetro, infatti, i pannelli risultano inseriti su un substrato a specchio. In
un certo senso, questa tecnologia può essere considerata un ibrido tra quella LCD e
quella DLP.
Il maggior vantaggio di questa tecnologia risulta essere quello che, non dovendo
attraversare la superficie del display, la luce subisce una minor attenuazione luminosa.
Inoltre, essendo l’area di riflessione assai maggiore rispetto all’area di trasmissione
utilizzata nelle altre tecnologie, l’immagine presenta immagini uniformi, incisive,
costanza cromatica senza discontinuità e quindi una minor presenza della retinatura
del pannello e totale assenza dell’effetto arcobaleno presentato dalla tecnologia DLP.
Grazie al circuito di pilotaggio situato dietro il pannello è infatti possibile dar vita a pixel
estremamente piccoli e poco distanziati rispetto a quelli vicini.
51
Due varianti della tecnologia LCoS sono la tecnologia D-ILA (Digital Direct Drive –
Image Light Amplifier), sviluppata da JVC, e la tecnologia SXRD (Silicon X-tal
Reflective Display), sviluppata da Sony.
Nei dispositivi OLED (Organic Light
Emitting Diode) l’immagine visualizzata
sullo schermo è il prodotto della
elettroluminescenza offerta da diodi di
materiale organico e inorganico. Più nello
specifico, la tecnologia OLED utilizza
particolari diodi costituiti prevalentemente da
polimeri di carbonio che, per mezzo
dell’elaborazione di piccoli dispositivi, è in
grado di assumere tutti i colori dello spettro. Un display OLED è composto da più strati
sovrapposti: uno strato trasparente protettivo, uno strato conduttivo che funge da
anodo e uno che funge da catodo. Tra quest’ultimi vengono deposti tre strati organici,
di cui uno per l'iniezione delle lacune, uno per il trasporto degli elettroni e uno in cui
sono presenti i tre materiali elettroluminescenti di colore rosso, verde e blu, ognuno dei
quali formato dai tre microdisplay colorati.
La tecnologia SED (Surface-conduction Electron-emitter Display), sviluppata da
Canon e Toshiba, è basata su una tecnica assai simile a quella CRT, in cui ogni
singolo punto luminoso sullo schermo è costituito da un microscopico tubo catodico
con fosfori luminosi che vengono accesi da un flusso ordinato di elettroni.
In questa tecnica gli elettroni sono emessi da una piccolissima fessura posta fra due
poli elettrici e, attraverso il fenomeno dello scattering, ossia la collisione con altre
particelle, riescono a passare da una parte all’altra del dispositivo. Urtando contro la
parete di fosfori, infine, gli elettroni riescono a generare luce. In pratica, a differenza dei
dispositivi CRT, gli emettitori di elettroni non sono rappresentati da un unico tubo
catodico ma da un certo numero di pixel equamente distribuiti sul display.
Per HDTV (High Definition Television) si intende invece la nuova tecnologia ad alta
definizione che permette un valore di risoluzione circa sei volte superiore rispetto alla
tradizionale televisione analogica; il vecchio sistema PAL, difatti, presenta un valore di
risoluzione massima di 720 x 480 pixel, per un totale di circa 337.000 pixel, mentre il
nuovo sistema HD può arrivare a superare i 2 milioni di pixel. Più in particolare, il
segnale in alta definizione prevede due differenti tipologie di risoluzione video: 720p
52
(progressivo) e 1080i (interlacciato) che assicurano entrambi una visualizzazione di
ben 60 fotogrammi al secondo. Nello specifico, nel 720 progressivo l’aggiornamento
dell’immagine avviene a frame pieni, ossia ogni secondo vengono visualizzati 60 frame
contemporaneamente, mentre nel caso del 1080 interlacciato vengono visualizzati 30
frame per le linee dispari e, successivamente, altri 30 frame per quelle orizzontali.
Più semplicemente, lo standard HDTV deriva dall’adattamento del formato 4:3 (720
punti per 576 linee) al formato 16:9 raddoppiando la risoluzione, ossia il numero di
punti (da cui 720 x 3/4 x 16/9 = 1920 punti per ogni linea e 1920 x 9/16 = 1080 linee).
Le due tecnologie audio Dolby Digital e Digital Theater Systems (DTS) si basano
sulle stesse tecniche utilizzate nelle moderne sale cinematografiche e sono quindi in
grado di portare il medesimo effetto anche tra le mura domestiche.
Più in particolare, si tratta di due sistemi di codifica audio multicanale che rendono
possibile la distribuzione del suono in più direzioni e, di conseguenza, sono in grado di
ricreare un ambiente sonoro ancora più coinvolgente e realistico: con queste due
tecniche, infatti, l’ascoltatore si trova a essere investito simultaneamente da più raggi
sonori che lo avvolgono a 360° e lo pongono idealmente al centro della scena
visualizzata sullo schermo.
Il Dolby Digital è un sistema di riproduzione audio
che utilizza l’algoritmo di compressione AC3 e che
può utilizzare da un minimo di uno a un massimo di
cinque canali digitali a banda piena (20 - 20.000 Hz),
più un sesto canale riservato alle sole frequenze
basse. Generalmente si compone di un sistema 5.1
formato da un canale anteriore destro, un anteriore
sinistro, un centrale, un posteriore destro e un
posteriore sinistro. I primi due corrispondono ai due
tradizionali canali stereo e sono di regola posizionati alle due estremità dello schermo,
mentre quello centrale viene posto in posizione in mezzo ai due canali anteriori. I due
posteriori, invece, vengono collocati alle spalle dell’ascoltatore. Il canale dei bassi,
infine, non prevede una precisa collocazione a causa dell’inferiore direttività delle
basse frequenze.
Anche il Digital Theater Systems (utilizzato nella sua variante non professionale DTS
CAC) è rappresentato da un sistema di codifica audio multicanale particolarmente
diffuso sui DVD-Video, DVD-Audio e CD e sui nuovi HD-DVD e Blu-ray ad alta
53
definizione. Grazie a un minor rapporto di compressione rispetto al Dolby Digital,
questo standard è capace garantire una resa audio di qualità nettamente superiore,
soprattutto di fronte a contenuti con dettagli audio molto complessi.
Entrambe le tecnologie prevedono una frequenza di campionamento a 48.000 Hz e
vengono realizzate attraverso l’utilizzo di una codifica di tipo lossy, mediante la perdita
di informazioni che, però, risulta decisamente inferiore nel DTS. Inoltre, mentre il Dolby
Digital prevede una risoluzione massima a 16 bit, il DTS ne prevede una a 24 bit.
La più recente evoluzione del Dolby Digital è il Dolby Digital Plus che viene utilizzato
soprattutto nei supporti ad alta definizione e nelle trasmissioni HDTV e che prevede
l’aumento del numero dei canali a 7.1 e una maggiore efficienza di codifica. Stesso
discorso vale anche per il DTS che si vedrà ben presto sostituito dal DTS - HD Master
Audio, un nuovo standard basato su una codifica senza alcuna perdita di informazioni
e in grado di offrire fino a otto differenti canali audio.
I file MP3, ovvero MPEG2-Layer3 (Motion Picture Expert Group-1/2 Audio Layer 3),
sono costituiti da formati audio digitale compressi: si tratta di file che occupano infatti
solamente il 10% rispetto ai tradizionali file in formato CD audio. Il rapporto di
compressione adottato in questi tipi di algoritmi si aggira attorno ai 12.1.
I lettori MP3 sono dei riproduttori di musica digitale in grado di riprodurre musica
codificata nello standard MP3. Questa tipologia di lettori si divide in tre grandi famiglie.
La prima famiglia è formata dai lettori basati su hard disk, la seconda è basata su
memorie flash, mentre la terza è rappresentata dai lettori di CD contenenti file in
formato MP3.
3.2 Problemi legati all’utilizzo frequente dei prodotti
Le maggiori problematiche legate all’utilizzo dei moderni apparecchi televisivi
dipendono dalla corretta distanza adottata dall’utente dallo schermo e, quindi,
dall’eventuale esposizione a campi elettromagnetici e dalla modalità di visione delle
immagini.
Il televisore è concepito infatti per essere guardato a una certa distanza, se ci si
avvicina troppo l’immagine si sgrana e appaiono i punti luminosi che la compongono.
Se tuttavia lo schermo è piccolo e la distanza è breve si induce un forte affaticamento
visivo. Bisogna infatti tenere in conto il limite dopo il quale si cominciano ad accusare
problemi a distinguere i dettagli più fini: un occhio al massimo della sua capacità, ha
54
una sua precisa risoluzione (variabile da soggetto a soggetto) e può risolvere dettagli
non più piccoli di 1/60 di grado d’arco.
L’apparecchio ideale dovrebbe essere guardato da una distanza non inferiore ai 2,5 –
3 metri. Se lo schermo è superiore invece ai 20 - 21 pollici, la distanza va sicuramente
aumentata.
Tempi molto prolungati dinanzi allo schermo, inoltre, possono creare problemi di
adattamento con difficoltà a un ritorno alla visione normale.
In linea generale, la distanza da tenere per una corretta visione è diretta conseguenza
di molti fattori, in continua evoluzione. Dal punto di vista di vista della sicurezza, il
principale parametro da tenere in considerazione per uno schermo tradizionale CRT è
l’emissione di onde elettromagnetiche causata dal tubo catodico che potrebbe causare
problemi alla vista se troppo vicino allo schermo. A tal proposito, i principali enti di
controllo e certificazione consigliano di posizionarsi a una distanza che varia da 5 a 7
volte la base dello schermo. In base a queste indicazioni, quindi, nel caso di un
televisore CRT da 32 pollici bisognerebbe posizionarsi ad almeno 3,5 metri di distanza.
I rischi diminuiscono drasticamente quando si prendono in considerazione uno
schermo piatto o un videoproiettore. Gli schermi piatti, che siano LCD o al Plasma,
hanno emissioni molto ridotte e quindi nuocciono alla salute molto meno che non i
televisori a tubo catodico; con uno schermo piatto ci si può avvicinare fino a
posizionarsi a una distanza tale da ottenere un angolo di visione di circa 30°.
È bene comunque ricordare che i campi magnetici sono sempre più elevati nella parte
posteriore e laterale dell’apparecchio televisivo in funzione.
L’SMPTE, Society of Motion Picture and Television Engineers, raccomanda un angolo
minimo di visione di 30° per l’home theatre; valore preso in considerazione anche dalle
stesse aziende costruttrici di videoproiettori per il calcolo della distanza/dimensione
degli schermi. Allo stesso modo la nota casa di produzione americana Lucas Film ha
stabilito un valore necessario per ottenere la certificazione per il cinema: la visuale
ottimale deve essere di 36° e comunque non inferiore ai 26°.
In ogni caso, la regola attualmente più adottata per determinare la corretta distanza da
un apparecchio televisivo a schermo piatto in formato 16:9, stabilisce di moltiplicare per
3 - 3,5 volte l’altezza dello schermo. In pratica, per ottenere la giusta distanza in
centimetri, è preferibile moltiplicare per 3,75 la diagonale dello schermo espressa in
pollici. Quindi, nel caso ad esempio dei polliciaggi attualmente più utilizzati:
- 37” → 37 x 3,75 = 1,4 metri circa
55
- 42” → 42 x 3,75 = 1,6 metri circa
- 50” → 50 x 3,75 = 1,8 metri circa
Nel caso dei videoproiettori, invece, viene applicata la regola dei 30° come angolo di
visuale preferito. Il valore è valido per un videoproiettore con risoluzione di 1280 x 720
pixel, luminosità di 700 ANSI Lumen e uno schermo di guadagno di 1.35.
Nel caso dei bambini, una minaccia reale comprovata da una ricerca condotta da
neurologi italiani e pubblicata nel marzo del 2000 sulla rivista Nature Neuroscience, è
l’epilessia fotosensibile, una forma di epilessia stimolata dall’esposizione prolungata
a monitor e immagini luminose che colpisce quasi un bambino su 100. I sintomi più
tipici sono: fissità dello sguardo, irrigidimento di un arto, deviazione del capo,
allucinazioni, svenimenti improvvisi e convulsioni; il disturbo può rimanere anche
silente per anni, sino a quando le stimolazioni visive non raggiungono i neuroni dei lobi
occipitali, che nei soggetti predisposti alla malattia non funzionano in modo del tutto
corretto.
56
Un altro problema che riguarda i televisori con tecnologia a tubo catodico è il rischio di
implosione, un fenomeno opposto all'esplosione il cui effetto finale è una
concentrazione in un piccolo spazio di materia ed energia. In altri termini, per
implosione si intende un collasso verso l'interno e, nel caso dei televisori CRT, è
dovuta alla forza attrattiva causata dalla differenza tra la pressione atmosferica e quella
del vuoto presente all’interno del tubo catodico. In caso di rotture accidentali o di piccoli
danni alla struttura del vetro di copertura, infatti, le parti più esterne al tubo vengono
come risucchiate all’interno del tubo stesso. In genere, i danni provocati dall’implosione
di un tubo catodico nell’ambiente circostante sono di lieve entità, anche se occorre
tener conto dell’infiammabilità e dell’elevata tossicità per l’organismo umano dei cristalli
di fosforo presenti all’interno del tubo stesso.
3.3 Danni da rumore
Numerose possono essere i dispositivi audio capaci di generare pressioni sonore
potenzialmente dannose per l’organismo umano, soprattutto se particolarmente vicini
all’orecchio, come nel caso di cuffie o auricolari stereo.
Ad esempio, la musica ascoltata con la cuffia a 95 dBA può essere tollerata dalle
orecchie per un periodo non superiore alle sei ore a settimana. Nel contempo, gli
altoparlanti andrebbero posizionati in modo che i sistemi che emettono i suoni di medie
e alte frequenze non vengano a trovarsi all'altezza delle orecchie degli ascoltatori ma
al di sopra. Si dovrebbe anche osservare sempre una sufficiente distanza dalle loro
teste.
La Royal National Institute for Deaf People, un’organizzazione britannica che si occupa
di persone affette da sordità, nel settembre 2007 ha pubblicato i dati relativi ai danni
che l’uso prolungato e ad alto volume di lettori MP3 a cuffie può causare all’udito, in
particolar modo dei ragazzi di più giovane età. Secondo questa ricerca, nel 70% dei
casi si riesce a evidenziare nei giovani una parziale perdita dell’udito; i giovani che
utilizzano questa tipologia di prodotti sono inoltre particolarmente esposti a possibili
danni acustici poiché le cuffie dei lettori digitali non possiedono una regolazione
automatica e sempre più spesso i ragazzi devono alzare il volume per coprire il rumore
dell’ambiente esterno.
Nel 2006 la Suva, una delle più importanti compagnie svizzere nel campo delle
assicurazioni obbligatorie contro gli infortuni, ha testato una serie di lettori MP3 e ha
constatato che raggiungono un livello sonoro superiore ai 100 dBA. A tal proposito, un
57
anno più tardi la stessa Suva ha deciso di accertare le abitudini d’ascolto dei più
giovani, conducendo uno studio su circa 450 studenti delle scuole medie superiori a
Zurigo, a Ftan nell’Engadina e a Payerne nel Canton Vaud. I risultati sono stati
sorprendenti: i giovani scelgono in prevalenza livelli sonori ragionevoli intorno agli 80
dB, un valore di poco inferiore a quelli riscontrati l’anno prima. La durata media di
ascolto – circa 100 minuti al giorno – è invece raddoppiata rispetto a dieci anni prima.
Soltanto il 7% degli intervistati ha affermato di usare il lettore MP3 così a lungo e a un
volume superiore agli 85 dBA. Difficilmente però i giovani sono in grado di valutare se
rientrano o meno nel gruppo a rischio, poiché il lettore MP3 non è in grado di indicare il
livello sonoro a cui viene riprodotta la musica. La visualizzazione rudimentale del
volume, con barre senza scala o con numeri da 1 a 20, non permette infatti agli utenti
dei lettori MP3 di conoscere a quale livello sonoro sono esposti.
Per un lettore MP3 conforme alle normative europee se si utilizzano gli auricolari
originali e si ascoltano brani musicali attuali, preparati in modo da raggiungere il
volume più elevato, valgono i seguenti valori indicativi:
Regolazione del volume Durata massima d’ascoltoal massimo (100%) 1 ora la settimanaa 9/10 (90%) del volume massimo indicato 3 ore la settimanaa 4/5 (80%) del volume massimo indicato 10 ore la settimanaa 3/5 (60%) del volume massimo indicato Senza limite di tempo
4 PRODOTTI INFORMATICI
4.1 Prodotti e tecnologie in uso
Un moderno personal computer non è altri che un calcolatore elettronico composto
da più componenti hardware che lavorano in sincrono tra loro. Tutti i computer risultano
infatti costituiti da una CPU, una memoria RAM di lavoro e una memoria non volatile
ROM in cui è contenuto il programma software da eseguire all’avvio del dispositivo
(sistema operativo). In genere, questi componenti si trovano fisicamente implementati
in un unico circuito rappresentato dalla scheda madre (motherboard), a cui sono
collegati altri dispositivi di elaborazione dei segnali come la scheda video e la scheda
audio.
58
I principali componenti che costituiscono un moderno personal computer desktop
possono essere riassunti mediante lo schema sotto riportato:
1) Monitor
2) Scheda madre (motherboard)
3) CPU
4) Memoria RAM
5) Schede video e audio
6) Alimentazione PC
7) Lettore / Masterizzatore CD-ROM o DVD
8) Hard Disk
9) Mouse
10) Tastiera
Al computer sono collegate una serie di periferiche esterne, che possono essere sia
di output sia di input, a seconda che siano deputate o meno a indirizzare dati e
informazioni verso l’esterno del computer o immettere dati e informazioni verso
l’interno del computer. Le periferiche attualmente più utilizzate, sono: monitor (basati
su tecnologia CRT o LCD), tastiere, lettori o masterizzatori di CD-ROM o DVD,
lettori di schede di memoria, drive floppy, stampanti, scanner, stampanti
multifunzione, mouse, webcam, microfoni, cuffie, modem, hard disk esterni e
tavolette grafiche (all’occorrenza è possibile anche collegare altri dispositivi digitali
come fotocamere, videocamere, lettori MP3 o registratori vocali, grazie soprattutto
alla facilità di connessione offerta dallo standard USB – Universal Serial Bus).
I computer si distinguono principalmente in desktop, se fissi, e notebook, se portatili.
Esistono inoltre altri tipi di computer, denominati palmari, di più piccole dimensioni che,
pur non offrendo le stesse funzionalità di un computer di tipo tradizionale, possono
assolvere a funzionalità di tipo agenda, blocco note, revisione testi e di comunicazione.
Negli ultimi anni sono stati sviluppati anche dispositivi ibridi computer palmari/telefoni
cellulari, denominati smartphone.
Il software può essere distinto in tre categorie fondamentali: Sistema operativo, che
permette il funzionamento della macchina; Software applicativo, che consente di
utilizzare la macchina per realizzare e modificare numerosi contenuti come documenti,
59
grafici, tabelle o immagini; Software di rete, che gestisce la comunicazione tra il
computer e la rete locale LAN o globale Internet.
4.2 Problemi legati all’utilizzo frequente di personal computer
La grande diffusione tra la popolazione dei moderni personal computer ha evidenziato
innumerevoli problematiche legate al cattivo o prolungato utilizzo, sia dei prodotti stessi
sia delle loro principali periferiche di input e output. Molti di questi disturbi, inoltre, sono
spesso anche causa di malattie professionali o infortuni sul lavoro (nel D.Lgs 626/94 si
raccomanda che tutte le radiazioni, a eccezione per la parte visibile dello spettro
elettromagnetico, siano ridotte a livelli trascurabili).
Notevole influenza sull’insorgenza di questo genere di disturbi, sono imputabili
all’impegno profuso e all’ambiente di lavoro, capaci di aggravare o meno l’eventuale
quadro clinico. È infatti diverso l’impegno richiesto ai dattilografi, che copiano testi o
dati numerici da supporti cartacei rispetto ai programmatori che fissano continuamente
i dati presentati sullo schermo, ai giornalisti e studenti che utilizzano alternativamente
programmi di videoscrittura e siti Internet, ai progettisti che utilizzano sistemi specifici
per disegni tecnici. Molto schematicamente, si possono per cui distinguere attività che
si caratterizzano prevalentemente come digitazione e attività che si caratterizzano
prevalentemente come dialogo.
È considerata attività di digitazione quella che richiede al soggetto la copiatura di testi e
numeri per varie ore al giorno: essa richiede una costante concentrazione e sollecita la
colonna vertebrale, i muscoli del collo, le scapole, le braccia, le mani e i vari apparati
muscolo-tendinei e nervosi a essi connessi. Il soggetto deve continuamente mettere a
fuoco e scansionare rapidamente i dati da copiare, mentre allo schermo dedica solo
sporadiche occhiate di controllo; l’impegno visivo aumenta se la lettura dei dati da
inserire è resa difficoltosa per l’errato posizionamento dei fogli da copiare rispetto alla
tastiera e al monitor, oppure per la ridotta dimensione dei caratteri da copiare.
È considerata invece attività di dialogo quella che richiede la manipolazione, la
correzione e il controllo di dati già presenti nella memoria del computer. Mentre il carico
per l’apparato muscolare rimane elevato, nell’attività del dialogo l’impegno visivo e
quello cognitivo procedono generalmente a un ritmo meno frenetico e sono costellati
da pause che diluiscono i tempi dell’operatività e lo rendono meno pressante.
Anche le caratteristiche dell’ambiente hanno un ruolo determinante; vari disturbi di chi
utilizza a lungo un computer derivano infatti da un’illuminazione inadeguata, da
60
condizioni microclimatiche carenti oppure da un’errata posizione della postazione di
lavoro che, a causa degli inopportuni riflessi luminosi presenti sullo schermo, produce
immagini di bassa qualità.
Chi rimane molte ore davanti allo schermo può accusare disturbi a carico dell’apparato
muscolo-scheletrico che si manifestano come intorpidimento, senso di pesantezza,
dolore o rigidità. Le cause di tali disturbi possono risiedere sia in posizioni inadeguate,
a causa dell’errata disposizione degli arredi, sia nelle posizioni statiche mantenute per
tempi eccessivamente prolungati. Per prevenirli è opportuno adottare alcuni
accorgimenti: utilizzare sedie con schienali regolabili per mantenere l’angolo busto-
anca a 90° - 100°; stabilizzare l’angolo al ginocchio a circa 110°; regolare il monitor
affinché il centro dello schermo sia situato più in basso rispetto agli occhi e sia
osservato dall’alto verso il basso con un’inclinazione verticale degli assi visivi di circa
20°; collocare il testo da copiare il più vicino possibile al monitor per ridurre i
cambiamenti di messa a fuoco e i movimenti della testa e degli occhi; mantenere
l’angolo del gomito a 90° - 100°; liberare lo spazio sotto la scrivania affinché i piedi
possano poggiare sopra una pedana inclinata. Per mantenere le mani in una posizione
rilassata, esistono in commercio appositi cuscinetti che consentono di appoggiare i
polsi davanti alla tastiera o al mouse.
Nell’autunno del 2006 i ricercatori del Woodend Hospital di Aberdeen (Scozia) hanno
però dimostrato che una posizione in cui il tronco e il femore sono angolati di 135°
sarebbe la posizione biomeccanica più adatta per sedersi, al contrario della posizione
che forma un angolo di 90° tra coscia e busto. Lo studio scozzese ha coinvolto 22
volontari senza problemi di mal di schiena, né precedenti chirurgici sottoponendoli a
un’accurata osservazione con risonanza magnetica. Attraverso uno speciale
macchinario che consentiva la totale libertà di movimento, si sono potute individuare
tre principali tendenze posturali. I ricercatori hanno concluso che i dischi intervertebrali,
che hanno fondamentale importanza nella biomeccanica della colonna vertebrale,
fungendo da ammortizzatori e distribuendo il peso e le sollecitazioni, sarebbero messi
a dura prova dalla posizione eretta a 90°. Nella posizione curva, protesa in avanti,
invece, si scaricherebbe la tensione dalla parte alta della colonna, sovraccaricandone
la parte bassa. La posizione angolata a 135° sarebbe invece quella che sottoporrebbe
a minor sforzo i cuscinetti vertebrali, e consentirebbe anche ai tendini e ai muscoli della
schiena di mantenersi più rilassati.
61
Per quanto riguarda le periferiche, sul mercato sono disponibili numerosi prodotti
appositamente progettati su basi ergonomiche. In particolare sono disponibili dispositivi
che, pur adempiendo alle medesime funzioni delle periferiche tradizionali, si
distinguono per le forme molto diverse le une dalle altre. Nel caso del mouse, una delle
caratteristiche indispensabili è la facilità di impugnatura, che deve essere
necessariamente sicura e stabile. Per quanto riguarda le tastiere, invece, un aspetto di
fondamentale importanza è l’ottimizzazione dell’angolo di inclinazione, che può essere
eventualmente regolabile. Un altro aspetto altrettanto importante è la dimensione e la
disposizione dei tasti che devono essere abbastanza grandi e ben distanziati tra loro,
in modo da rendere la digitazione il più comodo possibile.
Chi utilizza il computer può anche incorrere in una condizione di sovraccarico
cognitivo a causa degli eccessivi tempi di applicazione, dell’elevata complessità delle
operazioni da effettuare oppure dell’eccessiva richiesta di responsabilità in relazione
alle proprie capacità. Il soggetto in sovraccarico cognitivo manifesta una sintomatologia
che può comprendere cefalea, tensione nervosa, difficoltà di concentrazione, perdita di
efficienza, irritabilità, digestione difficile e stanchezza eccessiva.
L’impegno visivo richiesto dal computer cresce all’aumentare del tempo di applicazione
e si incrementa ulteriormente al ridursi della distanza tra occhi e schermo. Per lavorare
efficacemente al computer il soggetto deve possedere un’adeguata acutezza visiva,
essere in grado di regolare opportunamente la messa a fuoco per la distanza
prossimale ed essere abile a spostare in modo rapido e preciso i suoi occhi da un
punto all’altro dello schermo. Le difficoltà visive conseguenti all’uso del computer
possono essere accentuate infatti in presenza di deficit visivi non corretti oppure di
condizioni irritative oculari che si possono esprimere attraverso bruciore,
arrossamento, lacrimazione, sensazione di sabbia negli occhi, ammiccamenti frequenti,
secchezza oculare, visione sfuocata, visione tremolante e mal di testa. Alcuni di questi
disturbi insorgono in condizioni di elevato impegno visivo ed evidenziano il tentativo del
sistema visivo di mantenere un funzionamento adeguato nonostante la richiesta sia
eccedente nei confronti delle proprie capacità.
Stando ai più recenti dati, ben nove persone su dieci che utilizzano abitualmente il
computer per lavoro, studio o gioco, sono destinate a sviluppare almeno un disturbo
visivo nella loro vita.
Una fonte di disturbo ormai accertata da numerosi studi clinici sembra essere il
trifenilfosfato, un elemento chimico di cui sono composti i monitor dei computer. Il
62
fenomeno si scatena nel momento in cui i monitor si scaldano, in quanto cominciano a
rilasciare molecole del composto irritante, che quando inalate colpiscono il sistema
nervoso e quello immunitario, causando emicranie molto forti, congestioni nasali,
dermatiti e allergie.
Uno studio della State University of New York pubblicato dalla rivista europea Human
Reproduction avrebbe anche evidenziato un aumento del rischio di sterilità correlato
all’abitudine di utilizzare i computer portatili poggiandoseli direttamente sul grembo. Il
motivo, hanno spiegato gli esperti coordinati dall’urologo Yefim Sheynkin, sarebbe
imputabile al surriscaldamento prodotto dal computer a ridosso dello scroto che può
provocare danni alle cellule progenitrici degli spermatozoi.
Sempre in tema di possibili danni da apparecchiature informatiche, inoltre, una ricerca
australiana avrebbe rivelato che l’esposizione ai toner delle stampanti laser potrebbe
essere dannosa quanto il fumo di una sigaretta. Lo studio avrebbe dimostrato che
questo tipo di periferica è in grado di emettere grandi quantità di particelle di inchiostro
sottili che potrebbero raggiungere il polmone e causare gravi problemi respiratori. Lo
studio avrebbe rivelato anche che le nuove cartucce sono in grado di liberare un
numero più elevato di particelle e la stampa d’immagini sarebbe il momento in cui si
avrebbe la maggiore dispersione.
4.3 Problemi legati all’utilizzo frequente di Internet e della posta
elettronica
La storia di Internet prende il via negli anni Sessanta da un progetto del Dipartimento
della Difesa statunitense denominato Arpanet volto allo sviluppo di una rete di
computer interconnessi. La rete venne fisicamente costruita nel 1969 collegando
quattro università americane. Nel 1971 nasce il primo esempio di posta elettronica e
l’anno seguente Arpanet viene aperta all’impiego da parte di alcuni enti. In pochi anni
la progenitrice della grande rete grazie anche alla creazione dei primi due protocolli
(TCP e IP) diede vita in concreto al primo volto di quella che oggi viene chiamata
Internet intesa come insieme di rete di macchine connesse tramite protocolli anche nel
caso in cui alcune di queste non sono funzionanti. Nel 1991 nasce l’HTTP (HyperText
Transfer Protocol) ovvero il protocollo per i collegamenti ipertestuali, quelli non
sequenziali ma tramite link. Due anni dopo vede la luce il primo vero e proprio
programma di accesso alla rete, quelli che oggi chiamiamo comunemente browser.
Queste due tappe segnano l’avvento dell’era del World Wide Web (www) e della
63
possibilità di navigare visualizzando testi, file, ipertesti, suoni, immagini, animazioni,
filmati. Ancor oggi la grande rete si basa sul protocollo HTTP anche se oggi si parla di
Web 2.0 per indicare un ulteriore e radicale step tecnologico quanto una nuova
frontiera nelle modalità di uso della rete, sempre più dinamico e interattivo in cui gli
internauti sono essi stessi generatori di contenuti.
L’aumento esponenziale dell’utilizzo della rete informatica nella popolazione europea e
mondiale ha prodotto l’insorgenza di fenomeni psicopatologici che si esprimono con
una sintomatologia simile a quella osservabile in soggetti dipendenti da sostanze
psicoattive. Esiste infatti una vera e propria psicopatologia che va sotto il nome di
Internet Addiction Disorder I.A.D. dovuta proprio all’abuso di Internet e che mostra
gli stessi sintomi della tossicodipendenza.
Il termine si deve allo psichiatra americano Ivan Goldberg che, con le sue osservazioni
e le sue proposte, ha dato avvio a una riflessione che ha incuriosito numerosi psicologi
e psichiatri e ha imposto all’attenzione del mondo intero il rischio di Dipendenza da
Internet. Già dal 1995 Goldberg sosteneva difatti che “la dipendenza dai mezzi
tecnologici e in particolare da Internet condivide con la tossicodipendenza molte
caratteristiche fondamentali come la dominanza, le alterazioni del tono dell’umore, la
tolleranza, i sintomi d’astinenza, i conflitti interpersonali, i conflitti intrapsichici e le
ricadute”. Appare quindi molto probabile che già nella prossima edizione del D.S.M., il
manuale di riferimento per la classificazione delle patologie mentali giunto alla sua
quarta edizione, gli Addiction Disorder vengano riconosciuti come problematica
specifica all’interno dello spettro delle patologie ossessivo-compulsive.
Anche se non esiste una vera e propria classificazione ufficiale, la maggior parte degli
studiosi concorda ormai sui sintomi necessari per diagnosticare la dipendenza da
Internet:
a) Bisogno di trascorrere un tempo sempre maggiore in rete;
b) Marcata riduzione di interesse per altre attività;
c) Eccessiva preoccupazione per quello che accade in rete, in caso di sospensione o
diminuzione dell’uso, con conseguente sviluppo di agitazione psicomotoria, ansia,
depressione, sviluppo di pensieri ossessivi e sintomi astinenziali;
d) Necessità di accedere alla rete sempre più di frequente o per periodi più prolungati
rispetto all’intenzione iniziale;
e) Impossibilità a interrompere o tenere sotto controllo l’uso di Internet;
f) Dispendio di grande quantità di tempo in attività correlate alla rete;
64
g) Continuare a utilizzare Internet nonostante la consapevolezza di problemi fisici,
sociali, lavorativi o psicologici dovuti alla rete.
Lo sviluppo della dipendenza da Internet si sviluppa, molto schematicamente,
attraverso tre distinte fasi:
• Coinvolgimento: Accesso alla rete e senso di curiosità nei confronti delle
opportunità offerte;
• Sostituzione: Immersione nella comunità on line. Le attività che precedentemente
erano centrali nella propria vita contano sempre meno. Iniziano a comparire gravi
problemi nelle relazioni affettive, importanti problematiche lavorative legate
all’utilizzo della rete, problematiche psico-fisiche (problemi visivi, alterazione del
ritmo circadiano, disturbi nelle condotte alimentari, ecc.);
• Fuga: Fuga dal mondo reale e dalla propria vita; la sofferenza emotiva viene
compensata dalle sensazioni emotive provate nella comunità di Internet. In questa
fase compaiono gli aspetti psicopatologici più gravi; in particolare stato confusionale
per ore, allucinazioni semplici visive, prosopoagnosia, ipertermie, tremori. Sono
presenti anche importanti problemi nella vita relazionale e affettiva, e seri problemi
nell’ambiente lavorativo.
Le modificazioni psicologiche che si producono nell’individuo che diviene dipendente
dalla rete sono essenzialmente: perdita delle relazioni interpersonali, modificazioni
dell’umore, alterazione del vissuto temporale e cognitività completamente orientata
all’utilizzo compulsivo del mezzo; il soggetto tende a sostituire il mondo reale con un
oggetto artificioso, quasi una sorta di “feticismo tecnologico”, con il quale riesce a
costruire un proprio mondo personale. La dipendenza da Internet ha in comune con le
altre droghe il tratto ossessivo-compulsivo, anche se la compulsione da Internet si
basa sul piacere anziché sulla fobia.
I soggetti che utilizzano la rete, oltre a non rendersi conto delle diverse ore già
trascorse dinanzi allo schermo, tendono ad alterarsi facilmente con chi disturba la loro
navigazione; in più, come spesso accade con qualunque altro tipo di dipendenza, gli
Internet dipendenti tendono a negare nel modo più assoluto il problema.
Attualmente si riconoscono quattro tipologie specifiche di dipendenza da Internet:
• Dipendenza ciber-relazionale: Eccessivo e costante coinvolgimento nelle relazioni
on line, che porta a un progressivo di stanziamento dalle relazioni del mondo reale;
• Net-gaming: Dipendenza da giochi in rete, che comprende una vasta gamma di
attività, dal gioco d’azzardo all’e-commerce fino ad arrivare alle comunità virtuali;
65
• Dipendenza dal sesso virtuale: Fruizione compulsiva di materiale pornografico e/
o praticare altre attività in rete a sfondo sessuale;
• Sovraccarico cognitivo: L’enorme quantità di dati presente sul web induce alcuni
soggetti a investire risorse eccessive nella ricerca e catalogazione di grandi
quantità di dati, fino a compromettere seriamente le normali attività.
Le ancora poche statistiche presenti indicano l’età tipica di insorgenza degli Addiction
Disorder fra i 29 e i 35 anni.
Sempre più spesso, inoltre, il termine Internet Addiction viene anche utilizzato per
coprire una varietà di comportamenti che comprendono anche la Dipendenza da
computer: appunto per questo, è stato introdotto il termine di Dipendenza online per
indicare il fenomeno nel suo complesso.
5 PICCOLI ELETTRODOMESTICI
5.1 Tipologia di prodotti in uso
Le tipologie di prodotti potenzialmente pericolosi per l’organismo umano sono davvero
numerose e abbracciano un po’ tutti i settori del piccolo elettrodomestico, dal floor
care con gli aspirapolvere potenzialmente imputati di essere possibili fonti di
diffusione di allergeni e agenti patogeni nell’aria, alla cura della persona e alla
preparazione dei cibi, con i forni a microonde o gli asciugacapelli, imputati di
essere fonti di possibili dispersioni di radiazioni ionizzanti.
Gli ingenti investimenti in attività di Ricerca&Sviluppo della moderna industria
elettronica hanno però ridotto notevolmente questo genere di rischi, introducendo
sempre nuove tecnologie finalizzate, oltre che al miglioramento delle prestazioni,
anche a una maggiore sicurezza e affidabilità dei prodotti.
5.2 Problemi legati all’utilizzo frequente dei prodotti
Tra gli elettrodomestici maggiormente imputati di essere causa di possibili danni alla
salute vi sono sicuramente i forni a microonde, dispositivi che funzionano mediante
radiazioni ad alta frequenza che, una volta assorbite dai cibi, vengono trasformate in
calore. Secondo le conoscenze attuali, la fuga di radiazioni da un forno a microonde
non costituisce di per sé un reale pericolo per la salute; difficilmente, infatti, viene
superato il valore ammesso per la fuga di radiazioni pari a 5 mW/cm2 a una distanza
66
di 5 cm e corrispondente a un’intensità del campo elettrico di circa 137 V/m. Lo stesso
vale per i campi magnetici a bassa frequenza che difficilmente riescono a superare il
limite raccomandato di 100 μT.
I rischi sanitari maggiori sarebbero soprattutto imputabili ai cibi riscaldati all’eccesso o
ai germi patogeni presenti nelle derrate alimentari e non completamente eliminati
durante la cottura. All’interno dei forni a microonde il riscaldamento dei cibi potrebbe
non essere infatti uniforme.
Le trasformazioni che avvengono nei cibi cotti nel forno a microonde corrispondono
grosso modo ai cambiamenti provocati da una cottura convenzionale: il valore nutritivo,
la digeribilità delle proteine, la composizione degli aminoacidi e la stabilità delle
vitamine liposolubili (A ed E) sarebbero per cui del tutto simili nei due diversi metodi di
cottura. Rispetto alla cottura convenzionale, la cottura nel microonde danneggerebbe
in misura minore la stabilità delle vitamine idrosolubili (C e B). Inoltre, i grassi
sarebbero meno ossidati, cosicché non potrebbero formarsi sostanze tossiche
altamente reattive come i radicali liberi. Di regola, rispetto alla cottura in pentola, il
riscaldamento nel forno a microonde produrrebbe meno sostanze indesiderate, come
idrocarburi policlici aromatici e ammine eterocicliche aromatiche.
Nonostante queste considerazioni, frutto di studi scientifici ufficialmente riconosciuti, il
dibattito circa la pericolosità dei forni a microonde è ancora aperto: sono molti difatti gli
studiosi che accusano la cottura a microonde di produrre sostanze scarsamente
nutritive e potenzialmente cancerogene o, addirittura, di indurre nell’organismo umano
variazioni chimiche e biologiche altamente patogene.
Importante notare, inoltre, che i forni a microonde riscaldano i cibi molto rapidamente,
formando una sovrappressione al loro interno; alimenti come uova, pomodori, patate o
salsicce, rivestiti al loro esterno di pelle, buccia o guscio, potrebbero scoppiare o
esplodere durante la cottura o al momento di estrarli dal forno. Particolarmente
pericolose sono le uova riscaldate nel microonde, poiché scoppiando possono
provocare ustioni o ferite agli occhi. Dai liquidi riscaldati in eccesso possono svilupparsi
inoltre grosse bolle che, esplodendo, potrebbero far schizzare il liquido bollente fuori
dal recipiente col rischio di provocare gravi ustioni.
Tra tutti gli apparecchi di uso domestico potenzialmente dannosi per la presenza di
campi elettromagnetici, sono presenti anche asciugacapelli, lavatrici e rasoi elettrici;
gli asciugacapelli e i rasoi elettrici emettono nel raggio di circa 40 cm una forte
radiazione elettromagnetica a 50 Hz. Facendone uso saltuariamente non costituiscono
67
però un grande pericolo. È bene comunque tenere l’asciugacapelli ad almeno 40 cm
dalla testa e preferire possibilmente i dispositivi a batteria. Anche le termocoperte si
sono rivelate dannose per le leucemie infantili, soprattutto se usate dalle madri durante
la gravidanza. Quasi tutti gli elettrodomestici emettono a 50 Hz un campo elettrico
anche se spenti e un campo magnetico proporzionale al loro consumo di energia
elettrica quando sono in funzione. Appunto per questo è sempre preferibile stazionare
ad almeno 50 cm dagli elettrodomestici sia spenti sia accesi, anche se posizionati al di
là di un muro. Nel caso delle termocoperte, ad esempio, è preferibile staccarne la spina
dalla presa prima di entrare nel letto e posizionarsi a non meno di 50 cm di distanza
quando sono accese. Persino apparecchiature apparentemente innocue come
radiosveglie, abatjour e segreterie telefoniche sono in grado di emettere radiazioni
potenzialmente dannose: in particolare, le radiosveglie emettono campi magnetici ad
alta frequenza nel raggio di circa 60 cm mentre segreterie telefoniche e abatjour
emettono campi elettromagnetici nel raggio di 40 cm.
Altri elettrodomestici potenzialmente dannosi per la salute dell’uomo sono gli
aspirapolvere, in relazione al rischio di diffondere nell’ambiente - a partire dal
sacchetto raccogli-polvere o attraverso il condotto d'uscita - particelle allergizzanti di
dimensioni comprese tra 0,5 e 30 micron, germi patogeni o allergeni (soprattutto acari
della polvere domestica).
La maggior parte degli
aspirapolvere attualmente in
commercio è però dotata di filtro
HEPA (High Efficiency Particulate
Air) ad alta efficienza per polveri
sottili, capaci di trattenere il 99,97%
di queste particelle anche di misura
inferiore a 0,1 micron. L'uso
regolare di un aspirapolvere dotato
di filtri HEPA – e in alcuni casi
anche della nuova tecnologia ciclonica messa a punto dal designer inglese James
Dyson - è per cui determinante per la riduzione del numero di particelle allergizzanti:
alcuni studi clinici hanno infatti evidenziato che l'uso ripetuto di un aspirapolvere di
questo tipo su un tappeto, riduce la concentrazione degli acari di circa 10 volte. Non
68
solo. Alcuni modelli assicurano addirittura l’emissione di aria circa 150 volte
igienicamente pulita rispetto a quella normale.
Se mal utilizzato, anche il phon asciugacapelli (e le piastre liscianti) può causare
danni, soprattutto alla salute del capello: è sempre consigliabile infatti tenere
l’apparecchio a debita distanza dai capelli e dal cuoio capelluto per non danneggiare
eccessivamente la struttura cheratinica del capello e scottare la cute. Il diffusore in
dotazione con la maggior parte dei phon è utile per impedire al calore di concentrarsi in
un’area circoscritta e prevenire eventuali danni da scottature o bruciature. Anche la
presenza dello ionizzatore contribuisce notevolmente alla salute del cuoio capelluto,
evitando di disidratare ed essiccare oltremisura il capello, donandogli tra l’altro anche
morbidezza e lucentezza.
Non bisogna infine dimenticare il rischio concreto di eventuali scariche elettriche e di
folgorazione presentato da tutti gli elettrodomestici presenti tra le mura domestiche, in
special modo se a contatto con liquidi o superfici bagnate; evento che rappresenta una
delle primissime cause di morte accidentale nel nostro Paese.
6 PERICOLOSITÁ IN CASA
6.1 Incidenti domestici
Gli incidenti domestici rappresentano un problema di grande interesse per la sanità
pubblica. Causa importante di morbosità e di mortalità nella maggior parte dei Paesi
industrializzati, infatti, gli incidenti domestici sono per l’Organizzazione Mondiale della
Sanità una delle prime cause di morte, soprattutto in età pediatrica. Da non
sottovalutare, poi, l’aspetto sociale legato all’impatto psicologico che questo tipo di
infortuni ha sulla popolazione che considera la casa il luogo sicuro per eccellenza.
Secondo la definizione data dall’ISTAT, l’infortunio di tipo domestico è un incidente che
presenta determinate caratteristiche:
- l’evento comporta la compromissione temporanea o definitiva delle condizioni di
salute di una persona, a causa di lesioni di vario tipo;
- l’evento è accidentale, si verifica cioè indipendentemente dalla volontà umana;
- l’evento si verifica in un’abitazione, intesa come l’insieme dell’appartamento vero e
proprio o di sue estensioni esterne (balconi, giardini, scale, garage, cantine, ecc.).
Le conseguenze per la salute sono traumi di diversa gravità che possono comportare
invalidità e, in molti casi, anche la morte. I soggetti più a rischio sono le donne (in
69
particolare le casalinghe), gli anziani, i disabili e i bambini: sempre secondo l’ISTAT,
difatti, per le donne e per le casalinghe l’incidenza sale rispettivamente al 32,8% e al
33,1%. Secondo il CENSIS, gli infortuni domestici dipendono da tre principali fattori: la
qualità del sistema abitativo; le caratteristiche dei prodotti che entrano in casa, tra cui
gli elettrodomestici; i comportamenti individuali che mettono a rischio anche terze
persone. Si possono poi considerare anche i pericoli legati alla mancata manutenzione
di alcuni impianti presenti in casa e quelli connessi all’esposizione ad agenti chimici
(monossido di carbonio, antiparassitari, fumo di tabacco, detersivi, medicinali, ecc.),
fisici (microclima, campi magnetici, radon, ecc.) e biologici (allergeni).
Secondo l’Istituto Nazionale di Statistica gli incidenti domestici sono la prima causa di
infortuni in Italia: nel 2000 se ne sono registrati oltre 4 milioni (più di 3 milioni le
persone coinvolte), a fronte di poco più di un milione di incidenti sul lavoro e a circa
300 mila stradali. Il Centro Studi Investimenti Sociali ha messo in evidenza anche una
microincidentalità domestica sommersa molto consistente che nel 2004 avrebbe
coinvolto il 27,8% degli italiani (circa 16 milioni di persone). Un dato particolarmente
significativo, poiché l’incidenza sulla popolazione degli infortuni domestici nelle
statistiche ufficiali si aggira attorno al 7,6%. Dunque gli incidenti domestici che
avvengono realmente sarebbero circa tre volte e mezzo quelli censiti ufficialmente.
Gli incidenti domestici in Italia nel 2005, secondo il Sistema Informativo Nazionale sugli
Infortuni in Ambienti di Civile Abitazione, ente dell’Istituto Superiore di Sanità, hanno
causato su base annua 4.500 decessi (oltre tre volte il numero di quelli registrati per
incidenti sul lavoro), 130.000 ricoveri ospedalieri, 1.300.000 ricorsi al pronto soccorso
(oltre la metà del totale dei ricorsi al pronto soccorso dell’anno). Metà degli incidenti
sono cadute, circa il 20% sono urti, il 10% ferite da taglio. Le conseguenze degli
infortuni sono per il 60% contusioni e lacerazioni, per il 21% fratture e lussazioni.
Fra il 2000 e il 2005, sempre secondo i dati ISTAT, la quota di popolazione italiana
coinvolta in incidenti domestici su base annua è passata dal 49 al 52 per mille (circa 73
per mille donne, circa 30 per mille uomini). Ciò significa che anche nel 2005 oltre 3,5
milioni di persone hanno subito uno o più incidenti domestici.
Gli incidenti più frequenti nel nostro Paese sembrano essere legati soprattutto a eventi
del tutto banali, come: dimenticare pentole sul fuoco acceso (12,2%), lasciare rubinetti
aperti (11,9%), utilizzare apparecchi elettrici bagnati (11,2%), spegnere
elettrodomestici tirando il filo della presa (10,9%), lasciare il gas aperto (9,1%), non
spegnere il forno (7,1%), o dimenticare acceso il ferro da stiro (7%).
70
6.2 Il ruolo degli elettrodomestici e dei prodotti di elettronica di
consumo negli incidenti domestici
Il numero degli infortuni domestici legati a un uso errato di elettrodomestici e
apparecchi elettrici ed elettronici è pari al 12% del totale degli incidenti domestici subiti
dagli italiani censiti ufficialmente nel 2000 (fonte Istituto Superiore per la Prevenzione e
la Sicurezza del Lavoro – Ministero della Salute); in cifre, oltre 525 mila incidenti solo
fra quelli censiti (il numero reale potrebbe addirittura aggirarsi attorno ai due milioni).
Fra questi, le apparecchiature più pericolose risultano i piccoli elettrodomestici (131
mila casi): il 90% degli infortuni attribuibili a questi prodotti è subito da donne (età
media 41 anni, prevalentemente casalinghe). Per gli uomini la probabilità maggiore di
subire un infortunio domestico si verifica sotto i 15 anni (44% dei casi), mentre riguarda
gli over 65 solo nel 18% dei casi. Per le donne (che hanno mediamente circa il 60% in
più di probabilità di subire un incidente domestico rispetto agli uomini) è meno
pericolosa l’età fino ai 15 anni (19% dei casi) mentre lo è molto di più l’età matura: 25%
dei casi fra i 45 e i 64 anni, 25% dei casi oltre i 65 anni (fonte elaborazioni Ufficio Studi
Associazione Italiana Retailer Elettrodomestici Specializzati su dati ISPESL). Come per
le altre cause di incidenti, anche l’incidenza degli infortuni domestici relativa al non
corretto utilizzo di elettrodomestici o apparecchiature elettroniche, sempre più diffusi
nelle famiglie, è un problema in netto aumento. AIRES ha stimato infatti che nel 2006
questo genere di problematiche abbia coinvolto oltre 400 mila persone, con danni per
la comunità (in termini di danni alle persone, giorni di lavoro persi e ricoveri ospedalieri)
per un controvalore di circa 400 milioni di euro, più di un milione di euro al giorno.
Con il D.P.R. del 24 luglio 1996, gli elettrodomestici devono obbligatoriamente
possedere un marchio CE che ne certifichi la conformità alle normative vigenti. I
fabbricanti di elettrodomestici, pertanto, sono obbligati a verificare che questi abbiano
tutti i requisiti per poter ottenere il marchio di garanzia. Più in particolare, secondo la
normativa vigente la marcatura CE deve essere apposta dal costruttore, o dal suo
rappresentante autorizzato stabilito dall’Unione Europea, sull’apparato o, se non fosse
possibile, sull’imballaggio, sulle istruzioni per l’uso o sul certificato di garanzia,
seguendo questo ordine di priorità. Sempre secondo la normativa vigente, la marcatura
CE deve essere apposta in modo visibile, leggibile e indelebile ed è assolutamente
vietato apporre marcature o iscrizioni che possano indurre in errore i consumatori circa
il significato verbale o il simbolo grafico della marcatura di conformità CE.
71
BIBLIOGRAFIA
• L. Cattaneo, “Compendio di Anatomia Umana”, Monduzzi Editore.
• A.A.V.V., “Dizionario medico”, Istituto Geografico De Agostini Novara.
• A.A.V.V., “Enciclopedia della Medicina”, De Agostini.
• D. Scannicchio, F. Borsa, “Fisica”, Edizioni Unicopli.
• W.F. Ganong, “Fisiologia Medica”, Piccin.
• M.J. Miller, “Fisiopatologia”, Casa Editrice Ambrosiana Milano.
• L. Checacci, C. Meloni, G. Pelissero, “Igiene”, Casa Editrice Ambrosiana Milano.
• A. Antola, L. Mezzalira, R. Negrini, N. Scarabottolo, “Nuovo Dizionario di
Informatica”, Mondadori.
• G.M. Pontieri, “Patologia generale”, Piccin.
• Harrison, “Principi di Medicina Interna”, McGraw-Hill.
• Rivista “Focus”, vari numeri, Gruner Jahr Mondadori.
• Rivista “Installare”, vari numeri, Mixxnow Publishing.
• Rivista “Jack”, vari numeri, Gruner Jahr Mondadori.
• Rivista “Punto Tech”, marzo 2008, Edizioni Euroforum.
• Rivista “TLC”, vari numeri, Editrice Mediolanum.
• Rivista “Trade Bianco”, vari numeri, Editoriale Duesse.
• Rivista “Trade Consumer Electronics”, vari numeri, Editoriale Duesse.
SITOGRAFIA
• it.health.yahoo.net
• www.adnkronos.com
• www.affaritaliani.it
• www.airesitalia.it
• www.allergia2000.it
• www.ambienteazzurro.it
• www.anagen.net
• www.ansa.it
• www.arpa.veneto.it
72
• www.assinform.it
• www.codacons.it
• www.corriere.it
• www.dica33.it
• www.dyson.it
• www.dossiermedicina.it
• www.ecodom.it
• www.e-duesse.it
• www.elettrosmog.rm.it
• www.euronics.it
• www.farmasalute.it
• www.ilsole24ore.com
• www.indoor.apat.gov.it
• www.ispesl.it
• www.medicina.it
• www.mednat.org
• www.ministerosalute.it
• www.miw.it
• www.netdipendenza.it
• www.paginemediche.it
• www.punto-informatico.it
• www.service-allergie-suisse.ch
• www.sicurezzaonline.it
• www.soeo.it
• www.suva.ch
• www.tantasalute.it
• www.tech-faq.com
• www.terzoorecchio.com
• www.visivagroup.it
• www.voltimum.it
• www.wikipedia.it
• www.universonline.it
73