implicazioni mediche e biologiche derivanti dall’utilizzo dei principali elettrodomestici e...

73
1° Seminario “Implicazioni mediche e biologiche derivanti dall’utilizzo dei principali elettrodomestici e prodotti di elettronica di consumo”

Upload: roberto-bonin

Post on 12-Jul-2015

266 views

Category:

Technology


4 download

TRANSCRIPT

1° Seminario

“Implicazioni mediche e biologiche derivanti dall’utilizzo dei principali elettrodomestici e prodotti di elettronica di consumo”

1. Introduzione• Basi scientifiche: basi biologiche, fisiche e chimiche;• Il mercato dell’elettronica di consumo in Italia e tassi di

penetrazione dei prodotti tra le famiglie italiane.

2. Telefonia mobile e fissa• Tipologia di prodotti in uso;• Problematiche legate all’utilizzo dei prodotti e pratiche

potenzialmente pericolose per la salute dell’individuo.

3. Televisori e apparecchi audio video• Principali tecnologie in uso;• Problemi legati all’utilizzo frequente dei prodotti;• Danni da rumore.

4. Prodotti informatici• Prodotti e tecnologie in uso;• Problemi legati all’utilizzo frequente di personal computer;• Problemi legati all’utilizzo frequente di Internet e della posta

elettronica.

5. Piccoli Elettrodomestici• Tipologia di prodotti in uso;• Problemi legati all’utilizzo frequente dei prodotti.

6. Pericolosità in casa• Incidenti domestici;• Il ruolo degli elettrodomestici e dei prodotti di elettronica di

consumo negli incidenti domestici.

BibliografiaSitografia

2

1. INTRODUZIONE

1.1.Basi scientifiche: basi biologiche, fisiche e chimiche

Gli effetti sul normale equilibrio omeostatico dell’organismo umano provocati

dall’utilizzo dei moderni elettrodomestici e prodotti elettronici si fondano su precise basi

chimiche, fisiche e biologiche.

Di seguito vengono riportati i principali agenti fisici, chimici e biologici potenzialmente

patogeni e i relativi effetti sull’organismo umano, derivati dall’utilizzo frequente e

periodico di tali dispositivi.

a) Energia radiante, campi elettrici ed elettromagnetici

Le radiazioni che hanno effetti patogeni sugli organismi viventi e in particolare

sull’uomo sono, secondo le nozioni della fisica moderna, di natura

corpuscolare oppure elettromagnetica. Le prime sono composte da materia,

mentre le seconde sono composte da energia in pacchetti finiti o quanti che

prendono il nome di fotoni.

La loro energia è stabilita dalla Legge di Planck: ε = h ν dove ε è l’energia, h

la costante di Planck (6,6 x 10-27 erg/sec) e v la frequenza della radiazione;

oppure dalla relazione ε = hc / λ dove λ è la lunghezza d’onda e c è la velocità

dell’onda elettromagnetica nel vuoto (3 x 1010 cm/sec).

Le radiazioni si distinguono inoltre in ionizzanti ed eccitanti a seconda che

producano ionizzazione, ovvero eccitamento degli atomi costituenti la materia

che attraversano. Il fenomeno della ionizzazione consiste nello strappare un

elettrone da un’orbita di un atomo producendo uno ione positivo. L’elettrone

espulso e il fotone incidente possono avere ancora sufficiente energia per

produrre ionizzazioni secondarie. L’energia necessaria è di 10 eV e questo

significa che solo le radiazioni con energia uguale o superiore possono

produrre ionizzazione. Il fenomeno della eccitazione avviene quando una

radiazione con energia inferiore a 10 eV viene assorbita da un atomo: in questo

caso si ottiene l’eccitazione dell’atomo che viene appunto definito eccitato.

Sono radiazioni ionizzanti le α, β, γ, i raggi X e i raggi cosmici; sono invece

eccitanti le radiazioni visibili, quelle dell’infrarosso e dell’ultravioletto, tanto

3

più quanto è maggiore l’energia della radiazione, cioè quanto è minore la

lunghezza d’onda.

Le radiazioni ionizzanti di natura elettromagnetica danno origine a ioni per

effetto fotoelettrico (espulsione di un elettrone per assorbimento di un fotone,

se il fotone incidente ha energia minore di 0,5 MeV), per effetto Compton

(emissione di un elettrone e rimbalzo con energia ridotta del fotone incidente,

se il fotone incidente ha energia compresa tra 0,5 e 10 MeV), o per produzione

di coppie (espulsione di un positrone o di un elettrone che si annichilano e

spariscono come materia, se l’energia del fotone incidente è maggiore a 5

MeV), mentre quelle corpuscolate producono ionizzazione in virtù della carica

che possiedono.

Corpuscolari (composiz.) Elettromagnetiche (λ) Effetti maggioriα Nucleo elioβ ElettroniNeutroniProtoni

Metri

Onde radio 10-2-1Micro onde 1-10-3

Infrarossi 10-3 10-6

Visibile 400-700 nmUltravioletto 190-400 nm

Raggi X 10-8 10-12

Raggi γ 10-12 10-15

Raggi cosmici

Ionizzazione

Eccitazione

Ionizzazione

Le interazioni tra fotoni e radiazioni corpuscolate con la materia vivente sono

comprese in un tempo di circa 10-7 – 10-15 secondi. Questa interazione può

produrre effetti biologici particolari, che diventano riconoscibili in un tempo più

lungo, anche dell’ordine di anni. A seconda del processo che produce e cioè a

seconda dell’energia dei fotoni incidenti, l’assorbimento della radiazione

avviene preferenzialmente in certi tessuti biologici piuttosto che in altri tranne

che per l’effetto Compton che avviene nell’osso.

Nella pratica medica, le radiazioni più temibili sono quelle non ionizzanti, ossia

i campi elettromagnetici che si propagano nello spazio sotto forma di onde

elettromagnetiche, le quali non possiedono l’energia necessaria per causare

fenomeni di ionizzazione, ossia non sono in grado di staccare cariche elettriche

dagli atomi.

4

Le radiazioni non ionizzanti comprendono radiazioni di bassa frequenza e

radiazioni di alta frequenza.

Le sorgenti di radiazioni a bassa frequenza producono radiazioni con frequenze

comprese tra i 3 e i 300 Hz, tuttavia dal punto di vista pratico le frequenze di

maggior interesse sono quelle di 50 Hz, proprie della corrente alternata della

rete elettrica. Le sorgenti di radiazioni a bassa frequenza producono invece

radiazioni con frequenze comprese tra 300 Hz e 300 GHz, tuttavia dal punto di

vista pratico le frequenze di maggior interesse sono quelle riguardanti i ripetitori

radiotelevisivi e le stazioni radio base per la telefonia cellulare.

I campi a frequenza estremamente bassa hanno la capacità di indurre correnti

nel corpo umano che però, considerata la loro modesta entità, sono insufficienti

a consentire ipotesi di danno biologico. Gli effetti acuti si manifestano nel breve

periodo come immediata conseguenza di elevate esposizioni e sono in genere

completamente reversibili. Sono stati segnalati effetti sul sistema visivo e sul

sistema nervoso centrale, stimolazione di tessuti eccitati, extrasistole e

fibrillazione ventricolare. Sono stati segnalati anche sintomi quali cefalea,

insonnia e affaticamento. Gli effetti cronici possono manifestarsi invece dopo

periodi anche lunghi di latenza in conseguenza di lievi esposizioni, senza

alcuna soglia certa; tali effetti hanno natura probabilistica: all’aumentare della

durata dell’esposizione aumenta infatti la probabilità di contrarre un danno ma

non l’entità del danno stesso.

È ancora fonte di acceso dibattito all’interno della comunità scientifica la

relazione tra esposizione a radiazioni non ionizzanti e comparsa di patologie

tumorali (anche se l’Agenzia Internazionale per la Ricerca sul Cancro IARC ha

da tempo classificato i campi magnetici nella classe 2B dei possibili

cancerogeni per l’uomo, insieme al caffè e al cloroformio).

Con il crescere della frequenza aumenta progressivamente l’energia veicolata

dal campo, che viene ceduta ai tessuti sotto forma di calore. Questo effetto è

significativo per i campi ad alta frequenza e viene definito effetto termico.

Le radiazioni da radiofrequenze, a dosi molto elevate, sono in grado di causare

gravi danni legati al calore quali ustioni, cataratta e sterilità temporanea.

Le principali sorgenti di radiazioni elettromagnetiche non ionizzanti oggi

utilizzate, suscettibili di raggiungere livelli variabili di esposizione nelle loro

5

vicinanze, vengono raggruppate in campi statici, a frequenze estremamente

basse, a frequenze intermedie, a radiofrequenze e a microonde.

Per una migliore comprensione di quanto appena illustrato, occorre però anche

fare una doverosa distinzione tra campi elettrici e campi magnetici: i primi

sono creati infatti da differenze di potenziale elettrico, o tensioni, mentre i

secondi si creano quando circola una corrente elettrica. Un campo elettrico

esiste anche se non c’è corrente; se circola una corrente, l’intensità del campo

magnetico varia con il consumo di potenza, mentre l’intensità del campo

elettrico rimane costante. Come i campi elettrici, inoltre, anche quelli magnetici

sono massimi vicino alla loro sorgente e diminuiscono rapidamente a distanze

maggiori.

Di seguito vengono riportate le maggiori differenze tra i due diversi tipi di campi:

Campi elettrici Campi magnetici1. I campi elettrici derivano dalla

tensione2. La loro intensità si misura in Volt al

metro (V/m)3. Un campo elettrico può essere

presente anche se un apparecchio è spento

4. L’intensità del campo elettrico diminuisce con la distanza dalla sorgente

5. La maggior parte dei materiali scherma in qualche misura i campi elettrici

1. I campi magnetici derivano dalla corrente elettrica

2. La loro intensità si misura in ampére al metro (A/m), oppure in microtesla (μT) o millitesta (mT)

3. I campi elettromagnetici esistono solo se un apparecchio è acceso e circola una corrente

4. L’intensità del campo magnetico diminuisce con la distanza della sorgente

5. I campi magnetici non sono schermati dalla maggior parte dei materiali

Cause di presenza nell’ambiente di campi elettrici possono essere coperte

elettriche, bollitori, apparecchi stereofonici, frigoriferi e ferri da stiro. Cause di

presenza nell’ambiente di campi magnetici sono invece asciugacapelli,

frullatori, televisori, trapani e trenini elettrici. Altre sorgenti di onde

elettromagnetiche si trovano nei settori delle telecomunicazioni, delle

trasmissioni radiotelevisive, degli impianti radioamatoriali, negli impianti radar,

sia militari sia civili, e nelle antenne paraboliche per le comunicazioni satellitari.

Sotto vengono riportate le principali sorgenti di onde elettromagnetiche presenti

nell’ambiente:

6

Sorgente Frequenza Lunghezza d’onda OndeApplicazioni

industriali0-3 Hz > 10.000 km Frequenza ultra

bassaElettrodotti

Elettrodomestici3-3.000 Hz 100 km – 10.000 km Frequenza

estremamente bassa

Applicazioni industriali,

Telecomunicazioni, Telefonia - Telegrafia

3-30 kHz 10 km – 100 km Frequenza bassissima

Telecomunicazioni 30-300 kHz 1 km – 10km Bassa frequenzaTelegrafi interfonici,

Telefonia, Radiofonia, Ultrasuoni

300-3.000 kHz 100 m – 1 km Media frequenza

Antenne televisive e radiofoniche

3-30 MHz 10 m – 100 m Alta frequenza

Radiofonia, Televisione

30-300 MHz 1 m – 10 m Altissima frequenza

Televisioni, Ponti radio, Telefonia

mobile, Radiomobile

300-3.000 MHz 10 cm – 1 m Ultra alta frequenza

Telecomunicazioni, TV satellitare

3-30 GHz 1 cm – 10 cm Frequenza superiore

Telecomunicazioni, Elettroterapia,

Radioastronomia, Radar

30-300 GHz 1 mm – 1 cm Frequenza estremamente alta

Di seguito vengono invece riportati i valori indicativi, espressi in microtesla (μT),

dei campi magnetici generati da alcuni elettrodomestici di uso comune a

diversa distanza dal corpo.

Apparecchiatura A ridosso del corpo

A 10 cm dal corpo

A 20 cm dal corpo

A 30 cm dal corpo

Frigorifero 0,5 – 1,7 1,5 1 0,25Lavastoviglie 0,3 – 3,4 0,2 0,11 0,1

Lavatrice 0,1 – 27,5 12,6 10 7,2Televisore 14” 2 - 7 2,5 1 0,5

Radio registratore

0,3 – 1,5 2 0,8 0,4

Asciugacapelli 40 - 100 40 5 1,5Rasoio 50 – 1.300 20 5 1,7

Frullatore 50 - 230 14 3,5 1,5Ventilatore 30 - 50 2,9 0,4 0,15Lampada a

incandescenza60 3,8 0,85 0,27

7

Più nello specifico, i campi elettromagnetici compresi tra 10 e 300 GHz

vengono assorbiti presso la superficie della pelle e delle parti del corpo

esposte, e l’energia che penetra nei tessuti sottostanti è molto ridotta. Le

esposizioni intense e prolungate nel tempo possono essere molto gravi, in

particolare per gli organi poco vascolarizzati come il cristallino dell’occhio o i

testicoli per i quali la dispersione del calore da parte del sistema circolatorio è

più problematica.

I campi elettromagnetici compresi tra 1 MHz e 10 GHz penetrano invece nei

tessuti esposti e producono induzione di correnti elettriche e riscaldamento a

causa dell’assorbimento di energia. A bassi livelli l’aumento localizzato della

temperatura stimola il sistema termoregolatore a ripristinare le condizioni

termiche iniziali di cui l’individuo è conscio. L’effetto può risultare

particolarmente grave in quanto il riscaldamento interessa zone interne del

corpo e non viene direttamente percepito dagli organi sensoriali; per di più

l’organismo non riesce a smaltirlo adeguatamente attraverso i meccanismi di

compensazione del corpo. Come conseguenza del riscaldamento indotto nei

tessuti e delle sollecitazioni anomale dei meccanismi di termoregolazione, si

possono manifestare diverse risposte dovute al calore, come avviene in

conseguenza di manifestazioni febbrili prolungate o in ambienti surriscaldati.

I campi elettromagnetici inferiori a 1 MHz non producono riscaldamento

significativo, ma inducono soprattutto correnti e cariche elettriche, stimolando in

particolare i nervi e i muscoli.

I campi elettrici statici non penetrano nel corpo mentre i campi magnetici statici

si trasmettono inalterati nel corpo umano senza attenuazione di intensità.

Gli effetti indiretti dei campi elettromagnetici possono avvenire attraverso il

contatto diretto tra una persona e un oggetto con un differente potenziale

elettrico. Tale contatto provoca un rapido passaggio delle cariche elettriche

accumulate sulla superficie del corpo umano o dell’oggetto.

Più in generale, di seguito vengono riportati i principali effetti delle radiazioni

ionizzanti a livello cellulare, soprattutto se relativi a danni da radiazioni

luminose, i quali possono essere di tipo reversibile mentre altri possono

risultare addirittura letali:

Cellule labili:effetti prevalenti sul nucleo

Diminuzione numerosi mitosi

In cariocinesi:- adesività

8

Cellule perenni:effetti prevalenti sugli organuli citoplasmatici

↓picnosi

Mitocondri- rigonfiamento- rottura membrana- rottura creste- dissociazione fosforilazioni da ossidazioni

Lisosomi- perossidazione lipidica- rottura membrana- liberazione enzimi

Reticolo endoplasmatico- diminuzione sintesi proteica

- rotture- irregolarità dei cromosomi

↓In riposo:- picnosi- vacuolizzazione nucleare- carioressi- cariolisi

↓Cariocinesi patologiche

rigonfiamentotorbido → necrosi

In Italia sono stati fissati per la popolazione generale dei limiti di esposizione di

100 μT per l’induzione magnetica e di 5 KV/m per il campo elettrico (Decreto

del Presidente del Consiglio dei Ministri dell’8/7/2003, pubblicato dalla G.U.

n. 200 del 28/8/2003). Tale normativa, emanata in completamento della

precedente Legge 36/01 “Legge quadro sulla protezione delle esposizioni a

campi elettrici, magnetici ed elettromagnetici”, ha meglio identificato i limiti

di esposizione e i valori di attenzione per la prevenzione degli effetti a breve

termine e dei possibili effetti a lungo termine nella popolazione dovuti

all’esposizione di campi elettromagnetici generati da sorgenti fisse con

frequenze comprese tra 100 kHz e 300 GHz.

A livello europeo il Consiglio della Comunità ha fissato invece i limiti di

esposizione ai campi elettromagnetici (Raccomandazione del 12/7/1999

pubblicata sulla G.U.C.E. del 30/7/1999) che si rifanno alle linee guida della

Commissione Internazionale sulla Protezione da Radiazioni Non Ionizzanti

9

(ICNIRP Guidelines for limiting exposure to time-varying electric, magnetic and

electromagnetic fields).

b) Corrente elettrica

Il corpo umano che si trovi tra un conduttore e la terra viene attraversato, con

danno, dalla corrente elettrica. Questo dipende dal fatto che l’uomo è

sostanzialmente costituito da una soluzione elettrolitica per cui la corrente

elettrica lo attraversa come attraversa i conduttori elettrolitici, secondo la legge

di Ohm (il rapporto tra la differenza di potenziale ΔV alle estremità del

conduttore e l’intensità I della corrente è costante; ΔV = R dove R è la

resistenza del conduttore, dipendente dal tipo e dalla geometria del conduttore,

e più in particolare da R = ρ l/S dove ρ è la resistenza specifica o resistività del

conduttore, l la lunghezza e S la sezione).

La resistenza elettrica dell’organismo non è costante, ma dipende dalla

costituzione dei tessuti oltre che da altri parametri e varia nei diversi tessuti

essendo in media di 1.000 Ω.

A tensioni superiori a 200 Volt la cute che, a meno che non sia umida, presenta

resistenza elevata, viene perforata e la resistenza diventa quella dei tessuti

interni. Una corrente di una certa intensità e di un certo voltaggio che penetra in

un corpo segue una via prefissata prima di uscire, che dipende dal punto di

ingresso e dalla resistenza minore offerta dai tessuti lungo il suo percorso. In

particolare, il cuore che, per l’elevato contenuto in elettroliti, offre una

resistenza ridotta, viene frequentemente attraversato dalla corrente con la

conseguenza probabile di arresto cardiaco. Se la corrente poi attraversa la

testa, andando verso il tronco, può bloccare anche i centri bulbari.

Le alterazioni da corrente elettrica, iniziano con alterazioni dei sistemi fisico-

chimici che costituiscono l’organismo, da cui derivano gli effetti che si

riscontrano sulle funzioni fisiologiche.

In linea di massima, una corrente continua che attraversa il corpo umano,

provoca delle variazioni della polarizzazione delle membrane cellulari e di

organi con conseguenti variazioni di permeabilità delle membrane stesse e

quindi delle funzioni fisiologiche a queste connesse. In particolare, si verificano

variazioni di distribuzione degli elettroliti nel citoplasma che portano, come

conseguenza, una variazione dello stato chimico-fisico delle proteine, iniziando

10

dalla loro solubilità (aumento di viscosità per attraversamento di corrente

continua) e dalla loro attività come enzimi. Cuore, muscoli e nervi vengono

eccitati da una corrente continua alla chiusura e all’apertura del circuito; in

particolare, il cuore può andare incontro a extrasistolia cui segue, all’aumentare

dell’intensità, fibrillazione prima atriale e poi ventricolare.

L’applicazione di una corrente continua, non per periodi brevi, provoca atrofia al

tessuto muscolare probabilmente conseguente a gravi squilibri elettrolitici e di

membrana.

L’azione della corrente alternata dipende, viceversa, dal fatto che a ogni

alternazione, cioè a ogni inversione della polarità tipico dell’andamento

sinusoidale di tale corrente, si ha inversione nella direzione e nel flusso degli

elettroliti nei diversi tessuti e quindi una inversione ciclica della polarizzazione

fisiologica delle membrane. L’effetto totale dipende dalla frequenza della

corrente: infatti, a parità di tensione e intensità, le basse frequenze sono

sicuramente più dannose delle alte frequenze e le altissime frequenze

possono non produrre effetti lesivi. È probabile che le alte e le altissime

frequenze non siano dannose semplicemente perché l’inversione di polarità, in

questi casi è talmente rapida da non portare variazioni apprezzabili, e quindi

dannose, di permeabilità e di flussi ionici nei sistemi elettrolitici separati da

membrane dell’organismo. L’effetto, viceversa, delle basse frequenze sembra

legato in special modo all’attività cardiaca la cui polarità fisiologica varia

ciclicamente con frequenza propria, per cui la corrente alternata a bassa

frequenza, alterandola, può provocare fibrillazione ventricolare. Nei muscoli

scheletrici la corrente alternata provoca contrazione tetanica contemporanea di

tutte le miofibrille interessate alla contrazione, anche di quelle dei muscoli

respiratori, causando così asfissia.

Un particolare effetto della corrente elettrica sull’organismo umano è quello che

va sotto il nome di folgorazione, come conseguenza di una scarica elettrica di

migliaia di Ampère che attraversa il corpo per un tempo inferiore a 1/1000 di

secondo per una differenza di potenziale di milioni di Volt.

La folgorazione nei casi lievi si limita a produrre una scossa elettrica più o

meno forte, ustioni circoscritte e superficiali, e magari anche svenimento; nei

casi più gravi provoca scottature più o meno estese e profonde (che possono

anche arrivare alla carbonizzazione dei tessuti colpiti), perdita istantanea più o

11

meno duratura della coscienza, della sensibilità e dei movimenti fino alla

paralisi, sospensione repentina ma momentanea dell’attività cardiaca e

respiratoria; nei casi gravissimi induce morte pressoché istantanea per sincope

cardio-respiratoria.

Più in particolare, quindi, l’entità dello shock elettrico dipende direttamente

dalla quantità di carica elettrica immessa nell’organismo nell’unità di tempo,

cioè dall’intensità di corrente elettrica in circolazione nel sistema biologico.

L’azione di questa, in generale, è caratterizzata da vari parametri, quali la sua

frequenza, la durata del contatto e il percorso effettuato.

Esiste un valore soglia dell’intensità di corrente, oltre la quale i suoi effetti

vengono percepiti, e un valore di rilascio, al di sotto del quale il contatto

elettrico accidentale può essere interrotto autonomamente da parte del

soggetto. Anche poco al di sopra di tale valore, a causa della tetanizzazione,

questi viene “congelato” al circuito e lo shock può essere molto pericoloso,

anche se il contatto è di breve durata. Come già illustrato, si può avere paralisi

della respirazione, a causa del permanere della contrazione muscolare, e/o

alterazioni più o meno persistenti dell’attività bioelettrica cerebrale, lesioni

neurologiche del midollo spinale con conseguente paralisi più o meno estesa,

lesioni di organi di senso (vertigini, sordità, abbagliamento o indebolimento

della vista) e infine ustioni esterne e interne, determinate dall’effetto Joule.

Utilizzando la legge di Ohm, è possibile ricavare la quantità di calore prodotto

e, assumendo la densità dei tessuti pari a quella dell’acqua, è possibile risalire

alla variazione di temperatura nell’intervallo di tempo che consente, a sua volta,

di rilevare come la gravità delle ustioni sia legata alla densità di corrente, più

che all’intensità di corrente. Risulta quindi assai più pericolosa una corrente che

viene introdotta nel corpo umano attraverso un contatto di piccole dimensioni,

che la stessa corrente immessa tramite un contatto avente una grande

superficie. La cute, possedendo un’elevata resistività specifica e un basso

calore specifico, è sicuramente il tessuto che viene maggiormente danneggiato.

Le ustioni interne sul percorso della corrente sono pressoché indolori, a causa

della distruzione delle terminazioni sensitive, e sono progressive a causa della

morte successiva dei tessuti nella zona circostante, non immediatamente

necrotizzati. Ciò provoca, tra l’altro, l’immissione in circolo, a distanza di alcuni

12

giorni, di sostanze tossiche e quindi un’insufficienza renale acuta, che può

portare anche a morte inattesa il folgorato, apparentemente in via di guarigione.

Come visto in precedenza, le correnti alternate sono più pericolose, in quanto

causano facilmente il fenomeno della tetanizzazione; tuttavia all’aumentare

della frequenza la pericolosità della corrente diminuisce: infatti se lo stimolo

alternato ha un periodo molto breve, non viene raggiunto il potenziale di soglia

nelle cellule eccitabili e i potenziali d’azione non si innescano. In particolare, a

circa 1 MHz non si ha più shock elettrico, ma esiste tuttavia un effetto, detto

effetto pelle, per il quale l’aumento di frequenza comporta l’interessamento di

strati sempre meno profondi di tessuto. Ciò causa un aumento della densità di

corrente nelle regioni periferiche del corpo, che può portare anche a gravi

ustioni cutanee.

Le ustioni elettriche si distinguono principalmente in:

a) ustioni comuni, causate dall'incendio delle vesti o dell'ambiente secondario

alla scarica elettrica;

b) ustioni da conduttore elettrico reso rovente dal corto circuito, che sono

lesioni a stampo senza caratteristiche proprie dell’elettricità;

c) ustioni da arco voltaico, colpiscono i segmenti corporei più esposti e

producono perdite di sostanza estese e profonde, carbonizzazione completa

dei tessuti, fusione dell'osso in perle di fosfato di calcio e talora mutilazione di

intere parti del corpo;

d) ustioni da corrente elettrica, caratterizzate da necrosi massiva da

coagulazione e disidratazione della cute, e non da carbonizzazione, con

formazione di un'escara di tessuti mummificati;

e) ustioni da fulmine, che possono andare dalla semplice bruciacchiatura dei

peli all'eritema a chiazze, alla necrosi termica, alla carbonizzazione e

all'incenerimento.

Per marchio elettrico si intende invece una lesione cutanea elementare

localizzata al punto di contatto tra la pelle e il conduttore, di cui spesso ne

riproduce la forma. Se ne distinguono di due tipi:

a) senza perdita di sostanza cutanea: costituito da un rilievo rotondo, lineare

o ellittico, leggermente depresso al centro, di colorito giallo pallido e di

consistenza dura. È determinato dallo scollamento degli strati epidermici

13

profondi in seguito alla formazione di bolle gassose per evaporazione di liquidi

cellulari e interstiziali, con integrità del rivestimento corneo;

b) con perdita di sostanza cutanea: può andare da una semplice

disepitelizzazione a una erosione crateriforme, a stampo con margini

sottominati e con fondo giallastro bruno per incartapecorimento del derma, o

rosso bruno per piccole emorragie puntiformi.

Parametro elettrico EffettoIntensità:0 – 25 mA

25 – 75 mA

75 mA – 3 A

oltre 3 A

Tensione (ΔV) bassa:- con resistenza bassa- con resistenza alta

Tensione (ΔV) alta:- con resistenza bassa- con resistenza alta

Effetti della corrente continua:fisici

chimici

fisiologici

Effetti della corrente alternata:bassa frequenza

alta frequenza

altissima frequenza

Contrazioni spastiche o tetaniche della muscolatura (arresto del respiro per spasmo dei muscoli respiratori o laringei)

Probabile arresto cardiaco in diastole

Fibrillazione ventricolare

Arresto cardiaco

Danni diversi che diventano più gravi all’aumentare della resistenza

UstioniMorte

Disturbi nella polarizzazione normale delle membrane

Necrosi coagulativa da acidiNecrosi coagulativa da alcali

Fibrillazione ventricolare

Fibrillazione ventricolareContrazione tetanica dei muscoli respiratori

Non dannosa

Non dannosa

14

c) Tossicità di metalli pesanti e composti chimiciAlcuni metalli pesanti contenuti all’interno dei prodotti elettronici possono essere considerati agenti potenzialmente patogeni poiché, combinandosi con i gruppi sulfidrici –SH, sono in grado di inattivare gli enzimi implicati nelle più importanti reazioni biochimiche dell’organismo umano. Questi elementi vengono assorbiti lentamente perché attraversano le mucose solo quando sono metabolizzati a complessi solubili, si depositano negli organi con molti elementi del sistema reticolo istiocitario, e vengono eliminati per via renale o intestinale.I principali metalli pesanti di interesse patologico, la cui intossicazione può avvenire mediante contatto fisico, inalazione di polveri o ingestione accidentale, sono: Mercurio, Piombo, Argento, Arsenico, Bismuto e Tallio.

Agente Meccanismo d’azione Tipo di intossicazione

Sintomi

Mercurio Irritante localeBlocco gruppi -SH

AcutaSubacutaCronica

VomitoTachicardiaIpotensioneShockAnuriaDissenteriaEmatemesi

Piombo VasocostrizioneParalisiBlocco gruppi -SH

AcutaSubacutaCronica

Orletto gengivaleColica addominaleVomitoDiarreaAnemia normocronicaParalisi del radiale

Argento Irritante localeAstringenteCaustico

AcutaCronica

Pigmentazione cutaneaIrritazione alimentareVomitoDiarrea

Arsenico Inibizione gruppi –SHCitotossicoAumento permeabilità capillare

AcutaSubacutaCronica

GastralgiaVomitoDiarrea

Bismuto Inattiva gruppi –SHIpersensibilità

AcutaSubacutaCronica

DermatitePoliuriaVertiginiLipotimiaJarish Herxheimer

Tallio Accumulo tess. nervosoInibizione gruppi -SH

AcutaSubacutaCronica

AlopeciaAtassiaMovimenti coreiformiDelirio con allucinazioniComa

15

La presenza di questi metalli all’interno dei prodotti elettronici di uso più comune è comunque praticamente nulla. A titolo esemplificativo, infatti, di seguito viene riportata la composizione tipo di una lavatrice (peso medio pari a 67 Kg – fonte APAT), uno degli elettrodomestici più diffusi attualmente nel nostro Paese con una penetrazione di un apparecchio per abitazione:

Materiale Percentuale (%) Quantità (Kg)Acciaio 7 4,69Acciaio zincato 28 18,76Acciaio inox 10 6,7Alluminio 3 2,01Rame 1 0,67Ghisa 11 7,37Plastica 5 3,35Gomma 3 2,01Vetro 2 1,34Legno e plastica 4 2,68Calcestruzzo 22 14,74Altro 4 2,68

La normativa 2002/95/CE, meglio conosciuta come Direttiva RoHS

(Restriction of Hazardous Substances Directive), adottata nel febbraio del

2003 dalla Comunità Europea impone restrizioni sull'uso di determinate

sostanze pericolose nella costruzione di vari tipi di apparecchiature elettriche

ed elettroniche costruiti o importati nell'Unione Europea e, più in particolare,

pone vincoli sull'utilizzo di Piombo, Mercurio, Cadmio, Cromo esavalente,

Bifenili polibromurati ed Etere di difenile polibromurato.

Il piombo è usato prevalentemente nella saldatura dei componenti sui circuiti

stampati (le leghe comunemente usate contengono 40% piombo e 60%

stagno). Il mercurio viene utilizzato in particolari termostati e lampade a

scarica di mercurio. Il cadmio si utilizza nelle batterie ricaricabili, come

protezione alla corrosione e usura di componenti metallici. Il cromo

esavalente, riconosciuto universalmente come agente cancerogeno, viene

usato in trattamenti di cromatura e nella passivazione della zincatura

elettrolitica, su componenti ferrosi e non ferrosi, per evitare la corrosione e

l’usura delle superfici. I bifenili polibromurati ed eteri di difenile polibromurati

sono aggiunti invece ai polimeri plastici per ottenere proprietà ignifughe.

Le concentrazioni massime previste sono dello 0,1% (tranne il cadmio che è

limitato allo 0,01%) del peso di materiale omogeneo. Ciò significa che i limiti

16

non si applicano al peso del prodotto finito, o persino a un componente, ma a

tutta la singola sostanza che compone l’apparecchio elettronico.

Tale normativa è strettamente collegata con la Direttiva comunitaria sulla

rottamazione di apparecchiature elettriche ed elettroniche 2002/96/CE che

regola l'accumulazione, il riciclaggio e il recupero per le apparecchiature

elettriche ed elettroniche obsolete.

Il nostro Paese, recependo le Direttive 2002/95/CE, 2002/96/CE, 2003/108/CE

relative alla riduzione dell'uso di sostanze pericolose nelle apparecchiature

elettriche ed elettroniche, nonché allo smaltimento di rifiuti, ha emanato il

Decreto legislativo n. 151 del 25 luglio 2005 (G.U. 175 del 29/05/05

Supp.Ord. 135) che riguarda i grandi elettrodomestici, i piccoli elettrodomestici,

gli apparecchi informatici e di telecomunicazione, le apparecchiature di

consumo, gli apparati per illuminazione (comprese le lampadine), gli attrezzi

elettronici ed elettrici, i giocattoli, le attrezzature per lo svago e lo sport e i

distributori automatici.

L’inalazione acuta di cadmio può provocare dolore di tipo pleuritico, dispnea,

cianosi, febbre, tachicardia, nausea ed edema polmonare. L’ingestione può

provocare invece grave nausea, vomito, salivazione, crampi addominali e

diarrea. L’esposizione cronica causa anosmia, anemia ipocromica microcitica,

tubulopatia renale con proteinuria e osteomalacia con pseudo fratture.

Il ferro elementare danneggia i mitocondri, provoca perossidazione dei lipidi

causando necrosi renale, tubulare ed epatica e, occasionalmente, danno

miocardico e polmonare. L’ingestione di 20 mg/kg provoca sintomatologia

gastrointestinale, mentre 60 mg/kg causano febbre, iperglicemia, leucocitosi,

letargia, ipotensione, acidosi metabolica, convulsioni, coma, collasso

circolatorio, ittero, elevazione degli enzimi epatici, allungamento del tempo di

protrombina e iperammoniemia.

L’inalazione dei vapori di mercurio provoca infiltrati diffusi o polmonite,

insufficienza respiratoria, edema polmonare, fibrosi e desquamazione

dell’epitelio bronchiale. Le manifestazioni neurologiche includono tremori,

labilità emotiva e polineuropatia. L’esposizione cronica a mercurio produce

tremore intenzionale ed eretismo (eccitabilità, perdita di memoria, insonnia,

timidezza, talvolta delirio). L’ingestione acuta di alte dosi di mercurio metallico

può provocare ematemesi, dolori addominali, insufficienza renale acuta e

17

collasso cardiocircolatorio. I composti organici a base di mercurio possono

provocare neurotossicità caratterizzata da parestesie, turbe della visione,

dell’udito, del gusto e dell’olfatto, instabilità alla deambulazione, astenia, perdita

di memoria e depressione. In gravidanza l’esposizione determina ritardo

mentale e alterazioni neurologiche multiple nel neonato.

L’esposizione al piombo in età infantile include dolore addominale seguito da

letargia, anoressia, anemia, atassia e linguaggio sconnesso. Le manifestazioni

più gravi sono caratterizzate da convulsioni, coma, edema cerebrale

generalizzato e insufficienza renale. L’alterazione dello stato cognitivo è dose-

dipendente. Negli adulti i sintomi da esposizione cronica comprendono dolore

addominale, cefalea, irritabilità, dolore articolare, astenia, anemia, neuropatia

motoria e deficit mnesici. L’esposizione cronica a bassi livelli può provocare

nefrite interstiziale, danno tubulare, iperuricemia e ridotta filtrazione

glomerulare. L’incremento di livelli di piombo nell’osso comporta il rischio di

anemia e ipertensione.

d) Allergeni :

Per allergeni si intendono tutte quelle sostanze di struttura chimica e biologica

varia, generalmente innocue, che agendo da antigeni (cioè provocando la

formazione di anticorpi) sono in grado di provocare la comparsa dello stato

allergico; una patologia assai diffusa nel nostro Paese, che presenta una

prevalenza di circa il 10-15% tra la popolazione italiana.

Nella pratica medica per allergia si intende “qualsiasi stato biologico di alterata

sensibilità e reattività organica verso determinate sostanze; o, più in particolare,

uno stato biologico sostenuto da una reazione antigene-anticorpo specifica che

si manifesta solo alla seconda introduzione della sostanza”.

Nella moderna immunologia clinica tali reazioni, definite anafilattiche e

atopiche, vengono classificate come Ipersensibilità di I tipo e sono

caratterizzate dalla risposta dell’organismo, previamente sensibilizzato da un

precedente contatto con un peculiare immunogeno, quando viene raggiunto

una seconda volta dallo stesso.

La peculiarità del fenomeno anafilattico risiede infatti nella discrepanza con

quanto di solito avviene in seguito alla seconda inoculazione di un antigene

che, generalmente, è responsabile della comparsa della cosiddetta risposta

secondaria. Questa, a differenza della risposta primaria, che si manifesta al

18

primo contatto con l’antigene il quale dà luogo, dopo alcuni giorni di latenza,

alla comparsa in circolo di anticorpi specifici dapprima della classe IgM e poi

della classe IgG, è caratterizzata da un rapidissimo incremento in circolo degli

anticorpi che, questa volta, sono tutti della classe IgG e permangono nel

sangue per un tempo maggiore.

L’anafilassi è, quindi, indotta a mezzo di due successive inoculazioni

dell’antigene, intervallate da un opportuno lasso di tempo, la prima con effetto

sensibilizzante, la seconda con effetto scatenante.

La sintomatologia che interviene immediatamente dopo il contatto scatenante è

riportabile sempre a due fenomeni essenziali: aumento della permeabilità

capillare e contrazione della muscolatura liscia.

Nell’uomo l’anafilassi si manifesta con pallore, perdita di coscienza, respiro

superficiale e frequente, insensibilità agli stimoli esterni, polso impercettibile e

notevole ipotensione; la morte può sopraggiungere in pochi minuti. Le forme

attenuate sono invece caratterizzate da nausea, vomito, orticaria gigante e

dispnea asmatiforme.

Le più comuni manifestazioni di questa patologia, alla quale è ancora oggi

associato il termine di allergia o atopia, consistono essenzialmente in reazioni

anafilattoidi, asma bronchiale, riniti e congiuntiviti, orticaria localizzata e

generalizzata alle quali si associano anche fenomeni di gastroenterite acuta.

Tra le più importanti fonti di possibili allergie, vi sono le polveri fini, particelle

pressoché invisibili a occhio nudo che possono rimanere sospese nell’aria per

un lungo periodo di tempo. La formazione delle polveri dipende sia da eventi

naturali sia da attività umane quali il riscaldamento civile e domestico, le attività

industriali, le attività agricole e, soprattutto, il traffico veicolare. La loro

pericolosità dipende dalla dimensione delle particelle di cui sono composte:

quanto più piccole sono, tanto più profondamente penetrano nell’apparato

respiratorio.

Di notevole interesse medico-scientifico e grande oggetto di dibattito sociale, è

il cosiddetto PM10, sigla che identifica materiale costituito da polvere, fumo e

piccolissime gocce di sostanze liquide, presente nell'atmosfera sotto forma di

particelle microscopiche, il cui diametro è uguale o inferiore ai 10 µm.

Le principali fonti di PM10 sono l'erosione del suolo, gli incendi boschivi, le

eruzioni vulcaniche, la dispersione di pollini, il sale marino, i processi di

19

combustione (tra cui quelli che avvengono nei motori a scoppio, negli impianti

di riscaldamento, in attività industriali, negli inceneritori e nelle centrali

termoelettriche), l’usura di pneumatici, di freni e di asfalto, e dalla

trasformazione in particelle liquide di alcuni gas (composti dell'azoto e dello

zolfo) emessi da varie attività umane.

La nocività delle polveri sottili dipende dalle loro dimensioni, dalla loro natura

chimica e, soprattutto, dalla loro capacità di raggiungere le diverse sezioni

dell'apparato respiratorio. In genere, le patologie legate all'inquinamento da

polveri sottili sono riconosciute essere l'asma, le affezioni cardio-polmonari e la

diminuzione delle funzionalità polmonari. Sulla base di uno studio condotto nel

2000 in otto città del mondo, l'Organizzazione Mondiale della Sanità ha stimato

che le polveri sottili sono responsabili dello 0,5% del totale dei decessi registrati

nell’arco di un anno solare.

I valori limite sono definiti in Italia dal D.L. 60 del 2 aprile 2002; tale Decreto

fissa due limiti accettabili di PM10 nell’atmosfera: il primo è un valore limite di 50

µg/m³ come valore medio misurato in 24 ore da non superare più di 35 volte

all’anno, mentre il secondo come valore limite di 40 µg/m³ come media

annuale.

Particolare tipi di allergeni, molto diffusi nelle case e responsabili della maggior

parte delle reazioni allergiche, sono il Dermatophagoides pteronyssinus e il

Dermatophagoides farinae, più comunemente noti come Acari della polvere.

Più in particolare, si tratta di microrganismi invisibili a occhio nudo, di lunghezza

compresa tra 200 e 400 µm, che si cibano di piccoli frammenti di pelle umana,

della forfora, di funghi e muffe, di alcuni tipi di batteri e di frammenti di insetti. Il

loro ambiente ideale è rappresentato dai luoghi caldi e umidi e la loro presenza

si concentra particolarmente all’interno delle imbottiture di cuscini, materassi,

coperte e peluche, oltre che all’interno di tende, tappeti, e nelle librerie a giorno

dove i libri sono lasciati esposti all'aria. Sono presenti principalmente ad

altitudini inferiori ai 1.500 metri s.l.m. e sopravvivono solo in condizioni di

umidità comprese tra il 55% e il 75% e si sviluppano maggiormente in abitazioni

con livelli di umidità superiori ai 7 g/m3 e con temperature superiori ai 23° C.

Una temperatura tra i 16°C e i 23°C riduce invece il ciclo vitale degli acari da

123 a 34 giorni; le femmine depongono 2,5 uova al giorno a 23°C e invece 3,3

uova al giorno a 35°C. Uno scarso ricambio d'aria determina un incremento

20

della concentrazione degli acari in casa. Essi sono trasportati da particelle più

grandi di 10 micron e quindi non possono essere allontanati in condizioni di

quiete.

I loro allergeni (in particolare alcune proteine presenti sul loro corpo e nelle loro

feci) si liberano nell’aria e vengono facilmente inalati: di conseguenza vengono

in contatto con organi o apparati sensibilizzati provocando la tipica

sintomatologia allergica, soprattutto irritazioni alla pelle, alle vie respiratorie e

agli occhi. Essi sono normalmente innocui per la maggioranza delle persone,

ma nei soggetti già sensibilizzati possono provocare rinite, tosse, asma o

eczema. Il periodo di massima concentrazione ambientale è costituito dalle

stagioni autunnale e invernale. In un grammo di polvere possono essere

presenti da 10 a 1.000 esemplari di Dermatofagoidi.

Un altro tipo di allergeni potenzialmente patogeni per l’organismo umano sono

le muffe, microorganismi di origine vegetale in grado di produrre spore che si

disseminano nell’aria durante il periodo di sporulazione (soprattutto nelle

stagioni estiva e autunnale), provocando la sintomatologia allergica.

Le muffe possono crescere sia all’interno sia all’esterno delle abitazioni.

All’interno si rinvengono principalmente su alimenti non adeguatamente

conservati, su indumenti di lana, su pareti e pavimenti umidi, su carta da parati,

sul terriccio e sulle foglie delle piante, nei sistemi di condizionamento dell’aria e

negli umidificatori. All’esterno delle abitazioni si ritrovano principalmente sul

suolo e su materiale organico in decomposizione. Le condizioni ottimali per il

loro sviluppo sono costituite da una temperatura compresa tra i 18° e i 32°C e

da un’umidità superiore al 65%. Nel nostro Paese la muffa più allergizzante è

l’Alternaria seguita dal Cladosporium.

Oltre ai pollini (tradizionalmente molto diffusi durante la stagione primaverile)

allergeni abbastanza comuni sono infine le forfore di animali domestici,

soprattutto di cani e gatti; si tratta di particelle molto piccole che derivano dalla

saliva degli animali e che si depositano sul loro pelo. Le particelle rimangono

facilmente sospese in aria, aderiscono facilmente a tutte le superfici (indumenti

compresi) e quindi sono difficili da rimuovere e possono essere anche

trasportate involontariamente in ambienti dove non sono presenti animali.

21

e) Suoni e rumori :

Il suono è un fenomeno fisico che stimola il senso dell’udito: esso è provocato

dal rapido movimento o vibrazione di un qualsiasi corpo. Il suono si trasmette

attraverso le onde sonore che si propagano sia nell’aria sia in altri elementi, e

più in particolare, alla velocità di 340 m/sec nell’aria, di 1.435 m/sec nell’acqua

e di 5.127 m/sec nel ferro.

La frequenza viene espressa in Hertz, ed è data dal numero delle oscillazioni

delle onde sonore per unità di tempo e caratterizza l’altezza del suono. La

lunghezza d’onda λ è legata alla frequenza dalla relazione λ = 340 m/sec /

frequenza. Con il termine di pressione acustica, si intende, invece, la

variazione di pressione di un mezzo elastico rispetto al volume statico P0 (cioè

la pressione barometrica in assenza di suoni) causata dalla propagazione di

un’onda sonora nel mezzo stesso. Viene misurata in dine/cm2.

L’energia del suono è data dalla potenza P per unità di superficie e viene

misurata in Watt/cm2.

L’intensità del suono si misura in decibel, (1/10 di un Bell) con i quali si

misura la pressione acustica provocata dal suono nel mezzo di propagazione.

La pressione acustica necessaria perché un suono sia udibile dall’orecchio

umano varia a seconda della frequenza o altezza dei suoni. La quantità di

decibel è data dalla relazione:

dB = log10 intensità del suono in esame / intensità del suono di riferimento

È possibile distinguere tra loro il concetto di suono da quello di rumore: il

suono è in generale una sensazione che nasce nell'uomo quando una

perturbazione meccanica si propaga in un mezzo elastico facendolo vibrare

mentre il rumore è comunemente identificato come una sensazione uditiva

sgradevole e fastidiosa o intollerabile. L’acustica stabilisce comunque una

differenza oggettiva tra suono e rumore, basata sull’analisi delle vibrazioni: se

22

le vibrazioni sono regolari si è in presenza di un suono; se sono invece

irregolari si è in presenza di un rumore. Ciascun individuo ha comunque una

sua personale sensibilità ai suoni, e definisce rumore ciò che percepisce come

non musicale, fastidioso e sgradevole.

L’orecchio umano è in grado di avvertire soltanto suoni compresi tra i 20 e i

20.000 Hz (banda acustica); il massimo della sensibilità uditiva si ha per i

suoni di una frequenza di circa 3.000 Hz. Con l’età tende a diminuire il limite

superiore dei suoni percepibili dall’orecchio umano, nel senso che il giovane

avverte suoni fino a 18-20.000 vibrazioni al secondo, l’uomo maturo suoni fino

a 14-16.000, e il vecchio suoni fino a 8-10.000 vibrazioni al secondo. I suoni di

frequenza inferiore ai 16 Hertz vengono chiamati infrasuoni; quelli superiori ai

20.000 Hertz vengono chiamati ultrasuoni. Un suono di 1.000 Hertz è udibile a

“zero decibel”, mentre scendendo a 30 hertz occorre un’intensità di almeno 60

decibel perché il suono sia udibile. Perché l’orecchio umano possa avvertire

una differenza d’intensità tra due suoni, occorre che questa differenza sia

almeno del 10%.

Più in particolare, la sensibilità dell’orecchio umano non è costante per tutte le

frequenze: ad esempio, se un suono a 1.000 Hz di intensità 20 dB produce una

certa sensazione, per ottenere quella stessa sensazione a 63 Hz sono

necessari circa 45 dB.

Per esprimere l’intensità sonora non secondo i parametri fisici ma secondo

quelli dalla sensibilità umana viene utilizzato il phon. Alla frequenza di 1.000 Hz

il valore del phon coincide con quello del decibel.

Esistono molte fonti potenziali capaci di produrre suoni a decibel elevati. Anche

se tali suoni in piccole dosi non sono dannosi, è bene infatti evitare una lunga

esposizione a suoni di oltre 90 decibel. Anche se breve, un suono intenso può

produrre danni fisici. Per esempio, il suono prodotto da un martello pneumatico

può provocare, al pari di una serata trascorsa all’interno di una moderna

discoteca, danni permanenti all’udito. La soglia del dolore si aggira attorno ai

125 dB (pari a una pressione sonora di circa 2 X 102 microbar).

Dal punto di vista scientifico, invece, sono due gli elementi che concorrono a

rendere un rumore pericoloso per la salute: l’intensità, misurata in decibel, e la

durata.

23

A seconda dell’intensità di un rumore gli effetti sull’organismo possono variare

notevolmente, superati certi limiti vi possono essere dei seri danni all’udito.

Di seguito si riportano i valori dei principali rumori con le relative eventuali

ripercussioni sull’organismo:

- Fino ai 40 dB: l’organismo non ne risente;

- Dai 40 ai 60 dB: si riscontrano i primi segni di fastidio e si alterano alcuni

parametri dell’organismo;

- Dai 60 agli 80 dB: aumenta notevolmente la sensazione di stress e

malessere, con segni fisici come tachicardia e colite;

- Dagli 80 ai 120 dB: potrebbero comparire segni di nausea, capogiri ed

emicrania;

- Oltre i 120 dB: danni all’udito e dolore.

In linea generale, il rumore agisce sull’orecchio umano causando, secondo la

natura e l’intensità della stimolazione sonora, un innalzamento della sua soglia

uditiva e, più in particolare:

24

- uno stato di sordità temporanea con recupero della sensibilità dopo riposo

notturno in ambiente silenzioso (Spostamento Temporaneo della Soglia

Uditiva STS, che può essere di durata breve, media o prolungata, a seconda

che duri da 1-2 minuti a 16 ore e oltre, fino ad assumere l’aspetto di Fatica

uditiva fisiologica prima e Fatica uditiva patologica poi);

- uno stato di fatica con persistenza della riduzione della sensibilità e disturbi

nell’udibilità della voce di conversazione per circa 10 giorni;

- uno stato di sordità da trauma acustico cronico con riduzione dell'intelligibilità

del 50%.

Molto schematicamente, i principali effetti del rumore sull’apparato uditivo ed

extrauditivo, possono essere riassunti:

Apparato uditivo Effetti extrauditiviSpostamento Temporaneo della Soglia Uditiva

a) STS1 = Breve (1-2 minuti)b) STS2 = Media (<16 ore)c) STS3 = Prolungata (>16 ore)

↓ (permanenza rumore)

Spostamento Permanente della Soglia Uditiva = Danno irreversibile

Reazione di allarme

↓Reazione neurovegetativa

↓Lesioni: Cardiovascolari Gastroenteriche Neuroendocrine Sistema Nervoso Centrale Uso scorretto delle corde vocali

Il timpano è messo in pericolo per lo più da forti impulsi rumorosi, specialmente

se improvvisi, come ad esempio le esplosioni o gli spari. In tutti gli altri casi i

danni all'udito subentrano nell'orecchio interno. Un'esposizione eccessiva al

rumore (carico fonico) causa dapprima una diminuzione della sensibilità delle

cellule uditive: si ha allora la sensazione di avere dell'ovatta nelle orecchie.

L'udito è comunque in grado di riprendersi nelle fasi di riposo. La situazione

diventa invece critica allorché i carichi fonici si ripetono, nel qual caso le fasi di

riposo non bastano più e le cellule sono destinate, col tempo, a morire.

Il rischio di un deficit acustico da rumore non dipende per cui dal fatto che il

suono percepito sia gradevole o sgradevole alle orecchie dell’ascoltatore: il

fattore determinante non è tanto il livello massimo che agisce occasionalmente

sull'udito, bensì il livello sonoro medio costituito dal livello sonoro e dalla durata

d'esposizione.

25

Benché l’orecchio sia in grado di proteggersi autonomamente dai suoni costanti

a forte pressione (analogamente a quanto fa anche l’occhio, quando è esposto

a fonti luminose fisse molto intense), è stato scientificamente dimostrato che,

superati precisi limiti di tempo, questa capacità risulta insufficiente e l’eccesso

di pressione sonora può cominciare così a raggiungere la coclea, distruggendo

irreversibilmente le cellule acustiche.

In base a quanto indicato dal Nova Scotia Department of Labour, i tempi limite

di esposizione a pressioni sonore costanti dovrebbero essere:

Pressione sonora costante(indicata in decibel)

Tempo limite di esposizione

80 dB (conversazione media a 1 metro) 16 ore85 dB (ascolto musicale casalingo medio) 8 ore90 dB (pub affollato) 4 ore95 dB (pub affollato con diffusione musicale)

2 ore

100 dB (bar di una discoteca media) 1 ora105 dB (concerto rock a 10 metri) 30 minuti110 dB (martello pneumatico a 1 metro) 15 minuti115 dB (pista di una discoteca media) 7,5 minuti120 dB (decollo jet a 1 metro: morte) 0 minuti

Superati tali limiti di tempo, l’apparato uditivo comincia a subire danni

permanenti e cumulativi. Un tipico segnale di pericolo è dato dagli acufeni o dal

titinnio (tinnitus aurium), fastidiosi ronzii che permangono anche per ore nelle

orecchie dopo aver sostato a lungo in ambienti molto rumorosi. Questi

fenomeni sono dovuti alla perdita funzionale definitiva di una parte delle cellule

cocleari, sopraffatte dall’eccesso di pressione sonora subita.

L’accumularsi di questi danni porterà non solo a una progressiva perdita

dell’udito, ma si rifletterà anche su altre importantissime funzioni vitali, sia

fisiologiche (inducendo variazioni del ritmo cardiaco, della vista, della

coordinazione e del tempo di reazione) che psicologiche (aumentando, ad

esempio, l’aggressività). Un danno da rumore compromette inoltre anche la

capacità selettiva dell’udito, dando l’impressione al soggetto di vivere

costantemente circondato da un “miscuglio di suoni”.

Non solo. L’affievolirsi della percezione uditiva soggettiva porterà

inconsapevolmente il soggetto ad ascoltare la musica a un volume oggettivo

sempre più alto, velocizzando sempre più il progredire della sordità traumatica.

26

Da un punto di vista strettamente fisico, come prima conseguenza, un ambiente

troppo rumoroso stimola la contrazione dei muscoli, aumenta la dilatazione

delle pupille e aumenta i livelli di ormoni dello stress, come cortisolo,

adrenalina e noradrenalina. Oltre i disturbi fisici, sono molto frequenti anche

quelli di tipo psicologico, che si manifestano con aggressività, stress, ansia e

diminuzione della capacità di concentrazione e memorizzazione.

Anche i rumori che circondano gli individui durante il sonno, anche se non li

svegliano, se sono troppo forti possono essere dannosi per la salute. Dormire

nelle immediate vicinanze di una fonte di disturbo può infatti aumentare la

pressione arteriosa e di conseguenza favorire il rischio di disturbi cardiaci. Ad

affermarlo è uno studio condotto da un gruppo di ricercatori dell’Imperial

College di Londra, pubblicato nel febbraio scorso sulla rivista scientifica

European Heart Journal, contenuto all’interno di un progetto finanziato

dall’Unione Europea identificato dalla sigla HYENA (Hypertension and

Exposure to Noise near Airports).

I dati relativi alla ricerca londinese sono il frutto di uno studio, coordinato da

Lars Jarup, che ha coinvolto 140 volontari che abitano nelle vicinanze

dell’aeroporto di Heathrow. Nel complesso, il progetto HYENA ha esaminato i

dati relativi a quasi 6.000 persone le cui case sono situate vicino ai più grandi

aeroporti europei; per il nostro Paese è stato scelto quello di Milano Malpensa.

Sui volontari, e nelle loro abitazioni, sono stati applicati degli strumenti utili a

misurare, durante le ore notturne, la loro pressione arteriosa ogni 15 minuti e

contemporaneamente i livelli di rumore. In base ai dati raccolti si è riscontrato

che all’aumentare dei decibel aumentava in proporzione la pressione. I rumori

sotto ai 35 decibel sembrerebbero non interferire in maniera significativa con la

salute, superato questo limite però le cose iniziano a cambiare. Sebbene i

volontari rimanevano addormentati e non erano consci del disturbo, i rumori

generati dal passaggio di un aereo causavano un aumento della pressione

arteriosa sistolica di 6,2 mmHg e della pressione arteriosa diastolica di 7,4

mmHg. All’aumentare del rumore era associato un aumento della pressione

arteriosa, per ogni 5 decibel di aumento del rumore la pressione arteriosa

sistolica aumentava in media di 0,66 mmHg.

In linea generale, difatti, la mancanza di riposo dovuta a disturbo del sonno

notturno può causare uno stato di stress che si ripercuote direttamente sulla

27

salute, soprattutto perché il cervello interpreta il rumore come un segnale di

pericolo e mette in moto, anche di notte, una serie di reazioni neurovegetative

simili a quelle causate dallo stress, come battito cardiaco accelerato,

respirazione più veloce e aumento della pressione arteriosa.

Secondo l’Organizzazione Mondiale della Sanità durante la notte il rumore non

dovrebbe superare i 50 decibel per evitare problemi di tipo cardiovascolare. Per

evitare i disturbi del sonno come ad esempio l’insonnia, i rumori devono essere

sotto i 42 decibel e per non sentirsi irritati o tesi sotto i 35 decibel. L’esposizione

eccessiva o cronica al rumore può portare alla sordità.

Il D.Lgs. 195/2006 ha fissato i seguenti nuovi limiti per il rumore negli ambienti

di lavoro:

- Valore limite di esposizione (giornata lavorativa di 8 ore): 87dBA;

- Valore superiore di azione (giornata lavorativa di 8 ore): 85 dBA;

- Valore inferiore di azione (giornata lavorativa di 8 ore): 80 dBA;

- Livello di esposizione settimanale al rumore (5 giorni lavorativi, 8 ore al giorno,

nel caso di esposizione giornaliera variabile): 87 dBA.

f) Ill uminazione :

L’illuminazione dei locali deve essere tale da non recare danno all’organismo e,

nello stesso tempo, permettere una piena e regolare funzione dell’occhio in

rapporto alle varie attività svolte.

Il flusso luminoso è la quantità di energia luminosa emessa nell’unità di tempo

da una data sorgente e viene valutata secondo la sensazione luminosa che

produce. L’unità di misura è il Lumen (Lm), che equivale alla quantità di energia

intercettata, in un secondo, da un metro quadro di parete di una sfera del raggio

di un metro e al cui centro si trovi una lampada che ha l’intensità di una Candela

internazionale (CI). Una CI emette, in totale, un flusso luminoso pari a 12,56

Lm; e, viceversa, un Lm corrisponde al flusso emesso da 0,0008 CI.

Si chiama invece Lux (lx), o anche Candela metro, l’effetto illuminante prodotto

da un Lm ripartito in maniera uniforme, su una superficie di un metro quadro,

posta normalmente alla sorgente luminosa e alla distanza di un metro da essa.

Si chiama splendore di una sorgente luminosa, inoltre, il rapporto fra il flusso

luminoso e la superficie della sorgente stessa. L’unità dello splendore è il

28

Lambert, che corrisponde allo splendore di una sorgente che emette un flusso

pari a un Lm per ogni centimetro quadro di superficie luminosa.

Se l’ambiente di lavoro o di svago si trova in condizioni ottimali di illuminazione,

la funzione visiva si esplica senza conseguenze dannose. Un’illuminazione

impropria, sia in difetto sia in eccesso, produce, invece, rapido affaticamento e

qualora agisca a lungo può provocare anche alterazioni dell’occhio più o meno

rilevanti. I valori di illuminazione raccomandati per alcune attività, sono:

da lux a lux In nessun punto dell’ambiente meno

di luxPer leggere e scrivere

Per lavori grossolani

Per lavori di media precisione

Per lavori fini

Per lavori molto fini

50

15

40

60

90

60

25

60

90

250

30

10

20

30

50

I valori di illuminazione ritenuti sufficienti in alcuni locali delle abitazioni sono

invece indicati come:

- Vestiboli e corridoi = da 10 a 20 lux;

- Cucina, stanza da bagno e camere da letto = da 20 a 40 lux;

- Salotti, stanze da pranzo e da soggiorno = da 30 a 50 lux.

Di fronte a deviazioni di qualche entità rispetto ai valori suddetti, l’occhio

reagisce, inizialmente mettendo in opera i vari meccanismi di difesa. Se però

l’azione di una luce impropria si prolunga, si giunge all’affaticamento e,

persistendo la causa, possono manifestarsi alterazioni più o meno cospicue e

irreversibili.

Queste difese, che in gran parte dipendono da movimenti riflessi, sono, fino a un

certo punto, in grado di dosare la quantità di luce che l’occhio e specialmente la

retina possono ricevere. Esse consistono nell’ammiccamento e nel

restringimento della rima palpebrale, nell’aumento della secrezione lacrimale,

nella miosi pupillare e, infine, in riflessi che si svolgono nell’ambito della retina.

Vi sono poi altri meccanismi di difesa rappresentati dall’assorbimento delle

radiazioni luminose a opera delle varie parti dell’occhio con il preciso scopo di

29

proteggere gli elementi più preziosi per la funzione visiva, da azioni troppo

violente, o comunque, lesive.

Continuando lo sforzo, i riflessi di difesa giungono al massimo della loro

capacità, finché, se viene superato il limite di tolleranza allo stimolo, cominciano

a ridursi fino a risultare, poi, completamente aboliti.

Accanto alle alterazioni dei meccanismi di difesa, si manifestano anche altri

fenomeni, quali: secchezza della cornea e sensazioni moleste, in dipendenza

della cessata secrezione lacrimale; aumento della secrezione delle ghiandole di

Meibomio e delle ghiandole di Zeiss; iperpigmentazione delle palpebre;

insufficienza dei muscoli estrinseci dell’occhio; fotofobia con spasmo palpebrale;

emeralopia; irregolarità nelle varie funzioni retiniche; aumento del tempo

nell’adattamento dell’occhio alle varie gradazioni della luce.

Un’illuminazione insufficiente costringe ad avvicinare l’occhio all’oggetto

osservato, a una distanza inferiore a quella normale che è di circa 30 cm; ciò

provoca tutta una serie di disturbi della convergenza e dell’accomodamento con

fenomeni soggettivi quali dolore oculare e pesantezza di testa. Quando poi la

permanenza in ambienti scarsamente illuminati diviene abituale può manifestarsi

la miopia.

Una sorgente luminosa di notevole splendore può causare invece il fenomeno

dell’abbagliamento (parziale o totale) i cui sintomi principali consistono nel

temporaneo indebolimento visivo, iperemia retinica, scotomi, midriasi,

lacrimazione, blefarospasmo e dolori periorbitali.

La mancanza di fissità può infine provocare facilmente fatica oculare.

g) Sick Building Syndrome :

Come è noto l’ambiente domestico, di studio o di lavoro è in grado di influenzare

notevolmente lo stato di salute delle persone che lo frequentano, riducendo o

aggravando l’effetto di fattori di rischio di malattia eventualmente presenti al loro

interno.

Una situazione clinica accertata da tempo che può compromettere il corretto

equilibrio tra l’individuo e l’ambiente, esponendolo a un rischio maggiore di

contrarre malattie, è la cosiddetta “Sindrome dell’edificio malato” o Sick

Building Syndrome, che in realtà non è una vera e propria malattia imputabile

a una causa ben precisa, ma piuttosto una serie di disturbi che affliggono le

30

persone che passano molte ore all’interno di un ambiente chiuso. Più

precisamente, le persone affette da questa forma di patologia lamentano

sensazioni di disagio acuto, come cefalea, irritazione agli occhi, al naso e alla

gola, tosse secca, pelle disidratata, vertigini o nausea, difficoltà di

concentrazione, affaticamento e particolare sensibilità agli odori. I sintomi, che

svaniscono o si attenuano fortemente allontanandosi dall’edificio, sarebbero in

realtà dovuti alla presenza eccessiva di inquinanti nell’aria (inquinamento

indoor). Sotto vengono riportate, in modo schematico, le principali sostanze

inquinanti rilevabili all’interno degli edifici non industriali e dei mezzi di trasporto:

Ambiente Fonte InquinanteCasa Fumo di tabacco

Fornelli a gas

Forni a legna e camini

Materiali da costruzione

Suolo sottostante

Mobili e prodotti per la casa

Riscaldamento a gas

Riscaldamento a kerosene

Isolanti

Particelle respirabili (PM10)Monossido di carbonio (CO)Composti organici volatili

Ossido nitroso (NO2)Monossido di carbonio (CO)

Particelle respirabili (PM10)Monossido di carbonio (CO)Idrocarburi policlici aromatici

RadonFormaldeide

Radon

Composti organici volatiliFormaldeide

Ossido nitroso (NO2)Monossido di carbonio (CO)

Ossido nitroso (NO2)Monossido di carbonio (CO)Anidride solforosa (SO2)

Asbesto (o amianto)Uffici Fumo di tabacco

Materiali da costruzione

Arredamento

Fotocopiatrici e stampanti

Particelle respirabili (PM10)Monossido di carbonio (CO)Composti organici volatili

Composti organici volatiliFormaldeide

Composti organici volatiliFormaldeide

Composti organici volatili

31

Condizionatori

Ozono

Agenti biologiciMezzi di trasporto Aria ambiente

Condizionatori

OzonoMonossido di carbonio (CO)Idrocarburi policlici aromatici

Agenti biologici

La tossicità di queste sostanze non è in genere elevata, ma se accumulate

nell’aria in concentrazioni sufficienti possono causare irritazioni cutanee, oculari,

malesseri, soprattutto se le persone soggiornano in luoghi inquinanti per molte

ore.

Moquette, tappezzerie e impianti di condizionamento possono alloggiare colonie

batteriche, acari e spore fungine le cui tossine possono essere respirate,

causando irritazioni o allergie delle prime vie aeree.

La sintomatologia della Sick Building Syndrome è molto varia: dipende dai

singoli soggetti, dalle condizioni dell’edificio o anche dalle condizioni ambientali

di un singolo ufficio o reparto; investe però almeno il 20% delle persone che vi

soggiornano e permane cronicamente se l’atmosfera interna non viene corretta.

I disturbi più frequenti sono: cefalea, sonnolenza, difficoltà di concentrazione,

nausea, capogiri, infezioni e allergie delle vie respiratorie, senso di costrizione

toracica, difficoltà respiratorie, problemi al naso e alla gola, senso di ostruzione

nasale, prurito, senso di irritazione, gola secca, oppressione, stanchezza,

malessere, febbre, irritazione della pelle, eritema, dermatite allergica e dolore

agli occhi.

h) Tumori

Per tumore si intende una neoformazione di tessuto costituito da cellule atipiche

modificate rispetto alle normali. La malattia tumorale presenta almeno quattro

caratteristiche che la definiscono: clonalità (nella maggior parte dei casi, il

tumore prende origine da una singola cellula mutata, che prolifera fino a formare

un clone di cellule neoplastiche); anaplasia (mancanza della normale

differenziazione cellulare); autonomia (la crescita è completamente svincolata

dai meccanismi di regolazione che operano nell’organismo normale); diffusione

di metastasi (le cellule neoplastiche sviluppano la capacità di proliferare in

modo selvaggio, invadendo i tessuti circostanti e diffondendosi a distanza). I

32

tumori vengono distinti in benigni o maligni a seconda delle caratteristiche

biologiche e morfologiche che ne determinano la maggiore o minore

aggressività. È benigno ogni tumore che non mette in pericolo la vita; che si

accresce lentamente per espansione (e non per invasione dei tessuti

circostanti); che è delimitato da una capsula fibrosa; che non dà metastasi e

resta nella sede di origine; che può essere asportato chirurgicamente, con

guarigione completa del paziente. Viceversa le caratteristiche fondamentali dei

tumori maligni sono la rapida proliferazione di cellule, con grado di maturità

variabile; la mancanza di una capsula fibrosa; l’accrescimento invasivo con

infiltrazione progressiva dei tessuti e degli organismi circostanti; la capacità di

dare origine a localizzazioni secondarie, lontane dalla sede primitiva

d’insorgenza dei tumori.

I tumori dipendono da cause solo in parte comprese con esattezza. Lo sviluppo

di una neoplasia è il risultato di un’interazione complessa di fattori, in parte

interni all’organismo e in parte esterni a esso. Per la maggior parte dei tumori il

rischio cresce con l’età; a parte le neoplasie dell’infanzia, peraltro rare, la

maggior parte dei tumori si sviluppa oltre 50 anni, per il naturale calo delle difese

dell’organismo e per il tempo maggiore di esposizione ai cancerogeni ambientali.

Per quanto concerne il sesso, a parte le differenze relative agli organi genitali, le

localizzazioni cambiano quantitativamente nell’uomo e nella donna: in linea di

massima però, sotto i 10 anni e sopra i 60 l’incidenza di tumori maligni prevale

negli individui di sesso maschile. Complesso è il ruolo esercitato dai fattori

genetici. Per molte delle neoplasie più comuni l’incidenza è più alta fra i pazienti

con una storia familiare di tumore (da 3 fino a 30 volte). Per di più numerose

affezioni ereditarie rare sono associate a un rischio di cancro aumentato o alla

presenza di numerose lesioni preneoplastiche, in grado di evolvere verso

condizioni francamente maligne.

In Italia muoiono per tumore circa 130.000 persone all’anno. Le sedi anatomiche

più colpite, a parte il carcinoma della cute, che è certo il più frequente, ma anche

il più facilmente guaribile, sono dell’80% dei casi rappresentate da dieci

localizzazioni elettive: polmone, mammella, sistema linfatico, stomaco, colon-

retto, prostata, utero, vescica, midollo osseo e pancreas. Il tumore del polmone

è uno dei più frequenti e rappresenta la causa di circa un terzo di tutte le morti

33

per cancro. Al secondo posto tra i maschi le neoplasie della prostata. Nella

donna la mammella è l’organo più frequentemente colpito.

Questi, più nello specifico, i dieci tumori più frequenti in Italia:

Maschi Femmine Entrambi1 Polmone Mammella Polmone2 Stomaco Colon Colon3 Colon Stomaco Stomaco4 Prostata Utero Mammella5 Vescica Polmone Prostata6 Pancreas Pancreas Pancreas7 Laringe Ovaio Vescica8 Leucemie Leucemie Leucemie9 Cavo orale Encefalo Utero10 Fegato Fegato Encefalo

L’Unione Internazionale contro il Cancro ha uniformato sia i criteri di giudizio

clinico dello stadio di sviluppo dei tumori sia la terminologia da utilizzare in

riguardo. Queste considerazioni hanno fornito le basi per la creazione del

sistema TNM che prende in considerazione le dimensioni del tumore primitivo

(T), il coinvolgimento dei linfonodi regionali (N) e la presenza di metastasi a

distanza (M).

L’aggiunta di numeri alla lettera T indica l’aumento graduale delle dimensioni del

tumore primitivo e/o l’estensione locale dello stesso Si utilizzano numeri da 1 a 4

corrispondenti a valori che variano a seconda della regione interessata. Nel caso

che in presenza di metastasi non si sia giunti all’identificazione del tumore

primitivo si indica la condizione come T0 mentre per TX si intende la mancanza

di requisiti minimi per giungere alla definizione del tumore primitivo e per Tis il

carcinoma in situ, una peculiare forma di carcinoma non invasivo a sede

intraepiteliale che non supera la membrana basale.

Analogamente si procede per quanto riguarda i linfonodi interessati e l’eventuale

presenza di metastasi a distanza. Per quest’ultime, la condizione M1 viene

suddivisa secondo le sedi delle principali localizzazioni metastatiche che

vengono indicate con le iniziali delle corrispondenti parole in lingua inglese.

Dalla combinazione dei valori attribuiti a T, N e M si giunge all’identificazione

dello stadio nel quale si trova il tumore. Si considerano quattro differenti stadi:

- Stadio I = T1 N0 M0 (Tumore circoscritto, esente da coinvolgimento di

linfonodi e da metastasi);

34

- Stadio II = T2 N1 M0 (Tumore circoscritto con interessamento linfonodale ed

esente da mestatasi);

- Stadio III = T3 N2 M0 (Tumore infiltrante i tessuti circostanti con

coinvolgimento linfonodale ma esente da metastasi);

- Stadio IV = T4 N3 M1 (Tumore esteso, con ampio interessamento

linfonodale e localizzazione metastatiche).

1.2. Il mercato dell’elettronica di consumo in Italia e i tassi di

penetrazione dei prodotti tra le famiglie italiane

Il rischio di insorgenza di patologie dovute all’utilizzo di apparecchi elettrodomestici ed

elettronici aumenta in relazione alla penetrazione di questi prodotti all’interno di

abitazioni e ambienti di lavoro.

Secondo un’indagine condotta dall’ISTAT agli inizi del 2008 su un campione di circa

19.000 nuclei familiari per un totale di 49.000 consumatori i beni maggiormente diffusi

risultano essere il televisore (95,9%), il telefono cellulare (85,5%) e il

videoregistratore (62%). Rispetto all’anno precedente sono aumentati soprattutto gli

acquisti dei lettori DVD, dal 51,7% al 56,7%, a scapito dei videoregistratori, destinati

nel giro di qualche anno a essere completamente sostituiti. In crescita anche gli

accessi a Internet, dal 35,6% al 38,8% con un miglioramento della qualità della

connessione: calano infatti quelle con linea tradizionale o ISDN a favore della banda

larga. Questi, più nel dettaglio, i risultati emersi dall’indagine condotta dall’ISTAT:

35

Forti divari tecnologici sono riscontrabili andando a segmentare le varie tipologie di

famiglie presenti nella popolazione. Quelle costituite da ultrasessantacinquenni hanno

dichiarato infatti una minore penetrazione dei beni tecnologici, se si escludono il

televisore (96,1%) e il telefono cellulare (52,2%). Ma anche per quanto riguarda, per

esempio, il possesso di apparecchiature legate all’uso della TV, come l’antenna

parabolica o il decoder digitale terrestre, la diffusione è bassissima (rispettivamente il

10,6% e il 6,4%). Al contrario, le famiglie con almeno un minorenne sono senza dubbio

le più hi tech: il 71,2% ha un PC, il 55,7% è dotato di connessione a Internet, che per il

34% è a banda larga, mentre il cellulare ha raggiunto i livelli di penetrazione del

televisore (97,9%). Anche le differenze sociali incidono sui livelli di penetrazione di

questi beni, soprattutto per quanto riguarda i PC e l’utilizzo del web, con un divario che

risulta in crescita. Sul fronte, infine, delle distinzioni geografiche, emerge che il Sud

sconta uno svantaggio nei confronti del Centro e del Nord Italia. Gli unici beni sui quali

le famiglie meridionali hanno parzialmente colmato la distanza rispetto a quelle delle

altre zone del Paese sono le console per i videogiochi e i telefoni cellulari.

Per quanto riguarda il mercato italiano dei beni durevoli, invece, il 2007 si è chiuso con

un controvalore di poco superiore ai 16 miliardi di euro e con un tasso di crescita sul

2006 del +2,9% (fonte: GfK Marketing Service Italia per AIRES). I prodotti di

elettronica di consumo e del settore foto rappresentano insieme oltre il 30% del

mercato, ma se le fotocamere digitali crescono in modo considerevole, l’elettronica

di consumo nel suo complesso cresce meno del mercato. Le performance più

significative sono state quelle dei grandi elettrodomestici cresciuti dell’8% con una

quota che sfiora il 20%, dei piccoli elettrodomestici e dell’home entertainment.

Moderatamente positive anche le variazioni fatte segnare dai settori informatica e

recording media. Unica eccezione negativa, come nei primi sei mesi dell’anno, il

settore della telefonia (-5%).

Più in particolare, il mercato italiano dei grandi elettrodomestici ha confermato nel

2007 la tendenza positiva dell’anno precedente, con una crescita a volume pari al

+5,9% e a valore del +8,2%. Il numero complessivo di pezzi venduti è stato di circa 7,5

milioni e si è tradotto in un giro d’affari pari a 3,2 miliardi di euro. Prendendo in

considerazione i gruppi di prodotto, lavatrici e frigoriferi si confermano essere i più

importanti, rappresentando complessivamente circa la metà delle vendite. Da notare

l’andamento molto positivo delle lavastoviglie, con una crescita del +13% a volume,

superiore di molto alla media del mercato.

36

A chiusura 2007, invece, il mercato dei piccoli elettrodomestici in Italia ha continuato

a crescere sia in termini di giro d’affari (+7%) che di numero di unità (+4%),

raggiungendo quasi i 22 milioni di pezzi e più di 1 miliardo di euro. Tale crescita però

risulta meno dinamica rispetto a quella del 2006, anno in cui il settore dei piccoli

elettrodomestici aveva registrato tassi di crescita a due cifre (+12% a valore e + 10% in

volume). Nonostante la crescita di tutti i comparti, è il personal care a trainare il

mercato grazie a un aumento del giro d’affari del +13%. I comparti cucina e casa

(rispettivamente +4,1% e +2,1) hanno rallentato la loro crescita rispetto al 2006, anno

in cui entrambi avevano registrato un trend positivo pari al +11%.

Le macchine da caffè e i microonde risultano i prodotti più dinamici dell’intero

mercato dei piccoli elettrodomestici, registrando rispettivamente una crescita del +18%

e del +15%.

Il mercato della telefonia in Italia vale 3,3 miliardi di euro, continuando a mostrare una

tendenza negativa: -2,2% rispetto al 2006 (era del –2% anche nel confronto tra 2006 e

2005). Questo trend è stato fortemente influenzato dall’andamento negativo del

mercato della telefonia mobile (-7% rispetto al 2006). Il 2007 è stato un anno

comunque importante per il mercato della telefonia mobile: i volumi sono cresciuti del

3% su base annua, attestandosi a 19,8 milioni di terminali venduti. Negativa invece la

situazione in termini di valore, dove vengono raggiunti i 2,5 miliardi di euro, con un

trend di crescita negativo del –7%. Lo scorso anno è stato anche caratterizzato da

sostanziali cambiamenti dal punto di vista tecnologico: la quota di mercato del

segmento UMTS passa dal 26% del 2006 al 29% del 2007, in forte e continua

accelerazione, visto che a dicembre 2007 ha raggiunto il picco massimo del 34%. I Tv-

fonini rappresentano solo il 3% del mercato totale e il mercato degli smartphone ha

mostrato un incremento costante a livello di terminali venduti.

Durante il 2007 il mercato IT è cresciuto del 2%, trend questo, inferiore rispetto alla

crescita del 2006 che era del 3%. Il giro d’affari generatosi assesta poco al di sopra dei

3 miliardi di euro. L’hardware ha rappresentato il 61% del giro d’affari complessivo,

mantenendo costante il livello di importanza rispetto al 2006, e può essere considerato

il driver del mercato, con una crescita del 2%. All’interno di tale comparto l’unico

gruppo di prodotto a ottenere una performance positiva, in termini di trend in valore

sull’anno, è quello dei PC notebook (+6%), mentre i PC desktop (-6%) e i monitor

LCD (-3%) hanno fatto registrare un calo del proprio mercato.

37

Il comparto delle periferiche, che ha incrementato il suo peso all’interno del mercato IT

arrivando a sfiorare il 10%, ha fatto registrare una crescita in valore rispetto al 2006 del

7%. Crescita sostenuta dal segmento laser, sia delle stampanti (+17%) sia dei

multifunzione (+59%), e dai multifunzione inkjet (+12%). Il segmento stampanti

inkjet, al contrario, è quello più colpito dall’effetto sostituzione, sempre più evidente

nelle periferiche, e perde il 31% di fatturato generato rispetto all’anno precedente.

Il mercato delle fotocamere digitali nel 2007 ha fatto segnare un fatturato superiore ai

635 milioni di euro con un trend positivo dell’8%, che viene confermato anche a

volume, dove si trova un +25,3% per un totale di circa 3 milioni di apparecchi venduti.

La crescita a valore si registra sia nelle fotocamere compatte (+7%) sia nelle reflex

(+14%). I trend a volume sono più forti dei rispettivi a valore: le compatte, infatti, fanno

segnare un +25,9%, mentre le reflex un +41%.

Il mercato dell’elettronica di consumo, nel corso del 2007, ha sviluppato un giro

d’affari complessivo di poco superiore ai 4.340 milioni di euro, facendo segnare un

trend positivo del +2%; questo trend viene confermato dai dati a volume con quasi 26

milioni di pezzi venduti con un trend di crescita positivo del +4%.

Il segmento video rimane sempre il mercato più importante in termini di valore e

nell’ultimo anno ha fatto registrare un trend di crescita del 4,5%. Il fatturato sviluppato

durante il 2007 ammonta a 3.241 milioni di euro. Il maggior contributo è arrivato dai TV

LCD, come accade sin dal 2005, che hanno un peso del 39,1% a valore e sono

cresciuti del 19,8%. Oltre al dato positivo dei TV LCD, si ha anche l’exploit dei lettori

portatili MPEG4 che aumentano di fatturato del 168%, raggiungendo una quota a

valore del 3,3%. Il comparto dei Plasma è cresciuto in volume facendo registrare un

trend del +25,1% ma una diminuzione del suo fatturato annuo del 17,7%.

L’audio statico conferma in chiusura d’anno la situazione, da tempo evidente, di

generale contrazione delle vendite, concludendo a 1,5 milioni di pezzi, che

corrispondono a un calo del –26,5%, per un mercato a valore di 236 milioni di euro, in

flessione del –12,1%.

L’intero mercato Car nel 2007, composto da Car audio, Car Vision, Car Speakers,

Car navigation fisso e portatile, si conferma il secondo mercato dell’elettronica di

consumo per fatturato sviluppato ma soprattutto uno dei soli due che crescono, con un

trend del +13%. In realtà questo sviluppo è dovuto esclusivamente all’ottima

performance dei navigatori portatili, che si confermano uno dei prodotti di maggior

38

successo, riuscendo a contribuire da solo alla crescita a valore dell’elettronica di

consumo con il +2,3%, mentre nel comparto Car sviluppano un +43% di fatturato.

Nonostante questi dati di sostanziale crescita tecnologica, comunque, continua a

persistere il divario tecnologico tra l’Italia e il resto d’Europa e del mondo: nel nostro

Paese, difatti, la dinamica dell'ICT è risultata ancora una volta al di sotto di quella

rilevata alla scala mondiale (+5,5%), nonostante l'interesse diffuso all'information and

communication technology. Dal 2005 al 2007, la penetrazione del cellulare nelle

famiglie italiane è infatti passata dall'80,8 all' 85,5%, quella del PC dal 43,9% al 47,8%

e quella di Internet dal 34,5% al 38,8% (fonte Assinform - NetConsulting).

Ad esempio, l'Internet banking è utilizzato solo dal 12% della popolazione italiana

rispetto al 25% della media europea, l'e-commerce sviluppa appena il 2% del totale

delle vendite al dettaglio, mentre la media europea viaggia a quota 11%. L’Italia

lamenta ancora la più alta percentuale di popolazione, pari al 56%, che non usa

Internet, mentre la media europea è del 40%. In compenso, però, il nostro Paese è

secondo in Europa quanto a quota di popolazione con elevate capacità di utilizzare

Internet: il 9%, subito sotto la Francia (12%) e sopra la media europea (8%).

39

Le connessioni Internet attive attualmente nel nostro Paese sono circa 2.780 milioni,

con una crescita del +8,2% rispetto all’anno passato. Quanto a quest’ultimo dato, è

però positivo registrare l'incremento del numero di accessi ad alta velocità, risultati a

fine 2007 pari a 10,1 milioni (18,7%), 9,8 dei quali in modalità xDSL (+19,2%) e di circa

340.000 su fibra ottica (+5,6%).

40

2. TELEFONIA MOBILE E FISSA

2.1 Tipologia di prodotti in uso

La nascita della telefonia cellulare risale al 1973 quando, nei laboratori di ricerca

dell’americana Motorola, venne effettuata la prima chiamata da un telefono mobile. Da

allora, è stato un continuo susseguirsi di evoluzioni e innovazioni tecnologiche che

hanno fatto compiere alla telefonia mobile dei veri e propri passi da gigante, passando

dalla prima alla terza generazione in soli 15 anni.

I primi standard a conoscere la diffusione di massa sono stati il TACS (Total Access

Communication Systems) e l’ETACS (Enhanced TACS) che permettevano

unicamente di inviare e ricevere chiamate voce; a questi è presto subentrato il sistema

GSM (Global System for Mobile Communications) che, alla tradizionale funzionalità

voce, ha aggiunto la possibilità di trasmettere brevi messaggi di testo, i diffusissimi

SMS (arricchiti in futuro anche da immagini, contenuti audio e contenuti video, fino ad

assumere l’aspetto dei moderni MMS). Dal GSM si è poi passati al GPRS (General

Pocket Radio System) che ha aumentato notevolmente la velocità di trasmissione dei

dati, preparando la strada all’arrivo del sistema EDGE (Enhanced Data rates for GSM

Evolution), prima, e della videotelefonia mobile UMTS (Universal Mobile Telephone

System) poi. Da un’unica frequenza utilizzata (quella degli 800 MHz), inoltre, si è

passati a ben quattro diverse frequenze (850, 900, 1.800 e 1.900 MHz) a disposizione

degli utenti.

Il sistema TACS si basava su una tecnologia di tipo analogico in cui le trasmissioni in

ogni cella radio avvenivano a frequenze diverse, in modo da permettere la coesistenza

delle contigue; la sua successiva evoluzione, il sistema ETACS, aveva introdotto un

considerevole aumento delle frequenze disponibili, rendendo ancora più efficiente e

performante il sistema.

Nel sistema GSM, invece, sia il canale di identificazione sia

quello di conservazione sono totalmente digitali,

permettendo quindi un maggior scambio di dati tra diversi

utenti e la possibilità di utilizzare nuovi servizi. Per la

comunicazione fra stazioni base il GSM utilizza la tecnologia TDMA (Time Division

Multiple Access), basata su una coppia di canali radio in duplex, che consente a più

utenti di condividere lo steso set di frequenze cambiando automaticamente la

41

frequenza di trasmissione fino a 1.600 volte al secondo. Le reti GSM lavorano in diversi

range di frequenza, e sono composte da un insieme di celle radio di varie dimensioni.

Uno dei componenti più importanti e distintivi del sistema GSM è la cosiddetta SIM

(Subscriber Identity Module), una smart card su cui vengono memorizzati i dati

descrittivi dell’utente, compreso il numero di telefono, e che ha la funzione principale di

fornire l’autenticazione e l’autorizzazione all’utilizzo della rete.

Il sistema GPRS è stato progettato per realizzare il trasferimento di dati a media

velocità, utilizzando i canali TDMA della rete GSM. Più in particolare, il GPRS ha

permesso di trasferire dati in pacchetti, rendendo più veloci e più economiche le

comunicazioni tra diversi utenti. L’EDGE, un’ulteriore evoluzione del GPRS, ha

permesso addirittura di raggiungere velocità ancora maggiori, fra i 20 e i 200 kbps.

L’UMTS è infine la tecnologia indicata come terza generazione, in grado di permettere

le videocomunicazione fra gli utenti di telefonia mobile. L’UMTS, basato sullo standard

W-CDMA, utilizza attualmente i protocolli HSPDA (High Speed Downlink Packet

Access) e HSUPDA (High Speed Uplink Packet Access) con una velocità massima

teorica di scaricamento dati in download di 14,4 Mbps e in upload di 7,2 Mbps.

Fondamentalmente l’UMTS utilizza una coppia di canali a 5 MHz di larghezza di

banda, uno nel range 1.900 MHz per la trasmissione e uno nel range 2.100 MHz per la

ricezione.

Un’ultimissima evoluzione della telefonia cellulare, nata

proprio sulla base delle possibilità, sia tecnologiche sia

commerciali, offerte dalla terza generazione, è il DVB-H

(Digital Video Broadcasting Handheald), nuova

piattaforma tecnologica che permette la radiodiffusione

terrestre sui terminali portatili. Per mezzo di questa

nuova tecnologia è possibile infatti ricevere direttamente sul proprio telefonino i canali

televisivi digitali, sia gratuiti sia pay per view e on demand.

Il DECT (Digital Enhanced Cordless Telecommunication) è un sistema di telefonia

sviluppato sulla base del GSM. Al contrario di quest’ultimo, il DECT non è però un

sistema di telefonia mobile ma un sistema di telefonia cordless, cioè un telefono

destinato a un uso domestico o aziendale che si muove all'interno di un'area

geografica definita e/o limitata da una copertura radio offerta da una o più antenne. Se

la copertura radio lo consente è ammessa anche la migrazione da un'area a un'altra.

42

Il sistema DECT GAP definisce invece un profilo di interoperabilità del DECT. Lo scopo

è quello di fare in modo che due differenti prodotti di due differenti costruttori che

seguano non solo lo standard DECT, ma anche il profilo GAP, siano in grado di

interoperare tra loro.

Wi-Fi è il nome commerciale del servizio di accesso e

trasmissione dati a banda larga senza fili che si basa

sulla tecnologia denominata IEEE 802.11b. La

tecnologia permette di realizzare Wireless LAN e

accesso a Internet con una capacità trasmissiva di 11 Mbps. Il protocollo IEEE 802.11b

consente inoltre di poter variare la velocità di trasmissione dati per adattarsi al canale,

la possibilità di scelta automatica della banda di trasmissione meno occupata, la

possibilità di scelta automatica dell'access point in funzione della potenza del segnale

e del traffico di rete, basse potenze di emissione nell'ordine di alcune decine di mWatt

e una copertura con un range dai 30 - 50 metri ai 70 - 100 metri e anche oltre.

Il Bluetooth, invece, è uno standard di comunicazione

internazionale, fissato da un folto gruppo di importanti aziende dei

settori information and communication technology e

telecomunicazioni allo scopo di mettere a punto una nuova

tecnologia che potesse soppiantasse nel tempo gli infrarossi. Più

in particolare, il Bluetooth è rappresentato da un sistema per il trasporto di dati e voce

a corto raggio, ossia in grado di poter connettere tra loro in modalità senza fili

periferiche fino a un massimo di 10 metri di distanza (fino a 100 metri con il protocollo

1.2). La frequenza utilizzata da questa tecnologia di trasmissione è individuabile

attorno al valore di 2,4 GHz, mentre la velocità di comunicazione supportata è

prossima a 1 Mbps. Il suo chip utilizza fino a tre canali voce simultaneamente, oppure

un singolo canale voce, in contemporanea a un altro impiegato con la trasmissione

dati. I canali dati, invece, supportano una velocità di 723,2 Kbps in asimmetrico, oppure

433,9 Kbps in simmetrico.

2.2 Problematiche legate all’utilizzo dei prodotti e pratiche

potenzialmente pericolose per la salute dell’individuo

Numerose sono le problematiche legate all’utilizzo dei moderni telefoni cellulari, quasi

tutte legate all’emissione di radiazioni non ionizzanti in radiofrequenza (comprese tra i

900 MHz e i 2,4 GHz) e alla conseguente creazione di campi elettromagnetici. Per

43

comunicare con la rete i telefoni cellulari emettono difatti bassi livelli di onde radio,

meglio conosciute come frequenze radio o energia RF.

L’unità di misura utilizzata per la quantità di energia RF assorbita dal corpo umano

durante l’uso di telefoni cellulari e cordless è il SAR - Specific Absorption Rate, il

Tasso di assorbimento specifico. Il SAR si misura in Watt di energia irradiata

assorbita dal corpo umano (W/kg) e viene determinato, in condizioni di laboratorio, al

livello di potenza più elevato certificato dai produttori di telefoni cellulari. Più in

particolare, si tratta di una soglia di assorbimento misurata termicamente per ciascun

grammo di tessuto cerebrale e misurato a livello dell’orecchio. Alcuni telefoni analogici

e tutti i telefoni digitali possono emettere più di 2 Watt per chilogrammo nel tessuto

della testa; in genere il valore di SAR dei più moderni telefoni cellulari è compreso tra

0,3 e 1,6 W/kg.

Come già ampiamente trattato, la presenza di un campo elettromagnetico induce

l’insorgenza, nell’ambiente circostante e negli organismi viventi a stretto contatto, di

correnti elettriche e rialzo termico. Oltre a interferire, mediante meccanismi non di tipo

termico, con funzioni cellulari e sistemiche, dando luogo a danni sia a breve che a

lungo termine.

La nota informativa n. 5/2001 della Direzione generale degli Studi del Parlamento

europeo (STOA - Scientific and Technological Options Assesment) afferma che

l’esposizione continuata ai campi elettromagnetici potrebbe provocare danni gravi alla

salute. I rischi sono numerosi: dalle alterazioni al metabolismo alle conseguenze

prodotte dai radicali liberi che possono provocare danneggiamento delle proteine e

delle membrane cellulari, modificazione dei geni e del DNA, riduzione degli ormoni

44

antiossidanti, alterazione dei processi enzimatici e biochimici essenziali, alterazione dei

livelli di calcio presenti nel sistema nervoso centrale, del cervello e del cuore.

Più in particolare, i principali effetti sulla salute riscontrati a seguito all’esposizione a

campi elettromagnetici sono ascrivibili soprattutto all’assorbimento di energia in alcune

parti del corpo, e più precisamente:

a. Frequenze comprese tra 100 kHz e 20 MHz: l’energia assorbita dal tronco

diminuisce rapidamente col diminuire della frequenza, mentre può verificare un

assorbimento significativo a carico del collo e degli arti inferiori;

b. Frequenze comprese tra 20 MHz e 300 MHz: si può registrare un

assorbimento relativamente elevato in tutto il corpo, con valori addirittura

superiori se si considerano le risonanze corporee parziali;

c. Frequenze comprese tra 300 MHz e alcuni GHz: si verifica un assorbimento

significativo e non uniforme a livello locale;

d. Frequenze al di sopra di circa 10 GHz: l’energia viene assorbita soprattutto

dagli strati superficiali dell’organismo.

I sintomi più frequentemente riferiti dagli utenti di telefoni cellulari sono cefalee senza

causa apparente, problemi alla vista e all’udito, sensazioni di nausea o capogiri,

pizzicori alla pelle e intorpidimento o arrossamento del viso e della nuca.

Non è ancora accertata scientificamente la stretta correlazione tra utilizzo del telefono

cellulare e insorgenza di neoplasie di tipo tumorale. Molti sono stati infatti gli studi

scientifici che non hanno fornito risultati certi che possano far pensare a un’eventuale

patologia riconducibile ai campi di radiofrequenza che si propagano dai telefonini in

funzione. Di contro, però, è forse ancora prematuro azzardare una conferma di totale

innocuità degli apparecchi, in special modo se si considera l’evidente contraddittorietà

emersa dalle varie ricerche scientifiche condotte negli ultimi anni.

Ad esempio, una ricerca condotta dal professor Lennart Hardell dell’Università di

Orebro e dal professor Kjell Hansson Mild dell’Umea University e pubblicata

nell’ottobre del 2007 sulla rivista Occupational Environmental Medicine, ha stabilito che

le persone che usano il cellulare da un decennio o più, anche solo per un’ora al giorno,

hanno il doppio di possibilità di sviluppare un tumore nel lato del cervello dove di solito

appoggiano il dispositivo. I due ricercatori svedesi hanno riunito i risultati di 11

precedenti studi svolti in Svezia, Danimarca, Finlandia, Giappone, Germania, Stati Uniti

e Regno Unito, che ribadivano l’aumento del rischio di sviluppare il cancro; cinque dei

sei studi sui glomi, tumori delle cellule che proteggono quelle nervose, avevano

45

confermato il potenziale pericolo, mentre quattro relazioni su cinque avevano rilevato la

presenza di neuromi acustici, forme tumorali benigne ma spesso causa di invalidità

come la sordità. I due svedesi hanno così raccolto i risultati per analizzarli nel loro

complesso e hanno perciò stabilito che le persone che usano il telefonino da oltre un

decennio hanno il 20% in più di possibilità di contrarre una patologia come il neuroma

acustico e il 30% in più di sviluppare un glioma maligno.

Poco prima che lo studio svedese venisse pubblicato, una ricerca inglese sulla

sicurezza dei dispositivi, promossa dalla Mobile Telecommunication and Health

Research Programme, condotta nell’arco di un periodo di sei anni su un campione

molto ampio era arrivata invece alla conclusione che i cellulari non potevano in alcun

caso essere associati a danni biologici. Alle stesse conclusioni era anche giunto un

altro studio del Medical British Journal condotto tra il 2000 e il 2004 su 966 persone

con tumore e su 1.716 volontari sani.

Altro studio degno di interesse è quello pubblicato dai ricercatori dell’Università

dell’Essex nell’estate del 2007 e condotto su 158 volontari – di cui 44 di questi

accusavano, ancora prima di iniziare l’esperimento, emicrania, stanchezza, tensione e

ansia - che per tre anni si sono sottoposti all’osservazione clinica per constatare gli

effetti delle onde emanate dalle antenne di un telefono mobile. I partecipanti ai lavori

sono stati esposti a segnali 2G e 3G, a seguito dei quali, il gruppo di volontari che

lamentava i disturbi citati in precedenza, quando era a conoscenza dell’inizio

dell’esperimento, acuiva i propri fastidi. A questo punto, si è passati a un’ulteriore fase

sperimentale, ovvero, si è tenuto all’oscuro l’intero gruppo di volontari sull’esposizione

dei segnali, col risultato, che dei 44 partecipanti che lamentavano precedentemente i

fastidi fisici, solo due riferivano di sentirli acuiti dopo l’esperimento.

I ricercatori, inoltre, hanno anche rilevato che dopo la fase di irraggiamento delle

stesse onde che si propagano dai telefonini, in nessuno dei partecipanti era comunque

seguito alcun disturbo degno di nota, come eventuale innalzamento della pressione

arteriosa, eventuali turbe, anche momentanee, del ritmo cardiaco e variazioni della

temperatura corporea.

Risultati assolutamente contrari, invece, quelli emersi dallo studio condotto dallo

scienziato americano George Carlo che, dopo tre anni di ricerche a capo dell’Health

Risk Management Group, ha rivelato che il cellulare può provocare tumori al cervello,

danneggiare le funzioni di rigenerazione del sangue e provocare danni ai bambini e

alle donne incinte. Se lo studio da un lato conferma infatti che la radiazione emessa dai

46

cellulari non è sufficiente per provocare la rottura del DNA, dall’altro dimostra che chi

usa il cellulare ha molte più possibilità di contrarre un tumore al cervello.

Un’ulteriore accusa nei confronti dei telefoni cellulari arriva anche dai ricercatori

dell’Università di Nottingham che, a seguito di vari esprimenti in vitro condotti

nell’ottobre del 1999, hanno ipotizzato l’insorgenza di danni fisici a livello della pelle.

Secondo i ricercatori inglesi, infatti, i meccanismi di difesa dell’organismo non

sarebbero in grado di porre immediatamente riparo alle cellule colpite dalle radiazioni

del telefonino, poiché non riuscirebbero a inviare proteine in tempo utile alle aree da

riparare. Il risultato sarebbe un consecutivo raggrinzimento delle strutture anatomiche

e, quindi, un precoce invecchiamento della pelle.

Altro aspetto patologico presentato da un cattivo utilizzo dei telefoni cellulari è la

cosiddetta Dipendenza da telefonino. Emblematico, a tal proposito, è quanto

accaduto a due adolescenti spagnoli di 12 e 13 anni di età lo scorso mese di giugno

che hanno dovuto ricorrere al ricovero forzato presso il Centro per la salute mentale

nell’infanzia e nell’adolescenza di Lleida, nei dintorni di Barcellona. Prima del ricovero

entrambi i ragazzini dimostravano comportamenti aggressivi e anti-sociali, ottenendo

pessimi risultati a scuola; per loro il telefonino era diventato una vera e propria

ossessione e non se ne separavano mai, neanche durante le ore notturne.

L’eccessivo uso del telefonino - così come quello del computer e dei principali mezzi di

comunicazione digitali - rientra anche in quella serie di sindromi patologiche,

identificate con il nome di Tecnostress, che colpiscono principalmente le professioni

ad alto impatto tecnologico, quelle cioè legate all’uso quotidiano di computer e telefoni

cellulari. Secondo alcuni ricercatori, la sua causa risiederebbe nella tensione psichica

causata dal continuo flusso di informazioni provenienti da questi canali e dalla

conseguente necessità di gestirle in maniera più rapida ed efficiente possibile per

molte ore al giorno, generando ripercussioni negative sulla salute dell’organismo. Da

qui il rischio di insorgenza, a lungo andare, di patologie cardiovascolari.

Non bisogna dimenticare, infine, il pericolo forse più importante legato ai telefoni

cellulari che è il loro uso improprio durante la guida che, attualmente, rappresenta una

delle primissime cause di incidenti stradali al pari del consumo di alcool.

Le medesime problematiche imputabili ai telefoni cellulari interessano anche i telefoni

fissi senza fili cordless. Il portatile genera radiazioni soltanto durante la conversazione

telefonica, mentre normalmente la stazione emette in permanenza. I valori di

radiazione di un telefono cordless sono in genere molto bassi: quelli del portatile sono

47

inferiori di circa 40 volte al valore limite raccomandato e quelli della stazione di base,

che diminuiscono rapidamente con l’aumentare della distanza, sono di circa 25 volte

inferiori al limite raccomandato a 20 cm di distanza e di 100 volte a un metro. In ogni

caso, il valore limite del tasso di assorbimento specifico raccomandato dalla ICNIRP,

l’International Commission on Non-Ionizing Radiation Protection, è di 2 W/kg.

Più in generale la base di un telefono DECT emette al massimo 250 mW ERP di

potenza e, per un’applicazione tipica in cui si utilizza un solo cordless, la potenza si

riduce a 10 mW ERP e questo avviene continuativamente, sia che sia in corso una

telefonata sia che il cordless resti appoggiato alla base, salvo alcuni modelli a basso

consumo. La potenza utilizzata è quindi di molto inferiore rispetto a un’antenna di

telefonia cellulare, date le diverse caratteristiche di copertura del servizio. In caso di sei

conversazioni contemporanee, sono stati misurate intensità di campo superiori a 2 V/m

a 50 cm di distanza da una base mentre una base in standby genera un campo di 0,5

V/m circa, sempre a 50 cm dalla base. A titolo di raffronto, un telefono cellulare GSM

ha generalmente una potenza di trasmissione analoga (circa 250 mW): l'effetto di una

base DECT è quindi assimilabile a un terminale GSM continuativamente in

conversazione.

Per il momento, comunque, non si conosce ancora bene nel dettaglio se i campi

elettromagnetici generati dalla telefonia DECT costituiscano o meno un rischio per la

salute ma, ad esempio, lo studio svedese dell’ottobre del 2007 citato in precedenza ha

registrato un aumento nell’insorgenza del neuroma acustico e del glioma maligno.

Per quanto riguarda invece i babyphone, i ricetrasmettitori utilizzati normalmente dalle

mamme per la sorveglianza dei neonati, non sembra allo stato attuale che le radiazioni

emesse possano in qualche modo costituire un rischio per la salute.

Le stesse considerazioni valgono anche per le reti WLAN. L’intensità di radiazione

degli apparecchi dipende dalla potenza di trasmissione e dal flusso dei dati. Le

radiazioni raggiungono il livello più elevato in caso di flusso di dati massimo e

diminuiscono rapidamente con la distanza del trasmettitore. Anche in caso di potenza

di trasmissione e flusso di dati massimi le radiazioni a una distanza di 20 cm sono 10

volte più deboli del valore limite e a una distanza di 1 metro sono 40 volte più deboli.

Per quanto riguarda i collegamenti Bluetooth, lo standard utilizzato per trasmettere

voce e dati su brevi distanze mediante radiazioni ad alta frequenza, l’emissione di

radiazioni è fondamentalmente legata alla classe di potenza di trasmissione. Le

radiazioni degli apparecchi Bluetooth delle classi di potenza 2 e 3 – in cui rientra la

48

maggior parte delle applicazioni utilizzate vicino al corpo - sono deboli e limitate al

raggio locale. I trasmettitori Bluetooth della classe di potenza 1, invece, possono

provocare carichi di radiazioni simili a quelli dei cellulari, se sono utilizzati nelle

immediate vicinanze del corpo. I carichi di radiazioni generati dagli apparecchi

Bluetooth di tutte le classi risultano quindi inferiori ai valori limite raccomandati a livello

internazionale. Secondo lo stato attuale delle conoscenze, è possibile per cui affermare

che queste radiazioni non rappresentano attualmente un pericolo diretto per la salute.

3. TELEVISORI E APPARECCHI AUDIO VIDEO

3.1 Principali tecnologie in uso

Sono numerose le tecnologie utilizzate nel mondo video che vanno dalla tradizionale

tecnica analogica a tubo catodico alle nuove tecnologie digitali al Plasma e a cristalli

liquidi, passando da quelle DLP e LcOS utilizzate nei più moderni proiettori e

retroproiettori.

La tecnologia CRT (Cathode Ray Tube)

si basa sull’utilizzo di un tubo catodico al

cui interno è stato applicato il vuoto

spinto e la cui superficie interna risulta

ricoperta da fosfori. Al suo interno viene

fatto passare un fascio di elettroni,

guidato per mezzo di una elevata

differenza di potenziale elettrico applicata tra catodo e anodo, per mezzo di precisi

campi elettrici o magnetici. Al passaggio di questo fascio di elettroni, i fosfori vengono

eccitati e realizzano sullo schermo televisivo i singoli punti dell'immagine. Più in

particolare, nei televisori e nei monitor la superficie risulta scomposta in righe

successive e l'immagine viene creata modificando l'intensità del fascio di elettroni

secondo l'andamento del segnale video. La scansione ottenuta è frutto della

deviazione prodotta da un campo magnetico variabile generato da elettromagneti

presenti sul collo del tubo stesso.

I videoproiettori CRT risultano formati da tre tubi catodici indipendenti, dedicato

ciascuno a uno dei tre colori primari rosso, verde e blu. Ogni fascio di elettroni viene

fatto passare nel tubo fino alla griglia di scansione che definisce i punti sullo schermo,

49

e poi fatto convergere attraverso un sofisticato sistema di lenti. L’immagine finale

risulta quindi composta dalla sovrapposizione delle tre differenti immagini monocolore.

La tecnologia LCD (Liquid Crystal Display),

utilizzata sia nei Flat TV sia nei videoproiettori,

è basata principalmente sulle proprietà dei

cristalli liquidi a essere attraversati dalla luce

proveniente da uno speciale schermo

polarizzatore o, più nello specifico, sulle

varianti di polarizzazione cromatica causate

dal loro movimento all’interno di microcelle

dotate di piccoli elettrodi. Variando il loro orientamento spaziale, infatti, i cristalli liquidi

sono in grado di variare il fascio di luce proveniente da una lampada alogena e offrire

così numerose varianti di intensità luminosa. Ogni microcella (o pixel) viene suddivisa

in tre differenti sotto-celle (o subpixel) corrispondenti ai tre colori primari, di cui una

con filtro rosso, una con filtro verde e una con filtro blu: variando la luminosità di ogni

singola sezione, il pixel può così dar vita a un diverso colore dello spettro offrendo

un’ampia varietà di colori. Nei videoproiettori, inoltre, la luce viene scomposta in tre

fasci dei rispettivi colori primari rosso, blu e verde, per mezzo di tre appositi specchi

dicroici.

Gli schermi LCD vengono generalmente classificati nelle due differenti categorie

Transmissivi e Riflettivi, a seconda che la luce venga o meno prodotta da una fonte

artificiale posta nella parte posteriore dello schermo: i primi utilizzano la luce

proveniente da uno dei due lati, mentre i secondi utilizzano la luce ambientale riflessa

per mezzo di un apposito specchio. Esiste poi un’ulteriore tecnica, denominata

Transflettiva, che si basa essenzialmente sull’utilizzo di uno specchio posto dietro al

display, capace sia di riflettere la luce frontale, sia di far passare la luce proveniente da

una fonte luminosa posta nella parte posteriore.

Il funzionamento dei televisori al

Plasma si basa sulla ionizzazione

elettrica di un gas nobile come il

neon o lo xeno che viene trasformato

in plasma all’interno di piccole celle

contenute tra due sottilissimi pannelli

di vetro; il plasma prodotto è a sua

50

volta capace di interagire con uno strato di fosfori presente sulla parte apicale delle

stesse celle che, una volta eccitati, sono in grado di produrre luce. Dalle varie

combinazioni di luce emesse da tutti i singoli subpixel derivano le milioni variazioni di

colore tipiche del Plasma.

La tecnologia DLP (Digital Light Processing) è

stata messa a punto da Texas Instruments e

sfrutta la riflessione di una fonte luminosa su

milioni di microscopici specchi, capaci di

muoversi in modo indipendente l’uno dall’altro,

disposti all’interno di una matrice semiconduttrice

disposta su un chip denominato DMD (Digital

Micromirror Device). Secondo questo sistema,

a seconda che i singoli specchi riflettano o devino

il fascio di luce, verrà ottenuto un punto buio o un

punto luminoso. Il colore, invece, viene ottenuto

utilizzando un apposito disco rotante colorato in

verde, rosso e blu che permette di modulare le differenti sfumature provenienti dai chip

DMD. La sovrapposizione delle differenti immagini colorate a un’opportuna velocità fa

in modo che si formi l’immagine finale a colori.

La tecnologia LCoS (Liquid Crystal on Silicon) prevede un funzionamento assai

simile a quella LCD ma, al contrario di quest’ultima, utilizza chip in silicio. Inoltre, il suo

funzionamento si basa sulla riflessione della luce sul pannello anziché sul suo

passaggio attraverso il pannello stesso; anziché essere collocati all’interno di un

elemento piatto in vetro, infatti, i pannelli risultano inseriti su un substrato a specchio. In

un certo senso, questa tecnologia può essere considerata un ibrido tra quella LCD e

quella DLP.

Il maggior vantaggio di questa tecnologia risulta essere quello che, non dovendo

attraversare la superficie del display, la luce subisce una minor attenuazione luminosa.

Inoltre, essendo l’area di riflessione assai maggiore rispetto all’area di trasmissione

utilizzata nelle altre tecnologie, l’immagine presenta immagini uniformi, incisive,

costanza cromatica senza discontinuità e quindi una minor presenza della retinatura

del pannello e totale assenza dell’effetto arcobaleno presentato dalla tecnologia DLP.

Grazie al circuito di pilotaggio situato dietro il pannello è infatti possibile dar vita a pixel

estremamente piccoli e poco distanziati rispetto a quelli vicini.

51

Due varianti della tecnologia LCoS sono la tecnologia D-ILA (Digital Direct Drive –

Image Light Amplifier), sviluppata da JVC, e la tecnologia SXRD (Silicon X-tal

Reflective Display), sviluppata da Sony.

Nei dispositivi OLED (Organic Light

Emitting Diode) l’immagine visualizzata

sullo schermo è il prodotto della

elettroluminescenza offerta da diodi di

materiale organico e inorganico. Più nello

specifico, la tecnologia OLED utilizza

particolari diodi costituiti prevalentemente da

polimeri di carbonio che, per mezzo

dell’elaborazione di piccoli dispositivi, è in

grado di assumere tutti i colori dello spettro. Un display OLED è composto da più strati

sovrapposti: uno strato trasparente protettivo, uno strato conduttivo che funge da

anodo e uno che funge da catodo. Tra quest’ultimi vengono deposti tre strati organici,

di cui uno per l'iniezione delle lacune, uno per il trasporto degli elettroni e uno in cui

sono presenti i tre materiali elettroluminescenti di colore rosso, verde e blu, ognuno dei

quali formato dai tre microdisplay colorati.

La tecnologia SED (Surface-conduction Electron-emitter Display), sviluppata da

Canon e Toshiba, è basata su una tecnica assai simile a quella CRT, in cui ogni

singolo punto luminoso sullo schermo è costituito da un microscopico tubo catodico

con fosfori luminosi che vengono accesi da un flusso ordinato di elettroni.

In questa tecnica gli elettroni sono emessi da una piccolissima fessura posta fra due

poli elettrici e, attraverso il fenomeno dello scattering, ossia la collisione con altre

particelle, riescono a passare da una parte all’altra del dispositivo. Urtando contro la

parete di fosfori, infine, gli elettroni riescono a generare luce. In pratica, a differenza dei

dispositivi CRT, gli emettitori di elettroni non sono rappresentati da un unico tubo

catodico ma da un certo numero di pixel equamente distribuiti sul display.

Per HDTV (High Definition Television) si intende invece la nuova tecnologia ad alta

definizione che permette un valore di risoluzione circa sei volte superiore rispetto alla

tradizionale televisione analogica; il vecchio sistema PAL, difatti, presenta un valore di

risoluzione massima di 720 x 480 pixel, per un totale di circa 337.000 pixel, mentre il

nuovo sistema HD può arrivare a superare i 2 milioni di pixel. Più in particolare, il

segnale in alta definizione prevede due differenti tipologie di risoluzione video: 720p

52

(progressivo) e 1080i (interlacciato) che assicurano entrambi una visualizzazione di

ben 60 fotogrammi al secondo. Nello specifico, nel 720 progressivo l’aggiornamento

dell’immagine avviene a frame pieni, ossia ogni secondo vengono visualizzati 60 frame

contemporaneamente, mentre nel caso del 1080 interlacciato vengono visualizzati 30

frame per le linee dispari e, successivamente, altri 30 frame per quelle orizzontali.

Più semplicemente, lo standard HDTV deriva dall’adattamento del formato 4:3 (720

punti per 576 linee) al formato 16:9 raddoppiando la risoluzione, ossia il numero di

punti (da cui 720 x 3/4 x 16/9 = 1920 punti per ogni linea e 1920 x 9/16 = 1080 linee).

Le due tecnologie audio Dolby Digital e Digital Theater Systems (DTS) si basano

sulle stesse tecniche utilizzate nelle moderne sale cinematografiche e sono quindi in

grado di portare il medesimo effetto anche tra le mura domestiche.

Più in particolare, si tratta di due sistemi di codifica audio multicanale che rendono

possibile la distribuzione del suono in più direzioni e, di conseguenza, sono in grado di

ricreare un ambiente sonoro ancora più coinvolgente e realistico: con queste due

tecniche, infatti, l’ascoltatore si trova a essere investito simultaneamente da più raggi

sonori che lo avvolgono a 360° e lo pongono idealmente al centro della scena

visualizzata sullo schermo.

Il Dolby Digital è un sistema di riproduzione audio

che utilizza l’algoritmo di compressione AC3 e che

può utilizzare da un minimo di uno a un massimo di

cinque canali digitali a banda piena (20 - 20.000 Hz),

più un sesto canale riservato alle sole frequenze

basse. Generalmente si compone di un sistema 5.1

formato da un canale anteriore destro, un anteriore

sinistro, un centrale, un posteriore destro e un

posteriore sinistro. I primi due corrispondono ai due

tradizionali canali stereo e sono di regola posizionati alle due estremità dello schermo,

mentre quello centrale viene posto in posizione in mezzo ai due canali anteriori. I due

posteriori, invece, vengono collocati alle spalle dell’ascoltatore. Il canale dei bassi,

infine, non prevede una precisa collocazione a causa dell’inferiore direttività delle

basse frequenze.

Anche il Digital Theater Systems (utilizzato nella sua variante non professionale DTS

CAC) è rappresentato da un sistema di codifica audio multicanale particolarmente

diffuso sui DVD-Video, DVD-Audio e CD e sui nuovi HD-DVD e Blu-ray ad alta

53

definizione. Grazie a un minor rapporto di compressione rispetto al Dolby Digital,

questo standard è capace garantire una resa audio di qualità nettamente superiore,

soprattutto di fronte a contenuti con dettagli audio molto complessi.

Entrambe le tecnologie prevedono una frequenza di campionamento a 48.000 Hz e

vengono realizzate attraverso l’utilizzo di una codifica di tipo lossy, mediante la perdita

di informazioni che, però, risulta decisamente inferiore nel DTS. Inoltre, mentre il Dolby

Digital prevede una risoluzione massima a 16 bit, il DTS ne prevede una a 24 bit.

La più recente evoluzione del Dolby Digital è il Dolby Digital Plus che viene utilizzato

soprattutto nei supporti ad alta definizione e nelle trasmissioni HDTV e che prevede

l’aumento del numero dei canali a 7.1 e una maggiore efficienza di codifica. Stesso

discorso vale anche per il DTS che si vedrà ben presto sostituito dal DTS - HD Master

Audio, un nuovo standard basato su una codifica senza alcuna perdita di informazioni

e in grado di offrire fino a otto differenti canali audio.

I file MP3, ovvero MPEG2-Layer3 (Motion Picture Expert Group-1/2 Audio Layer 3),

sono costituiti da formati audio digitale compressi: si tratta di file che occupano infatti

solamente il 10% rispetto ai tradizionali file in formato CD audio. Il rapporto di

compressione adottato in questi tipi di algoritmi si aggira attorno ai 12.1.

I lettori MP3 sono dei riproduttori di musica digitale in grado di riprodurre musica

codificata nello standard MP3. Questa tipologia di lettori si divide in tre grandi famiglie.

La prima famiglia è formata dai lettori basati su hard disk, la seconda è basata su

memorie flash, mentre la terza è rappresentata dai lettori di CD contenenti file in

formato MP3.

3.2 Problemi legati all’utilizzo frequente dei prodotti

Le maggiori problematiche legate all’utilizzo dei moderni apparecchi televisivi

dipendono dalla corretta distanza adottata dall’utente dallo schermo e, quindi,

dall’eventuale esposizione a campi elettromagnetici e dalla modalità di visione delle

immagini.

Il televisore è concepito infatti per essere guardato a una certa distanza, se ci si

avvicina troppo l’immagine si sgrana e appaiono i punti luminosi che la compongono.

Se tuttavia lo schermo è piccolo e la distanza è breve si induce un forte affaticamento

visivo. Bisogna infatti tenere in conto il limite dopo il quale si cominciano ad accusare

problemi a distinguere i dettagli più fini: un occhio al massimo della sua capacità, ha

54

una sua precisa risoluzione (variabile da soggetto a soggetto) e può risolvere dettagli

non più piccoli di 1/60 di grado d’arco.

L’apparecchio ideale dovrebbe essere guardato da una distanza non inferiore ai 2,5 –

3 metri. Se lo schermo è superiore invece ai 20 - 21 pollici, la distanza va sicuramente

aumentata.

Tempi molto prolungati dinanzi allo schermo, inoltre, possono creare problemi di

adattamento con difficoltà a un ritorno alla visione normale.

In linea generale, la distanza da tenere per una corretta visione è diretta conseguenza

di molti fattori, in continua evoluzione. Dal punto di vista di vista della sicurezza, il

principale parametro da tenere in considerazione per uno schermo tradizionale CRT è

l’emissione di onde elettromagnetiche causata dal tubo catodico che potrebbe causare

problemi alla vista se troppo vicino allo schermo. A tal proposito, i principali enti di

controllo e certificazione consigliano di posizionarsi a una distanza che varia da 5 a 7

volte la base dello schermo. In base a queste indicazioni, quindi, nel caso di un

televisore CRT da 32 pollici bisognerebbe posizionarsi ad almeno 3,5 metri di distanza.

I rischi diminuiscono drasticamente quando si prendono in considerazione uno

schermo piatto o un videoproiettore. Gli schermi piatti, che siano LCD o al Plasma,

hanno emissioni molto ridotte e quindi nuocciono alla salute molto meno che non i

televisori a tubo catodico; con uno schermo piatto ci si può avvicinare fino a

posizionarsi a una distanza tale da ottenere un angolo di visione di circa 30°.

È bene comunque ricordare che i campi magnetici sono sempre più elevati nella parte

posteriore e laterale dell’apparecchio televisivo in funzione.

L’SMPTE, Society of Motion Picture and Television Engineers, raccomanda un angolo

minimo di visione di 30° per l’home theatre; valore preso in considerazione anche dalle

stesse aziende costruttrici di videoproiettori per il calcolo della distanza/dimensione

degli schermi. Allo stesso modo la nota casa di produzione americana Lucas Film ha

stabilito un valore necessario per ottenere la certificazione per il cinema: la visuale

ottimale deve essere di 36° e comunque non inferiore ai 26°.

In ogni caso, la regola attualmente più adottata per determinare la corretta distanza da

un apparecchio televisivo a schermo piatto in formato 16:9, stabilisce di moltiplicare per

3 - 3,5 volte l’altezza dello schermo. In pratica, per ottenere la giusta distanza in

centimetri, è preferibile moltiplicare per 3,75 la diagonale dello schermo espressa in

pollici. Quindi, nel caso ad esempio dei polliciaggi attualmente più utilizzati:

- 37” → 37 x 3,75 = 1,4 metri circa

55

- 42” → 42 x 3,75 = 1,6 metri circa

- 50” → 50 x 3,75 = 1,8 metri circa

Nel caso dei videoproiettori, invece, viene applicata la regola dei 30° come angolo di

visuale preferito. Il valore è valido per un videoproiettore con risoluzione di 1280 x 720

pixel, luminosità di 700 ANSI Lumen e uno schermo di guadagno di 1.35.

Nel caso dei bambini, una minaccia reale comprovata da una ricerca condotta da

neurologi italiani e pubblicata nel marzo del 2000 sulla rivista Nature Neuroscience, è

l’epilessia fotosensibile, una forma di epilessia stimolata dall’esposizione prolungata

a monitor e immagini luminose che colpisce quasi un bambino su 100. I sintomi più

tipici sono: fissità dello sguardo, irrigidimento di un arto, deviazione del capo,

allucinazioni, svenimenti improvvisi e convulsioni; il disturbo può rimanere anche

silente per anni, sino a quando le stimolazioni visive non raggiungono i neuroni dei lobi

occipitali, che nei soggetti predisposti alla malattia non funzionano in modo del tutto

corretto.

56

Un altro problema che riguarda i televisori con tecnologia a tubo catodico è il rischio di

implosione, un fenomeno opposto all'esplosione il cui effetto finale è una

concentrazione in un piccolo spazio di materia ed energia. In altri termini, per

implosione si intende un collasso verso l'interno e, nel caso dei televisori CRT, è

dovuta alla forza attrattiva causata dalla differenza tra la pressione atmosferica e quella

del vuoto presente all’interno del tubo catodico. In caso di rotture accidentali o di piccoli

danni alla struttura del vetro di copertura, infatti, le parti più esterne al tubo vengono

come risucchiate all’interno del tubo stesso. In genere, i danni provocati dall’implosione

di un tubo catodico nell’ambiente circostante sono di lieve entità, anche se occorre

tener conto dell’infiammabilità e dell’elevata tossicità per l’organismo umano dei cristalli

di fosforo presenti all’interno del tubo stesso.

3.3 Danni da rumore

Numerose possono essere i dispositivi audio capaci di generare pressioni sonore

potenzialmente dannose per l’organismo umano, soprattutto se particolarmente vicini

all’orecchio, come nel caso di cuffie o auricolari stereo.

Ad esempio, la musica ascoltata con la cuffia a 95 dBA può essere tollerata dalle

orecchie per un periodo non superiore alle sei ore a settimana. Nel contempo, gli

altoparlanti andrebbero posizionati in modo che i sistemi che emettono i suoni di medie

e alte frequenze non vengano a trovarsi all'altezza delle orecchie degli ascoltatori ma

al di sopra. Si dovrebbe anche osservare sempre una sufficiente distanza dalle loro

teste.

La Royal National Institute for Deaf People, un’organizzazione britannica che si occupa

di persone affette da sordità, nel settembre 2007 ha pubblicato i dati relativi ai danni

che l’uso prolungato e ad alto volume di lettori MP3 a cuffie può causare all’udito, in

particolar modo dei ragazzi di più giovane età. Secondo questa ricerca, nel 70% dei

casi si riesce a evidenziare nei giovani una parziale perdita dell’udito; i giovani che

utilizzano questa tipologia di prodotti sono inoltre particolarmente esposti a possibili

danni acustici poiché le cuffie dei lettori digitali non possiedono una regolazione

automatica e sempre più spesso i ragazzi devono alzare il volume per coprire il rumore

dell’ambiente esterno.

Nel 2006 la Suva, una delle più importanti compagnie svizzere nel campo delle

assicurazioni obbligatorie contro gli infortuni, ha testato una serie di lettori MP3 e ha

constatato che raggiungono un livello sonoro superiore ai 100 dBA. A tal proposito, un

57

anno più tardi la stessa Suva ha deciso di accertare le abitudini d’ascolto dei più

giovani, conducendo uno studio su circa 450 studenti delle scuole medie superiori a

Zurigo, a Ftan nell’Engadina e a Payerne nel Canton Vaud. I risultati sono stati

sorprendenti: i giovani scelgono in prevalenza livelli sonori ragionevoli intorno agli 80

dB, un valore di poco inferiore a quelli riscontrati l’anno prima. La durata media di

ascolto – circa 100 minuti al giorno – è invece raddoppiata rispetto a dieci anni prima.

Soltanto il 7% degli intervistati ha affermato di usare il lettore MP3 così a lungo e a un

volume superiore agli 85 dBA. Difficilmente però i giovani sono in grado di valutare se

rientrano o meno nel gruppo a rischio, poiché il lettore MP3 non è in grado di indicare il

livello sonoro a cui viene riprodotta la musica. La visualizzazione rudimentale del

volume, con barre senza scala o con numeri da 1 a 20, non permette infatti agli utenti

dei lettori MP3 di conoscere a quale livello sonoro sono esposti.

Per un lettore MP3 conforme alle normative europee se si utilizzano gli auricolari

originali e si ascoltano brani musicali attuali, preparati in modo da raggiungere il

volume più elevato, valgono i seguenti valori indicativi:

Regolazione del volume Durata massima d’ascoltoal massimo (100%) 1 ora la settimanaa 9/10 (90%) del volume massimo indicato 3 ore la settimanaa 4/5 (80%) del volume massimo indicato 10 ore la settimanaa 3/5 (60%) del volume massimo indicato Senza limite di tempo

4 PRODOTTI INFORMATICI

4.1 Prodotti e tecnologie in uso

Un moderno personal computer non è altri che un calcolatore elettronico composto

da più componenti hardware che lavorano in sincrono tra loro. Tutti i computer risultano

infatti costituiti da una CPU, una memoria RAM di lavoro e una memoria non volatile

ROM in cui è contenuto il programma software da eseguire all’avvio del dispositivo

(sistema operativo). In genere, questi componenti si trovano fisicamente implementati

in un unico circuito rappresentato dalla scheda madre (motherboard), a cui sono

collegati altri dispositivi di elaborazione dei segnali come la scheda video e la scheda

audio.

58

I principali componenti che costituiscono un moderno personal computer desktop

possono essere riassunti mediante lo schema sotto riportato:

1) Monitor

2) Scheda madre (motherboard)

3) CPU

4) Memoria RAM

5) Schede video e audio

6) Alimentazione PC

7) Lettore / Masterizzatore CD-ROM o DVD

8) Hard Disk

9) Mouse

10) Tastiera

Al computer sono collegate una serie di periferiche esterne, che possono essere sia

di output sia di input, a seconda che siano deputate o meno a indirizzare dati e

informazioni verso l’esterno del computer o immettere dati e informazioni verso

l’interno del computer. Le periferiche attualmente più utilizzate, sono: monitor (basati

su tecnologia CRT o LCD), tastiere, lettori o masterizzatori di CD-ROM o DVD,

lettori di schede di memoria, drive floppy, stampanti, scanner, stampanti

multifunzione, mouse, webcam, microfoni, cuffie, modem, hard disk esterni e

tavolette grafiche (all’occorrenza è possibile anche collegare altri dispositivi digitali

come fotocamere, videocamere, lettori MP3 o registratori vocali, grazie soprattutto

alla facilità di connessione offerta dallo standard USB – Universal Serial Bus).

I computer si distinguono principalmente in desktop, se fissi, e notebook, se portatili.

Esistono inoltre altri tipi di computer, denominati palmari, di più piccole dimensioni che,

pur non offrendo le stesse funzionalità di un computer di tipo tradizionale, possono

assolvere a funzionalità di tipo agenda, blocco note, revisione testi e di comunicazione.

Negli ultimi anni sono stati sviluppati anche dispositivi ibridi computer palmari/telefoni

cellulari, denominati smartphone.

Il software può essere distinto in tre categorie fondamentali: Sistema operativo, che

permette il funzionamento della macchina; Software applicativo, che consente di

utilizzare la macchina per realizzare e modificare numerosi contenuti come documenti,

59

grafici, tabelle o immagini; Software di rete, che gestisce la comunicazione tra il

computer e la rete locale LAN o globale Internet.

4.2 Problemi legati all’utilizzo frequente di personal computer

La grande diffusione tra la popolazione dei moderni personal computer ha evidenziato

innumerevoli problematiche legate al cattivo o prolungato utilizzo, sia dei prodotti stessi

sia delle loro principali periferiche di input e output. Molti di questi disturbi, inoltre, sono

spesso anche causa di malattie professionali o infortuni sul lavoro (nel D.Lgs 626/94 si

raccomanda che tutte le radiazioni, a eccezione per la parte visibile dello spettro

elettromagnetico, siano ridotte a livelli trascurabili).

Notevole influenza sull’insorgenza di questo genere di disturbi, sono imputabili

all’impegno profuso e all’ambiente di lavoro, capaci di aggravare o meno l’eventuale

quadro clinico. È infatti diverso l’impegno richiesto ai dattilografi, che copiano testi o

dati numerici da supporti cartacei rispetto ai programmatori che fissano continuamente

i dati presentati sullo schermo, ai giornalisti e studenti che utilizzano alternativamente

programmi di videoscrittura e siti Internet, ai progettisti che utilizzano sistemi specifici

per disegni tecnici. Molto schematicamente, si possono per cui distinguere attività che

si caratterizzano prevalentemente come digitazione e attività che si caratterizzano

prevalentemente come dialogo.

È considerata attività di digitazione quella che richiede al soggetto la copiatura di testi e

numeri per varie ore al giorno: essa richiede una costante concentrazione e sollecita la

colonna vertebrale, i muscoli del collo, le scapole, le braccia, le mani e i vari apparati

muscolo-tendinei e nervosi a essi connessi. Il soggetto deve continuamente mettere a

fuoco e scansionare rapidamente i dati da copiare, mentre allo schermo dedica solo

sporadiche occhiate di controllo; l’impegno visivo aumenta se la lettura dei dati da

inserire è resa difficoltosa per l’errato posizionamento dei fogli da copiare rispetto alla

tastiera e al monitor, oppure per la ridotta dimensione dei caratteri da copiare.

È considerata invece attività di dialogo quella che richiede la manipolazione, la

correzione e il controllo di dati già presenti nella memoria del computer. Mentre il carico

per l’apparato muscolare rimane elevato, nell’attività del dialogo l’impegno visivo e

quello cognitivo procedono generalmente a un ritmo meno frenetico e sono costellati

da pause che diluiscono i tempi dell’operatività e lo rendono meno pressante.

Anche le caratteristiche dell’ambiente hanno un ruolo determinante; vari disturbi di chi

utilizza a lungo un computer derivano infatti da un’illuminazione inadeguata, da

60

condizioni microclimatiche carenti oppure da un’errata posizione della postazione di

lavoro che, a causa degli inopportuni riflessi luminosi presenti sullo schermo, produce

immagini di bassa qualità.

Chi rimane molte ore davanti allo schermo può accusare disturbi a carico dell’apparato

muscolo-scheletrico che si manifestano come intorpidimento, senso di pesantezza,

dolore o rigidità. Le cause di tali disturbi possono risiedere sia in posizioni inadeguate,

a causa dell’errata disposizione degli arredi, sia nelle posizioni statiche mantenute per

tempi eccessivamente prolungati. Per prevenirli è opportuno adottare alcuni

accorgimenti: utilizzare sedie con schienali regolabili per mantenere l’angolo busto-

anca a 90° - 100°; stabilizzare l’angolo al ginocchio a circa 110°; regolare il monitor

affinché il centro dello schermo sia situato più in basso rispetto agli occhi e sia

osservato dall’alto verso il basso con un’inclinazione verticale degli assi visivi di circa

20°; collocare il testo da copiare il più vicino possibile al monitor per ridurre i

cambiamenti di messa a fuoco e i movimenti della testa e degli occhi; mantenere

l’angolo del gomito a 90° - 100°; liberare lo spazio sotto la scrivania affinché i piedi

possano poggiare sopra una pedana inclinata. Per mantenere le mani in una posizione

rilassata, esistono in commercio appositi cuscinetti che consentono di appoggiare i

polsi davanti alla tastiera o al mouse.

Nell’autunno del 2006 i ricercatori del Woodend Hospital di Aberdeen (Scozia) hanno

però dimostrato che una posizione in cui il tronco e il femore sono angolati di 135°

sarebbe la posizione biomeccanica più adatta per sedersi, al contrario della posizione

che forma un angolo di 90° tra coscia e busto. Lo studio scozzese ha coinvolto 22

volontari senza problemi di mal di schiena, né precedenti chirurgici sottoponendoli a

un’accurata osservazione con risonanza magnetica. Attraverso uno speciale

macchinario che consentiva la totale libertà di movimento, si sono potute individuare

tre principali tendenze posturali. I ricercatori hanno concluso che i dischi intervertebrali,

che hanno fondamentale importanza nella biomeccanica della colonna vertebrale,

fungendo da ammortizzatori e distribuendo il peso e le sollecitazioni, sarebbero messi

a dura prova dalla posizione eretta a 90°. Nella posizione curva, protesa in avanti,

invece, si scaricherebbe la tensione dalla parte alta della colonna, sovraccaricandone

la parte bassa. La posizione angolata a 135° sarebbe invece quella che sottoporrebbe

a minor sforzo i cuscinetti vertebrali, e consentirebbe anche ai tendini e ai muscoli della

schiena di mantenersi più rilassati.

61

Per quanto riguarda le periferiche, sul mercato sono disponibili numerosi prodotti

appositamente progettati su basi ergonomiche. In particolare sono disponibili dispositivi

che, pur adempiendo alle medesime funzioni delle periferiche tradizionali, si

distinguono per le forme molto diverse le une dalle altre. Nel caso del mouse, una delle

caratteristiche indispensabili è la facilità di impugnatura, che deve essere

necessariamente sicura e stabile. Per quanto riguarda le tastiere, invece, un aspetto di

fondamentale importanza è l’ottimizzazione dell’angolo di inclinazione, che può essere

eventualmente regolabile. Un altro aspetto altrettanto importante è la dimensione e la

disposizione dei tasti che devono essere abbastanza grandi e ben distanziati tra loro,

in modo da rendere la digitazione il più comodo possibile.

Chi utilizza il computer può anche incorrere in una condizione di sovraccarico

cognitivo a causa degli eccessivi tempi di applicazione, dell’elevata complessità delle

operazioni da effettuare oppure dell’eccessiva richiesta di responsabilità in relazione

alle proprie capacità. Il soggetto in sovraccarico cognitivo manifesta una sintomatologia

che può comprendere cefalea, tensione nervosa, difficoltà di concentrazione, perdita di

efficienza, irritabilità, digestione difficile e stanchezza eccessiva.

L’impegno visivo richiesto dal computer cresce all’aumentare del tempo di applicazione

e si incrementa ulteriormente al ridursi della distanza tra occhi e schermo. Per lavorare

efficacemente al computer il soggetto deve possedere un’adeguata acutezza visiva,

essere in grado di regolare opportunamente la messa a fuoco per la distanza

prossimale ed essere abile a spostare in modo rapido e preciso i suoi occhi da un

punto all’altro dello schermo. Le difficoltà visive conseguenti all’uso del computer

possono essere accentuate infatti in presenza di deficit visivi non corretti oppure di

condizioni irritative oculari che si possono esprimere attraverso bruciore,

arrossamento, lacrimazione, sensazione di sabbia negli occhi, ammiccamenti frequenti,

secchezza oculare, visione sfuocata, visione tremolante e mal di testa. Alcuni di questi

disturbi insorgono in condizioni di elevato impegno visivo ed evidenziano il tentativo del

sistema visivo di mantenere un funzionamento adeguato nonostante la richiesta sia

eccedente nei confronti delle proprie capacità.

Stando ai più recenti dati, ben nove persone su dieci che utilizzano abitualmente il

computer per lavoro, studio o gioco, sono destinate a sviluppare almeno un disturbo

visivo nella loro vita.

Una fonte di disturbo ormai accertata da numerosi studi clinici sembra essere il

trifenilfosfato, un elemento chimico di cui sono composti i monitor dei computer. Il

62

fenomeno si scatena nel momento in cui i monitor si scaldano, in quanto cominciano a

rilasciare molecole del composto irritante, che quando inalate colpiscono il sistema

nervoso e quello immunitario, causando emicranie molto forti, congestioni nasali,

dermatiti e allergie.

Uno studio della State University of New York pubblicato dalla rivista europea Human

Reproduction avrebbe anche evidenziato un aumento del rischio di sterilità correlato

all’abitudine di utilizzare i computer portatili poggiandoseli direttamente sul grembo. Il

motivo, hanno spiegato gli esperti coordinati dall’urologo Yefim Sheynkin, sarebbe

imputabile al surriscaldamento prodotto dal computer a ridosso dello scroto che può

provocare danni alle cellule progenitrici degli spermatozoi.

Sempre in tema di possibili danni da apparecchiature informatiche, inoltre, una ricerca

australiana avrebbe rivelato che l’esposizione ai toner delle stampanti laser potrebbe

essere dannosa quanto il fumo di una sigaretta. Lo studio avrebbe dimostrato che

questo tipo di periferica è in grado di emettere grandi quantità di particelle di inchiostro

sottili che potrebbero raggiungere il polmone e causare gravi problemi respiratori. Lo

studio avrebbe rivelato anche che le nuove cartucce sono in grado di liberare un

numero più elevato di particelle e la stampa d’immagini sarebbe il momento in cui si

avrebbe la maggiore dispersione.

4.3 Problemi legati all’utilizzo frequente di Internet e della posta

elettronica

La storia di Internet prende il via negli anni Sessanta da un progetto del Dipartimento

della Difesa statunitense denominato Arpanet volto allo sviluppo di una rete di

computer interconnessi. La rete venne fisicamente costruita nel 1969 collegando

quattro università americane. Nel 1971 nasce il primo esempio di posta elettronica e

l’anno seguente Arpanet viene aperta all’impiego da parte di alcuni enti. In pochi anni

la progenitrice della grande rete grazie anche alla creazione dei primi due protocolli

(TCP e IP) diede vita in concreto al primo volto di quella che oggi viene chiamata

Internet intesa come insieme di rete di macchine connesse tramite protocolli anche nel

caso in cui alcune di queste non sono funzionanti. Nel 1991 nasce l’HTTP (HyperText

Transfer Protocol) ovvero il protocollo per i collegamenti ipertestuali, quelli non

sequenziali ma tramite link. Due anni dopo vede la luce il primo vero e proprio

programma di accesso alla rete, quelli che oggi chiamiamo comunemente browser.

Queste due tappe segnano l’avvento dell’era del World Wide Web (www) e della

63

possibilità di navigare visualizzando testi, file, ipertesti, suoni, immagini, animazioni,

filmati. Ancor oggi la grande rete si basa sul protocollo HTTP anche se oggi si parla di

Web 2.0 per indicare un ulteriore e radicale step tecnologico quanto una nuova

frontiera nelle modalità di uso della rete, sempre più dinamico e interattivo in cui gli

internauti sono essi stessi generatori di contenuti.

L’aumento esponenziale dell’utilizzo della rete informatica nella popolazione europea e

mondiale ha prodotto l’insorgenza di fenomeni psicopatologici che si esprimono con

una sintomatologia simile a quella osservabile in soggetti dipendenti da sostanze

psicoattive. Esiste infatti una vera e propria psicopatologia che va sotto il nome di

Internet Addiction Disorder I.A.D. dovuta proprio all’abuso di Internet e che mostra

gli stessi sintomi della tossicodipendenza.

Il termine si deve allo psichiatra americano Ivan Goldberg che, con le sue osservazioni

e le sue proposte, ha dato avvio a una riflessione che ha incuriosito numerosi psicologi

e psichiatri e ha imposto all’attenzione del mondo intero il rischio di Dipendenza da

Internet. Già dal 1995 Goldberg sosteneva difatti che “la dipendenza dai mezzi

tecnologici e in particolare da Internet condivide con la tossicodipendenza molte

caratteristiche fondamentali come la dominanza, le alterazioni del tono dell’umore, la

tolleranza, i sintomi d’astinenza, i conflitti interpersonali, i conflitti intrapsichici e le

ricadute”. Appare quindi molto probabile che già nella prossima edizione del D.S.M., il

manuale di riferimento per la classificazione delle patologie mentali giunto alla sua

quarta edizione, gli Addiction Disorder vengano riconosciuti come problematica

specifica all’interno dello spettro delle patologie ossessivo-compulsive.

Anche se non esiste una vera e propria classificazione ufficiale, la maggior parte degli

studiosi concorda ormai sui sintomi necessari per diagnosticare la dipendenza da

Internet:

a) Bisogno di trascorrere un tempo sempre maggiore in rete;

b) Marcata riduzione di interesse per altre attività;

c) Eccessiva preoccupazione per quello che accade in rete, in caso di sospensione o

diminuzione dell’uso, con conseguente sviluppo di agitazione psicomotoria, ansia,

depressione, sviluppo di pensieri ossessivi e sintomi astinenziali;

d) Necessità di accedere alla rete sempre più di frequente o per periodi più prolungati

rispetto all’intenzione iniziale;

e) Impossibilità a interrompere o tenere sotto controllo l’uso di Internet;

f) Dispendio di grande quantità di tempo in attività correlate alla rete;

64

g) Continuare a utilizzare Internet nonostante la consapevolezza di problemi fisici,

sociali, lavorativi o psicologici dovuti alla rete.

Lo sviluppo della dipendenza da Internet si sviluppa, molto schematicamente,

attraverso tre distinte fasi:

• Coinvolgimento: Accesso alla rete e senso di curiosità nei confronti delle

opportunità offerte;

• Sostituzione: Immersione nella comunità on line. Le attività che precedentemente

erano centrali nella propria vita contano sempre meno. Iniziano a comparire gravi

problemi nelle relazioni affettive, importanti problematiche lavorative legate

all’utilizzo della rete, problematiche psico-fisiche (problemi visivi, alterazione del

ritmo circadiano, disturbi nelle condotte alimentari, ecc.);

• Fuga: Fuga dal mondo reale e dalla propria vita; la sofferenza emotiva viene

compensata dalle sensazioni emotive provate nella comunità di Internet. In questa

fase compaiono gli aspetti psicopatologici più gravi; in particolare stato confusionale

per ore, allucinazioni semplici visive, prosopoagnosia, ipertermie, tremori. Sono

presenti anche importanti problemi nella vita relazionale e affettiva, e seri problemi

nell’ambiente lavorativo.

Le modificazioni psicologiche che si producono nell’individuo che diviene dipendente

dalla rete sono essenzialmente: perdita delle relazioni interpersonali, modificazioni

dell’umore, alterazione del vissuto temporale e cognitività completamente orientata

all’utilizzo compulsivo del mezzo; il soggetto tende a sostituire il mondo reale con un

oggetto artificioso, quasi una sorta di “feticismo tecnologico”, con il quale riesce a

costruire un proprio mondo personale. La dipendenza da Internet ha in comune con le

altre droghe il tratto ossessivo-compulsivo, anche se la compulsione da Internet si

basa sul piacere anziché sulla fobia.

I soggetti che utilizzano la rete, oltre a non rendersi conto delle diverse ore già

trascorse dinanzi allo schermo, tendono ad alterarsi facilmente con chi disturba la loro

navigazione; in più, come spesso accade con qualunque altro tipo di dipendenza, gli

Internet dipendenti tendono a negare nel modo più assoluto il problema.

Attualmente si riconoscono quattro tipologie specifiche di dipendenza da Internet:

• Dipendenza ciber-relazionale: Eccessivo e costante coinvolgimento nelle relazioni

on line, che porta a un progressivo di stanziamento dalle relazioni del mondo reale;

• Net-gaming: Dipendenza da giochi in rete, che comprende una vasta gamma di

attività, dal gioco d’azzardo all’e-commerce fino ad arrivare alle comunità virtuali;

65

• Dipendenza dal sesso virtuale: Fruizione compulsiva di materiale pornografico e/

o praticare altre attività in rete a sfondo sessuale;

• Sovraccarico cognitivo: L’enorme quantità di dati presente sul web induce alcuni

soggetti a investire risorse eccessive nella ricerca e catalogazione di grandi

quantità di dati, fino a compromettere seriamente le normali attività.

Le ancora poche statistiche presenti indicano l’età tipica di insorgenza degli Addiction

Disorder fra i 29 e i 35 anni.

Sempre più spesso, inoltre, il termine Internet Addiction viene anche utilizzato per

coprire una varietà di comportamenti che comprendono anche la Dipendenza da

computer: appunto per questo, è stato introdotto il termine di Dipendenza online per

indicare il fenomeno nel suo complesso.

5 PICCOLI ELETTRODOMESTICI

5.1 Tipologia di prodotti in uso

Le tipologie di prodotti potenzialmente pericolosi per l’organismo umano sono davvero

numerose e abbracciano un po’ tutti i settori del piccolo elettrodomestico, dal floor

care con gli aspirapolvere potenzialmente imputati di essere possibili fonti di

diffusione di allergeni e agenti patogeni nell’aria, alla cura della persona e alla

preparazione dei cibi, con i forni a microonde o gli asciugacapelli, imputati di

essere fonti di possibili dispersioni di radiazioni ionizzanti.

Gli ingenti investimenti in attività di Ricerca&Sviluppo della moderna industria

elettronica hanno però ridotto notevolmente questo genere di rischi, introducendo

sempre nuove tecnologie finalizzate, oltre che al miglioramento delle prestazioni,

anche a una maggiore sicurezza e affidabilità dei prodotti.

5.2 Problemi legati all’utilizzo frequente dei prodotti

Tra gli elettrodomestici maggiormente imputati di essere causa di possibili danni alla

salute vi sono sicuramente i forni a microonde, dispositivi che funzionano mediante

radiazioni ad alta frequenza che, una volta assorbite dai cibi, vengono trasformate in

calore. Secondo le conoscenze attuali, la fuga di radiazioni da un forno a microonde

non costituisce di per sé un reale pericolo per la salute; difficilmente, infatti, viene

superato il valore ammesso per la fuga di radiazioni pari a 5 mW/cm2 a una distanza

66

di 5 cm e corrispondente a un’intensità del campo elettrico di circa 137 V/m. Lo stesso

vale per i campi magnetici a bassa frequenza che difficilmente riescono a superare il

limite raccomandato di 100 μT.

I rischi sanitari maggiori sarebbero soprattutto imputabili ai cibi riscaldati all’eccesso o

ai germi patogeni presenti nelle derrate alimentari e non completamente eliminati

durante la cottura. All’interno dei forni a microonde il riscaldamento dei cibi potrebbe

non essere infatti uniforme.

Le trasformazioni che avvengono nei cibi cotti nel forno a microonde corrispondono

grosso modo ai cambiamenti provocati da una cottura convenzionale: il valore nutritivo,

la digeribilità delle proteine, la composizione degli aminoacidi e la stabilità delle

vitamine liposolubili (A ed E) sarebbero per cui del tutto simili nei due diversi metodi di

cottura. Rispetto alla cottura convenzionale, la cottura nel microonde danneggerebbe

in misura minore la stabilità delle vitamine idrosolubili (C e B). Inoltre, i grassi

sarebbero meno ossidati, cosicché non potrebbero formarsi sostanze tossiche

altamente reattive come i radicali liberi. Di regola, rispetto alla cottura in pentola, il

riscaldamento nel forno a microonde produrrebbe meno sostanze indesiderate, come

idrocarburi policlici aromatici e ammine eterocicliche aromatiche.

Nonostante queste considerazioni, frutto di studi scientifici ufficialmente riconosciuti, il

dibattito circa la pericolosità dei forni a microonde è ancora aperto: sono molti difatti gli

studiosi che accusano la cottura a microonde di produrre sostanze scarsamente

nutritive e potenzialmente cancerogene o, addirittura, di indurre nell’organismo umano

variazioni chimiche e biologiche altamente patogene.

Importante notare, inoltre, che i forni a microonde riscaldano i cibi molto rapidamente,

formando una sovrappressione al loro interno; alimenti come uova, pomodori, patate o

salsicce, rivestiti al loro esterno di pelle, buccia o guscio, potrebbero scoppiare o

esplodere durante la cottura o al momento di estrarli dal forno. Particolarmente

pericolose sono le uova riscaldate nel microonde, poiché scoppiando possono

provocare ustioni o ferite agli occhi. Dai liquidi riscaldati in eccesso possono svilupparsi

inoltre grosse bolle che, esplodendo, potrebbero far schizzare il liquido bollente fuori

dal recipiente col rischio di provocare gravi ustioni.

Tra tutti gli apparecchi di uso domestico potenzialmente dannosi per la presenza di

campi elettromagnetici, sono presenti anche asciugacapelli, lavatrici e rasoi elettrici;

gli asciugacapelli e i rasoi elettrici emettono nel raggio di circa 40 cm una forte

radiazione elettromagnetica a 50 Hz. Facendone uso saltuariamente non costituiscono

67

però un grande pericolo. È bene comunque tenere l’asciugacapelli ad almeno 40 cm

dalla testa e preferire possibilmente i dispositivi a batteria. Anche le termocoperte si

sono rivelate dannose per le leucemie infantili, soprattutto se usate dalle madri durante

la gravidanza. Quasi tutti gli elettrodomestici emettono a 50 Hz un campo elettrico

anche se spenti e un campo magnetico proporzionale al loro consumo di energia

elettrica quando sono in funzione. Appunto per questo è sempre preferibile stazionare

ad almeno 50 cm dagli elettrodomestici sia spenti sia accesi, anche se posizionati al di

là di un muro. Nel caso delle termocoperte, ad esempio, è preferibile staccarne la spina

dalla presa prima di entrare nel letto e posizionarsi a non meno di 50 cm di distanza

quando sono accese. Persino apparecchiature apparentemente innocue come

radiosveglie, abatjour e segreterie telefoniche sono in grado di emettere radiazioni

potenzialmente dannose: in particolare, le radiosveglie emettono campi magnetici ad

alta frequenza nel raggio di circa 60 cm mentre segreterie telefoniche e abatjour

emettono campi elettromagnetici nel raggio di 40 cm.

Altri elettrodomestici potenzialmente dannosi per la salute dell’uomo sono gli

aspirapolvere, in relazione al rischio di diffondere nell’ambiente - a partire dal

sacchetto raccogli-polvere o attraverso il condotto d'uscita - particelle allergizzanti di

dimensioni comprese tra 0,5 e 30 micron, germi patogeni o allergeni (soprattutto acari

della polvere domestica).

La maggior parte degli

aspirapolvere attualmente in

commercio è però dotata di filtro

HEPA (High Efficiency Particulate

Air) ad alta efficienza per polveri

sottili, capaci di trattenere il 99,97%

di queste particelle anche di misura

inferiore a 0,1 micron. L'uso

regolare di un aspirapolvere dotato

di filtri HEPA – e in alcuni casi

anche della nuova tecnologia ciclonica messa a punto dal designer inglese James

Dyson - è per cui determinante per la riduzione del numero di particelle allergizzanti:

alcuni studi clinici hanno infatti evidenziato che l'uso ripetuto di un aspirapolvere di

questo tipo su un tappeto, riduce la concentrazione degli acari di circa 10 volte. Non

68

solo. Alcuni modelli assicurano addirittura l’emissione di aria circa 150 volte

igienicamente pulita rispetto a quella normale.

Se mal utilizzato, anche il phon asciugacapelli (e le piastre liscianti) può causare

danni, soprattutto alla salute del capello: è sempre consigliabile infatti tenere

l’apparecchio a debita distanza dai capelli e dal cuoio capelluto per non danneggiare

eccessivamente la struttura cheratinica del capello e scottare la cute. Il diffusore in

dotazione con la maggior parte dei phon è utile per impedire al calore di concentrarsi in

un’area circoscritta e prevenire eventuali danni da scottature o bruciature. Anche la

presenza dello ionizzatore contribuisce notevolmente alla salute del cuoio capelluto,

evitando di disidratare ed essiccare oltremisura il capello, donandogli tra l’altro anche

morbidezza e lucentezza.

Non bisogna infine dimenticare il rischio concreto di eventuali scariche elettriche e di

folgorazione presentato da tutti gli elettrodomestici presenti tra le mura domestiche, in

special modo se a contatto con liquidi o superfici bagnate; evento che rappresenta una

delle primissime cause di morte accidentale nel nostro Paese.

6 PERICOLOSITÁ IN CASA

6.1 Incidenti domestici

Gli incidenti domestici rappresentano un problema di grande interesse per la sanità

pubblica. Causa importante di morbosità e di mortalità nella maggior parte dei Paesi

industrializzati, infatti, gli incidenti domestici sono per l’Organizzazione Mondiale della

Sanità una delle prime cause di morte, soprattutto in età pediatrica. Da non

sottovalutare, poi, l’aspetto sociale legato all’impatto psicologico che questo tipo di

infortuni ha sulla popolazione che considera la casa il luogo sicuro per eccellenza.

Secondo la definizione data dall’ISTAT, l’infortunio di tipo domestico è un incidente che

presenta determinate caratteristiche:

- l’evento comporta la compromissione temporanea o definitiva delle condizioni di

salute di una persona, a causa di lesioni di vario tipo;

- l’evento è accidentale, si verifica cioè indipendentemente dalla volontà umana;

- l’evento si verifica in un’abitazione, intesa come l’insieme dell’appartamento vero e

proprio o di sue estensioni esterne (balconi, giardini, scale, garage, cantine, ecc.).

Le conseguenze per la salute sono traumi di diversa gravità che possono comportare

invalidità e, in molti casi, anche la morte. I soggetti più a rischio sono le donne (in

69

particolare le casalinghe), gli anziani, i disabili e i bambini: sempre secondo l’ISTAT,

difatti, per le donne e per le casalinghe l’incidenza sale rispettivamente al 32,8% e al

33,1%. Secondo il CENSIS, gli infortuni domestici dipendono da tre principali fattori: la

qualità del sistema abitativo; le caratteristiche dei prodotti che entrano in casa, tra cui

gli elettrodomestici; i comportamenti individuali che mettono a rischio anche terze

persone. Si possono poi considerare anche i pericoli legati alla mancata manutenzione

di alcuni impianti presenti in casa e quelli connessi all’esposizione ad agenti chimici

(monossido di carbonio, antiparassitari, fumo di tabacco, detersivi, medicinali, ecc.),

fisici (microclima, campi magnetici, radon, ecc.) e biologici (allergeni).

Secondo l’Istituto Nazionale di Statistica gli incidenti domestici sono la prima causa di

infortuni in Italia: nel 2000 se ne sono registrati oltre 4 milioni (più di 3 milioni le

persone coinvolte), a fronte di poco più di un milione di incidenti sul lavoro e a circa

300 mila stradali. Il Centro Studi Investimenti Sociali ha messo in evidenza anche una

microincidentalità domestica sommersa molto consistente che nel 2004 avrebbe

coinvolto il 27,8% degli italiani (circa 16 milioni di persone). Un dato particolarmente

significativo, poiché l’incidenza sulla popolazione degli infortuni domestici nelle

statistiche ufficiali si aggira attorno al 7,6%. Dunque gli incidenti domestici che

avvengono realmente sarebbero circa tre volte e mezzo quelli censiti ufficialmente.

Gli incidenti domestici in Italia nel 2005, secondo il Sistema Informativo Nazionale sugli

Infortuni in Ambienti di Civile Abitazione, ente dell’Istituto Superiore di Sanità, hanno

causato su base annua 4.500 decessi (oltre tre volte il numero di quelli registrati per

incidenti sul lavoro), 130.000 ricoveri ospedalieri, 1.300.000 ricorsi al pronto soccorso

(oltre la metà del totale dei ricorsi al pronto soccorso dell’anno). Metà degli incidenti

sono cadute, circa il 20% sono urti, il 10% ferite da taglio. Le conseguenze degli

infortuni sono per il 60% contusioni e lacerazioni, per il 21% fratture e lussazioni.

Fra il 2000 e il 2005, sempre secondo i dati ISTAT, la quota di popolazione italiana

coinvolta in incidenti domestici su base annua è passata dal 49 al 52 per mille (circa 73

per mille donne, circa 30 per mille uomini). Ciò significa che anche nel 2005 oltre 3,5

milioni di persone hanno subito uno o più incidenti domestici.

Gli incidenti più frequenti nel nostro Paese sembrano essere legati soprattutto a eventi

del tutto banali, come: dimenticare pentole sul fuoco acceso (12,2%), lasciare rubinetti

aperti (11,9%), utilizzare apparecchi elettrici bagnati (11,2%), spegnere

elettrodomestici tirando il filo della presa (10,9%), lasciare il gas aperto (9,1%), non

spegnere il forno (7,1%), o dimenticare acceso il ferro da stiro (7%).

70

6.2 Il ruolo degli elettrodomestici e dei prodotti di elettronica di

consumo negli incidenti domestici

Il numero degli infortuni domestici legati a un uso errato di elettrodomestici e

apparecchi elettrici ed elettronici è pari al 12% del totale degli incidenti domestici subiti

dagli italiani censiti ufficialmente nel 2000 (fonte Istituto Superiore per la Prevenzione e

la Sicurezza del Lavoro – Ministero della Salute); in cifre, oltre 525 mila incidenti solo

fra quelli censiti (il numero reale potrebbe addirittura aggirarsi attorno ai due milioni).

Fra questi, le apparecchiature più pericolose risultano i piccoli elettrodomestici (131

mila casi): il 90% degli infortuni attribuibili a questi prodotti è subito da donne (età

media 41 anni, prevalentemente casalinghe). Per gli uomini la probabilità maggiore di

subire un infortunio domestico si verifica sotto i 15 anni (44% dei casi), mentre riguarda

gli over 65 solo nel 18% dei casi. Per le donne (che hanno mediamente circa il 60% in

più di probabilità di subire un incidente domestico rispetto agli uomini) è meno

pericolosa l’età fino ai 15 anni (19% dei casi) mentre lo è molto di più l’età matura: 25%

dei casi fra i 45 e i 64 anni, 25% dei casi oltre i 65 anni (fonte elaborazioni Ufficio Studi

Associazione Italiana Retailer Elettrodomestici Specializzati su dati ISPESL). Come per

le altre cause di incidenti, anche l’incidenza degli infortuni domestici relativa al non

corretto utilizzo di elettrodomestici o apparecchiature elettroniche, sempre più diffusi

nelle famiglie, è un problema in netto aumento. AIRES ha stimato infatti che nel 2006

questo genere di problematiche abbia coinvolto oltre 400 mila persone, con danni per

la comunità (in termini di danni alle persone, giorni di lavoro persi e ricoveri ospedalieri)

per un controvalore di circa 400 milioni di euro, più di un milione di euro al giorno.

Con il D.P.R. del 24 luglio 1996, gli elettrodomestici devono obbligatoriamente

possedere un marchio CE che ne certifichi la conformità alle normative vigenti. I

fabbricanti di elettrodomestici, pertanto, sono obbligati a verificare che questi abbiano

tutti i requisiti per poter ottenere il marchio di garanzia. Più in particolare, secondo la

normativa vigente la marcatura CE deve essere apposta dal costruttore, o dal suo

rappresentante autorizzato stabilito dall’Unione Europea, sull’apparato o, se non fosse

possibile, sull’imballaggio, sulle istruzioni per l’uso o sul certificato di garanzia,

seguendo questo ordine di priorità. Sempre secondo la normativa vigente, la marcatura

CE deve essere apposta in modo visibile, leggibile e indelebile ed è assolutamente

vietato apporre marcature o iscrizioni che possano indurre in errore i consumatori circa

il significato verbale o il simbolo grafico della marcatura di conformità CE.

71

BIBLIOGRAFIA

• L. Cattaneo, “Compendio di Anatomia Umana”, Monduzzi Editore.

• A.A.V.V., “Dizionario medico”, Istituto Geografico De Agostini Novara.

• A.A.V.V., “Enciclopedia della Medicina”, De Agostini.

• D. Scannicchio, F. Borsa, “Fisica”, Edizioni Unicopli.

• W.F. Ganong, “Fisiologia Medica”, Piccin.

• M.J. Miller, “Fisiopatologia”, Casa Editrice Ambrosiana Milano.

• L. Checacci, C. Meloni, G. Pelissero, “Igiene”, Casa Editrice Ambrosiana Milano.

• A. Antola, L. Mezzalira, R. Negrini, N. Scarabottolo, “Nuovo Dizionario di

Informatica”, Mondadori.

• G.M. Pontieri, “Patologia generale”, Piccin.

• Harrison, “Principi di Medicina Interna”, McGraw-Hill.

• Rivista “Focus”, vari numeri, Gruner Jahr Mondadori.

• Rivista “Installare”, vari numeri, Mixxnow Publishing.

• Rivista “Jack”, vari numeri, Gruner Jahr Mondadori.

• Rivista “Punto Tech”, marzo 2008, Edizioni Euroforum.

• Rivista “TLC”, vari numeri, Editrice Mediolanum.

• Rivista “Trade Bianco”, vari numeri, Editoriale Duesse.

• Rivista “Trade Consumer Electronics”, vari numeri, Editoriale Duesse.

SITOGRAFIA

• it.health.yahoo.net

• www.adnkronos.com

• www.affaritaliani.it

• www.airesitalia.it

• www.allergia2000.it

• www.ambienteazzurro.it

• www.anagen.net

• www.ansa.it

• www.arpa.veneto.it

72

• www.assinform.it

• www.codacons.it

• www.corriere.it

• www.dica33.it

• www.dyson.it

• www.dossiermedicina.it

• www.ecodom.it

• www.e-duesse.it

• www.elettrosmog.rm.it

• www.euronics.it

• www.farmasalute.it

• www.ilsole24ore.com

• www.indoor.apat.gov.it

• www.ispesl.it

• www.medicina.it

• www.mednat.org

• www.ministerosalute.it

• www.miw.it

• www.netdipendenza.it

• www.paginemediche.it

• www.punto-informatico.it

• www.service-allergie-suisse.ch

• www.sicurezzaonline.it

• www.soeo.it

• www.suva.ch

• www.tantasalute.it

• www.tech-faq.com

• www.terzoorecchio.com

• www.visivagroup.it

• www.voltimum.it

• www.wikipedia.it

• www.universonline.it

73