massimo teodoranil'atomo e le particelle elementari

89
MASSIMO TEODORANI L'Atomo e le particelle Elementari DALLA SCIENZA DEGLI ANTICHI ALLE SUPERSTRINGHE DI OGGI. MANUALE PER STUDENTI E RICERCATORI. MACRO EDIZIONI Introduzione Lo studio dell'infinitamente piccolo è probabilmente il tema più importante della fisica, soprattutto della fisica dell'ultimo secolo. Il progresso scientifico umano non è mai proceduto in maniera lineare, bensì esponenziale. Partendo dalle prime scoperte dei primi del '900 che dimostrarono inconfutabilmente che l'atomo è divisibile, a sua volta, in componenti fondamentali, gli enormi progressi raggiunti dalla fisica del mondo microscopico ci hanno mostrato l'esistenza di un regno impensabile, costellato di particelle di ogni tipo e caratterizzate dalle energie più svariate. Ma non si tratta di un "atlante zoologico" da collezionare. La fisica dell'infinitamente piccolo non è un risultato dell'erudizione ma è il frutto dell'avvicendarsi di modelli sempre più sofisticati che in un processo di approssimazioni successive hanno portato all'elaborazione di teorie matematicamente sempre più rigorose e che hanno raggiunto il loro culmine nel cosiddetto "Modello Standard", la teoria che descrive la materia che ci circonda e le forze che legano tra di loro le particelle. I modelli matematici hanno seguito di pari passo le sperimentazioni, quelle che ai giorni nostri si effettuano facendo collidere tra loro fasci di particelle e di antiparticelle. Il Modello Standard delle particelle elementari, seppur ancora incompleto, rappresenta il miglior accordo tra teoria e osservazioni e la conferma che il processo conoscitivo umano ha inseguito qualcosa di reale e non di illusorio. Le previsioni della teoria attuale sulle particelle e le interazioni che le legano sono straordinariamente accurate. Purtuttavia il Modello Standard rimane incompleto e proprio in questi ultimi due decenni sono entrati in campo nuovi modelli, in particolare la teoria delle superstringhe, che potrebbero essere in grado di colmare le lacune una volta che essi possano essere confermati sperimentalmente. L'obiettivo fondamentale della fisica delle particelle non rappresenta più come un tempo, il solo bisogno di frammentare la materia per vedere come è fatta ma soprattutto la necessità di comprendere le forze che governano le particelle e le loro interazioni all'interno di un quadro unificato. Non si è ancora riusciti a trovare il modello definitivo in grado di unificare le forze fondamentali ma perlomeno si è riusciti a capite che il concetto di "particella" è intimamente legato al concetto di "interazione". Al giorno d'oggi conosciamo quattro interazioni fondamentali per ognuna delle quali esiste una famiglia di particelle ben precisa. Due di queste interazioni sono state unificate in una sola, ma restano ancora da assemblare tra loro i rimanenti pezzi del puzzle. È come se un secolo fa i fisici nucleari si fossero messi a giocare con un puzzle con l'obiettivo di ricostruire il quadro originale al gran completo. \p6 Nell'arco di tutto questo tempo sono stati composti quattro pezzi di questo puzzle, due dei quali sono stati agganciati l'uno all'altro 20 anni fa grazie alle rivoluzionarie scoperte di fisici come Abdus Salam e Carlo Rubbia. Oggi resta da agganciare tra loro i pezzi rimanenti in maniera tale da essere pronti a incollare il tutto nel disegno finale per poterlo appendere ad un muro. La fase in cui ci troviamo è molto avanzata, ma restano ancora molti problemi da risolvere, in modo particolare resta da capire la ragione per la quale le particelle hanno massa e il modo in cui la forza di gravità possa essere agganciata alle forze nucleari ed elettromagnetiche. Non dimentichiamo che nella fisica odierna il concetto di forza è strettamente connesso al concetto di particella, e che alcune particelle con funzioni ben precise - come le cose vengono viste oggi - sono esse stesse portatrici di forza verso tutte le altre particelle che costituiscono un immenso oceano di materia. La visione di oggi della fisica dell'infinitamente piccolo, potentemente sostenuta dalle leggi della teoria quantistica relativistica, non contempla più misteriose "azioni a distanza" bensì un mondo interamente dominato dalle particelle, alcune delle quali fungono da "messaggeri" per altre particelle. Tutto questo sembra il risultato di un riduzionismo spinto, ma come si vedrà nelle pagine che seguono, le cose non stanno come sembrano, dal momento che l'obiettivo che sta dietro tutta questa frammentazione è quello di unire e non di dividere. L'unico modo per cercare di far comprendere al lettore come si è arrivati al livello attuale della nostra conoscenza è quello di mostrare l'avvicendarsi delle scoperte nella loro progressione temporale e il graduale dischiudersi nella mente umana di un universo che nessuno prima avrebbe mai immaginato. Proprio per questa ragione, questo volume viene strutturato in quattro parti fondamentali e una quinta (finale) di natura prettamente critico-filosofica.

Upload: nuierhfruihf

Post on 05-Aug-2015

113 views

Category:

Documents


13 download

TRANSCRIPT

Page 1: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

MASSIMO TEODORANI L'Atomo e le particelle Elementari DALLA SCIENZA DEGLI ANTICHI ALLE SUPERSTRINGHE DI OGGI. MANUALE PER STUDENTI E RICERCATORI. MACRO EDIZIONI Introduzione Lo studio dell'infinitamente piccolo è probabilmente il tema più importante della fisica, soprattutto della fisica dell'ultimo secolo. Il progresso scientifico umano non è mai proceduto in maniera lineare, bensì esponenziale. Partendo dalle prime scoperte dei primi del '900 che dimostrarono inconfutabilmente che l'atomo è divisibile, a sua volta, in componenti fondamentali, gli enormi progressi raggiunti dalla fisica del mondo microscopico ci hanno mostrato l'esistenza di un regno impensabile, costellato di particelle di ogni tipo e caratterizzate dalle energie più svariate. Ma non si tratta di un "atlante zoologico" da collezionare. La fisica dell'infinitamente piccolo non è un risultato dell'erudizione ma è il frutto dell'avvicendarsi di modelli sempre più sofisticati che in un processo di approssimazioni successive hanno portato all'elaborazione di teorie matematicamente sempre più rigorose e che hanno raggiunto il loro culmine nel cosiddetto "Modello Standard", la teoria che descrive la materia che ci circonda e le forze che legano tra di loro le particelle. I modelli matematici hanno seguito di pari passo le sperimentazioni, quelle che ai giorni nostri si effettuano facendo collidere tra loro fasci di particelle e di antiparticelle. Il Modello Standard delle particelle elementari, seppur ancora incompleto, rappresenta il miglior accordo tra teoria e osservazioni e la conferma che il processo conoscitivo umano ha inseguito qualcosa di reale e non di illusorio. Le previsioni della teoria attuale sulle particelle e le interazioni che le legano sono straordinariamente accurate. Purtuttavia il Modello Standard rimane incompleto e proprio in questi ultimi due decenni sono entrati in campo nuovi modelli, in particolare la teoria delle superstringhe, che potrebbero essere in grado di colmare le lacune una volta che essi possano essere confermati sperimentalmente. L'obiettivo fondamentale della fisica delle particelle non rappresenta più come un tempo, il solo bisogno di frammentare la materia per vedere come è fatta ma soprattutto la necessità di comprendere le forze che governano le particelle e le loro interazioni all'interno di un quadro unificato. Non si è ancora riusciti a trovare il modello definitivo in grado di unificare le forze fondamentali ma perlomeno si è riusciti a capite che il concetto di "particella" è intimamente legato al concetto di "interazione". Al giorno d'oggi conosciamo quattro interazioni fondamentali per ognuna delle quali esiste una famiglia di particelle ben precisa. Due di queste interazioni sono state unificate in una sola, ma restano ancora da assemblare tra loro i rimanenti pezzi del puzzle. È come se un secolo fa i fisici nucleari si fossero messi a giocare con un puzzle con l'obiettivo di ricostruire il quadro originale al gran completo. \p6 Nell'arco di tutto questo tempo sono stati composti quattro pezzi di questo puzzle, due dei quali sono stati agganciati l'uno all'altro 20 anni fa grazie alle rivoluzionarie scoperte di fisici come Abdus Salam e Carlo Rubbia. Oggi resta da agganciare tra loro i pezzi rimanenti in maniera tale da essere pronti a incollare il tutto nel disegno finale per poterlo appendere ad un muro. La fase in cui ci troviamo è molto avanzata, ma restano ancora molti problemi da risolvere, in modo particolare resta da capire la ragione per la quale le particelle hanno massa e il modo in cui la forza di gravità possa essere agganciata alle forze nucleari ed elettromagnetiche. Non dimentichiamo che nella fisica odierna il concetto di forza è strettamente connesso al concetto di particella, e che alcune particelle con funzioni ben precise - come le cose vengono viste oggi - sono esse stesse portatrici di forza verso tutte le altre particelle che costituiscono un immenso oceano di materia. La visione di oggi della fisica dell'infinitamente piccolo, potentemente sostenuta dalle leggi della teoria quantistica relativistica, non contempla più misteriose "azioni a distanza" bensì un mondo interamente dominato dalle particelle, alcune delle quali fungono da "messaggeri" per altre particelle. Tutto questo sembra il risultato di un riduzionismo spinto, ma come si vedrà nelle pagine che seguono, le cose non stanno come sembrano, dal momento che l'obiettivo che sta dietro tutta questa frammentazione è quello di unire e non di dividere. L'unico modo per cercare di far comprendere al lettore come si è arrivati al livello attuale della nostra conoscenza è quello di mostrare l'avvicendarsi delle scoperte nella loro progressione temporale e il graduale dischiudersi nella mente umana di un universo che nessuno prima avrebbe mai immaginato. Proprio per questa ragione, questo volume viene strutturato in quattro parti fondamentali e una quinta (finale) di natura prettamente critico-filosofica.

Page 2: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

La prima parte illustra la nascita e l'evoluzione del concetto di atomo presso gli antichi, mostrando l'avvicendarsi di teorie - tutte di natura filosofica - che dopo oltre 3000 anni di disquisizioni, lotte, e interferenze religiose di varia natura, hanno portato l'uomo a comprendere e a vivere il suo ruolo di protagonista della rivoluzione scientifica. Si mostra in che modo una visione meccanicistica del mondo abbia prevalso su una visione finalistica (e quindi religiosa) nel portare l'uomo a fondare le basi reali della scienza. Tutto nacque quando l'uomo si domandò - più o meno contemporaneamente — quanto piccoli sono i componenti della materia e quanta grande è l'universo che traspare dai cieli stellati. Come si vedrà in seguito, questa pulsione a domandarsi allo stesso tempo sulle cose che stanno "sotto" e su quelle che stanno "sopra" il livello umano (almeno in senso Leonardesco), non solo è rimasta ma si è amplificata. Infatti come vedremo nelle parti successive, al giorno d'oggi le scoperte dell'infinitamente piccolo trovano riscontro in fenomeni estremi che avvengono nell'infinitamente grande. La prima parte di questo libro costituisce dunque una cerniera tra la filosofia degli antichi e l'instaurarsi del metodo-scientifico \p7 sperimentale nell'indagine dei fenomeni di natura, fino al pieno sviluppo della chimica e conseguente dimostrazione empirica dell'esistenza degli atomi. La seconda parte descrive la nascita e lo sviluppo della "fisica atomica", ovvero quell'avvicendarsi di scoperte che, in parallelo alla costruzione dell'ossatura della teoria quantistica e della teoria relativistica, ha portato a comprendere che gli atomi sono divisibili in particelle elementari costituite dagli elettroni, dai protoni e dai neutroni, e che altre particelle, come i fotoni, agiscono come intermediari nei processi che portano l'elettrone a effettuare "salti" all'interno dell'atomo stesso. Vengono descritti i diversi modelli di atomo, fino alla definitiva formalizzazione quantistica che portò a comprendere i primi processi di interazione tra particelle di materia come l'elettrone e particelle di energia come il fotone. Poi si passa ad una rivisitazione della chimica e dei legami che produce, vista dal punto di vista quantistico. Si mostrerà come i modelli teorici nascono da un confronto diretto con le osservazioni, in modo particolare come gli esperimenti di spettroscopia possano essere spiegati dal modello atomico, in un atomo non più inteso come entità isolata bensì come continuum che si lega direttamente all'energia, cosa che ha portato alla nascita della moderna elettrodinamica quantistica. Energia e materia come un tutt'uno perpetuamente interagente: un concetto fondamentale che ha posto anche le basi della moderna astrofisica, oltre che della fisica atomica teorico-sperimentale. La terza parte descrive invece la nascita e i risultati della "fisica nucleare", ovvero quei processi che si sviluppano all'interno del nucleo atomico che furono scoperti quasi parallelamente alla costruzione del modello quantistico di atomo. Si partirà con il misterioso fenomeno della radioattività per giungere poi alla scoperta della fissione e della fusione nucleare. Un momento meraviglioso e al contempo inquietante del progresso scientifico umano, che ha comunque permesso di penetrare nel regno della forza più potente esistente in natura: quella nucleare, talmente potente da riuscire ad unire tra loro particelle con la stessa carica elettrica come i protoni e da permettere alla materia di esistere come noi la conosciamo. Si descriverà allora cosa succede quando si tenta di spezzare i legami nucleari e anche quando si tenta di crearli e come tutto si manifesti nella liberazione di un'enorme quantità di energia. Come esempio più eclatante esistente in natura si passerà alla descrizione dei processi di fusione nucleare nel Sole e nelle stelle. In questo ambito si mostrerà in maniera dettagliata come la più grande energia che ci dà la vita funzioni direttamente per mezzo di processi che hanno puramente origine nel nucleo atomico. Questo si configurerà come un primo esempio lampante di come il mondo dell’infinitamente piccolo funzioni in sintonia con il mondo dell'infinitamente grande. Una simbiosi talmente sorprendente da spiegare l'esistenza di tutti gli elementi chimici che ci circondano. Tutto è nato dalle stelle e al contempo le stelle funzionane solo perché in esse hanno luogo potentissimi processi a livello dei nuclei atomici. In questa parte si inizierà a mostrare il ruolo fondamentale di quella particella sfuggente che è il neutrino, la quale proprio in questa seconda metà dell'anno 2006 è soggetta a studi congiunti tra il CERN e il Laboratorio di Ricerche Nucleari del Gran Sasso in Italia. \p8 La quarta parte riguarderà finalmente lo studio delle particelle elementari come emerge dagli esperimenti con i collisori in laboratori come quello del CERN in Europa. In questo contesto si traccerà una classificazione, la più accurata possibile, delle particelle elementari e dei loro decadimenti. E questa la parte in cui, mostrando in che modo le particelle sono associate a quattro interazioni fondamentali, verrà presentata l'ossatura del Modello Standard. Ciascuna delle quattro interazioni e le particelle che le caratterizzano verranno descritte in dettaglio: l'interazione elettrodinamica tra elettroni e fotoni, l'interazione cromodinamica tra quark e gluoni e quella tra mesoni e nucleoni, i processi trasformativi che caratterizzano strani fenomeni come la radioattività e il ruolo della gravità in questo contesto. Come si vedrà, in questa parte svariati fenomeni già trattati nelle parti precedenti verranno descritti in una nuova luce, spiegando come le particelle costituenti l'ossatura della materia interagiscono tra loro e in che modo ricevono forza ed energia da altre particelle con il ruolo di mediatrici. Si penetrerà nel mondo dei quark e degli incredibili processi che hanno luogo all'interno di protoni

Page 3: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

e neutroni, quelli che solo 35 anni fa venivano considerati ancora indivisibili. Questa parte rappresenta un po' una "versione vista al microscopio" delle due parti precedenti. Poi si passerà a illustrare tutte le procedure sperimentali che hanno portato a costruire le basi del modello standard: dalle procedure naturali come lo studio dei raggi cosmici e dei loro decadimenti, alle procedure artificiali che hanno correntemente luogo negli acceleratori di particelle sub-nucleari. Verranno poi mostrate le ragioni per le quali il Modello Standard, nonostante gli esaltanti risultati raggiunti fino a oggi, non può essere considerata una teoria completa. Sarà a questo punto che si discuteranno le teorie di grande unificazione, in particolare il concetto di supersimmetria e la teoria delle superstringhe, e la loro capacità di prevedete l'esistenza di particelle decisamente esotiche come le super-particelle, i mini-buchi neri e i monopoli magnetici. Si passerà infine a descrivere l'evoluzione dell'universo nelle sue varie fasi di pari passo alla nascita delle particelle, avvicendatesi in tre generazioni ben precise, e alla loro trasformazione che ha portato la materia ad assumere la forma che ha ora. Con quest'ultimo aspetto si mostrerà una volta di più che quanto più si scende nell’infinitamente piccolo, tanto più è possibile descrivere l'infinitamente grande. L'ultima parte di questo libro tratterà di questioni prettamente critiche e filosofiche, dove si tenterà di analizzare la validità del metodo scientifico, valorizzandone le sue doti e i suoi risultati, ma anche tenendo in considerazione le sue limitazioni nella \p9 descrizione delle leggi ultime della natura. Questa parte sarà anche un invito al lettore a non limitarsi a guardare la materia al microscopio ma anche a tentare di intravedere un significato globale in tutta la realtà che ci circonda, una realtà probabilmente non finalistica, ma comunque governata da una indubbia intelligenza e indiscutibile armonia. La trattazione del libro è interamente divulgativa, cioè destinata ad un pubblico generalista purché attento e curioso. Ridurre le complesse teorie matematiche che governano la fisica dell'infinitamente piccolo ad un prodotto ad uso e consumo del pubblico generale, è davvero un'impresa ardua, anche considerando l'enorme quantità di contenuti tra loro concatenati che caratterizzano questi studi. È possibile semplificare solo fino al punto in cui si è sicuri di non aver dato nulla per scontato. Per tentare di adottare questo approccio, sono state utilizzate svariate analogie per spiegare concetti particolarmente complessi. Ma al contempo si è voluto coinvolgere il lettore in un quadro dinamico e dialettico che gli permetta non di assorbire nozioni statiche ma di incuriosirlo sul funzionamento dinamico della materia in oggetto. Questo può introdurre il lettore stimolandolo e invitandolo a comprendere che queste conoscenze possono essere raggiunte solo con il ragionamento armoniosamente accoppiato all'immaginazione, obiettivo che - anche se i più non lo sanno (o lo temono) - è raggiungibile da chiunque sia dotato di curiosità, che non è altro che una forma di piacere. La trattazione è interamente discorsiva e non-matematica, fatta eccezione per alcune semplicissime formule del tutto irrinunciabili, che sono state introdotte nelle note (e in parte anche nelle figure), in maniera tale da non distrarre il lettore dalla continuità della lettura. Al fine di agevolare maggiormente la comprensione, alla fine di ognuna delle prime quattro parti di questo libro viene riportato un brevissimo riassunto coadiuvato da una batteria di semplici domande che aiutino il lettore a fare il punto della sua comprensione per poter proseguire agevolmente nei passi successivi. La parte bibliografico-informativa è stata volutamente preparata in maniera molto ricca, in modo da permettere al lettore di espandere il quadro prettamente introduttivo proprio di questo libro con ulteriori letture e consultazioni sia libresche che su internet (ulteriore divulgazione, ma anche modelli interattivi intuitivi). Una parte dei riferimenti tecnici è riservata al lettore che desideri approfondire. Questo libro è dunque indirizzato al pubblico curioso, dotata di cultura generale e con basi minime di fisica (a Livello del liceo), ma anche a scienziati di svariata specializzazione che non conoscono La fisica delle particelle. L'autore di questo libro spera di riuscire a comunicare al lettore non salo le dinamiche che stanno alla base di questa scienza, ma anche e soprattutto lo stupore che certe ricerche suscitano e che i più - a torto — hanno sempre considerato ostiche o irraggiungibili. In realtà tutti possono penetrare nel regno della fisica, purché guidati da quel potentissimo motore che è la curiosità e l'emozione che l'universo stesso non può non suscitare. \p11 \t CAPITOLO I Storia atomica Le origini del concetto di atomo \t 1.1. L'atomismo indiano Oltre tre millenni ci separano dal tempo in cui si iniziò a pensare che la materia fosse costituita da particelle indivisibili. L'idea che la materia fosse costituita di mattoni elementari si sviluppò soprattutto in Grecia, in India e nel mondo arabo, in un periodo in cui la fisica ancora non esisteva e dove tutte le conoscenze venivano inglobate in una specie di "filosofia naturale", che al suo interno contemplava anche il cosiddetto "atomismo".

Page 4: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Sicuramente la scuola di pensiero più antica si sviluppò tra il 1500 e il 500 a.C. in India. In quel periodo il mondo materiale veniva classificato in quattro elementi fondamentali: la terra, il fuoco, l'aria e l'acqua, a cui se ne aggiungeva un quinto denominato "etere" (dagli indiani denominato "Akasha") dalle caratteristiche marcatamente spirituali. I filosofi dell'antica India ritenevano che tutti i primi quattro elementi, eccetto il quinto, fossero composti di minuscole particelle di materia. Il concetto indiano di atomo si sviluppò indipendentemente da quello ben più noto del mondo greco-romano e molto prima di esso. I primi filosofi indiani che svilupparono queste idee in un quadro sistematico furono Kanada e Pakudha Katyayana, attorno al sesto secolo a.C. Essi erano contemporanei di Budda, il quale tra l'altro aveva sviluppato la sua famosa religione-filosofia proprio in India. I concetti atomistici indiani non erano tanto diversi da quelli sviluppati in Grecia e nacquero e si svilupparono per primi. C'è infatti chi suggerisce che l'atomismo greco si fosse sviluppato in seguito alle possibili visite in India del filosofo greco Pitagora. In India furono soprattutto le scuole Buddiste a occuparsi di atomismo. Un aspetto interessante dell'atomismo indiano era il modo in cui le particelle elementari venivano combinate tra loro. Secondo due scuole indiane, in particolare quella Jaina e Vaisesika, gli atomi hanno prima la tendenza a combinarsi in coppie (denominate "diadi") e poi a raggrupparsi in un trio di coppie (denominate "triadi"), che costituirebbero le unità elementari di materia più piccole. L'idea di coppie e triplette è indubbiamente molto interessante, perché — in base alle conoscenze della fisica sub-nucleare di oggi - è esattamente il modo in cui i quark si combinano per formare mesoni, protoni e neutroni. Inoltre l'idea di coppia \p12 è normalmente presente nella fisica particellare contemporanea quando si intende il legame che lega particelle di materia a particelle di antimateria. Non c'è dubbio che questi concetti espressi dall'atomismo indiano coincidano in maniera sorprendente con la fisica nucleare e sub-nucleare attuale. Nelle scuole Buddiste indiane che si svilupparono prima del quarto secolo a.C, le idee atomiste venivano combinate con i principi religiosi di Budda (vedi Figura 1). Sicuramente la scuola filosofica indiana più importante che prese in forte considerazione il concetto di atomismo, fu quella Jaina, che si sviluppò attorno al primo secolo a.C. Il concetto di atomismo indiano, in tutte le sue varianti che si succedettero nel tempo, era molto variegato, sostanzialmente simile a quello greco, ma con qualche peculiarità per quello che riguardava le caratteristiche specifiche degli atomi. Per le scuole indiane, ogni atomo aveva un sapore, un odore, un colore e due tipi di sensazione tattile e poteva esistere in due tipi di stati, uno sottile, dove essi occuperebbero uno spazio infinitesimale e uno più grossolano, in grado di occupare uno spazio finito. Sembra in effetti un po' la stessa differenza che sussiste tra particelle elementari come il protone o l'elettrone e le molecole che compongono gli atomi. E infatti i filosofi indiani avevano sviluppato anche teorie che descrivevano come gli atomi — i quali a loro volta erano considerati i mattoni fondamentali dei quattro principali attributi della materia prima enunciati — potevano combinarsi, reagire, vibrare muoversi tra loro. Si trattava senza dubbio di una teoria che aveva molti punti in comune con la scienza atomica e chimica dei nostri tempi, con un'impostazione decisamente razionale e nettamente meccanicistica, seppur armoniosamente fusa con la filosofia buddista. \p13 1.2. L'atomismo greco In Grecia il concetto di atomismo iniziò a svilupparsi attorno al 475 a.C. Probabilmente il primo a porne le basi fu il filosofo Parmenide, il quale non sviluppò una vera e propria teoria atomistica, ma fondò comunque alcune caratteristiche di quello che sarebbe stato l'atomismo dei suoi successori. Queste caratteristiche di base erano che tutti gli oggetti del mondo fisico consistevano di una sostanza nascosta "increata" ed eterna, e che le differenze tra gli oggetti della natura non erano altro che differenti configurazioni di questa sostanza che si trovava nascosta dentro di essi. Attorno al 450 a.C, Empedocle sviluppò ulteriormente questo concetto, concentrandosi soprattutto sulle similitudini e le differenze tra gli oggetti in natura, suggerendo che gli oggetti tra loro simili fossero composti delle stesse proporzioni degli elementi fondamentali fuoco, aria, acqua e terra. Non ci sono dubbi che questa impostazione ricorda moltissimo quello che sarebbe stato sviluppato due millenni dopo con la chimica. Purtuttavia Empedocle non aveva ancora scoperto l'atomismo e la sua analisi dei mattoni della materia si limitava solo alla combinazione dei quattro elementi fondamentali - intesi come "fluidi" e non come particelle discrete - e non alla loro costituzione interna. A questo punto rimaneva il quesito fondamentale se esistessero delle unità fondamentali della materia che fossero effettivamente indivisibili. A rispondere a questa domanda fu. Democrito attorno al 400 a.C, il quale ponendo le basi dell'atomismo occidentale, stabili che la sostanza nascosta che si cela negli oggetti di natura consisteva in differenti configurazioni di "atomi" - particelle indivisibili - e di vuoto. Sia le particelle che il vuoto venivano intese come entità eterne e indistruttibili. Senza dubbio, tra gli atomisti, Democrito (vedi Figura 2) è il più famoso. \p14 Va comunque ricordato che egli segui strettamente gli insegnamenti di Leucippo, il quale fu il vero iniziatore della teoria atomistica greca, anche se non è noto dove egli avesse appreso questi insegnamenti. Il

Page 5: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

concetto di "vuoto" ha un ruolo fondamentale nella filosofia atomistica e rappresenta lo spazio in cui gli atomi si combinano. A seconda del modo in cui gli atomi si combinano o si dissociano, gli oggetti assumono caratteristiche differenti e influiscono in maniera differente sulle nostre sensazioni. In particolare le nostre sensazioni di caldo e di freddo dipendono dal modo in cui gli atomi si combinano o si diffondono quando vanno a creare un oggetto. Sicuramente l'aspetto più interessante del modello Democriteo e della progenie di studiosi che seguirono il suo indirizzo, è rappresentato dall'eternità degli atomi e del vuoto in cui essi sono contenuti: gli oggetti possono formarsi allo stesso modo in cui possono frammentarsi in oggetti più piccoli, i quali a loto volta, guidati da vortici che si sviluppano nel vuoto, possono dare luogo alla formazione di nuovi oggetti in un ciclo di trasformazione senza fine, di nascita, di morte e di rinascita. Questa concezione ricorda molto la teoria dei vortici del fisico tecnico italiano contemporaneo Marco Todeschini (1899-198 8). La filosofia atomistica Democritea non prevedeva un "architetto intelligente" della materia, o comunque un creatore; al contrario si riteneva che l'universo seguisse principi interamente meccanici, governati dalle vibrazioni degli atomi e dalle loro trasformazioni, i quali sarebbero semplicemente basati su un principio di "necessità" e senza una "provvidenza" che governi il fluire delle cose. Si ritiene che gli scritti di Democrito in merito alla filosofia atomistica fossero molto numerosi, purtuttavia una buona parte di essi andarono persi nell'incendio della famosa biblioteca di Alessandria nel 48 a.C. L'atomismo Democriteo fu studiato a fondo dal filosofo greco Epicuro, il quale aveva avuto stretti contatti con Nausifane, che era stato uno stretto discepolo di Democrito. Ciononostante la filosofia atomistica di Epicuro era semplicemente un adattamento di tipo "utilitarista" di quella Democritea. A differenza di Democrito, che aveva una visione nettamente "scientifica" e meccanicistica dell'Universo e del modo in cui gli atomi lo costruiscono, Epicuro voleva svilupparne un aspetto che si occupasse anche del ruolo dell'uomo in questo contesto, un'umanità che aveva bisogno di prendere coscienza della propria responsabilità, in una tensione verso una felicità che poteva essere creata senza l'assistenza di un Dio, che veniva considerato un'entità inesistente. A differenza di Democrito ed Epicuro, il grande filosofo greco Platone, pur accettando la teoria atomistica, andava ben oltre il meccanicismo ateo e materialista, riuscendo anche a contemplare il ruolo di un Creatore. Platone riteneva che la bellezza della natura non poteva essere solo un casuale risultato dell'agglomerarsi degli atomi, ma doveva per forza nascondere anche una volontà o intelligenza superiore. Nella teoria di Platone gli oggetti indivisibili che compongono la materia erano rappresentati, secondo la sua visione, da solidi regolari composti di figure \p15 piane costituite da triangoli. In tal modo i quattro elementi basilari che caratterizzano la materia - la terra, l'aria, il fuoco e l'acqua - avevano la loro radice ultima in elementi geometrici inscindibili, rappresentati proprio dai "triangoli elementali". \t 1.3. La lunga stasi aristotelica Poi arrivò l'altro grande filosofo greco, Aristotele (vedi Figura 3), il quale negò in maniera netta sia l'esistenza del vuoto che l'eternità degli atomi e smontò la teoria atomistica di matrice Democritea ricostruendola in una maniera completamente diversa. Secondo Aristotele esisteva qualcosa di eterno, ma era qualcosa che andava ben oltre la materialità stessa degli atomi, al contrario egli sosteneva che la materia potesse essere divisibile all'infinito senza accettare l'esistenza di particelle indivisibili come gli atomi di Democrito. Ciò che era eterno era il "movimento" e la sua causa prima che ovviamente veniva attribuita ad un ente divino creatore di tutte le cose. In tal modo il pensiero Aristotelico, ponendo le basi del sapete occidentale per molti secoli fino al medioevo inoltrato, eclissò l'importanza dell'atomismo. Fu così che le idee atomistiche vennero quasi dimenticate almeno fino al sedicesimo secolo d.C. Si può tranquillamente affermare che il medioevo rappresentò il buio più totale della filosofia atomistica (che tra l'altro era anche in antitesi con la dottrina Cristiana), allo stesso modo in cui sembrò esserci un profondo declino di quello che invece era stato lo sviluppo dell'impostazione scientifica (seppur atea) lanciata da Democrito e dagli altri studiosi greci. L'impostazione della filosofia medioevale non era più "scientista", bensì improntata alla morale e alla religione e verso un sapere più qualitativo che quantitativo. In sostanza si trattò di una specie di buio della ragione, una vera e propria involuzione. Mentre in Europa l'atomismo veniva relegato ad una specie di "visione errata" del mondo, che solo pochi studiosi ogni tanto \p16 riconsideravano in maniera completamente critica e mentre la filosofia Aristotelica troneggiava indiscussa, in India invece si sviluppavano scuole di pensiero atomistiche sempre più sofisticate. Probabilmente l'atomismo indiano era più accettabile di quello Democriteo, perché seppur anch'esso di impostazione meccanicista, accettava però al suo interno l'esistenza di un'entità trascendente, seppur non propriamente un "dio".

Page 6: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Non è un caso, infatti, che oltre ai quattro elementi composti dagli atomi materiali, ne esistesse anche un quinto rappresentato dall'etere, o Akasha, un regno marcatamente spirituale. Sicuramente il Buddismo indiano aveva creato la giusta misura tra meccanicismo della materia e spiritualità. Nello stesso periodo in cui si sviluppava l'atomismo in India e l'aristotelismo in Europa, nel mondo Islamico si sviluppava una forma di atomismo che ricordava un po' una sintesi o sincretismo dell'atomismo greco e di quello indiano. Ma anche in quello islamico, come in quello indiano, l'atomismo era permeato in qualche modo da un substrato teologico-filosofico. E al contempo andava oltre, dal momento che nel corso dello sviluppo dell'atomismo islamico, si arrivò addirittura a ipotizzare che potessero esistere particelle ancora più piccole dell'atomo stesso, cosa che sarebbe stata confermata sperimentalmente solo molti secoli dopo utilizzando gli acceleratori come quello del CERN. \t 1.4. La rinascita dell'atomismo in Europa In Europa si dovette aspettare il sedicesimo secolo d.C, prima di iniziare a veder crollare gradualmente le basi del pensiero Aristotelico. Ciò avvenne di pari passo con lo sviluppo del metodo sperimentale nelle scienze. Fu allora che l'atomismo riapparse in Europa, soprattutto con figure come il filosofo e matematico francese Cartesio (René Descartes, 1596-1650; vedi Figura 4), ma anche con gruppi culturali di non secondaria importanza nati soprattutto in Inghilterra. In particolare, il gruppo denominato "circolo del Northumberland", seppur composto non da veri scienziati bensì da uomini di cultura appassionati di scienza, ebbe una notevole valenza nel veicolare il pensiero atomistico. E ciò avveniva proprio in un periodo favorevole ad un ulteriore rinascita dell'atomismo, dai momento che in quel periodo in Europa stava nascendo il metodo sperimentale nelle scienze. Infatti fu proprio il filosofo empirista Francis Bacon (1561-1626) ad assorbire in maniera solida e decisa una parte delle idee atomistiche. Tra il sedicesimo e il diciassettesimo secolo anche filosofi come Giordano Bruno (1548-1600) e Thomas Hobbes (1588-1679) fecero propria l'idea atomista. Sicuramente la figura più eminente che assorbì in maniera sostanziale la \p17 teoria atomistica fu Galileo Galilei (1564-1642), il quale oltre alla sua enorme e rivoluzionaria produzione intellettuale e sperimentale, aveva messo a punto una sua "teoria corpuscolare" della materia, proprio sulla base di alcuni dei suoi esperimenti che senz'altro contraddicevano la "fisica Aristotelica" che aveva imperversato per così tanti secoli. In particolare l'idea atomistica, pur non dimostrando la legge della caduta dei gravi, poteva spiegare il concetto di "inerzia" dei corpi in moto, poiché la teoria atomistica contemplava la conservazione del moto dei corpi. In ogni caso non fu Galileo a sposare in maniera univoca l'atomismo, bensì Cartesio, il quale sviluppò una teoria molto più organica sotto la forma di quello che lui chiamava "corpuscolarismo" e che aveva molto in comune con l'atomismo primigenio per quello che riguardava l'aspetto meccanicista. L'unica importante differenza tra l'atomismo di Cartesio e quello degli atomisti classici come Democrito era che secondo Cartesio non esisteva il vuoto a contenere i corpuscoli di materia e che tutta la materia nelle sue forme più minute fluiva attraverso altra materia. Per il resto la visione di Cartesio era puramente meccanica e riduzionista, dunque nettamente scientifica. Varianti del corpuscolarismo vennero adottate anche da altri studiosi come ad esempio il prete cattolico francese Pierre Gassendi (1592-1655), il quale put accettando l'idea di base dell'atomismo lo aveva però deprivato della sua caratteristica atea. Si può dire che la filosofia definitiva sull'atomismo che venne universalmente accettata in Europa - soprattutto in Inghilterra - fu una specie di amalgama delle filosofie di Cartesio e di Gassendi. Una figura di rilievo che emerse in questo panorama fu quella del filosofo naturale irlandese Robert Boyle (1627-1691). Pur avendo le sue radici nella tradizione alchemica, Boyle, oltre che padre di importanti leggi della fisica, può essere considerato un po' il padte della chimica, avendo fatto proprio il metodo empirico di Bacon. Il concetto sviluppato da Boyle di "impenetrabilità", come proprietà fondamentale della materia che la distingue dal vuoto, era strettamente legato all'atomismo, seppur non nella sua forma atea originale. Gli atomi indivisibili di Boyle erano da lui definita "minima naturalia", particelle caratterizzate da forma e dimensioni invariate, ma con cambiamenti di moto. Su questa base, tutte le proprietà mostrate dagli oggetti macroscopici - come ad esempio il colore, il gusto, il calore, e l'elasticità - sono riducibili alle caratteristiche e ai moti di atomi indivisibili. \p18 In questo periodo dunque, seppur con diverse varianti sul tema, in Europa iniziò a farsi strada quella che venne chiamata "filosofia meccanica" e che iniziò a porre le basi del pensiero scientifico-sperimentale. Sembrava dunque che l'Europa stesse cominciando a uscire dal buio dei secoli medioevali, per approdare a quella che sarebbe diventata la scienza odierna. Questa metamorfosi avvenne di pari passo con la nascita e lo sviluppo della tecnologia, soprattutto a partire del tardo 1700, la quale influenzò nettamente l'impostazione filosofica che fino a quel momento aveva caratterizzato la scienza. \t 1.5. Gli "atomi chimici" di Dalton

Page 7: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

La tecnologia nascente poneva a disposizione degli scienziati i mezzi adeguati per effettuare reali sperimentazioni che andassero ben oltre le speculazioni dei secoli precedenti. Si cominciava cioè a pensare di verificare direttamente sul campo le idee della scienza; in tal modo il metodo scientifico giungeva ad una sua completezza. Tutto questo processo evolutivo portò infatti nel 1808 il chimico e fisico inglese John Dalton (1766-1844; vedi Figura 5) ad acquisire evidenze realmente empiriche sulla composizione della materia. Tutto si sviluppò da un punto di vista prettamente chimico, ovvero dal punto di vista delle molecole, le quali sono agglomerati di atomi e possono caratterizzare differenti elementi. Infatti nel corso dei suoi esperimenti Dalton notò che l'acqua poteva essere scomposta in due e due soli elementi: l'idrogeno e l'ossigeno. Ciò accadeva anche ad altre sostanze, le quali una volta decomposte mostravano gli elementi di cui erano composte, quali si presentavano sempre nelle stesse proporzioni di peso. Egli dunque ne concluse che dovevano esserci veri e propri atomi che potevano combinarsi assieme fino a costituire le molecole, le quali a loro volta potevano essere scomposte negli atomi primigeni. In particolare Dalton concluse che le riscontrate proporzioni fisse con cui si presentava il peso degli elementi suggeriva che gli atomi di un dato elemento potevano combinarsi solo con un numero limitato di altri elementi per formare delle sostanze, come ad esempio l'acqua o altri composti. ANALOGIA 1. Volendo fare una similitudine, supponiamo di avere un grosso mucchio di graffette per fogli di carta e di dividere, poi, questo gruppo in due gruppi uguali, quindi di volta in volta, di dividere questi gruppi tra loro. Alla fine si arriverà ad un gruppo contenente una sola graffetta. Supponiamo ora di prendere un paio di forbici e di tagliare in due questa graffetta: ciò sarà impossibile perché quella graffetta è indivisibile. Il comportamento degli atomi è identico a quello della graffetta, allo stesso modo in cui il comportamento dei gruppi di graffette è identico a quello delle molecole, che sono combinazioni di atomi. \p19 Dietro questi legami e combinazioni di elementi dovevano per forza celarsi leggi rigorose che vincolano l'interazione degli atomi tra loro. E in particolare, leggi che prevedono che: a) ogni elemento è fatto di atomi (analogia delle graffette); b) tutti gli atomi di un dato elemento sono uguali (come dire che le graffette hanno le stesse dimensioni e lo stesso colore); c) gli atomi di differenti elementi sono differenti (come dire che ci sono graffette con dimensioni e colore diverso); d) nelle reazioni chimiche gli atomi non possono essere creati, distrutti, cambiati o trasmutati (come dire che non appaiono nuove graffette né vanno perse, e che non possono esserci graffette che cambiano dimensioni o colore); e) in ogni composto, i numeri e i tipi di atomi rimangono gli stessi (come dire che il numero totale e il tipo di graffette con cui si inizia sono gli stessi di quando si finisce). Oltre a Dalton, il quale aveva sostanzialmente posto le vere basi sperimentali della chimica, altri come l'italiano Amedeo Avogadro (1776-1856) e il russo Dmitrij Mendeleev (1834-1907) iniziarono a pesare in maniera sempre più precisa gli atomi. In particolare Avogadro scoprì che alla stessa pressione e temperatura, uguali volumi di gas avevano lo stesso numero di molecole. In tal modo, pesando i volumi dei gas, egli era in grado di determinare i rapporti delle masse atomiche. Ad esempio, un litro di ossigeno pesava 16 volte più di un litro di idrogeno. Queste misure portavano ad una scala relativa di massa per gli elementi chimici, in maniera tale che con ulteriori esperimenti si era in grado di relazionare la massa in grammi di una sostanza al numero di atomi della stessa. Queste ricerche etano state precedute da quelle del francese Antoine Lavoisier (1743-1794), il quale, introducendo il metodo galileiano in chimica, sulla base dei suoi esperimenti aveva potuto osservare che in tutte le reazioni chimiche la stessa quantità di materia è presente sia prima che dopo la reazione (conservazione della massa), concludendo quindi che in una reazione chimica le trasmutazioni da un elemento ad un altro non possono accadere e contraddicendo quindi tutti gli assunti di base che nel periodo medioevale avevano caratterizzato l'arte dell'alchimia. \p20 \t 1.6. La nascita della Tavola Periodica degli elementi Al tempo in cui venivano scoperte le masse atomiche, Mendeleev stava scrivendo un libro di chimica. Appositamente per il suo libro, egli iniziò a organizzare in caselle tutti gli elementi chimici in base alle loro proprietà e alle loro masse atomiche. Gli elementi venivano disposti in ordine di massa crescente, in una tabella molto ingegnosa. Fu così che egli notò che elementi con proprietà simili apparivano a intervalli regolari o "periodi" e proprio per questo la tabella venne chiamata "Tavola Periodica degli elementi", la quale è stata poi aggiornata fino ai giorni nostri di volta in volta che venivano scoperti nuovi elementi. In questa tavola gli elementi sono disposti in colonne e in righe in base al numero atomico (che, come si vedrà poi, rappresenta sia il numero di elettroni che il numero di protoni) crescente. La tavola stessa, proprio

Page 8: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

per la sua periodicità, permise addirittura di scoprire (una specie di procedura di interpolazione) nuovi elementi chimici come il Gallio e il Germanio. Dunque si disponeva finalmente di un metodo empirico per catalogare la struttura atomica. Tutto nasceva dai pesi relativi che si riuscivano a misurare dei vari elementi chimici, da cui si risaliva al loro peso atomico. Ci si era dunque resi conto che gli atomi potevano essere catalogati in gruppi ben precisi che condividevano simili proprietà chimiche. Ciò indicava chiaramente che gli atomi sono fatti di semplici mattoni che costituiscono la materia e che sono proprio questi mattoni disposti in differenti combinazioni tra loro a determinare le proprietà chimiche osservate. Ma ancora non si sapeva dell'importanza basilare degli elettroni per quel che riguarda il legame chimico, perché gli elettroni all'interno degli atomi non etano stati ancora scoperti. Riprenderemo in esame più avanti la tavola periodica degli elementi in maniera tale da fornire un'interpretazione corretta del suo comportamento alla luce della scoperta dell'elettrone, del protone e del neutrone. Era dunque nata la chimica odierna, quella disciplina che aveva permesso di scoprire la natura intrinseca della materia attraverso la proprietà degli atomi di combinarsi in proporzioni ben definite. Però gli atomi, le cui proprietà venivano sperimentalmente dedotte dagli esperimenti di chimica, rimanevano indivisibili. Inoltre, pur conoscendo empiricamente il comportamento chimico degli atomi nelle molecole, non si sapeva ancora cosa gli atomi fossero esattamente: essi potevano essere solo classificati in base alle loro proprietà empiriche che furono poi ben descritte nella Tavola Periodica degli Elementi. Non sarebbe però passato molto tempo perché la struttura intima degli atomi stessi - e la loro effettiva divisibilità - potesse essere conosciuta in passi successivi sempre crescenti. \p21 Parallelamente al crescente sviluppo della sperimentazione di laboratorio, la fisica aveva acquisito un carattere sempre più matematico che raggiunse senz'altro il suo culmine alla metà del 1800 con l'unificazione delle forze magnetiche con quelle elettriche a opera del fisico inglese James Clerk Maxwell (1831-1879). Alla fine del diciannovesimo secolo alcune scoperte importanti fecero ingresso nella fisica, in modo particolare la scoperta dei raggi X da parte del fisico tedesco Wilhelm Rontgen (1845-1923). Più o meno nello stesso periodo il fisico francese Henri Bequerel (1852-1908) prima e poi i coniugi Marie Curie (1867-1934) e Pierre Curie (1859-1906) subito dopo, scoprirono gli elementi radioattivi, un passo decisamente importante verso un inizio della comprensione della reale struttura atomica. Affronteremo in seguito, in dettaglio, l'argomento della radioattività. Sicuramente la scoperta che aprì un'enorme spiraglio nella struttura atomica fu quella dell'elettrone a opera del fisico inglese Joseph Thomson nel 1899 e poi quella del protone, due anni dopo, da parte del fisico inglese Ernest Rutherford. Tratteremo in dettaglio queste scoperte nella parte che segue. RIASSUNTO - Capitolo I Il concetto di atomo si sviluppò circa 3000 anni fa in India, in Grecia e successivamente nel mondo islamico, sotto forma di quella corrente filosofica di pensiero denominata "atomismo". Il più famoso degli atomisti fu Democrito. A questa filosofia della natura subentrò quella di Aristotele che negando il vuoto e l'inscindibilità degli atomi, caratterizzò il periodo successivo e molti secoli a venire, soprattutto il periodo medioevale. Dopo un lungo periodo di oscurantismo scientifico si fece strada in Europa il concetto di "empirismo" che portò svariati filosofi e scienziati, tra i quali Galileo e Cartesio, a riconsiderare l'idea di atomismo degli antichi. In breve tempo iniziò a svilupparsi il pensiero scientifico occidentale di pari passo con lo sviluppo della tecnologia, fino a che si arrivò a porre le prime basi realmente sperimentali della chimica, grazie soprattutto a scienziati come Dalton. Sulla base delle ricerche chimiche si arrivò a dimostrare in maniera empirica che l'idea di atomo non era un concetto filosofico bensì una realtà empirica dimostrabile. Nel frattempo importanti scoperte della fisica, come i raggi X e la radioattività, stavano venendo alla luce. Era l'inizio della scienza atomica vera e propria. \p22 QUESITI 1. In che cosa si distingueva l'atomismo dei pensatori greci da quello dei pensatori indiani e islamici? 2. Per quale ragione il pensiero di Aristotele rivoluzionò in maniera negativa le concezioni sulla struttura della materia, in antitesi con il pensiero atomista? 3. In che modo venne ripreso in Europa il pensiero atomista? 4. In che modo la fondazione del metodo empirico e Galileiano pose le basi della scienza odierna? 5. Che cosa spinse Dalton a dedurre empiricamente che la materia è costituita di atomi? 6. Perché la Tavola Periodica degli elementi è importante? \p23

Page 9: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

\t CAPITOLO 2 Fisica atomica - I primi modelli di struttura atomica Maxwell aveva finalmente formalizzato con equazioni molto eleganti il comportamento dei campi elettromagnetici, ed era chiaro alla fine dell'800 che la luce, le onde radio e tutti i tipi di onde dovessero seguire le stesse leggi. Si era compreso ad esempio, che la luce si propagava per onde, che il campo elettrico era dovuto ad un moto di cariche nel vuoto, e che i campi elettrostatici che si verificano tra oggetti carichi si manifestano seguendo una legge ben precisa scoperta già alla fine del diciottesimo secolo dal fisico francese Charles Augustin de Coulomb1, secondo la quale cariche opposte (negative e positive) si attraggono con una forza che aumenta al diminuire del quadrato della separazione delle cariche stesse, mentre cariche uguali (positive o negative) si respingono seguendo lo stesso andamento in funzione della separazione delle cariche (vedi Figura 6). Questa legge, detta "Legge di Coulomb" si \p24 rivelerà di importanza basilare non solo per la teoria dei campi elettrostatici ma anche per tutta la fìsica atomica e nucleare. Si conoscevano dunque sia i campi elettrici che elettrostatici, i campi elettrici erano poi stati unificati con i campi magnetici, ma non si conosceva ancora la radice di questi fenomeni. E infatti la radice risiedeva all'interno dell'atomo stesso, ma ancora nessuno conosceva bene il meccanismo attraverso il quale nascessero le cariche elettriche. 2.1. L'atomo rigido di Thomson e la scoperta dell'elettrone La prima rivoluzione in fisica particellare fu fatta nel 1897 dal fisico inglese Joseph Thomson (1856-1940) nel corso di un suo esperimento cruciale con i raggi catodici, che si ottengono facendo passare corrente elettrica da un elettrodo (catodo) ad un altro (anodo) attraverso un gas contenuto in un tubo. Thomson si accorse che se al tubo contenente il gas veniva poi applicato un campo elettrico o magnetico, questi raggi venivano deviati. Dall'entità della deviazione egli potè misurare il rapporto della carica elettrica rispetto alla "massa" dei raggi catodici. In seguito a queste esperienze ne concluse che i raggi catodici non erano realmente "raggi" bensì vere e proprie particelle cariche negativamente, che lui chiamò "elettroni", particelle elementari estremamente piccole (per via dell'elevatissimo rapporto misurato tra la loro carica e la loro massa) che dovevano per forza essere contenute all'interno di tutti gli atomi. Gli elettroni erano dunque le prime particelle subatomiche a essere scoperte, contraddicendo così l'indivisibilità dell'atomo che il chimico Dalton aveva promulgato attraverso i suoi esperimenti. Gli esperimenti con i raggi catodici portarono Thomson a mettere a punto un primo modello che descrivesse la struttura interna dell'atomo, che fino a quel momento era stato considerato indivisibile. Siccome gli atomi sono elettricamente neutri, se ne poteva dedurre che se la materia conteneva una carica negativa (l'elettrone), allora doveva per forza esistere anche una carica positiva che ne bilanciasse l'effetto. Il modello di Thomson prevedeva che l'atomo fosse formato da una sfera di carica positiva estesa quanto l'atomo stesso al cui interno dovevano trovarsi immersi gli elettroni sparsi senza un preciso ordine ma in modo comunque omogeneo (vedi Figura 7). Gli elettroni erano distribuiti all'interno di questa sfera positiva un po' come i semi sono distribuiti all'interno di un cocomero oppure come le uvette all'interno di un panettone. Una volta misurata con precisione sia la massa che la carica dell'elettrone con l'importante contributo del fisico americano Robert Millikan (1868-1953), si comprese senza ombra di dubbio che l'elettrone è una particella estremamente più piccola dell'atomo stesso, mentre al contempo si deduceva che doveva esistere una zona di carica positiva per fare in modo che l'atomo fosse elettricamente neutro, ma si era ancora lontani dal capire che la carica positiva è localizzata e non sparsa all'interno dell'atomo. L'esperienza \p25 di Thomson permise soprattutto di capire che il numero atomico" che compariva nella tavola periodica degli elementi era proprio il numero degli elettroni che componevano l'atomo, la cui posizione era definita dalla legge di repulsione elettrostatica scoperta da Coulomb un secolo prima. Insomma si riusciva a dare finalmente una chiave di lettura prettamente fisica alle fenomenologie e alle regole empiriche scoperte tempo prima dai chimici. Senza dubbio l'emozione che provò Thomson quando scoprì la natura particellare dell'elettrone - cosa che gli valse il premio Nobel nel 1906 - fu davvero grande. Lo si può notare da quanto lui stesso riportò a commento delle sue scoperte: "È impossibile non concludere che la radiazione catodica sia formata da cariche di elettricità negativa trasportate da particelle di materia... ci si trova dinnanzi ad un nuovo stato della materia...uno stato in cui tutta la materia è di un solo genere... e questa materia è la sostanza con la quale sono costituiti tutti gli elementi chimici ". Si era ancora lontani dal "modello orbitale" dell'elettrone, ma intanto si era riusciti a capire che l'atomo era a sua volta scindibile in particelle ancota più piccole. Era nata così la fisica atomica.

Page 10: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Il modello di Thomson fece fare un enorme passo avanti nell'esplorazione dell'atomo, ma ancora non spiegava i risultati delle misure spettroscopiche - che venivano effettuate come studio parallelo - dove si osservava chiaramente che righe spettrali a precise lunghezze d'onda venivano prodotte quando veniva fatto passare un gas freddo davanti ad un gas incandescente (è esattamente quello che si vede osservando lo spettro del Sole e delle stelle). 2.2. L'atomo planetario di Rutherford e la scoperta del protone Nel 1911, il fisico inglese Ernest Rutherford (1871-1937), decise di mettere alla prova il “modello a panettone" di Thomson. Tra l'altro Rutherford aveva studiato a fondo il meccanismo della radioattività scoprendo l'emissione dei "raggi Alfa" 2 che venivano prodotti dal meccanismo del decadimento radioattivo, assieme ai "raggi Beta" e ai "raggi Gamma". Usò proprio queste particelle per testare il modello di Thomson, effettuando un esperimento davvero cruciale e geniale guidando i suoi due giovani collaboratori Hans Geiger (1882-1945) e Ernest Marsden (1889-1970). Essi utilizzarono proprio un fascio di particelle Alfa per bombardare un sottile foglio di Oro, dietro il quale si trovava uno schermo di solfuro di zinco che aveva lo scopo di segnalare - illuminandosi - l'arrivo delle particelle Alfa attraverso il foglio \p26 di Oro e di misurarne eventuali deviazioni. Se il modello di Thomson era vero, ovvero se davvero la carica positiva era distribuita omogeneamente attraverso tutto l'atomo, allora queste particelle avrebbero dovuto essere deviate dalla traiettoria rettilinea in maniera molto lieve, poiché il valore del campo elettrico (quello che esercita la forza deflettente sulle particelle Alfa) è sempre molto limitato. Quello che invece Rutherford constatò fu che nella stragrande maggioranza dei casi (99%) non c'era nessuna deviazione e i raggi Alfa attraversavano il foglio di Oro senza nessuna perturbazione, mentre invece in alcuni casi (1%) si registravano casi di deviazione enorme del fascio di particelle Alfa, a volte addirittura con un'inversione di rotta (vedi Figure 7 e 8). Ci si trovava di fronte ad un risultato entusiasmante che avrebbe permesso di scoprire ben presto una nuova particella cardine dell'atomo. Infatti i risultati dell'esperimento di Rutherford potevano essere spiegati solamente ammettendo che la massa dell'atomo e con essa l'intera carica positiva fosse confinata in un'area estremamente piccola, e non diffusa - come Thomson prima riteneva - su tutto il volume dell'atomo. La carica positiva, quella che permetteva le drastiche deviazioni dei raggi Alfa, doveva per forza essere concentrata in un nucleo piccolissimo. Un nucleo difficile da intercettare dai raggi suddetti, ma quando questo succedeva la deviazione dei raggi era drastica e ciò si spiegava con l'interazione (repulsiva tra cariche positive) tra le particelle positive contenute in un nucleo molto circoscritto e le particelle Alfa. Non si poteva giungere ad una conclusione differente, perché se una particella passa attraverso la materia esternamente alla corteccia di elettroni, non sentirà nessun campo elettrico in grado di esercitare una forza che la devii, mentre invece se la particella entra all'interno di questa corteccia, allora il campo elettrico si fa sentire in maniera tanto più forte quanto più la particella è vicina al nucleo (ciò vale secondo la legge di Coulomb) generando quindi una forte deviazione. Il fatto che a volte le particelle Alfa tornassero addirittura indietro si poteva spiegare solo con un urto frontale con il nucleo stesso. La totale mancanza di deviazione dei raggi Afa nel rimanente 99% dei casi era dunque dovuto al fatto che i raggi Afa, attraversando lo spazio vuoto che separa il nucleo dagli elettroni esterni, non incontravano praticamente nessuna resistenza. Ciò portava Rutherford a concludere che gli atomi di Oro erano fatti principalmente di spazio vuoto completamente ininfluente sulla traiettoria delle particelle Alfa, e infatti le particelle Alfa ci passavano attraverso senza nessun effetto. Invece la fortissima deviazione subita dalle particelle Alfa doveva per forza provenire da uno spazio estremamente ristretto dove era concentrata la massa dell'atomo. Questo doveva dunque essere il nucleo. Al contrario, in base al modello di Thomson, che contemplava una carica elettrica equamente distribuita su tutto l'atomo, ci si doveva aspettare sempre una deviazione comunque lievissima. Dunque, l'esperimento di Rutherford dimostrò \p27 per la prima volta che la carica positiva è localizzata in uno spazio piccolissimo, dove è concentrata anche tutta la massa delle particelle positive (che rappresenta quasi tutta la massa dell'atomo, esclusa quella piccolissima degli elettroni). ANALOGIA 2. Per visualizzare meglio l'esperimento di Rutherford si potrebbe pensare ad un ragazzino che gioca a pallone la prima volta in un campo con erba molto alta e la seconda volta su una pista di cemento dove è piantato un pala di ferro. Nel primo caso il ragazzino dà il calcio alla palla la quale passa in mezzo ai fili di erba senza quasi nessuna resistenza: questo è il modello di Thomson. Nel secondo caso il ragazzino dà 100 calci alla palla, la quale prosegue totalmente indisturbata nel 99% delle volte, mentre nell'1% delle volte il pallone urta di lato il palo che è in mezzo alla pista di cemento venendo fortemente deviato a destra o a sinistra, oppure centra in pieno il palo e la palla rimbalza indietro. Questo è il modello di Rutherford.

Page 11: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

A questo punto, il modello a panettone (la carica positiva diffusa nell'atomo) con le uvette (gli elettroni a carica negativa) di Thomson - il quale comunque aveva avuto il merito di scoprire l'esistenza dell'elettrone - crollava inesorabilmente a favore di un modello questa volta né statico né rigido, bensì altamente dinamico. Per la prima volta si capiva che gli elettroni non erano incastonati come le uvette in un panettone, ma si trovavano a grande distanza da un nucleo contenente cariche positive (vedi Figura 8). Ma questi elettroni dovevano per forza anche ruotare attorno al nucleo, proprio come i pianeti ruotano attorno al Sole, e infatti il modello interpretativo che emerse dagli esperimenti di Rutherford proprio per questa ragione venne definito "modello planetario": la rotazione era fisicamente giustificata dal fatto che l'elettrone è soggetto a due forze; quella elettrostatica che lo lega al nucleo positivo (secondo la legge di Coulomb) e quella centrifuga, e dove la risultante delle forze deve per forza dare luogo ad un'orbita. Se l'elettrone non avesse ruotato, esso avrebbe dovuto cadere direttamente sul nucleo guidato dalle sole forze elettrostatiche tra particelle cariche in senso opposto fino a neutralizzare le cariche, ma questo non avrebbe poi giustificato l'evidenza che effettivamente nella materia le cariche positive e negative sono spazialmente separate, come si verifica dalle esperienze di laboratorio. In base ai calcoli inoltre si scopriva che gli elettroni dovevano ruotare attorno al nucleo a distanze immense, mentre tra elettrone e nucleo positivo doveva esserci uno sconfinato spazio vuoto. Alla fine, sia nel caso dell'elettrone a carica negativa che nel caso dei protoni a carica positiva, si poteva avere conferma che le cariche non sono distribuite su tutto l'atomo, ma localizzate in spazi piccolissimi occupati da particelle a carica negativa - gli elettroni - e da particelle a carica positiva - i protoni. Rutherford rilevò proprio l'esistenza dei protoni - nel corso di un successivo esperimento - bombardando Azoto con particelle Alfa: ogni volta che avveniva questo bombardamento veniva \p28 emessa una particella carica positivamente — appunto il protone - più leggera della particella Alfa. Si scopriva così che i protoni sono effettivamente le particelle fondamentali del nucleo, e dalle misure si rilevò che esse sono 1835 volte più grandi dell'elettrone. Con Rutherford era nata dunque la fisica nucleare. Non ci sono dubbi che fu proprio Rutherford a dare inizio alle procedure utilizzate oggi in fisica delle particelle, le quali comportano: a) l'utilizzo di un fascio di particelle (le particelle Alfa, nel caso di Rutherford); b) un bersaglio (costituito dagli atomi del foglio di oro, nel caso di Rutherford) e un rivelatore (uno schermo di solfuro di zinco, nel caso di Rutherford). Dunque Rutherford introdusse la pratica standard di "guardare" nel mondo subatomico usando la tecnica dei fasci di particelle, una pratica che viene correntemente utilizzata dai fisici sub-nucleari dei giorni nostri. I fisici di oggi, infatti (come si vedrà in dettaglio in seguito), guardano le particelle non direttamente ma ne deducono l'esistenza guardando quello che queste particelle invisibili creano come "prodotti di decadimento" in seguito alla collisione tra fasci di particelle primarie oppure tra un fascio di particelle primarie e un bersaglio, allo stesso modo in cui Rutherford usò del solfuro di zinco per testare la presenza di particelle invisibili come quelle che dovevano essere sondate dai raggi Alfa. Il modello atomico di Rutherford, per quanto assolutamente rivoluzionario aveva comunque un difetto (vedi Figura 8). Non si poteva accettare infatti che l'elettrone ruotasse di moto perpetuo attorno al nucleo per un tempo indefinito, dal momento che secondo la teoria elettromagnetica una carica elettrica in movimento su un'orbita circolare deve emettere per forza onde elettromagnetiche, ma questo fa in modo che l'elettrone perda energia cadendo direttamente sul nucleo su una traiettoria a spirale gradualmente sempre più stretta. Invece questo non accade perché come già ben \p29 si sapeva fin dai tempi di Dalton gli atomi sono estremamente stabili. Inoltre gli atomi se opportunamente riscaldati emettono righe spettrali ben precise (corrispondenti all'elemento che le produce e alla temperatura che le rende possibili), che richiedono un irraggiamento costante e non per pochi attimi3 (poco prima che l'elettrone collida con il nucleo). Anche questo non poteva essere spiegato dal modello di Rutherford. Senz'altro tutti erano d'accordo sul fatto che i protoni erano concentrati nel nucleo e non diffusi su tutto l'atomo, ma tutti erano altrettanto d'accordo che l'elettrone nella sua orbita avrebbe dovuto comportarsi in maniera differente al fine di giustificare la stabilità degli atomi e l'evidenza delle righe spettrali prodotte dagli elementi chimici, su cui tra l'altro i chimici-fisici stavano lavorando alacremente proprio in quel periodo. Inoltre restavano da risolvere anche alcune insormontabili difficoltà relative all'interazione tra protone ed elettrone nei nuclei, problemi di cui Rutherford era ben conscio e che lo portarono infatti a predire già nel 1920 - 13 anni \p30 prima della sua scoperta effettiva - l'esistenza del neutrone come particella da accoppiare necessariamente al protone nei nuclei atomici al fine di spiegare la effettiva stabilità degli atomi. 2.3. L'impatto della teoria quantistica sulla fisica atomica Mentre Rutherford effettuava le sue rivoluzionarie scoperte sulla struttura atomica altri fisici sicuramente non meno importanti di lui ne effettuavano in parallelo delle altre.

Page 12: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Nel 1900 il tedesco Max Planck (1858-1947) aveva suggerito che gli effetti della radiazione elettromagnetica fossero in realtà quantizzati, cioè che era necessario trattare questi effetti di scambio di energia come se essi fossero portati da delle particelle energetiche ma di massa nulla, che poi si scoprì essere i "fotoni". Nel 1905 Albert Einstein (1879-1955) osservando l'effetto fotoelettrico4 aveva messo a punto la sua teoria dei quanti di luce, dimostrando che era la radiazione stessa a essere quantizzata. Nel 1923 Arthur Compton (1892-1962) dimostrerà la natura quantistica dei raggi X, confermando dunque i fotoni come particelle. Insomma, parallelamente agli esperimenti tramite i quali si riusciva finalmente a scandagliare l'intima natura dell'atomo, stavano prendendo piede i primi passi di quella che sarebbe divenuta la meccanica quantistica, l'ossatura teorica che sta alla base del mondo dell'infinitamente piccolo. La fisica quantistica, come si vedrà in seguito, avrebbe lasciato una traccia molto decisiva nella struttura dell'atomo. Sicuramente il risultato più importante degli studi indipendenti effettuati da Planck e da Einstein era che l'energia non è una quantità continua, bensì quantizzata in maniera tale che lo scambio di energia tra particelle — e nella fattispecie tra elettroni e fotoni — possa avvenire solo seguendo delle regole ferree dettate dalla semplicissima formula: E = h x n (1) Dove h è la costante di Planck e n (ni) è la frequenza della radiazione. In tal modo l'energia di un fotone, il quale può essere sia assorbito che emesso da un atomo, non è continua come si pensava fin dai tempi di Maxwell, ma è proporzionale alla frequenza della radiazione elettromagnetica a cui appartiene. Affinché ciò avvenga questa energia non può assumere tutti i valori possibili ma solo dei valori ben definiti, cioè "quantizzati". Questo processo fornirà il pilastro principale su cui si appoggerà il modello atomico di Niels Bohr, che affronteremo in seguito. A che punto ci troviamo allora? Thomson ha scoperto l'elettrone, poi Rutherford ha scoperto che l'atomo è composto da un nucleo costituito da protoni al centro e da elettroni che ci ruotano attorno a grande distanza. E in parallelo Planck e Einstein scoprono un'altra particella - il fotone - in grado di interagire strettamente \p31 con l'elettrone, scambiando continuamente con esso energia a passi quantizzati. Si scopre insomma che la materia (l'atomo) e la radiazione (i fotoni) non agiscono indipendentemente ma interagiscono in continuazione. Questo meccanismo di interazione tra materia ed energia riceverà ben presto ulteriore conferma quando, nell'ambito della sua teoria della relatività speciale, Einstein dimostrerà che la massa e l'energia non sono altro che i due lati opposti di un'unica medaglia. E infatti ciò si sintetizzerà nella semplicissima quanto rivoluzionaria formula data da: E = m x c2\ (2) (leggi: emme per ci al quadrato) Dove si dimostra che ad una massa di materia m corrisponde una enorme quantità di energia E se si moltiplica questa massa per il quadrato della velocità della luce c. Affronteremo questa fondamentale formula della fisica più avanti, nel contesto delle reazioni nucleari e dei processi di annichilazione particella-antiparticella. Rimaniamo per ora vincolati ai risultati emersi dalla formula quantistica (1), perché sono quelli che permetteranno a Niels Bohr di aggiustare il tiro sulla reale struttura atomica, di cui Thomson prima e Rutherford poi avevano cominciato a togliere il velo dell'ignoranza. \t 2.4. L'atomo quantistico di Bohr e la nascita del modello atomico definitivo Come si è visto, il problema maggiore insito nel modello atomico di Rutherford, stava nel fatto che poiché una carica elettrica come l'elettrone ruotando genera radiazione elettromagnetica, l'elettrone orbitante attorno al nucleo dovrebbe perdere energia in tempi brevissimi fino a cadere a spirale sul nucleo stesso. Rutherford aveva avuto il merito di capire bene come la carica elettrica positiva (il protone) era concentrata nel nucleo dell'atomo attorno al quale ruota la carica elettrica negativa (l'elettrone), ma non era riuscito a uscire dall'impasse creata dal fatto che comunque il suo modello planetario di atomo avrebbe portato l'elettrone a cadere inevitabilmente sul nucleo. Ma la materia atomica, per come la osserviamo e la viviamo, invece dimostra che questo collasso dell'atomo non succede mai, essendo l'atomo una par-ticella estremamente stabile. Come risolvere allora il problema? Ci pensò nel 1913 il fisico danese Niels Bohr (1885-1962), il quale avendo studiato a fondo i risultati della nascente teoria quantistica come veniva proposta proprio in quei tempi da Planck e da Einstein, risolse il problema piazzando gli elettroni solamente su orbite ben definite e determinate da leggi puramente quantistiche: ciò significa che le orbite dovevano essere per forza quantizzate.

Page 13: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

La basilare caratteristica quantistica che \p32 viene incorporata nel modello atomico proposto da Bohr è che l'energia degli elettroni nell'atomo è ristretta solo a certi valori discreti. Ciò significa che l'energia è quantizzata e che quindi solo certe orbite con raggi ben prestabiliti possono essere permesse, mentre orbite intermedie sono del tutto proibite. La meccanica quantistica impone regole ferree semplicemente perché è l'universo stesso a essere strutturato in questa maniera. Quando l'elettrone si trova su queste orbite prestabilite, ciò corrisponde ad un valore ben preciso dell'energia come stabilito dalla semplice formula (1), e questo valore dell'energia - ma soltanto questo - permette all'elettrone di non cadere sul nucleo e quindi di garantire la stabilità dell'atomo. Quindi in sostanza Bohr pur accettando l'idea di Rutherford del "modello planetario" di atomo, introdusse però una basilare modifica con la quale si postulava che gli elettroni disponessero di vere e proprie "orbite di parcheggio" fisse nelle quali essi non possono né emettere né assorbire energia. Ciò ovviamente impedisce la subitanea dispersione di energia che porterebbe l'elettrone a cadere inevitabilmente sul nucleo. Ma ciò non significa che l'elettrone se ne dovesse stare per forza fermo su queste orbite. Al contrario, proprio in virtù della teoria quantistica, l'elettrone può saltare da un'orbita all'altra di quelle permesse dalle regole quantistiche. Ma questo può avvenire non spontaneamente ma solo ed esclusivamente quando un fotone debba interagire con l'elettrone nella sua orbita. In tal modo succede che se un fotone di luce di passaggio cede energia all'elettrone, l'elettrone deve per forza aumentare di energia saltando inevitabilmente su un'orbita più alta, corrispondente ad una energia più elevata in virtù della legge (1). Come anche fu scoperto da Planck nello studiare la "radiazione di corpo nero", l'energia doveva essere tanto maggiore quanto maggiore è la frequenza della luce che produceva quel dato fotone. Ne conseguiva che quanto più i fotoni sono energetici tanto più gli elettroni saltano su orbite alte. In ogni caso l'elettrone, se non esiste un'emissione continua di fotoni che lo mantengano ad un certo livello di energia, tende a scendere di nuovo nell'orbita a minore energia. Ciò avviene semplicemente perché gli elettroni, che sono di carica negativa, sono attratti dalla carica positiva che si trova nel nucleo atomico: in tal modo essi tenteranno sempre di avvicinarsi il più possibile al centro dell'atomo. Nel fare questo viene riemesso il fotone che era stato assorbito in precedenza. Come si vede, l'energia in entrata e quella in uscita sono esattamente le stesse e sono quantizzate. Questa è una delle dimostrazioni di quello che è probabilmente il più importante pilastro della fisica - valido ovunque, dall'infinitamente grande all'infinitamente piccolo - che è la legge di conservazione dell'energia. Dallo sviluppo del suo modello Bohr dedusse quindi che gli elettroni degli atomi tendono a distribuirsi a strati, ovvero su orbite prestabilite, essendo le orbite intermedie completamente precluse (vedi Figura 9). Questo era lo stringente vincolo imposto dalla quantizzazione. La bellezza ed eleganza del modello di Bohr non stava \p33 solo nella sua architettura teorica, ma anche e soprattutto nella sua formidabile capacità di spiegare quello che le misure spettroscopiche dei chimici e degli astronomi avevano chiaramente evidenziato. Queste misure mostravano infatti che le righe spettrali non erano altro che la fotografia di quanto effettivamente succede quando un elettrone effettua dei salti quantici da un'orbita all'altra a causa della sua interazione con i fotoni prodotti da un campo elettromagnetico esterno (vedi Figura 10). Ciò significa che se guardiamo la situazione su una scala molto più grande, se abbiamo un agglomerato di atomi che si trova immerso in un bagno di radiazione elettromagnetica, questa interagirà con essi a livello dei loro elettroni. In queste situazioni i nuclei restano invece intatti. Tutto avviene a livello degli orbitali esterni: un continuo scambio di energia tra gli elettroni degli orbitali atomici e i fotoni esterni. \p34 I fotoni che si trovino ad avvolgere una massa di gas di atomi ci passano in mezzo senza interagire, a meno che essi non posseggano quei valori precisi dell'energia in grado di sparare gli elettroni su orbite predefinite, allora solo in questo caso i fotoni interagiscono con gli elettroni. Quando questo succede l'atomo diventa "eccitato" in una misura tanto maggiore quanto maggiore è l'energia corrispondente al salto orbitale raggiunto dall'elettrone, a causa della sua interazione con il fotone. Tanto maggiore è la frequenza del fotone, che in virtù della fondamentale formula (1) è direttamente legata all'energia, tanto maggiore sarà il salto quantico che l'elettrone effettuerà tra un orbitale e l'altro. Tuttavia lo stato di eccitazione è uno stato di grande instabilità per l'atomo, il quale deve per forza restituire l'energia ricevuta per poter raggiungere di nuovo la sua configurazione di equilibrio. Infatti, pochi miliardesimi di secondo dopo l'elettrone ricade nel suo stato normale a minima energia, che viene definito "stato fondamentale": nel fare questo emette a sua volta il fotone corrispondente esattamente all'energia che lo aveva portato a saltare su un'orbita più alta di quella in cui si trova nel suo "stato a riposo". In questa condizione l'atomo produce una riga spettrale (5). Questo processo, che si verifica di solito in un ammasso più o meno grande di atomi eccitati, avviene costantemente nelle atmosfere stellari (ovvero: negli strati più esterni delle stelle, quelli che vediamo con le osservazioni astronomiche), e infatti la spettroscopia è uno dei principali strumenti di indagine utilizzati dagli

Page 14: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

astronomi per studiare la composizione chimica delle stelle, ma anche - e soprattutto — la temperatura degli strati esterni che riusciamo a vedere (mentre la visione dell'interno ci è preclusa). C'è infatti da dire che, come aveva scoperto il fisico tedesco Wilhelm Wien (1864-1928) nel 1898, l'energia acquisita dai fotoni (e quindi la loro frequenza) è tanto più alta quanto maggiore è la temperatura in cui si trovano gli atomi (6). E infatti proprio nelle atmosfere delle stelle dove la temperatura è elevatissima (nel Sole è di circa 5800 gradi K), abbiamo la formazione delle righe spettrali che si osservano come delle righe scure (definite "righe di assorbimento") su uno sfondo continuo e multicolore che va dal blu (alte frequenze) al rosso (basse frequenze): ciascuna di queste righe spettrali, che corrispondono a ben precisi salti quantici degli elettroni all'interno degli atomi, corrisponde a frequenze ben precise (7). Quando invece l'elettrone riceve dal fotone un'energia maggiore di quella che lo tiene legato all'atomo, allora succede che esso non salta più su un orbitale ad alta energia, ma esce semplicemente dall'atomo, determinandone così la condizione di "atomo ionizzato", cioè un atomo che ha perso uno o più elettroni, e che quindi non essendo più elettricamente neutro, diventa carico positivamente. Questo processo -ovvero la formazione di ioni - è come si vedrà uno dei meccanismi che permettono il legame chimico tra alcuni atomi di specie diversa. Nel caso invece che un atomo abbia perso tutti i suoi elettroni, di esso ne rimane solo il nucleo (nel caso \p35 dell'Idrogeno che ha un solo elettrone, basta che esso venga perso perché rimanga solo il nucleo: questa è, come si vedrà, una situazione che si trova costantemente negli interni delle stelle). Condizioni del genere possono verificarsi solo a elevatissime temperature, come nel caso della zona interna del Sole e delle stelle: in tal caso non abbiamo più agglomerati di atomi bensì un agglomerato un po' strano corrispondente ad uno stato della materia denominato "plasma" che è rappresentato da un miscuglio di nuclei atomici e di elettroni liberi. Questo è sicuramente lo stato più diffuso della materia nell'universo. A differenza del gas i cui atomi sono solo eccitati e che quindi emettono uno "spettro discreto" costituito dalle righe spettrali, il plasma emette uno spettro senza righe denominato "spettro continuo", che è rappresentato da una progressione di colori che vanno dal blu al rosso. Ma ritorniamo ora alle condizioni in cui gli elettroni sono ancora legati ai nuclei all'interno dell'atomo, seppur perturbati dalla loro interazione con i fotoni. Il modello atomico di Bohr è decisamente armonioso. Non solo l'elettrone tenderà a portare l'atomo verso una configurazione di equilibrio e stabilità, effettuando salti quantici verso livelli di energia inferiore (tendenzialmente verso lo stato \p36 fondamentale) proprio perché si sente attratto dalla carica positiva che si trova nel centro, ma gli elettroni, che sono tutti carichi negativamente, tenderanno a essere respinti - in virtù della legge di Coulomb, che è sempre valida - da altri elettroni, per cui gli elettroni cercheranno sempre di stare il più lontano possibile dagli altri elettroni (ciò avviene nel caso di atomi costituiti da più di un elettrone). In sostanza, già dal modello di Bohr si può vedere che gli equilibri all'interno dell'atomo riflettono un continuo tira-molla, i quali vengono costantemente violati dai fotoni della radiazione elettromagnetica. I fotoni effettuano una continua danza con gli atomi. \t 2.5. La danza elettronica degli orbitali quantistici E ora veniamo alla caratteristica peculiare del modello di Bohr rispetto a quello di Rutherford, considerando che quanto segue non è solo il risultato degli studi di Bohr ma anche della sua interfaccia con gli studi portati avanti dai suoi colleghi del tempo come ad esempio Arnold Sommerfeld (1868-1961) nel ramo della fisica quantistica, la quale si rivelò - e rimane tuttora — il sistema più efficiente e preciso per descrivere la struttura dell'atomo. Il modello di Bohr venne dunque di volta in volta perfezionato, perlomeno coerentemente con i grandi progressi che la meccanica quantistica aveva fatto nel frattempo, soprattutto per adattare il suo modello di atomo ad atomi più complessi di quello dell'Idrogeno in maniera tale che la teoria potesse combaciare perfettamente con gli spettri osservati dei vari elementi chimici. Si può comunque confermare che il modello atomico di Bohr, nella sua forma perfezionata, viene considerato valido anche oggi, almeno per descrivere il comportamento degli elettroni all'interno degli atomi semplici come l'Idrogeno (un solo elettrone) e la loro interazione con i fotoni della radiazione elettromagnetica. Nel caso della teoria di Bohr e scienziati correlati, dire che l'elettrone (o anche più elettroni, se è il caso) "orbita" attorno al nucleo è improprio. Non si tratta infatti di una vera orbita planetaria come la intendeva Rutherford, bensì l'elettrone all'interno dell'atomo occupa una zona che convenzionalmente definiamo "orbitale" e che corrisponde al suo stato energetico in senso quantistico, e che viene indicato anche come "nuvola di probabilità" (vedi Figura 11). Perché questo avviene? Perché noi non possiamo stabilire con certezza dove un elettrone si trova all'interno di un atomo in un dato istante né nell'istante successivo. Possiamo solo conoscere, utilizzando particolari

Page 15: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

tecniche matematiche, la probabilità di trovare l'elettrone in un certo punto dello spazio. Pertanto un orbitale non è una traiettoria in senso classico, ma solo una zona abbastanza indefinita dove è probabile che l'elettrone si trovi. Tutto ciò è una diretta conseguenza di un altro fondamentale principio della meccanica quantistica, questa volta scoperto dal fisico teorico tedesco Werner Heisenberg (1901-1976). \p37 Questo principio - denominato Principio di Indeterminazione - dice che non è possibile conoscere simultaneamente la posizione e la velocità dell'elettrone nella sua orbita, allo stesso modo in cui studieremmo la traiettoria di un sasso nell'aria o di un satellite nello spazio. Ciò significa che non c'è modo di conoscere la traiettoria dell'elettrone, ma solo la probabilità che esso si trovi in un punto anziché in un altro. In tal modo noi possiamo solamente definire un volume di spazio dove un elettrone potrebbe essere trovato la maggior parte del tempo. È proprio questo volume di spazio a essere chiamato "orbitale", e rappresenta il livello energetico (o stato quantico) dell'atomo. Ogni orbitale è un po' un compromesso tra l'attrazione dell'elettrone con il nucleo e la repulsione dei vari elettroni tra loro. Per cui si può ben immaginare quanto la situazione diventi complicata quando invece di considerare un atomo con un solo protone e un solo elettrone come l'Idrogeno, si considerano atomi più complessi, come ad esempio quelli dell'Azoto o del Magnesio, dove il numero di elettroni e protoni è di gran lunga maggiore. Si può ben intuire che in queste situazioni le interazioni inter-particellari diventano di volta in volta più complesse. Per quello che riguarda i singoli orbitali e la loro occupazione da parte degli elettroni, esistono delle condizioni di quantizzazione non solo per quello che riguarda il livello energetico in sé, ma anche per ciò che concerne l'orientazione e la forma dell'orbitale e il senso di rotazione (ovvero il cosiddetto "momento angolare") degli elettroni stessi che viene comunemente definito "spin". Gli elettroni possono infatti assumere due valori mutuamente esclusivi per quello che riguarda lo spin, che possono essere numeri semi-interi dati da +1/2 e da -1/2. Ma hanno (come anche - come si vedrà in seguito - altre particelle della stessa famiglia denominate "fermioni") anche una prerogativa esclusiva: due elettroni possono occupare lo stesso livello energetico (o stato quantico) solo ed esclusivamente se essi hanno gli spin invertiti. Questo fondamentale principio, che governa il comportamento della materia come La conosciamo, si chiama Principio di Esclusione di Pauli, dal nome del fisico Wolfgang Pauli (1900-1958) che lavorava indipendentemente e parallelamente ai suoi colleghi del tempo all'elaborazione matematica della teoria quantistica. Ciò significa che due elettroni con spin entrambi di +1/2 non possono occupare lo stesso stato quantico, mentre possono farlo solo se hanno spin di segno opposto. Quando il livello energetico (o orbitale) è pieno, allora gli elettroni saranno obbligati a occupare un orbitale a maggiore energia seguendo sempre la stessa regola per l'accoppiamento degli spin, fino a che tutti gli orbitali non sono riempiti di elettroni. E ovvio che quanto maggiore è il numero di elettroni, tanto più complicata sarà la combinazione ottenibile per gli orbitali. Il principio di Pauli è anche responsabile della grande stabilità della materia nella sua globalità per come la conosciamo e la tocchiamo. Le molecole — che sono \p38 agglomerati di atomi tra loro legati — non possono essere infilate arbitrariamente l’una dentro l'altra e questo nonostante il fatto che gli atomi che compongono le molecole siano costituiti soprattutto dal vuoto che separa i nuclei dagli elettroni. Tutto ciò accade perché agli elettroni legati che si trovano in ciascuna molecola è proibito di entrare nello stesso stato quantistico (ovvero: l'orbitale) degli elettroni che si trovano nelle altre molecole. Se il principio di Pauli non valesse, la materia sarebbe senza forme per come le conosciamo, e l'universo dei pianeti, delle stelle e degli oggetti che hanno le forme più disparate, non esisterebbe. Proprio per questo è davvero il principio di Pauli la ragione per la quale i nostri corpi non cadono attraverso il pavimento! Il modello di Bohr rappresentò dunque la tappa fondamentale che permise di fissare una volta per tutte le regole che governano l'atomo. Ciò fu reso possibile dalle profonde intuizioni di Bohr e dalla sua capacità di studiare con estrema attenzione l'altra parallela rivoluzione che si stava rapidamente diffondendo: la teoria quantistica. In tal modo le leggi dell'atomo venivano armoniosamente agganciate alle scoperte teoriche e alle tecniche matematiche della meccanica quantistica, sviluppatesi in maniera vertiginosa grazie al contributo di fisici teorici e sperimentali come Max Planck, Albert Einstein, Werner Heisenberg, Wolfgang Pauli, Erwin Schrödinger (1887-1961), John Von Neumann (1903-1957), Louis De Broglie (1892-1987) e David Bohm (1917-1992). Tutti erano ormai concordi nell'affer-mare che le particelle elementari come l'elettrone hanno un doppio comportamento: \p39 sia quello di particella che quello di onda. Tutto ciò fu dimostrato sperimentalmente. In particolare, di grande interesse fu l'esperimento "della doppia fenditura" (all'inizio nato solo come "esperimento mentale", come si dice nel gergo dei fisici teorici) in cui si osservò che facendo passare due

Page 16: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

elettroni attraverso una doppia fenditura essi interferivano tra loro allo stesso modo in cui due onde prodotte da due sassi lanciati in uno stagno tendono a sovrapporsi. L'elettrone mostrava di comportarsi ora come particella, ad esempio quando saltava da un orbitale all'altro, e ora come onda, come nel caso dell'esperimento della fenditura. Questo comportamento ambiguo era alla base della legge quantistica di indeterminazione che governa il comportamento indefinito dell'elettrone nell'atomo, dal momento che non è mai possibile stabilire simultaneamente dove esso si trovi e a quale velocità esso vada. L'unico modo per saperlo con un certo margine di approssimazione è quello di trattarlo talora come un'onda, e infatti la legge che permette di stabilire la probabilità di trovare l'elettrone è interamente governata da una funzione matematica scoperta da Schrödinger — denominata "funzione d'onda", in grado non di localizzare con precisione le coordinate precise dell'elettrone ma di definire un volume di spazio entro cui l'elettrone si può trovare con maggiore probabilità. Ciò portò infatti a definire bene che cosa era esattamente un "orbitale", ma anche a rileggere interamente il comportamento chimico degli atomi nella loro globalità alla luce delle scoperte della meccanica quantistica. In seguito ci si rese conto che le leggi quantistiche potevano essere applicate non solo all'elettrone degli orbitali stessi, ma anche alle particelle che esistono nei nuclei. \t 2.6. La scoperta del neutrone Per poter parlare con cognizione di causa del comportamento chimico degli elementi, non basta riferirsi agli elettroni, ma occorre spiegate bene anche la composizione dei nuclei. Senz'altro il legarne chimico dipende esclusivamente dal modo in cui sono disposti gli orbitali elettronici, ma per poter parlare in maniera completa degli elementi chimici e per poterne capire certe caratteristiche di "decadimento", è bene anche capire come sono esattamente costituiti i nuclei atomici. Le scoperte relative agli elettroni e al modello quantistico con cui essi si dispongono negli atomi, procedevano di pari passo con gli studi riguardanti la costituzione interna dei nuclei atomici, studi che stavano fornendo scoperte decisamente strane dove emergeva la tendenza di alcuni atomi a produrre il fenomeno della radioattività. Di questo se ne occuparono oltre a Bequerel e i coniugi Curie, anche lo stesso Rutherford, il quale proprio mentre Bohr smontava il suo modello atomico per sostituirlo con uno più adatto, studiava a fondo anche la radioattività e la sua origine all'interno dei nuclei atomici. \p40 Prima del 1932 l'unica particella nucleare conosciuta era il protone (scoperta a suo tempo da Rutherford). Poi finalmente il fisico inglese James Chadwick (1891-1974) scopò il neutrone, una particella di carica neutra che coesiste con il protone e che poneva la parola fine a tutta una serie di problemi relativi alla stabilità dei nuclei atomici, risolvendo in maniera definitiva il problema della "massa degli atomi" riscontrata in chimica, la quale palesemente non collimava con il numero di protoni del nucleo. La scoperta del neutrone era dunque l'ultimo tassello per capire di cosa fosse costituito l'atomo e quindi per comprendere a fondo il suo comportamento anche a livello della chimica. Nel 1930, i fisici Walther Bothe (1891-1957) e Herbert Becker avevano osservato l'emissione di "radiazione neutra" mentre bombardavano con particelle Alfa (nuclei di elio) un bersaglio costituito da un foglio di Berillio. Sulla base di questi risultati ancora inspiegabili nel 1932 Chadwick, dopo aver effettuato nuovi esperimenti su questa strana radiazione, si rese conto che essa non poteva essere radiazione elettromagnetica (ovvero costituita da fotoni), bensì particelle con carica elettrica nulla e di massa quasi uguale a quella del protone. Questa particella neutra, che fu denominata neutrone, spiegava finalmente il fatto che il numero di protoni riscontrati nei nuclei di ciascun elemento chimico è marcatamente inferiore al peso che si deduce chimicamente (secondo le tecniche introdotte da Dalton e dai suoi successori) del nucleo stesso. I protoni di carica positiva controbilanciavano esattamente la carica negativa degli elettroni, per cui il problema della neutralità della carica dell'atomo era risolto, ma ciò che non era risolto era il suo peso effettivo, che di fatto era nettamente superiore a quello previsto dall'esistenza dei protoni da soli nel nucleo. Proprio per questo doveva per forza esistere una particella neutra che risolvesse la discrepanza relativa al peso effettivo dei nuclei. L'unico modo per risolvere il problema era quello di trovare una particella elettricamente neutra che andandosi ad aggiungere ai protoni nel nucleo giustificasse il peso del nucleo stesso e al contempo mantenesse intatta la neutralità elettrica dell'atomo nella sua globalità. La scoperta del neutrone emergeva dal fatto che quella che prima appariva come "radiazione neutra" era in grado di interagire pesantemente con i protoni che si trovavano nei nuclei di altre sostanze, come appunto il Berillio che veniva usato come bersaglio contro cui tirare particelle Alfa (costituite - guarda caso - proprio da due protoni e due neutroni). Doveva per forza trattarsi di particelle pesanti, se erano in grado di impattare in maniera cosi decisa contro altre particelle pesanti come i protoni. Pertanto Chadwick ne concluse che questa misteriosa radiazione non

Page 17: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

era in realtà radiazione bensì un flusso di vere e proprie particelle in questo caso elettricamente neutre che dovevano per forza avere approssimativamente la stessa massa del protone. La massa del neutrone fu calcolata usando la velocità misurata dei protoni perturbati, il loro "momento" p - ovvero la loro massa moltiplicata per la loro velocità p = mv - e le leggi di conservazione dell'energia. In sostanza Chadwick fu in grado di dedurre la massa del neutrone dall'effetto che \p41 esso produceva nella sua interazione dinamica con il protone, ammettendo che l'energia in entrata e quella in uscita fossero equamente conservate. ANALOGIA 3. Se paragoniamo i protoni di carica positiva a palle da biliardo rosse e i neutroni di carica nulla a palle da biliardo di vetro trasparente (e quindi invisibili) e dello stesso peso delle palle rosse, se immaginiamo di colpire le palle rosse usando le palle trasparenti noteremo immediatamente che le palle rosse verranno immediatamente spostate con un colpo secco dalla posizione in cui si trovavano prima: responsabili dello spostamento sono state delle "palle fantasma"che non si riescono a vedere. È esattamente quello che successe nel corso dell'esperimento che permise a Chadwick di scoprire l'esistenza del neutrone. Come vedremo in seguito, questa procedura precorre quella che si utilizza ai giorni nostri negli attuali acceleratori al fine di scoprire le particelle sub-nucleari come i quark e i mesoni. Dunque nel 1932 il quadro relativo all'atomo era decisamente completo. Si era finalmente capito che l'atomo è composto da un nucleo contenente sia protoni che neutroni e da una nuvola esterna di elettroni che occupano orbitali dalla forma più o meno complessa (vedi Figura 12). E tra nuclei ed elettroni cosa troviamo? Troviamo un vuoto incommensurabile. Aristotele aveva dunque completamente torto. Può sembrare un controsenso il fatto che pur essendo noi stessi costituiti di vuoto, quando ci sediamo su una sedia essa ci sembra solida. Come si vedrà in seguito, la ragione di questo è perché le quantità infinitesime di materia che costituiscono gli atomi di cui siamo fatti sono tenute assieme da forze che si comportano come delle molle invisibili, facendo in modo che gli elettroni non collassino sugli atomi. PROPORZIONE 1. Se ad esempio dovessimo fare delle proporzioni per dare un esempio delle enormi distanze che separano gli elettroni dal nucleo atomico a cui appartengono, potremmo considerare il nucleo grande come un'arancia. Sulla base di queste proporzioni e in virtù delle distanze effettive che sono state misurate all'interno degli atomi, allora, dovremmo immaginare gli elettroni grandi come un granello di sabbia e situati ad una distanza di almeno un chilometro a distanza dall'arancia. Inoltre, tanto per fare un altro esempio che dia un'idea delle dimensioni, se riuscissimo a. eliminare tutto il vuoto esistente all'interno degli atomi di 5000 navi da crociera, quello che otterremmo alla fine sarebbe un oggetto grande come un'arancia ma con la stessa massa delle 5000 navi. Da queste proporzioni è facile immaginare quanto bassa sia la densità di materia, all'interno dell'atomo! Il 99% della massa di un atomo è concentrato nel nucleo, il quale e a sua volta almeno 10.000 volte più piccolo dell'atomo. Tra il nucleo e i suoi elettroni ce un immenso oceano di vuoto. Gli elettroni hanno il solo effetto di dare volume all'atomo. \p42 Di solito nei nuclei atomici il numero di protoni è uguale a quello di neutroni, ma questo non succede sempre. Il numero sommato dei protoni e dei neutroni determina la "massa atomica" dell'atomo dell'elemento chimico considerato, mentre il numero esterno di elettroni - che deve essere uguale a quello dei protoni in atomi elettricamente neutri — determina il "numero atomico" e caratterizza un preciso elemento chimico. Gli elementi chimici caratterizzati dallo stesso numero atomico ma differente massa atomica vengono definiti "isotopi", trattandosi infatti dello stesso elemento chimico ma con differente numero di neutroni nel nucleo. Tutto ciò era dunque in grado di spiegare la disposizione degli elementi chimici nella Tavola Periodica. \p43 \t 2.7. La natura quantistica del comportamento degli elementi chimici Il comportamento periodico degli atomi che era emerso empiricamente dagli esperimenti dei chimici fin dal diciannovesimo secolo, ora si poteva spiegare alla luce del modello di Bohr e della sua base quantistica, mentre la discrepanza tra il numero di protoni e neutroni nei nuclei spiegava l'esistenza di isotopi dalle caratteristiche decisamente instabili e che, come si vedrà in seguito, determinano il fenomeno della radioattività. La similitudine tra i vari elementi chimici che compaiono nella Tavola Periodica - valida ancora adesso - è dovuta esclusivamente alla disposizione e alla quantità degli elettroni all'interno dei vari orbitali energetici. Gli elettroni tendono a disporsi in una struttura a strati, obbedendo rigorosamente al principio di esclusione di Pauli (vedi Figura 14).

Page 18: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Essi riempiono i vari strati e quando essi sono pieni saltano allo strato di maggiore energia. Più un atomo è ricco di elettroni e più essi sentono l'influenza degli altri elettroni. Ad esempio, consideriamo un atomo neutro di Elio, il quale ha due elettroni legati. Entrambi questi elettroni possono occupare il livello più basso di energia ma solo acquisendo valori opposti dello spin, in virtù del principio di esclusione di Pauli, che dice che due elettroni non possono occupare assieme lo stesso stato quantico a meno che non abbiano spin invertiti. In un atomo di Litio, che invece contiene tre elettroni legati, il terzo elettrone non può occupare lo stesso stato dei primi due e quindi deve per forza andare a occupare uno degli stati quantici immediatamente successivi e a energia più alta. In maniera simile, elementi di numero atomico maggiore dovranno per forza andare a occupare stati di energia ancora superiori. \p44 Non dimentichiamo che lo stato quantico - o livello energetico — non rappresenta altro che il valore dei possibili orbitali (di energia crescente) che possono essere occupati dagli elettroni. Le proprietà chimiche di un dato elemento della Tavola Periodica dipendono largamente dal numero di elettroni degli orbitali più esterni, mentre la stessa Tavola Periodica per come è costituita nella sua ripartizione di elementi chimici è una diretta conseguenza non solo del numero di elettroni (che deve essere uguale a quello di protoni in un atomo neutro) contenuti in un dato atomo, ma anche di come si comportano gli elettroni degli orbitali più esterni. Questa nuvola di elettroni che avvolge l'atomo è proprio quella che conferisce volume agli atomi, che comunque, a parte il nucleo e gli elettroni che ci orbitano attorno, sono costituiti in gran parte di spazio vuoto per via delle distanze abissali che separano gli elettroni dalla zona nucleare dell'atomo. E ciò è un merito del principio di esclusione di Pauli. In caso contrario se tutte le particelle fossero concentrate nel nucleo, la materia non avrebbe forma, gli oggetti non esisterebbero e la densità sarebbe comparabile a quella che si incontra nelle stelle di neutroni! La ragione per la quale gli atomi sono come sono è quella che permette quindi anche lo sviluppo della vita. \p45 Come si è detto in precedenza, il vero inizio della fisica atomica è marcato dalla scoperta delle righe spettrali sia da parte dei chimici mentre osservavano quello che succedeva quando si faceva passare attraverso un prisma la luce prodotta da un gas reso incandescente, sia da parte degli astronomi - in particolare Joseph von Fraunhofer (1787-1826) e padre Angelo Secchi (1818-1878) - quando iniziarono a studiare il Sole e le stelle con i metodi della spettroscopia. Ma lo studio di queste righe spettrali interpretato molti anni dopo secondo il modello di Bohr e le sue basi quantistiche, permetteva finalmente di spiegare la vera struttura che regola gli atomi e il loro modo di interagire con la radiazione elettromagnetica. In tal modo si giungeva a comprendere che gli elettroni occupano degli strati di volta in volta più energetici all'interno degli atomi. Dunque il modello atomico basato sugli orbitali elettronici forniva una reale base di fisica teorica ai risultati empirici ottenuti dalla chimica. \t 2.8. La magia del legame chimico Come si è detto, gli atomi sono normalmente elettricamente neutri, e questo avviene quando il numero di protoni eguaglia quello degli elettroni. Atomi che invece mostrano un deficit o un surplus di elettroni vengono definiti "ioni": ioni carichi positivamente se gli atomi hanno perso uno o più elettroni, ioni carichi negativamente se essi hanno acquistato uno o più elettroni rispetto a quelli che hanno normalmente. E qui subentra proprio la natura del "legame chimico", ovvero la capacità degli atomi di unirsi tra loro per formare le molecole che costituiscono tutti gli oggetti di materia che ci circondano. Ciò avviene quando gli elettroni che si trovano più lontani dal nucleo, ovvero quelli che si trovano negli orbitali più esterni, possono essere o letteralmente trasferiti agli atomi più vicini oppure semplicemente condivisi con loro. Seguendo questo meccanismo gli atomi sono in grado di legarsi tra loro in molecole, le quali possono essere composte dagli stessi atomi oppure andare a far parte di composti chimici che possiedono proprietà ben precise. La maggior parte delle molecole sono costituite da atomi multipli, ad esempio una molecola di acqua è il risultato della combinazione di due atomi di Idrogeno e di uno di Ossigeno. Un certo numero di molecole - come ad esempio certe molecole gassose di elementi che non formano composti chimici, come l'Elio - sono composte solo di atomi di elementi chimici singoli. PROPORZIONE 2. Tanto per dare un'idea dimensionale di quanti siano gli atomi—e quindi le molecole da essi formate — che compongono un piccolo oggetto come ad esempio una goccia d'acqua, possiamo dire che una sola goccia d'acqua contiene tanti atomi quante sono le gocce d'acqua contenute nel Mar Mediterraneo! \p46

Page 19: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Il comportamento chimico degli atomi è dovuto a interazioni che avvengono tra elettroni, la cui configurazione all'interno degli orbitali che occupano è interamente dettata dalle leggi della meccanica quantistica. Infatti ciò determina la formazione di strutture a strati con distinti livelli di energia, di energia tanto più elevata quanto maggiore è la distanza che li separa dal nucleo (8). Gli elettroni attivi nel legame chimico tra atomi sono quelli esterni dell'atomo stesso: essi vengono detti "elettroni di valenza" e sono proprio quelli che hanno la più grande influenza sul comportamento chimico. E infatti il raggio a cui possono essere trovati con maggior probabilità questi elettroni periferici dalle caratteristiche interattive con l'esterno, serve a definire il raggio stesso dell'atomo di un dato elemento chimico (vedi Figura. 15). Gli elementi chimici che presentano lo stesso numero di elettroni di valenza vengono raggruppati assieme nelle colonne che costituiscono la Tavola Periodica degli elementi. Ad esempio, i metalli Alcalini contengono solo un elettrone nel loro orbitale più esterno; gli elementi detti Alogeni ne contengono sette, ma ce ne sono molti altri. La stabilità di un atomo, almeno a livello dei suoi elettroni, dipende dal fatto che l'orbitale degli elettroni di valenza sia completamente pieno di elettroni. In tal modo gli elettroni (di carica negativa), assieme al nucleo di cui controbilanciano la carica elettrica positiva, non potranno mai interagire con gli elettroni di altri atomi e per tale ragione vengono definiti "non reattivi". Un esempio di questi è rappresentato dalla classe dei "gas nobili", come ad esempio l'Elio. Al contrario, atomi che nella loro banda di valenza contengono pochi elettroni (cioè quelli che non hanno completamente riempito il loro orbitale più esterno) sono fortemente reattivi, cioè sono in grado di dare luogo alle reazioni chimiche: ciò significa che la loro tendenza è quella di legarsi ad altri atomi, anche di un diverso elemento chimico. Ad esempio i metalli Alcalini sono estremamente reattivi. Dunque, nel caso di alcuni atomi, il legame chimico con altri elementi avviene non tanto per sintonia con quegli elementi, ma perché non avendo orbitali esterni completamente riempiti di elettroni \p47 essi tendono a farlo legandosi chimicamente con altri elementi e cioè acquistando (o talora cedendo) elettroni. Questo processo può avvenire in due modi: un atomo può condividere elettroni con altri atomi e in questo caso abbiamo il cosiddetto "legame covalente", oppure esso può letteralmente rimuovere o donare elettroni da/a altri atomi e in questo caso abbiamo il cosiddetto "legame ionico" (proprio perché lo scambio avviene tra ioni carichi positivamente o negativamente). Un esempio lampante di legame covalente è quello della molecola di acqua: in questo caso specifico abbiamo una condivisione di elettroni tra un atomo di Ossigeno e due atomi di Idrogeno. Un esempio tipico di legame ionico è rappresentato dal comune sale da cucina, ovvero quella sostanza che in termini tecnici viene denominata "Cloruro di Sodio": questo composto si forma perché al suo interno il Sodio è uno ione positivo - ovvero privo di un suo elettrone esterno - mentre il Cloro è uno ione negativo - ovvero con un elettrone esterno in più. È chiaro che questi ioni proprio per bilanciarsi elettricamente a vicenda si attraggono dato che uno è carico positivamente e l'altro negativamente. Anche in questo caso troviamo l'universalità della legge di Coulomb. In particolare, dal momento che il sale da cucina ha una apparenza solida, ciò è dovuto al fatto che il legame chimico che si forma è altrettanto solido al punto tale che questi ioni formano un vero e proprio reticolo cristallino (9). In generale dalla chimica sappiamo che gli atomi che si trovano alla sinistra della Tavola Periodica degli elementi — detti "metalli" — hanno la proprietà di perdere elettroni diventando ioni positivi, mentre gli atomi posti alla destra della tavola - detti "nonmetalli" — hanno invece la proprietà di acquistare elettroni diventando così ioni negativi. A questo punto nasce una dinamica che spinge gli ioni positivi ad unirsi elettricamente agli ioni negativi fino a formare molecole (che sono i costituenti principali di cui è costituita tutta la materia) e ciò avviene allo stesso modo in cui il maschio si unisce alla femmina. Senz'altro un meccanismo universale, ben imitato dai meccanismi che producono la vita stessa! Ma come facciamo a distinguere il maschio dalla femmina tra ioni positivi e negativi? Semplicemente separandoli tra loro. Ciò lo si può spiegare con un esempio pratico. Se noi scomponiamo in acqua il sale (ovvero quella combinazione di ioni positivi di Sodio e di ioni negativi di cloro che è il Cloruro di Sodio), noteremo che l'acqua scioglierà questo composto nei suoi costituenti principali facendo in modo che la massa dei componenti ionici ottenuti sia esattamente uguale alla massa del composto (viene cioè conservata la massa totale) . Se poi decidiamo di inserire due elettrodi (uno carico positivamente e l'altro carico negativamente) all'interno della soluzione acquosa, noteremo che gli ioni positivi di Sodio verranno attratti dall'elettrodo negativo, mentre gli ioni negativi di Cloro verranno attratti dall'elettrodo positivo (vedi Figura 16). Con questa procedura — denominata "elettrolisi" — riusciamo dunque a rompere i legami chimici che legano i due ioni componenti del composto del Sodio e a conoscere in dettaglio le proprietà degli ioni originari.

Page 20: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

\p48 Dunque la formazione di un legame chimico è causa prima di una forte attrazione tra due atomi ed è proprio questo che comporta la formazione di molecole, che sono gli agglomerati legati per eccellenza di atomi. Perché ha luogo questo scambio armonioso tra le parti della materia? Perché è l'unico modo reciproco per raggiungere assieme delle configurazioni di equilibrio energetico, il che porta alla stabilità degli atomi e delle molecole che li raccolgono in un tutt'uno. Sicuramente si tratta di un meccanismo armonioso in cui la natura provvede ad unire tra loro i frammenti dell'universo in un quadro il più possibile olistico. Siamo noi umani che frammentiamo la materia per conoscerne la struttura intima, ma quando la lasciamo stare essa vive in maniera tale che tutte le particelle stiano in eterna simbiosi tra loro. L'universo è un'opera di immensa ingegneria energetica, mentre il principio di esclusione di Pauli fa in modo che, nonostante i legami chimici, la materia non si compenetri troppo. È solo così che abbiamo l'universo come lo vediamo e lo viviamo! Se poi prendiamo un composto chimico e lo riscaldiamo a elevata temperatura, dal momento che la temperatura è proporzionale all'energia che serve per tenere legati gli elettroni agli atomi, le molecole verranno dissociate, gli atomi verranno prima eccitati e poi interamente ionizzati. Quando gli atomi si troveranno in una condizione di eccitazione — ovvero quando gli elettroni effettuano dei salti quantici dallo stato fondamentale (n = 1) ai vari stati eccitati (n = 2, 3, 4, 5...) - allora ne possiamo conoscere la segnatura specifica dallo spettro che emettono. Non dimentichiamo \p49 chiamo che uno spettro può essere ottenuto solo da una sorgente luminosa, ma in natura di solito (fatta eccezione per altri fenomeni più inconsueti) una sorgente diventa luminosa solo perché diventa calda. In queste situazioni abbiamo sia salti quantici degli elettroni che collisioni tra particelle in generale che contribuiscono a frammentare l'atomo. Dagli spettri che osserviamo siamo allora in grado di comprendere la temperatura che ha prodotto la dissociazione delle molecole in atomi, così come la loro densità e l'appartenenza a elementi chimici precisi. Uno spettro non è altro che la carta di identità di un atomo, ma anche delle molecole che lo compongono. Infatti se la temperatura non è troppo elevata gli elettroni degli atomi restano più o meno intatti, oppure effettuano transizioni quantistiche a bassissima energia (ad esempio in zone in cui lo spettro è rilevabile solo nelle onde radio), cioè con salti quantici piccolissimi, mentre le molecole che li raccolgono si limitano a ruotare e a vibrare (queste sono le condizioni di eccitazione molecolare). \t 2.9. La Tavola Periodica degli elementi chimici rivisitata Come si è detto, il miglior strumento empirico per definire le proprietà degli elementi chimici è la Tavola Periodica (vedi Figura 17), scoperta prima da Dmitrij Mendeleev (1834-1907) e poi revisionata da Henry Moseley (1887-1915). Essa è valida ancora oggi, seppure con qualche estensione recente dovuta alla scoperta di elementi di elevato peso atomico. In questa Tavola gli elementi chimici sono disposti in colonne e in righe secondo una sequenza di numero atomico. Ci sono in totale 18 colonne. Le righe orizzontali vengono chiamate 'periodi". Gli elementi di un \p50 dato periodo sono caratterizzati dal fatto che essi hanno lo stesso numero di elettroni nei loro orbitali elettronici. Il numero di elettroni in questi orbitali, i quali eguagliano il numero atomico di un dato elemento chimico, aumenta da sinistra verso destra all'interno di ciascun periodo. Ogni elemento rappresentato nella tavola è indicato dal suo nome, dal simbolo chimico per l'elemento assegnato a ciascuna specifica posizione nella tavola, il suo numero atomico (ovvero il numero dei protoni nel nucleo), il suo peso atomico (ovvero la massa risultante dalla somma di protoni e neutroni, la quale poi definisce i vari tipi di isotopi) e infine la sua configurazione elettronica (ovvero il modo in cui gli elettroni vengono distribuiti negli orbitali). Proprio la questione degli isotopi, cioè quelle varianti di un dato elemento chimico a seconda del suo numero di neutroni, rappresenta la base di quanto verrà discusso in seguito, cioè le reazioni e i decadimenti che avvengono direttamente nel nucleo atomico. Nel prossimo capitolo si passerà quindi dalla fisica atomica e le sue basi nella chimica, alla fisica nucleare. \t RIASSUNTO - CAPITOLO 2 Nei primi del '900 ebbe inizio una rivoluzione che portò l'umanità a scoprire la struttura interna degli atomi. Gli atomi non erano più particelle indivisibili, perché si scopriva che al loro interno ci sono elettroni nella corteccia esterna e protoni e neutroni nel nucleo, dove elettroni e nucleo sono tra loro separati da un immenso mare di vuoto. Nel frattempo si scopriva che anche il campo di radiazione è composto da particelle - i fotoni - in grado di comportarsi sia come onda che come particella. Tramite una serie svariata di tentativi sperimentali e studiando parallelamente A fondo gli assunti della meccanica quantistica, si riuscì a capire in che modo gli elettroni occupano gli atomi.

Page 21: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Essi possono occupare solo orbite quantizzate e ogni volta che essi interagiscono con i fotoni, effettuano dei "salti quantici" producendo contemporaneamente una riga spettrale. Dopo aver anche scoperto che due elettroni possono occupare lo stesso livello energetico solo se essi sono a spin invertito, veniva scoperta la ragione per la quale la materia è talmente stabile da garantire l'esistenza di tutti gli oggetti che conosciamo in natura. In questa luce vennero completamente reinterpretate le leggi della chimica su base quantistica, in maniera tale da comprendere le ragioni per le quali gli atomi si legano tra di loro per formare molecole o composti. \p51 QUESITI 1. Per quale ragione la Legge di Coulomb è importante nella descrizione dei comportamenti atomici? 2. Che cosa garantisce stabilità alla materia? 3. In che cosa si differenziano gli esperimenti di Thomson e di Rutherford per descrivere la struttura dell'atomo? 4. In che modo il modello atomico di Bohr risolve le discrepanze del modello di Rutherford? 5. In che maniera la radiazione interagisce con la materia? 6. Come si formano le righe spettrali? 7. Per quale ragione un elettrone che cade nello stato fondamentale non può emettere radiazione nello spettro visibile? 8. In che modo elevate temperature della materia influenzano la frequenza della radiazione? 9. In quali condizioni all'interno dell'atomo si realizza il principio di conservazione dell'energia? 10. Che cosa avviene nelle atmosfere deL le stelle? 11. In che modo la teoria quantistica rivoluzionò il modello di atomo? 12. Che cosa è un elettrone secondo la teoria quantistica? 13. Per quale ragione gli elettroni non sono liberi di occupare gli stessi stati quantici? 14. Che cosa succede all'atomo se l'elettrone acquista un'energia superiore a quella corrispondente all'orbitale più esterno? 15. Per quale ragione i neutroni sono importanti all'interno dell'atomo? 16. In che cosa si differenzia il peso di un atomo dal suo numero di protoni e di elettroni? 17. Quali sono le basi della chimica secondo la teoria quantistica? 18. In che modo avviene il legame chimico? 19. Che ruolo hanno le forze elettriche all'interno degli atomi? 20. Che cosa descrive la Tavola Periodica degli elementi? \p53 \t CAPITOLO 3 Fisica nucleare - I decadimenti e le forze nei nuclei atomici Nello stesso periodo in cui venivano compiute clamorose scoperte relative alla struttura dell'atomo, l'interazione degli elettroni con i fotoni e la meccanica quantistica, in parallelo venivano condotte ricerche relative alla struttura intima del nucleo atomico. Se ne occuparono in un periodo più o meno coevo i già citati fisici Henri Becquerel, Marie e Pierre Curie e lo stesso Ernest Rutherford, per quello che riguarda il meccanismo della radioattività. Per quello che riguarda il meccanismo della fissione nucleare, che come si vedrà è una conseguenza della radioattività, furono protagonisti scienziati come Enrico Fermi (1901-1954), realizzatore della prima forma grezza di centrale nucleare (la cosiddetta "pila atomica") e grande studioso dei nuclei atomici, Robert Oppenheimer (1904-1964) e Leo Szilard (1898-1964), fautori del "Progetto Manhattan" che portò nel 1945 alle prime sperimentazioni nucleari con la bomba a fissione, e Edward Teller (1908-2003) il quale oltre che membro autorevole del Progetto Manhattan, fu anche il padre della bomba a fusione (vedi Figura 18). Parallelamente al lavoro dei fisici nucleari procedeva il lavoro di astrofisici come Arthur Eddington (1882-1944) e Hans Bethe (1906-2005), i quali conoscevano più che bene il lavoro dei loro colleghi in fisica nucleare e si accingevano ad applicare i risultati raggiunti dai primi allo studio rigoroso dei meccanismi di fusione termonucleare nelle stelle, studiati poi più a fondo da astrofisici come Subrahmanyan Chandrasekhar (1910-1995). \p54 \t 3.1. La scoperta della radioattività Sicuramente ciò che stimolò l'interesse dei fisici a penetrare nei segreti del nucleo fu uno strano fenomeno denominato radioattività, i cui effetti erano stati scoperti già un secolo prima che Bohr elaborasse il suo modello di atomo.

Page 22: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

All'inizio il fenomeno appariva estremamente misterioso. In seguito tramite questo fenomeno si riuscì a capire che i nuclei atomici non sono particelle indivisibili, bensì capaci di "decadere" in altri nuclei. La radioattività osservata fu inizialmente quella naturale e fu scoperta per caso dal francese Henri Becquerel nel 1800, circa due mesi dopo che il tedesco "Wilhelm Rontgen scoprisse i raggi X. Mentre stava studiando il fenomeno della fluorescenza Becquerel si accorse che alcune lastre fotografiche erano state esposte ad una radiazione inspiegabile in presenza di un minerale grezzo, e questo succedeva anche quando le lastre erano avvolte in un foglio di carta nero. Come poteva essere stata esposta quella lastra in assenza di luce? Doveva trattarsi di un tipo di radiazione del tutto inconsueta. E infatti Becquerel si rese conto che quel minerale, contenente Uranio, emetteva una radiazione molto energetica (prossima all'energia dei raggi X scoperti da Rontgen) in una maniera totalmente spontanea e senza che fosse necessario alcun input energetico esterno. La natura sembrava produrre un fenomeno spontaneo e nessuno aveva capito che cosa lo generasse. Si comprese comunque che un qualche processo naturale doveva essere la causa del rilascio da parte di certi elementi chimici di raggi X molto energetici. Ciò spinse a pensare che questi elementi dovessero essere per forza intrinsecamente instabili, per essere in grado di generare questa emissione di energia. Si accertò poi che essa era dovuta al decadimento dei nuclei instabili di alcuni atomi, in particolare atomi — come l'Uranio — con elevato numero atomico, secondo la loro classificazione nella tavola periodica. Erano elementi radioattivi. In particolare si scoprì che questi elementi erano in grado di emettere tre tipi di radiazione diversa (vedi Figura 19): a) "particelle Alfa" costituite da nuclei di Elio (2 protoni e 2 neutroni); b) "particelle Beta" costituite da elettroni molto veloci; c) "radiazione Gamma" costituita da fotoni ad alta energia (superiore a quella dei raggi X, anche se a essa molto vicina). Queste tre forme di radiazione potevano essere tra loro distinte perché in presenza di un campo magnetico esse prendevano direzioni diverse. Le particelle Alfa, essendo cariche positivamente (per via della presenza di protoni) curvavano in una direzione, mentre le particelle Beta, cariche negativamente (essendo costituite da elettroni) curvavano nella direzione opposta. Invece la radiazione Gamma essendo costituita da fotoni - senza carica elettrica — non curvavano affatto. Si vede dunque che si era riusciti a dedurre la natura delle tre forme di radioattività sottoponendo le particelle ad uno stimolo esterno, come poteva essere un campo magnetico che, notoriamente, è caratterizzato da due ben precise polarità. Ciò \p55 che poi si osservò fu che le particelle Alfa potevano essere fermate (o, se si vuole, schermate) da un foglio di carta, le particelle Beta da un foglio di alluminio e la radiazione Gamma da un blocco di piombo. Quindi si deduceva che esse avevano un diverso grado di penetrazione nell'ambiente e, soprattutto verificando l'alto grado di penetrazione della radiazione Gamma, ci si accorse ben presto che si trattava di una radiazione decisamente molto pericolosa non appena si comprese La fisica che stava alla base di questo processo. Queste tre varietà di radioattività non accadono simultaneamente, ma vengono emesse una alla volta sequenzialmente. Inoltre il tempo che impiega un elemento radioattivo a decadere (quello che viene definito "tempo di decadimento") può variare da elemento a elemento. Oggi sappiamo bene che certi elementi hanno un tempo di decadimento di pochi minuti, e che altri invece impiegano centinaia o migliaia di anni per estinguere la loro carica di radioattività. Si cominciava a intuire che, allo stesso modo degli elettroni dell'atomo, anche le particelle del nucleo (protone e neutrone), che possiamo chiamare ora più generalmente come "nucleoni", in particolari condizioni possono essere indotte in "stati eccitati” \p56 di elevata energia, che poi scaricano sotto forma della radioattività osservata. Ad esempio l'emissione di radiazione Gamma avviene quando un nucleo è particolarmente eccitato, al punto che - allo stesso modo in cui un elettrone emette un fotone quando ricade da un orbitale ad alta energia ad uno a più bassa energia - per la legge di conservazione dell'energia deve per forza emettere un fotone. Ma nel caso dei fotoni emessi dal nucleo si tratta di energia di gran lunga più elevata. Quindi i nuclei quando sono eccitati - e questo succede quando essi sono instabili il che genera un'emissione spontanea di energia che dà luogo alla radioattività - devono smaltire una grandissima quantità di energia. Ciò dipende dalla relazione tra massa e energia scoperta da Einstein (vedi formula (2), Parte 1): tanto più c'è massa tanto maggiore sarà l'energia liberata. Ma nel caso degli atomi si tratta proprio dell'energia di legame che tiene assieme tra loro i nuclei, quel legame che come vedremo in seguito rappresenta la forza più potente che esista in natura e che viene

Page 23: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

denominata interazione forte. Dunque anche i nuclei hanno i loro stati quantici che sono tanto più energetici quanto maggiore è il salto che essi fanno dal loro "stato fondamentale" di energia. Nel caso del decadimento radioattivo, una particella viene trasformata in altre particelle. E una vera e propria trasmutazione che avviene nell'ambito della materia, e che come vedremo in seguito rappresenta la cosiddetta "interazione debole". In ogni caso occorre ricordare che la maggior parte degli elementi che esistono in natura è stabile e quindi non produce il fenomeno della radioattività. Ad esempio, se compariamo la quantità di rocce normali con la quantità di uranio sulla Terra, notiamo che l'uranio è solo una piccolissima frazione della materia che costituisce il pianeta. Però quello che succede anche in una seppur piccolissima parte della materia - quella radioattiva - è talmente sconvolgente da generare effetti a volte catastrofici, come ad esempio si rilevò a Hiroshima nel 194 5 e successivamente a Chernobyl nel 1986. Ma vediamo più in dettaglio cosa succede in questo fenomeno. \t 3.2. Instabilità degli atomi e decadimento radioattivo Intanto che cosa ci dice il fatto che la radiazione Alfa sia composta da nuclei di Elio cosi compatti? Senza dubbio questo è il risultato della frammentazione di un dato atomo instabile, e in certi casi si manifesta con radiazione Alfa. Ma la radiazione Alfa in sé è composta da nuclei di Elio. Se i nuclei di Elio sono così compatti ciò dimostra che, a prescindere dall'elemento chimico che l'ha generato, essi sono in sé estremamente stabili. Sono semplicemente dei pezzi di atomi più grandi. ANALOGIA 4. Succede un po'come se una casa si sgretolasse ma non nei suoi mattoni bensì in pezzi compatti. Ad esempio questo potrebbe succedere se la casa si sgretolasse \p57 non nei suoi mattoni più elementari ma in pezzi più grossi, come ad esempio interi pezzi di muro. Ciò vuol dire che nonostante la casa si stia sgretolando, i pezzi di muro mantengono ancora attaccati a sé i mattoni che li compongono. Questo succede esattamente con i nuclei di Elio. Il decadimento in questo caso specifico non genera protoni e neutroni liberi bensì agglomerati compatti di essi, come l'Elio che ha due protoni e due nucleoni. Ciò vuol dire che l'Elio in sé è un elemento stabile, mentre l'elemento che l'ha prodotto, come ad esempio l'uranio, non lo è affatto. È chiaro che la stabilità di un nucleo dipende dalla sua energia di legame. Quando si tratta con atomi molto leggeri come ad esempio l'Elio, si raggiungono configurazioni di grande stabilità perché in quel tipo molto semplice di atomi è facile avere un numero di protoni uguale a quello di neutroni. Ciò determina una condizione di stabilità. Ma quando aumenta il numero di massa, ovvero il peso dell'elemento chimico - il quale dipende sia dal numero di protoni che dal numero di neutroni che si trovano assieme nel nucleo dell'atomo di quell'elemento chimico - allora i protoni che si trovano in gran numero in quei nuclei iniziano a sentire l'effetto delle forze repulsive con gli altri protoni. Allora succede che oltre un certo limite del valore del numero di massa (come lo si vede nella tavola periodica degli elementi), cioè quando il nucleo acquista delle dimensioni particolarmente ingombranti, le forze elettriche finiscono per prevalere su quelle nucleari in maniera tale che in un tentativo di mantenere l'equilibrio i nuclei di questi atomi particolarmente pesanti finiscono per contenere un numero maggiore di neutroni che di protoni, ma questo è solo un equilibrio precario perché poi saranno proprio quei neutroni a dare luogo ai processi di decadimento radioattivo. Sono proprio queste le particelle nucleari che determinano il fenomeno della radioattività sia naturale che artificiale. A questo punto i nuclei di questi atomi intrinsecamente instabili finiscono per trasformarsi in nuclei di atomi diversi da quelli che erano prima e nel fare questo perdono delle particelle dal loro nucleo. La tendenza è quella di raggiungere delle configurazioni di equilibrio, per cui la trasformazione procede attraverso la trasmutazione in altri elementi che sono ancora instabili fino a che la trasmutazione non porta alla formazione di un elemento che è finalmente stabile. Gli elementi che mostrano questa instabilità e che quindi manifestano il fenomeno della radioattività sono più spesso degli isotopi, ovvero elementi che hanno un eccesso di neutroni rispetto ai protoni nei loro nuclei. Dal momento che è proprio questo eccesso di neutroni il fattore discriminante del fenomeno della radioattività, ne consegue che se bombardiamo certi atomi con neutroni, avremo indotto in questi elementi una forma di "radioattività artificiale", dal momento che avremo trasformato degli elementi più o meno stabili in elementi (isotopi) altamente instabili. Come si vedrà in seguito questo \p58 meccanismo è alla base della fissione nucleare. Esistono dunque due forme di radioattività: quella naturale e quella artificiale. Gli elementi che hanno numero atomico maggiore di 92 - denominati "transuranici" — sono stati creati artificialmente per bombardamento di neutroni, e sono ovviamente altamente radioattivi. Gli elementi con numero atomico 84 (il Polonio) e più pesanti di questo non hanno isotopi stabili e sono tutti radioattivi.

Page 24: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Come si è anticipato in precedenza gli elementi radioattivi — sia naturali che artificiali - emettono particelle in tre forme: particelle Alfa, particelle Beta e radiazione Gamma. Le radiazioni Alfa sono poco penetranti per cui basta poco per schermarle. Tuttavia se la sorgente di questa radiazione si trova all'interno dell'organismo umano essa può creare grossi danni, dal momento che queste particelle sono dotate di un'energia tale da distruggere i tessuti dell'organismo. Ciò avviene perché le particelle Alfa sono di carica positiva, cosa che le porta a interagire con gli atomi del corpo ionizzandoli, e questo ovviamente danneggia o distrugge le cellule che compongono questi atomi. Prendiamo ora in esame la radiazione meno penetrante e quella più penetrante: le particelle Alfa e i raggi Gamma. Parleremo invece più in dettaglio della radiazione Beta in un paragrafo a parte, perché dal punto di vista della fisica coinvolta essa riveste una particolare importanza nei meccanismi che determinano il decadimento radioattivo. Quando una sorgente radioattiva emette particelle Alfa, è facile capire che perdendo 2 protoni e 2 neutroni essa farà in modo che l'atomo che le produce abbia il suo numero atomico diminuito di 2 protoni e di 2 neutroni, in tal modo il peso atomico diminuisce di 4 unità. Questo meccanismo rappresenta il decadimento di un elemento instabile in altri elementi, emettendo appunto radioattività. Questo processo di perdita di protoni e neutroni è molto più probabile in un nucleo atomico grande, ovvero nel nucleo di un elemento caratterizzato da elevato numero atomico, che non in uno piccolo. Ciò avviene perché, come si è detto, è molto più difficile mantenere gli equilibri in un nucleo sovrappopolato di nucleoni che in uno povero di essi. È più facile, in altre parole, fare ordine e creare equilibrio all'interno di una comunità poco numerosa che non in una molto numerosa. Pertanto i nuclei che espellono particelle Alfa devono per forza appartenere ad atomi molto pesanti, ricchi di neutroni, e comunque si tratta di isotopi (anche se non tutti gli isotopi sono instabili). La radiazione nei raggi Gamma è molto più penetrante delle particelle Alfa, e a differenza delle particelle Alfa e Beta, essa è una radiazione costituita da soli fotoni, ovvero di quanti di radiazione non dotati di massa né di carica. Essi sono dunque radiazione elettromagnetica altamente energetica e ciò lo denota la frequenza elevatissima \p59 a cui essa si forma (vedi formula (1), Capitolo 1). I raggi Gamma si formano quando il nucleo instabile che li produce si trova in uno stato eccitato (situazione analoga a quella dell'elettrone che emette un fotone quando si trova in uno stato eccitato). La situazione di eccitazione nasce dopo che il nucleo ha emesso particelle Alfa e Beta, che lo lasciano in uno stato di squilibrio energetico con un eccesso di energia. Deve allora per forza emettere l'energia in eccesso, e lo fa sotto forma di radiazione Gamma, ovvero di fotoni altamente energetici. Inutile ricordare che la radiazione Gamma per la sua elevatissima capacità di penetrazione è altamente pericolosa per l'organismo umano, potendo attraversare il corpo umano e anche da grande distanza, a meno che non ci sia uno spesso schermo di piombo che la blocchi. \t 3.3. Il decadimento Beta e la scoperta del neutrino Le particelle Beta, che rappresentano il secondo dei tre processi di emissione radioattiva, sono costituite da elettroni che vengono espulsi a enorme velocità dagli atomi instabili (vedi Figura 20). Essi sono una diretta conseguenza dell'emissione delle particelle Alfa. La ragione di ciò è che le emissioni Alfa determinano un progressivo aumento del numero di neutroni nei nuclei, che finiranno per superare \p60 sempre di più il numero di protoni anch'essi contenuti nei nuclei. In questo modo si viene a creare una situazione di grande squilibrio perché si vengono a delineare dei problemi di coesistenza con i protoni. A ogni squilibrio - o instabilità - come risposta c'è sempre una reazione che si manifesta verso l'esterno. La reazione si manifesta allora con un processo di trasformazione che avviene nel nucleo che porta un neutrone a trasformarsi in un protone e in un elettrone. È una vera e propria metamorfosi del neutrone il quale per riadattarsi ad una situazione di equilibrio all'interno dei nuclei è costretto a cambiare forma assumendo l'identità di un protone che resta nel nucleo, cosa che determina un aumento del numero atomico dell'atomo da cui il processo è stato generato. Mentre invece l'elettrone, che all'interno dei nuclei non può vivere, viene espulso a grande velocità verso l'esterno: questa è esattamente la radiazione Beta che si rileva. Ma l'elettrone non è solo in questo processo... La ragione delle trasformazioni è che bisogna sempre fare in modo che le particelle attraverso cui si sviluppa il processo - ovvero i protoni e gli elettroni - abbiano nel loro sommarsi la stessa energia di quella (il neutrone) che le ha generate, ovvero l'energia totale dovrà essere conservata. Le radiazioni prodotte dal decadimento Beta sono meno nocive delle radiazioni Gamma, ma più pericolose delle radiazioni prodotte da particelle Alfa, e con un livello di penetrazione intermedia tra le tre descritte.

Page 25: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Il decadimento Beta, tra i processi di trasformazione radioattiva, è sicuramente il più importante. La ragione di ciò è che le trasmutazioni che hanno luogo sono del tutto particolari perché oltre a emergere un protone e un elettrone dal decadimento del neutrone, viene fuori anche una "particella nascosta" denominata "neutrino". Di fatto, un neutrone (si ricorda che esso ha carica nulla), che si disintegra generando un protone (positivo) e un elettrone (negativo), produce una netta conservazione della carica totale, dal momento che il bilancio finale della reazione porta alla neutralità della carica totale del sistema . Anche in questo caso, dal momento che avremo l'emissione di un protone e di un elettrone l'atomo che ha dato luogo alla reazione aumenterà per forza il suo numero atomico di una unità, dal momento che nel nucleo avremo un protone in più (in sostituzione del neutrone originario), mentre la massa (ovvero il peso dell'atomo) resterà costante dal momento che il protone ha preso il posto del neutrone. Sembra che tutti i conti tornino, ma in realtà manca qualcosa. Nel decadimento Beta, seppur la carica totale sia conservata, ciò che non è conservata è l'energia totale del sistema, dal momento che l'energia prima della reazione non uguaglia quella dopo la reazione. A questo punto, Wolfgang Pauli prima ed Enrico Fermi (1901-1954) quattro anni dopo, immaginarono che la causa dell'energia mancante fosse dovuta ad una particella a quel tempo completamente sconosciuta e che iniziarono \p61 a battezzare "neutrino". Pauli intuì subito la situazione e Fermi ne spiegò con precisione il meccanismo nel 1934. Il neutrino è una particella senza carica, ma con spin = 1/2 , come nel caso dell'elettrone, e che fino a quei tempi si credeva priva di massa (oggi la si pensa diversamente, come si vedrà in seguito) : in ogni caso è una particella molto difficile da rivelare dal momento che non interagisce quasi mai con la materia. Questa particella così elusiva doveva portare con sé l'energia mancante che si rilevava nel processo del decadimento Beta. Il neutrino, come succede anche oggi negli esperimenti con gli acceleratori o nelle misure sui raggi cosmici, non viene rilevato direttamente ma solo indirettamente dalla quantità di energia che si porta via, e che è deducibile effettuando calcoli precisi che comportano un confronto dell'energia in entrata con quella in uscita. Va fatto presente infatti che una particella senza massa ma dotata di elevatissima velocità (prossima a quella della Luce), possiede ugualmente una grande quantità di energia: ciò lo dimostra la teoria della relatività speciale di Einstein. Il principio di conservazione dell'energia è il pilastro su cui si basa tutta la fisica e a esso non si può rinunciare. Fu proprio grazie alla fede in questo incrollabile principio che fu scoperto - seppur indirettamente - l'ineffabile neutrino, ovvero il fantasma che si aggira nei meandri della materia e che sembra rivestire un'enorme importanza per tutta una serie di motivi che verranno affrontati in seguito. Come si vedrà nelle parti successive riguardanti la fisica delle particelle, è stato questo stesso principio di conservazione che ha permesso la scoperta di tante altre particelle oltre al neutrino. Esistono casi piuttosto rari, ma assolutamente comuni negli interni delle stelle, dove avvengono le reazioni termonucleari, in cui si verifica il "processo Beta inverso". In tal caso è il protone a trasformarsi in neutrone e non viceversa. Il risultato del decadimento è che dal protone iniziale vengono prodotti (in questo caso) un neutrone, un positrone (l'anti-particella dell'elettrone) e un neutrino. Ciò avviene in situazioni in cui il protone cattura un elettrone (situazione comunissima nelle Stelle, dove elettroni e protoni sono liberi e in stretta interazione tra loro), o anche in situazioni in cui la collisione di un protone con un anti-neutrino converte il protone in un neutrone e l’anti-neutrino in un positrone. Questo processo non accade spontaneamente ma solo quando viene fornita energia, come nel caso degli interni del Sole e delle stelle. In generale il decadimento Beta (sia diretto che inverso) avviene in tempi brevissimi: dell'ordine del milionesimo di secondo! Come dire che la materia in certe situazioni tende a trasformarsi in qualcos'altro quasi istantaneamente. Praticamente è una "magia", che come vedremo si verifica molto comunemente anche quando il decadimento di una data particella porta alla formazione improvvisa e quasi subitanea di molte altre particelle oltre al neutrino. \p62 3.4. La conversione della massa in energia Sicuramente uno degli aspetti più eclatanti che hanno luogo nei processi di decadimento è il fatto che quando certi nuclei radioattivi - come ad esempio l'uranio — decadono in altri elementi espellendo anche altre particelle (come ad esempio gli elettroni), la massa del prodotto di decadimento sarà inferiore alla massa del nucleo iniziale prima che decadesse. In virtù della formula (2) di Einstein (vedasi Capitolo 1), questa massa si sarà convertita in energia, in grandissima quantità.

Page 26: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Pertanto la disintegrazione di un nucleo atomico instabile porterà non solo a creare nuovi elementi chimici e a espellere particelle, ma anche a emettere energia. Ciò è palese nella radiazione Gamma, ad altissima energia, una delle fasi fondamentali del decadimento radioattivo. Ma questa energia da dove viene? Essa corrisponde esattamente alla "energia di legame" che serviva a tenere il nucleo legato, tramite quella che viene definita come "interazione forte". Quando il nucleo diventa instabile per le ragioni spiegate prima, questa energia viene liberata. È proprio questa la natura dell'energia che permette la fissione nucleare, come vedremo in dettaglio nel prossimo paragrafo. Ad esempio la capacità delle particelle Alfa (non dimentichiamo che si tratta di una coppia di protoni e di neutroni costituenti un nucleo di Elio) di liberarsi dalla forza che le intrappolava al nucleo atomico di un certo elemento radioattivo, si manifesta non solo con l'espulsione di queste particelle dai nuclei di certi elementi radioattivi ma anche con la liberazione dell'energia che le intrappolava in quel dato nucleo, e infatti oltre al decadimento Alfa ha luogo anche il decadimento Gamma che è costituito solo da fotoni e trasporta una grande quantità di energia, e il decadimento Beta che trasporta anch'esso energia per via dell'energia cinetica degli elettroni in movimento. \t 3.5. La fissione nucleare La fissione nucleare non è altro che una forma particolare di decadimento radioattivo, dove però il processo di decadimento, cioè la trasformazione del nucleo originario in altri elementi, avviene in maniera velocissima, con un'enorme liberazione di energia e di neutroni altamente penetranti. Abbiamo visto che elementi a grande numero di massa, soprattutto gli elementi con un eccesso di neutroni rispetto ai protoni (ovvero gli isotopi radioattivi) sono estremamente instabili e vanno soggetti al decadimento radioattivo. Ciò può avvenire sia spontaneamente che artificialmente. Il decadimento radioattiva indotto artificialmente avviene quando bombardiamo isotopi radioattivi, come ad esempio l'Uranio-235 (di numero atomico 92) con neutroni. I neutroni sono estremamente efficienti nel bombardare e nello spezzare certi nuclei come quelli radioattivi a grande massa atomica come l'Uranio, dal momento che essi essendo a carica elettrica nulla non risentono \p63 minimamente dell'interazione delle cariche elettriche (sia positive che negative) che caratterizzano sia i protoni che gli elettroni che costituiscono un dato atomo, e quindi possono penetrare nei nuclei senza difficoltà. In più, bombardando con neutroni un elemento radioattivo che è già di per sé instabile facilita ulteriormente il processo di decadimento. Vero è che un neutrone è altamente penetrante per le ragioni anzidette, ma è anche vero che se questo neutrone ha un'energia cinetica troppo elevata, esso finirà per attraversare da parte a parte il nucleo dell'elemento radioattivo bombardato, senza esserne catturato. Ciò che è importante è che il neutrone-proiettile sia catturato all'interno del nucleo bombardato in maniera tale da renderlo ancora più instabile di quanto lo era prima, infatti, come si è visto nei paragrafi precedenti in merito al decadimento radioattivo, tanto maggiore è il numero di neutroni in eccesso in un dato nucleo atomico e tanto maggiore è la sua instabilità. Qui è importante capire bene che il neutrone-proiettile spezza il nucleo di uranio dando luogo alla scissione nucleare non perché lo spacca meccanicamente ma perché lo rende ancora più instabile di come era prima del bombardamento neutronico, per via del fatto che esso viene effettivamente catturato. È chiaro allora che la probabilità per il neutrone di essere catturato aumenta al diminuire della sua velocità. Proprio per questa ragione allora si usano neutroni lenti per innescare la fissione di un nucleo idoneo. In seguito al bombardamento neutronico dell'atomo di Uranio si innesca allora un processo che porta questo isotopo a spezzarsi in nuclei più piccoli di quello da cui provengono. Più comunemente, se usiamo l'Uranio-235 come materiale fissionabile di partenza, questo si spezzerà in un nucleo di Bario-141 e uno di Krypton-92. Ma l'aspetto eclatante del meccanismo è che oltre alla scissione nucleare innescata dal bombardamento neutronico ha luogo anche l'espulsione di due o tre neutroni (a seconda dei casi) da parte dei nuclei risultanti dalla disintegrazione (i quali devono diventare necessariamente due elementi chimici diversi da quello che li ha prodotti). Ciò avviene perché i cosiddetti "nuclei figli" hanno un eccesso di neutroni risultando quindi instabili: l'emissione di neutroni non è altro che un tentativo dei nuclei figli di raggiungere una configurazione di stabilità, anche se in effetti poi non ci riescono. Pertanto basta bombardare con neutroni un isotopo radioattivo per spezzarlo in due parti e poi fare in modo che queste due parti a loro volta espellano neutroni, i quali andranno a colpire altri nuclei in un processa interminabile (vedi Figura. 21). I nuclei figli e i figli dei loro figli fanno il lavoro per noi senza che noi dobbiamo più muovere un dito! Se infatti decidiamo di spezzare un isotopo radioattivo non isolato ma situato in una ricca congrega di tanti altri

Page 27: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

isotopi della stessa specie quello che succede è che si instaura una tremenda reazione a catena, ovvero un processo che si auto-sostiene senza alcun ulteriore intervento dell'uomo. Infatti i neutroni prodotti dalla prima fissione vanno a loro volta a bombardare gli altri isotopi radioattivi scindendoli e producendo ulteriori neutroni. Alla fine verrà prodotta una quantità di \p64 neutroni che cresce esponenzialmente unitamente ad una enorme liberazione di energia. Infatti nella prima fissione della catena verranno prodotti 2 o 3 neutroni i quali creeranno a loro volta un paio di ulteriori fissioni; nella seconda fissione verranno prodotti 4 neutroni, nella terza 8, e così via in progressione geometrica: 16, 32, 64, 128, 256 fino a che si arriva all'ottantesima fissione in cui verranno prodotti ben 10 24\ (10 alla ventiquattresima) neutroni, e questo solo in un tempo di una frazione di secondo (per lo meno nelle bombe atomiche) ! Non è difficile immaginare lo stupore degli scienziati del "Progetto Manhattan" quando poterono verificare il terribile frutto delle loro scoperte. È come se un drago dormiente negli anfratti della Terra potesse essere risvegliato nello spazio di un attimo. E infatti si tratta proprio di energia che è dormiente negli atomi stessi, ovvero nell'interazione nucleare forte che nel caso delle disintegrazioni nucleari viene improvvisamente risvegliata. Un processo di fissione nucleare potrà essere efficace - ovvero produrre una reazione a catena efficiente — solamente se il rapporto tra il numero di neutroni prodotti e quelli che hanno provocato la fissione da cui sono nati è un numero maggiore di 1. Se questo numero è approssimativamente attorno a 1 avremo la reazione a catena controllata come si usa nelle centrali nucleari, se invece questo numero risulta molto maggiore di 1 avremo la fissione che produce le esplosioni atomiche. In quest'ultimo caso si dice che si è ottenuta una massa supercritica" di materiale fissionabile in grado di produrre una valanga di neutroni in un tempo brevissimo con un'enorme liberazione di energia. \p65 L'energia che si libera nello spezzare un atomo (nella fattispecie un isotopo radioattivo) non è nient'altro che “l'energia di legame" che teneva uniti i nucleoni tra loro prima che avvenisse la fissione. Chiaramente l'energia liberata, in virtù della famosa equazione di Einstein, sarà tanto maggiore quanto maggiore sarà la massa (e quindi la quantità) di atomi coinvolta nel processo. E comunque anche solo un piccolissimo valore della massa è in grado di liberare una quantità enorme di energia dal momento che l'energia ottenuta risulta moltiplicando il valore della massa per il quadrato della velocità della luce. Immaginiamo allora quanta energia si possa ottenere quando inneschiamo una reazione nucleare a catena non in un milligrammo di Uranio bensì in svariati chili di questo elemento. La caratteristica principale delle reazioni nucleari di fissione è il cosiddetto "difetto di massa" che si verifica perché la massa dei prodotti della disintegrazione è minore di quella prima della reazione. Tutta questa massa si è trasformata in energia, in virtù dell'equazione di Einstein. Il processo di fissione nucleare è ovviamente favorito quando si bombardano con neutroni elementi pesanti e instabili come gli isotopi radioattivi di elementi a grande massa atomica. Tanto maggiore è la massa tanto maggiore sarà l'energia che si riesce a ottenere nel processo di fissione nucleare. Questa energia può essere usata in due maniere: a) in forma controllata, come avviene comunemente nelle centrali nucleari; b) in forma incontrollata, come avviene nelle bombe nucleari a fissione. Nel caso delle centrali nucleari - dove di solito si usa Plutonio come materiale fissionabile (ottenuto bombardando l'Uranio 238 con neutroni, usando una opportuna procedura di "fertilizzazione") - il processo di fissione viene amplificato e al contempo moderato in vari modi. In primo luogo occorrerà rallentare i neutroni-proiettile per renderli efficaci e cioè per fare in modo che siano catturati dai nuclei che si stanno fissionando. Ciò riguarderà ovviamente sia il neutrone iniziale che innesca il processo che i neutroni della reazione a catena. In secondo luogo occorrerà "frenare" il processo se la reazione corre troppo in fretta o viene prodotto un numero troppo elevato di neutroni. Per fare questo si utilizzano dei "moderatori" che consistono in un materiale fatto di elementi di basso peso atomico (come ad esempio l'acqua o l'acqua pesante) e in gran quantità in grado di ridurre l'energia cinetica dei neutroni senza però assorbirli. Inoltre si utilizzano anche speciali barre di controllo che invece hanno Lo scopo di assorbire i neutroni, quando è il caso: questo serve a regolare la potenza del reattore e eventualmente anche a fermarlo (quello che purtroppo non si riuscì a fare a Chernobyl nel 1986). In tal modo è possibile governare una centrale nucleare. L'energia prodotta dalla fissione viene estratta in forma di calore che viene usato per produrre vapore, il quale viene poi spinto ad alta pressione in apposite turbine, le quali una volta connesse ad un generatore produrranno elettricità. \p66

Page 28: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

CONFRONTO 1. L'energia nucleare generata da un frammento infinitesimale di materiale fissile produce un milione di volte più energia di quella che viene liberata bruciando una molecola di benzina nel motore di un automobile. Detta in altre parole, se anziché usare i 50 litri di benzina alla settimana contenuti nel serbatoio della nostra automobile, usassimo un uguale quantitativo di uranio 235 al posto della benzina, non avremmo bisogno di andare dal distributore (di uranio) per almeno 19.000 anni! Dunque il metodo della fissione nucleare è estremamente efficiente, ma al contempo anche pericoloso perché non è facile trattare i residui radioattivi che vengono prodotti e soprattutto a volte ci sono dei rischi nel controllare il processo di fissione nelle centrali che non si sono adeguatamente attenute ai criteri massimi di sicurezza (come di fatto è successo 20 anni fa a Chernobyl). Nel caso della bomba a fissione (denominata anche "bomba atomica") conosciamo tutti bene i terrificanti risultati prodotti a Hiroshima e a Nagasaki nel 1945, e tutti gli esperimenti che si sono succeduti nei decenni successivi che - con la scusa della "deterrenza" - hanno portato il mondo sulla soglia del terrore. Una specie di lama di rasoio su cui tutta l'umanità cammina anche adesso, anche se la cosiddetta "guerra fredda" tra superpotenze contrapposte non è più una realtà. Ma come funziona una bomba atomica? Essa è costituita da tre elementi fondamentali: a) una sorgente di materiale fissionabile; b) un meccanismo di innesco; c) un artificio che permetta alla maggior parte del combustibile per la fissione di disintegrarsi in tempi rapidissimi prima che l'effettiva esplosione si sviluppi. Una tipica bomba a fissione usa combustibile nucleare del tipo dell'Uranio-235. Come si è visto prima, affinchè la reazione a catena avvenga in maniera incontrollata in maniera tale da generate l'esplosione occorre raggiungere la condizione di "massa supercritica". Ciò porta ad una catena di fissione efficiente e rapidissima in grado di liberare, oltre all'emissione di neutroni, anche e soprattutto una gran quantità di energia sia in forma di calore che di raggi Gamma. CONFRONTO 2. L'energia che viene liberata da mezzo chilo di Uranio altamente arricchito - come di solito si usa in una bomba atomica — equivale a qualcosa come circa 4 milioni di litri di benzina. Per cui è facile rendersi conto della tremenda energia che può essere liberata da un pezzettino di Uranio delle dimensioni di una palla da tennis. Il superamento della massa critica per innescare l'esplosione è ottenuto unendo assieme in maniera violenta (tramite una piccola quantità di esplosivo convenzionale) due masse fissionabili che prima dell'esplosione vengono tenute separate. L'unione forzata delle due masse porta al superamento della massa critica, e la reazione a catena incontrollata si compie. Simultaneamente a questo la massa critica viene bombardata con neutroni liberi al fine \p67 di dare inizio al processo, utilizzando di solito un materiale altamente radioattivo come il Polonio, il quale emettendo particelle Alfa viene fatto collidere con il Berillio, producendo in tal maniera una grande quantità di neutroni. In tal modo una reazione nucleare si autososterrà fino al processo esplosivo. L'esplosione di una "bomba A" può normalmente raggiungere un'energia grossomodo oscillante tra 0.1 e 50 Kt, dove 1 Kt equivale a mille tonnellate di esplosivo convenzionale. In tal modo si riesce a generare un'esplosione di potenza fino a cinquantamila tonnellate di esplosivo. CONFRONTO 3. Questa è l'energia equivalente che verrebbe utilizzata da 5000 bombardieri in grado ciascuno di sganciare 10 bombe da una tonnellata di esplosivo! Ma non è solo l'energia liberata a fare danni in una bomba atomica bensì anche la liberazione di elementi radioattivi nell'aria, che possono durare anche moltissimi anni. Un effetto devastante è anche causato dai neutroni liberi generati dal prodotto della fissione i quali dando luogo alla cosiddetta "radiazione neutronica" e per via del fatto che sono privi di carica possono penetrare ovunque senza interferenza elettrostatica causando danni terrificanti all'organismo umano. Essi infatti vengono catturati dai nuclei delle sostanze (come aria, acqua, terra, ecc.) prossime alla regione dove ha avuto luogo la detonazione atomica, alterando completamente la stabilità neutroni-protoni nei nuclei e quindi rendendoli radioattivi. Un effetto del genere nel corpo umano è devastante, dal momento che alterando gli equilibri nucleari nelle cellule, le distrugge inesorabilmente. Dunque l'effetto dei neutroni si va ad aggiungete all'effetto termico e all'enorme quantità di raggi Gamma che vengono prodotti in seguito all'esplosione a causa del subitaneo insorgere della radioattività indotta dalla fissione nucleare. \t 3.6. La fusione nucleare A differenza della fissione nucleare, che consiste nella scissione di due nuclei pesanti e nella relativa reazione a catena, se invece si uniscono tra loro due nuclei di basso peso atomico come l'Idrogeno o gli isotopi

Page 29: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

dell'Idrogeno (vedi Figura 22) come il Deuterio, otteniamo la fusione nucleare. Ciò porterà alla formazione di un elemento più pesante dei due dai quali è nato. Si tratta del processo inverso alla fissione, e può generare una quantità di energia di gran lunga maggiore. \p68 CONFRONTO 4. Ad esempio se fondiamo 1 kg di Idrogeno (numero atomico 1) in Elio (numero atomico 2) possiamo sviluppare una potenza di circa 180 milioni di KWh di energia. Al confronto, nel processo della fissione, se disintegriamo 1 kg di Uranio riusciamo a ottenere una quantità di energia 9 volte inferiore. Nelle reazioni di fusione nucleare, la massa totale del prodotto della fusione è inferiore alla somma delle masse che si sono fuse. Ciò è dovuto al fatto che in virtù dell'equazione di Einstein, la massa mancante - definita come "difetto di massa" — si è andata a trasformare in energia: questa non è altro che una variante del principio di conservazione, e noi sappiamo che la massa e l'energia non sono altro che due differenti facce della stessa medaglia. Ma questa energia in eccesso — corrispondente alla massa in difetto — va a sua volta ad alimentare il processo della fusione che di per sé richiede la liberazione di una enorme quantità di energia. Essa sarà tanto maggiore quanto maggiore è la massa dei nuclei che vanno a fondersi. È chiaro che anziché fondere assieme due nuclei di elementi leggeri come l'Idrogeno (1 solo protone), facciamo fondere due nuclei di Carbonio (6 protoni e 6 neutroni) l'energia liberata sarà molto maggiore. Tanta è la massa coinvolta - cioè il numero di protoni e neutroni nei nuclei - e tanta è l'energia a essa corrispondente. Per poter permettere una reazione di fusione - più tipicamente tra due nuclei di Idrogeno (ovvero tra due protoni liberi) - è indispensabile che questi nuclei vengano a stretto contatto tra loro. Ma il problema è che i nuclei sono dotati di carica positiva e per questa ragione tendono a respingersi con una forza che — in base alla ben nota legge di Coulomb — è tanto maggiore quanto minore è la distanza tra i due nuclei (in virtù del quadrato di questa distanza). Allora bisognerà per forza vincere la forza di attrazione Coulombiana tra cariche positive per farle fondere assieme (vedi Figura 23), utilizzando il cosiddetto "effetto tunnel". Per fare questo è necessario aumentare la temperatura a livelli enormi (fino a circa 10 milioni di gradi Kelvin, che è la temperatura che si trova negli interni del Sole e delle stelle simili alla nostra). In queste condizioni gli atomi di Idrogeno che si intendono fondere tra loro saranno completamente ionizzati, cioè essi avranno perso tutti i loro elettroni, che diventeranno liberi. In tal modo si tenderà a fondere i nuclei tra loro, cioè i protoni liberi; ciò sarà possibile se la densità degli stessi è elevatissima in maniera tale che a causa della spaventosa agitazione termica causata dall'elevatissima temperatura, essi possano collidere tra loro fino a fondersi. Quando questo avviene la barriera di repulsione elettrostatica Colombiana tra nuclei positivi sarà completamente vinta. ANALOGIA 5. Il processo di fusione nucleare può essere visualizzato con la seguente analogia. Immaginiamo che la condizione di repulsione elettrostatica possa essere rappresentata dalla cima di una collina e che il tentativo di fondere tra di loro due protoni \p69 sia rappresentato da una pallina che vorrebbe risalire da sola il versante della collina ma non ci riesce perché è trattenuta in basso dalla forza di gravità. Chiaramente la pallina non sarà in grado di risalire la cima della collina dal momento che occorre vincere la forza di gravità per arrivarci, ovvero occorre esercitare una forza sulla pallina. Immaginiamo allora che un bambino di passaggio dia un calcio ben assestato alla pallina fino a farla arrivare in cima. Il bambino è ovviamente rappresentato dall'elevata temperatura e conseguente agitazione termica che permette di far collidere e quindi fondere tra loro due protoni. Mentre la resistenza della pallina a risalire da sola la collina rappresenta la forza di repulsione elettrostatica che si esercita tra due protoni (che hanno la stessa carica positiva, per vincere la quale occorre applicare una forza). Se supponiamo che il calcio del bambino alla pallina sia ben assestato, allora la pallina riuscirà ad arrivare in cima e se la potenza del calcio e sufficiente, succederà anche che Ut pallina scenderà poi dal versante opposto della collina. Ciò equivale a dire che quando la pallina scende liberamente (per gravita, in questa analogia) nel versante opposto, la forza di repulsione elettrostatica sarà completamente vinta e i protoni entreranno in un regime interamente governato dal processo di fusione. Come si vede, esiste come una specie di frontiera tra due forze che agiscono in senso opposto: essa può essere superata solo a spese di una grande quantità energia \p70 (il calcio del bambino). Occorre cioè fare un sacrificio per vincere una forza (la repulsione elettrostatica) e far prevalere l'altra (la fusione), e farlo in continuazione, in maniera tale che il processo di fusione nucleare tra due nuclei di Idrogeno possa persistere indisturbato solo se la temperatura elevata può essere mantenuta costantemente.

Page 30: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Insomma, nel caso specifico della fusione nucleare la temperatura agisce come innesco per fare in modo che ad una forza ne subentri un'altra. Tutto questo, come si vedrà tra poco, si realizza in maniera estremamente efficiente nell'interno del Sole e delle stelle. A differenza del processo di fissione nucleare che si realizza in maniera controllata nelle ben note centrali nucleari, non si è ancora riusciti— nonostante tutti i tentativi effettuati negli ultimi 30 anni — a controllare in laboratorio il processo di fusione nucleare. Da ormai 30 anni si stanno effettuando tentativi — come ad esempio usando reattori sperimentali a fusione come il "Tokamak" per riuscire a imbrigliare questa "bestia" al fine di produrre energia (vedi Figura 24), utilizzando plasmi contenenti i nuclei degli elementi leggeri che si intendono fondere, che poi vengono portati a elevatissime temperature all'interno di contenitori appositi a forma di ciambella. Al contempo, al fine di obbligare il plasma a starsene ben concentrato e affinchè esso non si espanda raffreddandosi si utilizzano potentissimi campi magnetici per confinarlo. Ma la reazione di fusione, per ora, non può essere mantenuta per più di qualche frazione di secondo. Sicuramente la fusione nucleare, quando si riuscirà a metterla in pratica, è altamente vantaggiosa rispetto alla fissione nucleare per due semplici ragioni. In primo luogo essa produce molta più energia della fissione nucleare. In secondo luogo l'energia prodotta è sostanzialmente "pulita" dal momento che non comporta (in linea di principio) la produzione di scorie radioattive come nel caso della fissione nucleare. È sicuramente un sistema vantaggioso e al contempo anche abbastanza sicuro, ma molti sono i problemi che devono essere risolti e forse ci vorranno ancora altri 50 anni pet realizzare il risultato qui sulla Terra. Le reazioni di fusione nucleare invece possono essere prodotte in maniera incontrollata attraverso la cosiddetta "bomba a fusione", altrimenti denominata "bomba all'idrogeno". Proprio questa bomba si è andata a sostituire alla "bomba a fissione" negli arsenali nucleari, e rappresenta l'arma più spaventosa che sia mai stata costruita, riuscendo a liberate nell'esplosione un'energia fino a 50 mt (la bomba a fusione più potente che sia mai stata fatta detonare, dai russi negli anni '70), ovvero pari a 50 milioni di tonnellate di esplosivo convenzionale. Si tratta di un'energia che è \p71 2500 volte più potente della più "prosaica" bomba a fissione fatta detonare a Hiroshima. CONFRONTO 5. Una sola bomba del genere, che può spazzare via intere metropoli come New York e circondario fino ad un raggio di 50-100 km, può liberare tanta energia quanta ne sarebbe liberata da 5.000.000 di bombardieri carichi ciascuno di 10 tonnellate di bombe al tritolo! Le superbombe come quella russa da 50 Mt erano solo il frutto di un esperimento, ma poi di bombe a fusione di potenza variante tra i 150 Kt e i 20 Mt ne sono state costruite a migliaia. E a tutt’oggi, nonostante la drastica riduzione degli arsenali nucleari, ce n'è ancora abbastanza per distruggere il mondo intero almeno 10 volte. Ma come funziona una bomba all'idrogeno? Essa, denominata anche "bomba termonucleare", per funzionare ha bisogno dei seguenti elementi: a) un combustibile per la fusione composto dagli isotopi dell'Idrogeno (1 protone) rappresentati dal Deuterio (1 protone e 1 neutrone) e dal Trizio (1 protone e 2 neutroni); b) una piccola bomba a fissione che funzionando da innesco dà inizio al processo della fusione degli isotopi dell'idrogeno. Riuscire a trattare adeguatamente il Deuterio e il Trizio all'interno di un contenitore di qualche tonnellata non era uno scherzo, ma evidentemente la "cultura del cinismo" nata nel periodo della guerra fredda ha permesso di aguzzare evidentemente l'ingegno degli scienziati più spregiudicati che la storia umana abbia mai conosciuto. \t 3.7. La fusione nucleare nel Sole e nelle stelle La fusione nucleare è il meccanismo che tiene acceso il Sole così come tutte le altre stelle. Per cui dobbiamo la vita, oltre che al principio di esclusione di Pauli che ci consente di avere una forma distinta dalle altre, anche al Sole che consente a quella forma corporale che ci portiamo dietro di vivere. Per parlare di fusione nucleare nelle stelle occorre partire dal momento in cui una stella - come ad esempio Sole — si è formata. Tutto è nato da una nube interstellare che è collassata su se stessa a opera di forze esterne dalle caratteristiche più svariate, come, soprattutto, le onde d'urto prodotte dalle supernove (immani esplosioni stellari alla fine del loro ciclo evolutivo), la pressione esercitata dalle particelle espulse dalle atmosfere stellari (i cosiddetti "venti stellari") e i franti d'urto che si formano nei bracci a spirale della nostra galassia. Queste forze esterne hanno spinto il materiale interstellare — costituito da polveri finissime e da atomi di idrogeno e di altri elementi più pesanti - a collassare su se stesso. \p72

Page 31: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

La nube interstellare che prima era diffusa e informe comincia a diventare una palla di materia sempre più compatta fino a che una volta che la densità di materia dentro la nube è diventata sufficientemente elevata, la nube viene ad assumere un campo gravitazionale sempre più definito, dove la maggior quantità di materia va gradualmente a concentrarsi nella regione centrale. In tal modo la nube collassa sotto il suo stesso peso e nel fare questo si riscalda sempre di più, perché un aumento della densità determina un aumento delle collisioni tra particelle le quali a loro volta, per via dell'energia cinetica sviluppata, si riscaldano sempre più fino a che gli atomi di idrogeno dopo aver attraversato una tiepida fase di eccitazione diventano completamente ionizzati per via della fuoriuscita del loro unico elettrone: a questo punto la nube è fatta non più di atomi ma di un plasma composto di protoni ed elettroni liberi e di nuclei di atomi pesanti (come ad esempio quelli del Ferro, che sono stati precedentemente depositati nello spazio interstellare dalle supernove). Ad un certo punto quando la nube è diventata sufficientemente concentrata e piccola, la temperatura sale talmente che i protoni cominciano ad urtarsi con sempre maggior forza raggiungendo distanze mutue sempre più piccole: in tal modo la forza di repulsione elettrostatica tra protoni viene resa più efficace e quindi sembrerebbe che il processo di fusione tra protoni sia impossibile. Ma così non è perché ad un certo punto l'agitazione termica diventa talmente forte da permettere di vincere le forze repulsive, cosa che porta finalmente all'innesco della fusione nucleare tra protoni, ovvero ciò che resta degli atomi di Idrogeno. A questo punto quella che era una nube informe e caotica di materiale raggiunge abbastanza rapidamente una "configurazione ordinata e simmetrica": quella della sfera. Ciò avviene quando l'embrione della stella diventa un bambino, ovvero quando la stella raggiunge un equilibrio tale che la compressione verso l'interno viene bloccata perché la pressione esterna esercitata dal caldissimo materiale di fusione finisce per controbilanciare la forza gravitazionale, che tenderebbe a far comprimere su se stessa indefinitamente la nube compatta. In tal modo abbiamo la vera e propria nascita di una stella. Ciò può avvenire solo se il valore della massa raccolta è sufficientemente elevato da permettere l'innesco del processo, in caso contrario la palla di materia raccolta non riuscirà ad accendersi come una stella. La potentissima forza nucleare che porta i nuclei di idrogeno (ovvero i protoni liberi) a fondersi tra di loro porterà molto presto alla formazione di nuclei di Elio. La massa dei nuclei di Elio prodotto sarà lievemente minore della massa dei nucleoni che l'hanno formato, perché essa si sarà trasformata in energia, un'energia tremendamente elevata in grado di alimentare tutto il processo di fusione. Il Sole, proprio in questo momento sta bruciando Idrogeno al suo interno, ed è proprio per questa ragione che il Sole emette la luce che riceviamo. Il bruciamento dell'Idrogeno per mezzo della fusione nucleare è reso efficiente e continuativo dalla meravigliosa bilancia di forze che tiene assieme una stella. Infatti la pressione interna tenderebbe a spingere il gas \p73 processato dalla fusione verso l'esterno facendo così espandere la stella, perché questo è un naturale meccanismo di raffreddamento che si esplica attraverso l'espansione del gas stesso. Ciò porterebbe la stella a raffreddarsi in breve tempo e a spegnersi, ma questo non succede perché tanto più aumenta la temperatura e quindi la pressione prodotta dalle reazioni di fusione nucleare e tanto più la gravità - concentrata nel centro della stella — reagirà all'effetto espansivo prodotto dalla pressione agendo nel senso opposto, cioè verso l'interno. Non si tratta di una "pulsazione" dove la stella si espande e si contrae, si tratta invece di due meccanismi opposti (la pressione e la gravità) che agiscono in sincrono, in maniera tale da mantenere costante La struttura della stella per moltissimo tempo. In tal modo - istante per istante - abbiamo una bilancia perfetta di forze - la pressione dei gas bruciati dalla fusione nucleare da una parte e la forza di gravità dall'altra - che manterranno la stella quasi perfettamente sferica e, soprattutto, accesa per un periodo che nelle stelle di massa simile a quella del Sole è della durata di circa un miliardo di anni. Per cui possiamo stare tranquilli: prima che si spenga il Sole potranno passare almeno 50 milioni di generazioni, mentre la nostra stufa cosmica potrà tranquillamente bruciare idrogeno per un tempo estremamente lungo. E lo fa anche adesso senza variazioni di sorta, eccetto che per una variabilità di 11 anni che però si verifica nell'atmosfera del Sole e non nel suo interno, dove le reazioni di fusione nucleare continuano indisturbate. Ma come funziona esattamente la fusione nucleare in stelle come il Sole? Ciò avviene tramite un processo che viene denominato "reazione protone-protone", che si sviluppa in 5 fasi ben precise: • FASE 1. Due protoni - consistenti in nuclei di Idrogeno - vengono a contatto assieme, spinti dalla elevatissima densità che ha luogo nelle stelle e dai conseguenti processi collisionali tra particelle. • FASE 2. Uno dei protoni va soggetto al decadimento Beta inverso che trasforma il protone in neutrone: in tal modo dalla fusione si crea inizialmente un nucleo di Deuterio (un protone e un neutrone), che come ben

Page 32: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

noto è un isotopo dell'Idrogeno. Questo tipo di decadimento Beta (inverso) avviene per cattura di un elettrone sul protone: nel Sole questo può avvenire normalmente dal momento che il plasma solare è costituito da plotoni ed elettroni liberi, i quali si attraggono l'un l'altro: in tal modo un plotone si trasforma in un neutrone. In questo processo — come già si è visto precedentemente — viene emesso un neutrino. Come si vedrà in seguito, l'emissione di neutrini per via del processo di decadimento Beta che avviene costantemente nel Sole parallelamente alle reazioni di fusione nucleare, riveste un'enorme importanza. Ci si chiederà a questo punto dove sia andata la carica elettrica positiva che era propria del protone prima che trasmutasse in un neutrone. La risposta è che essa viene emessa in forma di "positrone", \p74 ovvero l'anti-particella a carica positiva dell'elettrone. Tutte queste trasformazioni non avvengono a caso, ma solo allo scopo di conservare l'energia totale prima e dopo l'interazione allo stesso modo della carica elettrica totale prima e dopo l'interazione. Nulla viene perso nel nulla! Questa è la legge fondamentale della fisica. A questo punto però il positrone appena prodotto non può rimanere a lungo indisturbato. E infatti questo non succede, perché le forze elettriche attrattive tra particelle di segno opposto in questo caso sono vincenti. Non dimentichiamo che il plasma stellare non è costituito solo dai protoni, ma anche dagli elettroni che a causa delle elevate temperature erano fuggiti (per ionizzazione) dall'atomo originario di Idrogeno. E infatti è proprio uno di questi elettroni che va a collidere con il positrone. L'effetto che se ne produce è terrificante: le due particelle si "annichilano" letteralmente, ma siccome l'energia totale va conservata, le loro masse si convertono completamente in energia che si manifesta nell'emissione di un fiotto potentissimo di fotoni Gamma (altamente energetici). Ciò è previsto dalla famosa equazione di Einstein, solo che in questo caso, a differenza di quello che succede nel "difetto di massa" che si verifica nel prodotto di fusione di due nuclei rispetto al nucleo originario, tutta la massa viene convertita in energia! Come vediamo, la cosiddetta "antimateria" - in questo caso il positrone - entra in gioco costantemente nelle reazioni termonucleari di fusione nelle stelle. Ma essa si ravviva giusto il tempo che serve per bilanciare le reazioni (in questo caso l'annichilazione tra particelle di carica opposta: elettrone e positrone), poi scompare. Una specie di fantasma che spunta fuori giusto quando serve per portare equilibrio nelle reazioni che avvengono nel mondo della materia, e poi scompare nel nulla. • FASE 3. Il nucleo di Deuterio che si è formato nella fase precedente (cosa che ha portato alla liberazione di un neutrino e di un positrone poi annichilatosi con un elettrone) si unisce ad un protone libero (un semplice atomo di Idrogeno) per formare un nucleo di Elio-3, ovvero un isotopo dell'Elio composto da 2 protoni e un solo neutrone. Questa reazione ingenera un inevitabile difetto di massa nel prodotto della reazione il quale produce un ulteriore fotone Gamma. • FASE 4. Il nucleo neo-formato di Elio-3 collide con un altro nucleo di Elio-3 (che nello stesso periodo è stato formato dal processo descritto nella rase precedente). Ciò porta alla formazione di un nucleo di Elio-4 costituito da due protoni e due neutroni, ovvero una struttura stabile e non isotopica, quella che normalmente si trova nell'Elio nucleare. Nel prodotto della reazione oltre alla formazione di Elio-4 devono per forza formarsi anche due protoni isolati in più. Questo succede perché la reazione tra due nuclei di Elio-3 con due protoni ciascuno per formare Elio-4 da sola darebbe solo come bilancio 3+3 nucleoni, mentre ne servono due in più per bilanciare la reazione. In tal modo, oltre aH'Elio-4 vengono emessi due protoni. • FASE 5. A questo punto i due nuovi protoni appena formati, parallelamente alla formazione di Elio-4, riprendono il ciclo dall'inizio fondendosi a loro volta, fino a formare \p75 nuovo Elio-4 passando come sempre dall'Elio-3, e liberando ancor più fotoni Gamma. Il processo si ripete di volta in volta a catena. Come si vede si tratta di una reazione ciclica di fusione nucleare che porta a creare di volta in volta un sempre maggior numero di nuclei di Elio partendo dalla fusione di nuclei di Idrogeno (protoni). La catena protone-protone (vedi Figura 25) impiega solo qualche piccolissima frazione di secondo per realizzarsi, ma per bruciare tutto l'Idrogeno che c'è in una stella ci vuole all'incirca un miliardo di anni. Nel Sole, tanto per fare un esempio di stella ordinaria, non abbiamo solo 4 protoni ma ne abbiamo miliardi di miliardi di miliardi, per cui ci vuole il suo tempo per digerire tutto l'Idrogeno che c'è nel Sole! Ma cosa succede dopo che tutto l'Idrogeno da bruciare è finito? Si spegne il Sole? Assolutamente no! Succede invece che nella stella tutto l'Idrogeno che c'era nella stella e che poi è stato nuclearmente trasmutato in Elio, viene bruciato a sua volta. Ma perché questo avvenga è necessario che la stella si contragga un pochino — ad un certo stato della sua fase evolutiva - perché per fondere tra loro nuclei di Elio è necessaria una temperatura più elevata. Ciò porterà ad un incremento delle collisioni tra i nuclei. Non dimentichiamo che tanto maggiore è la massa dei nuclei atomici creati e tanto più difficile sarà fonderli tra loro, proprio perché all'aumentare del numero \p76 di protoni aumenta poi la barriera di repulsione elettrostatica Colombiana. Pertanto l'unico modo per fondere a sua volta l'Elio è quello di aumentare la temperatura. Ci pensa la stella da sola contraendosi! Le stelle non sono "palloni di gas" bensì macchine meravigliose sia a livello di software che a livello di hardware: sanno da sole quello che devono fare per poter tener accesa la stella. In tal modo anche l'Elio prima

Page 33: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

o poi verrà bruciato, ma questo avverrà negli strati più interni delle stelle, dove la temperatura è più alta. Ciò porterà di volta in volta alla formazione di nuclei a peso atomico crescente come il Carbonio (6 protoni), l'Azoto (7 protoni), l'Ossigeno (8 protoni) , e così via con elementi di peso atomico crescente. Tutto questo porterà la stella ad assumere una struttura stratificata a forma di cipolla dove gli elementi a maggior peso atomico vengono a loro volta fusi nella parte più interna e calda della stella. Ma intanto che tutto questo calderone ribolle nelle stelle, succede che viene liberata una grande quantità di neutrini, i quali dal momento che si tratta di particelle neutre, riescono ad attraversare agevolmente il Sole in tutto il suo spessore fino a giungere a noi. Queste sono le uniche particelle che, sperimentalmente, ci permettono di vedere quello che succede nell'interno del Sole e delle stelle. In caso contrario noi non vedremmo nulla. Delle stelle, infatti, noi vediamo solo la superficie esterna, cioè la sua atmosfera (altrimenti detta "fotosfera"), quella che produce le ben note righe spettrali, e che ha una temperatura migliaia di volte inferiore a quella che caratterizza gli interni stellari. Ai giorni nostri riusciamo a malapena a rilevare i neutrini provenienti dal Sole in modo da avere una certa conferma dei meccanismi di fusione nucleare che si verificano al suo interno, ma prima noi non avevamo assolutamente nulla a cui appigliarci per vedere quello che succede dentro il Sole. Ci affidavamo solo alle ferree leggi matematiche che regolano la struttura delle stelle e alla fisica nucleare che ne sta alla base: di questo senz'altro il massimo precursore fu l'astrofisico britannico Arthur Eddington (1882-1944), il quale unendo le conoscenze Einsteiniane sull'equivalenza di massa ed energia alle conoscenze più avanzate sulla struttura degli atomi e dei loro nuclei, era riuscito a mettere in piedi alla cieca e con il solo aiuto delle leggi della fisica e della matematica, il quadro fisico che governa le dinamiche che tengono acceso il Sole. Ma dentro il Sole non si riesce nemmeno oggi a vedete nulla, se non a "penetrare" molto vagamente la struttura interna con tecniche osservative indirette come la eliosismologia (da cui si deduce una variabilità rapidissima del raggio solare con una periodicità di pochi minuti). L'invisibilità delle zone interne del Sole sussiste perché al crescere della profondità all'interno della nostra stella (e di tutte le altre stelle), diminuisce la trasparenza della materia salare a causa del fatto che i plasmi caldissimi che si trovano all'interno si comportano un po' come "nubi": essi bloccano completamente i fotoni ad alta energia che provengono dall'interno e che sono prodotti dalle reazioni di \p77 fusione, dal momento che questi scaricano la loro energia negli strati appena sovrastanti senza uscire, e finendo per essere assorbiti da essi. Escono solo i fotoni che vengono prodotti sulla superficie del Sole che sono quelli che ci illuminano e ci riscaldano: questi fotoni ovviamente nascono dall'interno del Sole, ma sono solo "fotoni sopravvissuti" che dopo un ciclo infinito di assorbimenti e riemissioni negli strati sottostanti (un meccanismo denominato "riprocessamento fotonico"), riescono ad arrivare, comunque fortemente depotenziati in energia. Infatti noi dal Sole non riceviamo i fotoni Gamma prodotti nelle reazioni di fusione ma solo fotoni ottici a energia infinitamente più bassa che emergono alla superficie. Il gas che si trova alla superficie del Sole, pur essendo ad una temperatura di circa 5700 °K, è in realtà "freddissimo" se confrontato con le temperature di decine di milioni di gradi che vengono prodotte nell'interno, dove avvengono le reazioni di fusione nucleare. In ogni caso, se non venissero liberati i raggi Gamma all'interno del Sole a riscaldarlo per intero e a garantire la continuità delle reazioni nucleari al suo interno, non avremmo in alcun modo la luce solare, la quale nonostante gran parte dell'energia dei raggi Gamma sia assorbita all'interno del Sole, è un mero residuo dei raggi Gamma prodotti dalle reazioni nucleari. Per quanto spaventoso in sé - il Sole e le stelle sono vere e proprie "centrali di fusione nucleare controllata" dalla forza di gravità - il meccanismo che energizza le stelle è un'opera di sublime ingegneria cosmica, studiato con un'armonia indescrivibile. Se i fotoni Gamma non fossero assorbiti nelle zone degli interni stellari, queste non si riscalderebbero abbastanza per garantire la temperatura necessaria per il mantenimento delle reazioni di fusione, e allora alla superficie non arriverebbe nessun fotone sopravvissuto. Se i fotoni Gamma scappassero dal Sole immediatamente dopo le reazioni di fusione (il che è impossibile fisicamente parlando) il Sole si spegnerebbe in pochi minuti, e noi saremmo morti prima che il Sole si sia spento per via dell'estrema pericolosità dei fotoni Gamma se impattano la nostra atmosfèra in gran quantità. Pertanto, affinchè la macchina funzioni è necessario che i fotoni Gamma siano in parte assorbiti e in parte diffusi, moltissime volte. Solo allora potranno uscire dal Sole, anche se completamente ... decrepiti, in termini di energia. Quanto basta per riscaldarci e fare luce. Visto che quello che sappiamo sul Sole è quasi solo frutto dei nostri calcoli e dei nostri modelli matematici, allora cosa ci resta per avere conferma che non ci siamo sbagliati su quanto abbiamo studiato alla cieca elaborando il modello della fusione nucleare? Ci resta una sola cosa: proprio i neutrini, che sono gli unici che

Page 34: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

— a differenza dei raggi Gamma - possono agevolmente scappare dagli interni stellari senza alcuna interferenza con i nuclei in ebollizione nel Sole. Le reazioni nucleari all'interno del Sole generano un flusso enorme di neutrini, e ciò avviene principalmente nel corso della prima fase delle reazioni protone-protone, quella che porta la fusione di due protoni in un nucleo di Deuterio. Il neutrino è una particella neutra (un po' come il neutrone, solo che la massa del neutrino è praticamente nulla, la sua \p78 energia è solo cinetica quando si muove nello spazio) : pertanto è liberissima di zigzagare dove gli pare. È chiaro che, stante così la situazione, i neutrini solari vengono sparati un po' in tutte le direzioni, e molti raggiungono la Terra ad una velocità prossima a quella della luce. Impiegano solo 8 minuti per raggiungere la Terra e si calcola che ogni secondo che passa tu che stai leggendo sarai attraversato da 10 miliardi di neutrini solari senza accorgertene! Ma solo una infinitesima parte di queste particelle può essere rivelata, e solo indirettamente. \t 3.8. Il problema dei neutrini solari I neutrini quando impattano l'atmosfera terrestre o qualunque altra cosa non possono produrre ionizzazione perché essi non sono elettricamente carichi. Semplicemente passano attraverso qualunque cosa come fantasmi. Su 10 miliardi di neutrini ricevuti ogni secondo, solo uno trova il modo di reagire con un protone o un neutrone. Tutti gli altri trapassano la Terra senza problemi. Se però utilizziamo rivelatori di particelle particolarmente sensibili come ad esempio il "Super-Kamiokande" giapponese, che da qualche anno ci sta fornendo risultati piuttosto interessanti e se abbiamo la pazienza di aspettare non un secondo ma diversi anni, allora la probabilità di rilevare l'interazione dei neutrini con la materia aumenterà considerevolmente. Fino a qualche anno fa si era riusciti a rilevare solo un terzo dei neutrini solari previsti dalla teoria della fusione termonucleare stellare, e questo aveva cteato parecchi problemi, non ultimo quello di domandarci se il nostro modello di fusione nucleare è corretto oppure se la fusione si realizzi realmente nella parte degli interni solari che credevamo certa in base ai nostri calcoli. Poi si è ritenuto di aver scoperto — ma non si è ancora del tutto certi di questo — che noi riceviamo solo un terzo dei neutrini solari solamente perché nel loro percorso dal Sole alla Terra (dove sono situati i nostri rivelatori) essi cambiano forma, assumendo l'aspetto di neutrini di 3 tipi diversi. In tal modo il numero di neutrini solari misurati sulla Terra sarà inferiore di 3 volte, perché nel frattempo i due terzi dai neutrini sono passati ad assumere altre forme. Questo fenomeno, a quanto sembra scoperto nel 2001 in Canada, viene denominato come "oscillazione neutrinica". Tutto questo ha portato alla deduzione che il neutrino non può essere completamente privo di massa, come ad esempio il fotone, ma deve avere una massa, seppur infinitesimamente piccola. Al giorno d'oggi, in base agli esperimenti fatti presso gli acceleratori particellari e studiando il processo a cascata particellare prodotto dai raggi cosmici, si ritiene che la massa del neutrino sia all'inarca 1/25.000 di quella dell'elettrone. Affronteremo anche in seguito il ruolo dei neutrini e il loro modo di interagire con la materia, soprattutto quando si affronterà il tema della produzione di particelle sub-nucleari negli esperimenti con gli acceleratori. Per fare in modo che un flusso di neutrini solari possa essere registrato, si utilizzano dei rivelatori costituiti da grandi vasche riempite di un liquido i cui nuclei possano reagire con neutrini dotati di una certa energia (non dimentichiamo che i neutrini, seppur dotati di massa quasi nulla, hanno un'enorme energia cinetica dal momento che viaggiano a velocità prossime a quella della luce). Per poter riuscire a osservare eventi neutrinici è però fondamentale che questi rivelatori siano posti sottoterra, al fine di creare uno schermo che impedisca ai raggi cosmici (vedasi parte successiva del libro) di interagire con i rivelatori neutrinici e quindi di innescare falsi segnali. Come si vede, in questo caso specifico i raggi cosmici rappresenterebbero il "rumore" che seppellirebbe il "segnale", ovvero i neutrini che stiamo cercando. Il principio di rivelazione dei neutrini in generale è che i neutrini (se sufficientemente energetici) possono indurre il processo inverso di decadimento che li ha prodotti. Pertanto, essi possono essere assorbiti dalle stesse interazioni deboli attraverso cui sono stati creati (si ricordi ad esempio il processo di decadimento Beta nella radioattività). Per fare un esempio concreto, si può ricordare l'esperimento di rivelazione effettuato dal fisico Raymond Davis in una miniera degli USA. Il rivelatore era costituito da una vasca di 4 0 0.0 0 0 litri di cloro. Quello che succedeva era che il cloro interagiva con i neutrini solari trasformandosi in Argon radioattivo. Ciò avveniva al ritmo di un evento ogni qualche giorno. A questo punto si cercavano i pochissimi atomi di Argon creati. Esperimenti più recenti vengono effettuati nei laboratori del Gran Sasso.

Page 35: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

In questo caso il decadimento radioattivo che si utilizza si basa sulla trasformazione del Gallio in Germanio. Sicuramente il più moderno rivelatore di neutrini al mondo è — per ora — il Superkamiokande in Giappone. Qui come rivelatore si utilizza acqua. In questo caso l'arrivo dei neutrini viene rivelato utilizzando una batteria di fotomoltiplicatori (rivelatori in grado di contare i fotoni in arrivo) posti in acqua. Se arriva un neutrino, esso genererà positroni a causa del decadimento beta inverso. A loro volta i positroni causeranno un lampo di luce, che verrà misurato dai fotomoltiplicatori. \t 3.9. La nucleosintesi degli elementi più pesanti La durata dei processi cosmici come la fusione termonucleare dell'Idrogeno per formare Elio è sicuramente qualcosa di umanamente inconcepibile. Eppure a tutto c'è una fine, perché ad un certo punto anche l'Idrogeno terminerà, e questo succederà quando tutto l'Idrogeno si sarà trasformato in Elio. A questo punto, l'unico modo per tenere acceso il Sole o una qualunque altra stella di tipo simile al Sole, sarà quello di aumentare ulteriormente la temperatura al fine di permettere la fusione dei nuclei di Elio per formare elementi più pesanti come il Carbonio, l'Azoto e l'Ossigeno (comunque il Sole può arrivare solo al Carbonio). A questo penserà la gravità La quale facendo \p80 ricontrarre la stella su se stessa ne ingenererà quel guizzo termico sufficiente per permettere alla stella di proseguire la sua vita, seppure in una forma trasformata. Non è la gravità a decidere da sola all'improvviso quello che deve succedere quando si esaurisce il combustibile nucleare! Ma è solo l'armonioso equilibrio sincronico delle forze in gioco ad agire. Ovviamente non appena il combustibile Idrogeno è esaurito, per un attimo non ci sarà più un effetto termico nella stella, allora la gravità in quel frangente semplicemente prevarrà sulla pressione, la quale, dipendendo strettamente dalla temperatura (in maniera direttamente proporzionale a essa), tenderebbe a far espandere gli strati della stella verso l'esterno. Ma questa momentanea contrazione porterà la stella a riscaldarsi di nuovo a causa dell'aumento della densità della materia stellare e quindi delle collisioni tra particelle che determineranno un aumento della temperatura. A questo punto i nuclei di Elio saranno pronti per essere "cucinati" in un nuovo processo di fusione nucleare per formare elementi più pesanti. Nelle stelle, in generale, il processo di fusione termonucleare può procedere — a seconda della massa delle stelle stesse - fino alla formazione di elementi pesanti il cui numero atomico non sia maggiore di 26. Questo è il numero atomico del Ferro (vedi Figura 26). La fusione degli elementi fino alla sintesi del Ferro comunque è possibile solo in stelle più massicce del Sole. La sintesi degli elementi pesanti avverrà nelle zone più interne di queste stelle, mentre nelle zone gradualmente più esterne continueranno a essere fusi nuclearmente elementi a basso numero atomico (vedi Figura 26). \p81 Gli elementi più pesanti del Ferro possono essere ottenuti solamente per cattura di neutroni, ma questo succede solo nelle supernove, ovvero nella fase finale dell'evoluzione di stelle molto più massicce del Sole (il Sole non potrà mai diventare una supernova perché non ha massa sufficiente). La fusione di elementi con numero atomico superiore a quello del Ferro usa più energia di quanta ne è prodotta nelle reazioni. Allora, elementi più pesanti del Ferro non possono essere utilizzati come combustibile di fusione nelle stelle normali. Per cui, per avere la sintesi degli elementi più pesanti bisogna guardare a quello che succede nelle supernove, e nei processi che determinano la immane esplosione che caratterizza la fine di una grossa stella. Ciò avviene tramite un complicato meccanismo che comporta la cattura di neutroni nei nuclei (cosa che ne aumenta drasticamente il peso atomico). Nelle condizioni opportune è comunque facile permettere la cattura di neutroni, dal momento che trattandosi di particelle neutre essi non possono interagire con particelle cariche come i protoni. Ogni cattura neutronica sui nuclei disponibili produce quindi degli isotopi, alcuni dei quali sono stabili mentre altri sono instabili. Tra gli isotopi formati per cattura neutronica quelli instabili (cioè radioattivi) decadranno emettendo un positrone e un neutrino per formare nuovi elementi. Il processo di cattura neutronica può avvenire più o meno velocemente. In ogni caso, l'unica situazione in cui abbiamo un'elevata densità di neutroni si trova solo durante un'esplosione di supernova, e soprattutto nel violentissimo collasso gravitazionale che precede l'esplosione vera e propria. Il processo è brevissimo: dell'ordine di poche ore, non di più, come di fatto si rileva dalle osservazioni nel momento in cui si scopre l'esplosione di una supernova in un'altra galassia. Sta di fatto che è proprio alle supernove che dobbiamo la formazione degli elementi più pesanti che esistono nell'universo, come a esempio il Radio, l'Uranio e il Plutonio. Pertanto il materiale fissile come l'Uranio che troviamo in certe rocce è stato formato qualche miliardo di anni fa dalle supernove e poi espulso nel mezzo interstellare prima che questo mezzo collassasse per formare il Sole che ci illumina da tanto tempo.

Page 36: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

La Tavola Periodica degli elementi chimici come la conosciamo è il risultato della cosiddetta "nucleosintesi stellare" che si è articolata in tre fasi ben precise: a) circa 15 miliardi di anni fa la grande esplosione del Big Bang ha prodotto la maggior parte dell'Idrogeno (proprio quello che le stelle poi bruceranno al loro interno) ; b) le stelle partendo dall'Idrogeno hanno processato nuclearmente — tramite la fusione - tutti gli altri elementi fino al Ferro; c) le supernove hanno prodotto tutti gli altri elementi più pesanti. Tutto di quanto abbiamo attorno nasce dalle stelle, dalla loro morte e dalla loro rinascita! Ma che cosa succederà ad una stella insignificante come il Sole dopo che avrà terminato tutto il suo combustibile nucleare? Innanzitutto c'è da dire che il Sole (a differenza di altre stelle più massicce) non sarà in grado di sintetizzare elementi più pesanti del Carbonio, dopodiché il processo di fusione si arresterà. Inoltre, dal momento che il Sole è ben al di sotto di una certa massa critica, esso non potrà mai diventate \p82 una supernova. Una volta che esso esaurirà tutto il suo combustibile nucleare esso subirà una forte espansione che lo porterà a diventare una "gigante rossa", caratterizzata da un incremento tale del raggio stellare da inglobare entro di sé la Terra e tutti i pianeti interni. Poi l'inviluppo stellare si staccherà del tutto fino a formare una meravigliosa e variopinta "nebulosa planetaria" (una specie di esplosione rallentata), mentre il nucleo stellare collasserà gradualmente fino a diventare una "nana bianca". Questa stella, composta interamente di Carbonio, è una struttura che deve la sua luminosità al collasso che ha determinato la compressione e alle condizioni particolarmente critiche della materia che in questo caso non è un gas ma una specie di reticolo cristallino. La nana bianca non può bruciare nessun combustibile nucleare ma solo spegnersi lentamente fino a diventare una quasi invisibile nana bruna. La stragrande maggioranza delle stelle attraversa un destino in tutto simile al Sole. In sintesi: non ci sono dubbi che le stelle sono il miglior laboratorio di fisica nucleare che esista, almeno per quello che riguarda quello che succede al loro interno, mentre sono parimenti il miglior laboratorio di fisica atomica per via delle transizioni elettroniche di eccitazione-ionizzazione che avvengono nelle loro "freddissime atmosfere". \t 3.10. La fusione fredda: un fenomeno controverso Un evento inconsueto e che poteva rivoluzionare la fisica e la chimica si presentò nel 1989, quando due elettrochimici, l'inglese Martin Fleischman (1928, tuttora vivente) e l'americano Stanley Pons (1943, tuttora vivente), annunciarono al mondo intero la produzione di "fusione fredda", ovvero una reazione in grado di fondere a temperatura ambiente tra loro due nuclei di un elemento leggero per formare un nucleo di un elemento pesante. Si trattava di un evento incredibile, perché così si era in grado di ottenere lo stesso risultato che poteva essere raggiunto solo con temperature di milioni di gradi. Fleischman e Pons asserivano invece di esserci riusciti a temperature molto basse. Il fenomeno che si verificò tecnicamente va noto come "fusione nucleare a bassa energia". Il metodo che i due ricercatori impiegarono consisteva nella seguente procedura (vedi Figura 27). Si prendevano due elettrodi costituiti da una barra di Platino e un filamento di Palladio e poi venivano messi in una soluzione elettrolitica contenente acqua pesante - ovvero una soluzione in cui il normale Idrogeno dell'acqua è sostituito dal suo isotopo Deuterio - all'interno di un contenitore di vetro isolato dall'esterno (quella che viene definita una "cella elettrochimica"). In seguito veniva fatta passare elettricità al sistema, in maniera tale da determinare la migrazione degli ioni in soluzione da un elettrodo all'altro (un fenomeno conosciuti ss imo e molto utilizzato in elettrochimica). Quello che si osservava era che il Deuterio si accumulava \p83 in gran quantità sul Palladio, il quale funzionava come una specie di spugna molto porosa. Ma che cosa era successo esattamente? Era avvenuto che all'interno del Palladio gli atomi di Deuterio si erano accumulati in spazi sempre più ristretti all'interno del suo reticolo cristallino, in maniera che così gli atomi erano obbligati a essere sempre più vicini fino al punto che - violando tutti i meccanismi conosciuti di fisica nucleare - questi atomi si fondevano tra di loro, generando come reazione di questa stranissima fusione, calore sotto forma di raggi Gamma e la sintesi di atomi di Elio. E tutto questo utilizzando un processo quasi prosaico come l'elettrolisi, e certe proprietà — evidentemente ancora non completamente conosciute a livello di fisica della materia condensata - del Palladio. Infatti venivano utilizzate le strane proprietà che ha il Palladio nei confronti dell'Idrogeno e dei suoi isotopi. Ma l'Elio era il risultato della fusione degli atomi di Deuterio! In sostanza si tratta dello stesso identico risultato che si ottiene ogni secondo all'interno del Sole, con la differenza che nella nostra stella per ottenere nuclei di Elio occorre una temperatura di molti milioni di gradi.

Page 37: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Chiaramente, seppur basandosi su un meccanismo di confinamento chimico, la reazione che si osservava non poteva rientrare all'interno di nessuna reazione chimica nota, dal momento che in nessuna di esse l'idrogeno viene trasmutato in Elio e con generazione di neutroni e raggi Gamma. Nel caso della fusione fredda, l'evidenza più importante è l'energia del calore in eccedenza che viene liberato dalla cella elettrochimica. Quello che succede è che viene liberato molto più calore di quello che viene prodotto dall'energia elettrica che alimenta la cella passando attraverso gli elettrodi. Se l'esperimento viene effettuato in condizioni \p84 corrette è possibile ottenere di norma 10 volte più potenza in calore rispetto alla potenza in ingresso. L'annuncio di Fleischman e Pons scatenò un'esplosione di polemiche tra i fisici, alcuni dei quali accusarono i due elettrochimici di essere dei millantatori, di aver effettuato l'esperimento in maniera scorretta e di aver dato un annuncio prematuro al mondo prima che la cosa potesse essere verificata in maniera consensuale dalla comunità mondiale. Questi scienziati avevano senz'altro avuto troppa fretta, ma di tutto potevano essere tacciati fuorché di millanteria. Negli anni successivi un po' in tutto il mondo sono stati ripetuti gli esperimenti sulla fusione fredda e, per quanto sia ancora difficile riprodurre sempre le stesse condizioni, in buona parte di essi sono stati confermati i risultati di Fleischman e Pons. Col tempo sono stati utilizzati metodi tra i più svariati per ottenere lo stesso effetto (ad esempio in certi casi al posto dell'acqua pesante è stata usata acqua normale, oppure al posto del Palladio come catodo è stato utilizzato il Tungsteno) e ormai è unanimemente riconosciuto che il fenomeno non solo avviene realmente ma anche e soprattutto che questo sistema può fornire energia assolutamente pulita in enormi quantità senza alcun rischio di emissione di radiazioni (se non in quantità minime). CONFRONTO 6. C'è più energia potenziale di fusione fredda in un miglio cubico di acqua marina - come sorgente di produzione di Idrogeno con cui far partire la reazione — che in tutte le riserve di petrolio sulla Terra! L'energia che si riesce a produrre con la fusione fredda è da centinaia a migliaia di volte maggiore di quella che si ottiene nelle normali reazioni chimiche. Quindi si tratta di un sistema davvero allettante e pieno di promesse per il pianeta, sia pet la quantità di energia prodotta, sia per il fatto che essa è energia pulita non rilasciando pericolosi prodotti di decadimento, sia per il fatto che essa non richiede attrezzature complesse come nel caso della fusione nucleare (che ancora in 30 anni non si è riusciti a innescare con reattori come il Tokamak). Ricerche molto importanti si stanno tuttora conducendo negli USA, in Giappone, ma anche in Italia da gruppi di esperti come Vincenzio Iorio, e Domenico Cirillo, e da fisici come Emilio del Giudice. Tutti - seppur usando svariati sistemi sia per gli elettrodi che per il liquido contenuto nella cella elettrolitica — hanno confermato la produzione di calore nei loro esperimenti. Le ricerche sulla fusione fredda hanno scatenato un vespaio di polemiche e di controversie. Da una parte non c'è dubbio che alcune multinazionali dell'energia non vedono di buon occhio un sistema semplicissimo che potrebbe interamente soppiantare i sistemi energetici tradizionali, da una parte una grossa fetta della comunità scientifica (in particolare quella dei fisici) tende ad arroccarsi su posizioni \p85 eccessivamente tradizionaliste e a volte anche piene di pregiudizi immotivati, e da una parte ricercatori troppo dilettanti rischiano di screditare le ricerche sulla fusione fredda, eppure in mezzo a tutto questo un fenomeno strano e completamente inaspettato si verifica realmente, un fenomeno che potrebbe essere una delle più grandi promesse per l'umanità. Queste ricerche sono state difese tenacemente da alcuni seti studiosi, come ad esempio l'ingegnere americano Eugene Mallove (1947-2004), scomparso prematuramente in circostanze piuttosto misteriose. Sta di fatto che, nonostante i risultati ottenuti in anni e anni di esperimenti, la "fusione fredda", seppur confermata come un fenomeno reale, rimane tuttora un fenomeno che non ha ancora una spiegazione fisica soddisfacente. Innanzitutto, spesso questo genere di esperimento non è facilmente riproducibile, dal momento che fenomeni come eccessi di energia ed emissione di particelle e radiazione non si ripetono in maniera sistematica, ma solo al verificarsi di specifiche condizioni, che per ora sono state comprese solo parzialmente. Buona parte dei chimici e dei fisici che si cimentano con questi esperimenti, riesce a ottenere risultati molto incoraggianti ma, a differenza dei processi di fusione nucleare calda che sono spiegati da solidi modelli matematici, nel caso dei meccanismi fisici che generano la fusione fredda non si dispone ancora di una teoria fisica convincente, ma solo di congetture e ipotesi. E infatti le congetture sono tante. C'è chi parla di una "super-chimica" con effetti quantistici, oppure di chi si spinge più in là affermando che la fusione fredda non sarebbe altro che il risultato dell'estrazione di energia dal vuoto quantistico. Altri come il chimico Randall Mills ritengono che la fonte di energia in eccedenza si comporti un po' come un "processo catalitico" nel quale l'elettrone dell'atomo di Idrogeno viene indotto a subire una transizione ad

Page 38: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

un minor livello di energia rispetto allo stato fondamentale classicamente inteso dalla meccanica quantistica. In tal modo l'energia immagazzinata negli atomi verrebbe lasciata cataliticamente. Forse la teoria più brillante, recentemente proposta dal fisico italiano Giuliano Preparata (1942-2000), è quella della "coerenza elettrodinamica quantistica". Questa teoria si basa sull'elettrodinamica quantistica applicata alla materia condensata e prevede che abbiano luogo effetti quantistici in forma di "campi" che messi in risonanza con il campo elettromagnetico, possono essere attivi a grandi distanze e pur essendo deboli tra due corpi suppliscono a questa mancanza tramite fattori di amplificazione che si ingenerano quando un sistema quantistico è coerente, cioè cooperativo in tutte Le sue parti e indipendentemente dalla distanza delle parti. Uno degli aspetti più sconvolgenti della fusione fredda è sicuramente la sorprendente evidenza sperimentale del fatto che nel corso degli esperimenti è stata riscontrata una "trasmutazione" degli elementi chimici. Infatti come risultato delle reazioni, sugli elettrodi a palladio delle celle a fusione fredda, non è stato trovato solo Elio, \p86 ma anche atomi di metalli radioattivi. In alcuni esperimenti, in particolare quelli dei giapponesi Mizuno e Ohomori, è stata rilevata una spettacolare liberazione di plasma attorno al catodo, confinato dalla stessa acqua distillata utilizzata nella soluzione elettrolitica, da cui è stata verificata scaturire sia energia in eccesso che trasmutazioni nucleari. Effetti eclatanti della produzione di "sfere di plasma" in stretta concomitanza con fenomeni di trasmutazione nucleare sono stati osservati anche da fisici russi del Kurchatov Institute di Mosca. Sulla base delle idee sviluppate dal chimico francese Louis Kervran (1901-1983) e da altri come l'italiano Carlo Borghi e gli americani William Harkins e A. L. Parson, il fisico italiano Roberto Monti elabora un modello decisamente contro-corrente, con il quale si tenta di demolire totalmente i modelli di atomo di tipo sia "planetario" (come quello di Rutherford) che di tipo quantistico (come quello di Boht), da lui ritenuti incompatibili con le effettive "evidenze chimiche" che invece opterebbero per un modello di "atomo rigido" dove la natura del neutrone risulterebbe dalla cattura dell'elettrone sul protone e non come particella indipendente, dove gli atomi sarebbero "strutture composite di polineutroni" e dove viene riconsiderato il ruolo dell'etere come sorgente di energia potenziale. Secondo il modello di atomo di Monti denominato "modello Alfa esteso", tutti gli elementi pesanti possono essere fabbricati da elementi più leggeri utilizzando la fusione fredda e viceversa elementi più leggeri possono essere prodotti sottoponendo a "fissione fredda" gli elementi più pesanti. Secondo Monti alcune reazioni chimiche ordinarie sarebbero in grado di causare sia la fusione che la fissione fredda, con evidenza di trasmutazione che lo stesso Monti avrebbe effettuato nei suoi laboratori al fine di spiegare in dettaglio i meccanismi della fusione fredda. In sostanza si tratterebbe di una vera e propria rivalutazione dell'alchimia degli antichi. Però, indipendentemente dalle teorie di Monti che possono essere condivise o meno, sta di fatto che i fenomeni da lui descritti si verificano realmente, dato che lui stesso ha ripetutamente effettuato esperimenti di fissione e fusione fredda. Si è anche scoperto che il fenomeno della fusione fredda può essere ottenuto anche bombardando il Palladio con frequenze ultrasoniche oppure con scariche elettromagnetiche nelle radiofrequenze e con campi magnetici. Anche in questo caso è stata prodotta energia in eccedenza e la fusione dell'Elio. Come si vede il fenomeno della fusione fredda ha dato adito ad una serie svariata di interpretazioni, alcune anche molto eretiche. In realtà ciò che sembra rimanere di questo fenomeno è che effettivamente esso esiste ma anche che il meccanismo fisico che lo produce non è ancora del tutto chiarito (anche se per alcuni lo è) o perlomeno non si è ancora stabilito un consenso unanime nella comunità scientifica. Gli \p87 esperimenti continuano e anche molto tenacemente, ma, a parte una piena comprensione del meccanismo fisico (che per alcuni non è fisico, bensì chimico) che ancora non c'è, sembra ancora mancare una tecnica ingegneristica che permetta di estrarre e utilizzare energia dalla fusione fredda in maniera efficiente e conveniente. RIASSUNTO - CAPITOLO 3 La scoperta della radioattività dimostrò che una parte degli atomi è instabile e tende a trasformarsi in nuovi elementi chimici. Ciò avviene tramite l'emissione di tre tipi di radiazione, delle quali la più importante è il "decadimento Beta", attraverso il quale fu possibile scoprire il neutrino. Proprio sulla base delle proprietà radioattive di alcuni elementi pesanti della Tavola Periodica, si scoprì che bombardandoli con neutroni era possibile spaccare i nuclei in una reazione a catena in grado di produrre un'enorme quantità di energia.

Page 39: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Ciò permise la costruzione della bomba atomica. In seguito si scoprì anche che nuclei di elementi leggeri possono essere portati ad una condizione tale da vincere la repulsione Coulombiana e quindi da permettere la fusione nucleare,anch'essa con un'enorme liberazione di energia e con la formazione di nuclei di elementi chimici a più elevato peso atomico. Ciò permise la costruzione della bomba all'Idrogeno. Di pari passo si è scoperto che il fenomeno della fusione nucleare è il principale motore che anima le stelle come il Sole, ragion per cui noi riceviamo luce e calore. Dal momento che le reazioni nucleari che avvengono nelle stelle generano un'enorme quantità di neutrini, proprio questi rappresentano l'unico mezzo per vedere quello che succede all'interno delle stelle. Molti anni dopo la scoperta della "fusione calda", si giunse alla scoperta della cosiddetta "fusione fredda", dove la trasmutazione di un dato atomo in un altro atomo a più elevato peso atomico avveniva senza alcun bisogno di utilizzare le elevate temperature proprie degli interni delle stelle. Il meccanismo della fusione fredda non è ancora ben conosciuto. \p88 QUESITI 1. In che modo l'instabilità di un atomo porta A produrre la radioattività? 2. In che cosa si differenziano le tre differenti radiazioni prodotte dalla radioattività? 3. Per quale ragione i "raggi Alfa" emessi da una sostanza radioattiva sono costituiti da nuclei compatti di Elio? 4. Perché elementi come l'Idrogeno e l'Elio non sono radioattivi? 5. IN che modo è stata dedotta l'esistenza del neutrino nel processo radioattivo del decadimento BETA? 6. Per quale ragione quando si bombarda un elemento radioattivo con neutroni quello genera la fissione nucleare con una reazione a catena? 7. Perché le centrali nucleari riescono a contenere in maniera controllata la reazione a catena? 8. Perché sia la fissione che la fusione nucleare producono un'enorme quantità di energia? 9. In cosa differisce una bomba A fissione da una bomba A fusione? 10. Per quale ragione è difficile realizzare la fusione nucleare nei nostri laboratori? 11. Per quali ragioni nel Sole è resa possibile la fusione nucleare? 12. Perché una stella è sferica e di dimensioni stabili per un periodo di tempo lunghissimo? 13. Perché il decadimento BETA è importante nella fusione nucleare che ha luogo nelle stelle e che cosa lo provoca? 14. In che modo la reazione di fusione tra due protoni nelle stelle avviene tramite un ciclo? 15. Come si rilevano i neutrini provenienti dal Sole? 16. Per quale ragione nel Sole non è possibile sintetizzare nuclei di elementi pesanti? 17. Per quale ragione il meccanismo della fusione fredda suscita scalpore negli ambienti scientifici? 18. Quali sono le proprietà del Palladio in una reazione di fusione fredda? 19. Per quale ragione la fusione fredda potrebbe rivelarsi importante per il futuro dell'umanità? \p89 \t CAPITOLO 4 Fisica particellare - Le particelle e le interazioni fondamentali Tutto quanto abbiamo visto finora illustra ciò che avviene all'interno degli atomi, sia nella loro parte più esterna caratterizzata dagli elettroni che nella loro parte più interna caratterizzata dai nucleoni. Ciò che ora è importante far presente è che, descrivendo la struttura dell'atomo, abbiamo già iniziato a introdurre il concetto di "interazione" che però adesso intendiamo fissare con maggior precisione e sistematicità. Parlare di particelle atomiche, nucleari e sub-nucleari significa soprattutto parlare di "forze" tramite le quali le particelle interagiscono tra loro (vedi Tabella 1). Nella parte di fisica atomica abbiamo già visto che grazie alle scoperte della meccanica quantistica è stato possibile dimostrare che piccole particelle come gli elettroni interagiscono in continuazione con i fotoni: ciò determina le transizioni quantistiche degli elettroni all'interno degli orbitali quantizzati. Sappiamo anche che poi gli elettroni, come particelle a carica negativa, interagiscono con i protoni, a carica positiva, che si trovano nei nuclei. Per cui già fin da ora possiamo intuire che elettroni, protoni e fotoni sono uniti in un unico nesso, ovvero sono soggetti ad un processo di interazione che li lega tra loro. In seguito, procedendo nella fisica dei nuclei, abbiamo incontrato i decadimenti radioattivi, che determinano stranissime trasmutazioni all'interno dei nuclei stessi per formare poi nuove particelle. Questo è un tipo di interazione La cui natura verrà descritta in dettaglio nelle pagine successive. E infine ci siamo trovati a confrontarci con l'enorme energia che si libera sia quando tentiamo di scindere un atomo pesante che quando tentiamo di fondere tra loro due nuclei leggeri: questa non è altro che L'energia che tiene uniti i nucleoni all'interno dei nuclei che in particolari circostanze viene liberata in maniera

Page 40: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

esplosiva: anche questo è il risultato di una interazione tra particelle che, come vedremo, è quella di gran lunga più potente in natura. \p91 Queste sono le tre interazioni che si verificano sulla scala dell'atomo e che quindi caratterizzano il mondo dell'infinitamente piccolo. Ma siccome il mondo è composto da un'infinità di queste particelle che si uniscono tra loro per costituire la materia fin sulla scala dei pianeti, delle stelle e delle galassie, allora subentra l'ultima delle interazioni - la gravità - quella che ci permette di stare con i piedi in terra e non di fluttuare nel vuoto. Il più grande sforzo dei fisici attuali è estremamente arduo: quello di tentare di unire tra loro tutte e quattro le interazioni, al fine di ricavarne un'unica interazione che stia alla radice di tutti i fenomeni che avvengono in natura. Non ci siamo ancora arrivati, ma potremmo arrivarci in un tempo non lontano. Intanto però, grazie all'utilizzo massiccio degli acceleratori di particelle siamo riusciti a svelare un mondo inaspettato, che ci ha aperto le porte dei nuclei e ci ha permesso di vedere che protoni e neutroni non sono le particelle ultime della materia ma sono essi stessi costituiti da particelle ancora più minute. Ma siamo soprattutto riusciti a classificare tra loro tutte le particelle conosciute, arrivando a comprendere che esse sono caratterizzate da due ruoli ben distinti: quello delle particelle di materia in senso lato, e quello delle particelle che fungono come "portatori di forze". Comprendendo molto bene i ruoli delle particelle, abbiamo capito bene come queste particelle interagiscono tra loro riuscendo a distinguere quattro interazioni ben precise e dalle caratteristiche specifiche. Entriamo ora in dettaglio nel meccanismo delle interazioni, non prima di aver analizzato le famiglie in cui tutte le particelle esistenti in natura sono catalogate. \t 4.1. Fermioni e bosoni Prima di discutere in dettaglio quali sono e in che modo agiscono le interazioni, è fondamentale fissare la principale classificazione che è stata fatta sui costituenti fondamentali della materia (vedi Schema 1). Da una parte abbiamo la materia in senso Iato la quale è costituita da "fermioni" e dall'altra abbiamo i portatori di forze che vengono definiti "bosoni": i primi vengono cLassificati in base alla statistica di Fermi-Dirac e riguardano le particelle con spin semi-intero che di solito assume i valori di 1/2 (a volte anche 3/2, ecc.), mentre i secondi in base alla statistica di Bose-Einstein e riguardano le particelle con spin intero, ovvero uguale a 1 (o 2 nel caso degli imprendibili gravitoni). Fermioni e bosoni costituiscono assieme quello che viene definito "Modello Standard" della fisica particolare (vedi Tabella 2), e che analizzeremo più in dettaglio nei passi successivi. La classificazione di questi due tipi fondamentali di particelle è basata sul valore dello spin che queste particelle assumono e conseguentemente sul fatto che obbediscano o meno al principio di esclusione di Pauli. Una cruciale conseguenza di questo principio è che i fermioni non possono mai occupare lo stesso spazio, pertanto essi tendono a starsene a distanza come se ci fosse una specie di forza repulsiva tra di loro, a meno che due particelle non abbiano spin di segno opposto. Come si è visto è in virtù di questo principio che due elettroni con spin invertito possono occupare lo stesso stato quantico. I fermioni obbediscono al principio di Pauli mentre i bosoni non vi obbediscono, cioè possono occupare assieme tutti gli stati quantici possibili. \p92 ANALOGIA 6. Per visualizzare meglio la differenza che separa i fermioni dai bosoni, potremmo immaginare due differenti famiglie di persone che vanno in vacanza: una occupa un Hotel e l'altra un altro Hotel. La prima famiglia - rappresentata dai fermioni — è composta da elementi marcatamente individualistici che preferiscono starsene separati in stanze differenti (che siano al massimo stanze a due letti), chiedendo sempre stanze che siano il più possibile l’una lontana dall'altra. La seconda famiglia - rappresentata dai bosoni — è composta invece da elementi che preferiscono condividere la stessa stanza e sono per questo altamente socievoli. Senza dubbio i gestori di Hotel ci guadagnano molto di più a dare stanze ai fermioni piuttosto che ai bosoni! Allo stesso modo, chi o cosa abbia architettato la materia particellare dell'universo nella forma che conosciamo, ha scelto evidentemente che sia molto più conveniente tenere i fermioni in stanze (doppie) separate che non nella stessa. Altrimenti la materia non sarebbe mai esistita nelle forme variegate che noi vediamo. Pertanto le particelle fermioniche pagano un prezzo in più a starsene separate piuttosto che condividere la stessa stanza, perché il progetto non è di risparmiare denaro ma di usare bene il denaro a disposizione. È infatti una fortuna che la natura abbia provveduto affinché la materia fosse fermionica. Infatti la natura fermionica della materia permette l'esistenza della struttura del mondo, e cioè la differenziazione delle cose: dai nuclei e gli atomi, fino ai pianed, le stelle, le galassie e le persone stesse. Se i fermioni non fossero fondati sul principio di esclusione di Pauli che obbliga gli elettroni a occupare orbitali ben precisi e distinti nell'atomo, la materia che conosciamo non avrebbe né un volume né una forma.

Page 41: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Allora dobbiamo ringraziare il modo di disporsi degli elettroni - che sono dei fermioni - negli atomi, senza i quali non avremmo nemmeno le proprietà chimiche della materia, cioè la sua capacità di legarsi tra ioni di carica opposta. E sicuramente, perché tutto questo miracolo si compia, dobbiamo ringraziare quella proprietà quantistica che è lo spin semiintero dei fermioni e degli elettroni in particolare. Tutto questo fa dei fermioni particelle che rendono la materia "reale" e non virtuale, e soprattutto distribuita nello spazio. Anche se non sembra, fermioni e bosoni, interagiscono in maniera stretta tra di loro, con ruoli ben precisi. I primi rappresentano la materia, mentre i secondi hanno il ruolo di "messaggeri" o di mediatori. Sono infatti i bosoni che trasportano la forza che fa interagire tra loro le particelle di materia. Queste particelle, che sono trasportatrici dell'energia dell'interazione, vengono emesse e riassorbite dalle particelle fermioniche interagenti. Ad esempio, due particelle di carica opposta che si attraggono o si respingono, non lo fanno perché esiste una misteriosa "azione a distanza" — come si pensava ai tempi di Newton — ma solo perché esistono dei mediatori, che sono delle vere e proprie particelle con ruoli specifici, che permettono lo scambio di forze all'interno della materia. Pertanto le interazioni tra le particelle fondamentali di materia avvengono tramite lo scambio di particelle mediatrici di forza, che sono proprio i bosoni. \p93 A questo punto ci si chiederà chi sono esattamente i fermioni e chi i bosoni. I fermioni, che hanno tutti spin 1/2 sono composti da ben 12 particelle le quali si suddividono in 3 "generazioni". La classificazione dei fermioni è la seguente: I - Generazione: elettrone ( e ), neutrino elettronico quark up quark down II - Generazione: muone, neutrino muionico, quark charm, quark strange III - Generazione: tauone, neutrino tauonico, quark top, quark bottom. Come si vede, da questa classificazione stanno venendo alla luce diversi nomi nuovi e decisamente esotici. In primo luogo appaiono le particelle denominate "quark". Esse non sono altro che i componenti dei nucleoni, cioè dei protoni e dei neutroni, ma anche dei mesoni. Poi vediamo che ci sono tre differenti tipi di neutrini e altre stranissime particelle come il tauone (o "particella tau") e il muone. Ma da dove saltano fuori queste particelle? Le abbiamo scoperte sia studiando la radiazione cosmica che impatta costantemente la nostra atmosfera che nel corso degli esperimenti con gli acceleratori; in quest'ultimo caso esse risultano spesso come sottoprodotto della collisione di particelle con antiparticelle. Queste nuove particelle sono apparse spesso nel momento in cui venivano fatte collidete tra loro due particelle normali come protoni con antiprotoni o elettroni con positroni. Ma in condizioni normali queste strane particelle non possono esistere, perlomeno non nel nostro mondo. Diciamo per il momento che muoni e tauoni sono parenti stretti dell'elettrone, ma non vivono nella nastra realtà. Emergono nella nostra realtà solamente quando liberiamo immense energie: allora appaiono per una infinitesima frazione di secondo e poi scompaiono subito dopo. Invece i quark sono particelle che esistono sempre, ma solo quelli \p94 li della prima generazione, mentre quelli delle altre due generazioni appaiono e scompaiono allo stesso modo in cui appaiono e scompaiono i muoni e i tauoni, ma nonostante abbiano un comportamento simile a questi ultimi, sono in realtà strettamente imparentati con i quark della prima generazione. Iniziamo allora a intuite che solo le particelle della prima generazione esistono nella nostra realtà, mentre quelle della seconda e terza generazione appaiono solo quando sono risvegliate dai potentissimi stimoli energetici che noi inneschiamo quando facciamo collidere due particelle normali tra loro, oppure anche quando particelle provenienti dal cosmo collidono con gli atomi della nostra atmosfera. Sono un po' come dei fantasmi dormienti, che si ravvivano all'improvviso solo ed esclusivamente quando si trovano in un bagno di energia di inimmaginabile potenza. E, come vedremo poi, è proprio questa energia a crearli. Possiamo dire che non fanno parte oggi della nostra realtà ma facevano parte della realtà di ieri, ovvero circa 15 miliardi di anni fa alla nascita dell'universo, dove in seguito alla immane esplosione del Big Bang si erano venute a creare temperature ed energie tali da permettere a queste particelle di esistere con continuità e allo stato completamente libero, quando ancora non esisteva la materia come la conosciamo oggi. Però succede che se noi iniettiamo grandi quantità di energia utilizzando i nostri acceleratori particellari, allora queste particelle rinascono e vivono in quella minutissima frazione di secondo in cui si sono prodotte le collisioni inter-particellari che hanno generato quelle spaventose energie. Vediamo che come i quark della prima generazione hanno parenti nelle due generazioni successive; allo stesso modo fanno gli elettroni e i neutrini. Ma veniamo ora ai quark, che sono proprio le particelle costituenti la natura intima dei nuclei, ovvero protoni e neutroni, che fino al 1964 erano creduti indivisibili. Furono i fisici americani Murray Geli-Mann 09 29,

Page 42: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

tuttora vivente) e George Zweig (1937, tuttora vivente) che trovarono il modo di spiegare le proprietà delle particelle nucleari fondamentali in base al loro essere costituite da particelle ancora più piccole come i quark. Non andiamo per ora nel dettaglio in merito ai comportamenti dei quark; ricordiamo solo che, come nel caso delle altre particelle precedentemente introdotte e per le stesse ragioni, solo i quark della prima generazione costituiscono la materia della nostra realtà. Le generazioni successive appaiono solamente in condizioni di energie elevatissime. A prescindere dai meccanismi di interazione nucleare che discuteremo in seguito, possiamo fin da subito anticipare che i quark sono i mattoni fondamentali che costituiscono i protoni e i neutroni nei nuclei. Essi si combinano in triplette per formare protoni con due quark up e uno down e i neutroni con due quark down e uno up. Inoltre, quando un quark si combina in un doppietto con un anti-quark esso va a formare quelle particelle che sono i "mesoni" (scoperte dal fisico giapponese Hideki Yukawa; 1907-1981), il cui ruolo è quello di permettete uno scambio di energia tra protoni e protoni, tra neutroni e \p96 neutroni e tra protoni e neutroni e di garantire, in generale, la coesione dei nucleoni all'interno dei nuclei. Vedremo meglio poi come funzionano queste dinamiche. Tutto quanto detto fino ad ora non basta a definire i fermioni, dal momento che oltre alle 12 particelle fondamentali suddivise in 3 generazioni, esistono le loro controparti a carica elettrica opposta, e cioè il positrone opposto all'elettrone, l'antiquark opposto al quark, l'antineutrino opposto al neutrino, l'antimuone opposto al muone, e l'antitauone opposto al tauone, tanto per fare alcuni esempi rappresentativi. Queste particelle costituiscono la cosiddetta "anti-materia", che rappresenta un po' l'immagine speculare della materia normale. In tal modo i fermioni sono composti da 12 fermioni di materia e 12 fermioni di antimateria. Come nel caso delle particelle strane come muone, tauone, ecc., le particelle di antimateria appaiono solo in seguito a processi collisionali negli acceleratori, vivono una infinitesima frazione di secondo e poi scompaiono. Ma le antiparticelle non sono imparentate con le 12 particelle fermioniche di materia, sono giusto il loro opposto solamente in termini di carica elettrica, mentre invece le altre proprietà come ad esempio la massa, il valore assoluto dello spin, restano assolutamente le stesse. Per ragioni che spiegheremo in dettaglio, le anti-particelle, di nessuna delle tre generazioni, non possono in alcun modo vivere con continuità nel mondo normale, semplicemente perché si annichilerebbero immediatamente con le loro controparti. Il processo di annichilazione tra particelle e antiparticelle era un fatto del tutto normale agli inizi dell'universo, ma poi la materia ha vinto rispetto all'antimateria, semplicemente perché quella che un tempo era una simmetria tra le due parti contrapposte si è rotta poco dopo la nascita dell'universo. Senza dubbio dobbiamo il merito della scoperta delle anti-particelle, prime fra tutte il positrone (la controparte a carica opposta dell'elettrone), al fisico teorico inglese Paul Dirac (1902-1984) che nel 1928 ne fece una previsione teorico-matematica unendo la teoria quantistica alla teoria della relatività speciale, e al fisico sperimentale Cari Anderson (1905-1991) che nel 1932 per primo scoprì sperimentalmente il positrone. Abbiamo dunque fornito un'introduzione sui fermioni, ma non abbiamo ancora fatto menzione ad un altro criterio che ne permette un'ulteriore classificazione. Questo criterio è semplicemente basato sul "peso" dei fermioni. Per questa ragione elettroni e neutrini e le loro controparti della seconda e terza generazione vengono classificati assieme come "leptoni" (dal greco "leptos", che significa "leggero"), ovvero le particelle leggere, e sono caratterizzati da 3 "sapori" diversi. I quark vanno a formare il gruppo degli"adroni" (dal greco "adros", che significa "abbondante") ovvero le particelle ponderose che costituiscono i nucleoni e che sono caratterizzate da 6 sapori diversi. I nucleoni stessi (protoni e neutroni) formano poi il gruppo dei "barioni" (dal greco "baros", che significa "pesante"). Mentre le particelle di natura adronica, come ad esempio le particelle Lambda, Omega, Sigma e Csi — costituite da quark particolarmente pesanti - \p97 vengono chiamate anche "iperoni", e sono quelle particelle altamente energetiche che vengono spesso scoperte nel corso degli esperimenti con gli acceleratori. E la zoologia degli iperoni diventa sempre più ricca in seguito alle scoperte che vengono fatte di anno in anno! \p98 A questo punto una volta introdotte le classificazioni relative alle particelle fermioniche, quelle che propriamente costituiscono la materia come la conosciamo, passiamo ora ai bosoni, i portatori di forze e quelli che permettono le interazioni tra i fermioni. Mentre abbiamo ben 12 particelle e 12 antiparticelle per i fermioni, nel caso dei bosoni abbiamo solo 4 tipi di particelle di cui l’ultima solo ipotetica. Esse sono il \p99 fotone, una particella priva sia di massa che di carica elettrica, che rappresenta il portatore della forza elettromagnetica, il gluone che rappresenta il portatore della forza nucleare forte e che ha il compito di far interagire tra loro i quark e gli anti-quark delle tre famiglie conosciute, i bosoni vettoriali W+ W- e Z0 che

Page 43: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

sono i tre portatori della forza nucleare debole causa del decadimento radioattivo, e infine il gravitone che rappresenta il portatore della forza gravitazionale. Queste particelle, che poi rappresentano tutte quanti di pura energia, sono state scoperte sperimentalmente a eccezione del gravitone. Di questi bosoni gli unici dotati di massa (molto elevata) sono i bosoni vettoriali dell'interazione debole. In generale, senza i bosoni — che sono essi stessi delle particelle - non esisterebbero la realtà e tutte le sue dinamiche. Queste particelle, trasportatrici dell'energia dell'interazione, vengono emesse e riassorbite dalle particelle fermioniche. Essi hanno il ruolo di messaggeri o di intermediari di forze, senza i quali le particelle fermioniche non potrebbero mai interagire. Sono un po' come angeli - o se si vuole demonietti — che agiscono dietro le fila della realtà della materia, un po' come progettisti degli eventi che avvengono nella realtà. 4.2. Le quattro interazioni fondamentali A questo punto - noti tutti i componenti e le varie famiglie di particelle di materia e di particelle portatrici di forze - siamo in grado di fissare le modalità con cui si verificano le quattro fondamentali interazioni che tengono in piedi e mantengono "vivo" l'universo nella sua globalità strutturale. Queste sono l'interazione elettromagnetica, l'interazione debole (le prime due unificate 20 anni fa nell'interazione elettro-debole), l'interazione forte, e l'interazione gravitazionale. Queste interazioni tra particelle fondamentali rappresentano quello che viene unanimemente chiamato "Modello Standard" delle particelle elementari, ovvero il modello strutturale globale che abbiamo oggi dell'universo. L'origine della struttura attuale - universalmente accettata — del modello standard, nasce dall'ossatura teorica che descrive le particelle e che si basa su una fusione tra teoria quantistica e relatività speciale, e che si esplica nella elettrodinamica quantistica nel caso dell'interazione elettrodebole e nella cromodinamica quantistica nel caso dell'interazione forte. Nell'ambito di queste teorie, a differenza della teoria gravitazionale Newtoniana e della teoria dei campi elettrostatici Coulombiana, non sono possibili interazioni a distanza a opera di misteriosi "campi di forza", ma solo intetazioni che si esplicano attraverso lo scambio di una o più particelle quantistiche, cioè i bosoni. Queste particelle bosoniche sono trasportatrici dell'energia dell'interazione e vengono emesse e riassorbite dalle particelle fermioniche interagenti. Il modo migliore per descrivere un'interazione è quello di definire le due quantità fondamentali che le caratterizzano ciascuna, che sono il raggio di azione e l'intensità. Nel primo caso \p100 si intende la distanza massima a cui l'interazione è influente, nel secondo caso si intende definire quanto è forte un'interazione. Si scoprirà che quanto più è pesante un dato bosone, tanto più breve sarà il raggio di azione. Alcune particelle fermioniche esperimentano alcune di queste quattro interazioni, mentre non ne esperimentano altre. Possiamo subito dire che l'interazione gravitazionale, che si esplica tramite il gravitone (previsto dalla teoria ma non ancora scoperto) di carica e massa nulla e con un raggio di azione infinito, è esperimentata da tutte le particelle fermioniche. L'interazione elettromagnetica, che si esplica tramite il fotone di carica e massa nulla ed ha anch'essa un raggio d'azione infinito, è esperimentata solo dalle particelle cariche come l'elettrone e i suoi parenti delle generazioni successive (muone e tauone). L'interazione nucleare forte, che si manifesta tramite il gluone, è responsabile della struttura del nucleo e solo particelle composte da quark possono parteciparvi: essa ha un raggio d'azione estremamente piccolo. L'interazione nucleare debole, che è responsabile del decadimento particellare e si manifesta tramite 3 bosoni vettori dotati di massa dei quali due dotati di carica (W+ e W-) e uno neutro (Z°), è esperimentata dai quark delle tre generazioni, dall'elettrone, dai suoi parenti delle due generazioni successive e dai tre neutrini delle tre generazioni, ed ha un raggio d'azione estremamente piccolo. L'intensità relativa delle quattro interazioni che si realizzano in natura viene di solito espressa in rapporto all'intensità dell'interazione forte che viene posta uguale a 1. In tal modo abbiamo che l'interazione elettromagnetica avrà un'intensità di 10 -2\, (10 alla meno 2) l'interazione debole avrà un'intensità di 10 -13\ (10 alla meno 13), infine l'intensità dell'interazione gravitazionale avrà un'intensità di 10 -38\ (10 alla meno 38). Vediamo dunque che in termini di intensità abbiamo due estremi: da una parte l'interazione gravitazionale che è incommensurabilmente debole ma di raggio infinitamente grande e dall'altra parte l'interazione nucleare forte che è potentissima ma di raggio incommensurabilmente piccolo (una scala di molto più piccola del raggio dell'atomo). Per quello che riguarda il campo di azione dei bosoni - che mediano le interazioni - sui fermioni, abbiamo che l'ipotetico gravitone dell'interazione gravitazionale agisce su tutte le particelle, il gluone dell'interazione nucleare forte agisce su tutti i quark costituenti i protoni e i neutroni del nucleo, il fotone dell'interazione elettromagnetica agisce su tutte le particelle che sono dotate di carica elettrica, quindi sugli elettroni e i suoi

Page 44: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

parenti e su tutti i quark (che, come si vedrà, hanno carica elettrica frazionaria dell'elettrone), e infine i tre bosoni vettori dell'interazione debole agiscono su tutte le particelle fermioniche. Le interazioni che fanno esistere l'universo includono vari tipi di forza includenti la forza attrattiva e repulsiva, il decadimento e l'annichilazione che governa il comportamento interattivo di particelle e antiparticelle. Dunque le interazioni che subisce una particella includono tutte le forze che la influenzano, ma includono anche i decadimenti e le annichilazioni attraverso le quali la particella potrebbe passare. \p101 Pertanto si vede subito che il concetto di "interazione" è il modo più generale e moderno per descrivere come si interfacciano le particelle tra loro una volta che intervengano altre particelle mediatrici, e non include solo il concetto di forza ma anche le trasformazioni a cui vanno soggette le particelle elementari e la loro improvvisa nascita e morte. Ai tempi classici di Newton e anche dopo - comunque prima che nascessero la meccanica quantistica e la relatività speciale - il problema era di spiegare in che modo le cose interagissero senza toccarsi. Infatti si postulava per questo un misterioso campo di forza. Ad esempio ci si chiedeva che cosa causa l'attrazione o la repulsione tra due magneti, o in che modo il Sole attrae la Terra verso di sé. Gli scienziati di un secolo fa o poco più rispondevano a queste domande dicendo che si trattava del magnetismo e della gravità. Poi, nel corso della sua evoluzione, la fisica ha cominciato a chiedersi cosa sono esattamente queste forze. Ci si accorse in seguito che per rispondere a queste domande era necessario invocare il ruolo di mediatori dei bosoni sui fermioni. E infatti ci si è accorti che ad un livello fondamentale, una forza non è qualcosa che accade alle particelle, bensì è un oggetto preciso che viene trasmesso alle particelle, un po' come una palla che viene passata tra un giocatore e l'altro. Dunque quello che noi normalmente pensiamo delle "forze" sono solo gli effetti prodotti dalle particelle che fungono come portatori di forza (bosoni) sulle particelle che caratterizzano la materia (fermioni). \t Interazione elettromagnetica L'interazione elettromagnetica - anche se di primo acchito è difficile visualizzarlo—è proprio la causa del fatto che le particelle di carica elettrica uguale si respingono e le particelle di carica elettrica opposta si attraggono. Per cui quelle che definiamo come "forze magnetiche", l'elettricità che passa nei fili, i segnali radio con cui comunichiamo, ciò che anima gli elettrodomestici o anche lo stesso attrito che si verifica tra materiali — tutte cose che incontriamo nella vita di ogni giorno - sono causate dall'interazione elettromagnetica. Un esempio sicuramente inatteso ma reale di questa interazione è il fatto che ci impedisce di cadere attraverso le molecole del pavimento: in questo caso la forza elettromagnetica è quella che struttura sia gli atomi di materia dei nostri piedi che quelli che costituiscono gli atomi di materia del pavimento. Allo stesso modo il nostro dito non passa attraverso il mouse del nostro computer! Come abbiamo già visto, il principio di esclusione di Pauli è quello che impedisce agli atomi di attraversarsi reciprocamente. Ciò si esplica dando volume e consistenza agli atomi, tramite gli orbitali occupati dagli elettroni i quali a loro volta scambiano continuamente energia con i fotoni del campo elettromagnetico. E infatti il portatore della forza elettromagnetica è qui proprio il fotone. Sembra incredibile crederlo, ma è proprio una particella quantistica di pura energia che permette alla materia che si trova allo stato di atomi di comportarsi come fa. \p102 Noi sappiamo che due particelle che hanno la stessa carica elettrica (come ad esempio due elettroni) si respingono l'un l'altra. Ma che cosa è esattamente che genera la repulsione? L'unico modo in cui possa avvenire un'interazione tra due elettroni è che intervenga un fascio di fotoni - che sono i portatori della forza elettromagnetica — i quali passano da un elettrone all'altro. ANALOGIA 7. Potremmo immaginare questi fotoni messaggeri" come una scarica di pallottole sparate da un fucile mitragliatore. Ma cosa succede quando un fucile mitragliatore spara lanciando pallottole in avanti? Esso rincula all'indietro. Allo stesso modo gli elettroni possono essere intesi un po' come fucili. Infatti come già sappiamo dalla teoria di Bohr relativamente alla fisica atomica, ogni volta che un elettrone e eccitato precedentemente da un fotone e quindi spinto a saltare su un orbitale a più elevata energia, esso poi riemette lo stesso fotone scendendo ad un orbitale a energia inferiore. E come se l'elettrone fosse soggetto ad un rinculo. Infatti, una volta emesso il fotone, l'elettrone poi ricade all'indietro in un orbitale a più bassa energia. Questo spiega perché due elettroni (di carica opposta) si respingono: ciò avviene per la semplice ragione che essi rinculano ogni volta che emettono un fotone. ANALOGIA 8. Per visualizzare ancora meglio il concetto di repulsione elettrostatica, potremmo usare un'analogia ancora più efficace. Supponiamo che due persone si trovino ciascuna a remare una barca in un

Page 45: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

laghetto e che ad un certo punto uno dei due barcaioli decida di avvicinarsi all'altra barca e che poi lanci con la mano una palla di cannone verso l'altro barcaiolo. Succederà allora che nell'atto di lanciare la palla (che non pesa poco) la barca con il suo barcaiolo saranno spinti all'indietro (è il principio di azione e reazione), mentre la stessa cosa succederà all'altro barcaiolo (e alla sua barca) nel momento in cui afferra la palla al volo. Affinché l'allontanamento reciproco avesse luogo era proprio necessario che venisse lanciata quella palla. Il paragone e immediato: \p103 l'allontanamento è la repulsione elettrostatica, i due lanciatori sono due fermioni di carica opposta (elettroni o protoni) mentre la palla è proprio il bosone fotone che scambia la forza — in questo caso repulsiva — tra i due fermioni. ANALOGIA 9. Similmente, possiamo trovare un'analogia che spieghi in che modo particelle dotate di carica elettrica opposta si attraggono. Potremmo visualizzare il processo immaginando due giocatori della stessa squadra che per passarsi una palla (che ha un suo peso e richiede una certa forza per essere lanciata lontano) sono costretti ad avvicinarsi il più possibile. È immediato allora capire che in questa analogia gli elettroni e i protoni (che sono fermioni) sono i giocatori, mentre la palla e il fotone (che è un bosone) mediatore dell'interazione elettromagnetica. Nel mondo microscopico delle particelle elementari, dunque, l'attrazione tra cariche opposte è reso possibile, come nel caso della repulsione tra particelle di carica uguale, tramite lo scambio di un fotone. Le particelle si palleggiano l'energia, e lo fanno non scambiandosi l'energia a secchiate, ma scambiandosela tramite particelle compatte. Ciò è possibile solo ed esclusivamente per via della natura completamente quantizzata della radiazione (o energia) che si manifesta in forma di quanti e non di onde di energia, come un tempo si credeva. In tal modo il concetto di "campo di radiazione", che potrebbe essere assimilato alle onde prodotte da un sasso che cade in uno stagno, perde di senso per essere sostituito invece da una particella, il bosone che fa da mediatore e che, nel caso dell'interazione elettromagnetica, è il fotone. La natura mediatrice delle particelle bosoniche, in sostituzione del concetto di "campo" e della sua indefinita azione a distanza, si basa interamente sulla visione quantistica della materia e dell'energia, che nel caso delle particelle fu armoniosamente unita — grazie a Paul Dirac — alla teoria della relatività speciale. Dal momento che gli atomi sono elettricamente neutri, ci si chiede allora che cosa esattamente li tiene assieme per formare molecole stabili. Come funziona il meccanismo? Esso funziona in una maniera tale che le particelle cariche di un dato atomo interagiscono con le particelle cariche di segno opposto di un altro atomo. Ciò permette ad atomi differenti di unirsi tra loro in maniera solidale, Infatti è vero che gli atomi sono il più delle volte (almeno quando non si comportano come ioni, cosa che genera il legame chimico) elettricamente neutri, ma succede anche che gli elettroni di un atomo siano attratti dai protoni dell'altro e viceversa. Ecco perché gli atomi di un dato elemento chimico sono uniti in molecole, fatte di atomi solidali tra loro. Questa caratteristica fondamentale dell'interazione elettromagnetica viene definita "forza elettromagnetica residua" (vedi Figura 28). Tutte le strutture del mondo esistono semplicemente perché i protoni e gli elettroni hanno cariche opposte! Poi (come si è già visto) abbiamo il legame chimico, \p104 tipicamente molecolare, che risulta da atomi che condividono o scambiano gli elettroni degli orbitali più esterni. \t Interazione nucleare forte L'interazione nucleare forte è di gran lunga la più potente che esista in natura ed è circa 100 volte più intensa di quella elettromagnetica. Essa si esercita all'interno del nucleo atomico, apparentemente fra i protoni e i neutroni che lo costituiscono, ma in realtà, come vedremo a breve, la sua origine è ben dentro questi nucleoni. La forza nucleare forte, che normalmente garantisce la stabilità dei nuclei, è dall'altro lato anche responsabile delle reazioni nucleari (fissione e fusione), che abbiamo già affrontato nel capitolo precedente. In condizioni normali, l'interazione forte agisce proprio come un nastro adesivo che fa presa soltanto quando i nucleoni si trovano a brevissima distanza tra loro, condizioni nelle quali la repulsione elettrostatica tra particelle può essere vinta inesorabilmente, almeno nei casi caratterizzati da nuclei con peso atomico non eccessivamente grande. Come sappiamo il nucleo atomico è costituito da protoni e neutroni, mentre all'esterno abbiamo una nuvola di elettroni che conferiscono volume all'atomo. Sappiamo che mentre i neutroni hanno carica neutra, protoni ed elettroni hanno carica opposta. Supponiamo ora che un nucleo atomico sia costituito da due protoni. Applicando la ben nota legge di Coulomb siamo allora in grado di calcolare la forza repulsiva che si viene a creare tra i due protoni. Ma il modo migliore per farci un'idea di questa forza repulsiva è quello di confrontarla con la forza attrattiva (sempte applicando la legge di Coulomb) che tiene legato, ad esempio, un elettrone ad un protone in un atomo di Idrogeno.

Page 46: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Se confrontiamo i due valori calcolati ne risulterà che la forza repulsiva tra i due protoni è più intensa di circa 2 miliardi di volte di quella che tiene un elettrone legato in un atomo di idrogeno. Infatti i due protoni dovrebbero schizzare via l'uno dall'altro per via della forza repulsiva! Ma questo non succede affatto. Sembra infatti esistere una misteriosa forza che invece li tiene legati in maniera forte e stabile. ANALOGIA 10. Per cercare di spiegare questo effetto, possiamo usare un'analogia. Immaginiamo di tenere in entrambe le mani una striscia di nastro adesivo a penzoloni. Ora avviciniamo le due mani per fare in modo che le due strisce aderiscano. Ma se mentre avviciniamo le mani arriva una corrente d'aria proveniente da un ventilatore, essa farà in modo che i due pezzi di nastro adesivo svolazzino da parti opposte, in maniera tale che finisce che poi si respingono. Se invece riusciamo a portare le due striscioline adesive molto vicino tra loro esse si attaccheranno inesorabilmente e allora nessuna corrente d'aria le potrà separare. In questa analogia l'effetto della corrente d'aria nell’allontanare \p105 le due strisce rappresenta proprio la repulsione elettrostatica, mentre l'effetto adesivo delle due strisce rappresenta la forza che unisce le due striscioline. Questa è proprio la forza nucleare forte. È una forza potentissima che solo a distanze piccolissime — pari alle dimensioni di un singolo nucleone - diventa vincente. Con ciò non si nega che i protoni del nucleo tendano a essere respinti dalle forze elettriche che ben conosciamo, ma questo avviene solo a distanze molto più grandi di quelle a cui invece i protoni si legano tra di loro. Pertanto negli atomi esiste una specie di barriera separatrice di forze: al di là di questa barriera prevale la forza di repulsione mentre al di qua di essa prevale la coesione, la quale rappresenta proprio la forza nucleare forte. Il suo ruolo non è solo di tenere legate tra di loro particelle della stessa carica come i protoni ma anche di tenere assieme neutroni con neutroni, e neutroni con protoni. L'interazione forte si realizza nell'intimo della materia, ovvero nelle particelle che costituiscono i nuclei e cioè i protoni e i neutroni, e anche gli iperoni. Ma dietro lo schermo di apparente indivisibilità di queste particelle si è scoperto - come si è anticipato prima e come si approfondirà in seguito - che dentro queste bambolette Matriozka, ce ne sono altre ancora più piccole: i quark. Allora come entra qui l'interazione forte? Essa, attraverso particelle quantistiche chiamate gluoni (che sono bosoni), tiene i quark uniti assieme tra loro. Sicuramente \p106 il nome "gluone" è un inglesismo molto pittoresco, dal momento che deriva dal termine inglese "glue" che significa "colla". In realtà è un termine un po' troppo generico perché i gluoni non si comportano esattamente come una colla che quando si solidifica tiene assieme i componenti incollati in una struttura rigida. I quark invece sono liberi di muoversi, ma solo all'interno dei loro "nidi" che sono i protoni e i neutroni: i gluoni tengono legati i quark in maniera molto elastica. Infatti se i quark si spostano verso l'interno del baricentro dei nucleoni classici (protoni e neutroni), allora essi si sentono molto sciolti, insomma abbastanza liberi di muoversi, ma se tentano di uscire verso l'esterno allora l'interazione nucleare forte diventa immensa e i gluoni li ritirano immediatamente verso l'interno come farebbe un elastico attaccato a delle palline. Dunque, quando i quark sono vicini, l'elastico è allentato e i quark possono muoversi liberamente l'uno relativamente all'altro, ma quando i quark cercano di allontanarsi tra loro l'elastico gluonico si tende e li attrae l'uno verso l'altro. Tanto più essi si allontanano e tanto più l'elastico si tende: sembra che questa elasticità permetta comunque un buon grado di libertà per un quark. In realtà non è cosi dal momento che un quark (in condizioni normali) non può allontanarsi dal suo nido-nucleone e così il raggio dell'interazione forte è estremamente piccolo, quanto basta per garantire l'integrità dei nuclei atomici. Interessante è che la legge della forza nucleare forte funziona all'inverso di quella elettromagnetica che governa l'attrazione e la repulsione tra cariche elettriche, almeno tenendo conto della dipendenza dalla distanza. C'è dunque libertà all'interno dei nucleoni, ma solo molto relativa. Il quark è un po' come un condannato agli arresti domiciliari: in casa se la passa piuttosto benino, ma se tenta di uscire viene gentilmente - ovvero "elasticamente" — ricacciato in casa. In tal modo si dice che questo condannato gode di una libertà che in fisica viene definita come "libertà asintotica". Inoltre il prigioniero non è solo, ma quando i quark vanno a costituire la struttura dei protoni e dei neutroni, un quark è sempre in compagnia di altri due quark, uno dei quali è gemello del primo (quark up per il protone e quark down per il neutrone), mentre l'altro è una specie di "terzo incomodo" (quark down per il protone e quark up per il neutrone) che ha invece caratteristiche diverse. Almeno questo succede nella prima generazione di quark. Il rapporto tra questa strana triade di super-nani particellari è governato da una specie di "Biancaneve gluonica" che permette lo scambio di energia e di forza tra loro. Sembra che questi quark abbiano un destino decisamente... angusto. Ma se così non fosse tutto l'edificio della materia crollerebbe, per cui essi devono accettare per forza il loro ruolo.

Page 47: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Due proprietà decisamente peculiari e al contempo importantissime dei quark riguardano la carica elettrica e una stranissima caratteristica denominata "carica di colore". 108 La loro carica elettrica è solo frazionaria: ad esempio nel protone le cariche elettriche dei tre quark componenti sono 2/3 per i due quark up e -1/3 per l'unico quark down. Basta fare la somma di queste cariche frazionate per ritrovare il valore di 1, che rappresenta proprio la carica del protone. Allo stesso modo nel neutrone abbiamo due quark down ciascuno con carica -1/3 e un quark up con carica 2/3, che sommate assieme danno esattamente zero, giustificando così la neutralità elettrica del neutrone. La carica di colore è probabilmente la proprietà più importante dei quark ed è decisamente strana ed esclusiva nel panorama delle particelle elementari. Essa è posseduta sia dai quark che dai loro messaggeri, i gluoni. Proprio come le particelle elettricamente cariche interagiscono tra loro scambiando tra loro fotoni nelle interazioni elettromagnetiche, le particelle cariche di colore - i quark - scambiano tra loro gluoni nelle interazioni nucleari forti. La dinamica è che quando due quark sono vicini l'uno all'altro essi scambiano tra loro gluoni fino a formare un potentissimo "campo di colore" che lega i quark assieme. Un gluone è associato ad un colore e ad un anti-colore e ogni volta che un gluone viene scambiato tra due quark, esso cam-bierà i loro colori. In contrasto al fotone mediatore dell'interazione elettromagnetica che non cambia la carica elettrica delle particelle interagenti, i gluoni cambiano il colore dei quark. Questo campo di colore diventerà tanto più fotte quanto più i quark tenteranno di scappare verso l'esterno, cioè fuori dal nucleone in cui si trovano. Dunque, nello scambiare gluoni con altri quark, i quark cambiano costantemente la loro carica di colore. Per cui vediamo che il nido dei quark è tutto fuorché una tana statica e grigia; in realtà è un "mondo-arcobaleno" caratterizzato da un ribollire di energia che fluisce continuamente tra loro. Il "colore" è solo una convenzione che hanno inventato i fisici particellari sulla base rigorosa dei complicatissimi calcoli della cromodinamica quantistica, per esprimere una proprietà dei quark con una similitudine utile a visualizzare un concetto, ma soprattutto per permettere ai fisici di fare calcoli sui quark. Non ha nulla a che fare con il colore che osserviamo nella radiazione elettromagnetica. I quark hanno tre possibili cariche di colore (che non vanno confuse con le tre cariche frazionarie dei tre quark presi singolarmente che si trovano in un nucleone!). Ma non dimentichiamo che i quark hanno sempre la loro immagine speculare rappresentata dagli antiquark, i quali hanno corrispondenti cariche di "anticolore". Ogni quark può assumere una delle tre possibili cariche di colore (allo stesso modo in cui ogni antiquark può assumere una delle tre possibili cariche di anticolore). Abbiamo visto che le cariche elettriche frazionarie sommate assieme danno la carica del nucleone che essi costituiscono (il loro nido). Allo stesso modo i 3 colori che vengono assunti da ciascuno dei 3 quark (il rosso, il verde e il blu), fusi assieme danno semplicemente \p109 il bianco, che rappresenta la "neutralità rispetto al colore". Siccome l'emissione e l'assorbimento di un gluone da parte dei quark ne cambia il colore e al contempo il colore è una quantità conservata, i gluoni possono essere intesi come i "portatori del colore". Vediamo dunque anche qui che il fondamentale principio di conservazione, nel caso dei quark applicato sia alla carica elettrica che alla carica di colore, è l'unico che garantisce l'equilibrio della materia: la somma delle cariche frazionarie deve dare sempre la carica 1 del protone e la carica 0 del neutrone, mentre la somma delle cariche di colore deve sempre dare il colore neutro bianco. Alla fine tutti i conti devono sempre tornare, niente va mai perso, se no il mondo crolla. Il mondo dei quark - il loro nido protonico e neutronico - è un mondo realmente vivo ed estremamente dinamico. Riesce difficile immaginare uno scenario del genere quando si entra nel regno della materia superpesante; ce la immagineremmo statica, ma non è così. In realtà è una specie di "prigione dorata" fatta di una danza in cui una continua gioia di vivere si manifesta attraverso lo scambio di colori, e mutando in continuazione il colore. E questa incredibile dinamica non si ferma certamente qui. I quark sono spinti dalla voglia di libertà a uscire, ma i gluoni glielo impediscono sempre e quando non ci riescono succede qualcos'altro. Questa voglia di libertà non nasce dalla volontà dei singoli quark, ma solo dall'interazione con altre particelle. Quando questa voglia di scappare diventa particolarmente spinta allora succedono dei miracoli. Infatti se uno dei quark viene allontanato dai suoi vicini, si innesca il campo di colore da parte dei gluoni. Più i quark vengono allontanati tra loro e maggiore è l'energia di colore del campo di colore. In casi estremamente energetici diventa economico per il campo di colore gluonico materializzarsi in una coppia quark-antiquark

Page 48: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

(questo è un vero e proprio decadimento, tipico dell'interazione forte), la quale a sua volta decadrà in altre particelle. Questa coppia va a costituire quella particella che si chiama "mesone" e che è un po' l'aiutante del gluone nel permettere ai quark di interagire tra loro. Al contempo il mesone permette ai protoni di stare assieme tra loro ben uniti, così come ai neutroni. I mesoni garantiscono la stabilità dei nuclei e sono stati creati dal campo di colore portato dai gluoni. Perché avvengono tutte queste trasformazioni e materializzazioni? Ancora una volta: per fare in modo che l'energia totale del sistema venga sempre conservata. E questo può avvenire anche quando l'energia del campo di colore prodotto dai gluoni viene convertita nella massa di nuovi quark i quali una volta accoppiatisi con le relative antiparticelle vanno a costituire i mesoni. Un tempo si riteneva che fossero i mesoni a fare da mediatori della forza nucleare forte, in realtà essi sono solo la gallina nata da un uovo che li crea: il bosone gluone. La carica di colore è sempre conservata. Infatti quando un quark emette o assorbe un gluone, il colare di quel quark deve per forza cambiare al fine di conservare \p110 la carica di colore. Per fare un esempio concreto che illustri questo processo, se supponiamo che un quark rosso cambi in un quark blu emettendo un gluone con carica di colore rossa e carica di colore "antiblu", allora il colore netto dell'interazione è ancora rosso. Questo succede perché dopo l'emissione del gluone, il colore blu del quark si cancella con il colore antiblu del gluone. Il colore netto rimanente allora resta il colore rosso del gluone. Dal momento che i quark emettono e assorbono gluoni in continuazione all'interno di un barione (protone o neutrone), allora non c'è proprio nessun modo di osservare il colore di un quark individuale. L'unica cosa che noi osserviamo è il colore neutro che costituisce il barione di base - ovvero il nido di quark (e talora anche anti-quark, nel caso di gluoni e mesoni). Allo stesso modo in cui nell'ambito dell'interazione elettromagnetica le particelle cariche positivamente e negativamente formano atomi elettricamente neutri, nell'ambito dell'interazione nucleare forte i quark dotati di cariche di colore formano particelle (nucleoni) senza colore, cioè cromaticamente neutre. Il "colore neutro" di queste particelle resta dunque sempre costante ma ciò non vuol dire che le cariche di colore al suo interno restino costanti. In realtà esse cambiano instancabilmente, ma in una maniera talmente armoniosa da mantenere la somma totale delle cariche di colore su un valore neutro. ANALOGIA 11. È un po' come un equilibrista che tenta di camminare su un filo sospeso nel vuoto, lottando per non cadere. Si sporge ora in avanti, ora all'indietro, ora a destra, ora a sinistra, ora un po' in basso, ora un po' in alto, ma resta sempre in equilibrio sul filo, perché un angelo (il gluone) fa in modo che la sua vita (seppur durissima. .. non c’è dubbio) sia sempre mantenuta salva. Questa analogia spiega semplicemente cosa si intende per "conservazione della carica di colore". Il protone e il neutrone, ad esempio, sembrano due belle palle omogenee e immutabili: essi non sanno che la loro vita stabilissima, sicura ed eterna (eccetto che per il neutrone quando è fuori dal nucleo), la devono a quei tremendi lottatori prigionieri che sono i quark e a quegli angeli che sono i gluoni con cui avviene lo scambio di energia attraverso il campo di colore. In conclusione, sappiamo che esistono 6 tipi diversi di quark suddivisi in 3 coppie che rappresentano 3 generazioni diverse. In realtà questo numero va a sua volta moltiplicato per 3, al punto che abbiamo in tutto 18 quark: questo avviene perché ciascun quark possiede 3 possibili cariche di colore. Se volessimo fare un parallelo con il principio di esclusione di Pauli che afferma che due elettroni uguali possono occupare lo stesso stato quantico purché abbiano spin di segno opposto, potremmo dire che una cosa analoga succede a ciascuno dei 3 quark che vanno a formare \p111 ciascun nucleone: in questo caso specifico all'interno di un dato stato quantico vi possono essere 3 quark identici a patto che questi abbiano colori differenti. L'interazione nucleare forte è mediata da 8 gluoni che fungono da portatori di forza. Potrebbe sembrare strano che i gluoni siano 8 e non 9, dal momento che ogni quark esiste in tre cariche di colore diverse. La ragione che invece sono 8 è dovuta al fatto che solo questo numero permette le possibili combinazioni (due a due) di colori e anticolori dei gluoni. E ovviamente lo stesso discorso fatto sopra vale per gli anti-quark, che come nel caso dei quark sono in tutto 18. L'evidenza sperimentale dell'esistenza dei quark proviene da una serie di esperimenti iniziati alla fine degli anni sessanta e settanta. Questi esperimenti utilizzavano fasci di elettroni a elevatissima energia che venivano sparati contro i nuclei atomici. Studiando la diffusione degli elettroni dopo il tremendo urto con i nuclei si

Page 49: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

riuscì a mettere in evidenza la struttura interna dei protoni e dei neutroni, cioè a svelare L'intima natura dei quark come mattoni fondamentali. Dunque l'interazione nucleare forte lega assieme i quark solo ed esclusivamente per il fatto che i quark possiedono una carica di colore. Ma ancora non abbiamo detto che cosa esattamente tenga assieme il nucleo, dal momento che qui ci troviamo di fronte ad un problema grosso: i protoni positivi tramite l'interazione elettromagnetica si respingono inesorabilmente. La risposta a questo problema c'è, è nascosta, ma c'è ed è efficacissima. L'interazione nucleate forte tra i quark di un protone e i quark di un altro protone è abbastanza forte da vincere la forza repulsiva di natura elettromagnetica, e cosi i protoni se ne stanno ben legati nei nuclei. Questa viene definita come "interazione nucleare forte residua" ed è esattamente quella che "incolla" assieme i componenti del nucleo: i mediatori che permettono questa stretta unione sono quegli speciali bosoni mediatori che sono i mesoni, a loro volta composti da una coppia rappresentata da un quark e un antiquark, e di massa intermedia tra quella dell'elettrone e quella del protone. Dunque il neutrone, così come il protone, è circondato da una nube di mesoni (in particolare di "pioni"). Protoni e neutroni sono legati assieme nei nuclei per via dello scambio di mesoni. Quindi riassumendo abbiamo che i mediatori dell'interazione forte propriamente detta sono i gluoni e agiscono direttamente sui quark, mentre i mediatori dell'interazione forte residua sono i mesoni e agiscono direttamente sui nucleoni (protoni e nucleoni). In un certo senso i mesoni sono una versione in scala maggiorata dei gluoni, con cui sono quindi strettamente imparentati. I mesoni, come si vedrà, sono stati rilevati per la prima volta nello sciame secondario dei raggi cosmici, ma anche come prodotto di decadimento negli esperimenti con gli acceleratori di particelle. \p112 L'interazione forte residua è anche responsabile delle reazioni di fissione e di fusione nucleare, dove la tremenda energia che lega tra loro i nucleoni nei nuclei viene improvvisamente liberata in particolari condizioni. In condizioni normali invece i nucleoni restano solitamente legati l'uno all'altro. ANALOGIA 12. Possiamo visualizzare questo ennesimo miracolo con un'analogia. I protoni a carica positiva funzionano come una molla che li spinge l'uno lontano dall'altro (vedi Figura 30), mentre l'interazione nucleare forte residua funziona come una corda che tiene ben premuti tra loro gli estremi di quella molla, in maniera tale che abbiamo in equilibrio perfetto di forze: l'interazione elettromagnetica e quella nucleare forte si equilibrano in maniera armoniosa. Come si è detto, in natura i quark devono vivere per forza all'interno di barioni (protoni e neutroni) e mesoni. Eppure nell'universo possono esistere condizioni estreme in cui la materia può essere costituita da soli quark. Ciò avviene nelle cosiddette "stelle di quark". Si tratta di una fase ultradensa della materia e potrebbe formarsi in stelle di neutroni particolarmente massicce. Le stelle di neutroni sono ciò che resta del collasso di una stella molto più massiccia del Sole: esse sono semplicemente \p113 il risultato del collasso gravitazionale che avviene simultaneamente all'esplosione degli strati esterni della stella in forma di supernova (o - se si tratta di una stella di massa 100 volte superiore a quella del Sole - in forma di "ipernova"), dopo che la stella ha esaurito tutto il suo combustibile nucleare e nel momento in cui essa sintetizza elementi di peso atomico maggiore di quello del Ferro. La parte della stella che collassa su sé stessa va soggetta a forze talmente potenti che i protoni finiscono per catturare gli elettroni, così che la stella per intero rimane composta quasi interamente di neutroni. Una stella di neutroni si può poi trasformare in una stella di quark tramite un processo denominato "deconfinamento dei quark", che può avvenire quando la stella di neutroni va soggetta ad un ulteriore collasso della sua struttura: in tal modo i due quark down e il quark up che costituiscono ciascun singolo neutrone andrebbero a formare una specie di "plasma di quark e gluoni", la materia più strana che possa esistere e che molto recentemente si è cercato di riprodurre negli acceleratori sparando l'uno contro l'altro due atomi di Oro. La stella dovrebbe dunque avere - secondo i più recenti modelli teorici - solo quark liberi al suo interno. Una stella di quark (vedi Figura 31) sarebbe composta da quark up e down (di prima generazione) ma anche da quark strange (di seconda generazione). In tal modo questo stranissimo tipo di stella si comporterebbe praticamente come un adrone gigante, delle dimensioni di qualche chilometro e con valori spaventosi della densità. Nel momento in cui ha luogo il processo di deconfinamento dei quark, ovvero quando la stella di neutroni diventa una stella di quark, dai modelli di astrofisica teorica si prevede che venga emessa un'enorme quantità di energia sotto forma di raggi Gamma. \p114

Page 50: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

E infatti proprio il collasso di una stella di neutroni in una stella di quark potrebbe essere la teoria che sta alla base delle cosiddette "esplosioni Gamma", mastodontiche liberazioni di energia provenienti da svariati punti dell'universo e scoperte in buon numero da satelliti spaziali a raggi Gamma e a raggi X duri, come ad esempio il telescopio spaziale ad alta energia italiano Beppo SAX. Ma la fantasia dei teorici non si ferma alle stelle di quark. Interazione nucleare debole L'interazione nucleare debole è infinitamente più discreta della forza nucleare forte: circa centomila volte. A differenza dell'interazione forte, che contribuisce alla stabilità della materia, l'interazione debole ne determina un'instabilità che si manifesta in una vera e propria trasformazione e movimentazione della materia. L'esempio più eclatante è il fenomeno della radioattività. Sembra che si tratti di un'interazione molto timida e forse anche un po' misteriosa, ma essa ha in realtà un ruolo fondamentale nel regolare il processo di fusione nucleare nel Sole e nelle stelle tramite il meccanismo del decadimento Beta, il quale permette alla nostra stella di inondarci di energia in maniera controllata. In sostanza l'interazione nucleare debole è un po' il "cervello" che regola lo sviscerarsi della tremenda potenza dell'interazione nucleare forte. Le interazioni deboli sono dunque le principali responsabili del decadimento delle particelle. Una forma importante di decadimento è rappresentata dal decadimento radioattivo, ad esempio il decadimento Beta, dove un neutrone decade in un protone, un elettrone e un antineutrino. Ma l'origine profonda dei decadimenti particellari va vista a livello ancora più microscopico dove quark e leptoni massicci (della seconda e della terza generazione) decadono di solito in quark e leptoni più leggeri (della prima generazione). Quando le particelle fondamentali vanno soggette al decadimento non parliamo di forza bensì di un processo di trasformazione, che comunque al pari di una forza caratterizza un'interazione. Avviene che vediamo sparire delle particelle le quali vengono sostituite da due o più differenti particelle. Il decadimento richiede ovviamente la conservazione (12) totale della carica, dell'energia e del numero di particelle di un dato tipo (adroni o Leptoni), per potersi realizzare. La massa delle particelle apparentemente non è conservata (la massa totale delle particelle risultanti dal decadimento è inferiore a quella delle particelle prima del decadimento), ma siccome in virtù della famosa equazione di Einstein (formula (2) nel Capitolo 1 ) la massa e l'energia sono equivalenti, una parte della massa particellare viene convertita in energia cinetica delle particelle in moto. Sicuramente il decadimento più importante che viene indotto dall'interazione debole è il decadimento Beta, uno dei tre più importanti meccanismi di decadimento \p115 che determinano il fenomeno della radioattività. Tradizionalmente sappiamo — come già detto e affrontato nelle sezioni precedenti - che ciò avviene quando un neutrone decade in un protone, in un elettrone e in un antineutrino elettronico. Andando più profondamente (vedi Figura 32) si scopre che in realtà questo decadimento si esplica nella sparizione di un quark down con l'apparizione di un quark up e di un bosone virtuale W (portatore di carica + o - ) che fa da intermediario nel processo. Vediamo infatti che poi la sparizione di un tipo di quark e l'apparizione di un altro tipo di quark è esattamente ciò che porta a trasformare un neutrone (due quark down e un quark up) in un protone (due quark up e un quark down). Il bosone W dura una frazione infinitesima di tempo (talmente piccolo da permettere di definire questo bosone una "particella virtuale") perché poi esso decade a sua volta in un elettrone e in un antineutrino elettronico. Vediamo dunque che i conti tornano perfettamente. Ai tempi di Pauli e di Fermi quando ci si accorse del decadimento Beta (inclusa la soluzione del problema del neutrino), si prendeva atto del prodotto del decadimento ma non si sapeva che a permetterlo è di fatto il bosone W, e ovviamente non si sapeva ancora che protoni e neutroni sono in realtà composti ciascuno da una tripletta di quark. I bosoni W hanno una carica elettrica e sono responsabili dell'interazione debole tramite una corrente carica. Infatti durante lo scambio di un bosone W i fermioni cambiano la loro carica elettrica, cambiando di "sapore" come si suole dire nel gergo dei fisici nucleari. L'altro bosone, il bosone Z, responsabile dell'interazione debole si comporta attraverso la propagazione di una "corrente neutra". In tal modo il \p116 bosone Z non avendo carica elettrica non provoca un cambiamento di sapore, ovvero della natura della particella. Ad esempio un quark up che emette o cattura un bosone Z rimane un quark up senza trasformarsi in un quark down. Teniamo ben presente che nei processi che portano al decadimento nell'interazione debole, succede sempre che in una prima fase subentrano i portatori di forza sotto la forma dei bosoni vettori W e Z, che hanno sempre il ruolo di particelle intermedie. Ma queste particelle intermedie hanno sempre massa maggiore della particella iniziale da cui è partito il decadimento (infatti i bosoni W e Z sono particelle di massa molto elevata).

Page 51: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Questo fatto è un'anomalia, dal momento che questi portatori di forza sembrano violare le leggi di conservazione dell'energia e della massa, infatti la loro massa non può spuntare dal nulla! Purtuttavia, in base al principio di indeterminazione di Heisenberg, queste particelle a massa elevata possono presentarsi solo se la loro vita è incommensurabilmente piccola, ovvero solo se si tratta di "particelle virtuali", quelle particelle che nascono e muoiono in continuazione da e nel vuoto quantistico. E infatti i bosoni intermedi W e Z durano un periodo infinitamente piccolo, quanto basta per aver fatto da mediatori, dopodiché vengono immediatamente trasformati in particelle a massa più. bassa, facendo così evolvere il decadimento in maniera normale. Le particelle virtuali come i bosoni vettori W e Z durano un tempo talmente infinitesimo che non possono mai essere viste. Esse sono solo una patte del calcolo di probabilità quantistica. È senza alcun significato sperare di trovarle in un posto o in un altro, dal momento che non possono essere osservate. Le particelle virtuali non violano la conservazione dell'energia, dal momento che l'energia cinetica più la massa delle particelle che decadono e delle particelle che costituiscono il prodotto finale del decadimento sono uguali. In sintesi, l'interazione nucleare debole, a differenza dell'interazione forte, non contribuisce alla coesione della materia ma alla sua trasformazione. Dobbiamo comunque ricordare che le interazioni forti, quelle elettromagnetiche e quelle deboli sono tutte causa di decadimenti particellari. I decadimenti dell'interazione elettromagnetica procedono meno rapidamente dei decadimenti causati dall'interazione forte, ma più rapidamente di quelli che avvengono nell'interazione debole. Ad esempio i decadimenti dell'interazione elettromagnetica determinano la produzione di fotoni anche conosciuti come particelle Gamma, mentre i decadimenti dell'interazione forte danno luogo talora alla formazione di coppie di quark e antiquark. Solo le interazioni deboli possono determinare il decadimento di particelle fondamentali - come ad esempio i leptoni - eccetto i gluoni e i fotoni. Sappiamo che \p117 la regola fondamentale che governa i decadimenti nell'interazione debole è che quando un leptone pesante (come ad esempio un tauone, leptone della terza generazione) decade, una delle particelle in cui decade è sempre il suo corrispondente neutrino (come ad esempio il neutrino tauonico), mentre le altre particelle frutto del decadimento possono essere un quark e il suo antiquark, oppure un altro leptone della generazione meno energetica (come ad esempio un muone o un elettrone) e il suo corrispondente neutrino (che può essere un neutrino muonico o un neutrino elettronico). Affinché questi decadimenti siano possibili sarà ovviamente necessario che i decadimenti da un leptone più pesante ad un leptone meno pesante avvengano attraverso la mediazione dei bosoni vettori (particelle W e Z) dell'interazione debole. Inoltre il numero dei leptoni di ciascuna famiglia deve restare costante in ciascun decadimento, cioè deve valere la legge di conservazione del numero di leptoni. Ciò significa che quando un leptone pesante decade, il numero di tauoni, muoni ed elettroni prodotti deve restare costante. È proprio questa legge di conservazione (assieme ad altre) che decide se un certo tipo di decadimento può avvenire o meno. Per quanto se ne sa oggi, gli elettroni, i protoni, i fotoni e i neutrini sono le sole particelle fondamentali che non decadono mai (13). La forza elettromagnetica e quella debole appaiono diverse perché i bosoni W e Z che mediano la forza debole sono dotati di massa, mentre il fotone che media la forza elettromagnetica ne è privo. Finalmente i fisici hanno concluso dopo lunghi anni di studi e sperimentazioni che la forza debole e la forza elettromagnetica sono globalmente comparabili dal momento che la forza di un'interazione dipende fortemente sia dalla massa del bosone portatore della forza che dal raggio d'azione a cui avviene l'interazione. Nel caso di queste due interazioni apparentemente così differenti, la grandissima portata dell'interazione elettromagnetica - che è infinita - controbilancia la massa nulla del fotone. Il contrario esatto succede nell'interazione debole dove la portata davvero piccola controbilancia la massa consistente dei 3 bosoni vettori intermedi, portatori della forza debole. Nell'ambito di quella che è stata definita "unificazione elettrodebole", i bosoni vettori W e Z vengono spesso denominati "luce pesante", in contrasto ai fotoni senza massa della radiazione elettromagnetica ordinaria. All'interno dell'unificazione elettrodebole un ruolo fondamentale è giocato dal fotone dell'interazione elettromagnetica e dal bosone neutro Z dell'interazione debole: si è dimostrato che nessuno dei due può esistere senza l'altro. I dati rilevati negli esperimenti con gli acceleratori di particelle unitamente al confronto diretto con la teoria matematica, dimostrano infatti che l'interazione elettromagnetica e l'interazione nucleare debole si fondono in un'unica forza, ma solo quando le particelle si trovano a energia sufficientemente elevata. Questo risultato, che si è esplicato nel 1984 con la scoperta dei 3 bosoni vettori intermedi da parte del fisico sperimentale italiano Carlo Rubbia (1934, tuttora vivente) e del fisico tecnico \p118 olandese Simon Van der

Page 52: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Meer (1925, tuttora vivente), i quali convalidavano la teoria matematica dei fisici teorici Steven Weinberg (1933, tuttora vivente), Abdus Salam (1926-1996) e Sheldon Glashow (1932, tuttora vivente), ha portato all'unificazione dell'interazione elettromagnetica con quella debole. In tal modo le due diventano una sola interazione che viene denominata "elettrodebole". Ma ciò avviene solo in condizioni di energia elevatissima, che si ottengono soltanto quando vengono fatte collidere tra loro particelle e antiparticelle negli acceleratori, oppure negli istanti iniziali dell'universo. In condizioni di energia normale (quella che esperimentiamo tutti i giorni) le due interazioni restano comunque separate. \t Interazione gravitazionale La forma di energia che interviene nelle interazioni gravitazionali è semplicemente data dalla massa che la contiene. L'interazione gravitazionale è quella che si realizza ad esempio nei corpi celesti quando si attraggono, ragion per cui Newton scoprì la sua legge di gravitazione universale. Sembrerà davvero strano ma l'interazione gravitazionale, nonostante abbia un raggio di azione infinito, è di gran lunga la più debole delle quattro interazioni fondamentali: ad esempio essa è almeno 30 ordini di grandezza più piccola dell'interazione debole. Ma sicuramente non dobbiamo stupirci di questo. Infatti, l'unico modo per apprezzarne gli effetti è quello di starsene molto, ma molto più lontano delle distanze nucleari, fino al punto che le interazioni nucleari (quella forte e quella debole) si annullano completamente. Occorre anche andare oltre gli elettroni degli orbitali più esterni dell'atomo in maniera da annullare l'effetto dell'interazione elettromagnetica. Dal momento che la massa delle particelle è infinitesimamente piccola, per poter sentire l'effetto dell'interazione gravitazionale sarà necessario unire tra loro non pochi bensì miliardi di miliardi di atomi. Ciò vuol dire che in qualsiasi pezzo di materia la gravità di tutte le singole particelle che lo compongono, si somma con un effetto cumulativo in termini di pura massa e, a differenza della forza elettrostatica, non comporta particelle cariche e fluisce quindi in una sola direzione, che è quella attrattiva. Anche se la gravità è molto minore in termini di intensità delle altre forze, quando si entra nelle dimensioni macroscopiche essa produce effetti molto grandi. Occorre dunque apprezzare la forza gravitazionale direttamente sugli oggetti di varie dimensioni, da quella di una palla fino a quella di una galassia e oltre. Se entriamo in questi enormi ordini dimensionali, dove il concetto di particella perde completamente di senso, allora sentiamo l'interazione gravitazionale: ad esempio una palla di ferro sente l'effetto della gravità trascinarla a terra, mentre la Luna, tanto per fare un semplice esempio astronomico, si sente obbligata a subire questa forza al punto da orbitare attorno alla Terra, oppure un grosso meteorite attratto dalla forza gravitazionale della Terra a circa un milione di chilometri di distanza viene spinto a impattare la Terra liberando così una \p119 enorme quantità di energia prima cinetica e poi termica. La gravità, dopo la fase di Isaac Newton, con Einstein è entrata nel regno della relatività generale (ancora completamente incompatibile con la meccanica quantistica, a differenza della relatività speciale, sua parente stretta), e viene descritta come il risultato dell'incurvamento dello spaziotempo nel punto in cui si trova un corpo dotato di massa. I fisici teorici, coerentemente con la logica del Modello Standard per tutte le particelle, anche in questo caso ritengono che la gravità non dipenda da un misterioso campo di forze che esercita un'azione a distanza, bensì da un bosone mediatore, che agendo in maniera simile ai bosoni delle altre 3 forze (quelle del mondo microscopico), funga da portatore di forza. Proprio per questa ragione è stato inventato il gravitone, una particella quantistica che deve agire su tutte le particelle anche se ben oltre il raggio di interazione nucleare e degli orbitali elettronici degli atomi. Tuttavia questo gravitone pei ora rimane una particella solo ipotetica che esiste solo nei modelli, ma non è mai stata trovata. Può essere che essa emerga sotto la forma delle cosiddette "onde gravitazionali" emesse da corpi astronomici nel loto moto l'uno attorno all'altro, in special modo in oggetti collassati come le stelle di neutroni o i buchi neri. Se si assume di quantizzare anche la gravità sotto forma di un bosone gravitone allo stesso modo in cui si è fatto con i fotoni, allora la meccanica quantistica afferma che anche questa energia dovrebbe assumere sia la forma di onda che di particelle discrete. La scoperta delle onde gravitazionali potrebbe quindi essere il primo passo per arrivare a scoprire le particelle portatrici dell'interazione gravitazionale denominati gravitoni, ma per ora restano solo un mero costrutto teorico. A questo punto abbiamo descritto in dettaglio le quattro fondamentali interazioni che esistono in natura secondo il Modello Standard della fisica particellare. In sintesi, prendendo ora queste interazioni tutte assieme possiamo concludere che: a) i gluoni dell'interazione nucleare forte agiscono su tutti i quark, e lo fanno con un raggio di azione piccolissimo; b) i fotoni dell'interazione elettromagnetica agiscono su tutte le particelle che siano dotate di carica elettrica, quindi su

Page 53: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

tutti i quark, sull'elettrone e sui parenti delle restanti due famiglie, e lo fanno con un raggio di interazione infinito; c) i bosoni intermedi Z°, W+ e W- dell'interazione debole agiscono su tutte Le particelle, e lo fanno con un raggio di azione piccolissimo; d) i bosoni ipotetici denominati gravitoni agiscono egualmente su tutte Le particelle, e lo fanno su un raggio di azione infinito. In seguito alle enormi energie che vengono sviluppate negli acceleratori, verifichiamo che vengono a crearsi particelle davvero strane. A volte vengono anche chiamate "particelle effimere" o "materia esotica", ma le abbiamo già presentate in una sezione precedente. Si tratta infatti delle particelle fermioniche che caratterizzano non la prima, bensì la seconda e la terza generazione di particelle, come ad esempio i muoni, i tauoni e i relativi neutrini, e i pesantissimi quark top (la cui massa è \p120 pari a quella di un nucleo di Oro!). Queste particelle - che hanno tutte una massa di gran lunga maggiore di quella delle particelle della prima generazione — vivono giusto il tempo (una infinitesima frazione di secondo) per decadere subito dopo la loro apparizione in particelle sempre più leggere. In tal modo quando si entra in regimi normali di energia queste particelle non esistono più ma sono sostituite da quelle \p121 della prima generazione. Cosa significa questo? Significa semplicemente che Le enormi energie che vengono prodotte dagli acceleratori si materializzano letteralmente in particelle effimere. Ciò avviene per l'equivalenza tra energia e massa della famosa equazione di Einstein. Tolto l'input energetico, esse spariscono. Queste non sono altro che le particelle che in condizione estreme di energia e con continuità \p122 esistevano all'origine dell'universo. Oggi sappiamo che a quelle condizioni le quattro interazioni fondamentali dovevano essere unificate in una sola, che è quella che viene cercata con la T.O.E. (Theory of Everything), la teoria di grande unificazione. Vedremo in una sezione successiva come il processo di unificazione delle interazioni che aveva luogo ai primordi dell'universo si sia scisso poi in quattro sole interazioni slegate l'una dall'altra, passando da situazioni intermedie con da una parte l'interazione gravitazionale e dall'altra l'interazione elettronucleare (unione di interazione forte e elettrodebole) e successivamente con l'interazione gravitazionale da una parte, l'interazione nucleare forte da una parte e l'interazione elettrodebole (unione di interazione elettromagnetica e debole) da un'altra parte. Tutto ciò è avvenuto subito dopo la rottura della simmetria tra materia e antimateria, una "simmetria sacra" che teneva assieme tutte le forze fondamentali in una sola e in uno spazio molto più piccolo di quello di un atomo! Il cammino della fisica è sempre proceduto per strade che dovevano portare le forze ad una possibile unificazione. Più si riusciva a frammentate il mondo in particelle sempre più piccole e più - all'opposto - si riusciva a tendere alla natura distica dell'universo: un'unica grande forza che le unisce tutte. Storicamente si parti da Isaac Newton (1642-1727) che riuscì a unificare i fenomeni gravitazionali scoprendo che la forza che fa cadere un sasso è la stessa che fa orbitare la Terra attorno al Sole. Poi arrivò James Clerk Maxwell che unì in un tutt'li-no i fenomeni elettrici, magnetici e luminosi scoprendo il campo elettromagnetico. Poi Einstein prese in mano il lavoro di Newton sulla gravità e ne trovò le radici geometriche nello spaziotempo tramite la relatività generale. Nel 1928 Paul Dirac arrivò a unificare la teoria quantistica con la teoria della relatività speciale creando la teoria relativistica dei campi quantistici. Poi arrivò il fisico americano Richard Feynman (1918-1988) che sistematizzò gli studi di Maxwell in senso quantistico con l'elettrodinamica quantistica dove elettroni e fotoni venivano a far parte di un tutt'uno interagente. E poi Weinberg, Salam e Rubbia hanno unito l'interazione elettromagnetica, descritta dall'elettrodinamica quantistica, all'interazione debole sotto forma di interazione elettrodebole. Poco dopo la cromodinamica quantistica permetteva di costruire un quadro matematico e sperimentale in grado di descrivere l'interazione forte. A questo punto: dove ci porteranno i futuri esperimenti con gli acceleratori, che diventeranno sempre più potenti? In che modo la cromodinamica quantistica si unirà alla teoria relativa all'interazione elettro debole? Se si potrà effettivamente dimostrare che ad altissime energie tutto tende ad unificarsi, allora la distinzione tra i quark, che sono sensibili all'interazione nucleare forte e i leptoni che invece non lo solo, si dissolverà inesorabilmente. \p123 \t 4.3.1 raggi cosmici Molte delle particelle ad alta energia sono state scoperte studiando quella radiazione cosmica nota sotto il nome di "raggi cosmici". Definirli "raggi" è altamente improprio, ma ancora oggi si adotta la definizione di quando essi furono scoperti. In realtà si tratta di un flusso di particelle ad alta energia provenienti da sorgenti energetiche

Page 54: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

cosmiche che si trovano lontanissimo, in particolare dai fronti d'urto che si formano nei residui di supernova, dai nuclei galattici attivi e dalla cromosfera solare quando il Sole è nella sua fase di massima attività. I raggi cosmici collidono costantemente con l'atmosfera terrestre, nella misura che ogni secondo l'alta atmosfera viene colpita da più di 10 18\ (10 alla 18) particelle, mentre almeno un milione delle particelle che riescono a giungere a terra come frutto della collisione con gli atomi dell'alta atmosfera attraversano il nostro corpo ogni minuto. Confrontata con la "quieta energia" delle particelle che troviamo nella nostra atmosfera, l'energia dei raggi cosmici è spaventosamente elevata. Considerando che un elettronvolt (eV) corrisponde all'energia di un elettrone quando viene accelerato attraverso una differenza di potenziale di 1 Volt, l'energia intrinseca dei raggi cosmici è milioni o miliardi di volte superiore; infatti essi riescono a raggiungere energie dell'ordine del mega-elettronvolt (MeV) e del giga-elettronvolt (Gev), condizioni queste che si riescono a realizzare solo negli acceleratori di particelle come quello del CERN a Ginevra. Proprio dal cielo allora abbiamo una grandissima opportunità di studiare lo stato della materia in condizioni di elevatissime energie, proprio quelle che permettono di frammentare i nuclei e di studiarne con buona precisione la costituzione interna. I raggi cosmici si dividono in primari e secondari. I raggi cosmici primari sono quelli che provengono direttamente dallo spazio, mentre i raggi cosmici secondari sono quelli che nascono da un "processo a cascata" quando i raggi cosmici primari collidono con gli atomi dell'alta atmosfera generando un flusso di particelle secondarie. I raggi cosmici secondari si comportano dunque come le particelle che nel corso degli esperimenti con gli acceleratori si formano dalle particelle primarie che vengono fatte collidere tra loro. La componente primaria dei raggi cosmici è principalmente costituita da nuclei, in particolare protoni (nuclei di Idrogeno) all'87% e particelle Alfa (nuclei di Elio) nel 12% dei casi. Il rimanente 1% è composto da nuclei di atomi via via più pesanti fino all'Uranio (seppur in una bassa percentuale i raggi cosmici includono essenzialmente tutti gli elementi della tavola periodica) , le cui abbondanze sono di solito comparabili a quelle trovate nei pressi del Sole, anche se queste particelle provengono di solito da molto più lontano; a volte si rileva un contenuto di nuclei metallici molto maggiore di quelli che si riscontrano nel sistema solare. \p124 Queste particelle, in particolare i nuclei dei vari elementi, riescono a percorrere enormi distanze fino alla Terra per via della bassissima densità di materia nello spazio interstellare che per questa ragione esercita uno scarsissimo effetto "frenante" o assorbente su queste particelle. Esse iniziano invece a reagire energicamente con altre particelle proprio quando incontrano l'atmosfera terrestre, al punto tale che ciò le porta a collidere con i nuclei e con le molecole dell'alta atmosfera generando un "processo a cascata" che costituisce i raggi cosmici secondari. Questi sono costituiti da una "componente soft" rappresentata da elettroni, positroni, neutroni e fotoni e una "componente hard" costituita da particelle molto penetranti ed energetiche come i muoni. In tal modo i raggi cosmici secondari sono il frutto della produzione di un gran numero di particelle altamente energetiche, in particolare una classe specifica di mesoni altamente instabili denominati "pioni" e i "kaoni", i quali a loro volta decadono rapidamente in muoni (i parenti dell'elettrone della seconda generazione di particelle). Questi muoni a differenza delle particelle da cui vengono generate non interagiscono fortemente con l'atmosfera per cui riescono a giungere fino a terra prima di scomparire, anche grazie all'effetto di dilatazione relativistica del tempo dal momento che essi viaggiano ad una velocità prossima a quella della luce. I muoni sono radiazione ionizzante e possono essere rivelati da molti dpi di rivelatori. Si riesce a capire che questi muoni sono stati prodotti dallo stesso sciame di eventi cosmici particellari dal fatto che essi vengono osservati nello stesso istante da rivelatori posti ad una certa distanza (di solito qualche chilometro o poche centinaia di \p125 metri) tra loro. Inoltre il fatto che spesso uno sciame di raggi cosmici secondari colpisca i rivelatori prima dalla parte sinistra che dalla parte destra, consente di determinare con una certa precisione la loro direzione di provenienza. L'intensità della radiazione cosmica primaria aumenta ovviamente con l'altitudine: è proprio questo fatto che conferma la loro provenienza cosmica. La loro intensità cambia anche con la latitudine, cosa che indica che questa radiazione consiste, almeno in parte, di particelle cariche che sono fortemente influenzate dal campo magnetico terrestre. I raggi cosmici furono scoperti nel 1912 dal fisico austriaco-americano Victor Hess (1883-1964). Furono anche studiati con grandi risultati dall'astrofisico italiano Bruno Rossi (1905-1993) fin dal 1934. Un'altra delle caratteristiche importanti dei raggi cosmici è che essi generano nel loro processo a cascata tutte e tre le generazioni di neutrini (elettronici, muonici, e tauonici), pertanto i raggi cosmici sono una formidabile opportunità per studiare anche i neutrini a tutte le energie possibili.

Page 55: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Si è dimostrato che l'impatto dei raggi cosmici sull'alta atmosfera è in grado di influenzare anche il clima, dal momento che per via di meccanismi elettrici e relativa produzione di ioni essi possono determinare la formazione di nubi. Esistono diversi metodi per rivelate i raggi cosmici che giungono a terra. Uno di questi è la radiazione Cherenkov (14) che essi producono, la quale può essere osservata sia con speciali telescopi puntati nell'alta atmosfera in direzione dello sciame che con rivelatori piazzati a terra. I rivelatori che permettono di registrare gli eventi particellari prodotti dai raggi cosmici sono di due tipi. Il primo tipo è appunto il rivelatore a luce Cherenkov. Esso è costituito da un contenitore di acqua pura. Quando i raggi cosmici passano attraverso l'acqua emettono dei lampi blu. I fotoni prodotti dai lampi vengono poi registrati da un fotomoltiplicatore che ne conta uno ad uno. Un altro tipo di rivelatore molto usato è lo scintillatole. In questo caso si tratta di uno speciale tipo di plastica. Gli atomi di questo materiale quando vengono colpiti da particelle veloci e cariche elettricamente, si eccitano per via dell'energia che ricevono. Immediatamente dopo gli atomi eccitati si diseccitano perdendo la loro energia emettendo fotoni. Questi fotoni vengono passati ad un fotomoltiplicatore che li conta, analogamente al caso del rivelatore Cherenkov. In base all'intensità della radiazione che viene misurata si è poi in grado di determinare l'energia dei raggi cosmici e il numero di particelle che l'hanno prodotta. Sicuramente le particelle più importanti che emergono dai raggi cosmici secondari sono i muoni. Sono essi stessi il frutta del decadimento dei mesoni di tipo pione e kaone. Essi appartengono alla seconda generazione di Leptoni e sono quindi \p126 strettamente imparentati con gli elettroni. In sostanza si tratta di "elettroni pesanti", essendo essi 200 volte più pesanti degli elettroni. Hanno comunque la stessa carica e Io stesso spin dell'elettrone, ma dal momento che sono particolarmente pesanti essi non vengono deflessi in maniera significativa dai campi elettrici che incontrano, per cui possono arrivare agevolmente fino a terra, dandoci la grande opportunità di studiare una particella ad alta energia che può rivelarci molti segreti sulla struttura della materia. Poiché si tratta di un tipo pesante di leptoni — essa infatti può essere generata solo da processi ad alta energia mentre non può esistere in condizioni normali — questa particella è altamente instabile e decade in un elettrone e due neutrini \o127 (un neutrino elettronico e un neutrino muonico) nell'arco di qualche microsecondo. Negli sciami che costituiscono il processo a cascata dei raggi cosmici secondari vengono prodotti sia muoni che anti-muoni in misura pressoché eguale. Ogni anti-muone decade in un positrone, un antineutrino muonico e un neutrino elettronico. I muoni in generale hanno un notevole ruolo nella ionizzazione della bassa atmosfera. Quando un muone ionizza una molecola di gas, ne strappa un elettrone, rendendo quella molecola uno ione positivo, mentre l'elettrone perso viene catturato da un'altra molecola di gas creando uno ione negativo. Succede che gli ioni negativi sono più "mobili" di quelli positivi e ciò genera un campo elettrico nella nostra atmosfera in grado di influenzare la formazione e il moto delle nubi. In tal modo anche il clima nella sua globalità viene influenzato. Solo i raggi cosmici primari ad alta energia riescono a produrre un processo a cascata sufficientemente efficiente da arrivare a terra. Quelli a bassa energia vengono invece assorbiti nell'alta atmosfera, comunque con un'energia sufficiente per produrre effetti di ionizzazione particolarmente spettacolari che si verificano comunque solo nelle regioni vicine ai due poli terrestri, in particolare il fenomeno delle aurore boreali. In generale i raggi cosmici primari, che sono alla radice del fenomeno secondario (che è molto più importante dal punto di vista della fisica delle particelle ad alta energia) che giunge a terra, vengono rivelati con satelliti in orbita oppure con palloni stratosferici. Nel complesso si può tranquillamente affermate che la fisica delle particelle elementari è nata proprio dall'osservazione dei raggi cosmici. Ad esempio il positrone, il pione e il muone sono stati scoperti proprio durante le osservazioni di raggi cosmici tra gli anni '30 e '40. Non ci sono dubbi che per certi versi i raggi cosmici secondari rappresentino il miglior laboratorio naturale di particelle ad alta energia. I raggi cosmici primari invece hanno più un'importanza astrofisica, perché il loro studio permette di risalire ai meccanismi cosmici ad alta energia che li hanno prodotti e di studiare le abbondanze chimiche (in particolare il contenuto degli elementi metallici) che costituiscono le particelle che provengono da molto lontano. In tal modo è possibile effettuare un confronto tra le abbondanze chimiche del sistema solare e quelle provenienti da lontane zone dell'universo. In ogni caso è pressoché impossibile stabilire la direzione precisa

Page 56: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

di provenienza dei raggi cosmici dal momento che nel momento in cui essi sono prodotti dalle sorgenti astronomiche, essi, proprio per la loro natura di particelle elettricamente cariche, vengono subito deflessi dai campi magnetici presenti in gran numero nello spazio interstellare, e in ultima fase quando si trovano in prossimità del sistema solare essi vengono deflessi dal campo magnetico interplanetario. In tal modo noi vediamo giungere raggi cosmici da tutte le direzioni. \p128 ANALOGIA 13. Potremmo spiegare questa multidirezionalità dei raggi cosmici con un'analogia, paragonando la sorgente dei raggi cosmici con la luce solare. Nei giorni di cielo sereno vediamo bene da dove proviene la luce solare, ma nei giorni in cui il cielo e velato o annuvolato non vediamo il punto in cui si trova il Sole, bensì solo luce diffusa in tutte le direzioni. Allo stesso modo i raggi cosmici sono diffusi in tutte le direzioni, solo che la causa non è la diffusione ma l'effetto dei campi magnetici galattici. Noi possiamo dedurre indirettamente la provenienza dei raggi cosmici solo dall'energia che essi producono: in tal modo possiamo fare confronti con i modelli quantitativi relativi ai processi di accelerazione di particelle ad altissima energia che possono avvenire nell'universo, soprattutto dai residui di supernova e dai nuclei galattici attivi. In particolare nei nuclei galattici attivi e nei quasar — che sono sicuramente il caso più spettacolare - esistono situazioni estreme, in grado di accelerare particelle secondo il meccanismo della "radiazione di sincrotrone" (15). Si tratta infatti di particelle che vengono accelerate a velocità relativistica dentro dei veri e propri canali o tubi (comunemente denominati "jet" in astrofisica) collimati e confinati magneticamente. I jet vengono a formarsi ortogonalmente a quello che viene definito un "disco di accrescimento", ovvero un disco di materia molto denso di dimensioni di molto inferiori all'anno luce (almeno un milione di volte più piccolo della galassia stessa) risultante dal risucchio gravitazionale provocato da un immenso buco nero (almeno un milione di volte più massiccio di una stella come il Sole) che si trova al centro di queste particolari galassie. In tal modo vengono a formarsi dei tubi acceleratori di particelle lunghi fino a migliaia di anni luce e a volte ben oltre! Questi non sono altro che la controparte naturale degli acceleratori di particelle che si utilizzano ad esempio al CERN, con la differenza che gli acceleratori del CERN o istituzioni simili sono lunghi solo qualche chilometro. Resta dunque chiara la ragione per la quale i raggi cosmici sono estremamente importanti, essendo uno strumento basilare sia dell'astrofisica che della fisica delle particelle, per la quale i raggi cosmici rappresentano l'unico laboratorio naturale esistente. \t 4.4. Come funzionano gli acceleratori di particelle Le più grandi scoperte nel campo delle particelle elementari sono state compiute in condizioni in cui dalla collisione di particelle e antiparticelle sono emerse particelle ancora più piccole. Le prime scoperte sono state effettuate studiando quegli acceleratori naturali che sono i raggi cosmici, i quali vengono tuttora costantemente monitorati con rivelatori sempre più avanzati. Ma le scoperte più importanti — in particolare quelle che hanno portato alla scoperta dei vari tipi di quark — sono state effettuate nei laboratori come il CERN in Europa, il Fermilab e lo Stanford Linear \p129 Accelerator Center (SLAC) in USA e pochi altri dislocati in Giappone, Germania, Cina e Russia. Questi laboratori funzionano utilizzando acceleratori di vari tipi accoppiati a rivelatori preposti alla registrazione degli eventi particellari che emergono come prodotti della collisione. Possiamo prendere ad esempio gli acceleratori e i rivelatori utilizzati al CERN sia per spiegare il funzionamento di queste attrezzature che per illustrare il modo in cui le particelle elementari vengono rivelate. Poi tenteremo di fornire un quadro generale che mostri i risultati ottenuti. Innanzitutto, però, dobbiamo puntualizzare alcuni concetti importanti. Cosa significa utilizzare un acceleratore di particelle? Semplicemente vuol dire disporre di un'energia estremamente elevata, perché è l'unico modo per penetrare nel mondo delle particelle elementari. In virtù della semplice formula (1) (Capitolo 1), l'energia è tanto più elevata quanto maggiore è la frequenza. Dunque con gli acceleratori abbiamo bisogno di frequenze estremamente alte per penetrare la materia, il che \p130 corrisponde a lunghezze d'onda estremamente basse (la frequenza è inversamente proporzionale alla lunghezza d'onda). E infatti per poter vedere una particella bisogna fare in modo che la lunghezza d'onda sia pari o inferiore alle dimensioni della particella stessa. ANALOGIA 14. Possiamo illustrare questo con un'analogia. Supponiamo di essere in una grotta al buio e senza torce elettriche. Sentiamo un rumore ma non capiamo cosa lo provoca. Ma abbiamo delle palle fosforescenti e adesive di varie dimensioni in alcune borse che ci siamo portati dietro. Per cui iniziamo a lanciare le palle nella direzione del minaccioso rumore (un orso?...). Iniziamo innanzitutto con la prima borsa che contiene palle da football e lanciamo tutte e 4 le palle della borsa in direzione del rumore. Esse

Page 57: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

colpiranno in larga parte il bersaglio e vi si appiccicheranno sopra facendoci capire che c'è qualcosa, ma noi vediamo solo 3 palle fosforescenti attaccate a qualcosa di cui ancora non riusciamo a percepire la forma. Ci hanno aiutato a capire che c'era qualcosa nella grotta ma non a farci vedere cosa. Allora questa volta tentiamo con le palle piccole (anch'esse fosforescenti e autoadesive) e lanciamo tutte le 40 palle da tennis contenute nel secondo borsone. Diciamo che almeno il 50% delle palle raggiunge il bersaglio e vi si appiccica. A questo punto iniziamo a intravedere una figura informe, ma ancora non riusciamo a identificare quale. Alla fine, tentiamo con le palle più piccole che abbiamo, delle piccole biglie fosforescenti e adesive. Allora lanciamo tutte le 400piccole palline in direzione del bersaglio. A questo punto assumendo che almeno il 50% colpirà il bersaglio, iniziamo a vedere una forma piuttosto bene. Essa e illuminata e ben marcata dalle palline che ci si sono appiccicate sopra un po' dappertutto. È un orso! A questo punto facciamo dietrofront e scappiamo dall'uscita laterale della grotta! Qual è il significato di questa analogia? Il parallelo tra la dimensione delle palle e la lunghezza d'onda è strettissimo. Vuole semplicemente dire che se vogliamo vedere bene dobbiamo focalizzarci, e cioè usare lunghezze d'onda le più basse possibili, cioè frequenze le più alte possibili e quindi energie le più alte possibili. Ciò significa aumentare la "risoluzione": tanto più piccola sarà la lunghezza d'onda e tanto maggiore sarà l'informazione che noi riusciremo a estrarre da ciò che ci interessa. È esattamente ciò che ci serve per guardare bene nell'universo dell'infinitamente piccolo. Infatti in virtù delle leggi della meccanica quantistica le particelle hanno anche proprietà di onda". Pertanto, se si desidera utilizzare Le particelle come "sonda" per ottenere informazioni su altre particelle, abbiamo bisogno di usare particelle la cui energia corrisponde a lunghezze d'onda molto piccole. Per vedere bene dobbiamo dunque usare elevatissime energie. Allora possiamo penetrare all'interno della materia piuttosto agevolmente. Come nell'esempio delle palle che lanciamo verso la figura misteriosa che si aggira nella grotta, allo stesso modo nel caso delle particelle per poterle vedere dobbiamo lanciare altre palle, solo che in questo caso si tratta di \p131 palle estremamente piccole! La filosofia di indagine quando noi utilizziamo acceleratori di particelle è un po' simile a quella che usa un pipistrello (che praticamente è cieco) quando emettendo un'onda sonora riesce a scandagliare lo spazio circostante e gli ostacoli. Allo stesso modo noi dobbiamo emettere qualcosa per poter capire la realtà che ci circonda, cioè dobbiamo stimolare la realtà con una certa energia per far venire fuori quello che normalmente è nascosto alla vista. Ma così facendo non ci limitiamo a vedere, ma diventiamo noi stessi creatori, perché nel caso specifico degli acceleratori, quando scagliamo l'uno contro l'altro un fascio di elettroni e un fascio di positroni, resuscitiamo particelle che erano esistite solo 15 miliardi di anni fa in un universo supercompresso e caldissimo. Otterremo questo risultato sparando ad una velocità prossima a quella della luce delle particelle relativamente massicce le une contro Le altre. Quello che otterremo sarà che nella collisione si formeranno particelle di massa maggiore, e questo sembra davvero strano. Ma non è strano affatto: questo succede solo perché l'energia a cui le particelle sono state sparate le une contro le altre si è semplicemente trasformata in massa (nella fusione termonucleare succede esattamente il contrario), in virtù della formula di Einstein e del suo valore di biunivocità! ANALOGIA 15. Per voler usare un'immagine, quello che succede negli acceleratori e un po' simile ad una situazione assurda del genere: lanciamo luna contro l'altra due ciliegie, per poi ottenere una banana, qualche pera, una mela, un pompelmo e un bel po'di mirtilli. Non è miracoloso? Ma in fisica sub-nucleare questo succede veramente! Questo quasi nessuno lo sa, ma un esempio domestico di acceleratore particellare è quello del tubo catodico di un televisore. Infatti il tubo catodico prende gli elettroni da un catodo, li accelera e cambia la loro direzione usando elettromagneti, dopodiché li spiaccica sulle molecole di fosforo dello schermo. La collisione genererà un punto di luce (o pixel) sul monitor. Un acceleratore di particelle simile a quelli usati al CERN funziona allo stesso modo, eccetto che questi del CERN sono molto più grandi e le particelle si muovono molto più veloci. Le particelle vengono accelerate da onde elettromagnetiche prodotte dentro un congegno, in una maniera molto simile a quella in cui un surfista si fa trascinare dall'onda del mare. Quanto più energetiche sono le particelle che possiamo sparare e tanto più profondamente possiamo entrare dentro la struttura della materia. ANALOGIA 16. La cosa funziona un po' come nel gioco del biliardo. Immaginiamo di avere da una parte un gruppo di palle allineate a triangolo e di scagliare con la stecca una palla contro la formazione a triangolo: quella che succederà, è che il gruppo triangolare di palle sarà disgregato dall'impatto e ciascuna delle palle andrà in direzioni diverse spinte sia dall'energia della palla iniziale che da quella che le palle impattate si

Page 58: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

\p132 sono a loro volta trasmesse tra loro. È così che si riesce a spezzare la materia negli acceleratori particellari. In tutti gli acceleratori i fasci di particelle vengono sempre fatti scorrere in un tubo (di rame) a vuoto per impedire che le particelle collidano con le molecole di aria. Ciò che accelera le particelle sono potentissimi campi elettrici, mentre potentissimi campi magnetici tengono le particelle cariche elettricamente concentrate e confinate nel fascio e - nel caso degli acceleratori circolari - le obbligano a percorrere il cerchio. Le energie che vengono utilizzate oggi per accelerare particelle sono dell'ordine dei GeV, ovvero dell'ordine di svariati miliardi di elettronvolt. A queste energie le particelle possono agevolmente raggiungere velocità prossime a quella della luce. In virtù della formula di Einstein (formula (2), Capitolo 1), ciò che risulta dai prodotti della collisione si manifesta come un'enorme quantità di energia. E proprio la liberazione di questa grande energia a permettere la "materializzazione" di particelle elementari - non solo della prima, ma soprattutto della seconda e della terza generazione - dal momento che l'energia cinetica liberata viene usata per trasformare l'energia in massa. Questa è la ragione per la quale solo nel corso di esperimenti con acceleratori è possibile rivelare particelle di massa molto elevata le quali normalmente non possono esistere nella nostra realtà, ma solo per una piccolissima frazione di secondo come prodotto della collisione. Pertanto quanto più \p133 alta è l'energia delle particelle originali che vengono fatte collidere, tanto più pesanti saranno le particelle prodotte dalla collisione. È cosi che i fisici sono riusciti a scoprire particelle come il quark top, il quark charm, e leptoni avanzati come i tauoni. Le particelle che vengono di solito accelerate sono gli elettroni, i protoni, i positroni, i nuclei di atomi pesanti (come l'oro) e vari tipi di ioni carichi. Abbiamo due tipi di acceleratori che vengono correntemente usati: a) gli acceleratori lineari dove le particelle vengono fatte collidere contro un bersaglio prestabilito e dove il percorso delle particelle è del tutto rettilineo; b) gli acceleratori circolari dove particelle come gli elettroni e antiparticelle come i positroni vengono fatte collidere le une contro le altre in un percorso di svariati chilometri costituito da un anello. Gli acceleratori circolari sono molto più efficienti di quelli lineari neh'accelerare particelle sia per la maggior lunghezza del percorso che per il fatto che le particelle possono effettuare un numero di giri (e non uno solo come negli acceleratori lineari) grande a piacere fino a quando non raggiungono le velocità richieste per dare luogo alla collisione. Negli acceleratori circolari, a ogni passaggio della particella, il campo elettrico verrà sempre più intensificato in maniera che il fascio di particelle tende ad accelerare a ogni passaggio consecutivo. Per questa ragione le energie raggiungibili con gli acceleratori circolari sono le più elevate: fino a oltre 100 GeV, e in prospettiva con il nuovo LHC (Large Hadron Collider) del CERN sarà possibile raggiungere energie fino a 14 TeV, equivalente a 14000 GeV. Gli acceleratori lineari vengono comunque usati ancora, sia come strumenti indipendenti (come allo SLAC) che come strumenti ausiliari (come al CERN): nel secondo caso vengono usati per immettere già ad alta velocità le particelle all'interno dei più grandi acceleratori circolari. Di solito un laboratorio per accelerazione di particelle è costituito da svariati anelli di accelerazione, non solo uno, unitamente ad alcuni acceleratori lineari più piccoli. Dal 1989 al 2000 il più potente acceleratore al CERN è stato il LEP (Large Electron Positron collider), con una circonferenza di ben 27 chilometri. Nel caso specifico del LEP, la collisione si ottiene sparando l'uno contro l'altro due fasci di particelle consistenti in elettroni e positroni. I fasci sono ovviamente accelerati in direzioni opposte, e si trovano entrambi - accuratamente separati - all'interno dello stesso tubo a vuoto. Prima di dare luogo alla collisione è necessario far effettuate alle particelle vari giri attorno all'anello fino a che non viene raggiunta l'energia sufficiente per una collisione efficiente. Nel caso del collisore LHC, ormai pronto per entrate in funzione, si useranno protoni al posto di elettroni e positroni (come nel caso del LEP). È ovvio che le particelle idonee all'accelerazione devono essere per forza cariche elettricamente al fine di permettere il loro controllo sia attraverso i campi elettrici che li accelerano sia attraverso i magneti che ne collimano e confinano il fascio. Tutto questo è concettualmente simile a quanto avviene su scala molto allargata nei "jet" che vengono sparati dai \p134 nuclei delle galassie attive, solo che nel caso di acceleratori come quello del CERN: a) vengono adottate tutta una serie di misure che impediscano dispersioni di energia di varia natura, ad esempio si evita in tutti i modi che venga prodotta radiazione di sincrotrone; b) l'accelerazione avviene in entrambi i sensi contemporaneamente e non solo in uno solo come nel caso dei jet cosmici, i quali sono solo degli acceleratori lineari per quanto giganteschi. ANALOGIA 17. Sparare particelle contro un bersaglio (come negli acceleratori lineari) oppure contro altre particelle (come negli acceleratori circolari), è un po' come prendere un fucile da caccia e dover sparare ad un

Page 59: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

bersaglio molto piccolo e concentrato. Chiaramente, lo sparo di un fucile da caccia crea una rosa di pallini che si espande sempre di più all'aumentare della distanza. Se succede questo però, la probabilità che i pallini colpiscano quel bersaglio è bassissima, al massimo uno o due pallini lo colpiranno. Invece se la rosa di pallini viene confinata in un canale strettissimo (tutti i pallini uniti compattamente e senza espansione della rosa) allora se si è presa bene la mira quasi tutti i pallini centreranno il bersaglio (caso degli acceleratori lineari), oppure due gruppi compatti di pallini si scontreranno tra loro (caso degli acceleratori circolari). Ovviamente in questa analogia i pallini sono le particelle, la concentrazione della rosa di pallini in un gruppo compatto nel caso delle particelle viene prodotta dai campi magnetici, mentre l'alta velocità dei pallini viene prodotta dai campi elettrici. Ma vediamo cosa succede quando elettroni e positroni vengono accelerati, in base alla solidissima esperienza acquisita in 11 anni dal LEP del CERN. Al fine di dare inizio all'accelerazione, si riscalda un filo di metallo fino a permettere la liberazione di elettroni. Una parte di questi elettroni viene fatta collidere con un bersaglio metallico al fine di creare positroni. In tal modo abbiamo pronta la materia prima affinchè elettroni e positroni siano accelerati gli uni contro gli altri, dopo una serie di procedure di pre-accelerazione effettuata in acceleratori circolari più piccoli e in piccoli acceleratori lineari. Ad un certo punto particelle e antiparticelle collidono tra loro in un punto ben preciso della circonferenza attorno al quale viene posta una specie di "gabbia cilindrica" dove è contenuta un serie ben precisa di rivelatori. A questo punto viene il momento di verificare il prodotto del-LA collisione. Si usano allora i rivelatori che sono disposti all'interno della gabbia. Lo scopo dei rivelatori è di determinare Le traiettorie, gli angoli di diffusione, l'energia e l'identità delle particelle prodotte nel processo di collisione. Ogni detector ha uno scopo ben preciso in funzione del compito che è chiamato a compiere. I fisici poi hanno il compito di combinare tra loro le informazioni ottenute dai vari rivelatori e sub-rivelatori. Ma quali sono questi rivelatori? Si tratta primariamente di 3 detector fondamentali: a) nel punto più vicino al punto di collisione vengono piazzati i rivelatori delle tracce \p136 rilasciate dalle particelle cariche elettricamente, i quali mostrano le traiettorie e gli angoli di diffusione; b) al di fuori dei primi rivelatori trovano posto i calorimetri il cui scopo è di misurare l'energia prodotta sia dalle particelle cariche che dalle particelle neutre che emergono dal processo di collisione; c) nel punto più lontano dal punto di collisione si trovano i rivelatori di muoni, che sono le particelle più penetranti e quindi quelle che possono arrivare più lontano delle altre. Chiaramente le traiettorie delle particelle neutre non possono essere rivelate ma la loro energia può essere comunque misurata dai calorimetri. Ad esempio ciò può avvenire con particelle come i neutroni. Nel caso di particelle come i neutrini e gli antineutrini, che sono estremamente penetranti e non rilasciano energia né producono una traiettoria, la loro presenza viene dedotta dalla quantità di moto (energia cinetica) che esse sottraggono alle altre particelle che si producono nel processo di collisione, le quali a loro volta decadono appunto in neutrini. Per registrare le tracce oggi si utilizzano materiali semiconduttori, avvalendosi del fatto che le particelle cariche quando colpiscono un semiconduttore creano coppie "elettrone-buco", che vengono poi separate con un campo magnetico e poi inviate a degli elettrodi i quali forniscono un segnale misurabile. Con i semiconduttori si ottengono precisioni \p137 estremamente elevate, al punto da registrare la posizione di particelle con un'accuratezza dell'ordine dei 10 micrometri. Fino a 20 anni fa si utilizzavano invece le "camere a bolle" e le "camere a nebbia", dove le particelle che emergevano dalla collisione lasciavano la loro traccia ionizzando o vaporizzando un liquido che poi si illuminava e veniva fotografato: una traccia molto simile alla scia di condensazione di un aereo a reazione in quota. Sicuramente le immagini più suggestive che sono state ottenute delle traiettorie delle particelle sono quelle che sono state acquisite con le camere a nebbia o a bolle, oggi usate raramente. Usando i semiconduttori la traiettoria delle particelle non viene fotografata ma semplicemente ricostruita da potentissimi computer. Per poter identificare la carica elettrica delle particelle attraverso il verso che prende la loro traiettoria, le particelle vengono fatte passare attraverso un campo magnetico che si trova dentro il rivelatore di traccia: in tal modo - tanto per fare un esempio - gli elettroni curveranno in un senso, mentre i positroni curveranno nel senso opposto.

Page 60: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

E veniamo dunque ai calorimetri, i quali vengono posti in un anello concentrico della gabbia cilindrica ad una distanza maggiore dal primo anello dove viene \p138 misurata la traiettoria delle particelle, in modo da permettere una misura sequenziale della traiettoria e dell'energia delle particelle. Quando una particella collide con il materiale denso del calorimetro essa genera uno sciame di particelle secondarie (rispetto alla prima collisione), mentre l'energia delle particelle primarie viene assorbita e conseguentemente misurata dal calorimetro. Possono essere sia particelle cariche che particelle neutre. Vengono usati due tipi ben distinti di calorimetri: quelli elettromagnetici, più interni, il cui scopo è di misurare l'energia di elettroni, positroni e fotoni, e quelli adronici, più esterni, che invece sono utilizzati per misurare l'energia degli adroni, cioè delle particelle nucleari costituite da quark. In entrambi i casi oltre alla misurazione dell'energia delle particelle primarie vengono prodotte particelle secondarie, che nel primo caso vengono prodotte dall'interazione elettromagnetica, mentre nel secondo caso dall'interazione nucleare forte. Tra i due calorimetri viene posto un magnete superconduttore. Il suo campo magnetico è in grado di deflettere le particelle cariche in modo tale che in questo modo si è messi in condizione di misurare la carica elettrica e il momento (massa per velocità) delle particelle, un'informazione fondamentale che si va ad aggiungere simultaneamente alle altre acquisite con gli altri rivelatori. Tutte le particelle entrano nei calorimetri, a eccezione dei muoni (incluse le antiparticelle a essi correlate) che proseguono oltre e possono essere rivelati solo nell'anello concentrico più esterno della gabbia, mentre i neutrini non lasciano traccia e possono essere rivelati - come si è già detto — solo in maniera indiretta. Come succede anche nel caso dei muoni prodotti dai raggi cosmici secondari, nel caso dei muoni sappiamo che essi hanno un'enorme capacità di penetrazione: è proprio per questa ragione che i rivelatori muonici vengono posti nell'anello concentrico più esterno della gabbia cilindrica nel centro della quale ha luogo la collisione primaria tra elettroni e positroni. Quando i muoni entrano in contatto con il metallo del rivelatore a loro preposto anche essi danno luogo alla creazione di particelle secondarie. In sintesi, gli elettroni lasciano tracce del loro passaggio nel rivelatore di traccia e depongono la loro energia nel calorimetro elettromagnetico. I positroni si comportano esattamente come gli elettroni con l'unica differenza che le loro tracce curvano nella direzione opposta. I fotoni, come gli elettroni lasciano una traccia energetica nel calorimetro elettromagnetico, ma dal momento che sono particelle neutre esse non manifesteranno in alcun modo il loro passaggio nei rivelatori di traccia. I muoni lasceranno una traccia nel rivelatore di traccia e un segno energetico nel rivelatore muonico. I neutrini potranno essere rivelati proprio nel rivelatore muonico, dal momento che essi sono uno dei prodotti del decadimento (interazione debole) dei muoni. Tuttavia i neutrini non lasceranno nessuna traccia da nessuna parte nei rivelatori, ma possono essere scoperti confrontando l'energia \p139 della collisione con l'energia effettivamente misurata. Se l'energia misurata è inferiore allora vuol dire che i neutrini se ne sono portati via una parte. Si tratta ovviamente di una misura indiretta, ma di fondamentale importanza. Di grande importanza sono sicuramente le particelle che dopo Le collisioni [primaria e secondaria) decadono istantaneamente in altre particelle. In questi casi sono proprio queste particelle decadute che vengono usate per scoprire la natura della particella iniziale che le ha create. L'esempio più lampante sono proprio i quark, i quali come sappiamo non possono esistere come particelle separate ma solo in forma di triplette (nei protoni e nei neutroni) e di coppie. La presenza di un quark verrà rivelata dal fatto che in seguito ai processi \p140 collisionali, esso produrrà un "getto" costituito da molte particelle (di solito più di 10 particelle). Questi getti (18) sono ben visibili all'interno del rivelatore. Dal momento che in processi altamente energetici un quark tenderà a emettere talvolta un gluone, anche questo gluone sarà identificabile dal getto di particelle che produce, in maniera del tutto simile a quello prodotto da un quark. Ciò che succede è che la forza di colore - ovvero l'interazione nucleare forte — è così potente che particelle dotate di colore (quark e gluoni) prodotte in una collisione, possono separarsi da altre particelle dotate di colore solo legandosi ad altre colorate per formare adroni privi di colore. Così un gluone o un quark carico di energia diventa nel suo movimento uno stretto getto di adroni, trasformando la sua energia nella massa e nel moto di vari adroni. Un quark o un gluone appare in un rivelatore come un getto composto di norma da cinque-quindici adroni. Anche le particelle tau (tauone: cugino dell'elettrone, ma appartenente alla terza generazione di leptoni) saranno soggette a decadimento, tipicamente sotto forma di una o tre particelle cariche oltre ad un certo numero di particelle neutre, tra le quali diversi tipi di neutrini. Il decadimento del leptone tau è in grado di generare - similmente al caso dei quark e dei gluoni — un getto di particelle, anche se più piccolo e meno numeroso di quello prodotto dagli adroni. Per cui anche nel caso della particella tau, non possiamo effettuare una rivelazione diretta ma solo dedurne l'esistenza dalle particelle in cui essa decade.

Page 61: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

\p144 Ricordiamo che qualunque processo di decadimento segue regole ferree. I calcoli matematici prevedono esattamente in quali tipi di particelle una data particella è destinata a decadere (qualunque sia il tipo di interazione che determina il decadimento), e il confronto tra la teoria e le misure è straordinariamente puntuale, al punto tale che è sempre la teoria matematica (19) a guidare una data esperimentazione con gli acceleratori, così come le simulazioni numeriche su computer. (20) ANALOGIA 18. In conclusione, per fare una similitudine un po' disfattista, fare un qualunque esperimento effettuato con gli acceleratori di particelle è come guardare la struttura interna di un apparecchio TV osservandone i pezzi, dopo che esso è stato lanciato da un grattacielo di 50 piani. Quanto sopra descritto in merito alle tecniche usate nei rivelatori di particelle nate dalle collisioni, è il principio di funzionamento di DELPHI, la più importante e moderna delle gabbie porta-detector usate al CERN in connessione con l'acceleratore LEP. Come si vede, con questa macchina, i fisici sono in grado di estrarre simultaneamente informazioni sull'energia, sul momento, sulla carica e sulla traiettoria di tutte le particelle che emergono sia dalla collisione primaria nel tubo acceleratore che dalla collisione secondaria delle particelle nate dalla prima collisione con i detector all'interno di DELPHI. In tal modo possiamo vedete che la procedura per rivelare particelle ad altissima energia è in tutto simile a quella che si utilizza quando si osservano raggi cosmici di natura primaria e secondaria: l'unica differenza è che nel caso degli acceleratori tutte le procedure sono pilotate dall'inizio alla fine senza momenti di passività. Sicuramente le energie che si riescono a raggiungere con gli acceleratori come quello del CERN sono di gran lunga superiori a quelle che si ottengono misurando i raggi cosmici. Con l'anello LHC (associato alla gabbia di rivelatori ATLAS) quando diventerà pienamente operativo nel 2007 sarà possibile raggiungere energie almeno 1000 volte superiori a quelle ottenute studiando i raggi cosmici. \t 4.5. L'anello mancante della catena: il bosone di Higgs Noi sappiamo che tutte le cose che esistono, dall'atomo, agli esseri viventi, fino agli ammassi di galassie, esistono semplicemente perché hanno una massa. Fu la stessa legge di gravitazione universale scoperta da Newton a farci capite l'importante ruolo della massa nelle leggi del cosmo. L'argomento fu ripreso in maniera ancora più raffinata da Einstein, che dimostrò che la massa può anche essere trasformata in energia. Eppure ancora oggi nessuno sa cosa sia la massa, cioè che cosa esattamente la crei. Inoltre le masse delle particelle che si misurano hanno valori ben precisi, senza i quali la materia non avrebbe la forma che ha. Ad esempio se la massa \p145 degli elettroni fosse molto maggiore di quella che hanno, l'universo cambierebbe completamente faccia. Dunque la questione della massa è una questione assolutamente fondamentale per la fisica (ma anche per le riflessioni filosofiche che crea!), ma resta allo stesso tempo uno dei suoi enigmi irrisolti. Ponendo il problema in termini strettamente fisici, si può dire che sebbene il Modello Standard delle particelle elementari funzioni in maniera estremamente precisa nello spiegare le interazioni tra quark, leptoni e bosoni, questa teoria non è invece in grado di spiegare una delle più importanti proprietà delle particelle elementari, cioè la loro massa. Ad esempio, il Modello Standard non spiega perché il bosone fotone proprio dell'interazione elettromagnetica è privo di massa mentre i bosoni vettori propri dell'interazione debole sono dotati di massa. Si è effettivamente in grado di misurare la massa delle particelle nelle sperimentazioni con gli acceleratori, ma non si riesce a spiegare che cosa la crea. La particella più leggera conosciuta (almeno ufficialmente) è l'elettrone mentre la più pesante è il quark top, che pesa almeno 200.000 volte più dell'elettrone. Nel 1964 il fisico scozzese Peter Higgs (1929, tuttora vivente) ha proposto un meccanismo che permetterebbe di spiegare il modo in cui le particelle fondamentali possono avete massa. A questo scopo Higgs ha teorizzato che l'intero spazio sarebbe permeato da un campo, oggi denominato "campo di Higgs", in qualche modo concettualmente simile al campo elettromagnetico. Dal momento che le particelle si muovono attraverso lo spazio esse devono viaggiare per forza attraverso questo campo e se -interagiscono con esso esse acquisirebbero da esso la massa. In tal modo le differenze più svariate che si misurano nella massa delle tante particelle scoperte fino a oggi, dipenderebbe semplicemente dal grado di interazione che esse hanno con il campo di Higgs. Ma dal momento che la teoria quantistica prevede una dualità di onde e particelle, allora il campo di Higgs dovrebbe per forza produrle una particella quantizzata. Questa particella viene chiamata "bosone di Higgs", una particella che si prevede essere priva sia di carica elettrica che di spin intrinseco.

Page 62: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Sebbene esso venga definito come bosone - e sarebbe il quinto dei bosoni se la sua natura reale fosse confermata - in realtà esso non si comporta come i bosoni che governano le quattro interazioni conosciute, dal momento che esso non agisce come mediatore di forza come fanno invece gli altri bosoni quando scambiano energia con i fermioni. Il "bosone" di Higgs non è né una particella di materia né un portatore di forza bensì un "trasmettitore di massa", ma non è stato ancora osservato. Riuscire a trovarlo confermerebbe l'ipotesi di Higgs sulla reale natura della massa di tutte le particelle e infatti la ricerca del bosone di Higgs al giorno d'oggi è probabilmente il \p146 più importante obiettivo della fisica particellare. Tutti i campi conosciuti derivano da particelle portatrici di cariche; invece non comprendiamo in che modo il campo di Higgs possa avere origine. Si ritiene che le masse elevate dei bosoni W+, W- e Z°dell'interazione debole - a sua volta legata all'interazione elettromagnetica attraverso l'unificazione elettrodebole — siano una conseguenza del meccanismo di Higgs. Si sospetta che il campo di Higgs tragga origine dalla rottura spontanea della simmetria tra materia e antimateria, cosa che si ritiene si sia verificata all'origine dell'universo. Attraverso questo processo il campo di Higgs sarebbe in grado di indurre una direzione speciale nello spazio alla forza elettrodebole, la quale farebbe in modo che i tre bosoni della forza debole diventino molto pesanti e il bosone della forza elettromagnetica (il fotone) rimanga senza massa. Ciò succederebbe perché il campo di Higgs rallenterebbe i bosoni vettori dell'interazione debole, i quali altrimenti viaggerebbero alla velocità della luce. Questo rallentamento darebbe ai bosoni vettori una massa effettiva, come di fatto si misura. Gli effetti del campo di Higgs si innescherebbero a temperature ed energie sufficientemente basse e in particolare nelle fasi successive alle fasi iniziali del Big Bang, facendo in modo che i bosoni vettori abbiano effettivamente una massa. Allo stesso tempo ciò determinerebbe la differenziazione dell'interazione unificata elettrodebole in interazione elettromagnetica e interazione debole. Dunque l'esistenza del bosone di Higgs servirebbe a spiegare perché i bosoni vettori non sono particelle di massa nulla. Tutti i fermioni — le particelle che costituiscono la materia - scambierebbero informazione con il campo di Higgs interagendo con esso tramite il bosone di Higgs e a seconda dell'intensità dell'interazione avremmo particelle più massicce di altre: ad esempio i quark sono più massicci dei leptoni, mentre i fotoni non avrebbero massa semplicemente perché la loro interazione con il campo di Higgs è inesistente. Si prevede invece che nel caso di energie elevatissime, tutti i quark e i leptoni siano completamente privi di massa: come vedremo in una sezione successiva ciò avviene solo negli istanti iniziali dell'universo. Se lasciamo la parola al fisico premio Nobel americano Leon Lederman (1922, tuttora vivente), egli può ben esprimere il senso di tutto questo cosi dicendo: «Noi pensiamo che vi sia uno spettro che si aggira per l'universo, che ci impedisce di capire la reale natura della materia. E come se qualcosa, o qualcuno, volesse precluderci il raggiungimento della conoscenza definitiva. La barriera invisibile che ci impedisce di conoscere la verità si chiama "campo di Higgs”. E infatti lo stesso formalismo matematico della teoria dell'interazione debole include proprio il campo di Higgs come unico mezzo per spiegare la massa dei suoi tre bosoni. Il campo di Higgs, associato alla rottura spontanea della simmetria, porterebbe alla divisione della "forza elettronucleare"- l'unificazione delle forze elettromagnetica, \p147 nucleare forte e debole che si suppone esista solo in condizioni di elevatissima energia - nelle tre forze frazionate conosciute. Pertanto la scoperta del campo di Higgs e del relativo bosone ci porterebbe direttamente a scoprire i meccanismi che unificano le tre forze (eccetto quella gravitazionale che qui non viene considerata). In ogni caso il bosone di Higgs deve comportare un tipo addizionale di forza che ancora non conosciamo. Proprio per il fatto che pur esistendo un modello matematico che lo spieghi non esiste ancora una prova sperimentale, tutto quanto ha a che vedere con il campo di Higgs e il suo bosone non ha ancora raggiunto il carattere di una teoria (dove ci deve essere sempre una corrispondenza accurata e puntuale tra modello teorico e osservazioni), ma rimane ancora solo un modello, cioè vive per ora solo nel campo delle ipotesi. Un'evidenza indiretta suggerisce che il bosone associato al campo di Higgs debba avere una massa corrispondente ad un'energia molto elevata, attorno a 200 GeV o poco meno. A confronto, il protone ha una massa pari ad un'energia di 1 GeV, mentre la particella più massiccia osservata fino a oggi, il quark top, ha una massa dell'ordine dei 174 GeV. Dunque il bosone di Higgs è sicuramente alla portata degli acceleratori più potenti di oggi - in patticolare il tuttora funzionante Tevatron del Fermilab di Chicago negli USA e il LHC di imminente attivazione al CERN in Europa - ma ancora non è stato trovato.

Page 63: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Gli esperimenti più recenti mirati alla ricerca del bosone di Higgs sono stati effettuati con l'acceleratore LEP del CERN. Con questi esperimenti si intendeva infatti cercare degli eventi prodotti da collisioni in cui un "bosone H" di Higgs e un bosone Z° (dell'interazione debole) venissero creati allo stesso momento. Ci si aspetta infatti che il bosone di Higgs sia una particella di durata brevissima in grado di decadere immediatamente in nuove particelle, le quali in base al Modello Standard dovrebbero essere le più pesanti possibili. I fisici al CERN hanno dunque voluto studiare collisioni in grado di generare "eventi di Higgs" (21). Sicuramente una risposta definitiva verrà data quando entrerà in funzione al CERN il collisore LHC, il più potente mai costruito fino ad ora, usato in associazione con La gabbia di sensibilissimi detector ATLAS. Ricordiamo ancora una volta che il collisore LHC è in grado di raggiungere la spaventosa energia di 14.000 GeV! Se il bosone di Higgs è anche più pesante di 200GeV e se esiste veramente, deve saltare fuori per forza. E infatti riuscire a dare una risposta al più grande enigma della fisica è ormai una questione di pochi anni. Sono già state effettuate molte simulazioni che mostrano la creazione di molte nuove particelle mediate dal bosone di Higgs, in seguito alla collisione effettuata tra due protoni ad altissima energia. Dunque l'unica vera grande lacuna deL Modello Standard è la scoperta ancora mancante del bosone di Higgs. Infatti, se si introduce il meccanismo di Higgs \p148 nelle equazioni del Modello Standard, esse vengono modificate in maniera tale da permettere alle particelle - in particolare i bosoni vettori - di avere la massa che effettivamente hanno. E la teoria così modificata permette appunto di fare previsioni che possono essere verificate sperimentalmente con l'uso degli acceleratori. Non ci sono dubbi che il "campo" di Higgs stia sollevando enormi interrogativi nella comunità dei fisici: alcuni ci credono ciecamente semplicemente perché la sua esistenza si basa su un'architettura matematica molto elegante, altri invece sono completamente scettici, altri ancora negano che il campo di Higgs debba necessariamente aver bisogno di un bosone portatore di informazione per esplicarsi. Dal momento che in base alla fisica quantistica il vuoto non è realmente vuoto, bensì permeato di particelle invisibili che nascono e muoiono in continuazione in una specie di continuo ribollire (quella che viene definita "schiuma quantistica"), allora tutto questo darebbe origine ad un "campo". Il campo di Higgs, il quale teoricamente deve permeare tutto lo spazio, potrebbe avere questa origine: direttamente dal vuoto. Pertanto quanto più le particelle sono in grado di interagire con il vuoto, tanto più esse acquisirebbero massa. Trovare il bosone di Higgs significa allora trovare una prova che questo campo esiste. Ma alcuni, pur accettando - anzi enfatizzando - il ruolo del vuoto quantistico, dubitano che questo bosone esista, come ad esempio il fisico italiano Massimo Corbucci (1954, tuttora vivente), secondo il quale il vuoto quantistico è in grado di rifornire direttamente e in continuazione tutte le particelle trasmettendo loro la massa in maniera "non-locale", cioè istantanea. Corbucci, basandosi su questa assunzione, è arrivato addirittura a ricostruire per intero la tavola periodica degli elementi dividendola in due settori separati da una "zona buia", una specie di pozzo senza fondo in grado di rifornire continuamente di massa le particelle. La materia strutturata in questa maniera porterebbe ad un limite tale che non è possibile oltrepassare il numero 112 della tavola periodica. E in effetti non è ancora realmente chiaro se gli elementi dal numero 113 al 118 siano veramente confermati o meno. La teoria di Corbucci è quasi fantascientifica ma senza dubbio ingegnosa e affascinante e con una sua notevole coerenza interna, purtuttavia essa necessita ancora di una struttura quantitativa in grado di sovrapporsi efficacemente all'ipotesi di base, per quanto originale essa sia. E ovviamente occorre progettare esperimenti adeguati per verificare la validità di questo modello, che comunque al momento resta una ipotesi e non è ancora una teoria nel senso fisico stretto del termine. 4.6. La materia oscura Fino alla prima metà del '900 si riteneva che la quasi totalità della massa dell'universo risiedesse nelle stelle e nelle galassie in cui esse sono contenute. Bastava \p149 monitorare l'universo con i telescopi, rilevare la luce dei corpi celesti e dedurre automaticamente che solo ciò che emette luce è dotato di massa. Poi, proprio da un'attenta analisi delle osservazioni astronomiche ci si è accorti che le cose non stanno affatto in questi termini, al punto tale che oggigiorno abbiamo un'accurata conferma che i corpi celesti luminosi rappresentano solo il 4% della massa dell'universo. Come siamo riusciti ad arrivare a questa deduzione? Innanzitutto dal modo in cui le stelle orbitano attorno al centro delle loro galassie. Sia in base alle leggi della cinematica orbitale di Keplero che a quelle della dinamica orbitale di Newton (che non rappresentano altro che la legge di gravitazione universale), sappiamo che in un sistema gravitazionalmente legato come una galassia, composto di tanti corpi orbitanti slegati gli uni dagli altri, la velocità delle stelle che si trovano più lontano dal centro della galassia devono ruotare più lentamente di quelle che si trovano più vicino al centro.

Page 64: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

E invece le osservazioni spettroscopiche che ci forniscono - tramite lo spostamento Doppler delle righe spettrali - la velocità delle stelle all'interno del sistema galattico, mostrano che la velocità delle stelle lontane dal centro galattico è molto maggiore di quella attesa. Fino ad una piccola distanza dal centro galattico, le previsioni della meccanica sembrano funzionare abbastanza bene, poi oltre una certa distanza la velocità delle stelle anziché diminuire resta pressoché costante. Questo comportamento dinamico così inconsueto può essere spiegato solo se si assume che la galassia contenga della materia invisibile che non è concentrata nel nucleo e il cui effetto gravitazionale è responsabile del moto peculiare delle stelle nella galassia. \p150 Un comportamento del genere lo si riscontra anche su vastissima scala, quando si va a osservare gli ammassi di galassie. Sappiamo infatti che questi agglomerati vengono formati per via del fatto che le galassie sono sotto l'influsso della mutua attrazione gravitazionale. Anche in questo caso le galassie tenderanno a muoversi attorno ad un comune baricentro e ci si aspetta che - analogamente al caso delle stelle che orbitano in una singola galassia - esse seguano un regime Kepleriano-Newtoniano. Ciò dovrebbe riflettersi nel valore della velocità osservata delle galassie. Quello che invece si osserva è che queste velocità sono circa 400 volte maggiori di quelle calcolate, il che indica che l'ammasso che le contiene è molto più "pesante" di quanto non si credesse prima. Studiando le anomalie riscontrate sia nelle stelle singole all'interno di una data galassia che il regime di moto delle galassie all'interno di un ammasso di galassie, si è dunque riscontrato che il rapporto tra la massa di ciò che effettivamente si vede perché emette luce e la massa relativa a ciò che non si vede deducibile dal comportamento gravitazionale anomalo dei corpi celesti, è un valore compreso, a seconda dei casi tra 200 e 400, anziché 1 se dovessimo credere interamente a Keplero e a Newton. Ciò dimostra che ben il 96 % della materia che compone galassie e ammassi di galassie, si trova in qualcosa di invisibile che non riusciamo a vedere direttamente, ma di cui potremmo talvolta essere in grado di misurarne gli effetti. Da cosa è dovuto tutto questo? In base alle conoscenze attuali due sono le componenti che possono determinare la cosiddetta "massa mancante": una di tipo barionico costituita da materia "normale", ovvero fatta di atomi e adroni, e una molto più esotica di tipo non-barionico. Teniamo comunque presente che di questo non abbiamo certezza dal punto di vista osservativo; si tratta solo di deduzioni nate da calcoli teorici, per ora. Sulla base dei calcoli risulta che la componente barionica dovrebbe essere costituita da materia normalmente invisibile, in quanto non in grado di emettete luce, e in particolare da oggetti macroscopici - ovvero di tipo astronomico - cioè costituiti da un grandissimo numero di barioni (protoni, neutroni, quark) tra loro più o meno legati. Se ne deduce allora che La componente barionica deve essere costituita per forza da una "parte meno invisibile" rappresentata da pianeti, nane bianche (stelle che hanno terminato il bruciamento del combustibile nucleare) , e nane brune (stelle che non sono mai riuscite a innescare la fusione termonucleare al loro interno, oppure nane bianche evolute), e da una "parte più invisibile" rappresentata da oggetti più o meno collassati come le stelle di neutroni, le stelle di quark e i buchi neri. Nel primo caso le osservazioni astronomiche –soprattutto effettuate nella banda infrarossa - possono rilevare l'evidenza della \p151 materia meno invisibile, anche se in maniera ancora incompleta. Nel secondo caso è possibile dedurre l'evidenza della materia più invisibile solo con osservazioni astronomiche indirette, cioè quando gli oggetti collassati si trovano a orbitare attorno a stelle normali a cui succhiano continuamente massa; ma anche in questo caso una larga parte degli oggetti resta non rivelata, specialmente se essi si trovano a essere isolati e non legati a corpi luminosi su cui esercitano la loro influenza gravitazionale. Un altro metodo di rivelazione indiretta è costituito dall'effetto di "lente gravitazionale" che uno di questi corpi invisibili ma molto densi esercita su corpi celesti invece visibili che si trovano allineati ai primi lungo la linea di vista: la luce dei secondi viene completamente aberrata da qualcosa che ci passa davanti. Diciamo dunque che la materia barionica è la componente astronomica della materia oscura e può essere rivelata solo molto parzialmente tramite le osservazioni astronomiche. La materia non-barionica è invece quella di gran lunga più difficile da rivelare e rappresenta per cosi dire la "componente particellare" della massa mancante. Questa materia non è costituita da oggetti compatti, ma da particelle note come WIMP (Weakly Interacting Massive Particles), ovvero particelle massicce debolmente interagenti. Sappiamo che queste particelle — per ora del tutto ipotetiche - possono interagire solo attraverso la forza nucleare debole e la gravità. Ma poiché non possono interagire tramite la forza elettromagnetica, esse non possono essere viste direttamente.

Page 65: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Inoltre, poiché non interagiscono attraverso la forza nucleare forte, esse non possono reagire fortemente con i nuclei atomici. In base ai calcoli si prevede che queste particelle siano estremamente massicce, almeno 100 volte più pesanti di un protone. Queste particelle ipotetiche interagiscono molto poco con la materia, ancor meno dei neutrini, per cui è quasi impossibile rivelarle, o perlomeno molto difficile (sempre che esse esistano veramente). Esse vagherebbero nel cosmo, addensandosi vicino alle galassie a causa dell'attrazione gravitazionale. Da alcuni anni si ritiene che una parte di queste particelle rappresenti la "componente di supersimmetria" della materia, un tipo di particelle previste dalle teorie matematiche della fisica particellare ma non ancora osservate neanche con i più potenti acceleratori. Le particelle supersimmetriche (altrimenti dette anche "sparticelle") che potrebbero potentemente contribuire alla materia oscura non-barionica potrebbero essere quelle che vengono chiamate "neutralini", assieme a particelle ancora più esotiche come i cosiddetti "assioni". Particelle come i neutralini sono virtualmente non rivelabili direttamente, e la situazione è molto simile a quella dei neutrini: tendono a sfuggire ai rivelatori. Purtuttavia possono lasciare una traccia dal momento che una volta che viene prodotto un neutralino nei processi di decadimento — analogamente a quanto succede con il neutrino — esso dovrebbe essere accompagnato da una sostanziale lacuna di energia e momento. \p152 In generale la rivelazione delle particelle WIMP è estremamente difficile. Infatti, per poter rivelare la presenza di una particella WIMP è necessario che essa interagisca in qualche modo con i nostri strumenti di misura, producendo un segnale. Purtroppo si prevede che queste interazioni siano molto rare, ancora più rare delle interazioni dei neutrini. Inoltre, il segnale che si ottiene è difficilmente distinguibile da quello di altre particelle come elettroni, fotoni e soprattutto neutroni. Eppure la rivelazione della materia oscura, in particolare quella di natura non-barionica, è di enorme importanza per capire come funziona il nostro Universo nella sua globalità. Proprio per queste ragioni in laboratori importanti di fisica particellare come quello del Gran Sasso in Italia, si sta tentando di studiare un effetto che si prevede possa essere prodotto dai WIMP: la loro modulazione annuale. Ci si aspetta infatti che i WIMP che si trovano nella nostra galassia colpiscano la Terra più in estate — quando la velocità di rotazione della Terra si somma a quella del sistema solare nella galassia — che in inverno, quando le due velocità sono in direzioni opposte. Ci si aspetta che il numero di segnali prodotti dalle particelle WIMP raggiunga i suoi massimi in giugno e i suoi minimi a dicembre. Sulla base di queste previsioni nei laboratori del Gran Sasso sono in corso esperimenti (tuttora essi sono: LNGS, DAMA e LIBRA) veramente unici al mondo in grado di osservare la prevista modulazione dei WIMP. Esperimenti del genere possono essere realizzati solo in laboratori sotterranei, dove solo particelle molto debolmente interagenti come i WIMP e i neutrini possono giungere, in quasi totale assenza di disturbo da parte di particelle come quelle dei raggi cosmici le quali potrebbero inquinare i risultati. Altre particelle esotiche come i monopoli magnetici e i mini-buchi neri (di cui si parlerà in seguito) vengono considerati — seppur al di fuori del Modello Standard delle particelle - come ulteriori candidati alla materia oscura non-barionica. Una componente molto esotica che è stata recentemente proposta — soprattutto dal fisico teorico australiano Robert Foot — come possibile candidata della materia non-barionica è la cosiddetta "materia specchio". Da che cosa nascerebbe questo tipo di materia? Noi sappiamo già da 50 anni che particelle fondamentali come l'elettrone e il protone sono caratterizzate solo da "interazioni sinistrorse", non rispettando quindi la simmetria dello specchio. Tutto questo motiva l'idea che possano esistere "particelle specchio" di quelle normali, cioè caratterizzate da "interazioni destrorse" ma con la stessa massa delle loro controparti (da non confondere con l'antimateria). Si tratterebbe di particelle in grado di aggregarsi in forme anche macroscopiche di materia — come ad esempio stelle e pianeti - che però non sarebbe in grado di interagire con la materia ordinaria se non tramite la forza di gravità. È chiaro dunque che se scoprissimo anomalie gravitazionali (anche nel nostro sistema solare, ad esempio) allora potremmo sospettare eventualmente anche l'esistenza \p153 della materia specchio. Anche quella della materia specchio resta comunque ancora un'ipotesi, seppur molto sofisticata. Anche particelle molto meno esotiche come i neutrini vengono annoverate tra i possibili candidati della materia oscura, per due importantissime ragioni: a) essi vengono prodotti in gran quantità in svariati tipi di processi cosmici (in particolare la fusione nucleare nelle stelle); b) essi sembrano possedere una massa seppur impercettibilmente piccola (a differenza che in passato quando si credeva che la massa dei neutrini fosse nulla), a causa del loro peculiare comportamento osservato molto di recente, ovvero la loro "oscillazione" tra le loro tre differenti generazioni (neutrini elettronici, muonici e tauonici).

Page 66: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

C'è infine da ricordare che di oscuro nell'universo non c'è solo la massa, ma anche una grossa parte della sua energia. Si deduce questo dal fatto che questa "energia oscura" sembra agire come una gravità negativa, dal momento che essa tende a far espandere l'universo molto di più di quanto ci si aspettasse (ma questo era stato previsto anche da certe equazioni di Einstein, in particolare dalla sua "costante cosmologica"), e infatti essa si contrappone alla decelerazione dovuta all'attrazione gravitazionale della materia ordinaria e della materia oscura. Quindi in un certo senso materia e energia oscura agiscono in senso opposto. L'energia oscura, che sembra bilanciare l'effetto di attrazione della materia oscura facendo espandere l'universo, potrebbe trarre le sue origini dal vuoto quantistico. Non sappiamo bene quale relazione possa legare tra loro energia e materia oscura, purtuttavia l'equivalenza tra massa e energia prevista dall'equazione di Einstein ci ricordano sempre che esse sono sempre i due lati opposti di una stessa medaglia. Siamo oggi in grado di fare un bilancio totale. La materia ordinaria costituisce il 4% della massa nell'universo e rappresenta la massa visibile. La materia oscura rappresenta invece il 22%, mentre l'energia oscura rappresenta ben il 74%. Ciò ci fa ben capire che ancora non conosciamo bene come massa e energia sono distribuite nell'universo e il perché di questa ripartizione. Se si confermerà che il neutrino ha massa e considerando che i neutrini vengono prodotti in continuazione in quantità enorme da vari meccanismi astrofisici, allora potrebbe essere che la materia oscura è vincente sull'energia oscura. Ciò, unitamente alla possibilità che esistano particelle massicce più esotiche come i neutralini, è di enorme importanza dal momento che potrebbe essere il fattore discriminante per decidere se l'universo finirà per collassare su sé stesso oppure si espanderà per sempre. Vediamo cosi quanto il comportamento delle particelle elementari sia determinante nel l'influenzare la struttura dell'universo nella sua globalità. \p154 \t 4.7. La supersimmetria e le superparticelle Abbiamo estesamente parlato delle quattro interazioni fondamentali che si intende unificare in un unico quadro nell'ambito di quello che è il massimo sogno dei fisici: costruire una "Teoria del Tutto" in grado di unificare in un'unica legge tutte le forze che ci sono in natura. Secondo ricerche recentissime le quattro interazioni originali non sarebbero altro che le quattro differenti facce di un'unica interazione denominata "Superforza", quella che dominava l'universo nelle sue fasi iniziali con una potenza titanica di ben 10 19\ GeV. Questa incredibile energia che raccoglieva in sé tutte le forze era possibile solo in un universo iperdenso del diametro di 10 -33\ cm. Dunque nei primi microsecondi della sua vita, l'universo era ben 18 ordini di grandezza più piccolo di un protone, il che vuol dire un miliardo di miliardi più piccolo! Solo allora si erano instaurate le condizioni giuste affinché la Superforza si instaurasse. Ma la teoria relativa alla Superforza ha la sua radice in un fenomeno denominato "Supersimmetria" che avrebbe governato l'universo nei suoi primissimi istanti: ciò significa che le particelle fermioniche — quelle che sappiamo costituire la materia ordinaria e le particelle bosoniche - quelle che scambiano le forze con quelle fermioniche — si scambiavano tra loro i ruoli in maniera perfettamente simmetrica. In tal modo la Supersimmetria legherebbe tra loro molto strettamente bosoni e fermioni in maniera tale che ogni bosone deve avere un partner fermionico e ogni fermione deve avere un partner bosonico. Proprio questa Supersimmetria aveva allora dovuto dare luogo a particelle molto particolari, le cosiddette "particelle supersimme-triche" (altrimenti dette "sparticelle"). Queste particelle sono la controparte supersimmetrica di particelle che conosciamo già. Ad esempio le controparti supersimmetriche dei leptoni, dei quark, dei fotoni e dei neutrini sono i "sleptoni", i "squark", i "rotini" e i "neutralini" (questi ultimi - a quanto sembra - una componente fondamentale della materia oscura, come abbiamo già visto), mentre le controparti dei gluoni diventerebbero i "gluini". Dunque ogni particella del Modello Standard dovrebbe avere un superpartner, e con spin che differisce di 1/2 da quello della particella ordinaria. A causa della rottura della supersimmetria, si prevede che le sparticelle debbano essere però molto più pesanti delle loro controparti ordinarie: sicuramente la causa di ciò può essere attribuibile al bosone di Higgs. In tal modo avremmo che ogni particella fondamentale di materia dovrebbe avere una "particella ombra" portatrice di forza molto massiccia, mentre ogni portatore di forza dovrebbe avere una 'particella ombra" di materia molto massiccia, e questo in virtù del principio di supersimmetria. Esse dovrebbero essere così pesanti che gli acceleratori particellari di oggi \p158 non sono in grado di produrre sufficiente energia per rivelarle. Forse ci potrà riuscire l'acceleratore LHC del CERN. Ciò potrebbe portare a scoperte fondamentali che non daranno solo una risposta al problema

Page 67: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

della supersimmetria ma anche a quello della materia oscura non-barionica, dal momento che si prevede che i neutralini, ad esempio, ne siano una componente fondamentale. \t 4.8. La teoria delle superstringhe: verso il campo unificato L'esistenza del principio di Supersimmetria tra bosoni e fermioni ha portato a elaborare quella che sembra dare molte promesse per essere la teoria principale di unificazione delle forze: la teoria delle superstringhe. Originariamente questa era una teoria che spiegava solo il comportamento dei bosoni e in questo caso veniva chiamata teoria delle stringhe. E stata l'inclusione della Supersimmetria a trasformare la teoria delle stringhe in teoria delle superstringhe, che ora, nelle sue 5 varianti, è in grado di descrivere sia i bosoni che i fermioni. Sia la teoria delle stringhe che quella delle superstringhe assumono che le particelle elementari intese come puntiformi debbano essere sostituite da stringhe sottilissime e di lunghezza infinita, che possono essere aperte o chiuse: in base alla chiusura o apertura abbiamo infatti diverse versioni di questa teoria. In sostanza la stringa sarebbe la struttura intima delle particelle, le quali verrebbero viste come tali solo a larga scala. A questo punto, ogni particella sarebbe dunque costituita da strettissimi filamenti o corde capaci di vibrare, di oscillare e di compiere ogni genere di danza. Ogni modo di oscillazione e vibrazione della superstringa corrisponderà allora a particelle specifiche (come i quark, i leptoni, i neutrini, ecc.): in tal maniera la materia sarebbe il risultato di una vera e propria orchestra sinfonica dove i suoni generati dai differenti strumenti e le note specifiche prodotte da ciascuno di essi, riprodurrebbero le caratteristiche di ciascuna particella. In particolare, in base alla teoria delle superstringhe, la massa di ciascuna particella è determinata dall'energia della stringa, che sarà tanto più alta quanto maggiore è la massa della particella. ANALOGIA 19. Si potrebbe pensare ad esempio alle corde di una chitarra che sono state aggiustate in una tensione particolare. A seconda di quanta tensione c'è nelle corde, noi sappiamo che possiamo ottenere note differenti. Queste note musicali corrispondono dunque ai differenti modi di eccitazione delle corde della chitarra. In maniera simile, nella teoria delle superstringhe (come anche nel caso delle stringhe, che comunque descrivono solo i bosoni), le particelle elementari che noi osserviamo nei raggi cosmici oppure negli esperimenti con gli acceleratori, potrebbero essere pensate come le note musicali dei modi di eccitazione delle particelle elementari. A seconda delle armoniche più o meno complesse che si ottengono, noi possiamo ottenere particelle che sono più o meno massicce: questi non sono altro che i tantissimi modi in cui può vibrare una stringa. Quindi i modi di vibrazione delle superstringhe possono spiegare sia la differente natura delle particelle che le loro proprietà fondamentali come la massa, la carica, lo spin, ma anche le generazioni a cui esse appartengono. Più globalmente, tutte le particelle esistenti in natura non sarebbero nient'altro che differenti modi di vibrazione di una sola superstringa. Ovviamente, siccome la teoria delle superstringhe è in grado di spiegare la natura delle particelle elementari, allo stesso modo essa è in grado di spiegare la natura delle quattro interazioni fondamentali conosciute, dal momento che le interazioni si esplicano tramite particelle portatrici di forza che vengono costantemente scambiate con le particelle della materia. Dunque sia i bosoni che i fermioni, che nell'ambito della Supersimmetria si scambiano continuamente i ruoli, rappresentano differenti modi di vibrazione delle superstringhe. Allo stesso modo in cui le corde di una chitarra o di un violino assumono una tensione più o meno forte per produrre le varie note, le superstringhe, pur non essendo oggetti solidi in tensione su una cassa di risonanza bensì oggetti fluttuanti nello spazio-tempo, possiedono una loro "tensione", e infatti questo è probabilmente il parametro fisico che determina la forza di una superstringa. Ed è un valore enorme: pari a circa mille miliardi di miliardi di miliardi di miliardi di tonnellate! Facile è allora immaginare quanta energia sia contenuta in una stringa. ANALOGIA 20. Secondo i suggestivi commenti del fisico teorico Michio Kaku (uno dei massimi esponenti della teoria delle superstringhe) alla sua ricerca, la teoria delle superstringhe rappresenta una vera e propria musica. Le particelle subatomiche corrispondono alle note prodotte dalle corde vibranti, la fisica rappresenta le armonie di queste corde, la chimica consiste nelle melodie che possono essere suonate con queste corde, mentre la "mente di Dio" corrisponde alla musica cosmica che risuona attraverso un iperspazio a 10 dimensioni. Sicuramente l'aspetto più importante della teoria delle superstringhe è che essa è per ora l'unica in grado di risolvere l'incompatibilità esistente tra la meccanica quantistica e la relatività generale. Una teoria quantistica relativistica esiste già e spiega più che bene il comportamento osservato e le proprietà delle particelle elementari, ma questa teoria funziona bene solo quando la gravità viene trascurata. Invece la teoria della

Page 68: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

relatività generale - che da sola descrive la gravità, ovvero la parte macro-fisica dell'universo - funziona solo quando la meccanica quantistica può essere trascurata, proprio perché la teoria di Einstein della gravità non funziona alle distanze praticamente nulle che sono quelle entro cui hanno luogo le \p158 interazioni delle particelle elementari. La teoria delle superstringhe si pone invece come il miglior candidato per la costruzione di quella teoria della "gravità quantistica" che si è sempre cercata, infatti essa descrive il gravitone come particella (di massa nulla e spin = 2) capace, come tutte le altre, di vibrare e oscillare. Il concetto di stringa, per chi ne conosce i dettagli tecnici, è l'unico in grado di oscurare la differenza tra il grande e il piccolo, tra il forte e il debole, tra l'alto e il basso. Infatti questo è il modo in cui ben 5 teorie di superstringa sono state elaborate e poi unite assieme in un'unica teoria - denominata "M Theoty" (da Mother Theory, ovvero: madre di tutte le teorie). Dunque la teoria delle superstringhe è l'unica teoria fino ad ora esistente che sembra capace di unificare tutte le forze in una sola (vedi Schema 3 alla pagina seguente). Per questa ragione la teoria delle superstringhe è la migliore candidata per essere quella che verrebbe definita una "teoria del tutto" e che si concretizzerebbe nella supergravità. \p159 La teoria delle superstringhe risolve il problema di trattare la gravità dal punto di vista quantistico, proprio in virtù delle dimensioni (nel senso dello spessore) veramente infinitesime delle superstringhe, per le quali si definisce una lunghezza caratteristica data dalla "lunghezza di Planck" che corrisponde a 10 -33\ cm (un milionesimo di miliardesimo di miliardesimo di miliardesimo di centimetro!). Su questa scala di lunghezza l'interazione gravitazionale è necessariamente uguale alle altre tre interazioni conosciute: in tal modo si è obbligati a fondere la natura quantistica della materia con la natura spaziotemporale della gravità. È comunque chiaro che essendo cosi strette le superstringhe proprio non si possono vedere... Come vedremo in seguito, la lunghezza di Planck è strettamente associata anche a valori relativi ad un tempo caratteristico, una massa caratteristica, un'energia caratteristica, e una temperatura caratteristica, che possono essere trovati solo nell'infanzia del Big Bang. Nell'ambito dell'apice evolutivo della teoria delle superstringhe -la "M-Theory" che descrive l'interazione tra stringhe — le intensità relative a tutte e quattro le interazioni fondamentali finiscono per diventare una sola forza proprio alla piccolissima scala della lunghezza di Planck. Il secondo degli aspetti più importanti che caratterizzano la teoria delle super-stringhe - e comunque la teoria delle stringhe in generale — è che questa teoria richiede un numero ben maggiore delle consuete 3 dimensioni spaziali. Tuttavia in base ai calcoli risulta che queste dimensioni devono essere estremamente piccole, pari alla lunghezza di Planck, attorno alla quale sono come "attorcigliate"." Ovviamente queste dimensioni non sono ne percepibili dai nostri sensi né rilevabili da alcun strumento. Esse però rappresentano sostanzialmente la base della teoria delle superstringhe, la quale a seconda della variante usata, comporta l'esistenza \p160 di un universo multi-dimensionale con dimensioni spaziali varianti dai numero di 10 al numero di 26. ANALOGIA 21. Possiamo visualizzare l'esistenza di queste extra dimensioni ultrapiccole con la seguente analogia. Immaginiamo un acrobata che cammina su un filo teso e al contempo una pulce che si trova sullo stesso filo. Mentre l'acrobata si può muovere solo in avanti o all'indietro sul filo, la pulce — grazie alla sua estrema piccolezza, alba sua leggerezza e alla sua capacità di stare attaccata ovunque — ha un grado di libertà in più: infatti può muoversi anche attorno al diametro del filo. In tal modo abbiamo che l'acrobata può muoversi solo su una dimensione, mentre la pulce si muove su una dimensione in più. Tuttavia la seconda dimensione entro cui la pulce può muoversi è un piccolissimo anello chiuso. L'acrobata non potrà malfare quello che fa la pulce, per cui se assimiliamo il grado dì libertà mono-dimensionale dell'acrobata al mondo tridimensionale \p161 in cui viviamo e il grado di libertà bi-dimensionale della pulce alle dimensioni extra della teoria delle superstringhe, vediamo che il parallelo corre molto stretto. Questo esempio ci dice che il fatto che noi non percepiamo dimensioni superiori alla terza non significa che non esistano. E infatti esistono, ma sono visualizzabili solo dalla matematica dei teorici delle superstringhe e si manifestano in un universo reale che comunque non potremo mai conoscere direttamente o misurare. La matematica a volte riesce ad andare ben oltre la vista normale! Al contempo la pulce riesce simbolicamente a girare attorno ad una superstringa caratterizzata dalla lunghezza caratteristica di Planck attorno a cui le rimanenti dimensioni sono attorcigliate. Dunque la teoria delle superstringhe contempla una specie di "superspazio" senza il quale le leggi della fisica non potrebbero esplicarsi nella loro interezza. In poche parole, la teoria di campo unificato di tutte le interazioni fondamentali è possibile solo se le stringhe possono "stirarsi" su almeno 10 dimensioni. Ciò

Page 69: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

significa che noi percepiamo solo una parte della realtà. Pertanto la teoria delle superstringhe e l'assunzione di multidimensionalità sono l'unico modo per concepire l'universo nella sua completezza. La cosa interessante è che se si assume la piena multi-dimensionalità, allora le 5 varianti della teoria delle superstringhe convergono in una sola teoria omnicomprensiva, cioè la M-Theory, la quale rappresenta l'unico modo per compattare le dimensioni extra in uno spazio così piccolo come la lunghezza di Planck. Mentre in passato si ritenevano possibili in tutto 26 dimensioni, il consenso di oggi tra i teorici è che queste dimensioni debbano essere in tutto 10 più il tempo. Le dimensioni previste dalla teoria delle superstringhe vengono chiamate "brane" e rappresentano membrane iperdimensionali, allo stesso modo in cui le stringhe sono linee iperdimensionali. In questo contesto, particelle come i fotoni, i quark e i leptoni esistono solo in un "subspazio" tridimensionale, che viene chiamato "3-brana". Ma i calcoli mostrano che non ci sono solo queste tre dimensioni (quelle che costituiscono la normalità del mondo) ma anche altre dimensioni superiori che esistono in un iperspazio che noi non riusciamo a percepire. Mentre la materia e la luce come le conosciamo aderiscono alle 3 dimensioni consuete, secondo la teoria delle superstringhe il comportamento della gravità si manifesta su una scala molto più grande: la gravità può attraversare sia le dimensioni (o brane) conosciute che tutto l'intero iperspazio delle rimanenti 7 dimensioni. Pertanto le superstringhe rappresentano l'unico tentativo veramente matematico per dimostrare teoricamente (anche se non ancora sperimentalmente) l'esistenza di universi nascosti di ordine superiore attraverso cui si propagano le leggi della fisica. E questi universi possono effettivamente esistere in altre dimensioni, le quali sono estremamente sottili relativamente a quelle del nostro universo. La teoria delle superstringhe prevede anche universi tridimensionali paralleli al nostro, che potrebbero contenere materia diversa dalla nostra e dove le leggi della fisica potrebbero essere differenti, \p162 mentre le leggi della gravità sarebbero le stesse per tutti, dal momento che la gravità si propaga attraverso tutte le dimensioni. La teoria delle superstringhe, nata dallo sforzo e dal genio di fisici teorici come gli americani Brian Greene (1963, tuttora vivente) e Edward Witten (1951, tuttora vivente), il giapponese-americano Mikio Kaku (1947, tuttora vivente), e l'italiano Gabriele Veneziano (1942, tuttora vivente, e probabilmente il più importante precursore della teoria), rappresenta il più geniale ed elegante tentativo di unificare le forze in natura. L'unica sua limitazione è che essa, pur essendo altamente matematica, per ora non è verificabile sperimentalmente, almeno direttamente. Ma può essere verificata solo indirettamente se con i prossimi esperimenti con gli acceleratori si riuscirà a trovare la prova dell'esistenza delle Superparticelle (e quindi della Supersimmetria), che rappresentano una "conditio sine qua non" per l'effettiva fondatezza della teoria delle superstringhe. E, come si vedrà a breve, è possibile trovare anche altre prove indirette, alcune anche molto spettacolari. \t 4.9. Particelle "molto esotiche": monopoli magnetici e mini-buchi neri Come si è visto, sono state classificate moltissime particelle sia di tipo leptonico che di tipo adronico. Le collisioni effettuate con gli acceleratori e le particelle che ne sono nate provano che il Modello Standard delle particelle elementari è uno schema altamente realistico e rigoroso per descrivere la struttura della materia a livello subatomico, anche perché quello che è stato rilevato dalle misure collima quasi perfettamente con la struttura matematica della teoria che sta alla base del Modello Standard. Purtuttavia il Modello Standard è ancora un modello incompleto: manca una teoria che unifichi tra loro le quattro interazioni fondamentali, manca una dimostrazione sperimentale che il bosone di Higgs esiste davvero e conferisce massa alle particelle, sussiste il forte sospetto che il neutrino abbia massa il che metterebbe un po' in crisi il modello stesso, non esiste ancora prova sperimentale dell'esistenza delle superparticelle come il neutralino. Inoltre nell'universo abbiamo evidenza sperimentale che esiste molta più massa di quella che appare da quello che vediamo con i telescopi, ma ancora non sappiamo come questa materia oscura è riparata né quanto essa pesi, e di conseguenza se questo 'peso" sia sufficiente per far ricollassare l'universo su se stesso oppure se esso sia effettivamente vinto da quella specie di "antigravità" costruita dall'energia oscura. Sicuramente lo studio della materia oscura non solo potrà fornire risposte al destino dell'universo, ma anche contribuire alla ricerca di particelle supermassicce che sono state previste ma ancora non osservate. Due di queste particelle sono i monopoli magnetici e i mini-buchi neri. Esse non rientrano nel Modello Standard e non sono mai state osservate con assoluta certezza, ma la loro esistenza potrebbe essere prevista dalla teoria delle superstringhe e anche da teorie alternative di tipo G.U.T. (Great Unification Theory) o di tipo T.O.E (Thecry ofEverything). \p163

Page 70: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Cominciamo dal monopolo magnetico. I monopoli magnetici sono stati ipotizzati da Paul Dirac nel 1931 come possibili particelle che potrebbero esistere in natura, senza contraddizioni con le leggi della meccanica quantistica, e sulla base della simmetria tra campo elettrico e campo magnetico. (22) La definizione di "monopolo magnetico" è estremamente semplice: si tratta di una particella ipotetica che può essere descritta come un magnete con un solo polo e cioè di una particella puntiforme che all'esatto opposto dell'elettrone sarebbe dotata di "carica magnetica". Noi sappiamo che se prendiamo un magnete normale costituito da due poli (cioè un "dipolo magnetico", che rappresenta la normalità in fatto di magnetismo) e Lo dividiamo in due parti, non otterremo mai due poli separati ma di nuovo dei dipoli magnetici più piccoli. Il caso del monopolo magnetico invece è del tutto peculiare, semplicemente perché esso sarebbe nato proprio con la "forma a monopolo" che si prevede che abbia. Alcuni ritengono addirittura che il monopolo magnetico sia la causa del confinamento dei quark nei nucleoni. Ma questa è solo una congettura. Il monopolo magnetico è una particella che non rientra nel Modello Standard. Invece le teorie di grande unificazione - in primis quella delle superstringhe - prevedono che l'esistenza del monopolo magnetico intesa come "particella magneticamente carica", possa avere un ruolo fondamentale, proprio per la sua simmetria con la particella elettricamente carica come l'elettrone. I calcoli che da una parte hanno permesso di farci un quadro della nascita dell'universo - e cioè la teoria del Big Bang sia nella sua forma tradizionale che in quella modificata che comporta il processo dell'inflazione - e dall'altra hanno permesso di \p164 fare le prime ipotesi sull'unificazione delle quattro forze fondamentali, prevedono di fatto l'esistenza del monopolo magnetico in forma di una particella spaventosamente massiccia. Questa particella sarebbe stata prodotta nei primissimi istanti dell'universo a causa di distorsioni o difetti puntiformi della struttura topologica dello spaziotempo. La prima versione della teoria del Big Bang ne prevede una copiosissima produzione, soprattutto al momento della tremenda energia liberata dall'esplosione, mentre la seconda versione (quella accettata tuttora), caratterizzata dalla cosiddetta "inflazione", ovvero una specie di supergonfiaggio aggiuntivo dell'universo subito dopo l'istante iniziale, invece ne prevede molto pochi. Sta comunque di fatto che in base a teorie come quella delle superstringhe (che è la teoria di gran lunga più recente come modello di grande unificazione delle forze) questi monopoli potrebbero essere sopravvissuti anche molto tempo dopo il Big Bang e quindi potrebbero vagare per l'universo fino a quando qualcuno non li rivela. E infatti dovremmo vederli. Ad esempio il fisico Blas Cabrerà mise a punto un'apparecchiatura che se attraversata da un monopolo magnetico dovrebbe produrre corrente elettrica. Nel 1982 fu infatti rilevato un segnale molto strano e sospetto, ma da quella volta non sono state più effettuate rivelazioni del genere e quindi ancora non abbiamo conferma che il monopolo esista veramente. Molti addirittura ne negano l'esistenza. La massa del monopolo magnetico corrisponderebbe ad un'energia di 10 16\ GeV, e cioè pari a 10 16\ volte la massa del protone! Ciò significa che particelle di energia cosi ponderosa potrebbero aver esercitato - ed esercitare tuttora — una fortissima influenza gravitazionale sull'universo nella sua interezza. In ogni caso un'energia del genere di quella del monopolo magnetico è completamente al di fuori della portata perfino dell'acceleratore LHC che entrerà molto presto in funzione al CERN, dove invece sarà possibile sviluppate energie 11 ordini di grandezza inferiori. Pertanto non c'è proprio modo di produrre i monopoli magnetici con gli acceleratori. L'unico modo è quello di cercarli nell'universo utilizzando rivelatori di particelle simili (per lo meno nella filosofia della ricerca) a quelli con cui si studiano i raggi cosmici. Infatti essi potrebbero essere presenti nella radiazione cosmica altamente penetrante. In ogni caso si ritiene in genere che, come anche altre particelle che costituiscono la cosiddetta "materia oscura", seppur esercitando una potente influenza gravitazionale, il monopolo magnetico interagisca molto debolmente con la materia soprattutto a livello di forza elettromagnetica e forza nucleare forte. Si ritiene comunque che, a differenza di altre particelle come i neutroni o i mesoni, il monopolo magnetico sia una particella estremamente stabile, e infatti si prevede che dopo la sua possibile creazione circa 15 miliardi di fa esso si sarebbe mantenuto intatto senza decadimenti di alcun genere. I monopoli nell'universo sarebbero ovviamente tantissimi, ma comunque estremamente tari (seppur cosi massicci) in rapporto alle \p165 altre particelle: si è stimato infatti che su 10 29\ nucleoni, solo uno dovrebbe essere un monopolo magnetico. Si ritiene anche che i monopoli dovrebbero essere rivelati (indirettamente), per via della previsione che essi dovrebbero causare un effetto di diffusione dei fotoni con cui essi possano entrare in contatto. Un'altra forma in cui potrebbero apparire monopoli magnetici è decisamente affascinante ed è stata proposta nel 1994 dal fisico nucleare americano David Fryberger nel corso di un congresso internazionale (a cui anche

Page 71: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

lo scrivente partecipò come astrofisico) tenuto in Norvegia per discutere le varie teorie che potrebbero spiegare i misteriosi fenomeni luminosi atmosferici anomali che si verificano con ricorrenza nella valle di Hessdalen in Norvegia. Fryberger, sulla base di un modello teorico piuttosto solido e ricco di previsioni sulle caratteristiche effettivamente osservabili, ritiene che le "palle di luce" di Hessdalen e fenomeni simili in altre località del mondo possano essere create e tenute assieme da monopoli magnetici. Affinché questa teoria sia convalidata è necessario (come richiede lo stesso Fryberger) rilevare tutta una serie di manifestazioni (come ad esempio, l'emissione di campi magnetici ed elettrici, l'emissione di radiazione nelle onde ultrabasse ELF, la produzione di neutroni e raggi gamma, e altri fenomeni correlati e sincronici) direttamente tramite misurazioni di questi fenomeni di luce e del campo elettromagnetico da essi prodotto. Al momento non ci sono state verifiche accurate, purtut-tavia il modello di Fryberger - che potrebbe spiegare forse anche il misterioso fenomeno dei "fulmini globulari" - rimane un campo aperto di investigazione. Veniamo ora ai fantomatici mini-buchi neri. Anche in questo caso si tratta di particelle che potrebbero essere state prodotte nei primi istanti di vita dell'universo, e come nel caso dei monopoli magnetici la loro esistenza è prevista dalle teorie di grande unificazione come quella delle superstringhe. I mini-buchi neri sarebbero particelle primordiali collassate formate nelle condizioni di estrema densità presenti nel momento stesso in cui l'universo stava nascendo. Nei primi momenti del Big Bang, pressione, temperatura e densità erano spaventosamente elevate. In queste condizioni, potevano crearsi delle semplici fluttuazioni nella densità della materia al punto tale da formate mini-buchi neri. La successiva espansione di quell'atomo iniziale che dette origine all'universo contribuì a ridurre grandemente la densità e quindi la probabilità che la materia collassasse, ma alcune fluttuazioni nella densità della materia sarebbero riuscite a sopravvivere generando piccole particelle ultra-collassate in forma di mini-buchi neri. Come nel caso dei monopoli magnetici si prevede che si tratti di particelle dotate di massa estremamente elevata. Diciamo innanzitutto che i mini-buchi neri (altrimenti definiti anche "micro-buchi neri") sono particelle di dimensioni atomiche \p166 o anche inferiori. Infatti un buco nero di massa molto piccola apparirebbe proprio come una particella elementare, (23) la quale sarebbe definita completamente dalla sua massa, dalla sua carica e dal suo spin. I "buchi neri" propriamente detti, ovvero quegli oggetti astronomici che nascono dal collasso gravitazionale di stelle morte di grande massa e i "macro-buchi neri" che si troverebbero nei nuclei delle galassie attive, sono oggetti astronomici. Invece i mini-buchi neri sono particelle. Ma quello che li accomuna tutti è il fenomeno del collasso gravitazionale, cosa che secondo la teoria della relatività può avvenire per qualunque massa, dalle più. grandi alle più piccole. Nel caso dei mini-buchi neri, dal momento che si tratta di particelle che potrebbero essere grandi come un elettrone, gli effetti quantistici si vanno ad assommare a quelli gravitazionali. Secondo la trattazione teorica dei mini buchi neri a opera del grande fisico teorico inglese Stephen Hawking (1942, tuttora vivente), essi dovrebbero evaporare emettendo una grande quantità di fotoni altamente energetici entro una frazione di secondo dalla loro nascita. La "radiazione di Hawking" dovrebbe infatti essere emessa dai mini-buchi neri con un'intensità che è inversamente proporzionale alla loro massa. Ciò significa che quanto più un buco nero è piccolo e tanto più esso può disintegrarsi in una cascata di fotoni in una frazione di secondo. Questa potrebbe essere una delle diverse possibili cause che generano le esplosioni Gamma che vengono rilevate in contesti prettamente astrofisici. La teoria di Hawking prevede dunque che i mini buchi neri primordiali più piccoli siano evaporati in tempi brevissimi subito dopo la loro nascita. Purtuttavia le teorie più recenti di grande unificazione negano questa possibilità per via del fatto che in base a teorie come quella delle superstringhe o una delle sue varianti, si postula l'esistenza di dimensioni superiori alla terza e il fatto che l'interazione gravitazionale si propaghi in un iperspazio strutturato in almeno 10 dimensioni, sette delle quali (si ricorda) sono attorcigliate attorno a quella quantità infinitesima che è la lunghezza di Planck. In tal caso la gravità sarebbe ben più potente di quello che si credeva e quindi in grado di agire efficacemente anche a distanze molto piccole (il che richiede energie elevatissime), come quelle che si riscontrano sulla scala delle particelle come ad esempio i mini-buchi neri. L'intensità potenziata che la gravità acquisirebbe su una scala multi-dimensionale sarebbe in grado di impedire la loro evaporazione. Ciò significherebbe che molti dei mini-buchi neri primordiali sarebbero sopravvissuti, fino al punto da permettere la possibilità che addirittura diverse migliaia di essi possano essere presenti anche all'interno del

Page 72: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

nostro Sistema Solare. Non a caso una missione spaziale il cui lancio è programmato per il 2007 ha anche lo scopo di verificare la possibile presenza di mini-buchi neri all'interno del Sistema Solare, sulla base della più recente e avanzata delle teorie — quella delle superstringhe — che prevede appunto che moltissimi mini-buchi neri siano disseminati ovunque nell'universo. Secondo alcune tra le teorie più recenti, le dimensioni dei mini-buchi neri sarebbero dell'ordine di quella di un atomo, \p167 mentre la massa in essi concentrata sarebbe pari a quella di un piccolo asteroide. Ciò significa che un mini-buco nero sarebbe in grado di interagire gravitazionalmente con i corpi del Sistema Solare. Il numero di mini-buchi neri prodotti nell'universo dovrebbe però non essere troppo grande, perché se un numero eccessivo di queste particelle fosse concentrato in un volume troppo piccolo (come quello che aveva l'universo alla sua nascita), esse tenderebbero a fondersi tra loro per creare buchi neri più grandi: in tal caso i mini-buchi neri sparirebbero per lasciare spazio a quelli più grandi. La più piccola particella che possa essere concepita come un mini-buco nero dovrebbe avere una massa dell'ordine della "massa di Planck", e cioè corrispondente ad un'energia dell'ordine dei 10 19\ GeV. Come si vede, analogamente al caso della massa di un monopolo magnetico, un mini-buco nero sarebbe una particella che racchiude in sé un'energia enorme. E come nel caso del monopolo magnetico, un'energia del genere - sulla sola base del Modello Standard - sarebbe ben al di fuori della portata di acceleratori particellari come il LHC del C ERN. Si sarebbe allora spinti a ritenere che i mini-buchi neri possano essere rivelati solo come componente deLla radiazione cosmica che impatta La nostra atmosfera. In realtà ferma restando La seconda possibilità, la possibdità di sintetizzare mini-buchi neri utilizzando un acceleratore come quello del CERN non è affatto impossibile alla luce della teoria delle superstringhe. Ciò sarebbe permesso proprio dal fatto che secondo la teoria delle super-stringhe larga parte della forza di gravità si espande su dimensioni superiori alla terza, mentre sulle scale molto grandi dell' universo essa sarebbe molto diluita. Una dimostrazione indiretta di questo fatto potrebbe provenire dalla creazione di mini-buchi \p168 neri in laboratorio. Infatti, secondo la teoria delle superstringhe, un potenziamento della gravità fino ad agire efficacemente sulla scala delle particelle elementari può provenire solo da altre dimensioni. Per effettuare un esperimento del genere occorrerebbe comprimere due particelle in uno spazio molto piccolo fino a permettere che la forza gravitazionale in tutta la sua potenza si esplichi. Questo succederebbe perché due particelle che si trovano a distanza piccolissima (dell'ordine della lunghezza di Planck) entrerebbero automaticamente in uno spazio a più dimensioni, dove la gravità si manifesta in tutta la sua pienezza: solo allora sarebbe possibile sintetizzare un buco nero in laboratorio. Di converso, la costruzione in laboratorio di un mini-buco nero proverebbe il fatto che esistono dimensioni superiori alla terza e quindi potrebbe fornire una convalida sperimentale alla teoria delle superstringhe. Non dimentichiamo che le dimensioni extra possono esistere ed esplicarsi solo a distanze infinitamente piccole, tutte attorcigliate attorno alla lunghezza caratteristica di Planck. In ogni caso i mini-buchi neri prodotti in laboratorio durerebbero un tempo infinitesimo e decadrebbero in altre particelle capaci di lasciare tracce ben precise, tramite le quali comunque risaliremmo alla particella primaria che le ha generate. Questo succede normalmente con le altre particelle: ad esempio, noi non vediamo mai direttamente i quark del nucleo atomico, ma solo le particelle che essi generano. Non mancano ovviamente gli scettici in merito ad un esperimento del genere, i quali temono invece che un mini-buco nero artificiale del genere possa invece sopravvivere al decadimento per un tempo sufficientemente lungo che gli permetta di accumulare massa in quantità sempre crescente fino a inghiottire la Terra stessa e forse anche il Sistema Solare! Invece una possibilità di rilevare mini-buchi neri in maniera passiva è quella di verificare se essi fanno effettivamente parte dei raggi cosmici che impattano ogni microsecondo la nostra atmosfera. Calcoli teorici prevedono infatti che, una volta impattate le molecole dell'alta atmosfera, questi mini-buchi neri siano abbastanza instabili da decadere in un tempo piccolissimo in una cascata di particelle rappresentate dalla componente secondaria dei raggi cosmici. Rifacendo il cammino a ritroso dai prodotti di decadimento si potrebbe risalire allora alla natura di mini-buco nero della particella primaria. Già nel 1972 un rivelatore di raggi cosmici posto sulle Ande rivelò una vera e propria valanga di particelle - denominata "centauro" — fatte di quark. Esiste il sospetto che questa cascata esplosiva di particelle possa essere stata innescata da una particella primaria che potrebbe essere anche un mini-buco nero. Ma non ci sono ancora prove che le cose stiano effettivamente in questi termini. Occorreranno molte più osservazioni della radiazione cosmica per provarlo.

Page 73: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Infine un'ulteriore possibilità di verifica osservativa dell'esistenza di mini-buchi neri potrebbe provenire — esattamente come nel caso dei monopoli magnetici - dall'investigazione su fenomeni anomali di luce simili a quello di Hessdalen in Norvegia o \p169 ai fulmini globulari. Il fisico teorico americano Mario Rabinowitz ha infatti proposto svariati modelli che potrebbero spiegare i fulmini globulari come aggregazioni di plasma tenuti assieme da un mini-buco nero. Lo scrivente, sulla base dei risultati sperimentali ottenuti a Hessdalen, ha a suo tempo proposto un modello simile - in questo caso completamente empirico - per spiegare parte dei fenomeni di luce di Hessdalen o similari nel mondo: si tratta di un modello che comporta l'ipotetica formazione in bassa atmosfera di mini-buchi neri in grado di succhiare localmente su di sé con il loto campo gravitazionale il gas atmosferico riscaldandolo violentemente fino a indurlo in uno stato di plasma luminoso. Questo globo di plasma - denominato "ergoplasma" sarebbe "autocontenuto" in una struttura simile ad una "mini-stella", e rappresenterebbe una configurazione in grado di mantenere la stabilità strutturale anche per ore grazie all'equilibrio tra la forza gravitazionale che attira il plasma verso l'interno e la pressione del plasma caldo verso l'esterno. Una struttura del genere potrebbe spiegare anche gli intensissimi campi magnetici registrati in concomitanza con questi fenomeni di luce, dal momento che il collasso gravitazionale locale del gas atmosferico amplificherebbe enormemente il campo magnetico comprimendo (localmente) violentemente le linee di forza magnetiche che sono normalmente congelate nella materia. Il campo magnetico così amplificato genererebbe un plasma a confinamento magnetico e a struttura sferica, in modo tale che la forza magnetica si andrebbe ad assommare a quella gravitazionale nel garantire la stabilità strutturale dei globi di plasma. In tal modo un mini-buco nero delle dimensioni di un atomo o poco meno potrebbe accendere in atmosfera una mini-stella del diametro oscillante tra 1 e 10 metri. In seguito, il fenomeno di luce di Hessdalen è stato parzialmente spiegato dall'autore di questo libro ad-ducendo cause più prosaiche come il confinamento elettrochimico di plasmi di natura piezoelettrica, ma ciò non esclude che una parte di questi fenomeni sia a Hessdalen che altrove nel mondo — e forse anche i più piccoli e meno durevoli fulmini globulari — possano essere innescati da mini-buchi neri (non necessariamente di natura cosmica). Manca ancora un lavoro di modellizzazione matematica e una ulteriore raccolta di dati sperimentali per poter dire l'ultima parola, ma non c'è dubbio che ricerche come quella sui fenomeni di Hessdalen possano avere un impatto enorme nella fisica delle particelle, sia indirettamente che direttamente. \t 4.10 Cosmologia particellare : storia molto breve dell'universo Le particelle che oggi conosciamo, ovvero quelle che costituiscono La nostra realtà, come protoni, neutroni, elettroni e la loro combinazione in atomi, sono il risultato di una evoluzione partita al momento in cui nacque l'universo. Sicuramente la teoria più importante sulla nascita dell'universo è quella del Big Bang: questa è la teoria oggi più universalmente accettata dalla comunità scientifica, ma ciò non vuol \p170 dire che essa sia la teoria definitiva, o la teoria corretta. Mancano ancora diversi tasselli per farne la teoria definitiva, soprattutto mancano schiaccianti prove osservati-ve (che comunque sono molto difficili da ottenere). La teoria del Big Bang assume che l'universo sia nato all'incirca 15 miliardi di anni fa dall'esplosione e successiva espansione di un punto singolare delle dimensioni di un atomo. In ogni caso, assumendo che questa teoria sia corretta, è possibile tracciare un percorso che di pari passo all'espansione dell'universo nel suo insieme porta ad una drastica trasformazione delle particelle in esso contenute e delle interazioni che le caratterizzano. L'evoluzione parte da condizioni in cui le quattro interazioni erano completamente unificate in una sola, poi prosegue verso una fase in cui la forza nucleare forte è unificata con la forza elettrodebole in un'unica forza denominata "forza elettronucleare" mentre al contempo la forza gravitazionale si è distaccata seguendo un suo destino separato. Proseguendo nel tempo, la forza nucleare forte e quella elettrodebole si dividono a loro volta. Alla fine — ovvero quando l'universo raggiunge la forma che ha adesso - avremo le quattro forze fondamentali della natura separate come le conosciamo adesso. \p171 Tutto quello che può essere descritto dalle equazioni della fisica funziona bene solo dopo i 10"s secondi passati dall'esplosione. Mentre tra i IO"43 e i IO"6 secondi, la teoria del Big Bang non è nient'altro che una serie di ipotesi. Prima dei IO43 secondi le condizioni dell'universo erano talmente estreme — con la massa dell'universo concentrata in un punto e la temperatura caratterizzata da un valote infinito - che la nostra fisica non è in grado di descriverle quantitativamente. Possiamo tuttavia fare delle ipotesi sulla base delle nostre conoscenze della fisica delle particelle elementari e della meccanica quantistica.

Page 74: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

• Prima dei 10 -43\ secondi, noi non possiamo sapere nulla ma solo speculare. Infatti questa scala temporale - definita come "tempo di Planck" - corrisponde al più piccolo intervallo di tempo possibile in termini di meccanica quantistica. Questo tempo limite corrisponde ad una lunghezza limite che è quella di Planck, pari a 10 -33\ cm: si tratta di una scala spaziale trattabile solo dalla meccanica quantistica. La lunghezza di Planck (definita in termini delle costanti fondamentali della natura) è la scala di lunghezza a cui la forza di gravità è uguale a quella delle altre forze (nucleare forte, debole, elettromagnetica), e dove si è forzati a riconciliare la natura quantistica della materia con la natura spazio temporale della gravità. Queste scale temporali e spaziali sono incompressibili, e rappresentano anche una specie di "orizzonte" alle nostre conoscenze della fisica. Si ipotizza che questa fase primordiale dell'universo sia rappresentata dal dominio della cosiddetta "Superforza" — altrimenti definita anche come "gravità quantistica" - dove tutte e quattro le interazioni note erano unificate in una sola. In questa fase, in cui la materia doveva ancora venire all'esistenza, si ritiene prevalesse solo il "vuoto", ovvero il più basso possibile stato di energia dell'universo. Ma non un vuoto vero, bensì un vuoto pieno di "particelle virtuali" di materia e antimateria che apparivano e scomparivano come bolle di sapone. Queste sono quelle che vengono definite in meccanica quantistica come "fluttuazioni quantistiche del vuoto". Dunque il vuoto — inteso come vasto oceano di potenziale — si comportava come una specie di "lavagna" su cui veniva scritto l'universo: in tal modo l'universo non è riempito di vuoto quantistico, ma è Letteralmente scritto su di esso; quindi il vuoto rappresenta il reale substrato di tutta l'esistenza. L'universo come esiste adesso si ritiene che sia nato proprio da una di queste fluttuazioni del vuoto. In sostanza sarebbe una nascita dal nulla. La nostra fisica può comunque proporre delle ipotesi ragionevoli - sulla base della teoria del Big Bang - solo relativamente all'evoluzione dopo i primi 10 -43\ secondi, cioè solo dopo la fase di Planck. Una delle ragioni per le quali la nostra fisica è inefficace a spiegare la fase di Planck è proprio la mancanza di comprensione del perché tutte le quattro interazioni fondamentali sono in essa unificate. Sappiamo solo che a energie estremamente alte, le forze della natura diventano "simmetriche", cioè esse si compenetrano l'una con l'altra e diventano uguali \p112 in intensità. Ciò avviene quando le forze quantistiche e la gravità si fondono in una unica forza: la supergravità. ANALOGIA 22. La condizione di simmetria che l'universo assume in queste fasi può essere visualizzata come una moneta. Essa ha due facce, ma se la facciamo ruotare in fretta non avremo una faccia o l'altra, avremo invece tutte e due le facce contemporaneamente; questa e una condizione di perfetta simmetria. Se poi noi decidiamo di far cadere per terra la moneta allora nel momento in cui cade sul pavimento essa mostrerà una sola faccia. In questo modo la simmetria è rotta ed è esattamente quello che successe dopo la fase di Planck (vedi anche altra analogia in Figura 50). Ma prima del tempo di Planck l'universo viveva in uno stato di assoluta simmetria, rappresentata dall'unificazione di tutte le forze, dalla creazione di particelle e antiparticelle virtuali senza massa, e da uno spaziotempo ancora contorto su sé stesso. Dai 10 -43\ ai 10 -35\ secondi, il diametro dell'universo — all'inizio di questa fase temporale — doveva essere all'incirca quello della lunghezza di Planck, ovvero 10 milioni di miliardi di volte più piccolo di un atomo di idrogeno. Nei primi 10 -43\ secondi la densità e la temperatura dell'universo erano virtualmente infinite e l'universo era concentrato in un punto che denominiamo "singolarità cosmica". In questa fase non esisteva né tempo né spazio: in realtà il tempo rimaneva un concetto non identificabile, mentre lo spazio era compattato su sé stesso. Proprio in questa fase le dimensioni manifeste dell'univèrso erano 10, ovvero quelle previste dalla versione più accreditata della teoria delle superstringhe: queste dimensioni erano incastrate in uno stato dell' esistenza rappresentato da quella che viene definita "schiuma quantistica". In questa fase il vuoto era in grado di creare e annientare in continuazione (in forma del tutto simmetrica) mini-buchi neri, senza nessuna causa né effetto: i mini-buchi neri dunque erano le prime entità dell'universo, le prime "particelle", comunque particelle di vita incommensurabilmente piccola, dal momento che nascevano e morivano in continuazione nella schiuma quantistica. Proprio in questa fase potevano formarsi anche monopoli magnetici, a causa di distorsioni dello spazio-tempo; al contempo aumentava enormemente il numero di mini-buchi neri e anche di entità come i "wormhole" (un altro tipo di oggetti quantistico-relativistici, definiti anche come "micro-tunnel spaziotemporali"), alcuni dei quali potrebbero essere sopravvissuti fino ai giorni nostri come una componente dell'universo particellare. L'universo prima che si espandesse era dunque una particella infinitamente piccola. Ad un certo punto la Superforza iniziò a dividetsi in due forze: la gravità e la forza elettronucleare e allo stesso tempo le 10 dimensioni dell'era di Planck collassarono in 3 dimensioni spaziali e una temporale. Stavano nascendo lo spazio e il tempo. Secondo \p173 l’interpretazione della teoria delle superstringhe, al contempo iniziava ad apparire la materia sotto forma di

Page 75: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

stringhe nello spaziotempo. Le "particelle-stringa" nascevano proprio da quella miriade di mini-buchi neri creati dalla schiuma quantistica. Dai 10 -35\ ai 10 -32\ secondi, la temperatura iniziò a scendere da 10 32\ ai 10 281 gradi Kelvin. A questo punto la forza elettronucleare si divideva in interazione nucleare forte e in interazione nucleare elettrodebole. (24) In questa fase avevamo dunque 3 forze fondamentali luna separata dall'altra. Quando l'universo raggiunse la temperatura di 10 28\ gradi Kelvin, secondo la variante più recente della teoria del Big Bang, iniziò a liberarsi l'enorme energia contenuta nel vuoto quantistico la quale generò in una forma di "flash improvviso" una espansione colossale e accelerata, quella che il fisico Alan Guth (1947, tuttora vivente) ha denominato "inflazione". La causa dell'inflazione era dovuta proprio alla rottura della simmetria. A questo punto lo spaziotempo e la materia si separavano e mentre succedeva questo veniva emessa una quantità inconcepibile di energia. Questa energia finiva per produrre una specie di "sovrapressione" che andava a influenzare non le particelle di materia ma lo spaziotempo stesso: in sostanza le particelle se ne stavano ferme mentre lo spaziotempo si dilatava tra di esse ad un ritmo esponenziale e ad una velocità che nel sistema di riferimento dello spaziotempo stesso era di gran lunga superiore alla velocità della luce (pur rimanendo la velocità della luce tale e quale nel sistema di riferimento delle particelle, che invece rimanevano immobili). L'inflazione dunque era un'espansione della geometria dell'universo, non della materia in esso contenuta. L'inflazione non portò alla formazione di un solo universo, ma di un Multiverso costituito da tante bolle o universi-isola che rapidamente si allontanavano l'uno dall'altro fino ad uscire dai rispettivi orizzonti. In tal modo essa determinò la frammentazione degli orizzonti entro i quali si etano formati altri universi da un unico Big Bang. Il nostro universo è solo una delle infinite bolle a sua volta \0174 in espansione di un universo infinitamente più grande soggetto a quella super-espansione che fu l'inflazione. Da questo punto in poi tutto quanto succede alle altre bolle (un tempo unite causalmente in un solo ente) ci sfugge perché i loro fotoni non possono raggiungerci: da questo momento in poi noi possiamo studiare solo la bolla in espansione entro cui ci troviamo. Mentre il tempo passava e la temperatura diminuiva l'universo si gonfiava vistosamente al punto tale che nel giro di un millesimo di secondo il suo volume aumentava di un miliardo di miliardi di miliardi di volte, fino a raggiungere la dimensione di una mela con una temperatura di 10 -25\ gradi Kelvin. Questa fu la vera fase della creazione, almeno secondo la teoria del Big Bang. Il fenomeno dell'inflazione — una specie di illuminazione avvenuta 10 -32\ secondi dopo il Big Bang - aveva permesso la nascita dello spazio e del tempo. Dai 10 -32\ ai 10 -12\ secondi, di pari passo con lo sviluppo rapido della frammentazione delle interazioni fondamentali e amplificazione della rottura della simmetria, iniziava una fase in cui nascevano le prime particelle, sotto forma di quark e anti-quark, i quali annichilandosi generavano un bagno di fotoni. Si trattava in entrambi i casi di particelle altamente energetiche (quelle che poi andranno a costituire l'ossatura dei nuclei atomici), e ciò era reso possibile proprio dalle elevatissime energie dell'universo in quella fase. Nell'universo erano dunque nate assieme la materia e l'antimateria, le quali lottavano luna contro l'altra come antagoniste e senza che mai luna prevalesse su l'altra. In tal modo prevaleva invece l'annichilazione tra le due e conseguentemente l'universo finiva per essere costituito solo da un immenso bagno di fotoni nati dal processo di annichilazione. In questa fase dell'universo esso era quindi interamente dominato dalla radiazione, la quale era generata proprio dai tentativi non riusciti fatti dalla materia e dall'antimateria di emergere. Ma al contempo avveniva il processo inverso, una specie di reazione simmetrica che portava gli stessi fotoni nati dall'annichilazione a materializzarsi per creare a loro volta coppie di quark e anti-quark. Le reazioni in entrambi i sensi sono permesse dall'equazione di Einstein relativa all'equivalenza tra massa e energia. In tal modo abbiamo un universo che non si decide mai ad assumere una forma definitiva, dal momento che oscilla tra coppie di materia-antimateria e fotoni di luce. Una specie di "pulsazione" continua che alterna la materia-antimateria alla radiazione, che si sviluppa come una catena apparentemente interminabile. Eppure, per una misteriosa ragione che ancora non conosciamo, la materia doveva per forza finire per prevalere sull'antimateria per permettere all'universo di materia come lo conosciamo di esistere. Si deduce infatti che affinchè l'universo potesse assumere la forma che ha adesso era necessario che su "10 miliardi" di antiquark creati dovesse essersi creato un numero di "10 miliardi e uno" di quark. Una frazione infinitesima di materia di vantaggio! Quanto bastava per \p175 permettere alla materia di sopravvivere. È proprio così che ha avuto luogo quella che viene definita come "rottura della simmetria", quell'evento responsabile dell'esistenza della materia di cui siamo attualmente costituiti, che ha coinciso con l'inizio del mondo macroscopico, e che al contempo ha coinciso con il disaccoppiamento graduale delle interazioni fondamentali di pari passo con il passaggio da una fase di ordine (simmetria) ad una fase di disordine o entropia. Ma non sappiamo perché tutto questo è avvenuto né conosciamo cosa l'abbia causato: possiamo solo fare calcoli teorici che permettano di spiegate il come le cose possono essersi sviluppate ma non il perché e la causa primaria che hanno determinato la prevalenza della materia sull'antimateria. Possiamo in ogni caso contare il numero di fotoni

Page 76: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

che rimangono dopo le annichilazioni, osservando e misurando la "radiazione di fondo" che l'universo ha lasciato (una specie di "eco" del Big Bang), ovvero quel fossile di eventi successi molto tempo fa e che poi hanno portato ad un raffreddamento fino a 3 gradi Kelvin alla fase attuale dell'universo: i fotoni non sono altro che la manifestazione dei processi di annichilazione materia-antimateria avvenuti nelle prime fasi dell'universo. La radiazione fossile ci dice quanti fotoni c'erano in rapporto alle particelle di materia sopravvissute. Questo ci ha permesso di stabilire che — anche se solo per un'infinitesima parte - la materia ha prevalso sull'antimateria. Certamente se l'universo non avesse effettuato una scelta decisa, esso sarebbe ancora costituito da un bagno di fotoni determinato solo dalla "lotta simmetrica" che caratterizza l'annichilazione tra materia e anti-materia. Il nostro universo e noi esistiamo dunque grazie alla rottura della simmetria. (25) In ogni caso le prime generazioni di quark che esistevano nell'universo erano quelle ad altissima energia, come ad esempio i quark top, proprio quelli che ogni tanto fanno una fugace apparizione nei nostri acceleratori quando produciamo energie di collisione sufficientemente alte da farli rinascere per una frazione infinitesima \p176 di secondo. In quell'epoca era questa la generazione di quark a prevalere, poi al diminuire dell'energia e della temperatura, verrà lasciato il posto a quark molto meno energetici come i normali quark up e down. Ma bisognava aspettare ancora un po' perché questo succedesse. Dai 10 -12\ ai 10 -6\ secondi, l'universo si raffreddava sempre più fino a raggiungere una temperatura di un milione di miliardi di gradi Kelvin. Nel frattempo esso si espandeva fino a diventare una sfera di 300 miliardi di chilometri di diametro. Allo stesso tempo l'interazione elettrodebole si divideva in interazione debole e in interazione elettromagnetica. A questo punto l'universo si trovava con quattro interazioni frammentate e non più unite come un tempo, una situazione più o meno simile a quella di adesso, eccetto che per i valori della temperatura, della densità e delle dimensioni dell'universo in questa era. Infatti in quella fase benché la frammentazione delle quattro interazioni fosse avvenuta, l'universo era ancora infinitamente più piccolo di quello che è adesso. Proprio in questa era, dopo l'apparizione delle particelle che un giorno sarebbero andate a costituire i nuclei atomici (i quark), iniziarono ad apparire particelle più leggere - i leptoni — quelle che avrebbero poi dato la nascita passando attraverso generazioni di energia decrescente (tauoni e muoni) agli elettroni che costituiscono gli atomi della materia, oltre che molto sensibili all'interazione debole. Al contempo, quando i processi di annichilazione cominciavano ad attenuarsi, iniziavano i processi di decadimento delle particelle che portavano molti bosoni massicci e mesoni a decadere in particelle più piccole. Ciò era reso possibile dal fatto che in questa fase le particelle avevano sufficiente tempo per decadere, cioè prima di essere distrutte dalle loro antiparticelle che in questa fase iniziavano a diminuire. Dai 10 -6\ ai 10 -4\ secondi, l'universo raggiungeva una temperatura mille volte inferiore a quella che si aveva nella fase precedente. In questo periodo l'universo era diventato grande come è il Sistema Solare adesso. Dal momento che la temperatura si era abbassata, questo creava le condizioni giuste affinchè i quark (sopravvissuti all'antagonismo con le loro controparti anti-quark) dovessero per forza legarsi tra loro per formare particelle più pesanti. Infatti l'energia disponibile non era più sufficientemente alta per tenerli liberi e slegati dalla materia, e al contempo la materia era in grado di esistere per periodi più lunghi senza essere distrutta dall'energia: in tal modo la materia si avviava verso condizioni di stabilità sempre crescente. Inoltre solo quark poco energetici (come i quark up e down) potevano sopravvivere, mentre quelli altamente energetici (cioè quelli della seconda e terza generazione) scomparivano. E infatti questa è la fase in cui i quark - ovvero i quark normali - unendosi in triplette formeranno i barioni, cioè i protoni e i neutroni, che rappresentano la prima forma di materia realmente stabile. In questo periodo dell'evoluzione \p177 universale gli antiquark inizieranno a scomparire dall'universo, dal momento che il processo di creazione avrà creato una tale quantità di quark da determinare un universo interamente dominato dalla materia. Gli antiquark rimanenti saranno spariti per annichilazione con le loro controparti, ma siccome il numero di quark supera in questa fase grandemente quello degli antiquark, allora resteranno per forza solo i quark, seppur lievemente inondati da un bagno residuo di radiazione fotonica che si sarebbe ben presto estinta. Infatti in questa fase l'energia e la temperatura erano divenute troppo basse per fare in modo che i fotoni fossero in grado di rimaterializzarsi sotto forma di coppie di quark e antiquark. A questo punto era la materia a dominare l'universo e la sua evoluzione successiva. Dai 10 -4\ ai 1 secondi, la temperatura era calata fino ad arrivare a soli 10 milioni di gradi Kelvin. A queste temperature aveva luogo una seconda annichilazione tra la materia e l'antimateria, ma ciò riguardava non le particelle pesanti come i quark che avevano già iniziato a far nascere i nuclei atomici, bensì i leptoni e le loro controparti - gli anti-leptoni (come ad esempio i positroni). Le coppie di leptoni e di antileptoni andavano allora soggette allo stesso processo che aveva caratterizzato i quark: ciò portò ad un nuovo oceano di fotoni nati da questo nuovo processo di annichilazione. Alla fine, come nel caso dei quark, una piccola frazione di leptoni sopravvisse. A questo punto, l'antimateria scompariva completamente dall'universo. Mentre i leptoni

Page 77: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

sopravvissuti avrebbero dato origine agli elettroni che sarebbero andati a costituire assieme ai barioni (protoni e neutroni) gli atomi veri e propri. Tuttavia in questa fase la temperatura era ancora troppo elevata per permettere agli elettroni di unirsi ai barioni. In questo momento l'universo è una palla caldissima composta da un plasma di leptoni e barioni liberi. Nello stesso tempo i neutrini cessano di interagire con la materia e si separano. Da 1 a 3 secondi dalla nascita dell'universo, abbiamo finalmente la prima formazione dei nuclei atomici. Ciò è reso possibile dal fatto che la temperatura è ora scesa a 1 milione di gradi Kelvin, sufficientemente bassa da permettere ai barioni di sopravvivere senza frammentarsi in quark e sufficientemente alta da permettere il processo della fusione nucleare, che è quella che porta alla formazione degli elementi chimici partendo dai loro nuclei per arrivare agli atomi veri e propri. Infatti è così che ha inizio il processo in cui i protoni da soli formano i nuclei di Idrogeno. Poi, quando i protoni si incontrano con i neutroni, essi formano i nuclei di Elio (2 protoni + 2 neutroni). £ in questa fase che ha luogo la cosiddetta “nucleosintesi primordiale" degli elementi chimici. Fu proprio questa "fase fredda" e altamente espansa dell'universo a formare il 75% dei nuclei di Idrogeno, il 25% dei nuclei di Elio, e qualche traccia di Litio. A questa epoca l'universo creò il 99 % di tutta la materia che c'è adesso. Tutti gli altri elementi a peso atomico crescente verranno sintetizzati solo in una fase successiva nei processi \p178 di fusione termonucleare nelle stelle. Perché questo? Semplicemente perché per poter permettere la fusione di nuclei a grande peso atomico (come ad esempio il ferro) era richiesta una temperatura molto più alta di quella necessaria per fondere nuclei a piccolo peso atomico come l'Idrogeno e l'Elio. Ma ciò non era possibile perché l'universo, espandendosi, tendeva a raffreddarsi gradualmente. In tal modo ci fu un periodo in cui la temperatura scendendo a valori bassi rispetto a quelli delle fasi precedenti aveva raggiunto un livello ottimale per la fusione degli elementi più leggeri (come l'Idrogeno), ma siccome poi la temperatura dell'universo stava continuando a calare inesorabilmente senza sosta, non ci fu proprio modo né tempo di creare per fusione i nuclei più pesanti che invece richiedevano una temperatura più alta e non più bassa. In tal modo i processi di fusione nucleare che hanno portato alla creazione dei primi nuclei atomici, si sono fermati alla sintesi dell'Elio (26) e forse (seppure in misura molto minore) del Litio. La sintesi nucleare degli elementi più pesanti (come il Ferro e oltre) è stata resa possibile in una fase di molto successiva, quando l'universo sarebbe stato completamente formato, e cioè quando si sarebbero formate le stelle. Le stelle, anch'esse hanno sintetizzato Elio partendo dall'Idrogeno, ma potendo raggiungere nei loro interni temperature sufficientemente elevate esse (includendo anche la fase di supernova) sono riuscite a sintetizzare anche i nuclei di tutti gli elementi pesanti della tavola periodica. Pertanto dobbiamo all'evoluzione cosmologica la formazione di tutti i nuclei di Idrogeno e una parte della sintesi dell'Elio, mentre tutti gli altri elementi, Elio incluso, sono stati sintetizzati dalla fusione nucleare che avviene nelle stelle. Ovviamente ciò è stato reso possibile dalla grandissima stabilità delle stelle come fucine nucleari e dai tempi lunghissimi con cui in esse ha luogo il bruciamento nucleare fino alla sintesi dei nuclei più pesanti. Questo è un processo che avviene tuttora nell'universo. In sintesi: l'evoluzione cosmologica è responsabile della fusione nucleare degli elementi molto leggeri, mentre le stelle sono responsabili della fusione nucleare di tutti gli elementi più pesanti. Da 3 minuti a 300.000 anni, la temperatura è scesa a 10.000 gradi Kelvin e successivamente fino a soli 3 gradi Kelvin. Fino a questo momento i fotoni venivano continuamente emessi e assorbiti dalle particelle di cui era fatto l'universo. Ma alla caduta della temperatura e densità dell'universo (che diveniva di volta in volta molto meno denso e sempre più freddo a causa della sua rapida espansione), i fotoni cessavano di interagire con la materia. A questo punto i fotoni potevano attraversare l'universo senza ostacolo, fino a portare ad un vero e proprio disaccoppiamento tra materia (le particelle) e radiazione (i fotoni). Fu così che l'universo divenne "trasparente". La radiazione a 3 gradi Kelvin (la cosiddetta "radiazione fossile") che gli astrofisici misurano un po' in tutte le direzioni è proprio quella corrispondente alla fase di trasparenza dell'universo. Cioè è l'unica fase in cui l'occhio dei telescopi può penetrare e guardare lontano. \p179 • Da 300.000 anni e oltre, la temperatura è scesa a tal punto da permettere la formazione di atomi. Infatti si formano le condizioni giuste per permettere agli elettroni di essere catturati dai nuclei di Idrogeno e di Elio. A questo punto l'interazione elettromagnetica poteva giocare il suo ruolo, quello che più o meno gioca adesso. Le fasi successive dell'evoluzione dell'universo porteranno a formare prima le galassie e poi le stelle (12 miliardi di anni fa), il Sistema Solare e la Terra (4.6 miliardi di anni fa) e finalmente a determinare l'apparizione della vita (3.4 miliardi di anni fa). Ma dovranno passare altri 3.4 miliardi di anni per arrivare finalmente a scrivere questo libro! Non sappiamo quale sarà il destino finale dell'universo, se esso si espanderà indefinitamente oppure se ricollasserà sotto l'azione della sua stessa gravità, magari in un ciclo infinito di collassi ed espansioni simili

Page 78: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

ad un cuore con una frequenza di battito di uno ogni 20 miliardi di anni o giù di lì. Sicuramente l'energia oscura - che funziona un po' come una gravità negativa - gioca a favore dell'espansione indefinita. \p180 Ma dall'altro lato la materia oscura gioca in senso opposto. Forse riusciremo a dare una risposta - sempre che il modello del Big Bang sia effettivamente valido — quando conosceremo meglio i dettagli relativi alle varie componenti (barioniche e non-ba-rioniche) della materia oscura e in particolare al fatto che il neutrino abbia effettivamente massa o meno. In parallelo continueremo a effettuare esperimenti con gli acceleratori di particelle, raggiungendo (come con lo HLC del CERN) energie sempre più elevate. Gli acceleratori di particelle sono probabilmente il più formidabile arnese sperimentale per la cosmologia, perché ci permettono di riprodurre in laboratorio - anche se per istanti lunghi solo qualche milionesimo o miliardesimo di secondo -le varie generazioni di leptoni e adroni che si erano succeduti mentre l'universo si espandeva fino a raggiungere la configurazione che ha adesso (vedi Schema 4). Con gli acceleratori resuscitiamo per qualche istante le particelle primordiali, proprio quelle che hanno costituito l'ossatura del nostro meraviglioso universo. RIASSUNTO - Capitolo 4 La materia come la conosciamo è fatta di fermioni - suddivisi in quark e leptoni, a loro volta suddivisi in tre generazioni - e si manifesta attraverso quattro interazioni fondamentali, dove particelle denominate "bosoni" hanno il ruolo di portatori di forze: il "Modello Standard" riassume tutte le nostre conoscenze sulle particelle e sulle interazioni che le caratterizzano. L'obiettivo fondamentale della fisica particellare è di cercare una teoria che unifichi queste quattro interazioni: il miglior candidato è, per ora, la teoria delle superstringhe. Lo studio dei raggi cosmici e l'uso degli acceleratori di particelle sono I due strumenti principali per sondare la materia nei suoi anfratti più reconditi. Nel secondo caso, facendo collidere tra loro delle particelle, è possibile creare nuove particelle dai prodotti di decadimento: sono queste le particelle che si cercano. Tanto maggiori sono le energie raggiunte e tanto maggiore è la probabilità di scoprire le particelle ultime. AI momento attuale il più grande obiettivo della fisica è di capire per quale ragione le particelle hanno massa. La natura delle particelle e le tre generazioni a cui esse appartengono sono strettamente connesse alle varie fasi evolutive del nostro universo, a partire dal Big Bang, quando tutte e quattro le interazioni erano unite in una sola "Superforza" E dove materia e antimateria esistevano in una condizione di simmetria. La rottura della simmetria ha determinato la struttura dell'universo di materia come lo conosciamo. Riuscire a comprendere la natura della "materia oscura" nell'universo — in particolare la sua componente non-barionica - potrà aiutarci a capire quale sarà il futuro dell'universo E al contempo a trovare possibili tracce residue delle "superparticelle" prodotte nelle fasi iniziali dell'universo, assieme anche a misteriose particelle come i monopoli magnetici e I mini-buchi neri. I neutrini, se hanno realmente massa non nulla, possono assumere un ruolo fondamentale nell'evoluzione dell'universo, anche come componente importante della materia oscura. \p181 QUESITI 1. Quali interazioni conferiscono stabilità alla materia e quali no? 2. Si provi a dare il nome a tre leptoni e a tre quark. 3. Che differenza c'è tra il bosone "fotone" e il bosone "gluone" e come dinamizzano le rispettive interazioni? 4. In che cosa si differenzia, nei quark, il ruolo della carica elettrica da quello della carica di colore? 5. In che modo l'antimateria è a volte importante nell'interazione nucleare forte e nell'interazione nucleare debole? 6. Che differenza sussiste tra i gluoni e i mesoni? 7. Di che cosa sono fatti i protoni, i neutroni e i mesoni? 8. Perché i protoni all'interno dei nuclei atomici non si respingono? 9. Quali particelle possono decadere nel caso dell'interazione debole? 10. Quali sono le particelle più importanti tra i "raggi cosmici" e perché? 11. Perché nelle collisioni che effettuiamo con gli acceleratori di particelle, cerchiamo di raggiungere energie sempre più elevate? 12. In che modo riusciamo a dedurre la presenza di neutrini con gli acceleratori? 13. Per quale ragione particelle senza massa come i fotoni possono avere elevate energie? 14. In che modo la teoria delle superstringhe può supplire alle mancanze del Modello Standard? 15. Per quale ragione lo studio della materia oscura è importante sia in fisica delle particelle che in cosmologia? 16. Qual era il ruolo del vuoto quantistico nelle fasi iniziali dell'universo? 17. Per quali ragioni non era possibile la formazione di aromi nelle fasi iniziali dell'universo? 18. Per quale ragione il Big Bang non ha permesso la sintesi degli elementi più pesanti dell'Elio? \p183 \t CAPITOLO 5 Riflessioni filosofiche sull'universo particellare

Page 79: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Lo studio della struttura intima della materia nacque circa 3000 anni fa, quando si iniziò a pensare che esistessero mattoni fondamentali della materia, particelle indivisibili. Da ciò scaturì il concetto di "atomismo" che si sviluppò però solamente come parte della filosofia, seppure con un crescente approccio meccanicista alle leggi di natura. Ma, a partire dai primi decenni del '900 è bastato meno di un secolo per sviluppare le conoscenze di fisica particellare che abbiamo oggi. Queste conoscenze sono integrate nel cosiddetto "Modello Standard" delle particelle elementari, che raccogliendo assieme le teorie dell'elettrodinamica e della cromodinamica quantistica ci presenta il modo in cui è strutturata la materia nei suoi livelli più profondi. Gli esperimenti con gli acceleratori hanno dimostrato in maniera inconfutabile che i modelli matematici sono in grado di prevedere i risultati delle sperimentazioni in maniera straordinariamente accurata. L'universo particellare è governato da complesse leggi matematiche il cui rigore è riscontrabile nelle scoperte che ormai ogni giorno vengono effettuate presso gli acceleratori di tutto il mondo. Ma restano ancora molti importanti problemi che il Modello Standard non ha ancora risolto e che pongono tuttora i seguenti interrogativi: • In che modo ha avute luogo la rottura della simmetria tra materia e anti-materia e perché oggi non osserviamo oggetti di antimateria (come ad esempio galassie) se non in forma di particelle elementari (come ad esempio i positroni) che invece appaiono solo per un attimo negli esperimenti di collisione particellare? • Che cos'è esattamente la materia oscura e in che modo essa condiziona il destino dell' universo? • Per quale ragione il Modello Standard non è in grado di predire la massa delle particelle? • Esiste il basane di Higgs e in che modo è collegato alle altre particelle? • I quark e i leptoni sono realmente particelle fondamentali oppure esse sono composte da particelle ancora più piccole? • Esistono le superparticelle e che massa hanno? • È il protone in grado di decadere e con quale scala di tempo? \p184 • Esistono i monopoli magnetici e i mini-buchi neri e se sì, in che modo hanno condizionato l'evoluzione dell'universo? • Perché esistono tre ben precise generazioni di quark e leptoni? • In che modo la gravità si correla con le altre tre interazioni? • Quale ruolo ha avuto esattamente il vuoto quantistico nella creazione dell'universo? • Le leggi di conservazione - per le particelle - sono veramente valide in tutti i casi oppure no? • Abbiamo una conferma realmente incontrovertibile che il neutrino ha massa? • Quali sono le condizioni più estreme delle stelle di grande massa a livello di struttura particellare? • Qua! è la vera natura dei "lampi Gamma" osservati nell'universo, a livello di fisica particellare? • Da cosa traggono energia alcune componenti altamente energetiche dei "raggi cosmici"? • Davvero solo il modello cosmologico del Big Bang può spiegare l'evoluzione delle particelle? • Qual è il modello fisico definitivo in grado di spiegare il fenomeno della fusione fredda? • Esiste una reale compatibilità tra le leggi seguite dai chimici e quelle seguite dai fisici particellari, oppure ci sono due modi differenti di intendere la materia nel suo complesso? Non ci sono dubbi che la teoria delle superstringhe - pur non essendo parte dell'architettura matematica del Modello Standard - eserciti un notevole fascino un po' su tutta la comunità dei fisici. La sua eleganza matematica è indiscutibile e potrebbe non solo porsi molto presto come la vera "Teoria del Tutto", ovvero la teoria ultima di unificazione delle forze, ma anche spiegare buona parte dei quesiti sopra posti. Chiaramente - a differenza di quanto succede con il Modello Standard che seppur nelle sue limitazioni è comprovato sperimentalmente con un ottimo accordo tra sperimentazione e teoria — manca ancora una conferma sperimentale che convalidi la teoria delle superstringhe; oggigiorno, infatti, è possibile concepire delle convalide solo indirette di questa teoria. In alcuni settori della società - a volte anche presso alcuni "fisici dissidenti" - spesso non manca la convinzione che la "fisica standard" abbia, per cosi dire, "deviato dalla retta via", in quanto sarebbe oggi influenzata da tutta una serie di interessi economici e industriali che ne condizionerebbero le scelte anche con una possibile manipolazione dei fisici stessi. Ad esempio, molti si chiedono in che modo vengano giustificate le spese enormi per costruire acceleratori particellari e sistemi sperimentali che permettano di avviare il processo di fusione nucleare calda artificiale, trascurando \p185 invece quasi totalmente ricerche come quella sulla fusione fredda (che richiedono risorse economiche relativamente limitate) oppure quelle sulla "non-località quantistica".

Page 80: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

C'è da dire che tra coloro che si pongono questi interrogativi c'è un po' tutta la fauna possibile, purtroppo spesso inquinata da istanze veramente discutibili e dallo scarsissimo profilo scientifico. Ma se tentiamo di osservare la situazione dall'alto notiamo, senza alcun dubbio, come alcuni aspetti della scienza fisica siano stati clamorosamente trascurati, per non dire soppressi. Una delle prove più lampanti è quanto è successo negli USA quando NikolaTesla operava con i suoi esperimenti: negli ultimi anni della sua vita le sue ricerche furono completamente osteggiate da un larga parte del mondo accademico e senza valide ragioni. Anche ai giorni nostri — pur in mezzo ad un marasma di pseudoinventori e pseudoscienziati (che purtroppo godono di un seguito immeritato proprio grazie all'appoggio di persone che non hanno la più pallida idea né dei contenuti né dei metodi della scienza) - esistono anche menti brillanti (fisici professionisti e al contempo "voci fuori dal coro") completamente inascoltate al punto tale da fare pensare che la "fisica standard" a volte si lasci trascinare da pregiudizi irrazionali, facendosi spesso sfuggire degli spunti che forse potrebbero fornire un contributo non trascurabile ad alcuni dei 19 quesiti fondamentali posti sopra. Non ci sono dubbi che alcune delle "teorie alternative" sono esposte in maniera talmente astrusa da essere completamente incomprensibili ai più; non dimentichiamo che la scienza è fatta sia di semplicità che di eleganza matematica. Non è così per altre "teorie" che - seppur esplicitate in maniera a volte non sufficientemente quantitativa — nascondono al loro interno una loro intrinseca coerenza. Non dimentichiamo che un modello matematico non nasce mai dal nulla ma sempre da un'idea, e che l'idea - oltre che frutto di una profonda conoscenza delle problematiche — nasce dall'intuizione prima che dal calcolo. Ascoltare di più certe persone non guasterebbe. Può essere che alcuni individui ferrati nelle scienze fisicomatematiche, o per ragioni di carattere o per altre ragioni, si siano trovati isolati, o per lo meno al di fuori delle strutture ufficiali di ricerca in fisica. Ma il processo di ideazione scientifica funziona un po' come il principio di conservazione dell'energia e della massa. In certi individui questo processo è continuamente in attività: se non esistono le strutture dove esplicare il loro genio, le idee di certi individui escono fuori per forza allo stesso modo in cui tentiamo senza successo di chiudere ermeticamente 10 litri di acqua in un recipiente che ne può contenere solo uno. Le idee scientifiche semplicemente "prorompono" ovunque esse vengano generate. È una risorsa dell'umanità e come tale va passata al vaglio. Questo oggi succede abbastanza raramente. Tutte le idee che vanno contro il "paradigma" vengono sistematicamente ignorate e questo non è un comportamento scientifico, bensì un atteggiamento settario. Con tutto questo non si intende in alcun modo mettere in discussione i formidabili risultati raggiunti dal Modello Standard e La matematica che ci sta dietro, \p186 ma si vuole solo ricordare che un tempo le idee di genio erano più ascoltate, anche perché fare scienza (come ad esempio ai tempi della "scuola di Via Panisperna" di Enrico Fermi, o a quelli della scuola quantistica di Bohr a Copenhagen) significa farlo con passione e *non solo* come mero giochetto matematico. Ci sono in giro alcuni "cavalli pazzi" che sicuramente non si troverebbero bene all'interno di "strutture conformi" come ad esempio il CERN ma che una volta "domati" (il che non vuol dire "controllati") potrebbero rivelarsi una sorgente preziosa di idee per l'avanzamento della ricerca in fisica. (27) Non dimentichiamoci di loro, semmai rimbocchiamoci le maniche e domandiamoci: "In che modo la fisica che abbiamo costruito fino a ora è corretta?". Oppure: "Ma siamo veramente sicuri che le anomalie in natura vadano sistematicamente ignorate?". Le anomalie in particolare potrebbero aprirci delle porte inaspettate: ai più sfuggono, ad alcuni no. Abbiamo parlato di "geni incompresi" perché le loro idee in fisica vengono ignorate con ogni genere di pregiudizio. Ma la scienza è sempre proceduta cosi! Dobbiamo ricordarcene e non ripetere perpetuamente gli errori del passato. Idee che un tempo erano considerate millanteria oggi sono pienamente confermate ufficialmente. Ma non abbiamo ancora parlato di chi, "sulla base dei dati e non di pure elucubrazioni", ha trovato delle crepe in alcuni dei modelli della fisica standard. Non si tratta in questo caso del Modello Standard delle particelle, che sicuramente dovrebbe essere condiviso un po' da tutti gli addetti ai lavori. Qui si tratta del Big Bang, come modello cosmologico. È la teoria del Big Bang realmente corretta oppure no? Non ci vuole un grosso sforzo per capire che - a prescindere dal rigore matematico delle attuali teorie cosmologiche e dal modo estremamente elegante e coerente con cui viene prevista l'evoluzione delle particelle e delle interazioni fondamentali all'evolvere dell'universo - la teoria del Big Bang in sé non è una teoria sufficientemente falsificabile. I pochi "osservabili" che la comproverebbero, come ad esempio la radiazione fossile a 3 °K, possono essere spiegati anche in altra maniera. Non poche osservazioni a opera di astronomi tenaci come Halton Arp (1927, tuttora vivente) dimostrerebbero invece che la teoria del Big Bang avrebbe grosse falle a causa del possibile legame intrinseco che unirebbe certe galassie ad alcune quasar nonostante la grande differenza dei loro redshift, quello che - alla luce della teoria del Big Bang viene comunemente interpretato come dovuto alla enorme differenza di distanza cosmologica di questi oggetti.

Page 81: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Si tratta di dati, non di teorie autarchiche. Non per niente grandi astrofisici teorici come Fred Hoyle (1915-2001) e Jayant Narlikar (1938, tuttora vivente) non hanno mai preso alla leggera i dati astronomici anomali raccolti con grande accuratezza da Arp. Eppure Arp è stato cacciato dagli osservatori astronomici solo perché aveva osato far presente che di fatto esistono delle grosse discrepanze tra il modello del Big Bang e alcune osservazioni cruciali. Non basta questo per demolire completamente il modello del Big Bang, ma perlomeno basta per chiedere a fisici e ad astrofisici di rimboccarsi le maniche e di riconsiderare tutto \p187 quanto, assieme e senza polemiche, ma solo nell'interesse della conoscenza del reale. Non dimentichiamo che non sempre i modelli della fisica attuale corrispondono alla realtà, spesso essi sono solo la mappa di un territorio che ancora non conosciamo sufficientemente bene. Il Modello Standard delle particelle - proprio per la sua formidabile corrispondenza tra modelli matematici e osservazione e nonostante la sua attuale incompletezza - è indiscutibile: qui una sofisticatissima matematica è in grado di prevedere in maniera "metronomica" quello che sarà possibile osservare con gli acceleratori. Ma non è detto che l'evoluzione prima descritta dell'universo particellare sia avvenuta realmente con il Big Bang. Condizioni in grado di produrre quark e leptoni di terza generazione e di unificare le forze sia a livello di grande unificazione (interazione elettronucleare) che a livello di teoria del tutto (interazione elettronucleare e gravitazione unite in una unica forza) potrebbero prodursi anche localmente, magari anche nei nuclei di galassie, dove come ben sappiamo hanno costantemente luogo mastodontiche e continue accelerazioni di particelle. La stessa evoluzione particellare prevista dalla teoria del Big Bang potrebbe anche realizzarsi "localmente" e ovunque in luoghi estremi dell'universo come i suddetti nuclei delle galassie attive oppure certe stelle collassate, senza per questo dover affermare un po' come un dogma che l'universo sia stato creato una volta sola da un unico grande botto. Nessuno ha ancora dimostrato che il Modello Standard, cosi come la teoria delle superstringhe, debbano per forza perdere di validità se i fenomeni in natura avvenissero in un "universo stazionario", dove la creazione è continua e da sempre, un universo che non ha mai avuto inizio e mai avrà fine. Questo non è voler stabilire un nuovo dogma - può magari darsi che la teoria del Big Bang debba rivelarsi corretta - ma si vuole semplicemente indurre la malizia che non tutto di quello che crediamo di sapere possa corrispondere effettivamente alla verità. I dubbi non sussistono in merito ai modelli che spiegano la natura delle particelle e delle interazioni che le legano, i dubbi semmai sussistono su una parte - quella più macroscopica - dell'astrofisica e della cosmologia. Semmai nessuno - credo - possa avere dubbi sul fatto che sarà la fisica delle particelle a stabilire come deve agire l'astrofisica e non il contrario. Ecco perché è così importante adesso effettuare ricerche approfondite su argomenti di punta come la materia oscura nell'universo e certi fenomeni ad altissima energia responsabili dell'emissione di una parte dei raggi cosmici. Un altro problema che l'astrofisica attuale ha molto trascurato è la presenza di fenomeni elettrici nell'universo. Tutti i fenomeni astronomici sono sostanzialmente attribuibili alla gravità come forza realmente determinante (dalla nascita di una stella al suo equilibrio interno), mentre l'elettricità e i campi magnetici che essa crea sono stati completamente trascurati, imponendo l'assunzione arbitraria che i plasmi cosmici siano elettricamente neutri e che quindi l'elettricità sia completamente ininfluente sulle strutture stellari. Non sono pochi — a cominciare dal fisico norvegese Kristian Birkeland (1867-1917) e dal fisico svedese premio NobeL Hannes Alfvèn \p188 (1908-1995) - quelli che nutrono dei dubbi su alcuni approcci un po' "integralisti" dell'astrofisica. Perché si ricorda tutto questo e cosa c'entra con le particelle elementari? C'entra eccome! Verificare se le forze elettriche siano o meno influenti nel determinare la struttura e la dinamica dell'universo potrebbe aiutarci a comprendere meglio in che modo la gravità e le altre forze interagiscono tra di loro, perlomeno sulle grandi scale. Se fisici particellari e astrofisici riusciranno realmente a lavorare di comune concerto e non arroccati nelle loro rispettive parrocchie, può darsi che questo possa contribuire a dare una risposta ad almeno una parte degli interrogativi che affliggono tuttora le scienze fisiche, nonostante l'indiscutibile progresso raggiunto in meno di un secolo. Per poter arrivare a certi risultati e per fare in modo che il progresso scientifico evolva, occorre essere pronti a "dismettere" certe teorie se le circostanze lo richiederanno. In scienza non si può andare avanti propugnando "dogmi indiscutibili" e tentando di tappare falle un po' ovunque (ma questo è più un male dell'astrofisica che non della fisica particellare), specie quando certi dati osservativi contraddicono i modelli teorici. Prima o poi tutto crolla. Ecco perché è importante ascoltare tutti quelli che, dotati di qualifiche appropriate, raziocinio, conoscenza e creatività, abbiano qualcosa da dire sulla natura dell'universo e della materia in esso contenuta.

Page 82: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

A questo punto non si può non passare ad argomenti di natura prettamente filosofica cominciando da una domanda: "La fisica particellare è riduzionista?". Molti infatti ritengono che la fisica particellare sia riduzionista, ovvero tesa a frammentare la materia in tutte le sue parti per poter capire come funziona l'universo. Ma queste persone - che non conoscono realmente quali siano gli scopi dei fisici particellari — non sanno che l'obiettivo di questi ultimi è esattamente l'opposto. La procedura di frammentare la materia con i collisori per poter arrivare ai mattoni fondamentali è in sé sicuramente riduzionista, ma lo scopo non lo è affatto. L'elettrodinamica e la cromodinamica quantistica ci insegnano che l'obiettivo non è quello di fare una collezione zoologica di particelle, ma di capire il modo in cui le forze che governano i vari dpi di particelle possono interagire tra di loro e di come esse possano essere - a certi livelli di energia - completamente unificate in una unica interazione. In poche parole, frammentando la materia nelle sue parti si può comprendere la natura del tutto nella sua globalità. E infatti l'obiettivo dei fisici particellari è proprio quello di arrivare ad una teoria unica, una teoria che unifichi tutte le interazioni in una sola. Dunque i fisici particellari procedono in maniera riduzionista per raggiungere un obiettivo in tutto e per tutto olistico. Questo è l'obiettivo che si prefiggono i fisici che lavorano al miglioramento e all'ampliamento del Modello Standard, ma è ancor più l'obiettivo di coloro che nell'arco di una ventina di anni hanno messo in piedi la più elegante teoria di grande unificazione che esista al momento: la teoria delle superstringhe. \p189 La conoscenza che viene raggiunta dai fisici particellari è conoscenza reale e non illusoria, ma questo lo capisce solo chi anche solo un po' è addentro alla materia. Del resto lo scopo di questo libro è anche di trasmettere questo a chi legge e soprattutto ai giovani. Che poi esistano affascinanti procedure della fìsica teorica - come ad esempio quella del fisico quantistico David Böhm (1917-1992) - che mirano direttamente alla costruzione di modelli olistici della realtà, questo è un altro discorso. Si tratta di un modo alternativo di guardare l'universo, in questo caso nella sua globalità e interezza fin dall' inizio. Le profonde ricerche di Böhm sul potenziale quantico e sull'ordine implicato, mostrano infatti che lo studio della fisica può prendere differenti angolazioni, che non sono antitetiche alla presunta "frammentarietà" e riduzionismo della fisica particellare, ma sono a esse del tutto complementari. In questo modo - usando due procedure differenti (una in "modalità zoom" e una "in modalità grandangolo") - è possibile amplificare il nostro potenziale di conoscenza del mondo. Ma accusare la fisica particellare di colpe che non ha, va biasimato. Semmai si invitano i detrattori del "metodo standard" di approccio allo studio delle leggi di natura, a studiare un po' più a fondo quello che loro criticano e soprattutto a rispolverare i metodi matematici della fisica. E non si tratta solo di questo. Se solo si provasse un po' di più a riflettere sui risultati raggiunti dalla fisica particellare e — addirittura — a meditare sulla metafora che l'interazione particellare mostra ogni momento, si finirebbe per scoprire che in questi studi non trattiamo affatto un universo cieco e meccanicista. Semmai questo succedeva ai tempi di Democrito, ma non ai giorni nostri. Non si possono confondere gli effetti con gli scopi. Tutto nell'universo sembra funzionare come un motore o come un software, e non per questo si deve per forza pensare che l'universo sia una macchina cieca e folle. Si provi ad esempio a guardare la meravigliosa danza dei quark con i gluoni, il miracolo continuo del legame chimico, la natura duale delle particelle (sia onde che particelle), gli incredibili equilibri che si vengono a creare all'interno delle stelle mentre ha luogo la fusione nucleare, la magica creazione da parte di un fotone senza massa di coppie di particelle e antiparticelle dotate di massa, la trasformazione delle particelle che ha luogo nei processi di decadimento, oppure il semplice ruolo del vuoto quantistico nel creare particelle virtuali apparentemente dal nulla. Ci si accorgerà - proprio scomponendolo nelle sue parti ma mai dimenticandoci del risultato globale - che l'universo ha un significato, e forse anche un fine. L'universo può anche non avere un Dio creatore (ma è davvero necessario? O anche se esiste perché ci deve interessare?), ma esso mostra senza alcun dubbio una raffinata intelligenza intrinseca. Ad esempio le interazioni che hanno luogo tra particelle — dove tutto non avviene solo per necessità ma anche con perfetta armonia — sono solo la rappresentazione microstrutturale di una formidabile macchina intelligente in tutte le sue parti. Ma a che serve l’intelligenza se dietro non c'è anche una coscienza? Questa è semplicemente la differenza tra il braccio e la mente (quella vera). Forse l'intelligenza che alberga nell'universo non è fine a se stessa. Che senso avrebbe allora l'universo? Si provi a meditare - oltre che a studiare — su quello che \p190 emerge dalle ricerche di fisica particellare, come ad esempio fa il fisico Giuliana Conforto quando elabora la sua ipotesi sul cosiddetto "Universo Organico". Chi ha un'antenna in più si accorgerà che l'universo nella sua globalità è parte di noi stessi e se noi abbiamo una coscienza, allora ce la deve avere anche l'universo in cui viviamo. Assistere alla nascita di una particella da un acceleratore può allora essere vissuta come un'esperienza molto profonda, che va ben oltre i calcoli della teoria elettrodinamica e cromodinamica.

Page 83: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Non si può non notare che nulla è isolato in ciò che studiamo ma che tutte le parti sono tra loro dinamicamente interconnesse tramite una legge fondamentale - il principio di conservazione dell'energia. Non si può allora non individuare un'intelligenza nella nascita, nella morte e nella trasformazione delle particelle. Oltre alla fisica che stiamo imparando a conoscere piuttosto bene, possiamo intuire -se ci pensiamo a fondo - che dietro tutto questo esistono anche un significato e una parabola per tutti noi. Forse il messaggio più importante che il mondo sub-nucleare vuole trasmetterci è che nulla è slegato da niente ma tutto interagisce e si trasforma in continuazione da una forma all'altra e da una polarità all'altra, lasciando intatta l'eternità dell'Uno che vive dietro tutto questo. Un'intelligenza grandiosa che forse non sa di esserlo, forse il lavoro dei fisici è proprio quello di fare in modo che Dio prenda autocoscienza di sé. Questo è un po' il mio messaggio ai giovani (ma anche ai meno giovani) se decideranno di avvicinarsi alla fisica delle particelle o alla cosmologia: «Studiate a fondo la matematica che regola le interazioni particellari. Imparate fin da subito a giocare con le simulazioni numeriche che prevedono i vari decadimenti che hanno luogo quando vengono fatte collidere due particelle. Inizialmente crederete di impazzire. Ma se poi tenete duro, avrete in mano lo strumento per conoscere come funziona la "Mente di Dio", perché da quel momento voi sarete sintonizzati con essa. Solo allora, superato il tremendo sbarramento matematico che tiene lontano il 99% della gente da questi studi, scoprirete la Forza che vi spingerà ad andare avanti senza fine in queste ricerche. Avrete scoperto la molla che vi spinge a sondare questo mondo misterioso, ma anche la motivazione profonda, forse inconscia, a conoscere il significato profondo dell'universo e della vostra stessa vita». \p201 APPENDICE Cronologia delle scoperte atomiche Anno - Evento 500-1500 AC Alcune scuole di pensiero in India iniziano a sviluppare il concetto di 'atomismo". 460-370 AC In Grecia Democrito sviluppa la teoria che l'universo è fatto di spazio vuoto e da un numero infinito di particelle indivisibili che chiama "atomi". 384-322 AC Aristotele nega l'esistenza del vuoto e impone il suo paradigma per molti secoli. 1214-1294 DC Roger Bacon inventa il metodo sperimentale nella scienza. 1564-1642 Galileo Galilei pone le basi definitive del metodo scientifico. 1799-1878 James Clerk Maxwell unifica elettricità e magnetismo. 1803 - 1810 John Dalton propone che la materia, su base chimica, sia composta di atomi. 1869 Dmitrij Mendeleev mette a punto la "Tavola Periodica degli elementi". 1895 Wilhelm Rontgen scopre i raggi X. 1898 Marie e Pierre Curie scoprono gli elementi radioattivi. 1898 Joseph Thompson, studiando i raggi catodici, scopre l'elettrone e crea il suo modello di atomo, fatto di una sfera uniforme a carica positiva con tanti elettroni puntiformi all'interno. 1900 Max Planck suggerisce che la radiazione è quantizzata. 1905 Albert Einstein propone la sua teoria dei quanti di luce. 1909-1911 Ernest Rutherford, supervisionando gli esperimenti di Hans Geiger e Ernest Marsden, scopre l'esistenza del nucleo atomico e propone il suo "modello planetario" di atomo. 1912 Albert Einstein spiega la curvatura dello spazio-tempo (teoria della relatività generale). 1912 Victor Hess scopre la natura dei "raggi cosmici". 1913 Niels Bohr costruisce una teoria sulla struttura atomica basata su idee quantistiche, dove gli elettroni occupano otbire prestabilite attorno al nucleo. 1919 Ernest Rutherford scopre la prima evidenza deL protone. 1920 Arthur Eddington suggerisce che il Sole tragga la sua energia dalla fusione nucleare. 1921 James Chadwick e E.S. Bleler concludono che una forza intensa tiene il nucleo assieme. 1923 Arthur Compton scopre la natura quantistica dei raggi X, confermando così la natura particellare dei fotoni. \p202 1924 Louis de Broglie propone che la materia abbia proprietà ondulatorie. 1925 Wolfgang Pauli formula il principio di esclusione per gli elettroni nell'atomo. 1925 Walther Bothe e Hans Geiger dimostrano che l'energia e la massa vengono conservate nei processi atomici. 1926 Erwin Schrödinger sviluppa la "meccanica ondulatoria" che descrive il comportamento dei sistemi quantistici per i bosoni. 1927 Werner Heisenberg formula il principio di indeterminazione, dando pieno sviluppo alla meccanica quantistica. 1928 Paul Dirac combina La meccanica quantistica con la relatività speciale per descrivere l'elettrone.

Page 84: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

1930 La meccanica quantistica e la relatività sono due teorie consolidate. Al momento si conoscono tre particelle fondamentali: i protoni, gli elettroni e i fotoni. 1930 Wolfgang Pauli suggerisce l'esistenza del neutrino per spiegare il decadimento Beta. 1928-1932 Paul Dirac prevede l'esistenza del positrone, l'antiparticella dell'elettrone e Cari Anderson la scopre sperimentalmente. 1931 James Chadwick scopre l'esistenza del neutrone. 1933-1934 Enrico Fermi propone una teoria del decadimento Beta che introduce il concetto di "interazione debole". 1933-1934 Hideki Yukawa combina le teorie della relatività e della meccanica quantistica per descrivere le interazioni nucleari tramite lo scambio di nuove particelle che agiscono tra protoni e neutroni e che lui battezza "mesoni". 1938-1939 Hans Bethe formalizza la teoria della fusione nucleare nel Sole. 1945 Robert Oppenheimer e il suo gruppo del "Progetto Manhattan" effettuano il primo esperimento atomico con la bomba a fissione. 1946-1947 I fisici, studiando i raggi cosmici, scoprono il muone e il pione. 1947 I fisici sviluppano le procedure per calcolare le proprietà elettromagnetiche di elettroni, positroni e fotoni. Nasce cosi l'elettrodinamica quantistica. Iniziano a essere usati i "diagrammi di Feynman", inventati da Richard Feynman. 1948 II sincro-ciclotrone di Berkeley produce i primi pioni artificiali. 1949 Enrico Fermi e C.N. Yang suggeriscono che il pione è in realtà una struttura composita fatta di un nucleone e di un anti-nucleone. 1949-1952 Scoperta del mesone K, del pione neutro, del barione lambda 0, del mesone K0, e della particella delta (delta++, delta+, delta0, e delta-). 1950-1960 Edward Teller permette la realizzazione dei primi esperimenti con la bomba a fusione (bomba all'Idrogeno). 1952 Donald Glaser inventa La camera a bolle. 1953 Primi esperimenti di collisione particellare con gli acceleratori. 1957-1959 Julian Schwinger, Sidney Bludman e Sheldon Glashow suggeriscono che tutte Le interazioni deboli sono mediate da bosoni pesanti carichi denominati W+ e W- 1959 Louis Kervran scopre Le "trasmutazioni a debole energia". 1961 Creazione del primo schema matematico di classificazione delle particelle, denominato SU(3). 1962 Si scopre sperimentalmente che esistono due tipi distinti di neutrini: il neutrino elettronico e il neutrino muonico. \p203 1964 Murray Geli-Mann e George Zweig lanciano l'idea dei quark, caratterizzati da carica frazionaria. 1964 Peter Higgs prevede l'esistenza del bosone di Higgs (portatore di massa per le particelle). 1965 O . W Greenberg, M.Y. Han, e Yoichiro Nambu introducono la carica di colore per i quark. 1967 Steven Weinberg e Abdus Salam separatamente propongono una teoria che unifica le interazioni elettromagnetiche e deboli, includendo anche il bosone Z°. Essi considerano molto profondamente anche l'esistenza del bosone di Higgs. 1973 Creazione della teoria della cromodinamica quantistica per studiare l'interazione di quark e gluoni. 1974 Si consolida il Modello Standard per le particelle, per iniziativa di John Iliopoulos. 1974 - 1978 Scoperte le particelle J, D", tau. 1979 Prima evidenza sperimentale dei gluoni. 1983 Carlo Rubbia e Simon Van der Meer osservano i bosoni W+ e Z0 facendo collidere protoni con anti-protoni. 1984-1986 Inizia a svilupparsi La teoria delle stringhe per descrivere le particelle. 1989 Martin Fleischman e Stanley Pons annunciano la scoperta della "fusione fredda". 1989 Si consolida l'idea che esistano tre e solo tre generazioni di particelle, una volta confermato che i neutrini sono tre. 1995 Scoperta del top quark. 1990-2000 La teoria delle superstringhe si consolida ulteriormente. 2000 Scoperta del neutrino tau. 2001 Proposta dell'oscillazione dei neutrini (con massa non nulla), osservando i raggi cosmici. NOTE Capitolo 2 1 Legge di Coulomb. Cariche dello stesso segno si respingono mentre cariche di segno opposto si attraggono con una forza data da:

Page 85: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

F = k per (q1 per q2)/r 2\ Dove k è la costante elettrostatica, q1 e q2 sono le due cariche ed r è la distanza che le separa. 2 Raggi Alfa. Oggi sappiamo che si tratta di atomi di Elio ionizzato composti da due protoni (carica positiva) e due neutroni (carica neutra), mentre Rutherford sapeva solo che essi erano nuclei di atomi di Elio. Come convenzione essi vengono indifferentemente denominati "raggi Alfa" (anche se questa è una definizione impropria che veniva data prima della scoperta della loro reale natura), oppure "particelle Alfa". 3 Collasso dell'elettrone. Si può infatti calcolare che un atomo, se dovesse obbedire al modello planetario nella forma posta da Rutherford, dovrebbe durare solo pochi miliardesimi di secondo prima che l'elettrone collassi sul nucleo! 4 Effetto Fotoelettrico. L'effetto fotoelettrico ha luogo quando la luce colpisce una superficie metallica determinando una emissione di elettroni. Einstein dimostrò che questo processo poteva avere luogo solo pensando alla luce non come ad un'onda bensì come composta da tanti pacchetti di energia quantizzata denominati "fotoni" in grado di interagire direttamente con gli elettroni presenti negli atomi. In questo processo l'energia dei fotoni viene totalmente assorbita dall'atomo e ciò determina l'espulsione di un elettrone che occupava uno strato interno dell'atomo. In conseguenza di questo, succede che un elettrone che si trova nello strato esterno dell'atomo effettua una transizione al fine di riempire il buco nello strato interno lasciato libero dall'elettrone espulso. Nel fare questo vengono emessi fotoni. Ovviamente un processo del genere è favorito in atomi che contengono molti elettroni, come ad esempio nel caso dei metalli. 5 Righe spettrali. Se un gruppo di atomi viene riscaldato, i loro elettroni si muovono verso stati eccitati che corrispondono a ben precisi salti quantici. Quando questi elettroni ricadono allo stato fondamentale (minima energia) essi produrranno uno "spettro di emissione", consistente in righe brillanti di colori intermedi varianti dal blu al rosso come estremi, che appaiono su un fondo scuro. Le righe di emissione si osservano per esempio negli spettri di certe lampade stradali come quelle ai vapori di Sodio o di Mercurio, ma si osservano anche in quei bellissimi oggetti astronomici che sono le "nebulose planetarie" (ciò che diventerà il Sole tra qualche centinaia di milioni di anni), oppure in oggetti astronomici come le stelle nove, le supernove - o comunque stelle circondate da inviluppi esterni molto estesi e rarefatti - o anche certe galassie con attività particolarmente accentuata nei loro nuclei. Le righe di emissione si formano di solito quando un gas tate-fatto viene riscaldato a temperatura elevata. Se invece un gruppo di atomi a densità relativamente elevata viene illuminato da una zona retrostante molto più calda (la quale produce quello che si dice uno "spettro continuo", ovvero un graduale scorrere di colori dal blu al rosso simile ad un arcobaleno, ma senza righe) di questo gruppo, adora dal momento che la zona riscaldante è anche ricca di fotoni, succederà che l'atomo assorbirà l'energia di questi fotoni: ciò lo porterà a formare uno "spettro di assorbimento". Le righe di assorbimento si osservano comunemente nelle stelle normali come il Sole e si presentano come righe scure sovrapposte ad uno spettro continuo. Queste righe sono normalmente usate dagli astronomi come strumento diagnostico per studiare la temperatura, la densità e la composizione chimica delle stelle. 6 Legge di Wi en. Si dimostra sperimentalmente che la lunghezza d'onda lambda max corrispondente al picco massimo della radiazione emessa da un radiatore perfetto è tanto minore quanto maggiore è la temperatura T. Assumendo che k è una costante di proporzionalità, ciò si esprime con la formula fondamentale: T per lambda max = k Dal momento che la lunghezza d'onda lambda è legata alla frequenza ni da una proporzionalità inversa (c'è la costante che rappresenta la velocità della luce) rappresentata da: lambda = c/ni ne consegue che il picco massimo della radiazione si sposterà di una quantità tanto maggiore quanto maggiore è la temperatura e quanto maggiore è la frequenza. Ma poiché (in virtù della formula (1) ) la frequenza rappresenta l'energia, se ne conclude che l'energia dei fotoni è tanto maggiore quanto maggiore è la temperatura. Con ciò si dimostra che la temperatura ha un ruolo fondamentale nel determinare l'efficacia delle transizioni quantistiche dell'elettrone tra uno stato eccitato e l'altro. Proprio per queste ragioni queste condizioni di elevata temperatura si trovano normalmente solo nel Sole e nelle stelle. 7 Formazione delle Righe Spettrali. Nel caso delle frequenze corrispondenti al visibile, sicuramente le righe spettrali più importanti sono quelle prodotte dall'atomo di Idrogeno, denominate "righe di Balmer", dal nome del fisico-matematico svizzero Johann Jakob Balmer (1825-1898) che ne aveva scoperto empiricamente il comportamento stranamente "quantizzato" difficilmente spiegabile ai suoi tempi e i cui calcoli empirici collimano perfettamente con quelli teorici effettuati diversi decenni dopo da Bohr nel calcolare le frequenze che debbono essere emesse dall'atomo di Idrogeno durante il processo di de-eccitazione. Ci fu, insomma, un perfetto accordo tra i dati spettroscopici sperimentali e i calcoli teorici relativi al modello quantistico di atomo messo a punto da Bohr. Ciò permise di elaborare una formula che descrive in maniera semplice i salti quantici effettuati dall'elettrone dell'atomo di Idrogeno mentre produce le righe spettrali. La formula di

Page 86: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

Balmer spiega, con estrema precisione, le transizioni quantistiche effettuate dall'elettrone secondo il modello di Bohr - quelle che portano alle righe spettrali dell'Idrogeno nel visibile - ed è data da: 1/ lambda = R per [(1/2 2\)-(1/n 2\)] dove lambda, è la lunghezza d'onda, R una costante, ed n rappresenta lo "stato quantico" dell'elettrone, ovvero il livello energetico raggiunto dall'elettrone in uno dei suoi salti quantici da un'orbita all'altra. Normalmente nello stato fondamentale (cioè quello a minima energia) dell'elettrone, al denominatore della prima frazione della formula sopra non abbiamo il valore "2", bensì il valore "1" , per cui le righe di Balmer si formano solo quando l’elettrone salta da orbite con n > 2 all'orbita con n = 2, cioè quando l'elettrone salta da vari stati eccitati al primo stato eccitato corrispondente allo stato quantico n = 2. Ih tal modo, vengono prodotte varie righe spettrali a seconda del valore di n. In ordine di energia crescente le righe di Balmer sono date da: H alfa quando il salto avviene dallo stato quantico n = 3, H beta quando il salto avviene dallo stato quantico n = 4, H gamma quando il salto avviene dallo stato quantico n = 5. E così via, fino ad arrivare a salti sempre più energetici che portano le righe spettrali a formarsi a energie sempre più aite, e quindi corrispondenti a frequenze sempre più elevate in virtù della formula (1). Secondo una. definizione standard della meccanica quantistica il numero ni viene anche definito come "numero quantico principale" e definisce proprio il livello energetico relativo al salto quantico dell'elettrone. La formula di Balmer descrive solo le righe dell'Idrogeno corrispondenti ai salti quantici che si rilevano nello spettro visibile (media energia). In realtà esistono altre transizioni possibili: se (nella prima frazione della formula) al posto del livello "2" (primo stato eccitato) mettiamo il livello "1" (stato fondamentale) avremo le "righe di Lyman" che si formano solo nelle lunghezze d'onda dell'ultravioletto (alta energia), mentre se mettiamo il livello "3" (secondo stato eccitato) avremo le righe di Paschen che invece si formano solo nelle lunghezze d'onda dell'infrarosso (bassa energia). Tutto questo, che non è altro che l'applicazione del modello di Bohr alle misurazioni spettroscopiche, rappresenta La base principale di fisica atomica che permette di studiare la fisica delle stelle ed è una dimostrazione diretta della validità del modello atomico di Bohr. 8 Orbitali Elettronici. Un orbitale elettronico può contenere fino a 2'n2 elettroni, a patto che tali elettroni si distribuiscano due a due (con spin opposti) in sottolivelli ben precisi. Il numero n viene definito "numero quantico principale". 9 Stati della Materia. Abbiamo appena parlato della disposizione a "reticolo cristallino" degli atomi di Sodio all'interno della molecola di Cloruro di Sodio (sale da cucina). Già questo esempio denota che i legami tra atomi nel formare molecole e quindi composti chimici, possono assumere forma diversa a seconda della forza di coesione elettrica che si viene a realizzare tra ioni componenti. Quando questi legami elettrici sono particolarmente forti, come ad esempio in un composto metallico, allora la materia si presenta allo stato solido e le sue molecole hanno la tendenza a creare un reticolo cristallino. Entro questi reticoli le molecole tenderanno a oscillare attorno a dei punti fissi senza mai allontanarsi da essi. Quando invece i legami elettrici tra molecole sono meno forti allora abbiamo lo stato liquido, come ad esempio l'acqua. In questo caso i legami pur essendo meno forti che nello stato solido, sono comunque sufficientemente forti da tenere un liquido "legato" all'interno di un recipiente (in questo caso specifico la forza di gravità funge da mediatrice di coesione molecolare). Questo tipo di legame non comporta la formazione di un reticolo cristallino e infatti le molecole di un liquido hanno la libertà di muoversi disordinatamente ma senza abbandonare il liquido se non quando ha luogo il processo delL'evaporazione (in cui si ha un cambiamento di stato indotto dalla temperatura). Se invece i legami elettrici tra le molecole sono molto deboli, allora avremo lo stato gassoso. In questa circostanza le molecole sono libere di andare senza alcun vincolo in qualunque punto dello spazio, guidate principalmente da forze meccaniche e termiche. Un esempio eclatante sono le nubi o il fumo di una sigaretta. In generale se subentrano fenomeni termici allora e solo allora possono verificarsi cambiamenti di stato: ad esempio un oggetto di piombo (che è tipicamente un solido) tenderà a liquefarsi passando allo stato di liquido. AL contrario l'acqua se raggiunge La temperatura di zero gradi centigradi diventerà ghiaccio, il quale è di per sé una struttura solida (almeno fino a quando la bassa temperatura viene mantenuta). CAPITOLO 3 10 Decadimento Beta. In sintesi il processo di decadimento radioattivo che porta alla formazione di un anti neutrino vdal processo di decadimento Beta partendo da un neutrone n in grado di trasformarsi in un protone p e in un elettrone e, è data da: n = p + e- + ni Per maggior precisione, in questa reazione il neutrino prodotto deve essere un "anti-neutrino", ovvero l'antiparticella del NEUTRINO e precisamente quella particella identica al neutrino che anziché avere spin = +1/2 (polarità destrorsa), ha spin -1/2 (polarità sinistrorsa). Nel caso del "Decadimento Beta inverso", processo comune nel Sole e nelle stelle, ha luogo la reazione inversa rappresentata da: p = n + e+ + ni

Page 87: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

dove e+ è il positrone (anti-particella dell'elettrone) e ni un neutrino. CAPITOLO 4 11 Stelle di Preoni. Alcuni fisici teorici e particellari, in collaborazione con alcuni astrofisici, prevedono anche l'esistenza delle cosiddette "stelle di preoni". Si tratterebbe, in questo caso, delle "stelle" più estreme che esistano, dal momento che le particelle subatomiche di cui esse dovrebbero essere composte - i cosiddetti "preoni" - sarebbero, secondo alcuni, i mattoni fondamentali che a loro volta comporrebbero sia i quark che i leptoni. Insomma una nuova bambolina dentro quella che credevamo l'ultima Matriozka! Non esistono ancora prove che i preoni esistano realmente ma i calcoli matematici di alcuni li prevedono, seppur a livello di semplice modello e ipotesi. Sta di fatto, comunque, che se essi esistono realmente il Modello Standard delle particelle elementari andrebbe radicalmente esteso. In ogni caso, se esistono veramente le stelle fatte di preoni esse dovrebbero avere densità inconcepibili, intermedie a quelle delle stelle di neutroni e dei buchi neri. Ciò significa che una stella di preoni che avesse la stessa massa della Terra avrebbe un diametro di soli 5 metri! 12 Leggi di Conservazione nei decadimenti. Tutti i Decadimenti sono regolati da alcune leggi dette "leggi di conservazione" in cui le quantità prima della reazione devono essere le stesse che si hanno dopo la reazione. Le principali leggi di conservazione sono le seguenti: a) legge di conservazione della carica elettrica; b) Legge di conservazione della massa-energia; c) legge di conservazione della quantità di moto; d) legge di conservazione del momento angolare-spin; e) legge di conservazione del numero barionico; f) legge di conservazione del numero leptonico; g) legge di conservazione della stranezza (vale solo per l'interazione forte). 13 Decadimento del Protone. In realtà si ritiene che il protone possa avere un decadimento, anche se su un tempo incommensurabilmente lungo, cioè di 10 37\ anni. Dal momento che tantissimi sono i protoni, c'è una minima probabilità che possiamo osservarne uno decadere ma le sperimentazioni a tuttora non hanno fornito nessun risultato. 14 Radiazione Cherenkov. Sappiamo che quando La luce si propaga attraverso materiali come il vetro o l'aria, essa va soggetta ad un sostanziale rallentamento. Ma i raggi cosmici, nel momento in cui impattano l'atmosfera, viaggiano più velocemente rispetto alla velocità che la Luce ha nell'aria. Pertanto quando essi incontrano l'atmosfera emettono dei flash di luce blu, come effetto del passaggio tra un regime di velocità ad un altro: si tratta sostanzialmente di un fenomeno di diseccitazione. Questa radiazione è del tutto analoga al bang sonico prodotto da un aereo che si trova a viaggiare ad una velocità superiore a quella del suono. Il parallelo della velocità del suono con la velocità della luce è senz'altro il miglior confronto per spiegare la radiazione Cherenkov. 15 Radiazione di Sincrotrone. Quando una particella carica (elettrone o protone) e molto energetica si trova all'interno delle linee di forza di un potentissimo campo magnetico, essa verrà accelerata a velocità relativistica lungo le linee di forza del campo. La particella tenderà a ruotare velocemente in maniera elicoidale attorno alle linee di campo, emettendo, ogni volta che passa davanti all'osservatore, un fotone di energia. A differenza dei fotoni piedoni dalle stelle questa radiazione viene definita "non-termica". 16 Esperimento della Doppia Fenditura. In seguito ad un esperimento effettuato nel 1801 dal fisico inglese Thomas Young (1773-1827) nel corso del quale egli fece passare un fascio di luce attraverso due fenditure e notò che le onde luminose interferivano fra loro creando frange chiare e frange scure di interferenza dimostrando così la natura ondulatoria della luce, molti anni dopo venne ideato un esperimento analogo utilizzando questa volta un fascio di elettroni che mostrò un comportamento del tutto analogo a quello delle onde luminose. Ciò provò la doppia natura di particella e di onda degli elettroni (così come altre particelle) dimostrando così sperimentalmente la fondatezza della teoria quantistica. 17 Basi relativistiche del processo collisionale. È proprio la teoria della relatività speciale a descrivere il moto di particelle che si muovono a velocità prossime a quella della luce. Essa fornisce le leggi che governano il moto delle particelle in un acceleratore di qualunque tipo. Sono stati proprio gli esperimenti con gli acceleratori a dimostrare che la teoria della relatività speciale, che descrive il moto relativo degli oggetti, è valida a tutti gli effetti. Negli acceleratori di particelle come il CERN o lo SLAC, si tratta in continuazione proprio con particelle relativistiche, il che non significa particelle che viaggiano alla velocità della luce bensì particelle che viaggio-no a velocità prossime a essa. Einstein ha mostrato che la corretta espressione relativistica per l'energia E di una particella di "massa a riposo" m, velocità v e momento p (con c = velocità della luce) è data da: E 2\ = m 2\ c 4\ + p 2\ c 2\ Il termine relativistico gamma è cruciale nel definire lo stato di moto della particella. Se y >= 1 (che succede solo quando v "tende a essere" uguale a c, senza comunque mai raggiungere questo valore), allora la particella è effettivamente relativistica. Un fatto molto importante che si deduce dall'espressione dell'energia è che essa è vera anche quando la particella non ha massa (m = 0). In questo caso specifico la particella

Page 88: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

viaggia sempre ad una velocità prossima a c, la velocità della luce; allora l'unica energia che ci interessa è data solo dal secondo termine dell'equazione per l'energia. In sostanza essa è data solo dal momento p, che è l'unico che conta in questo caso specifico. Ecco perché particelle con massa nulla, come ad esempio il fotone e "forse" il neutrino, producono lo stesso una grande quantità di energia quando esse raggiungono velocità relativistiche. Queste particelle hanno energia cinetica e momento ma non hanno massa. Ma è anche vero che in presenza di particelle cariche, un fotone, che è tipicamente senza massa, può materializzarsi in una particella dotata di massa e nella sua antiparticella. Infatti il primo termine dell'espressione dell'energia è valido in entrambi i sensi: la massa si trasforma in energia, ma può succedere anche il contrario. È così che negli acceleratori, quando si produce un'enorme quantità di energia per via delle collisioni, vengono poi prodotte delle particelle dotate di massa, particelle tanto più massicce quanto maggiore è l'energia sviluppata. 18 Getti di Particelle e Quark. Quando elettrone e positrone collidono annichilendosi a vicenda li-berano energia sotto forma di un fotone. Ma il modello a quark prevede che l'energia del fotone si possa materializzare in un quark e in un antiquark. Dal momento che la coppia elettrone-positrone in collisione aveva una quantità di moto totale nulla, allora la coppia quark-antiquark deve per forza divergere in direzioni opposte e con la stessa velocità in maniera che la quantità di moto della coppia sia ancora nulla. Ma i quark passano inosservati dal momento che la loro energia viene immediatamente convertita in altri quark e antiquark i quali, una volta materializzatisi, si combinano con la coppia originaria: ciò porta alla formazione di due getti di adroni (di solito sotto forma di pioni, che sono un tipo di mesone altamente energetico). Ora, questi getti di adroni vengono effettivamente osservati e il fatto che siano focalizzati prova che gli adroni non nascono direttamente dalla collisione elettrone-positrone ma da particelle singole che non possono essere spezzate delle quali i getti mantengono le traiettorie. Come si vede la diagnosi della formazione di quark è completamente indiretta. 19 Teoria dei Gruppi. La necessità di invocare un "bosone mediatore" come portatore di forza ai vari fermioni per una descrizione corretta dell'interazione elettromagnetica, dell'interazione debole e dell'interazione forte ha una radice esclusivamente matematica. La "teoria dei gruppi", rappresenta il background matematico delle teorie di fisica delle particelle. Con essa vengono previsti tutti i decadimenti di particelle primarie in particelle secondarie che si osservano negli esperimenti con i raggi cosmici e con gli acceleratori. 20 Esempi di decadimenti osservabili. Ad esempio, è possibile prevedere con precisione quali tracce si possono registrare quando un bosone Z prodotto virtualmente nella collisione decade in 2 elettroni: in tal caso si registrano solo due tracce dirette entrambe nel calorimetro elettromagnetico. Quando esso decade in 2 muoni, le due tracce sono dirette nel rivelatore muonico. Quando invece un bosone Z decade in due particelle tau, queste particelle non vengono rivelate, ma decadono istantaneamente in altre particelle. Gli eventi tau possono essere riconosciuti sapendo già che essi dovrebbero produrre 2, 4 o possibilmente 6 tracce corrispondenti a particelle cariche e un certo numero di tracce corrispondenti a particelle neutre. Quando un bosone Z decade in 2 quark, si osserva un getto di particelle da ciascuno dei due quark e talvolta anche alcuni mini-getti prodotti da gluoni. Quando da ciascuno di due quark osserviamo due getti in direzioni opposte, osserveremo la manifestazione di un mesone, che nasce quando i quark tentano di separarsi dal nucleo ma vengono bloccati dall'interazione forte e quindi dall'effetto elastico dei gluoni. Ovviamente quando in seguito alle collisioni si rilevano due bosoni W+ e W-, allora l'analisi dei relativi decadimenti è più difficile da fare, dal momento che per via del maggior numero di bosoni in decadimento e per via dell'energia molto maggiore richiesta per questi processi, si vengono a formare molte più tracce nei rivelatori. Quando, per fare un altro esempio di possibili decadimenti dei bosoni W+ e W-, abbiamo che uno di essi decade in un elettrone e un neutrino elettronico e l'altro in un muone e un neutrino muonico, abbiamo chiaramente due tracce che si dipartono in direzioni opposte ma non perfettamente a 180 gradi l'una dall'altra, a causa dell'energia sottratta al momento totale dai due neutrini: in tal modo possiamo diagnosticare la presenza di un neutrino elettronico e un neutrino muonico. Come si vede, il processo dei decadimenti è una specie di "gioco combinatorio" precisissimo interamente governato dalle leggi di conservazione (carica, energia, momento, numero particelle, ecc.) delle particelle prima e dopo la collisione e fondato sul Modello Standard e quindi sulle tecniche matematiche che combinano le particelle tra loro. 21 Eventi di Higgs. Alcune collisioni potrebbero dare luogo a decadimenti tramite i quali si può risalire alla particella di Higgs. Uno de: decadimenti che con più probabilità potrebbe materializzare un bosone di Higgs è il seguente: e+ + e- = Z0 + H = Z + b + b soprasegnato Dove e+ è il positrone, e- è l'elettrone, Z0 è il bosone intermedio dell'interazione debole, b è il quark bottom, il valore soprassegnato di b è la sua antiparticella e H è il fantomatico bosone di Higgs. A sua volta la particella Z° può decadere in molti modi differenti, in particolare quella che porta alla formazione di due neutrini e due quark b. Riuscire a osservare un decadimento del genere potrebbe portare allora aLla scoperta del bosone H. Si è tentato, molto di recente, di osserva-

Page 89: MASSIMO TEODORANIl'Atomo e Le Particelle Elementari

re eventi del genere con il collisore LEP del CERN ma ancora senza risultati definitivi. Si è riusciti solo a capire che un bosone H deve avere una massa più grande di 114 GeV. 22 Campi Elettrici e Campi Magnetici. Secondo le equazioni del campo elettromagnetico messe a punto dal fisico inglese James Clerk Maxwell (1831-1879), il campo elettrico e il campo magnetico sono l'uno complementare all'altro e si propagano alla velocità della luce in forma di onde Luna ortogonale all'altra, producendo un campo elettromagnetico. Se il campo elettrico deriva da una carica elettrica puntiforme come l'elettrone, allora nulla vieta, vista la simmetria delle equazioni di Maxwell, che possa esistere un'analoga carica magnetica puntiforme come il monopolo magnetico, anche se esso non è stato ancora scoperto. 23 Mini-buchi neri ed elettroni. Il fisico Brian Green e ha addirittura suggerito (speculativamente) che l'elettrone stesso possa essere assimilato ad un mini-buco nero. 24 Interazione elettrodebole. Ricordiamo che a basse energie, da una parte i fotoni e dall'altra i bosoni W (+ e - ) e Z sono rispettivamente i portatori di forza dell'interazione elettromagnetica e dell'interazione debole. I bosoni W e Z sono particelle molto massicce, pertanto richiedono una grande quantità di energia per essere rivelate, mentre i fotoni sono privi di massa. A energie elevatissime, i fotoni acquisiscono caratteristiche comparabili a quelle delle particelle W e Z: questa è la ragione per la quale le due interazioni relative sono unificate in un'unica interazione, quella elettrodebole. 25 Conservazione della Parità. La rottura della simmetria coincide anche con quella che viene definita "violazione della parità". La parità è quella simmetria speculare che inverte la parte destra con la parte sinistra. Fu il fisico russo Andrei' Sakharov (1921-1989) a scoprire che la parità viene violata. La causa più attendibile è che questo sia avvenuto in seguito alla rottura della simmetria che ha avuto origine in epoca cosmologica al momento in cui la materia ha cominciato a essere vincente sull'antimateria. Questa simmetria è violata dalla più misteriosa delle quattro interazioni fondamentali: l'interazione debole. L'interazione debole come sappiamo può produrre decadimenti con emissione di neutrini. Ora, noi sappiamo che questi neutrini sono dotati di spin, come se essi ruotassero. Se essi ruotano in senso antiorario diciamo che i neutrini sono sinistrorsi. In virtù del principio di conservazione della parità dovrebbe allora esistere anche una reazione specillare che produce neutrini destrorsi. Ma questo non succede. Succede invece che solo le particelle con spin sinistrorso sono soggette a interazioni deboli in cui cambia la carica elettrica, ad esempio come il decadimento Beta del neutrone, mentre non ne sono soggette quelle con spin destrorso. Il meccanismo che determina questa asimmetria non è ancora ben spiegato, anche se con ogni probabilità viene fatto risalire alla rottura della simmetria tra materia e anti-materia nelle fasi iniziali dell'universo. 26 Sintesi dell'Elio e Densità dell'Universo. Un punto importantissimo in merito al bruciamento termonucleare dell'Elio in una ben precisa fase evolutiva dell'universo è che tanto maggiore è il numero dei nuclei di Elio prodotti in fase cosmologica e tanto maggiore è la densità dell'universo nella sua totalità. Questo è anche ovvio: se l'universo è molto denso adora aumenta la probabilità che i nuclei di Idrogeno vengano a fondersi per creare Elio. Ma al contempo, se di fatto l'universo è denso, allora aumenta anche la probabilità che esso in un futuro indefinito possa ricollassare su se stesso invece di espandersi in maniera inarrestabile. Un universo particolarmente denso di materia finirebbe per essere governato dada gravità subito dopo la decelerazione del processo di espansione nato con il Big Bang. CAPITOLO 5 27 Dogmatismo al contrario. Purtroppo non mancano - anzi abbondano - coloro che, seppur nella quasi totale ignoranza di come funziona realmente la scienza e di cosa ha prodotto, si atteggiano a veri e propri "vati" di un presunto "vero sapere" completamente sostitutivo del pensiero corrente. Queste persone si pongono in maniera assolutamente dogmatica e arrogante e proprio per questo ricordano non poco individui vissuti nel Medioevo. Con questi pseudoscienziati la scienza deve essere inflessibile (più di quanto non lo sia adesso), ma deve anche saper buttare via solo l'acqua sporca e non l'acqua sporca con il bambino dentro. Basta solo un po' di raziocinio per distinguere i "geni incompresi" reali dai puri e semplici millantatori. Un problema di semplice "rapporto segnale-rumore".