giovanni stile - aracne editrice · 4.2 complessità dei fenomeni naturali, umani ... della...

28
Giovanni Stile Criminologia e complessità Una prospettiva sistemica, dinamica, evoluzionistica ARACNE

Upload: dokhue

Post on 15-Feb-2019

217 views

Category:

Documents


0 download

TRANSCRIPT

Giovanni Stile

Criminologia e complessità

Una prospettiva sistemica, dinamica, evoluzionistica

ARACNE

Copyright © MMVIARACNE editrice S.r.l.

[email protected]

via Raffaele Garofalo, 133 A/B00173 Roma

tel. / fax 06 93781065

ISBN 88–548–922–5

I diritti di traduzione, di memorizzazione elettronica,di riproduzione e di adattamento anche parziale,

con qualsiasi mezzo, sono riservati per tutti i Paesi.

I edizione: dicembre 2006I ristampa aggiornata: marzo 2007

Indice Sommario

Introduzione 9 Capitolo I Conoscenza scientifica 17

1.1 Introduzione 17 1.2 Metodo scientifico 18 1.3 Oggettività e neutralità 21 1.4 L'equivoco postmoderno 37 1.5 Conclusioni su oggettività e neutralità 49 1.6 La crisi della sociologia 54 Capitolo II La criminologia è una scienza? 65

2.1 Introduzione 65 2.2 Criminologia come disciplina e nucleo teorico centrale 69 2.3 La crisi della criminologia 74 2.4 Superare la crisi 86 Capitolo III L'oggetto di studio della criminologia 93

3.1 Introduzione 93 3.2 Corpo mobile e nucleo stazionario 95 3.3 Le tre dimensioni del crimine 101 3.4 Le tre categorie di comportamento criminale 103

Biocrimini 106 Sociocrimini 112 Pseudocrimini 117 Precisazioni 118

3.5 Conclusioni sull'oggetto di studio della criminologia 125

6

Capitolo IV La Scienza della Complessità 129

4.1 Introduzione 129 Le molte vie della Complessità 129 Complessità matematica e complessità fisica 131

4.2 Complessità dei fenomeni naturali, umani e sociali 133 Sistemi fisici 133 Sistemi dinamici e non-equilibrio 134 Spazio delle fasi e attrattori 137 Sistemi biologici e sociali 140 Emergenza 143 Definizione di sistema complesso 150

4.3 Complessità e determinismo 151 Determinismo e probabilità 152 Determinismo e emergenza 153 Determinismo e indeterminismo microfisico 155 Determinismo e libero arbitrio 155

4.4 Natura e cultura 156 Determinismo biologico vs. potenzialità biologiche 157 Il mito dell'incompletezza 160 Complessità ontogenetica 161

4.5 Complessità e scienze sociali 162 Meccanismi di transizione 164 Constraint 165 Embedding 166 Definizione di Sistema sociale 167 Convergenza esplicativa 168 Struttura e processo 169 Conclusioni 174

4.6 Simulazione 176 Isole di stabilità e fasi di transizione 177 Uso rigoroso e uso metaforico di caos e complessità 178 Metodo sperimentale e metodo simulativo 179 Analogia e omologia 181 Chiusura logica 182

7

Assenza di alternative 183 Vantaggi del metodo simulativo 186 Simulazione sociale 187 Modelli 190 Conclusioni 193

Capitolo V Complessità e criminologia 197

5.1 Introduzione 197 5.2 Complessità e transizione tra micro e macro (il punto critico aggregato) 200 5.3 Complessità e risposta differenziale (il punto critico individuale) 213 5.4 Un esempio: complessità delle relazioni tra condizioni economiche e criminalità 218 5.5 Integrazione 223 5.6 Proposta di modello teorico generale 231

Premessa 231 Precisazioni 232 Schema generale e variabili rilevanti 236 Variabili socioculturali 241 Interazioni 12-17 anni 245 Interazioni 18-25/30 anni 247 Desistenza 249 Motivazione 253 Variabilità individuale della scelta quasi-razionale 254 Autocontrollo 255 Situazione e opportunità 259 Ulteriori implicazioni della prospettiva generale 262 Estensione del modello ai comportamenti violenti collettivi 263 Estensione del modello alla criminalità non-convenzionale 265 Variabili Strutturali 271 Conclusioni 275

5.7 Strategie contro il crimine 278 Bibliografia 287

17

Capitolo I

Conoscenza scientifica

1.1 Introduzione – 1.2 Metodo scientifico – 1.3 Og-gettività e neutralità – 1.4 L'equivoco postmoderno – 1.5 Conclusioni su oggettività e neutralità – 1.6 La crisi della sociologia

1.1 Introduzione La conoscenza scientifica è uno dei diversi tipi di conoscenza possibili. Si lega agli altri per continuità, condividendo con essi diversi attributi, ma differenziandosi soprattutto per alcune par-ticolari prerogative, in virtù delle quali può essere a buon diritto considerata lo strumento più efficace che l'uomo abbia mai avu-to a disposizione per ottenere una conoscenza del mondo reale: a) Persegue cognizioni intersoggettive e sistematico-razionali (è un'impresa di conoscenza collettiva basata sull'esperienza sistematica e sul ragionamento logico) e nella maggior parte dei casi le sue cognizioni sono empiriche. I caratteri di tali cogni-zioni sono: rigore, istituzionalità (o socialità), ampiezza e gene-ralità, analiticità, rilevanza fattuale, controllabilità e attendibili-tà, continua approssimazione e rivedibilità, criticità e tendenza auto-correttiva, gradualità cumulativa, processualità, fecondità, dinamicità, funzionalità, natura nomologica, probabilistica e induttiva, articolazione, complessità e astrattezza. b) Utilizza un linguaggio dai caratteri e dalle peculiarità di-versi da quelli della lingua comune: ha una semantica, una sin-tassi, un lessico e una metodologia propri. c) Ha per scopo descrivere, ma anche, e soprattutto, spiegare (in maniera nomologico-causale) e prevedere. d) Si basa sulla generalizzazione e sulla concettualizzazione. e) Le sue cognizioni sono "metodicamente fondate", in altre

Capitolo I

18

parole ottenute con metodo sperimentale, ipotetico-deduttivo e derivate con metodicità che determina assiomatizzazione. f) Qualora, invece, la conoscenza scientifica si occupi esclu-sivamente di cognizioni astratte, è conoscenza basata su con-venzioni linguistico-concettuali non soggette a esigenza di con-formità verso domini di fenomeni empirici (es. matematica, lo-gica) e, pertanto, non essendo euristica, non assicura conoscen-ze concrete (ma può nondimeno fornire potentissimi strumenti per perseguire e/o organizzare tali conoscenze). 1.2 Metodo scientifico Le scienze si distinguono dalle discipline umanistiche, come la filosofia, la storia o gli studi letterari, o dalle pseudoscienze, come la psicanalisi o l'omeopatia, o da altri tipi di conoscenze ancora, come la religione o la magia, per il procedimento con il quale esse stabiliscono la verità delle loro teorie, vale a dire per il loro metodo. In effetti, una teoria può essere considerata scientifica se, e solo se, rispetta le seguenti tre condizioni: 1) I suoi enunciati generali sono delle ipotesi che danno luogo alla deduzione di certi altri enunciati di fatti pertinenti al domi-nio circoscritto dai concetti utilizzati nella formulazione dell'i-potesi. 2) Le osservazioni effettuate sugli oggetti della teoria sono formulate in forma simbolica suscettibili di trattamento logico-formale, o almeno suscettibili di una concettualizzazione preci-sa. 3) Le osservazioni registrate empiricamente, cioè i fatti, cor-roborano gli enunciati generali della teoria. In effetti, tutte le teorie scientifiche, per essere definite tali, de-vono stabilire delle proposizioni generali (ipotesi) capaci di spiegare i fatti conosciuti e di farne scoprire di nuovi. Devono essere formulate attraverso chiare concettualizzazioni, suscetti-bili di essere modellizzate. Devono stimolare nuove ricerche basate su ipotesi collegate. Invero, poche discipline possono definirsi perfettamente scien-

Conoscenza scientifica

19

tifiche alla luce di quanto precedentemente esposto. Passando dal piano formale a quello operativo, il metodo scien-tifico risale, nella sostanza, a Galileo, e fissa tre momenti nella procedura di costruzione della conoscenza scientifica: 1) La raccolta e l'organizzazione dei dati di misura; ciò pre-suppone la capacità di isolare, fra la molteplicità di aspetti che caratterizzano il fenomeno, quelli intrinseci al fenomeno stesso, separandoli da quelli dovuti al suo manifestarsi in determinate condizioni. È ovvio che non esistono regole precise per giunge-re all'identificazione di tali caratteristiche essenziali dei feno-meni: solo l'esecuzione di numerosi esperimenti in condizioni diverse e l'intuizione dello scienziato possono consentire di raggiungere lo scopo. 2) La formulazione di un modello (o legge teorica, o legge a-stratta) del fenomeno che si vuole studiare, che sia capace di rendere conto dei dati misurati; poiché le leggi ottenute rappre-sentano la descrizione di proprietà di fenomeni dedotte empiri-camente, la loro validità sarà limitata all'ambito di valori delle grandezze forniti nelle misure. La successiva estrapolazione della validità della legge a intervalli di valori non misurati è, quindi – a rigore – un procedimento arbitrario. 3) Il "cimento", cioè il confronto fra ulteriori previsioni otte-nibili in base al modello adottato e l'esito degli esperimenti vol-ti a verificare tali previsioni. È chiaro che quanto più le previ-sioni del modello risulteranno confermate, tanto più aumenterà la fiducia nel fatto che esso descriva uno stato di cose effetti-vamente esistente. Tuttavia è bene ricordare che un modello non può mai essere definitivamente "provato", ma può – al massimo – non risultare contraddetto. Naturalmente qui ci stiamo riferendo ai modelli, o "leggi teori-che", in contrapposizione alle cosiddette "leggi empiriche", che al contrario possono avere conferma diretta dagli esperimenti (come ad esempio l'equazione di stato dei gas, o la legge di Ohm, e così via). I modelli, che sono poi quelli che interessano la criminologia, hanno infatti una natura molto diversa, poiché fanno affermazioni su oggetti non direttamente o completamen-te accessibili all'esperienza (per fare solo alcuni esempi: atomi,

Capitolo I

20

nuclei, quarks, big bang, processi evoluzionistici, comporta-mento umano e, quale caso particolare, comportamento crimi-nale), e quindi, proprio per questo, essi non possono essere con-fermati dall'esperienza, ma solo contraddetti (o, come si suol dire, "falsificati"). Fin d'ora, comunque, è necessario anticipare un punto estre-mamente importante, e cioè che "metodo scientifico" e "metodo sperimentale" non sono da intendersi quali sinonimi, poiché all'interno del metodo scientifico rientra anche il c.d. "metodo simulativo", che ha subito un potente impulso grazie all'elabo-razione elettronica. Anzi – come si avrà modo di vedere in se-guito (par. 4.6) – il metodo simulativo è probabilmente l'unico metodo adottabile nello studio dei fenomeni complessi, tra cui quelli sociali. «La simulazione rende in certa misura sperimen-tali le scienze sociali: si schematizza un sistema reale, se ne i-dentificano le variabili strutturali, si provocano eventi a imita-zione di realtà possibili e si inferiscono le reazioni del sistema, in obbedienza alle regole codificate dal modello. È sempre il canone ipotetico-deduttivo della scienza moderna (...). Smonta-re e rimontare i "pezzi" del modello è come scomporre il siste-ma di riferimento nei suoi costituenti, per trarne opportune combinazioni alternative, dando luogo a una sorta di empiria immaginaria e multiversa» (SCARDOVI, 1997, pp. 788-789). Anzi, a rigor di logica, proprio la simulazione può essere consi-derata l'essenza stessa del metodo scientifico, poiché qualsiasi modellizzazione può essere definita una simulazione. Infatti, «scienza non è rappresentazione dei fenomeni nell'interezza del loro apparire: è riduzione analogica, è simulazione modellisti-ca. La pallina che Galileo fa rotolare su un asse cavo inclinato – un modello – esemplifica l'inerzia del "cader de' corpi" e prefi-gura il grave ideale che cade in un vuoto ideale (un vuoto sol-tanto pensato, in quelle esperienze). Questo è il significato euri-stico dell'esperimento galileiano, il canone metodologico che ha avviato alla scienza moderna; non è ripetizione della realtà fenomenica: è realtà resa modello, fatto ridotto ad artefatto. Non l'evento concreto nella sua contingente unicità, bensì una sua figurazione emblematica: una simulazione» (SCARDOVI,

Conoscenza scientifica

21

1997, p. 787). In ogni caso, è certo che il metodo scientifico ha rivoluzionato la conoscenza dell'uomo: ha permesso il passaggio da un sapere che si costruiva su verità date come postulati, attraverso un si-stema inferenziale di stampo sostanzialmente teologico dipen-dente da dogmi o da principi a priori, a un sapere che si costrui-sce come processo di relazione infinita col mondo proprio in virtù dell'uso del suo particolare metodo. 1.3 Oggettività e neutralità Il concetto di "verità scientifica" – inteso come oggettività, ov-vero come corrispondenza tra affermazione (o proposizione) e realtà – fu messo in discussione, all'inizio del secolo scorso, dalla critica convenzionalista di Henri POINCARÉ (1902), se-condo la quale le leggi della meccanica newtoniana, al pari de-gli assiomi della geometria euclidea, non erano né verità a priori né verità sperimentali, ma convenzioni che, in virtù della loro semplicità, nessun esperimento avrebbe mai potuto invali-dare. In realtà fu, paradossalmente, lo stesso Poincaré a contri-buire – come si avrà modo di vedere nei paragrafi 4.1 e 4.2 – a rendere insostenibile il suo convenzionalismo proprio perché, in seguito ai suoi studi sul c.d. "problema dei tre corpi" e, suc-cessivamente, alla formulazione da parte di Einstein della mec-canica relativistica, la convinzione dell'assoluta validità in ogni situazione della meccanica classica dovette essere abbandonata; e, infatti, lo stesso Poincaré dovette rivedere drasticamente, nel giro di due anni, la sua posizione filosofica riguardo alla mec-canica newtoniana. Negli stessi anni Pierre DUHEM (1904-05) sosteneva come in fisica non fosse possibile effettuare un vero "esperimento cru-ciale" volto alla verificazione di una ipotesi, poiché non è mai possibile essere sicuri di aver preso in considerazione tutte le ipostesi potenzialmente in grado di spiegare un insieme di fe-nomeni. L'empirismo logico (o neopositivismo) cercò di ridare un valo-

Capitolo I

22

re forte alla nozione di verità scientifica, (ri)ponendo la verifi-cazione empirica come criterio fondamentale di scientificità. L'impostazione neopositivista del circolo di Vienna egemoniz-zò gli studi di filosofia della scienza per vari anni, ma alla fine sfociò in un sostanziale fallimento. Vediamo ora come si pose POPPER di fronte a queste tematiche, e quale fu il suo atteggiamento nei confronti del problema della verità e del progresso scientifico. Da giovane, Popper si trovò di fronte ad alcune teorie scientifi-che, allora al centro di grandi dibattiti: la teoria marxista della storia, la psicoanalisi, e la teoria della relatività di Einstein. Il filosofo notò che le prime due teorie, pur molto differenti tra loro, erano apparentemente sempre capaci di spiegare tutto; in altre parole, erano sorprendentemente sempre "vere". Addirittu-ra sembravano in grado di spiegare sia un dato evento sia il suo opposto, ed erano investite da un ininterrotto e univoco flusso di "conferme". In definitiva tali teorie, sempre verificate ed omniesplicative, erano organizzate in modo tale da sfuggire al rischio della falsificazione. Di segno completamente opposto apparve a Popper l'atteggia-mento di Einstein riguardo alla validità della propria teoria: lo scienziato, in una conferenza a Vienna nel 1919, affermò chia-ramente che la sua teoria sarebbe stata da considerarsi insoste-nibile nel caso avesse dovuto fallire in certe prove, cioè in al-cuni esperimenti, che possiamo definire "cruciali". Nacque così il nucleo di tutta la successiva riflessione poppe-riana: la vera attitudine scientifica, data una certa ipotesi, deve consistere nell'andare alla ricerca non di prove – e se ne potreb-bero trovare innumerevoli – volte alla sua verificazione, ma di prove cruciali volte alla sua confutazione, cioè potenzialmente in grado di smentirla. L'impegno dello scienziato deve dunque dirigersi verso la falsi-ficazione più che verso la verificazione. Quest'intuizione trovò una più compiuta elaborazione nel suo celebre saggio Logica della scoperta scientifica, del 1934, nel quale procedette a una dura critica dei capisaldi del neopositivismo allora imperante, soprattutto dell'induttivismo. Secondo Popper non è logicamen-

Conoscenza scientifica

23

te giustificabile inferire asserzioni universali da asserzioni par-ticolari, per quanto numerose queste possano essere. Ma l'in-duttivismo non può essere neppure salvato postulando – come tentò di fare Russell a garanzia della possibilità di operare infe-renze induttive – un "principio di induzione": se infatti quest'ul-timo fosse una verità puramente logica, allora anche tutte le in-ferenze induttive dovrebbero essere considerate trasformazioni puramente logiche (o tautologiche) e quindi non euristiche; se al contrario il principio fosse una verità empirica, ci si trove-rebbe al punto di partenza avendo solo spostato la difficoltà, senza risolverla, in un regresso all'infinito. Una volta ammessa l'inesistenza di procedure induttive, biso-gna di conseguenza riconoscere che la scienza non è, in senso stretto, verificabile empiricamente. Tuttavia il collegamento tra teoria ed esperienza che in tal modo si perde, può essere recu-perato adottando la prospettiva falsificazionista. «Fare vera una teoria significa dimostrare vero il suo contenuto che è rappre-sentato dalle sue conseguenze; ma siccome le conseguenze an-che della proposizione più banale sono di numero infinito, quella della verificazione si rivela un'operazione logicamente impossibile. Ciò non significa che non possiamo scoprire teorie vere per sempre, ma che tale verità non può essere logicamente dimostrata. Né va confusa la sicurezza psicologica circa la veri-tà di una teoria, che ognuno può provare, dalla certezza logica che nessuno può dimostrare. L'hard core di tutta l'epistemolo-gia popperiana è costituito proprio da questa asimmetria logica tra la conferma e la smentita di una teoria: miliardi e miliardi di conferme non rendono certa una teoria, perché le sue conse-guenze da confermare sono infinite, mentre una sola smentita la rende logicamente falsa, dato che una teoria vera contiene sol-tanto conseguenze vere. Ecco dunque che se abbiamo deciso, sulla base di ragioni extra-scientifiche, che quello della cono-scenza scientifica è un valore da incrementare, allora – data l'a-simmetria tra conferma e smentita – non ci resta che tentare di falsificare le teorie esistenti, perché prima scopriamo l'errore che esse contengono e prima tenteremo di rimuoverlo. L'errore diventa dunque la "felix culpa" nella scienza come nella vita di

Capitolo I

24

ogni giorno, perché la sua individuazione e la sua eliminazione è la conditio sine qua non per la crescita della conoscenza» (DI NUOSCIO , 2002). Popper propone dunque di caratterizzare la scienza come l'in-sieme delle proposizioni falsificabili. Il buon scienziato, anche se spesso non parte dai fatti per arrivare alla teoria, ma dai pro-blemi che cerca di risolvere ipotizzandone alcune soluzioni, dovrà poi sempre andare alla ricerca di quelle conseguenze del-la sua teoria che sembrano avere la più alta probabilità di risul-tare false. La storia della scienza si presenta quindi come una serie di congetture e falsificazioni, e ciò, apparentemente, sembrerebbe implicare un'idea di conoscenza scientifica come assolutamente incerta e provvisoria. Tuttavia, e questo è un punto fondamentale, l'approccio falsifi-cazionista non nega affatto la possibilità di parlare di verità della scienza. Al contrario, il falsificazionismo richiede indub-biamente una nozione di verità oggettiva: che senso avrebbe, altrimenti, sostenere che un'ipotesi è falsa, se non si ammettes-se, nello stesso tempo, che deve esistere un'ipotesi vera? Popper non nega quindi che esista la verità, e che la scienza ab-bia proprio il compito della ricerca della verità. Quello che egli nega è che esista un criterio per riconoscere la verità. Lo scien-ziato non sarà mai in grado di dimostrare che la sua teoria è ve-ra, ma potrà al massimo dimostrare che essa ha superato positi-vamente dei severi tentativi di falsificazione, e ciò potrà certa-mente essere considerato come un sintomo di verità. Ma procedendo oltre, ed arrivando al punto che maggiormente ci interessa, bisogna ricordare che Popper affrontò il problema della verità anche da un altro punto di vista, vale a dire quello della scelta tra due teorie rivali. Anche se, di fronte a due teo-rie rivali, l'esperienza non ci consentirà mai di dimostrare la ve-rità né dell'una né dell'altra, è possibile tuttavia stabilire un cri-terio che ci consenta di scegliere l'una piuttosto che l'altra? In altre parole, se non esiste un criterio per riconoscere la verità, esiste almeno un criterio per riconoscere una maggiore o mino-re vicinanza alla verità?

Conoscenza scientifica

25

Popper risponde in modo nettamente positivo, introducendo la teoria della verosimilitudine (1962). Un asserto sarà da consi-derarsi tanto più verosimile, quanto maggiore sarà la misura del suo contenuto di verità rispetto a quella del suo contenuto di falsità; naturalmente, bisognerà preferire la teoria che ha un maggior grado di verosimilitudine.10 Pertanto resta fermo il principio per cui il confronto tra teorie rivali va fatto sul terreno del loro maggiore o minore approssi-marsi alla verità assoluta. Tuttavia è necessario mettere in evi-denza che l'idea di verità assoluta ha solo un valore regolativo, e che in tutta la teoria della verosimiglianza non c'è mai il rife-rimento ad una misura della differenza tra una teoria e la verità, ma sempre tra due teorie. Quindi, grazie alla teoria della verosimilitudine, Popper, nella seconda fase del suo falsificazionismo (falsificazionismo mo-derato), può parlare di progresso anche in senso forte, soste-nendo che, dal momento che la scienza procede scegliendo teo-rie con gradi di verosimiglianza crescenti, il contenuto di cono-scenza aumenta progressivamente. In sostanza vi è l'idea di un continuo approssimarsi a una verità oggettiva: anche se questa non potrà mai essere raggiunta, non v'è, in astratto, alcun osta-colo a un continuo e infinito perfezionamento della conoscenza. Ecco quindi che anche nel pensiero di Popper, grande opposito-re del Neopositivismo, non v'è traccia di sfiducia nella scienza, non ci sono appigli per coloro che, di fronte agli scarsi risultati del loro procedere scientifico, continuano a fraintendere i con-cetti scientifici e filosofici al fine di dimostrare una generaliz-zata non-oggettività, parzialità e in definitiva arbitrarietà della conoscenza scientifica. Aprendo una breve parentesi, in verità la vera lezione da trarre da quanto detto dovrebbe riguardare un altro aspetto, e cioè la scarsa fiducia da attribuire alle classiche procedure di verifica-zione che vengono di regola adottate nell'ambito delle scienze sociali, e quindi della criminologia, e che – guarda caso – ten-

10 Popper propose anche una formula, che in verità non dice molto più di

quanto non possa essere espresso a parole: Vs(a) = CtV (a) – CtF (a)

Capitolo I

26

dono invariabilmente a "confermare" l'ipotesi di partenza. Ma di questo ci occuperemo a tempo debito. Ora, invece, è venuto il momento di approfondire il problema dell'oggettività, e quello collegato della neutralità (quest'ultima intesa quale indipendenza dalle coordinate psicologico-culturali del ricercatore, ovvero dall'ideologia), della conoscenza scienti-fica. Questi rappresentano dei punti fondamentali di riflessione, soprattutto per i fraintendimenti, volontari o meno, che a tal proposito sono derivati dalla grande rivoluzione che la fisica ha vissuto agli inizi del Novecento. Fraintendimenti di cui i re-sponsabili sono stati in primis filosofi della scienza, intellettuali postmoderni e sociologi che si sono occupati di problemi epi-stemologici. La relatività einsteiniana e la meccanica quantistica rappresen-tano certamente dei paradigmi rivoluzionari. Al di là del radica-le mutamento dei concetti di spazio e di tempo, della relativiz-zazione degli stessi in funzione della velocità dei sistemi di os-servazione, dell'impossibilità di stabilire con esattezza e simul-taneamente posizione e velocità di una particella, dell'impossi-bilità di andare oltre a predizioni di tipo probabilistico, esse se-gnano un passaggio fondamentale nella concezione stessa del soggetto osservante ed esperiente la realtà. Nell'ambito della meccanica classica newtoniana l'uomo, pur facendo parte della realtà analizzata, in quanto soggetto conoscitivo si considerava osservatore esterno non vincolato nella sua attività conoscitiva ad alcuna limitazione di ordine fisico. Quello che la fisica del molto grande e del molto piccolo mette in discussione è proprio questa concezione del soggetto. Da una parte, la teoria della re-latività di Einstein segnala l'esistenza di un orizzonte temporale che non può essere valicato dall'uomo11. Dall'altra, il principio di indeterminazione di Heisenberg relativizza l'osservazione rispetto alle condizioni dell'osservatore: ogni stato di osserva-

11 Lo spazio-tempo è funzione della velocità, e la velocità massima è quel-

la della luce; poiché anche l'informazione non può viaggiare a una velocità maggiore di quella della luce, esiste una barriera temporale oltre la quale il soggetto non può ottenere informazioni

Conoscenza scientifica

27

zione e misurazione di un fenomeno (a livello subnucleare) in-fluisce sullo stato del sistema analizzato. Esistono pertanto dei limiti al perfezionamento continuo della sperimentabilità scien-tifica. In sostanza, Einstein e Heisenberg determinano un nuovo para-digma metodologico euristico, per il quale il soggetto cono-scente è parte del sistema osservato, e la sua conoscenza non è indipendente dalle sue caratteristiche fisiche in quanto sogget-to-oggetto dinamicamente connesso a questo sistema12. Questo radicale mutamento di prospettiva, spesso frainteso, ha fornito ad alcuni scienziati sociali – a onor del vero istigati da certi filosofi e sociologi della scienza (v. infra, par. 1.4, note 41 e 42) – il pretesto per conferire una veste di "rispettabilità" al frequente mancato utilizzo da parte loro di un corretto metodo scientifico. Addirittura, è accaduto anche che si volesse ribalta-re la situazione, e sulla scia della "fine" dell'oggettività della conoscenza scientifica si è proposto di trasferire il "metodo" delle scienze umane e sociali alle scienze della natura. In so-stanza il principio di indeterminazione di Heisenberg (più esat-tamente: una forma alquanto volgarizzata e fraintesa di tale principio), al pri di altre importanti scoperte scientifiche del Novecento, è stato utilizzato per nascondere le gravi pecche di un procedere scientifico che spesso scientifico non è stato. E ciò, da un punto di vista psicologico, non può certo stupire: è di molto conforto lo scoprire che anche la fisica – la più rigorosa tra le scienze naturali –, per lungo tempo il modello ideale di tutte le scienze, ha dei limiti. Ma, nonostante il principio di indeterminazione, la meccanica quantistica è per certi aspetti una teoria deterministica. Sebbe-ne, infatti, il risultato di un dato processo quantistico possa ri-manere indeterminato, le probabilità relative dei diversi risultati possibili evolvono in modo deterministico. Questo significa che non possiamo sapere con esattezza cosa avverrà in ogni singolo

12 Da questo punto di vista anticipando di molti anni i risultati a cui per-

verranno, successivamente, gli studi fondati su approcci sistemici e ciberneti-ci.

Capitolo I

28

caso preso in esame, ma possiamo sapere con precisione asso-luta quale sarà in ogni momento la probabilità dell'evento quan-tistico. Pertanto, come teoria statistica, la meccanica quantistica è deterministica (v. più ampiamente infra, par. 4.3) e mantiene ancora alcune vestigia della visione di Newton-Laplace (v. in-fra, note 15 e 16). D'altra parte non bisogna dimenticare che, nell'ambito della-meccanica quantistica, è stata sviluppata durante la seconda metà del secolo scorso la teoria che, attualmente, ha una forza, una coerenza interna e un'eleganza mai raggiunte in precedenza da nessun'altra teoria. Ci riferiamo al cosiddetto "Modello Standard delle Interazioni Subnucleari", che permette di descri-vere con una precisione sorprendente, e in modo quantitativo, il comportamento delle particelle elementari a livello fondamen-tale, rispettando nello stesso tempo i principi della relatività ri-stretta e della meccanica quantistica13. Bisogna porre in eviden-za il fatto che il Modello Standard ha superato con successo tut-te le prove sperimentali alle quali è stato sottoposto, e ha per-messo di anticipare (ovvero: prevedere) un gran numero di scoperte sperimentali decisive14. Nonostante il principio di indeterminazione, quindi, le ricerche in fisica proseguono con ottimi risultati proprio nel dominio della meccanica quantistica, e non solo dal punto di vista de-scrittivo, ma anche predittivo. Inoltre la teoria quantistica trova anche una miriade di applicazioni in vari campi dell'attuale tec-

13 In sostanza, il Modello Standard consiste in una serie di algoritmi che

permettono di calcolare, per approssimazioni successive, e con l'aiuto di un numero fisso e finito di parametri determinati sperimentalmente, le probabili-tà di reazione dei quanti di materia (leptoni e quarks) e dei quanti di forza (fo-toni, bosoni vettori intermedi e gluoni), nell'interazione elettrodebole (Elet-trodinamica Quantistica) e nell'interazione forte (Cromodinamica Quantisti-ca).

14 Attualmente tutte le previsioni del Modello Standard sono state confer-mate dagli esperimenti, con una sola eccezione: l'esistenza del c.d. bosone di Higgs; tuttavia, i fisici nutrono una grande fiducia nella possibilità di rilevare tale particella quando entrerà in funzione il loro nuovo "microscopio", il po-tente acceleratore di particelle Large Hadron Collider (LHC), attualmente in costruzione presso il CERN di Ginevra.

Conoscenza scientifica

29

nologia, dai reattori nucleari ai semiconduttori (che hanno per-messo l'enorme sviluppo dell'elettronica e dell'informatica), dal laser alla crittografia, e così via. In sostanza ciò che qui preme sottolineare è che la teoria funziona perfettamente, ovvero stiamo trattando di qualcosa di estremamente valido e concreto, e non di "indeterminato". Se, pertanto, il mondo dell'infinitamente piccolo è, in fin dei conti, deterministico, o quantomeno studiabile e controllabile, lo deve essere, a maggior ragione, anche il mondo a livello ma-croscopico. Perché, allora, nell'ambito di alcune scienze (soprattutto quelle umane e sociali, ma non solo esse) il cui oggetto di studio si pone a tale livello di organizzazione della realtà, è estremamen-te difficile, se non impossibile, formulare delle previsioni effi-caci? Prima di cercare di rispondere a questa domanda, è necessario fare un passo indietro. In passato si riteneva che gli eventi apparentemente casuali fossero dovuti alla nostra ignoranza o approssimazione nella stima di un gran numero di variabili nascoste o di gradi di liber-tà. A seguito della scoperta e dell'enorme successo delle leggi della dinamica di Newton (e della conseguente formulazione della meccanica classica) l'universo veniva infatti considerato come un gigantesco meccanismo. Nell'Ottocento Laplace im-maginò ogni singola particella come costretta da un abbraccio di inflessibili leggi matematiche in grado di definirne il moto in ogni unità di spazio e di tempo. Di conseguenza, dato lo stato dell'universo in un dato istante, sarebbe stato teoricamente pos-sibile definire univocamente, e con precisione assoluta, tutta l'evoluzione futura (determinismo universale)15. Oggi, come dicevamo ci rendiamo conto che non è possibile

15 «Un'intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati a un'anali-si, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'u-niverso e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire, come il passato, sarebbe presente ai suoi occhi» (LAPLACE, 1825).

Capitolo I

30

predire ogni cosa con precisione assoluta16. Coloro che si sono impegnati, ad esempio, nella formulazione di teorie eziologiche caratterizzate da velleità predittive in criminologia ne sanno qualcosa. A rigor di logica, i fisici stanno usando la meccanica quantisti-ca per descrivere le proprietà fondamentali della materia e le forze in gioco nell'universo, sperando di spiegarne l'origine e l'evoluzione. Una volta formulata la cosiddetta "Teoria del Tut-to" (cui molti fisici teorici lavorano assiduamente), che do-vrebbe unificare tutte le forze presenti in natura, dovrebbe esse-re possibile spiegare unitariamente tutti i fenomeni naturali, dai più semplici ai più complessi, quali il comportamento di atomi e molecole (fisica e chimica), e il modo in cui si organizzano e si riproducono (biologia). Dovrebbe essere solo una questione di tempo, di lavoro e di capacità di elaborazione dei dati. D'al-tra parte, gli uomini sono soggetti alle medesime leggi della na-tura per cui, alla fine, dovremmo poter essere in grado di fare previsioni anche sugli eventi umani. Teoricamente, quindi, la vita dovrebbe essere prevedibile17. Tutto ciò si scontra con la realtà: gli scienziati non sono nean-che in grado di prevedere quali saranno le condizioni del tempo fra due settimane. Non parliamo poi della possibilità di preve-

16 In realtà, nonostante quanto si va sempre ripetendo a proposito di La-

place ogni qualvolta ci si accinge a criticare il determinismo e il meccanici-smo, il grande scienziato francese era perfettamente conscio che una cono-scenza assoluta, del tipo necessario a prevedere ogni cosa, era e sempre sareb-be stata preclusa all'uomo. E infatti egli enunciò quanto appena riportato nella nota precedente proprio nell'introduzione di un suo saggio sulla teoria della probabilità, la quale – per l'autore – non era altro che un metodo per ragionare in situazioni di ignoranza parziale, che rappresenta per l'appunto la condizione umana. In altre parole l'Uomo, non essendo in grado di prestazioni analoghe a quelle dell'ipotetica "intelligenza superiore", ma essendo – tuttavia – in grado di conoscere alcune leggi e alcuni stati, può servirsi di queste conoscenze per formulare previsioni valide entro limiti di approssimazione grazie all'uso del calcolo delle probabilità.

17 Giova sottolineare che un'idea simile è conseguenza dell'adesione al ri-duzionisimo forte, e non al determinismo: i due concetti non sono né sinonimi, né necessariamente costituiscono un binomio inscindibile.

Conoscenza scientifica

31

dere il comportamento umano. Per questo motivo – aprendo una breve parentesi e anticipando quanto sarà esposto più dettagliatamente nel capitolo 4 – negli ultimi trent'anni, scienziati di diverse discipline si sono impe-gnati nell'elaborazione della cosiddetta "teoria del caos"18, che ipotizza l'esistenza di limiti intrinseci alla prevedibilità del futu-ro, a vari livelli di complessità. Con tale teoria è possibile dare una ragione al sostanziale determinismo dell'universo e alla contemporanea impossibilità di prevedere ogni cosa. La teoria del caos presenta quindi un universo deterministico, che segue le leggi fondamentali della fisica, ma con una predi-sposizione al disordine, alla complessità, all'imprevedibilità; spiega come molti sistemi in continua evoluzione siano molto sensibili alle loro condizioni iniziali: a mano a mano che il si-stema evolve nel tempo, delle variazioni, inizialmente anche piccole, si amplificano rapidamente a causa della retroazione (feedback). Ne consegue che sistemi caratterizzati da condizio-ni iniziali anche molto simili possono divergere rapidamente col passare del tempo. Questo comportamento pone quindi dei vincoli molto stretti alla prevedibilità dello stato futuro del si-stema, poiché la previsione dipende dall'accuratezza con cui siamo in grado di misurarne le condizioni iniziali. Una situa-zione del genere può essere facilmente compresa se si prova a rappresentare un sistema caotico sull'elaboratore elettronico: dopo aver fornito equazioni e dati, anche una semplice varia-zione nell'arrotondamento di una cifra decimale può modificare radicalmente l'evoluzione del sistema stesso. Mentre in un sistema non caotico gli errori crescono in propor-zione al tempo (o ad una sua bassa potenza), rimanendo così relativamente controllabili, al contrario, in un sistema caotico, un errore iniziale si moltiplica in modo esponenziale col passa-re del tempo e, in breve, è destinato a fagocitare il calcolo ren-dendo vana qualsiasi previsione. A questo punto bisogna fare un'ulteriore precisazione. Abbiamo

18 Detta anche teoria dei sistemi dinamici non-lineari, e che è uno dei fi-

loni da cui sono nati gli studi sulla Complessità (v. infra, par. 4.1, 4.2).

Capitolo I

32

già osservato che, se in definitiva anche la meccanica quantisti-ca è – almeno dal punto di vista statistico – deterministica, a maggior ragione anche gli eventi che accadono a livello macro-scopico lo devono essere. Si è soliti ritenere, tuttavia, che il de-terminismo debba andare di pari passo con la prevedibilità. Questa affermazione è da ritenersi errata proprio in virtù di quanto affermato in precedenza: in un sistema deterministico19 gli stati futuri sono completamente determinati dagli stati pre-cedenti in una sorta di corrispondenza biunivoca. Tuttavia ogni calcolo previsionale conterrà sempre degli errori in ingresso, poiché non siamo in grado di misurare delle quantità fisiche con precisione assoluta, e i computer possono elaborare solo quantità finite di dati. Il determinismo implica la prevedibilità solo nel limite idealizzato della precisione infinita. In un siste-ma non caotico questa limitazione non è grave perché gli errori si propagano molto lentamente, ma in un sistema caotico gli er-rori crescono a ritmo accelerato. Ecco dunque rotta la simmetria tra causalità e previsione. Ma se è impossibile prevedere ogni cosa, non è per questo impossi-bile, o inutile lo studio delle cause. La teoria del caos getta dunque un ponte fra le leggi della fisica e quello che siamo so-liti chiamare "caso". In un certo senso è ancora possibile consi-derare – come facevano i sostenitori della "macchina cosmica" di Newton-Laplace – gli eventi apparentemente casuali come ignoranza di dettagli. Il caos deterministico appare casuale per-ché necessariamente ignoriamo i dettagli più minuti, ma in real-tà casuale non è! In definitiva la teoria del caos rappresenta la possibilità di ri-conciliare la complessità del mondo fisico e i suoi comporta-menti a volte "capricciosi" con l'ordine e la semplicità delle leggi fondamentali della natura, a dispetto dell'uso distorto e disinvolto che così spesso si fa, da parte di alcuni intellettuali – sociologi o filosofi della scienza – dei termini e dei concetti

19 E anche la società umana lo è, benché complessissimo sistema compo-

sto da individui, i quali a loro volta sono caratterizzato dall'aggregato di mate-ria più complesso dell'universo, vale a dire il cervello umano.

Conoscenza scientifica

33

scientifici. Ma di tutto questo si parlerà più diffusamente oltre (v. infra, par. 1.4). In conclusione, chiudendo con ciò la parentesi aperta poco so-pra, e tornando al punto da cui siamo partiti, la rivoluzione che la fisica ha vissuto all'inizio del Novecento, lungi dallo stravol-gere i classici concetti, principi e metodi sui quali le scienze fi-siche e, in generale, naturali, si sono andate costruendo nel cor-so degli ultimi tre secoli e mezzo, ha invece offerto, insieme ad una griglia concettuale sistematica e di maggiore efficacia ope-rativa nei confronti dei dati osservati rispetto alle teorie prece-denti, un nuovo status al soggetto conoscitivo, non più osserva-tore distaccato della realtà (del noumeno), ma, in certo senso e kantianamente, "legislatore" della natura, o meglio dei fenome-ni naturali. Tuttavia è giusto precisare che alcuni scienziati, già alla fine negli anni Venti del secolo scorso, proposero un'interpretazione della meccanica quantistica secondo cui gli oggetti quantistici si trovano in certi stati che non sono definiti oggettivamente: le caratteristiche reali ed oggettive sarebbero definite solo nel momento in cui vengono misurate, e quindi sarebbero "create" in parte dall'osservatore. In tal modo la figura dell'osservatore cosciente e l'idea di un suo contributo alla creazione della realtà fecero capolino in una scienza – la fisica – fino ad allora considerata rigorosamente oggettiva. Ma la convinzione che in fisica il contributo dell'osservatore sia solo nella rappresentazione che egli si fa della realtà è rimasta sempre dominante, almeno tra gli scienziati, cioè coloro che la scienza la fanno. Infatti questa necessaria "distorsione" (le fa-mose perturbazioni che l'osservatore necessariamente causa a ciò che osserva) è uguale per tutti gli osservatori, quindi è pos-sibile considerarla neutrale e trascurarla senza problemi. Le proprietà osservate della materia in un dato istante sono in-scindibili dallo stato dell'osservatore, ma non lo sono le pro-prietà intrinseche della materia stessa. E soprattutto, giova sot-tolinearlo, questa distorsione non dipende in alcun modo da propensioni, convinzioni o ideologie individuali.

Capitolo I

34

E infatti vi furono delle vivaci reazioni alla concezione dell'os-servatore "creatore", anche perché risulta alquanto difficile ne-gare che l'universo esista in uno stato oggettivo, indipendente-mente dal fatto che noi lo osserviamo o meno. Bene o male, l'universo ha fatto a meno di noi per molti miliardi di anni, e le leggi fisiche valevano allora come valgono oggi: l'attuale esi-stenza della vita è garanzia della validità, anche per il passato, delle stesse leggi fisiche che oggi la regolano e che preceden-temente ne hanno permesso la nascita e l'evoluzioneLe reazioni, come si diceva, furono numerose ed energiche, e misero a confronto le convinzioni di grandissimi scienziati, come Einstein (che riteneva che la meccanica quantistica fosse da considerarsi incompleta e perfettibile) e come Bohr (che so-steneva invece la validità della teoria in questione). Occorre comunque notare che lo stesso Bohr volle subito eli-minare la figura di un osservatore cosciente, troppo scomoda per una scienza ritenuta puramente oggettiva. Nacque allora la cosiddetta "interpretazione di Copenhagen" di Bohr e Heisenberg, che è stata spesso fraintesa, anche se – bi-sogna dirlo – i due scienziati hanno fornito numerose e diverse varianti della stessa. Secondo la versione classica, è ben vero che la realtà quantistica esiste in uno stato indefinito e non og-gettivo, ma non per questo è necessaria la figura di un osserva-tore cosciente: è sufficiente che avvenga una "reazione termo-dinamica irreversibile" affinché lo stato non oggettivo diventi uno stato oggettivo: per esempio un elettrone, per essere riscon-trato in un rivelatore, deve avere una reazione termodinamica irreversibile col rivelatore stesso, e tale reazione è sufficiente a rivelarlo nel "mondo oggettivo" della fisica classica senza ne-cessità di un soggetto cosciente che se ne accorga20. La critica di Einstein e di altri fisici fu invece radicale: essi so-

20 Di conseguenza nacque anche l'interpretazione "operativa" del principio di indeterminazione: per misurare una caratteristica di un oggetto fisico, oc-corre necessariamente interagire con esso, e questa interazione "perturba" ine-vitabilmente lo stato originario, creando appunto la "piccola indeterminazio-ne". In questo modo, secondo gli scienziati di Copenhagen, si ottiene un'inter-pretazione del tutto ragionevole ed accettabile.

Conoscenza scientifica

35

stennero che la meccanica quantistica era una teoria incompleta e provvisoria, che avrebbe dovuto essere perfezionata col tem-po per eliminare alcuni aspetti indesiderati, sebbene funzionas-se perfettamente sul piano sperimentale. Anzitutto Einstein non accettava l'idea che esistesse un'inde-terminazione sulle misure quantistiche, ovvero che i risultati non fossero pienamente determinabili in anticipo: ciò, secondo Einstein, introduceva nella fisica l'influenza del "cieco caso", per lui assolutamente inaccettabile. A questo proposito viene ricordata la sua celebre frase: «Dio non gioca a dadi con il mondo!». Einstein inoltre non credeva alla possibilità di "stati non-oggettivi", ma riteneva che gli stati esistano oggettivamente an-che prima della misura, indipendentemente dal fatto che venga-no misurati o meno. Secondo il "realismo" di Einstein, quindi, gli stati quantistici esistono oggettivamente, al di là di tutte le limitazioni imposte dalla teoria quantistica, che perciò – secondo Einstein – sarebbe da considerarsi incompleta e provvisoria. Esisterebbero pertan-to delle variabili nascoste che descrivono la realtà oggettiva dei sistemi quantistici, ma non sono ancora riconosciute dall'attuale teoria21. Non va comunque trascurato che la grande maggioranza dei fi-sici sono tuttora convinti della validità del realismo. In un son-daggio22 effettuato nel 1985 tra un campione di fisici il "reali-

21 Molto simile alla reazione di Einstein fu quella di molti scienziati sovie-

tici. Accanto ad una critica rozzamente ideologica di alcuni di essi, per i quali era necessario combattere ogni nuova teoria elaborata dai fisici occidentali, se ne affiancò un'altra elaborata dai migliori e più preparati scienziati sovietici dell'epoca, quali Nikolski, Blokhintsev, Fock, Omelianowski, che si incentra-va sull'affermazione che anche nel mondo dell'infinitamente piccolo la realtà preesiste all'osservatore ed è da lui indipendente, e che l'impostazione proba-bilistica della meccanica quantistica deriva non da una proprietà intrinseca della realtà, ma dalla limitata conoscenza che noi abbiamo degli eventi micro-fisici. Come si vede, la critica di Einstein e quella dei fisici sovietici sono completamente sovrapponibili.

22 Riportato da MASANI A., "La fisica e la realtà", in L'Astronomia n.73, 1988.

Capitolo I

36

smo" veniva accettato ben dall'86% degli intervistati, non veni-va più accettato solo dal 2%, mentre il 12% trovavano ambigua la domanda. Appare chiaro, allora, quanto sia intellettualmente disonesto u-tilizzare il principio di indeterminazione, la "non-oggettività"23 della realtà, e gli altri postulati della teoria quantistica, o, più in generale, altre teorie scientifiche più recenti (Complessità, Ca-os, ecc) a torto considerate "esotiche", al fine di negare l'ogget-tività e la neutralità della scienza. Questo significa distorcere il significato dei concetti scientifici, significa voler recepire un messaggio che fa comodo sentire, e che non è il vero messag-gio che la fisica ci comunica. Certo, fraintendere è a volte molto comodo, soprattutto per chi si occupa di scienze umane e sociali; in tal modo, si ritiene di poter giustificare l'irrilevanza, o la non-neutralità, dei risultati che (spesso non) vengono raggiunti – mai ammessa per la pro-pria teoria ma spesso attribuita alle teorie "antagoniste" – senza considerare che in questo caso si tratta di una "perturbazione" ben diversa, non dovuta alla circostanza che esistono determi-nati oggetti fisici (particelle elementari) dotati di proprietà tali che un osservatore umano non potrà probabilmente mai giunge-re ad averne una conoscenza completa, ma dovuta al condizio-namento dell'ideologia dell'osservatore, unito all'estremamente complesso oggetto di studio e al frequente mancato utilizzo del metodo scientifico24.

23 In realtà, a ulteriore specificazione di quanto già detto, la meccanica

quantistica – anche considerando esclusivamente la dominante "interpretazio-ne di Copenhagen" – pur segnando la fine del concetto di oggettività nel senso "classico" del termine, permette ancora di parlare di "oggettività degli stati quantistici". Infatti, gli stati quantistici rimangono sempre esattamente definiti da un punto di vista matematico. La verità è che si tratta di un tipo di oggetti-vità diversa rispetto a quella, familiare, della fisica classica, ed è per questo molti parlano correntemente di "non-oggettività", in ciò aiutati dalle più o me-no volontarie distorsioni terminologiche operate da molti filosofi e sociologi della scienza.

24 I fenomeni sociali danno luogo ad azioni per le quali – visto il valore assoluto del quanto d'azione di Planck – il principio di Heisenberg non preve-de problemi di misura. In effetti l'indeterminazione nel misurare contempora-

Conoscenza scientifica

37

In conclusione, ai fini dello studio e dell'eventuale controllo dei sistemi complessi – quali l'individuo e la società – il giusto ap-proccio rimane sempre quello scientifico, attraverso – come si vedrà in seguito – l'impianto teorico e gli strumenti della teoria del caos, all'interno di una prospettiva sistemico-cibernetica. In altre parole, si tratta di condurre lo studio dell'individuo e della società nell'alveo di quella convergenza di paradigmi che va sotto il nome di "Complessità"25 (v. supra, nota 1), e non certo rinunciando alla conoscenza scientifica dei fenomeni in nome di "indeterminazioni", "relatività" e "caoticità" varie. A questo proposito è purtroppo necessario evidenziare come, soprattutto da parte del pensiero postmoderno, sia già da alcuni anni in corso l'appropriazione, e la contestuale distorsione, di molti dei concetti propri della teoria del caos. Ma di questo si parlerà in modo più esteso – in relazione alle scienze sociali in generale – nel paragrafo che segue, e poi – relativamente alla criminologia in particolare – nel paragrafo 5.1. 1.4 L'equivoco postmoderno Sotto l'etichetta di "postmodernismo" (chiamato anche po-ststrutturalismo soprattutto nelle sue accezioni sociologiche) si cela una variegato movimento26 intellettuale, culturale e sociale

neamente energia cinetica e posizione di un individuo, di un gruppo o di una scuola è – eufemisticamente parlando – trascurabile! (v. anche infra, par. 4.3). Il problema, come vedremo, è invece un altro, giacché attiene alla natura complessa del fenomeno, e non alla sua natura indeterminata.

25 Circa i rapporti tra caos e complessità, è possibile rilevare variegate po-sizioni (MARION, 1999): alcuni sostengono che la teoria del caos faccia parte della più generale scienza della Complessità, altri sostengono che tra i due concetti non ci sia poi molta differenza, rappresentando due facce della stessa medaglia.

26 A onor del vero, il termine "postmodernismo" nasce in campo artistico e architettonico, ma viene solitamente usato in una accezione solo parzialmente (e molto limitatamente) sovrapponibile, sia concettualmente sia temporalmen-te, a quella che qui ci interessa. Esempi di modernismo possono essere le ope-re di Le Corbusier in architettura e l'astrattismo, il cubismo o il futurismo in

Capitolo I

38

sviluppatosi a partire dall'inizio degli anni Settanta e difficil-mente riconducibile ad unità. Il suo minimo comun denomina-tore può essere individuato nella contrapposizione al moderni-smo27, la qual cosa del resto emerge con chiarezza dallo parola stessa28. Tale contrapposizione si manifesta essenzialmente nel rifiuto della fiducia modernista, o meglio illuminista, nel pro-gresso e nel miglioramento dell'umanità attraverso la scienza, la tecnologia e il pensiero razionale. Gli intellettuali postmodernisti29, tra i quali spiccano i francesi Jacques Lacan, Julia Kristeva, Bruno Latour, Jean Baudrillard, Paul Virilio, Gilles Deleuze, Felix Guattari, Luce Irigaray, Je-an-François Lyotard, Michel Serres, e altri, mettono in discus-sione i fondamenti stessi della conoscenza: la realtà sarebbe un costrutto mentale, e non qualcosa di esterno che la mente per-cepisce. Date queste premesse, è facile cadere nel solipsismo: poiché nulla si può conoscere, è conseguentemente inutile an-che tentare di conoscere alcunché.

pittura, mentre il dadaismo o il surrealismo potrebbero essere definite "avan-guardie postmoderne". Anche dal punto di vista letterario può essere fatto un discorso simile, potendosi considerare come "postmoderne" le opere di autori come Joyce, Beckett o Borges. Appare superfluo chiarire che – a parere di chi scrive – non è certo il "po-stmodernismo" artistico e letterario che va criticato, ma quello filosofico, con le sue pericolose interpretazioni relativistiche della scienza, dell'etica e della politica.

27 Forse sarebbe più appropriato parlare di un più generale rifiuto della "modernità".

28 Il termine "postmodernismo" da un lato manifesta con precisione il le-game "edipico", ambiguo e in ultima analisi parassitario che, alla stregua di un adolescente ribelle ma impotente, questo movimento conserva con il moderni-smo; dall'altro risulta però molto poco "postmoderno", dal momento che il postmodernismo (soprattutto il poststrutturalismo) rifiuta la concezione linea-re del tempo, che invece è implicita nel prefisso post.

29 A rigore, Lacan e la prima Kristeva non rientrano propriamente all'in-terno del postmodernismo inteso in senso stretto, ma sono comunque conside-rati degli importanti punti di riferimento dai postmodernisti. Se invece si da allo stesso termine una accezione più lata, allora anche filosofi come Nie-tzsche e Heiddeger possono trovare qui il loro posto, se non altro nel ruolo di padri nobili.