Hume PageHume Page

L’Università di Zurigo si ribella alla dittatura degli “indicatori”

10 Aprile 2024 - di Paolo Musso

In primo pianoSocietà

Il 13 marzo scorso l’Università di Zurigo ha annunciato ufficialmente la sua decisione di abbandonare il sistema internazionale di valutazione delle università, usualmente chiamato THE perché pubblicato dalla rivista inglese Times Higher Education.

Ne parlo solo adesso perché solo adesso l’ho saputo, grazie alla segnalazione di un collega, che a sua volta ha ripreso un post pubblicato sulla pagina Facebook di un amico, che a sua volta riprendeva un trafiletto apparso sul sito svizzero swissinfo.ch, che a sua volta riprendeva il breve comunicato apparso sul sito dell’Università (https://www.news.uzh.ch/en/articles/news/2024/rankings.html). Un percorso quasi clandestino per una notizia che è stata quasi totalmente ignorata dai media (l’unica notizia in italiano che ho trovato su Internet è apparsa su Ticinonline ed era una semplice traduzione del trafiletto suddetto).

A prima vista tale disinteresse potrebbe apparire giustificato: perché infatti questa notizia dovrebbe importarci, in un momento in cui ben altri e ben più gravi sembrano essere i problemi?

La risposta è: esattamente perché così sembra, ma così non è. La decisione presa dall’Ateneo svizzero è potenzialmente rivoluzionaria, non solo rispetto al problema (comunque gravissimo) che affronta, ma soprattutto per la visione del mondo che vi sta dietro, che è diametralmente opposta a quella che sta alla radice di molti dei suddetti problemi apparentemente più gravi e più importanti.

Anzitutto, a scanso di equivoci, va detto che l’Università di Zurigo non ha preso questa decisione perché oggetto di una valutazione negativa: nell’ultima classifica si trovava infatti all’80° posto, che è un’ottima posizione, considerando che nel mondo esistono oltre 7000 università.

La ragione è che, come dice seccamente il comunicato, «la classifica non è in grado di riflettere l’ampio spettro di attività di insegnamento e ricerca intraprese dalle università». E questo perché «le classifiche generalmente si focalizzano su risultati misurabili, che possono avere conseguenze indesiderate, ad esempio portando le università a concentrarsi sull’aumento del numero di pubblicazioni invece che sul miglioramento della qualità dei loro contenuti».

Confesso che la cosa mi ha stupito, perché non credevo che in Europa ci fosse ancora qualcuno capace di prendere una posizione così forte e di dire parole così chiare e così controcorrente. Eppure, la cosa davvero sorprendente non dovrebbe essere la decisione degli svizzeri, ma piuttosto che ci sia voluto così tanto per arrivarci: da molti anni, infatti, tutti gli addetti ai lavori sanno perfettamente che le cose stanno così, ma ciononostante accettano supinamente questo sistema demenziale.

Giusto per dare l’idea a quelli che addetti ai lavori non sono, farò solo un esempio tra i tanti possibili: quello delle citazioni, che è particolarmente significativo perché a prima vista può sembrare sensato.

Nell’attuale sistema di valutazione si ritiene infatti che un buon indicatore del valore di un articolo, almeno nel campo delle scienze sperimentali, che hanno un metodo estremamente efficace per verificare la bontà delle teorie proposte, sia il numero delle volte che tale articolo è stato citato in altre pubblicazioni. Come ho detto, ciò può sembrare sensato, ma in pratica non lo è affatto e porta ad effetti gravemente distorsivi.

Anzitutto, c’è il problema delle autocitazioni. Un autore, infatti, può citare in ciascuna sua pubblicazione anche le proprie pubblicazioni precedenti e non solo quelle dei colleghi. Tuttavia, siccome il sistema funziona in automatico, gestito da computer che non sono in grado di distinguere, anche le autocitazioni vengono considerate valide.

Si potrebbe pensare che per rimediare basterebbe creare programmi più sofisticati che possano riconoscere e non considerare le autocitazioni, ma non è così: l’autocitazione individuale sta infatti cedendo il passo a quella di gruppo, che è praticamente impossibile da contrastare.

La scienza moderna, infatti, soprattutto in certi campi, come emblematicamente la fisica, può ormai avanzare solo grazie a esperimenti di estrema complessità, che coinvolgono decine o perfino centinaia di persone. Di conseguenza, quando alla fine si pubblica l’articolo che rende conto di tale esperimento vengono (giustamente) considerati coautori tutti quelli che vi hanno preso parte e non solo chi materialmente l’ha scritto, perché costui non ha fatto altro che presentare il risultato che tutti hanno concorso a produrre.

Tuttavia, è chiaro che ciò dà ai ricercatori che partecipano a tali esperimenti un enorme e ingiustificato vantaggio rispetto ai loro colleghi che lavorano da soli o in gruppi più piccoli. Infatti, ogni volta che uno dei coautori citerà l’articolo in un lavoro successivo, tutti gli altri “guadagneranno” una citazione. Di conseguenza, quanto più grande è il gruppo, tanto maggiore sarà (in media) il numero di citazioni che l’articolo otterrà, senza che ciò abbia la minima relazione con il suo valore.

Di nuovo, si potrebbe pensare che il problema si possa risolvere non ritenendo valide neppure le citazioni dei propri coautori, ma in realtà ciò non è possibile, perché si scontra con un’altra difficoltà, stavolta insormontabile.

Perlopiù, infatti, i coautori del primo articolo non lo citeranno in una pubblicazione individuale, ma in un’altra pubblicazione di gruppo, insieme ad altri coautori che non facevano parte del gruppo che ha scritto il primo articolo, il che impedisce di considerarla un’autocitazione, benché molto spesso lo sia. È chiaro, infatti, che, se uno dei coautori insiste per citare un articolo precedente di cui era coautore, anche se non è molto pertinente, ben difficilmente gli altri si opporranno, perché a loro volta avranno qualche altro articolo poco pertinente di cui sono coautori da citare.

Ma dovrebbe essere ormai altrettanto chiaro che tale perversa dinamica non dipende di per sé dall’esistenza (peraltro inevitabile) degli articoli di gruppo, ma dall’usare il numero di citazioni come metodo di valutazione.

Ciò, infatti, in primo luogo dà una rilevanza ingiustificata agli articoli scritti da molte persone e favorisce ingiustamente chi ha l’unico “merito” di far parte di grandi gruppi di ricerca. Inoltre, spinge inevitabilmente i ricercatori a usare il trucco delle autocitazioni di gruppo sopra descritto, il che è sì scorretto, ma spesso indispensabile per “sopravvivere” accademicamente.

Ma c’è di più. Ciò spinge anche i ricercatori ad aumentare il più possibile il numero di coautori, a volte inserendo anche colleghi che non hanno realmente contribuito (i quali, ovviamente, ricambieranno il favore alla prima occasione), perché questo, come abbiamo appena visto, aumenta le possibilità di essere citati (inoltre, la presenza di coautori, specie se internazionali, vale per un altro degli indicatori del valore di un articolo, ancora una volta a prescindere dal suo contenuto).

Infine, il sistema induce a pubblicare il maggior numero possibile di articoli, spesso parlando di cose insignificanti o “spezzettando” in varie parti un articolo interessante ma lungo, perché, di nuovo, così aumenta sia la possibilità di autocitarsi che la probabilità di essere citati da altri (senza contare che anche il numero di articoli pubblicati, indipendentemente dal loro valore, vale per un altro indicatore e quindi spinge nella stessa direzione).

Non ci vuole un genio per capire che tutto ciò alla lunga non può che causare una progressiva diminuzione della qualità della ricerca, cioè l’esatto opposto di quel che si voleva ottenere. Eppure, il numero delle citazioni è uno degli indicatori più sensati: se dunque anch’esso produce effetti perversi di questa portata, figuriamoci gli altri! E in effetti è proprio così. Ma, anziché insistere sugli effetti (su cui potrei andare avanti per ore, senza però aggiungere nulla di concettualmente nuovo), vorrei ora mettere in luce le cause.

O meglio, “la” causa, giacché alla base di tutto ciò sta un’unica idea: la pretesa di ridurre il giudizio qualitativo a un giudizio quantitativo, nella sciocca convinzione che solo quest’ultimo possa essere “oggettivo”, fraintendendo così completamente il vero senso del metodo scientifico. Pretendere di misurare ciò che per sua natura non è misurabile non è infatti segno di rigore, ma di stupidità.

Come ciononostante (e nonostante i suoi palesi effetti perversi) questa idea abbia potuto diffondersi così tanto è una domanda a cui si può rispondere o con un discorso molto lungo o con uno molto breve. Riservandomi quello lungo per un’altra occasione, qui risponderò nella forma breve.

In estrema sintesi, si può dire che da molti anni è in corso in Occidente una pericolosissima svalutazione del giudizio personale, che sempre più persone considerano irrimediabilmente “soggettivo”, non solo nel senso di “fallibile”, ma anche e soprattutto nel senso di “fonte inevitabile di corruzione e di discriminazione”, le due parole che più ossessionano gli uomini (e le donne) del nostro tempo, facendogli progressivamente perdere ogni capacità di ragionare.

Ma, ancor più in profondità, dietro a tutto questo si ritrova ancora e sempre la malattia mortale della modernità, ovvero il rifiuto radicale del rischio, di cui ho parlato molte volte sia in questo sito che nelle mie pubblicazioni. Perché è chiaro che il giudizio personale è un rischio. Ma è un rischio che non si può eliminare. O meglio, si può, ma a prezzo di eliminare con esso anche la libertà e quindi la creatività umana. Come infatti sta accadendo.

Per questo, come accennavo all’inizio, la presa di posizione dell’Università di Zurigo ha una portata potenzialmente rivoluzionaria, che va ben al di là del pur grave problema che l’ha provocata. Basti dire che la pretesa di sostituire il qualitativo con il quantitativo sta, fra l’altro, alla base di sistemi inaffidabili e potenzialmente deleteri come ChatGPT e i suoi “fratelli” (cfr. Luca Ricolfi, https://www.fondazionehume.it/societa/chatgpt-limpostore-autorevole/ e Paolo Musso, https://www.fondazionehume.it/societa/chatgpt-io-e-chat-lo-studente-zuccone/), che sarebbe bene cominciare a chiamare col loro giusto nome, che non è Intelligenza, bensì Stupidità Artificiale (cfr. Paolo Musso, A.S. – Artificial Stupidity, in “Bioethics Update” n. 2/2023, pp. 90-102, https://www.bioethicsupdate.com/frame_eng.php?id=57).

In particolare, mi ha colpito il fatto che gli svizzeri nel loro comunicato affermino che, «sebbene le classifiche pretendano di misurare in modo completo» le attività umane come l’insegnamento e la ricerca, in realtà «non possono farlo» («they cannot do so») e non semplicemente che “non devono farlo”, secondo l’atteggiamento oggi imperante che io chiamo “riduzionismo etico”. Nel nostro tempo scettico e stanco, infatti, qualsiasi affermazione che avanzi una pur minima pretesa di essere oggettivamente vera è di solito molto male accolta, mentre l’etica, anche se non è molto simpatica, è almeno tollerata, perché qualche regola di convivenza dobbiamo pur darcela.

Non che l’etica non sia importante, beninteso, ma il problema è che affrontare le sfide che abbiamo davanti solo dal punto di vista etico finisce inevitabilmente per ridurne (appunto) la portata, anche dallo stesso punto di vista etico (“bad science, bad ethics”, come dicono gli americani – anzi, come dicevano, prima di essere travolti dallo tsunami del rincoglionimento woke). Per questo quel «they cannot do so» è come una ventata d’aria fresca di straordinaria importanza.

Ma ancor più importante è che il comunicato affermi esplicitamente che il fallimento delle classifiche si verifica «perchéesse si incentrano su criteri quantitativi» («as they focus on quantitative criteria»), il che, in un momento storico in cui tutti cercano di convincerci che invece proprio questa è la strada da seguire, è davvero una rivoluzione

Una rivoluzione in cui «si privilegia la qualità piuttosto che la quantità» («the emphasis is on quality over quantity») e che perciò rimette al centro l’essere umano, con la sua rischiosa ma insostituibile libertà.

Una rivoluzione di cui il nostro mondo ha un disperato bisogno e in cui tutti devono decidersi a fare la loro parte, piccola o grande che sia.

Un primo, importantissimo passo sarebbe che altre Università, soprattutto le meglio posizionate nel ranking, lo abbandonassero, come ha fatto Zurigo.

Mai come in questo caso si può dire che il complimento più sincero è l’imitazione.

La frattura tra ragione e realtà 6 / Distruggere la scuola in nome della (ri)educazione

22 Febbraio 2024 - di Paolo Musso

In primo pianoSocietà

Sull’onda dell’emotività suscitata dal terribile assassinio di Giulia Cecchettin da parte del fidanzato tutte le forze politiche hanno approvato all’unanimità l’istituzione in tutte le scuole d’Italia di un corso obbligatorio di “educazione alle relazioni”. A parte l’obiettivo specifico, clamorosamente sbagliato, della lotta al “patriarcato” (che in realtà non c’entra nulla), a preoccupare è la logica di fondo di questi corsi, che stanno distruggendo la scuola in nome della (ri)educazione. Un’idea perversa che ancora una volta nasce da un pregiudizio comunista inconsapevolmente condiviso da molti non comunisti, ma stavolta pure da un pregiudizio liberista che piace molto anche a sinistra.

Quando ho fatto l’elenco delle idee comuniste che si sono così diffuse in Occidente da essere spesso condivise anche dagli anticomunisti (https://www.fondazionehume.it/politica/la-frattura-tra-ragione-e-realta-3-marx-e-vivo-e-lotta-dentro-a-noi-dodici-idee-comuniste-a-cui-credono-anche-gli-anticomunisti/) ne ho dimenticata una, oltretutto della massima importanza, perché, almeno a giudicare dalle vicende di questi giorni, è condivisa veramente da tutti: è quella della rieducazione del popolo.

I comunisti, infatti, hanno sempre avuto tra i loro dogmi indiscutibili che, essendo per definizione “dalla parte giusta della storia”, chi non è d’accordo con loro non è semplicemente uno che ha idee diverse, ma uno che ha, sempre per definizione, delle idee sbagliate. Esse perciò, nel suo stesso interesse, devono essere estirpate e sostituite con quelle giuste attraverso un opportuno processo di rieducazione.

Naturalmente, c’era una distinzione tra i “borghesi”, cioè i membri delle classi dirigenti, che di tali idee sbagliate erano i creatori e i promotori (allo scopo di proteggere i propri interessi economici, che per il marxismo sono sempre la spiegazione ultima di qualsiasi evento storico), e i “proletari”, cioè i membri delle classi popolari, che invece ne erano le vittime. Perciò nei regimi comunisti i primi venivano “rieducati” con metodi brutali, nei gulag o nelle cliniche psichiatriche, mentre per i secondi si puntava essenzialmente sulla scuola.

Ma questa attitudine è stata condivisa anche dai partiti comunisti che si sono trovati ad agire nei paesi democratici, che hanno sempre cercato di tradurla in pratica ogniqualvolta ne hanno avuto l’opportunità. Naturalmente, qui non era possibile spedire gli avversari politici nei gulag (anche se si è cercato più volte di spedirli almeno in galera: vedi per esempio Mani Pulite), per cui questo metodo è stato sostituito dalla gogna mediatica. Per il “popolo”, invece, il mezzo di indottrinamento privilegiato anche in Occidente è rimasto la scuola.

È un dato di fatto innegabile, di cui tutti abbiamo fatto esperienza, direttamente o indirettamente, che gli insegnanti di sinistra sono in media molto più determinati (e anche più abili) degli altri nel far passare la propria visione del mondo attraverso l’insegnamento ordinario delle proprie materie. In Italia, poi, questo fenomeno è stato ulteriormente accentuato dal patto non scritto, ma tuttavia ferreamente rispettato per decenni, stretto fra DC e PCI dopo la fine della Seconda Guerra Mondiale per permettere la loro coesistenza pacifica, per il quale (semplificando un po’, ma neanche tanto) i democristiani si sarebbero presi le istituzioni e i comunisti la società.

Sul breve e medio periodo questo patto ha favorito la DC, ma sul lungo periodo il conseguimento dell’egemonia culturale di gramsciana memoria all’interno della società italiana da parte del PCI ha finito per erodere, fino a farlo saltare, il controllo della DC sulle istituzioni. È per questo che in Italia la sinistra negli ultimi decenni ha sempre avuto un peso politico nettamente superiore alla sua consistenza elettorale, che non è mai arrivata ad essere maggioritaria.

Negli ultimi vent’anni o giù di lì, però, a ciò si è aggiunto un altro fenomeno, molto più grave e (purtroppo) anche molto più ampio, che ha contribuito a devastare la scuola come poche altre cose. Infatti, ogni volta che si manifesta qualche grave problema sociale che non sappiamo come risolvere, accanto all’immancabile ritornello “qui ci vuole una legge” parte subito l’ormai altrettanto immancabile “qui ci vuole un corso a scuola”, condiviso ormai non solo dalla sinistra, ma da tutta l’area liberal e a volte perfino dai suoi oppositori. L’ultimo esempio è quello del corso di “educazione alle relazioni” che dovrebbe risolvere il problema della violenza sulle donne, deciso sull’onda emotiva del terribile assassinio di Giulia Cecchettin.

Questa legge mostra con particolare evidenza l’assurdità e, di conseguenza, la dannosità di questo approccio. Per questo lascerò da parte tutta la questione  delle presunte colpe del “patriarcato”, che è già stata ampiamente discussa negli articoli di Ricolfi apparsi su questo sito (su ciò si vedano soprattutto i seguenti due: https://www.fondazionehume.it/societa/patriarcato-alle-radici-dei-femminicidi/ e https://www.fondazionehume.it/societa/il-singhiozzo-delluomo-maschio-a-proposito-di-violenza-sulle-donne/), giacché è specifica di questo caso, per concentrarmi su quegli aspetti più generali che sono invece diretta conseguenza di questo modo di affrontare i problemi.

1) Anzitutto, è davvero difficile capire come una persona sana di mente possa credere sul serio che chiunque abbia ucciso una ragazza (o abbia commesso qualsiasi altro crimine) l’abbia fatto solo perché nessuno gli aveva mai detto che è sbagliato.

2) Altrettanto difficile è capire come una persona sana di mente possa credere sul serio che gli studenti accettino di sentirsi dire che in campo sentimentale (o in qualsiasi altro campo) devono essere disposti ad accettare serenamente le avversità dalle persone che gestiscono la scuola odierna, dove tutto (ma proprio tutto) funziona in base al principio diametralmente opposto, cioè quello di proteggerli da ogni minima avversità.

3) Infine, è inquietante che questi corsi debbano essere tenuti da insegnanti opportunamente “formati” da psicologi (o da esperti di qualsiasi altro tipo). Anzi, è doppiamente inquietante. Anzitutto, infatti, ciò suppone implicitamente l’idea che solo degli “esperti” siano in grado di spiegare come ci si deve rapportare correttamente agli altri (il che implica che non solo gli insegnanti, ma anche le famiglie non siano ritenute in grado di farlo). In secondo luogo, come verranno scelti tali “esperti”? La psicologia non ha standard di giudizio oggettivi come la scienza naturale, per cui esistono scuole di pensiero molto diverse tra loro e quelle che si impongono come maggioritarie nella società lo fanno assai più per i propri “meriti” ideologici che per il proprio valore intrinseco. Di conseguenza, questa legge rischia di diventare il cavallo di Troia che la sinistra da molti anni cercava per introdurre definitivamente l’ideologia di gender nella scuola italiana, cosa che non le era riuscita nemmeno quando era al potere e che ora, in modo davvero paradossale, le è stata servita su un piatto d’argento dal primo governo di destra della nostra storia (tant’è vero che all’inizio tra le persone che dovevano sovrintendere al progetto era stata scelta Anna Paola Concia, ex deputata PD e nota esponente di tale ideologia, anche se poi il Ministro ha fatto marcia indietro). Ma, sia chiaro, il mio giudizio non cambierebbe neanche se venissero scelti psicologi di altre tendenze o se si trattasse di esperti di altro genere: è l’idea in sé stessa che gli insegnanti non siano in grado di educare i propri studenti senza essere indottrinati da qualche “esperto” ad essere inquietante.

Eppure, questa legge demenziale è stata approvata addirittura all’unanimità da tutte le forze politiche, con l’entusiastico appoggio del sistema mediatico e degli intellettuali. Quindi, delle due l’una: o le classi dirigenti dell’Occidente sono ormai composte quasi per intero da malati di mente o hanno ormai tutte interiorizzato l’idea di cui sopra, che cioè il “popolo” si comporta male perché gli vengono insegnati valori sbagliati, che in realtà servono a giustificare rapporti di potere (ultimamente economico), per cui la soluzione è rieducarlo, anzitutto attraverso la scuola.

Personalmente ritengo che siano vere entrambe le cose. In ogni caso, è facile vedere che, al di là delle differenze esteriori dovute ai differenti argomenti (corsi di cittadinanza contro la mafia e la corruzione; alternanza scuola-lavoro contro la disoccupazione; corsi di ecologia per combattere il riscaldamento globale; corsi sulle “abilità caratteriali” per superare il nozionismo; e ora, appunto, corsi di educazione affettiva per combattere la violenza sulle donne), tutti i corsi di questo tipo che negli ultimi anni sono stati introdotti (o si è cercato di introdurre) nella scuola condividono gli stessi tre demenziali presupposti che stanno alla base di questa legge:

1) La pretesa di risolvere un problema “facendo la predica” ai ragazzi, cioè insegnando loro in poche ore alcune semplicistiche regole di comportamento (che oltretutto spesso non hanno nulla a che fare con la vera natura del problema stesso), perlopiù presentate in modo intimidatorio e moralistico, puntando a colpevolizzare chi non le accetta anziché cercando di seguire un percorso di convinzione razionale, per il quale, d’altronde, non ci sarebbe il tempo (e spesso neppure gli argomenti).

2) La pretesa che i ragazzi prendano sul serio tale “predica”, che chiede loro serietà, sforzo e sacrificio, benché provenga dalla stessa istituzione che per tutto il resto dell’anno propone loro un modello di comportamento esattamente opposto.

3) La pretesa di basare questi corsi su giudizi forniti da “esperti” che vengono ritenuti per definizione “neutrali”, mentre non lo sono affatto, dato che per loro natura questi problemi non possono essere trattati in modo neutrale, come dimostra il fatto che al riguardo esistono profonde e inconciliabili divisioni, sia nella politica che nella società.

Il peggio, comunque, è che tutto ciò avviene, inevitabilmente, a scapito dell’insegnamento, non solo per il tempo che viene dedicato a questi “corsi di rieducazione”, ma anche per l’enorme carico di burocrazia aggiuntiva che ognuno di essi comporta. È vero che alla fine, benché molti lo volessero obbligatorio, questo corso sarà invece facoltativo, ma ciò vale solo per i ragazzi: le scuole saranno comunque tenute a fornirlo e gli insegnanti vedranno quindi aumentare ulteriormente il loro già pesantissimo carico di lavoro. Eppure, nessuno sembra preoccuparsene.

Ora, da parte della sinistra ciò è soltanto logico, giacché da tempo ritiene l’insegnamento tradizionale obsoleto e superato, se non addirittura reazionario e, come tale, almeno in parte corresponsabile dei problemi della società che in tal modo si vorrebbero risolvere. La cosa sorprendente è che sembri non curarsene neppure chi non condivide tale ideologia.

E ciò è tanto più grave considerando che il contributo che la scuola può dare alla soluzione di questi problemi consiste invece proprio nell’insegnamento tradizionale, che ha come scopo non risolvere questo o quel problema specifico, bensì formare la persona nella sua globalità (benché con accentuazioni diverse a seconda dell’indirizzo), in modo che poi la persona così formata sia in grado di dare il proprio contributo, piccolo o grande che sia, alla soluzione dei problemi specifici. In questo consiste l’autentica educazione, che, come dice anche la sua etimologia, significa “tirare fuori” ciò che i giovani hanno già dentro allo stato potenziale e non riempirli a forza di idee altrui, buone o cattive che siano, che si chiama invece indottrinamento.

Ciò è vero in generale, ma è particolarmente evidente proprio nel caso che stiamo discutendo. La vera ragione per cui uno può arrivare a voler uccidere la donna che ama è infatti la stessa per cui, in altre circostanze, può arrivare a voler uccidere i propri figli o sé stesso o entrambe le cose. E questa ragione è l’inconsistenza dell’io, la fragilità della persona, che di fronte a un dolore che non sa come tollerare o a un problema che non sa come risolvere sceglie di eliminarlo, distruggendolo e/o distruggendo sé stesso (e infatti spesso chi uccide la propria donna poi si suicida).

Questo è confermato dall’analisi fatta da Ricolfi sui dati dell’associazione femminista Non Una Di Meno, da cui risulta che delle poco più di cento donne che vengono uccise ogni anno in Italia appena il 15% ha meno di 40 anni, mentre la fascia di età più a rischio è quella dai 60 anni in su (https://www.fondazionehume.it/societa/femminicidi-un-problema-degli-anziani/). Si tratta quindi di un problema che non riguarda in modo particolare i giovani né, più in generale, nessuna particolare categoria sociale.

Ma questi dati ci dicono anche un’altra cosa, per quanto terribilmente incorrect, ma cionondimeno assolutamente vera: le donne che ogni anno vengono uccise in Italia sono molto poche (circa una ogni 300.000) e inoltre il loro numero è da tre anni costante, dopo un periodo di continua, benché lenta, diminuzione e per niente affatto in vertiginoso aumento, come ci viene ossessivamente ripetuto. Anche gli omicidi nel loro insieme sono in costante calo e negli ultimi 15 anni si sono più che dimezzati, essendo ormai poco più di 300 all’anno, cioè meno di uno al giorno e poco più di uno ogni 200.000 abitanti.

Quella che invece negli ultimi tre anni è davvero in preoccupante aumento è la violenza giovanile più spicciola, quella che va dal bullismo al teppismo fino alla microcriminalità vera e propria (dati Eurispes – Ministero dell’Interno: https://www.leurispes.it/criminalita-meno-omicidi-preoccupano-minori/). Quest’area comprende certo molti gravi atti di violenza contro le donne, ma anche, se non addirittura di più, contro gli uomini: nel 2022, per esempio, sono stati uccisi 23 uomini in risse o altri episodi di violenza minorile, cioè commessi da ragazzi con meno di 18 anni (per il 2023 non sono ancora stati pubblicati i dati definitivi).

È vero che, come ha ben spiegato Ricolfi (https://www.fondazionehume.it/societa/minori-e-violenza-sessuale-quel-che-dicono-i-dati/), questo aumento si deve quasi esclusivamente ai minorenni stranieri, ma ciò non fa che confermare il fatto che il metodo dei corsi di (ri)educazione non funziona, dato che l’inclusione sociale e il razzismo sono tra i temi che essi affrontano più frequentemente, eppure, a quanto pare, inutilmente.

A ciò va poi aggiunto l’aumento, altrettanto preoccupante, dei comportamenti autodistruttivi di ogni tipo (droghe, alcol, guida pericolosa, rave party, sfide estreme, ecc.), che coinvolgono in ugual misura ragazzi e ragazze, nonché la continua diminuzione dell’età di chi è coinvolto sia in queste pratiche che negli episodi di violenza.

Da questo quadro emerge chiaramente che il problema di fondo dei nostri giovani non è certo il “patriarcato”, né una qualsiasi altra ideologia, ma piuttosto il fatto che chi si sta affacciando alla vita cercando qualcosa – e soprattutto qualcuno – a cui guardare per darle un senso si trova sempre davanti (o meglio, quasi sempre: per fortuna qualche eccezione c’è ancora) adulti immaturi e disorientati che sanno solo oscillare tra l’indulgenza deresponsabilizzante e la predica moralistica, a seconda di dove li porta l’emozione del momento.

Un esempio drammatico di ciò si è visto quando in uno dei tanti cortei per Giulia (che in realtà erano essenzialmente cortei anti-uomini) qualcuno ha esposto un cartello che diceva: «Per Giulia brucia tutto» (visto su RAI 3 a In mezz’oradomenica 26 novembre). Queste parole sono state riprese ed enfatizzate in tono elogiativo da tutti i principali notiziari, come se contenessero chissà quale profonda verità, mentre si trattava solo di parole vuote e disperate – o meglio, di parole che erano il segno di un vuoto (anzitutto affettivo ed esistenziale, ma anche mentale e ideale) che chiedeva disperatamente di essere colmato da altre parole, di amore e di umanità, ma anche di saggezza e di conoscenza, e non certo di essere additato ad esempio di non si sa cosa da persone ancora più vuote.

Una celebre canzone di Luca Carboni diceva che «ci vuole un fisico bestiale per resistere agli urti della vita». Ecco, è questo “fisico bestiale” (ovviamente inteso in senso metaforico) che la scuola dovrebbe “allenare” nei suoi alunni. La scuola e la società di una volta lo facevano, anche se a volte in modo troppo duro, per cui è certamente giusto che oggi ci sia una maggiore attenzione ai ragazzi che hanno delle difficoltà. Il problema è che questo un po’ alla volta ha portato a un cambiamento non solo dei mezzi, ma anche del fine, che è diventato, sia nella scuola che nella società in generale, proteggere i ragazzi dagli urti della vita anziché farli diventare abbastanza forti per affrontarli quando, inevitabilmente, dovranno farlo.

Tale contesto spinge gran parte dei giovani a sviluppare una personalità narcisistica, egocentrica e istintiva, abituata ad avere “tutto e subito” e insofferente di ogni limite, il che li rende al tempo stesso fragili e aggressivi, come hanno molto ben spiegato i bellissimi articoli di Silvia Bonino, apparsi su questo stesso sito (https://www.fondazionehume.it/societa/consumismo-rivendicazione-di-diritti-individuali-e-violenza-contro-le-donne/), e quello di Vittoria Maioli Sanese, pubblicato sul sito di Tempi (https://www.tempi.it/giulia-cecchettin-filippo-turetta-femminicidi-vittoria-maioli-sanese/).

Rispetto a questo la scuola cosa può fare?

Molto, visto che in gran parte è essa stessa che ha causato il problema. Ma per farlo deve tornare a fare la scuola. Che significa essenzialmente due cose:

1) Primo, rimettere al centro l’insegnamento, perché un giovane cresce molto di più studiando la scienza, la letteratura, l’arte e la filosofia che ascoltando predicozzi moralistici sull’emergenza di turno.

2) Secondo, tornare ad essere selettiva. Che significa anzitutto valorizzare il merito, cosa su cui da tempo insiste giustamente Ricolfi, ma anche dire chiaramente che a scuola si va per imparare e quindi, pur con tutto l’aiuto che si può e si deve dare a chi è in difficoltà, se alla fine uno non ha imparato abbastanza non può e non deve andare avanti. D’altronde, la stessa crescita dei comportamenti autolesionistici tra gli adolescenti dimostra che essi in realtà desideranomettersi alla prova in sfide difficili, tanto che, siccome gli adulti evitano accuratamente di proporgliene (a parte lo sport, che infatti aiuta molto la formazione di una personalità equilibrata, ma non è per tutti), se ne creano essi stessi delle altre. Che poi queste risultino perlopiù distruttive è un altro discorso, che dipende essenzialmente dal fatto di essere lasciati a sé stessi, ma ciò non toglie che si tratti di una manifestazione della naturale propensione dei giovani a superare i propri limiti e che ciò di per sé sia un bene: sta agli adulti “incanalare” questa tendenza verso obiettivi positivi, anziché averne paura o, peggio ancora, negarne l’esistenza.

Ma è chiaro che un tale cambiamento non potrà accadere se si continuerà a pretendere dalla scuola che invece di educare si occupi di rieducare, rincorrendo affannosamente tutte le emergenze con pseudo-risposte che fanno sentire tutti più buoni, ma in realtà non risolvono nulla e, peggio ancora, non lasciano più ai docenti il tempo e le energie necessarie per fare il loro vero mestiere.

Prima, di chiudere, però, devo aggiungere che alla base di questa tendenza non c’è soltanto il pregiudizio ideologico di cui ho detto all’inizio, anche se questo è di sicuro la causa preponderante. Cionondimeno, vanno nella stessa direzione anche le frequenti richieste che provengono dal mondo delle imprese per avere un sistema dell’istruzione “più professionalizzante” (anche se in genere vengono rivolte più all’università che alla scuola: ma la logica è la stessa).

Qui la motivazione addotta è che oggi i giovani arrivano nel mondo del lavoro senza essere adeguatamente preparati ai compiti che dovranno svolgere, cosicché l’onere della loro formazione ricade sulle imprese. Ma l’onere della formazione al lavoro è sempre ricaduto sulle imprese: anzitutto perché dare una preparazione troppo specifica agli studenti sarebbe impossibile, perché richiederebbe di creare migliaia di corsi differenti; ma soprattutto perché non sarebbe auspicabile, giacché una formazione iperspecialistica preparerebbe per un unico lavoro, rendendo difficilissimo cambiarlo quando fosse necessario. Niente di nuovo sotto il sole, da questo punto di vista: non si tratta infatti che di uno dei tanti modi in cui molte imprese (non tutte, sia chiaro) cercano di scaricare sullo Stato (e quindi, in ultima analisi, sui cittadini) costi che invece dovrebbe toccare a loro sostenere.

La cosa stupefacente, però, è che queste richieste vengano dalle stesse persone che enfatizzano (a volte anche troppo: ne riparleremo) la mobilità dell’attuale mercato del lavoro, la fine del “posto fisso” e la conseguente necessità di “imparare a imparare” più che imparare contenuti determinati. Che non si veda la palese contraddizione tra queste due esigenze è un ulteriore segno di come la frattura tra ragione e realtà abbia ormai contagiato un po’ tutti, al punto che non basta a renderne immuni nemmeno svolgere un’attività che per sua natura dovrebbe obbligare alla massima concretezza.

Con ciò non sto dicendo che non ci sia un problema con i giovani che oggi si affacciano al mercato del lavoro: il problema c’è, ed è gravissimo. Ma esso non consiste nella mancanza di una preparazione specialistica, bensì nella frequente mancanza di qualità della loro preparazione di base, che rende in media più lento (e quindi più costoso) il percorso di formazione al lavoro.

Anche da questo punto di vista, perciò, la soluzione non è snaturare ulteriormente la scuola pretendendo che rincorra tutte le ultime (e spesso effimere) novità, ma chiedere che la scuola torni a fare la scuola, fornendo di nuovo una preparazione di base di qualità adeguata, a cominciare da quella umanistica, che molti, stupidamente, giudicano inutile per i lavori produttivi, mentre in realtà è fondamentale, perché è quella che insegna a ragionare, che è la base di qualsiasi lavoro e anche del tanto strombazzato quanto frainteso “imparare a imparare”.

È molto significativo che questa richiesta, che non nasce certo in un ambito di sinistra, venga spesso sostenuta anche da politici e intellettuali di sinistra. Essa, infatti, ha in comune col pregiudizio di sinistra sulla “rieducazione” il fatto che non punta sulla ragione e sulla libertà, ma sull’ideologia e sull’indottrinamento. E da questo punto di vista non fa nessuna differenza che in questo caso si tratti di un’ideologia tecnocratica anziché politica.

L’aspetto più preoccupante è che ancora una volta stiamo assistendo  a una convergenza tra ideologie di sinistra e di centrodestra in una sorta di “super-ideologia” liberal che ormai da tempo manifesta una crescente tendenza verso l’autoritarismo (cfr. https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta/).

Opporsi a tale tendenza può apparire un’impresa disperata, vista la sua dimensione globale. Ma forse, come spesso accade, scopriremmo che lo è meno di quel che sembra, se, anziché ragionarci su in astratto, cominciassimo ad opporci in maniera concreta a qualche sua concreta manifestazione. Per esempio, chiedendo che tutti i corsi di (ri)educazione vengano aboliti in tutte le scuole italiane, restituendo così ai docenti il tempo e le energie per dedicarsi adeguatamente al loro unico, vero e importantissimo compito: l’educazione.

La frattura tra ragione e realtà 5 / Il Grande Spauracchio – Parte seconda: il nucleare civile

8 Dicembre 2023 - di Paolo Musso

In primo pianoSocietà

Nel precedente articolo ho cercato di dissipare le numerosissime “leggende nere” che riguardano le armi nucleari, per riportare la discussione sui rischi che esse comportano alla loro reale dimensione. Stavolta parlerò invece del nucleare nel suo uso civile, cioè finalizzato alla produzione di energia elettrica, dove le leggende nere sono, se possibile, ancor più abbondanti, benché i termini della questione siano molto più semplici (e tuttavia altrettanto gravemente fraintesi).

L’ambiguo “ritorno” al nucleare

Se le idee sballate circa le armi nucleari sono già notevoli, quelle sull’uso pacifico del nucleare per produrre energia lo sono ancor di più. Anche se (forse) qualcosa sta iniziando a cambiare, paradossalmente a causa di un clamoroso “autogol” degli ecologisti, che hanno enfatizzato a tal punto il problema del cambiamento climatico che ormai la gente pretende delle soluzioni efficaci. E, nel momento in cui hanno dovuto passare dai proclami ideologici alla realtà, i governi hanno cominciato ad accorgersi che le soluzioni che avevano fin qui sbandierato non funzionano.

Un chiaro segnale di questa controtendenza è il coraggioso documentario di Oliver Stone, Nuclear now (Nucleare subito), appena uscito e trasmesso in anteprima da LA7 lo scorso mercoledì 6 dicembre, che consiglio a tutti di guardare e far guardare il più possibile.

Ancor più importante, proprio in questi giorni alla COP 28, cioè l’annuale conferenza sul clima che fin qui aveva prodotto tante liste di obiettivi (che chiunque è capace a scrivere) e pochissime di mezzi adeguati per raggiungerli (che invece sono la cosa importante, ma anche difficile), si è finalmente preso atto di ciò che era da sempre evidente, ma che nessuno voleva prendersi la responsabilità di dire: e cioè che una riduzione delle emissioni dell’entità (enorme) che si ritiene necessaria è impossibile senza un massiccio uso del nucleare civile.

Problema risolto, allora? Niente affatto, perché il modo in cui lo si è fin qui detto è molto ambiguo, il che potrebbe causare seri problemi. Infatti, la giustificazione che viene data da tutti gli esperti è che le preoccupazioni del passato non sono più giustificate perché il “nuovo” nucleare è molto più economico e molto più sicuro. Ora, questo è certamente vero, ma, detto così, lascia intendere che il nucleare tradizionale fosse troppo caro e/o troppo pericoloso, il che invece è assolutamente falso, come gli esperti sanno benissimo.

Perché allora non lo dicono? La ragione è che in questo modo sperano di riuscire a superare le obiezioni (che sono tuttora fortissime e anzi negli ultimi anni sono perfino aumentate) aggirandole anziché affrontandole, cosa che l’esperienza ha dimostrato essere estremamente difficile, perché alla loro base c’è una paura viscerale che è più forte di qualsiasi argomento razionale.

Tuttavia, per quanto comprensibile, questa tattica comporta un grosso rischio. Il nucleare “buono”, infatti, quello cosiddetto “di quarta generazione”, per ora esiste solo in forma di progetti e (pochi) prototipi, per cui ci vorranno grandi sforzi e molti soldi perché diventi realtà in tempi brevi. Il pericolo è quindi che nel frattempo i movimenti ecologisti e i tantissimi intellettuali e politici che accettano acriticamente tutte le loro tesi pretendano che esso venga usato non solo come risorsa aggiuntiva, ma anche per sostituire le centrali già esistenti, il che renderebbe l’impresa impossibile.

E questo, in realtà, è esattamente ciò che vogliono, perché gli ecologisti hanno una devozione quasi fanatica per le rinnovabili, in particolare l’eolico e il solare. E non solo per ragioni tecnologiche, ma anche politiche, perché le considerano un modo di produrre energia più “democratico”, anche se in realtà queste tecnologie non sono certo prodotte da gruppi di attivisti che lavorano nel garage di casa, ma da grandi e potenti multinazionali, che agiscono per fare profitti e non a scopi umanitari (ma questo per un certo tipo di cultura, oggi dominante in Occidente, non ha importanza: vedi il mio articolo https://www.fondazionehume.it/politica/la-frattura-tra-ragione-e-realta-3-marx-e-vivo-e-lotta-dentro-a-noi-dodici-idee-comuniste-a-cui-credono-anche-gli-anticomunisti/). Pertanto, quasi tutti gli ecologisti vedono come il fumo negli occhi qualsiasi soluzione alternativa e, in particolare, l’odiato nucleare, compreso quello “nuovo”, di cui non si fidano affatto, anche quando non lo dicono apertamente.

Di conseguenza, se si vorrà davvero seguire questa strada (che, ripeto, è l’unica possibile, come subito spiegherò), prima o poi si dovrà comunque fare chiarezza anche sul nucleare tradizionale. Tanto vale, quindi, cominciare subito.

Una fonte energetica a basso costo

Quanto al presunto costo eccessivo, la questione è presto risolta. Anzitutto, va detto che nel valutare i costi del nucleare si tiene sempre conto di tutti i costi, non solo di costruzione, ma anche di gestione, manutenzione e smantellamento, cosa in sé giusta, ma che non viene mai fatta per nessun’altra fonte energetica, a cominciare (ovviamente) dalle rinnovabili. Come se non bastasse, questi costi sono molto superiori a quelli che dovrebbero essere, perché per la paura delle radiazioni (del tutto irrazionale, come subito vedremo) si chiedono misure di sicurezza assolutamente esagerate. Eppure, nonostante tutto ciò, in Italia, che ha abolito il nucleare nel 1988, cioè 35 anni fa, l’energia elettrica costa il 50% in più rispetto alla Francia, che è il nostro “gemello” energetico, in quanto ha all’incirca il nostro stesso livello tecnologico, la stessa popolazione e la stessa (ridotta) quantità di fonti energetiche naturali, ma produce col nucleare oltre il 70% della sua elettricità.

È davvero strano (o forse no…) che questo fattore non venga mai preso in considerazione in nessuna analisi sul nostro declino economico, che, guarda caso, è iniziato proprio pochi anni dopo che l’Italia, unico paese avanzato al mondo, ha deciso di rinunciare al nucleare. Inoltre, per aggiungere ai danni le beffe (nonché altri danni), va considerato che allora il nucleare italiano era il migliore al mondo, un pelo sopra la Francia e almeno due spanne sopra gli USA. Non per nulla, in quel momento l’Ansaldo Energia aveva commesse per costruire centrali nucleari in vari paesi esteri per ben 4000 miliardi di lire (circa 5 miliardi di euro odierni).

Se avessimo proseguito su quella strada, oggi potremmo guidare il processo di ritorno al nucleare, con enormi vantaggi in termini economici e anche di peso politico. Invece, per come ci siamo ridotti (con le nostre stesse mani: qui la “cattiva” Europa non c’entra proprio niente), siamo ormai il fanalino di coda del mondo progredito e, se non vorremo rimanerlo per decenni, finiremo col dover importare dall’estero gran parte delle tecnologie necessarie a metterci al passo con gli altri, anziché essere noi a vendergliele. Insomma, un vero capolavoro di stupidità.

Una garanzia di indipendenza

In secondo  luogo, il nucleare non rischia di creare pericolose dipendenze, come il gas e il petrolio, ma anche i pannelli fotovoltaici e le mitiche auto elettriche (a cui dedicherò un articolo a parte, perché qui siamo nel campo della follia pura). Infatti, i materiali necessari per la loro costruzione sono altamente tossici e quindi difficili da estrarre (e ancor più da smaltire) in modo non inquinante. Inoltre, da noi sono quasi assenti, mentre abbondano in paesi retti da feroci dittature, come la Cina e l’Afghanistan, oppure con situazioni  molto instabili, come per esempio il Congo, dove l’estrazione del cobalto sta causando continui massacri dovuti alle guerre tra le bande che se ne contendono il monopolio. Il rischio, quindi, è di cadere dalla padella nella brace, eliminando la dipendenza dalla Russia solo per andarci a cacciare in una ancor più pericolosa dipendenza da questi paesi, che non sono certo più affidabili.

I più grandi giacimenti di uranio, invece, si trovano in paesi solidamente democratici, a cominciare dall’Australia, che possiede oltre il 30% delle riserve mondiali, il che basta e avanza per rifornire tutto l’Occidente. Se poi ci aggiungiamo Canada, USA e Germania arriviamo a sfiorare il 50%. Inoltre e soprattutto, non c’è necessità di rinnovare continuamente le scorte, dato che, una volta acquisito, un quantitativo relativamente piccolo di uranio può produrre energia in grandi quantità per decenni, il che consente di programmarne l’acquisto con calma e cercando le migliori condizioni, anche economiche.

Un fattore di stabilità

Ma il nucleare non ha solo una convenienza relativa rispetto ai combustibili fossili, ma anche una convenienza intrinseca, che, come dicevo, lo rende non solo utile, ma addirittura indispensabile se si vuole tentare seriamente di superare l’attuale sistema di produzione di energia. Infatti, al di là di altre questioni più specifiche di cui parleremo più diffusamente un’altra volta, eolico e solare presentano un problema di fondo che rende pura utopia ogni tentativo di basarsi solo su di essi: a parte alcuni luoghi molto particolari, dove vento e sole sono sempre presenti, la loro produzione è inevitabilmente incostante e difficilmente prevedibile con esattezza.

E a complicare ulteriormente le cose c’è il fatto che, se continuerà l’attuale tendenza verso la tropicalizzazione del clima alle nostre latitudini, con forte riduzione dei ghiacciai e lunghi periodi di siccità, anche l’idroelettrico, che a oggi è di gran lunga la più diffusa e la più affidabile delle rinnovabili, tenderà a produrre meno energia e con minore regolarità. Ma, ahimè, una rete elettrica ha bisogno di una grandissima stabilità, perché in ogni istante la quantità di energia in circolazione non deve mai essere inferiore a quella richiesta dal sistema, altrimenti si genera immediatamente un blackout. E i blackout nel nostro mondo non sono più solo un fastidio, ma una vera e propria minaccia.

Qualche decennio fa la mancanza di elettricità causava solo la mancanza di illuminazione notturna e il blocco di alcuni sistemi di comunicazione e di trasporto (treni, semafori, ascensori, radio, televisione e poco altro) e ciononostante già un blackout di poche ore causava seri problemi di ordine pubblico. Oggi, invece, si bloccherebbe quasi tutto (e anche il “quasi” sparirà ben presto), con effetti devastanti. Il blocco pressoché totale delle comunicazioni, impedendo alle autorità di spiegare cosa sta realmente succedendo, moltiplicherebbe in modo esponenziale il panico, sicché subito si scatenerebbe l’assalto ai negozi, per la paura di restare senza cibo, il che a sua volta innescherebbe una spirale di violenza diffusa e incontrollabile, essendo impossibile coordinare le forze dell’ordine e i soccorsi.

Un blackout su scala nazionale, anche di un solo giorno, provocherebbe effetti analoghi a quelli di una sommossa. Se dovesse prolungarsi per qualche giorno i danni sarebbero simili a quelli di una guerra. Per una durata superiore, diciamo da una settimana in su, rischieremmo il collasso dell’intero sistema sociale. Se a qualcuno sembra che stia esagerando, provi a riflettere su cosa implicherebbe una situazione del genere per lui e la sua famiglia e cambierà subito idea.

Ora, il problema è che l’affidabilità necessaria per evitare tutto questo è molto superiore a quella che istintivamente potremmo pensare. Come spiega Vaclav Smil, il più grande storico vivente dell’energia, «un sistema […] con elettricità disponibile per il 99,99% del tempo può sembrare altamente affidabile, ma l’interruzione totale annuale sarebbe di quasi 53 minuti». Per eliminare pressoché totalmente il rischio di blackout occorrerebbe un’affidabilità del 99,9999%, che porterebbe a una carenza di energia di appena 32 secondi all’anno, mentre «l’attuale performance statunitense è di circa il 99,98%», che, per quanto elevatissima, espone già al rischio di vasti blackout della durata di alcune ore, che in effetti in questi anni si sono puntualmente verificati (cfr. Energia e civiltà. Una storia, Hoepli 2017, p. 335).

Ciò significa dunque che non possiamo permetterci di diminuire l’affidabilità delle nostre reti elettriche nemmeno di una minima percentuale. Anzi, dovremmo addirittura cercare di aumentarla, soprattutto se continuerà l’attuale tendenza (la cui assurdità a questo punto dovrebbe essere palese) a elettrificare qualsiasi attività umana. E ciò non sarà assolutamente possibile se pretenderemo di basarci esclusivamente su fonti per loro natura incostanti come le rinnovabili.

Beh, ma che problema c’è?, obietterà forse qualcuno. Certo, in un sistema incostante ci saranno periodi con una produzione inferiore a quella necessaria, ma anche periodi con una produzione superiore: basterà quindi immagazzinare l’elettricità in eccesso prodotta durante questi periodi di vacche grasse per poi usarla nei momenti di scarsità. Ma purtroppo il problema c’è.

L’elettricità, infatti, è molto facile da produrre, ma molto difficile da immagazzinare, almeno in grandi quantità. Batterie capaci di contenere riserve sufficienti per un paese moderno come l’Italia o un qualsiasi altro paese europeo dovrebbero essere di dimensioni quasi inimmaginabili, oltre a presentare gli stessi problemi relativi alle materie prime che affliggono i pannelli solari e le batterie delle auto elettriche.

Ciononostante, centrali di raccolta di questo tipo si stanno già progettando, insieme ad altre dove l’energia verrà immagazzinata sotto forma di energia potenziale (per esempio usando l’elettricità in eccesso per pompare acqua in bacini posti in zone elevate o per sollevare grandi pesi in cima ad apposite torri), che poi potrà nuovamente essere trasformata in energia elettrica sfruttando l’energia cinetica liberata durante la loro caduta verso il basso.

Tuttavia la costruzione di questi impianti richiederà uno sforzo tecnologico ed economico gigantesco e la loro gestione rischia di essere molto complicata, anche a causa dei cambiamenti climatici (la siccità prolungata può prosciugare anche questi bacini e i forti venti possono far cadere i pesi al momento sbagliato). Senza contare i terremoti, che potrebbero farli crollare, mentre nessun terremoto ha mai danneggiato seriamente una centrale nucleare, nemmeno quella di Fukushima, dove l’incidente non è stato provocato dal terremoto in sé, pur essendo stato uno dei più forti della storia, ma dall’acqua penetrata a causa del successivo tsunami.

Inoltre, se l’instabilità del sistema diventasse troppo grande potrebbe essere molto difficile calibrare esattamente l’entrata in funzione degli impianti di emergenza, dato il ridottissimo margine che abbiamo per evitare disastrosi black out seriali. Infine e soprattutto, per quanto accuratamente possiamo tentare di stimare quante riserve ci potranno servire, nel momento in cui tutta o quasi tutta la nostra energia dipendesse da un sistema intrinsecamente imprevedibile su tempi lunghi come il clima non potremo mai essere certi di averne abbastanza.

Nei sistemi classici, infatti, l’improbabilità di un qualsiasi evento è direttamente proporzionale alla sua grandezza, sicché oltre un certo limite essi sono di fatto impossibili. Ma ciò non è più vero nei sistemi non lineari, detti anche “caotici” o “complessi” (in questo senso tecnico, che non coincide con la semplice “complicazione”), come è appunto il clima (ma anche la Borsa: ne parleremo presto). Un periodo di siccità o un cambiamento nell’intensità dei venti o la nascita di un microclima con cielo costantemente nuvoloso (come per esempio succede a Lima in inverno) hanno sempre una probabilità non trascurabile di verificarsi, indipendentemente dalla loro entità. E questo è un rischio che non possiamo assolutamente permetterci, perché, come abbiamo visto, anche un blackout di pochi giorni avrebbe conseguenze devastanti.

Che, nonostante tutto ciò, queste centrali di emergenza si stiano comunque progettando significa che, al di là dei proclami ideologici, gli addetti ai lavori sono coscienti che una rete elettrica troppo basata sulle rinnovabili sarebbe insostenibile. E questa è una buona notizia. Che però lo si stia facendo in forma quasi clandestina (alzi la mano chi ha assistito a un solo dibattito televisivo dedicato a questo problema) significa che non si vuole far sapere all’opinione pubblica che anche le mitiche rinnovabili non sono quella bacchetta magica che si crede. E questa, invece, è una pessima notizia, soprattutto perché non è limitata a questo specifico problema, ma è una tendenza generale, quando si tratta di questioni ecologiche.

Le radici del pregiudizio antinucleare

Uno dei motivi di tale reticenza è proprio la paura che il nucleare possa essere preso in considerazione come integrazione o, peggio ancora, come alternativa alle fonti rinnovabili, una volta compreso che garantirebbe un flusso costante e regolare di energia, a basso costo, senza produrre emissioni nocive e senza metterci nelle mani di cinesi, talebani e tagliagole assortiti. Ma se il nucleare è così conveniente, allora da dove nasce questa violenta ostilità nei suoi confronti?

In parte si tratta di un atteggiamento puramente ideologico. I movimenti ecologisti, infatti, hanno certamente il merito di avere denunciato con molto anticipo dei problemi reali ed estremamente seri, della cui gravità ci stiamo rendendo conto solo adesso. Tuttavia, essendo figli del Sessantotto e della sua rivolta contro ogni tipo di autorità, compresa quella degli scienziati, hanno sempre avuto la tendenza a incolpare dei danni inflitti all’ambiente la scienza e la tecnologia in quanto tali e non solo il cattivo uso che spesso (ma non sempre) ne facciamo.

Negli ultimi anni questo atteggiamento almeno in parte è cambiato, perché proprio il fatto che finalmente si sia iniziato a prendere sul serio i problemi ecologici ha reso evidente che non sarà possibile risolverli senza il contributo essenziale della scienza. Anzi, semmai ora si esagera nel senso opposto, aspettandosi che la soluzione possa venire solo dalla scienza, senza bisogno di cambiare davvero il nostro modo di vivere (i cambiamenti nei comportamenti individuali che ci vengono continuamente suggeriti sono in realtà molto superficiali e hanno un’utilità inversamente proporzionale all’ossessività con cui ci vengono proposti e ai grandi disagi che causerebbero: anche di questo riparleremo presto).

Ciononostante, come ormai un po’ dovunque, anche in questo campo si tende a ragionare per categorie ideologiche stabilite a priori in modo del tutto irrazionale, per cui ci sono delle tecnologie che sono considerate per definizione “buone” e altre “cattive”. L’idroelettrico, l’eolico e il fotovoltaico appartengono alle prime, perché usano forze della natura come l’acqua, il vento e il sole, che ci sono familiari e sono chiaramente utili alla nostra vita. Il nucleare, invece, è classificato tra le seconde, benché la radioattività giochi anch’essa un ruolo fondamentale a favore della vita, perché senza di essa il nucleo terrestre non sarebbe fluido e quindi non avremmo la tettonica a placche e, di conseguenza, la terraferma, ma un unico oceano che ricoprirebbe tutto il pianeta, per di più perennemente ghiacciato, perché la temperatura della Terra sarebbe più bassa di una quindicina di gradi.

Ma questi influssi benefici della radioattività sono troppo indiretti e non abbastanza visibili per rendercela “simpatica”, considerando che il “biglietto da visita” (questo sì visibilissimo) con cui essa si è presentata al mondo è purtroppo rappresentato dalle atomiche di Hiroshima e Nagasaki. Per questo anche molte persone che riconoscono i vantaggi del nucleare civile lo considerano troppo pericoloso. Tuttavia, come ora vedremo, non solo esso non ha nulla a che vedere con la bomba atomica, ma è anzi una delle tecnologie più sicure che siano mai state create, sicuramente molto più sicura dell’idroelettrico, di cui nessuno si sogna di chiedere l’abolizione.

Nucleare e metodo scientifico

Prima di discutere il merito del problema sarà però utile una premessa metodologica. Come cerco sempre di spiegare (temo con non troppo successo), non esiste “la” scienza, ma “le” scienze. Infatti, anche se tutte le scienze naturali usano lo stesso metodo, quello sperimentale, genialmente scoperto e magistralmente definito da Galileo Galilei quattro secoli fa, la sua efficacia può variare di molto a seconda del tipo di oggetti a cui viene applicato.

Senza entrare in troppi dettagli tecnici (a chi volesse approfondire consiglio sempre il mio La scienza e l’idea di ragione, 2a ed. ampliata, Mimesis 2019), il punto fondamentale del metodo galileiano, che lo ha reso così efficace, è l’idea di studiare i fenomeni naturali non nella loro globalità, bensì un pezzetto alla volta, il che è fra l’altro determinante perché gli esperimenti siano ripetibili e quindi controllabili da tutti. Infatti, se consideriamo tutti i fattori in gioco nessunfenomeno naturale si ripete mai perfettamente identico, mentre ciò diventa possibile se di esso consideriamo solo alcune proprietà.

Ciò però significa che l’efficacia di questo metodo dipende in maniera cruciale dalla possibilità di isolare le proprietà che intendiamo studiare senza che ciò le alteri in modo significativo. Ora, da qualche decennio sappiamo che ciò è possibile solo per alcuni fenomeni, quelli cosiddetti “lineari”, mentre per i fenomeni non lineari, a cui ho già accennato prima, il metodo funziona solo entro certi limiti, che sono estremamente variabili a seconda dell’oggetto. Di conseguenza, le varie scienze non differiscono solo per il diverso modo di “incarnare” in strumenti ed esperimenti specifici i principi generali del metodo galileiano, ma anche per il diverso grado di certezza che possono raggiungere, non solo in pratica, ma anche in linea di principio.

La scienza naturale che ha, in media, il grado più basso di certezza è senza dubbio la medicina. È per questo che ho giudicato molto grave l’ingiustificata e irresponsabile sicumera con cui all’epoca del Covid molti esperti hanno presentato come verità indiscutibili quelle che erano semplici ipotesi ancora tutte da verificare, quando non addirittura teorie palesemente sbagliate, come quella del contagio attraverso le superfici infette o la necessità delle mascherine all’aperto.

All’estremo opposto sta invece proprio la fisica nucleare, che ha ormai raggiunto una precisione quasi disumana, con un margine di errore di circa una parte su un miliardo, di fatto coincidente, a tutti gli effetti pratici, con quella della matematica pura. Così stando le cose, diversamente da quanto accade in medicina e in molte altre scienze, in fisica nucleare contestare la validità di quanto affermato dagli esperti non ha molto più senso che sostenere che 2+2 potrebbe anche non fare 4. E questo è ancor più vero se consideriamo che le leggi fisiche rilevanti per il problema della sicurezza degli impianti nucleari sono estremamente semplici.

Il nucleare è (almeno) cento volte più sicuro dell’idroelettrico

Anzitutto, le centrali nucleari non producono nessun aumento significativo della radioattività al loro esterno. Per capire che questo è impossibile non occorrono studi complessi: basta riflettere sulla legge fondamentale della radioattività, che dice che essa si attenua in proporzione al quadrato della distanza. Ciò significa infatti che, se appena fuori dalla centrale, cioè a una distanza suppergiù di un chilometro dal reattore (dato che si tratta di impianti di grandi dimensioni), vi fosse una radioattività abbastanza forte da poter causare danni significativi alla salute, a 100 metri dal reattore la radioattività sarebbe 100 volte maggiore e a 10 metri 10.000 volte maggiore, cosicché i tecnici che ci lavorano morirebbero tutti nel giro di poche ore. Poiché ciò non accade, è inevitabile concludere che la presenza di una centrale nucleare non è pericolosa per la nostra salute.

In secondo luogo, le centrali nucleari non esplodono, per la semplice ragione che non sono bombe. Sia le bombe che le centrali hanno infatti bisogno di un particolare isotopo dell’uranio, l’uranio 235, che in natura è sempre mescolato con l’uranio 238 (e a tracce insignificanti del rarissimo 234) nella percentuale di appena lo 0,7%, che non è sufficiente a innescare la reazione a catena (come è logico, altrimenti tutti i giacimenti di uranio del mondo si sarebbero già autodistrutti non appena formatisi). Per entrambi gli usi è quindi necessario aumentare la percentuale di uranio 235, attraverso un processo piuttosto complesso detto “arricchimento”. Tuttavia, per le centrali nucleari, che devono produrre una reazione a catena controllata, cioè non esplosiva, la percentuale necessaria va dal 3% al 5%, mentre per le bombe atomiche dev’essere molto superiore, tra il 90% e il 97%. Se così non fosse, del resto, l’accordo con l’Iran sul nucleare civile non avrebbe avuto alcun senso.

Con questo non sto dicendo che sia stato una buona idea, perché è sempre possibile aumentare ulteriormente la percentuale di uranio 235 contenuto nel combustibile delle centrali nucleari in modo da poterlo poi usare per farci delle bombe atomiche. Pertanto, aver permesso all’Iran di costruire liberamente le prime l’ha avvicinato anche alla costruzione delle seconde (che è palesemente il suo vero obiettivo, perché delle centrali nucleari l’Iran non ha alcun bisogno, dato che naviga su un mare di petrolio). Ma questo è un problema politico, non tecnologico. La trasformazione dell’uranio per uso civile in quello necessario per una bomba, infatti, non può assolutamente verificarsi spontaneamente: occorre prima tirar fuori l’uranio dalla centrale e poi sottoporlo di nuovo al processo di arricchimento in un apposito impianto. Quindi, che una centrale nucleare esploda non è solo improbabile: è proprio fisicamente impossibile.

Tra parentesi, questo dimostra quanto assurde fossero le affermazioni fatte dai russi nella prima fase della guerra (e scelleratamente prese sul serio anche da alcuni commentatori occidentali) secondo cui avrebbero occupato le centrali nucleari ucraine perché in esse si stava usando il loro uranio per costruire bombe atomiche. Peccato solo che degli impianti necessari a eseguire una tale trasformazione in Ucraina non vi sia traccia e che in ogni caso, se anche esistessero, non si troverebbero certo nelle centrali nucleari, che non sono state costruite a tale scopo e quindi non hanno al loro interno né gli spazi né gli strumenti che servirebbero. Dunque, non è per questo che i russi le hanno occupate, ma (ovviamente) per avere il controllo dell’energia elettrica da esse prodotta.

Ma, obietterà qualcuno, la centrale di Chernobyl non è forse esplosa? Ebbene, mi spiace deludervi, ma la risposta è no: quello che è esploso a Chernobyl è stato solo il sistema di raffreddamento della centrale, costituito da un impianto di tubature che riversano costantemente acqua sul nocciolo di uranio per evitare che si scaldi troppo e portano via il gas che si forma quando l’acqua evapora per il contatto con l’uranio rovente. Quando, nella notte del 26 aprile 1986, per un difetto congenito di progettazione seguito da un’incredibile serie di errori umani, la pressione salì troppo, i tubi esplosero e il vapore si disperse nell’atmosfera. Ovviamente ho un po’ semplificato, ma la sostanza è questa. Non si trattò quindi affatto di un’esplosione atomica, tant’è vero che in essa morirono appena due persone.

Naturalmente, a causa dei ripetuti passaggi sul nucleo di uranio il vapor d’acqua era fortemente radioattivo e a peggiorare le cose si aggiunse il fatto che l’esplosione fece crollare il tetto del reattore, lasciando quindi allo scoperto il nocciolo. Ciò provocò un’ulteriore dispersione di polveri radioattive che si mescolarono al vapore generando la mitica “nube di Chernobyl”, che era certamente pericolosa, ma neanche lontanamente quanto lo sarebbe stato se si fosse trattato del “fungo” prodotto da una vera esplosione atomica.

E infatti i decessi che si possono collegare con certezza al disastro di Chernobyl sono appena qualche decina (65 secondo il calcolo più pessimistico). Altre 4000 persone si stima siano morte in seguito a causa di tumori causati dalla nube, ma tutte si trovavano nelle immediate vicinanze dell’epicentro. Che la nube di Chernobyl abbia contaminato l’intera Europa, causando decine di migliaia o addirittura milioni di morti, è una pura e semplice idiozia, che oggi in tutto il mondo è sostenuta, con ostinazione degna di miglior causa, esclusivamente da Greenpace, un’organizzazione che da sempre promuove un ecologismo molto radicale e ideologico.

A dare una parvenza di verosimiglianza a questa assurda teoria c’è il fatto che Chernobyl causò effettivamente morti accertate in ben tre nazioni: Ucraina (dove il reattore era ubicato), Russia e Bielorussia. Ma questo fu dovuto al fatto che il sito era (ed è tuttora) molto vicino al confine tra l’Ucraina e i due paesi suddetti, che anch’essi furono colpiti solo nella zona vicina all’epicentro, mentre la gran parte del loro territorio non riportò alcun danno.

In realtà, come ho spiegato nell’articolo precedente (https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta-4-il-grande-spauracchio-parte-prima-il-nucleare-bellico/), nemmeno la più potente bomba nucleare del mondo potrebbe causare un significativo aumento di radioattività a più di un centinaio di chilometri di distanza. E, di fatto, nessuna delle oltre 600 esplosioni nucleari effettuate nell’atmosfera come test dal 1945 a oggi ha mai causato danni significativi alla salute della popolazione mondiale. L’idea che possa averlo fatto l’esplosione di Chernobyl, che era molto ma molto meno potente e meno radioattiva perfino della più debole di esse, è quindi puro delirio.

E puro delirio è anche il timore che un disastro nella centrale nucleare di Zaporizhzhia possa “contaminare l’intero continente”, come abbiamo sentito ripetere ossessivamente soprattutto nelle prime fasi del conflitto (ma anche adesso, ogni volta che se ne parla, il ritornello ricomincia). Si può capire e perdonare che lo facciano gli ucraini, che hanno bisogno di attaccarsi a tutto per tenere desta l’attenzione dei loro distratti e indolenti alleati europei. Non si può invece capire e meno ancora perdonare che continuino a ripetere questa scemenza anche i nostri commentatori.

Un altro fattore che contribuisce molto a confondere le idee è l’uso di parole che istintivamente impressionano, senza che nessuno spieghi cosa significano in realtà. Per esempio, chiedetevi se sareste disposti a tuffarvi in una piscina in cui sia stata versata una tonnellata d’acqua marina prelevata davanti a Fukushima subito dopo l’incidente, quando aveva un livello di radioattività circa mille volte superiore a quello naturale. Detto così fa impressione ed è facile prevedere che rispondereste tutti di no. Ma proviamo a ragionare.

Un litro d’acqua (ce l’hanno insegnato a scuola) pesa un chilo e ha un volume di un decimetro cubo, per cui una tonnellata d’acqua equivale a un metro cubo. Detto così fa già meno impressione, non è vero? Eppure è esattamente la stessa cosa! Ma la parola “tonnellata” ci dà istintivamente la sensazione di una cosa enorme, mentre la parola “metro” (ancorché cubo) ci dà invece l’impressione di una cosa relativamente piccola. Il motivo, però, è esclusivamente psicologico: tutti, infatti, siamo più alti di un metro, mentre nessuno di noi si avvicina neanche lontanamente a pesare una tonnellata.

E ora proseguiamo. Secondo le norme FINA, una piscina olimpionica è lunga 50 metri, larga 25 e profonda non meno di 2: contiene dunque almeno 2500 metri cubi, ovvero 2500 tonnellate, di acqua non radioattiva (essendo di origine piovana non contiene infatti uranio disciolto, come quella marina). Di conseguenza, la tonnellata d’acqua radioattiva risulta diluita a tal punto che nell’insieme la piscina ha un livello di radioattività addirittura 2,5 volte inferiore a quello del mare della vostra località balneare preferita. Ciononostante, credo di non sbagliare se dico che anche dopo questa spiegazione nessuno di voi sarebbe disposto a tuffarcisi: tanto può la forza della paura suscitata dalle parole usate male.

Per dare l’idea del livello di mistificazione che spesso si raggiunge sul nucleare farò solo un altro esempio, ma particolarmente significativo, poiché si riferisce a un giornalista che molti (non io) ritenevano serio e affidabile, ovvero Andrea Purgatori, da poco deceduto. Ebbene, durante una puntata del suo programma Atlantide su LA7 (credo quella del 29 marzo 2022, ma non sono sicuro), Purgatori ha prima trasmesso un documentario in cui si ripeteva per ben due volte l’assurda affermazione che a Chernobyl si era verificata un’esplosione atomica e poi, come conclusione della puntata, ha fatto un elenco di tutti i disastri nucleari della storia.

Ora, a parte che erano in tutto e per tutto appena quattro (Chernobyl, ovviamente, poi Three Mile Islands, Fukushima e un altro di minore entità che ora non ricordo), Purgatori si è ben guardato dal dire quante persone erano morte in ciascuno di essi. E comprensibilmente, anche se disonestamente. Se l’avesse detto, infatti, la gente avrebbe scoperto che, a parte Chernobyl, il numero di morti per ciascuno dei suddetti “disastri” era zero. Sì, avete capito bene: a parte Chernobyl, di nucleare fino ad oggi non è mai morto nessuno.

E oltretutto Chernobyl è stato un caso più unico che raro: basti dire che l’incidente è classificato allo stesso livello di gravità di quello di Fukushima, in cui non è morta neanche una persona. Come è possibile, allora, che a Chernobyl siano morti così in tanti? La risposta è che la stragrande maggioranza dei decessi furono dovuti all’ostinato rifiuto del regime sovietico di ammettere l’incidente e, quindi, di evacuare immediatamente la popolazione, nonché alla totale impreparazione tecnica per un’emergenza simile.

Tra l’altro, il difetto di progettazione era stato notato già nel 1971 durante un congresso internazionale da un gruppo di ingegneri italiani, tra cui mio padre, che diresse il piano nucleare italiano da allora fino al 1988, quando venne sciaguratamente chiuso. Ma il loro aiuto per sistemare le cose, che i tecnici russi avevano volentieri accettato, venne sprezzantemente rifiutato dal regime sovietico, che poi respinse allo stesso modo anche le offerte di aiuto dell’Occidente successive al disastro. Non è quindi esagerato dire che a Chernobyl più che di nucleare si morì di comunismo.

Eppure niente: tutti continuano imperterriti a parlare di “disastri nucleari”, non solo per Chernobyl, ma anche per gli altri, che semplicemente non furono disastri, in nessun senso sensato della parola “disastro”. Addirittura, pur di addossare qualche cadavere all’atomo, qualche bello spirito è arrivato a inventarsi il concetto di “morte per stress da evacuazione”, sostenendo che l’incidente di Fukushima ne avrebbe causate circa 400.

Non mi soffermo a commentare questa assurdità priva di qualsiasi fondamento scientifico e di cui in ogni caso non sarebbe responsabile il nucleare, ma semmai la cattiva gestione dell’evacuazione. Vorrei invece far notare che il terremoto di Fukushima fu uno dei più terribili della storia, eppure la centrale nucleare rimase in piedi (in effetti, fu l’unica cosa che rimase in piedi) e non uccise nessuno, mentre 400 persone rimasero vittime del crollo della diga di un vicino impianto idroelettrico. Eppure, nessuno parla mai di queste autentiche morti, mentre tutti continuano a parlare e straparlare di quelle immaginarie di Fukushima.

Ma non è tutto. Questo, infatti, non è per nulla un caso isolato. Solo il disastro del Vajont, come ben sappiamo, ha causato 1917 morti: circa la metà di quelli attribuiti a Chernobyl. Ma già nel 1923 erano morte 356 persone nel crollo della diga del Gleno e altre 115 morirono nel 1935 nel crollo della diga del Molare, col che siamo già a 2388. E questo solo in Italia.

Ho cercato insistentemente notizie relative alla situazione a livello mondiale, ma anche sui siti di statistiche più noti e affidabili sembra impossibile trovare dati completi e ancor più difficile è distinguere tra i crolli di dighe di impianti idroelettrici e quelli di dighe destinati ad altri usi (principalmente irrigazione e attività mineraria). Perfino il loro numero è incerto, perché molti studi considerano solo dighe superiori a una certa altezza, che, essendo scelta arbitrariamente, ogni volta porta a risultati diversi. Calcolandole tutte, è probabile che il numero di dighe di qualsiasi altezza e destinazione d’uso già costruite o in fase di costruzione in tutto il mondo sia vicino al milione. Ma alla fine non ha molta importanza.

Se si pensa infatti che solo nel crollo della diga della centrale idroelettrica di Banqiao, situata 300 km a nord-ovest di Shangai e distrutta nel 1975 dal tifone Nina, morirono 171.000 persone e che nell’insieme i crolli di dighe nell’ultimo secolo hanno sicuramente ucciso centinaia di migliaia di persone, forse addirittura milioni, anche se il numero esatto non è determinabile e non tutte le dighe crollate erano destinate alla produzione di elettricità, è comunque evidente che la “buona” energia idroelettrica è in realtà almeno cento volte più pericolosa della “cattiva” energia nucleare.

E in futuro la situazione è destinata a peggiorare ulteriormente, sia per l’invecchiamento delle dighe (secondo alcune stime, senza urgenti interventi di manutenzione, per cui spesso non ci sono i soldi, oltre il 50% sarebbe già ora a rischio), sia per l’aumentare della violenza delle piogge. Senza contare poi l’impatto ambientale, spesso molto pesante, dei grandi bacini idroelettrici e l’enorme numero di persone (sicuramente alcune decine di milioni) che per permetterne la costruzione sono state costrette a lasciare per sempre le loro case, destinate a finire sommerse dall’acqua.

Eppure, nessuno si sogna di chiedere la chiusura degli impianti idroelettrici. E giustamente, perché farlo causerebbe conseguenze ben peggiori. Ma allora perché rifiutare il nucleare, che è (letteralmente) cento volte più sicuro?

Il falso problema delle scorie

Beh, un momento, mi direte: hai dimenticato il problema delle scorie. Non vorrai mica dirci che neanche quello è così grave come sembra? Ebbene, non ve lo dico, ma solo perché il problema delle scorie semplicemente non esiste: il problema delle scorie, infatti è stato creato dalla paura del problema delle scorie.

Cominciamo da un dato di fatto incontestabile: a oggi, nessuna persona al mondo ha riportato danni a causa delle scorie delle centrali nucleari, mentre le scorie di praticamente qualsiasi altra industria almeno qualche morto l’hanno causato e in molti casi anche più di qualcuno.

Di fatto, per neutralizzarle completamente basta seppellirle a qualche decina di metri di profondità, come si sta facendo attualmente. Che questo sia sicuro è provato dal fatto che vivere sopra un giacimento di uranio non comporta nessun rischio significativo per la salute. Se così non fosse, le compagnie minerarie userebbero le statistiche sul cancro per rintracciare i giacimenti, invece di ricorrere a complicate e costosissime tecnologie di prospezione.

Ma per stare del tutto tranquilli si potrebbe ricorrere a una delle tante miniere abbandonate: a un migliaio di metri di profondità, infatti, perfino se un terremoto dovesse aprire in due la miniera la quantità di radiazioni che riuscirebbe a raggiungere la superficie sarebbe trascurabile (a parte poi che dopo un terremoto di quella potenza questo sarebbe l’ultimo dei nostri problemi, in quanto non resterebbe più nessuno in grado di preoccuparsene).

Ma la soluzione più efficace sarebbe semplicemente affondarle in mare, purché ovviamente a profondità adeguata e non sotto costa, ma nelle grandi fosse oceaniche. Siccome già sento gli strilli inorriditi dei più davanti a questa proposta, vorrei far presente a chi non lo sapesse che, come ho accennato prima, l’acqua di mare è radioattiva già di suo, giacché contiene uranio nella percentuale di 3,4 tonnellate per chilometro cubo: eppure uno può andare al mare anche tutti i giorni senza subirne il minimo danno.

Ora, negli oceani del mondo ci sono circa 1400 milioni di chilometri cubi d’acqua, il che significa che in totale essi contengono la bellezza di quasi 5 miliardi di tonnellate di uranio. E poiché il totale delle scorie prodotte finora (in circa 50 anni) è stimato intorno alle 250.000 tonnellate, cioè 5000 all’anno, ne segue che anche buttandole in mare così come sono ci vorrebbe un milione di anni solo per raddoppiare la radioattività naturale degli oceani, il che a prima vista può sembrare una prospettiva spaventosa, ma in realtà non avrebbe la minima conseguenza pratica. Se così non fosse, infatti, uno che va al mare il doppio di un altro dovrebbe avere una probabilità doppia di prendersi il cancro, per non parlare di uno che ci vive stabilmente, che dovrebbe beccarselo con certezza matematica nel giro di pochi mesi.

La realtà dei fatti è che raddoppiare la radioattività naturale dei mari comporterebbe meno rischi per la nostra salute che farci una banale radiografia. Ancora una volta, siamo vittime dell’illusione delle parole: 5 miliardi di tonnellate di uranio ci sembrano infatti una quantità enorme, e di per sé lo sono, ma il fatto è che non ci rendiamo conto di quanto grande sia il mare, per cui anche una quantità del genere risulta in realtà irrisoria (in effetti, equivale a meno di 4 milionesimi di grammo per metro cubo). Il vero rischio di prenderci il cancro quando andiamo al mare sta nel passare troppo tempo al sole ad abbronzarci, che è molto ma molto più pericoloso che vivere vicino a un deposito di scorie nucleari: eppure, di questo non ci preoccupiamo minimamente.

Peraltro, si tratta di un’ipotesi puramente teorica, giacché le scorte di uranio esistenti nel mondo possono bastare al massimo per qualche migliaio di anni (durante i quali si spera che avremo trovato altre soluzioni, per esempio la fusione nucleare). Quindi anche se tutte le scorie di tutte le centrali nucleari passate, presenti e future della storia dell’umanità venissero buttate in mare così come sono, l’irrisorio livello di radioattività naturale degli oceani verrebbe aumentato al massimo di un ancor più irrisorio 1%. E non basta, perché in realtà nessuno ha mai pensato di buttarle davvero così come sono.

Le scorie, infatti, vengono prima inglobate nel vetro fuso e poi l’impasto viene versato in contenitori di acciaio e cemento a tenuta stagna, che affonderebbero ben presto nel fango dei fondali oceanici, per decine o anche centinaia di metri, col che l’impatto ambientale sarebbe nullo a tutti gli effetti pratici. Infine, non dimentichiamo che, contrariamente a ciò che sempre si dice, solo una minima percentuale delle scorie nucleari conserva una forte radioattività per diverse migliaia di anni, mentre la maggior parte diventa innocua nel giro di qualche decennio.

Conoscere la realtà per non temerla

L’unica cosa di cui dobbiamo avere paura è la paura stessa.

(Franklin Delano Roosevelt)

Ma queste soluzioni, perfettamente sicure, ragionevoli e a basso costo, non sono mai state adottate, perché la gente le rifiuta in nome dell’assurda pretesa del “rischio zero”, di cui ho già più volte parlato su questo sito (si veda in particolare https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta/), a cui in questo caso si aggiunge una paura viscerale più forte di qualsiasi ragionamento, dovuta al ricordo delle atomiche di Hiroshima e Nagasaki, peraltro anch’esso in gran parte mitizzato e che in ogni caso col nucleare civile non c’entra nulla.

Di conseguenza, per compiacere gli elettori i vari governi hanno adottato standard di sicurezza così irragionevolmente esigenti che è diventato impossibile trovare un qualsiasi luogo sulla Terra che li soddisfi, col paradossale risultato che continuiamo a tenere le scorie radioattive in depositi in teoria “provvisori”, ma che stanno di fatto diventando definitivi, benché siano molto più costosi e molto meno sicuri di quelli che potremmo usare senza problemi se solo la smettessimo di aver paura.

Ma per non aver paura della realtà bisogna innanzitutto conoscerla. E questo oggi non sembra uno sport molto di moda.

La frattura tra ragione e realtà 4 / Il Grande Spauracchio – Parte prima: il nucleare bellico

16 Novembre 2023 - di Paolo Musso

In primo pianoSocietà

Con questo articolo comincio a discutere alcuni temi cruciali per il nostro futuro rispetto ai quali la frattura tra le idee comunemente accettate e la realtà dei fatti è particolarmente grave. Il primo tema che ho scelto era quasi obbligato, perché, tra le tante idee sbagliate in circolazione, ben poche battono quelle che riguardano l’energia nucleare, sia nel suo uso bellico che in quello pacifico. Ma, soprattutto, non esiste nessun altro argomento a proposito del quale così tante assurdità siano condivise da un numero così grande di persone e riguardino non solo alcuni aspetti, ma praticamente tutto ciò che si sente dire al proposito. In questo articolo mi occuperò delle armi nucleari, mentre in uno successivo parlerò dell’energia nucleare per uso civile.

Hiroshima, Nagasaki e dintorni

La guerra in Ucraina ha drammaticamente riportato all’attenzione del grande pubblico il tema dell’energia nucleare, sia nel suo uso bellico che in quello civile, il che di per sé è un bene. Purtroppo, però, ha anche ridato fiato alle tante assurdità che da sempre circolano al riguardo, il che è invece un gran male. Cerchiamo quindi di fare un po’ di chiarezza.

E anzitutto chiediamoci: perché l’energia nucleare è diventata il Grande Spauracchio del nostro tempo? La risposta più ovvia è: perché essa è apparsa sulla scena del mondo nella forma delle due bombe atomiche di Hiroshima e Nagasaki.

Questo è certamente vero, ma è altrettanto vero che fin da allora la leggenda ha cominciato a sovrapporsi alla realtà. In parte ciò dipese dal fatto che questa forza titanica sembrò apparire dal nulla, cogliendo tutti di sorpresa: gli studi in merito erano infatti segretissimi e venivano condotti esclusivamente in Germania e negli Stati Uniti (e in Italia, almeno finché le sciagurate leggi razziali non costrinsero Enrico Fermi, uno dei più grandi scienziati di ogni tempo, a rifugiarsi negli Stati Uniti, essendo sposato con un’ebrea). Ma non si tratta solo di questo.

Come ha spiegato uno dei massimi esperti al mondo di armi nucleari, lo storico della scienza Alex Wellerstein della Harvard University, in un articolo pubblicato il 4 agosto 2020 sull’autorevole Bullettin of the Atomic Scientists contenente un’approfondita discussione di tutti gli studi sul tema (https://thebulletin.org/2020/08/counting-the-dead-at-hiroshima-and-nagasaki/), nessuno saprà mai quante persone morirono esattamente a Hiroshima e Nagasaki.

Moltissimi corpi, infatti, non vennero mai recuperati, perché disintegrati dall’esplosione o carbonizzati dai successivi incendi. Ciò rende inevitabile basarsi su stime, le quali però sono pesantemente influenzate dalla valutazione del numero di persone presenti in città al momento dell’esplosione, che per vari fattori è estremamente incerto.

L’intervallo va dalla più bassa, fatta dalla Joint Commission formata dagli Alleati e dal Giappone poco dopo la fine della guerra, per cui i morti sarebbero stati rispettivamente 64.000 e 39.000, a quella più alta, fatta da una commissione giapponese in collaborazione con le Nazioni Unite nel 1975, la cui stima è stata di 140.000 e 70.000, per un totale che va quindi da 103.000 a 210.000.

È importante notare che secondo Wellerstein la differenza dipende solo dai diversi metodi adottati e non da malafede o trascuratezza: «There is no evidence that either of these estimates was made inaccurately or dishonestly, but they come from different sources and eras».

Qualunque valore si accetti, comunque, dal punto di vista strettamente militare non vi furono molte differenze rispetto a quanto si poteva ottenere con armi convenzionali. Per esempio, soltanto i bombardamenti su Tokyo avevano causato oltre 200.000 morti, di cui 72.000 in un’unica notte, quella fra il 3 e il 4 febbraio 1945: una cifra più alta della più alta stima fatta per Nagasaki.

L’impatto delle atomiche fu quindi soprattutto psicologico e fu dovuto principalmente a due fattori: anzitutto,  ovviamente, il fatto che per causare tutta questa distruzione fosse bastata una sola bomba e poi le radiazioni, che facevano (e fanno ancor oggi) paura soprattutto perché invisibili. Gli effetti delle atomiche sugli esseri umani, infatti, per quanto terribili, non sono poi tanto peggiori di quelli causati dalle bombe convenzionali, specialmente da quelle incendiarie. Ma, si sa, da sempre ciò che non si vede fa più paura di ciò che si vede, perché ci fa sentire totalmente indifesi.

Tuttavia, almeno a quel tempo, l’uso dell’atomica implicava anche notevoli difficoltà. Il processo di produzione era infatti lungo e costoso e la bomba, molto pesante e ingombrante, veniva lanciata da un normale bombardiere, per cui se quest’ultimo fosse stato abbattuto l’intero attacco sarebbe stato azzerato, insieme a mesi e mesi di costose fatiche. Ciò invece non accadeva con un bombardamento convenzionale, dove si potevano perdere molti aerei senza compromettere più di tanto la potenza di fuoco complessiva.

Proprio questa fu una delle principali ragioni (anche se ve ne furono delle altre, a cominciare dalla debolezza del Presidente Eisenhower, gravemente malato) per cui gli Stati Uniti, pur avendone allora il monopolio, una volta sconfitto Hitler non tentarono nemmeno di usare l’atomica per piegare l’Unione Sovietica, preferendo la pace di Yalta, che non era certo una buona soluzione, tanto che ancora oggi stiamo subendo le sue perniciose conseguenze. E la situazione non cambiò nemmeno quando l’URSS rovesciò a suo favore l’equilibrio, costruendo le prime bombe all’idrogeno, molto più potenti delle atomiche: il problema di come portarle a destinazione a così grande distanza le rendeva infatti praticamente inutilizzabili.

L’equilibrio del terrore

Solo quando vennero costruiti i primi missili intercontinentali affidabili le armi nucleari divennero una minaccia davvero seria. Ma a quel punto subentrò un altro fattore a impedirne l’uso: USA e URSS ne avevano ormai così tante che erano in grado di distruggersi a vicenda, il che rendeva impossibile vincere e, di conseguenza, insensato usarle.

Nacque così la cosiddetta MAD (Mutual Assured Destruction), dottrina che, per quanto apparentemente folle (“mad” in inglese significa “pazzo” e l’acronimo non è certo stato scelto a caso), ha finora funzionato benissimo, non solo per prevenire le guerre nucleari, ma anche per prevenire le guerre convenzionali tra paesi dotati di armi nucleari (a parte alcuni scontri di frontiera tra India e Pakistan, che però non si sono mai tradotti in guerra aperta, come sarebbe quasi certamente accaduto in un contesto convenzionale).

La MAD non è stata violata neanche dall’invasione dell’Ucraina, come alcuni sostengono. Quest’ultima, infatti, non è dotata di armi atomiche né è alleata formalmente (benché lo sia di fatto) con paesi che le possiedono. È per questo che l’idea prevalente (e a mio avviso corretta) su come reagire a un eventuale uso di armi atomiche da parte di Putin è che la risposta sarebbe sì durissima, ma di natura convenzionale.

Con ciò non voglio dire che l’attuale “equilibrio del terrore” sia la situazione ideale. È chiaro che l’esistenza di migliaia di bombe nucleari costantemente armate e pronte all’uso è già di per sé molto pericolosa e tale resterebbe anche quando una parte sostanziale di esse non fosse più controllata da uno psicopatico genocida come l’attuale dittatore russo. Ma anche qui la leggenda offusca costantemente la realtà, rischiando di farci compiere scelte drammaticamente sbagliate.

Potenza e distruttività

Innanzitutto dobbiamo chiarire qual è la vera capacità distruttiva delle armi nucleari, che è estremamente variabile e, per quanto tremenda, è fortunatamente inferiore a ciò che si crede. Inoltre, contrariamente a quanto pensano quasi tutti, essa risiede assai più nella forza meccanica dell’esplosione che nella radioattività.

Cominciamo dal primo aspetto. La potenza di un’esplosione di grande portata (sia nucleare che convenzionale o prodotta da cause naturali) si calcola usualmente in kiloton, misura che indica una potenza equivalente a quella di mille tonnellate di tritolo, o in megaton, corrispondente a un milione di tonnellate di tritolo, cioè a mille kiloton.

Ora, la potenza delle armi nucleari va da qualche frazione di kiloton (cioè qualche centinaio di tonnellate di tritolo) per le bombe-zaino, trasportabili a mano sul bersaglio da squadre di incursori, fino ai 50.000 kiloton (50 megaton) della bomba Tsar, la più potente mai costruita, testata dall’URSS sull’isola di Novaja Zemlja, a nord della Siberia, il 30 ottobre 1961 (paradossalmente progettata da Andrej Sacharov, che diventerà poi il più noto oppositore del regime sovietico).

Si tratta di una differenza di ben 5 ordini di grandezza, ovvero di una potenza che può variare di centomila volte in più o in meno. Già da questo, quindi, si capisce che parlare genericamente di “armi nucleari” come se fossero tutte la stessa cosa semplicemente non ha senso.

Inoltre, la distinzione principale che va fatta non è quella tra armi tattiche e strategiche (che oggi tiene banco, ma, come vedremo più oltre, non è chiaramente definibile), bensì quella tra armi atomiche, che utilizzano la fissione, e armi termonucleari, che utilizzano la fusione.

Le prime hanno un limite di potenza intrinseco, non chiaramente definibile, perché dipende da vari fattori tecnici, ma comunque dell’ordine di qualche centinaio di kiloton. Ciò è dovuto al fatto che quando l’uranio supera una certa massa critica esplode, per cui non se ne può mettere più di tanto all’interno di una stessa bomba, neanche suddividendolo in più parti, perché queste non possono essere molto numerose, altrimenti diventa impossibile gestirle.

Le armi termonucleari, familiarmente chiamate bombe H perché utilizzano l’idrogeno, non hanno invece un limite teorico, perché di idrogeno se ne può ammassare quanto se ne vuole, ma hanno comunque un limite pratico. Infatti, il rapporto tra la potenza di una bomba e la sua distruttività non è costante, ma diminuisce sempre più rapidamente con il crescere della potenza stessa.

Il motivo è che qualsiasi esplosione produce un’onda d’urto di forma sferica che si espande in tre dimensioni. Ora, finché la potenza della bomba è relativamente piccola, il suo raggio d’azione sarà dello stesso ordine di grandezza delle dimensioni dei suoi bersagli, cioè di poche decine o al massimo centinaia di metri (che è l’altezza dei più grandi grattacieli), sicché tutta o quasi tutta l’energia sprigionata verrà utilizzata per distruggere l’obiettivo.

Più il raggio d’azione diventa grande, però, più il bersaglio apparirà sostanzialmente bidimensionale rispetto alle dimensioni dell’onda d’urto, per cui tutta o quasi tutta la potenza sviluppata lungo la dimensione verticale andrà sprecata. Di conseguenza, se usata in modo tradizionale, una bomba atomica 1000 volte più potente sarà solo 100 volte più distruttiva, con uno spreco di energia di ben il 90%. Anzi, in realtà anche di più.

Anzitutto, infatti, la componente orizzontale non è mai perfettamente tale, perché viene deviata verso l’alto dall’impatto dell’onda d’urto contro i bersagli. Inoltre, la superficie della Terra è curva, il che fa sì che man mano che ci si allontana dall’epicentro una parte sempre maggiore dei bersagli resti al di sotto dell’onda d’urto, finché si arriva all’orizzonte, che li nasconde completamente.

È per questo che le bombe nucleari non vengono fatte detonare a terra, ma al di sopra del bersaglio, in modo da utilizzare tutta la semisfera inferiore dell’onda d’urto: quanto più in alto ci si trova, infatti, tanto più lontano è l’orizzonte, mentre l’effetto di deviazione viene minimizzato.

Tuttavia, anche così almeno la metà dell’energia prodotta (quella della semisfera superiore) va sprecata. Inoltre, più in alto esplode la bomba, più strada dovrà fare l’onda d’urto, sicché quando raggiungerà il terreno si sarà proporzionalmente indebolita, effetto che si accentua sempre più quanto più ci si allontana dalla verticale. Quindi, in sintesi, se la bomba esplode troppo in basso l’onda d’urto non avrà il tempo di espandersi in tutta la sua ampiezza prima di arrivare a terra, mentre se esplode troppo in alto giungerà sul bersaglio troppo indebolita. Va quindi trovato il giusto compromesso, che dipende essenzialmente dalla potenza della bomba.

Quanto più la bomba è potente, tanto più in alto potrà e dovrà esser fatta esplodere: quella di Hiroshima, infatti, esplose a 600 metri dal suolo, la Tsar invece a 4.000. Tuttavia, l’esplosione non può avvenire a una quota dove l’atmosfera è troppo rarefatta o addirittura al di fuori di essa, perché ciò ridurrebbe, fino ad annullarlo del tutto, l’effetto meccanico dello spostamento d’aria, che è il principale fattore di distruttività, soprattutto nel caso delle bombe più potenti, come vedremo meglio fra poco.

Tutto ciò implica quindi che, pur non esistendo un limite di principio alla potenza delle bombe H, esiste però un limite pratico, giacché, una volta che esso sia stato raggiunto, aumentare ulteriormente la potenza lascia sostanzialmente invariata la distruttività.

Approssimativamente, tale limite è rappresentato proprio dalla potenza della bomba Tsar, che non a caso non è più stata superata, nonostante sia stata costruita 62 anni fa. Sempre non a caso, questa è anche la massima potenza che si può scegliere nelle simulazioni del sito Nukemap (https://nuclearsecrecy.com/nukemap/), anch’esso opera di Wellerstein, sul quale mi sono basato per gran parte della mia analisi.

Ciò chiarito in termini generali, passiamo a esaminare più in dettaglio gli effetti delle armi nucleari per alcuni valori particolarmente significativi.

Prendiamo come punto di partenza una bomba da 1 kiloton, che rappresenta l’ordine di grandezza di quella che può essere contenuta in uno zaino atomico portatile ed equivale a un cinquantamillesimo della Tsar (il limite reale, come detto, è un po’ più basso, ma per semplicità facciamo cifra tonda). Il suo raggio d’azione è di circa 1 km, ragion per cui viene fatta esplodere al suolo o molto vicino ad esso, in modo abbastanza simile a una bomba tradizionale, distruggendo un’area di poco più di 4 km2.

Tuttavia, decuplicandone ripetutamente la potenza le dimensioni dell’area distrutta crescono sempre più lentamente, dando rispettivamente i seguenti valori: 20 km2 (solo il 50% dei 40 attesi se la distruttività fosse proporzionale alla potenza), 94 (23% dei 400 attesi), 435 (11% dei 4.000 attesi), 2.580 (6,5% dei 40.000 attesi), fino agli 8.300 (appena il 4,2% dei 200.000 attesi) nel caso della Tsar, che è quindi 50.000 volte più potente, ma solo 2.000 volte più distruttiva (ho leggermente arrotondato i numeri per renderne più facile la lettura; chi volesse quelli esatti e/o cercarne degli altri può fare le simulazioni che gli interessano sul sopracitato Nukemap, che inoltre permette di visualizzare gli effetti di qualsiasi bomba in qualsiasi località del mondo).

Come si vede, dunque, costruire bombe troppo potenti è un inutile spreco di risorse: si ottiene infatti molta più energia utile (cioè indirizzata sul bersaglio) usando una data quantità di uranio per costruire diverse bombe piccole che una sola grande. E infatti la potenza media delle testate nucleari oggi esistenti è di poco superiore al megaton, che, non a caso, coincide quasi esattamente con il miglior equilibrio costi-benefici, con una percentuale di energia utile del 25% e un’area di distruzione intorno ai 500 km2.

In realtà la maggior parte delle testate sono o un po’ più grandi (qualche megaton, in modo che possano distruggere anche le più grandi città del mondo) o un po’ più piccole (da qualche decina a qualche centinaio di kiloton) rispetto a tale valore medio, ma la sostanza del discorso non cambia.

Onda d’urto e radiazioni

Lo stesso vale, in misura perfino maggiore, per le radiazioni. Infatti l’area entro la quale esse risultano letali è sensibilmente inferiore a quella distrutta dall’onda d’urto e, soprattutto, cresce molto più lentamente sia rispetto ad essa che alla fireball, la palla di fuoco che si produce al centro dell’esplosione e che vaporizza all’istante tutto ciò che tocca.

Questo fenomeno si accentua ulteriormente con le bombe H, giacché la fusione nucleare produce una quantità di radiazioni di gran lunga inferiore rispetto alla fissione. Pertanto, la radioattività cresce notevolmente con l’aumentare della potenza nelle bombe atomiche, ma molto meno nelle bombe H, dove è causata principalmente dalla bomba atomica che innesca il processo di fusione dell’idrogeno, la quale non ha neanche bisogno di essere particolarmente potente, dato che la fusione una volta innescata si alimenta da sola.

Così, se per una bomba da un kiloton il raggio dell’area colpita da radiazioni letali è di 0,5 km per una superficie di 0,8 km2, per una da 10 kiloton è di 4,9 km2, con una crescita più o meno in linea con l’aumento di quella colpita dall’onda d’urto. Ma già per una da 100 kiloton l’area irradiata è di soli 10,5 km2, cioè poco più del doppio della precedente, mentre l’onda d’urto distrugge un’area quasi 5 volte maggiore.

Ancor più significativo è il calo con il passaggio ai megaton, cioè alle bombe H: con una potenza da 1 megaton, infatti, l’area irradiata è di meno di 20 km2, mentre per una da 10 megaton non arriva neanche a 36 km2. Infine, per i 50 megaton della Tsar si ha un raggio di 5 km corrispondente a un’area di 80 km2: appena 100 volte maggiore di quella di una bomba-zaino da un kiloton, mentre l’onda d’urto, come abbiamo visto, colpisce un’area oltre 2.000 volte superiore.

Dunque, anche in un’esplosione nucleare la maggior parte delle vittime muore in realtà per cause “classiche”, mentre i morti da radiazioni sono una minoranza. Inoltre, paradossalmente, a produrne il maggior numero sono le armi nucleari più piccole, perché con l’aumento della potenza una parte sempre maggiore dell’area colpita da radiazioni letali viene assorbita dalla fireball, dove la morte è istantanea. Alla potenza di 13,5 megaton l’area della fireball arriva a 39,75 km2, eguagliando quella delle radiazioni letali, che da lì in poi viene quindi completamente assorbita dalla prima. Perciò, paradossalmente, le bombe H più potenti non causerebbero neanche un morto da radiazioni.

Il fallout radioattivo

Magra consolazione, si dirà. Ed è vero, per quanto riguarda le vittime. Ma queste considerazioni sono importanti per capire le conseguenze che l’uso di armi nucleari potrebbe avere al di fuori del teatro di guerra. E sono tanto più importanti se consideriamo che in questo periodo tutti stanno facendo a gara ad esasperare la minaccia al di là di ogni limite ragionevole (anche se oggi un po’ meno rispetto all’inizio della guerra: è proprio vero che ci si abitua a tutto…).

Certo, l’area interessata dal fallout, cioè dalla ricaduta di polveri radioattive, può essere assai più ampia di quella colpita dalle radiazioni prodotte al momento dell’esplosione (ciò dipende da molti fattori, anzitutto atmosferici, ma anche geografici). Ed è proprio questo che ci fa più paura, anche per il rischio che le polveri in questione possano essere trasportate lontano dal teatro di guerra, fino ad arrivarci in casa. Il rischio indubbiamente esiste, ma, ancora una volta, è assai minore di quel che si pensa.

Come riferisce ancora Wellerstein nell’articolo precedentemente citato, a Hiroshima e Nagasaki il 70% delle vittime si ebbe durante il primo giorno, mentre il resto morì entro pochi mesi a causa delle lesioni riportate (non tutte, peraltro, dovute alle radiazioni). Inoltre, molto significativamente, tale stima è condivisa sia dal gruppo di ricerca americano che da quello giapponese, che pure, come abbiamo visto, hanno seguito metodi e ottenuto risultati completamente diversi quanto al numero delle vittime.

Negli anni successivi l’aumento della mortalità per cancro nelle due zone colpite fu irrisorio, tanto che potrebbe perfino essere interamente dovuto a mere fluttuazioni statistiche. Anche volendo attribuirlo tutto agli effetti della radioattività (il che, va ribadito, è sicuramente esagerato e probabilmente anche di molto), non si supererebbero comunque le 3000 vittime, distribuite nell’arco di vari decenni.

Naturalmente, con bombe più potenti anche le polveri radioattive avrebbero una letalità maggiore, ma solo nelle vicinanze dell’epicentro. È vero infatti che potrebbero essere trasportate dall’aria e dall’acqua in giro per il mondo anche a grandi distanze, ma difficilmente potrebbero causare conseguenze gravi, giacché la loro concentrazione diminuisce proporzionalmente al crescere dell’area su cui si diffondono. Si può quindi avere una concentrazione pericolosa solo in zone relativamente limitate, perché se le polveri si disperdono su aree molto vaste diventano rapidamente innocue. Solo nel caso di una guerra nucleare globale le cose si farebbero davvero pericolose. Ma anche qui non bisogna esagerare.

Si stima che oggi nel mondo vi siano circa 13.000 testate nucleari, ciascuna delle quali contiene al massimo qualche chilo di uranio: stiamo quindi parlando in totale di qualche decina o al massimo qualche centinaio di tonnellate. Ora, giusto per dare un termine di paragone, soltanto negli oceani del mondo sono disciolte quasi 5 miliardi di tonnellate di uranio, cioè una quantità da 10 a 100 milioni di volte maggiore. All’uranio marittimo va poi aggiunto quello contenuto nelle rocce, il cui ammontare totale è più difficile da stimare perché è distribuito in modo meno uniforme, ma come ordine di grandezza non può essere molto diverso, considerato che le terre emerse coprono il 30% del pianeta. Infine, nelle rocce e nei mari vi sono altri minerali radioattivi oltre all’uranio, anche se il loro contributo è inferiore. Eppure, il fondo naturale di radioattività della Terra è così basso da farci assorbire appena 2,4 millisievert (mSv) all’anno.

Per avere un termine di riferimento, una singola TAC può farcene assorbire una quantità anche 6 volte superiore in pochi minuti, eppure non è certo pericolosa. Si comincia a correre qualche rischio per la salute solo intorno ai 100 mSv, mentre la dose letale è di 5000 mSv. Anche utilizzando l’intero arsenale nucleare terrestre, quindi, non si vede come si potrebbe innalzare il livello globale di radioattività a un punto tale da renderlo pericoloso ovunque. Certo, concentrazioni letali di polveri radioattive potrebbero crearsi in alcune zone, anche di considerevole ampiezza, ma sembra difficile che ciò possa accadere in tutto il pianeta.

A conferma di ciò, dobbiamo ricordare che dal 1945 a oggi sono stati eseguiti oltre 2.000 test nucleari, quasi tutti concentrati in soli 42 anni, dal 1951 al 1992. Nel 1958 ce ne sono stati 102, nel 1961 addirittura 140 e per tutti gli anni Sessanta si è rimasti vicini ai 100 all’anno.

La maggior parte di essi sono avvenuti sottoterra o all’interno di atolli come Bikini o Mururoa, ma circa un terzo, per un totale di oltre 400 megaton, si è svolto direttamente nell’atmosfera. Ebbene, a parte un leggero aumento dei casi di tumore in alcune delle popolazioni più vicine alle zone dei test, nell’insieme tutto ciò non ha avuto conseguenze rilevanti sulla salute della gente. Eppure, stiamo parlando di una potenza equivalente a circa un quarantesimo dell’intero arsenale nucleare terrestre odierno, stimato intorno ai 15.000 megaton.

Rischi autentici e rischi immaginari

A questo punto siamo in grado di valutare realisticamente i rischi che corriamo. E a tal fine sarà utile cominciare da quelli che non corriamo, ma di cui, ciononostante, abbiamo paura, visto quanto spesso se ne parla.

Anzitutto, non corriamo il rischio di distruggere la Terra, timore molto diffuso, ma semplicemente ridicolo. Per rendere l’idea saranno utili due termini di paragone.

Il primo è il terremoto del 26 dicembre 2004, il più violento degli ultimi 50 anni e il terzo in assoluto da quando siamo in grado di misurarli, che provocò il famoso “Tsunami di Santo Stefano” nell’Oceano Indiano. Sviluppò un’energia pari a 52.000 megaton, equivalente a mille bombe Tsar o, se si preferisce, a tre volte e mezza l’intero arsenale nucleare terrestre. Eppure, ciò si limitò a generare alcune onde alte una ventina di metri, che per noi sono enormi, ma per il pianeta rappresentano un’increspatura pari ad appena un seicentomillesimo del suo diametro: come se i capelli di un uomo alto un metro e ottanta subissero un ondeggiamento di 3 millesimi di millimetro.

Il secondo è la caduta dell’asteroide che sterminò i dinosauri, il più violento evento terrestre conosciuto. Sprigionò un’energia di almeno 100 milioni di megaton, pari ad oltre 6.600 volte quella dell’intero arsenale nucleare terrestre, creando un cratere di 180 km di diametro e 20 km di profondità e causando catastrofi inimmaginabili in tutto il globo, rispetto alle quali anche le peggiori a cui l’umanità ha assistito in tutta la sua storia sono roba da ridere. Eppure, al pianeta fece appena il solletico.

Nemmeno siamo in grado di distruggere la vita sulla Terra, cosa che non riuscì neppure all’asteroide suddetto. Anzi, quella catastrofe sbloccò la situazione di stallo in cui si trovava da tempo l’evoluzione, dominata da oltre 160 milioni di anni dai dinosauri, aprendo così la strada a una nuova fase che alla fine condusse alla comparsa della prima (e per ora unica) forma di vita intelligente conosciuta: noi. D’altronde, sappiamo che nella storia dell’evoluzione si sono verificate diverse estinzioni di massa e sempre, dopo ognuna di esse, la vita non solo è ripartita, ma è anzi progredita verso un più alto livello di complessità. Anche se noi dovessimo sparire, quindi, la vita di sicuro continuerà.

Ma anche l’estinzione della razza umana è un’eventualità molto remota. Certamente, una guerra nucleare fra Russia e Stati Uniti porterebbe alla fine della nostra civiltà in tutte le zone colpite e avrebbe gravi ripercussioni anche sulle altre, perché farebbe saltare in aria il sistema economico che abbiamo creato negli ultimi decenni (il che di per sé sarebbe positivo, dato che il sistema suddetto è completamente folle, ma sul breve periodo avrebbe conseguenze pesantissime). Alla lunga, tuttavia, in queste zone si creerebbe un nuovo ordine, magari perfino migliore di quello attuale, e l’umanità andrebbe comunque avanti.

Solo se le due superpotenze dovessero scagliarsi reciprocamente addosso tutto ciò che hanno o, peggio ancora, colpire indiscriminatamente ogni parte del pianeta la sopravvivenza dell’umanità sarebbe davvero a rischio. Questo non tanto per le distruzioni in sé stesse o per le radiazioni, che, come già si è detto, da sole non basterebbero a ucciderci tutti, ma piuttosto perché il collasso delle infrastrutture tecnologiche ci costringerebbe a ricorrere, per sopravvivere, a tecniche molto primitive di agricoltura e allevamento, cosa che ben pochi ormai saprebbero fare, perfino nelle zone in cui si vive ancora a più stretto contatto con la natura.

Tuttavia, una guerra nucleare totale è un’eventualità così estrema che appare molto improbabile, anche perché per scatenarla occorre la collaborazione di molte persone e sembra davvero difficile che di fronte all’Apocalisse nessuno si ribelli. Quello che appare invece più verosimile è un uso limitato di armi nucleari tattiche su uno specifico campo di battaglia, come appunto si teme possa accadere in Ucraina. Ma fino a che punto questo rischio è reale?

Armi tattiche e strategiche

Anzitutto va detto che, come già si accennava prima, la distinzione tra armi strategiche e tattiche non è per nulla facile da definire. In genere con il primo termine si intende un’arma di distruzione di massa, mentre col secondo si intende una bomba di potenza e gittata relativamente limitate. In realtà, però, questa è una condizione necessaria, ma non sufficiente, perché conta anche l’uso che se ne fa: solo se usata esclusivamente contro obiettivi militari sul campo di battaglia, infatti, un’arma nucleare tattica può essere considerata realmente tale.

La bomba di Hiroshima, per esempio, era di soli 15 kiloton, ma nessuno sarebbe disposto a considerarla un esempio di arma tattica, essendo stata usata per colpire il nemico sul proprio territorio e in maniera indiscriminata. Perfino un’atomica portatile da mezzo kiloton, se piazzata in una città, potrebbe raderne al suolo una porzione considerevole, pari all’intero centro di Milano: e in tal caso neanch’essa potrebbe essere considerata un’arma tattica.

D’altra parte, le bombe all’idrogeno e le atomiche più potenti, dell’ordine delle centinaia o migliaia di kiloton, non potrebbero in nessun caso essere considerate tattiche, neppure se usate solo a scopi militari, non solo a causa delle distruzioni su vasta scala che provocherebbero, ma soprattutto per il significato che avrebbero, dimostrando che il paese che le ha lanciate non intende porsi alcun limite. E neanche potrebbero essere considerate tattiche bombe di potenza limitata se venissero usate in gran numero, in modo tale che l’effetto cumulativo fosse analogo a quello delle bombe più potenti.

In definitiva, quindi, possiamo dire che le armi nucleari tattiche sono tali solo se rispettano contemporaneamente limiti riguardo alla potenza, all’utilizzo e al numero. Una tale definizione rende però molto difficile il loro impiego nel mondo reale.

Anzitutto, come ci ha mostrato l’analisi precedente, il vero punto di forza delle armi nucleari non è tanto la grandezzadell’area che sono in grado di colpire (che, soprattutto nel caso delle armi tattiche, è assai inferiore a ciò che comunemente si crede), bensì la potenza con cui la colpiscono. In altre parole, esse si caratterizzano principalmente per avere una grande potenza molto concentrata e, di conseguenza, hanno la massima efficacia contro obiettivi anch’essi molto concentrati.

Purtroppo, però, sul campo di battaglia i punti in cui le truppe nemiche sono più concentrate sono in genere gli stessi in cui sono più concentrate anche le proprie truppe, per cui è molto difficile colpire le prime senza colpire anche le seconde. E la situazione è ancor peggiore quando il fronte si trova all’interno del proprio territorio o di quello che si intende conquistare, come sta appunto accadendo attualmente in Donbass. In tal caso, infatti, oltre alle proprie truppe si finirebbe inevitabilmente per colpire anche la propria popolazione. E anche se si riuscisse a evitarlo facendola evacuare (cosa molto complicata, con una guerra in corso), le radiazioni contaminerebbero comunque tutta la zona, rendendola inabitabile per decenni.

Inoltre, come abbiamo visto prima, con una potenza limitata a qualche kiloton si può colpire un’area di non più di 15-20 km2, che sono tantissimi in una zona urbana, ma sono invece pochissimi in un campo di battaglia moderno, che può avere un’area di migliaia di km2. Pertanto, anche volendo ignorare i problemi precedenti, sarebbe in ogni caso molto difficile rovesciare le sorti di una guerra con le sole armi nucleari tattiche, a meno di usarle in così gran numero da cambiarne di fatto la natura.

Non che si tratti di considerazioni particolarmente originali. È noto che gli americani avevano esaminato la possibilità di usare armi nucleari tattiche in Vietnam, ma l’avevano scartata perché erano giunti alla conclusione che non avrebbero prodotto cambiamenti significativi nell’andamento del conflitto. Eppure, vi sono molti, anche tra gli esperti, che ancora non sembrano averlo chiaro.

Di esempi in tal senso ne abbiamo avuti a iosa, per cui mi limiterò a citare il più clamoroso, quando nelle prime settimane del conflitto Andrea Margelletti, che pure di cose militari se ne intende, aveva mostrato quello che secondo lui sarebbe stato l’effetto di una singola atomica tattica usata dai russi sul fronte sudorientale dirigendosi verso la cartina appesa al muro dello studio di Porta a porta e togliendone, senza dire una parola, tutte le figurine che rappresentavano l’esercito ucraino.

L’effetto teatrale è stato ottimo, quello comunicativo, invece, pessimo: per fare scomparire l’intero esercito ucraino da un’area vasta quanto un quarto del paese, ovvero quanto l’intera Pianura Padana, ci vorrebbero infatti almeno una decina di bombe Tsar, pari a circa un quindicesimo della potenza dell’intero arsenale nucleare russo, altro che un’atomica tattica! Inoltre, un attacco del genere in quella zona causerebbe un enorme fallout radioattivo, che, oltre all’Ucraina, devasterebbe l’intero Donbass, nonché tutte le regioni russe poste in prossimità del confine e forse perfino la stessa Mosca.

Ebbene, questo modo irresponsabile di parlare del pericolo nucleare (che certo esiste e non dev’essere sottovalutato, ma nemmeno esasperato) è un esempio perfetto di ciò che intendevo prima quando ho detto che un errore su questo punto ci può portare a prendere decisioni sbagliate.

Putin, infatti, come ho scritto in un precedente articolo (https://www.fondazionehume.it/politica/la-prevedibile-caporetto-di-putin-e-quella-inquietante-degli-esperti/), un po’ scherzando ma anche no, è certamente pazzo, ma non del tutto: diciamo all’87% o giù di lì. Ora, quel 13% di razionalità che gli resta è stato fin qui (fortunatamente) sufficiente a fargli capire che l’atomica gli può essere molto più utile se non la usa davvero, ma si limita ad agitarla come spauracchio per spaventarci, sperando di ottenere delle condizioni di pace abbastanza favorevoli da permettergli di proclamarsi vincitore, salvando così il potere e, con esso, la pelle. E se non abbiamo ben chiara la situazione rischiamo di cascarci.

La pericolosa utopia del mondo denuclearizzato

Ma non si tratta solo di Putin. Con la Bomba, infatti, dovremo purtroppo abituarci a convivere per sempre, perché un mondo completamente denuclearizzato non solo è un’utopia, ma è un’utopia pericolosa. C’è infatti un ultimo punto fondamentale da capire: qualsiasi tecnologia, una volta inventata, può sì essere distrutta, ma non può più essere “disinventata”.

Di conseguenza, un mondo denuclearizzato lo sarebbe solo in apparenza, mentre in realtà sarebbe continuamente esposto al rischio che qualche paese riuscisse a costruirsi di nascosto un proprio arsenale nucleare, anche piccolo. Diventando l’unico a possederlo, infatti, gli basterebbero poche decine di missili intercontinentali con testate di media potenza per essere in grado di distruggere tutte le principali città del mondo senza rischiare nessuna rappresaglia. Di conseguenza, chi ci riuscisse potrebbe imporre a tutti la propria egemonia molto più efficacemente di quanto possano fare oggi le maggiori potenze, che di testate ne possiedono migliaia, ma devono fare i conti con la certezza di subire, se le usano, un danno identico a quello che sarebbero in grado di causare.

Forse qualcuno obietterà che costruire di nascosto decine di bombe nucleari partendo da zero è molto difficile. Ed è vero. Ma difficile non vuol dire impossibile. E le conseguenze sarebbero così gravi che non possiamo permetterci di rischiare.

Inoltre, va tenuto presente che per i paesi più forti non sarebbe necessario mantenere il segreto fino al momento in cui le armi fossero operative, ma solo fino a quando la loro produzione fosse giunta a un punto tale da garantire un vantaggio incolmabile sul resto del mondo. A quel punto, infatti, per fermarla sarebbe necessaria una guerra condotta con armi convenzionali, che potrebbe forse avere successo in tempi sufficientemente brevi contro un piccolo “Stato canaglia”, ma non contro una grande potenza.

Ma non basta. C’è anche un altro motivo per cui questa sarebbe una pessima idea. Le armi nucleari, infatti, potrebbero essere l’unica nostra possibilità di salvezza dall’estinzione che provocherebbe un impatto cosmico con un asteroide o una cometa.

È uno scenario che abbiamo già visto in molti film di genere apocalittico, ma, per una volta, non si tratta di fantasia e neanche di una mera ipotesi, ma di un dato di fatto. Come suol dirsi, la domanda non è “se”, ma “quando”: sappiamo che accadrà perché è già accaduto, non solo coi dinosauri, ma molte altre volte.

E non è neanche una possibilità tanto remota: per metterci a rischio di estinzione basterebbe un oggetto molto più piccolo dell’asteroide dei dinosauri, diciamo intorno a un chilometro di diametro, che ha una probabilità su 100.000 di cadere durante il prossimo anno. Può sembrare poco, ma in realtà è un rischio appena 5 volte inferiore a quello che ciascuno di noi corre di morire in un incidente d’auto nello stesso periodo di tempo. Ci sembra che non sia così solo perché le morti da automobile le vediamo continuamente, essendo un “rischio distribuito” su un lungo arco di tempo, mentre quelle da asteroide no, essendo un “rischio concentrato” che si verifica tutto in una volta. Ma la percezione della gravità di un rischio non ha nulla a che fare con la sua gravità effettiva.

È per questo che ormai da decenni i corpi potenzialmente pericolosi vengono attentamente monitorati, in modo da poter intervenire con largo anticipo per deviarli con metodi “soft”. Ma se qualcuno ci sfuggisse e dovessimo accorgercene solo all’ultimo momento (eventualità che non si può assolutamente escludere), allora non resterebbe che usare i missili nucleari. E poiché l’idea di tenerne un certo numero solo per questo scopo sotto controllo internazionale è pura utopia, data la totale inaffidabilità delle istituzioni che dovrebbero occuparsene, a cominciare dall’ONU, l’unico modo di averli pronti al momento del bisogno (dato che non ci sarebbe il tempo di costruirli da zero) è che le potenze atomiche conservino almeno una parte di quelli che oggi possiedono.

Non credo che questo argomento convincerà molte persone: la guerra atomica ci fa molta più paura degli asteroidi e raramente la paura si vince coi ragionamenti, soprattutto in un tempo come il nostro, che ha eretto l’emotività a valore supremo. Eppure, i fatti dicono che lo scoppio di una guerra atomica è solo una possibilità (neanche tanto probabile), mentre l’essere colpiti prima o poi da un corpo celeste capace di ucciderci tutti è una certezza. Anche da questo punto di vista, quindi, un mondo completamente denuclearizzato sarebbe in realtà un mondo più pericoloso.

Una soluzione realistica: “MAD depotenziata” e mondo multipolare

Così stando le cose, dobbiamo rassegnarci alla situazione attuale o c’è qualcosa che possiamo fare? Per quel che vale, la mia opinione è che il problema delle armi nucleari non può essere risolto una volta per tutte, ma potrebbe essere gestito in modo tale da minimizzarne i rischi, creando una sorta di “MAD depotenziata”, dove la “D” finale non stia più per “destruction”, ma per “debilitation” o qualcosa di simile.

A tal fine bisognerebbe ridurre considerevolmente il numero di testate in circolazione, in modo che nessuno ne abbia a disposizione più di qualche decina. In questo modo, infatti, nessuna potenza atomica sarebbe più in grado di scatenare una guerra globale che minacci la sopravvivenza dell’intera umanità, anche se ognuna manterrebbe la capacità di rispondere a un attacco nucleare infliggendo al nemico danni abbastanza devastanti da scoraggiare chiunque dal provarci, perfino se riuscisse a produrre di nascosto un numero di testate maggiore di quello pattuito.

Inoltre, bisognerebbe limitare la tendenza, fisiologica ma non per questo meno preoccupante, all’aumento del numero dei paesi dotati di armi nucleari, per minimizzare il rischio che in qualcuno di essi vada al potere un dittatore pazzo al 100% (e non solo all’87%), che decida di usarle senza curarsi delle conseguenze.

A tal fine è necessario che i paesi che già le possiedono si facciano garanti, attraverso opportune alleanze regionali analoghe alla NATO, della sicurezza di quelli che non le possiedono. In fondo è la stessa strategia suggerita da Huntington nel suo celeberrimo Lo scontro delle civiltà, che in realtà era un tentativo di evitare tale scontro (che lui – giustamente – vedeva avvicinarsi) attraverso la creazione di un nuovo ordine mondiale più pluralista e multipolare e, soprattutto, che rifletta gli attuali rapporti di forza e non quelli del 1945 su cui si basa ancora l’ONU, che infatti non funziona.

Inoltre, è molto importante che la guerra in corso sia vinta dall’Ucraina, unico paese al mondo, finora, ad avere accettato un accordo del genere dopo avere rinunciato spontaneamente alle proprie  armi nucleari (come il Sudafrica, che però ne possedeva appena 6). Al momento della dissoluzione dell’URSS, infatti, l’Ucraina aveva ben 1300 testate, che restituì alla Russia nel 1994 con la firma del Memorandum di Budapest in cambio della solenne promessa che quest’ultima ne avrebbe in futuro garantito e protetto la sovranità e l’indipendenza. Abbiamo visto tutti com’è finita…

Già di per sé il tradimento di questo accordo da parte della Russia spingerà di sicuro molti paesi che non possiedono ancora armi nucleari a volersene dotare, ma è chiaro che, se l’Ucraina dovesse perdere, questa tendenza verrebbe ulteriormente rinforzata, mentre una sua vittoria dimostrerebbe che dopotutto è possibile difendere la propria indipendenza anche contro una superpotenza nucleare facendo unicamente uso di armi convenzionali.

Dimenticare l’Apocalisse per evitarla

Resta però un ultimo problema. Una soluzione come quella che ho suggerito può essere attuata solo attraverso una serie di complessi accordi internazionali, che presuppongono sì un certo grado di ostilità tra le principali potenze (altrimenti il problema non si porrebbe), ma anche un certo grado di collaborazione, di cui oggi purtroppo non vi è traccia. Cosa dovremmo fare, allora, mentre aspettiamo che  le cose cambino, di fronte a potenze nucleari che sembrano animate da una volontà malefica, più ottusamente violenta nel caso della Russia, più fredda e calcolatrice ma ugualmente spietata nel caso della Cina?

Ebbene, la risposta è l’esatto contrario di quello che in genere i commentatori dicono della Russia quando vogliono apparire particolarmente intelligenti e pensosi: «Non dimentichiamoci che abbiamo a che fare con una potenza nucleare». Ecco, invece dovremmo proprio dimenticarcene.

Dato infatti che con questa minaccia dovremo conviverci per sempre, far vedere che siamo disposti a cedere di fronte a chiunque disponga di armi atomiche sarebbe il modo migliore per incoraggiare tutti i dittatori, i pazzi e i criminali di questo mondo a dotarsene e, per chi le ha già, a considerare seriamente la possibilità di usarle. Certo, anche resistere è rischioso (la vita è un rischio…), però meno. Anche perché i prepotenti in genere sono vigliacchi e si fanno forti solo con i deboli, mentre davanti a un’opposizione risoluta abbaiano molto, ma mordono poco.

In questo periodo si è citata spesso (e spesso a sproposito) la crisi dei missili sovietici a Cuba, cioè il solo momento, finora, in cui il mondo si è trovato davvero a un passo dalla guerra nucleare. Ma se questa alla fine non ci fu, lo si deve al fatto che Kennedy dimostrò ai sovietici di non aver paura di farla (anche se, ovviamente, ce l’aveva). Poi, certo, dopo che ebbero fatto marcia indietro fece loro anche alcune concessioni. Ma dopo.

Se gliele avesse fatte prima, dimostrando di temerli, li avrebbe solo incoraggiati ad andare avanti con il loro folle piano.

E probabilmente noi oggi non saremmo qui a parlarne.

La frattura tra ragione e realtà 3 / Marx è vivo e lotta dentro a noi – Dodici idee comuniste a cui credono anche gli anticomunisti

2 Novembre 2023 - di Paolo Musso

In primo pianoPolitica

In due articoli precedenti avevo cercato di mostrare come, benché al comunismo nel suo complesso ormai non creda più nessuno, molte idee tipiche del comunismo e addirittura del marxismo in senso stretto sopravvivano ancora, sia nella Russia di Putin che nella sinistra occidentale, rendendo molto difficile un suo processo di autentica riforma. Oggi vorrei mostrare come alcune di queste idee siano inconsapevolmente condivise anche da molte persone non di sinistra e perfino da molti anticomunisti dichiarati. Tuttavia, se è urgente e necessario prendere coscienza del peso che ha ancor oggi l’ideologia comunista nella formazione delle nostre convinzioni e, quindi, anche delle nostre decisioni, ciò non significa che a destra o al centro o da qualsiasi altra parte le cose vadano molto meglio: la frattura tra ragione e realtà è purtroppo una malattia assolutamente bipartisan, o, più esattamente, “omnipartisan”, come vedremo nei prossimi articoli.

 

Premessa

Apparentemente, il comunismo in Occidente è oggi una dottrina ampiamente minoritaria, sostenuta solo da piccoli partiti e per di più in una versione piuttosto differente da quella originale di Karl Marx, a cui ormai fanno riferimento solo alcuni movimenti extraparlamentari, insieme a pochi, benché agguerriti, intellettuali. Eppure, molte idee non solo comuniste, ma addirittura marxiste in senso stretto sono più vive che mai, al punto che vengono sostenute (ovviamente senza esserne coscienti) anche da molti non comunisti e perfino da molti anticomunisti dichiarati.

Anzi, non è neanche corretto dire che esse vengono “sostenute”: si sostiene un’idea quando si ritiene necessario argomentarla e difenderla, mentre le idee di cui sto parlando vengono perlopiù date semplicemente per scontate. Questo spiega anche come è possibile che siano così ampiamente condivise: una discussione esplicita, infatti, ne renderebbe chiara l’origine e la logica intrinseca e porterebbe al loro rigetto da parte di chi tale origine e logica non condivide. Esse, invece, si diffondono in modo quasi inconsapevole (“per osmosi”, potremmo dire), attraverso la ripetizione automatica di una serie di luoghi comuni diffusi soprattutto nella letteratura, nel cinema, nei mass media e nei libri di scuola, a causa della popolarità che il comunismo ha avuto in passato (e in parte ha ancora) negli ambienti intellettuali dell’Occidente.

Una questione terminologica

Prima di entrare nel merito, tuttavia, va fatta un’importante precisazione terminologica. Infatti, alcune delle idee di cui parlerò hanno “contagiato” praticamente tutti, ma altre sono condivise solo da quella parte della società occidentale che si riconosce in quell’ampio schieramento che comprende tutta la sinistra moderata, una parte di quella radicale, tutti i partiti di centro e una parte consistente di quelli del centrodestra moderato. Tali idee vengono invece rifiutate principalmente dalla destra e da una (piccola) parte del centrodestra, ma anche, almeno in parte, dalla sinistra più estrema, rimasta fedele all’ortodossia marxista originaria (che le respinge non perché siano troppo comuniste, ma perché non lo sono abbastanza, ma comunque le respinge).

Ciò non è così strano come potrebbe sembrare, dato che i partiti comunisti storici hanno dovuto “reinterpretare” molti punti del marxismo ortodosso per ricavarne una dottrina politica applicabile, a cominciare da Lenin e Stalin, che per giustificare la loro rivoluzione dovettero inventarsi la teoria del “socialismo in un solo paese”, che Marx avrebbe giudicato una vera e propria eresia. Il marxismo, infatti, non è una dottrina politica, ma una filosofia della storia che pretende, esattamente come quella di Hegel, da cui deriva, di individuarne un senso immanente che si affermerà inesorabilmente seguendo una sua logica intrinseca che nessuno ha il potere né di fermare né di accelerare. Paradossalmente, quindi, un marxista perfettamente ortodosso non dovrebbe far nulla, se non sedersi sulla riva del fiume della Storia aspettando che la sua inarrestabile corrente gli porti il cadavere del capitalismo e, con esso, il “paradiso” della nuova società comunista.

Essendo così eterogenei, non è facile definire adeguatamente questi due blocchi, che in quasi tutti i paesi occidentali hanno ormai in gran parte soppiantato le tradizionali divisioni politiche, compresa, appunto, quella tra destra e sinistra. Per il primo gruppo, infatti, i termini abbondano, ma sono troppo specifici, sottolineando uno solo fra i vari aspetti che lo caratterizzano (progressisti, globalisti, “maggioranza Ursula”, fautori del politically correct o della “ideologia europea”, ecc.) oppure troppo connotati in senso positivo (democratici, antifascisti, “persone civili”, ecc.). Per il secondo caso, invece, i termini abitualmente usati sono troppo generici e anch’essi troppo connotati, stavolta in senso negativo (populisti, peronisti, “impresentabili”, quando non semplicemente “fascisti”, anche se quest’ultimo epiteto, ovviamente, si applica alla sola componente di destra).

Dopo averci pensato a lungo, sono giunto alla conclusione che la classificazione migliore è quella proposta da Marcello Veneziani e fatta propria da Luca Ricolfi nel suo ultimo libro La mutazione (La nave di Teseo, 2022), che definisce “liberal” gli esponenti del primo gruppo e “comunitari” i loro oppositori, sia di destra che di sinistra, perché ciò che li avvicina, a dispetto delle grandi differenze che pure rimangono, è proprio il fatto di sottolineare l’importanza dell’aspetto comunitario contro l’individualismo radicale che rappresenta invece il fattore unificante dei “liberal”. A questa terminologia e alla corrispondente divisione concettuale mi atterrò quindi nel seguito di questo articolo e anche nei prossimi. E torniamo al nostro tema.

Dodici idee comuniste di successo

Fra le idee comuniste che si sono diffuse ben al di là del loro ambito originario vi sono innanzitutto alcune di quelle che in un precedente articolo (https://www.fondazionehume.it/politica/la-frattura-tra-ragione-e-realta-2-il-comunismo-eterno-e-la-impossibile-riforma-della-sinistra/) avevo indicato come tuttora ben presenti, benché spesso in modo implicito e inconsapevole, all’interno della sinistra italiana e, più in generale occidentale, che quindi ora riesaminerò brevemente in questa nuova prospettiva.

1) La prima di esse è la fede nel progresso, cioè, per dirla con Ricolfi, l’idea che «la freccia del tempo storico punta sempre nella direzione giusta» (Ricolfi, La mutazione, p. 200). Benché tipica della sinistra, infatti, tale idea è accettata praticamente da tutta l’area liberal, al punto che perfino quei (pochi) pensatori che ne riconoscono i limiti finiscono per condividerne almeno in parte i presupposti. Si prenda per esempio questo passo di Giovanni Orsina, che pure è uno dei commentatori politici più acuti ed equilibrati in circolazione:

«Il progressismo ha reagito al montare dell’onda conservatrice facendo forza su una concezione – appunto – progressista della storia: la storia avrebbe una logica e una direzione e, una volta superate certe soglie, indietro non si può più tornare. Da qui l’accusa che vien mossa ai conservatori di essere disperatamente fuori sintonia col proprio tempo, reduci di un’epoca ormai remota e conclusa, “medievali” addirittura. L’errore è nel manico: la concezione progressista della storia non regge più, e la rivolta contro la coppia globalizzazione-individualismo nasce proprio dalla sua crisi. È perché non credono più che la storia abbia una logica e una direzione, insomma, perché sono spaesati e angosciati dal futuro, che gli elettori votano a destra. E con l’idea di progresso in pezzi, allora, tocca ai progressisti essere disperatamente fuori sintonia col proprio tempo» (La destra orgogliosa e la scoperta dei valori, su La Stampa del 23/10/2022).

Il ragionamento è in gran parte condivisibile, ma sostenere che tale paura del futuro nasca dal “non credere più che la storia abbia una logica e una direzione” equivale di fatto a ritenere che l’unico modo di dare un senso alla storia sia, appunto, “credere che la storia abbia una logica e una direzione” e che chi non ha questa fede nel progresso non possa che essere “spaesato e angosciato”. Ora, benché sia vero che in questo processo la paura gioca un ruolo rilevante, è invece falso che chi vota a destra lo faccia solo per paura e non invece anche perché ha una diversa idea del futuro. Giorgia Meloni, per esempio, un’idea di come dovrebbe essere il futuro ce l’ha eccome: si può discuterne la validità, ma non negare che tale idea esista, né che molti elettori la condividano e che proprio per questo abbiano votato per lei. Ridurre tutto alla paura impedisce di discutere razionalmente «il lato oscuro del progresso, o meglio, di quel che i progressisti vedono come progresso» (Ricolfi, La mutazione, p. 200) e che invece non è necessariamente tale.

Parafrasando ciò che ho scritto a proposito del razionalismo nel mio libro più importante, La scienza e l’idea di ragione (Mimesis 2019, 2a ed. ampliata, p. 242), potremmo perciò dire che “l’antiprogressista liberal è un progressista deluso, che però continua ad essere progressista, nel senso che continua a pensare che se fosse possibile dare un senso alla storia, l’unico modo di riuscirci sarebbe attraverso la concezione progressista: solo che egli non crede che ciò sia possibile e quindi nega che esista una qualsiasi possibilità di arrivare a dare un senso alla storia” (l’analogia, peraltro, non è casuale, dato che il progressismo è una forma di razionalismo, la cui prima compiuta enunciazione programmatica si trova nel saggio Se il genere umano sia in costante progresso verso il meglio, scritto nel 1798 da Immanuel Kant, da cui l’idea è passata all’idealismo tedesco, in particolare ad Hegel, e da questi a Marx).

2) Anche la tipica tendenza dei comunisti a demonizzare chiunque si opponga a ciò che essi “vedono come progresso” è condivisa da gran parte dei liberal, soprattutto ora che il trucco tipico dei comunisti di autoproclamarsi antifascisti per definizione (cosicché i loro avversari risultassero, sempre per definizione, anti-antifascisti e quindi fascisti) è stato opportunamente aggiornato nei termini del politically correct. Quest’ultimo, infatti, ha ben poco a che vedere con la difesa dei poveri ed è quindi più facilmente accettabile dai ricchi borghesi in cerca di qualcosa che permetta loro di mettersi a posto la coscienza a buon mercato. Così oggi i liberal si identificano essenzialmente come antirazzisti (in senso lato, includendo in questo termine ogni forma di discriminazione, anche se non c’entra nulla con la razza), per cui i loro oppositori risultano essere per definizione anti-antirazzisti e quindi razzisti (cfr. Ricolfi, La mutazione, pp. 96-97).

3) Un’altra idea comunista di grande successo emerge nella diffusissima tendenza a riconoscere al comunismo stesso, anche da parte di chi gli è ostile, una qualche forma di “superiorità morale” rispetto alle altre ideologie totalitarie. Tale idea è così radicata che perfino molti oppositori del comunismo negano che esso sia totalitario per natura, ma solo a causa di sue erronee realizzazioni storiche, benché ritengano che la loro frequenza e gravità dimostri che sia troppo pericoloso provare a metterlo in pratica. Tuttavia, chi la pensa così paradossalmente rifiuta il comunismo per “eccesso di stima”, cioè non perché lo ritiene intrinsecamente cattivo, bensì perché lo ritiene intrinsecamente “troppo buono”, cosicché l’imperfetta natura umana non sarebbe in grado di realizzarlo senza pervertirlo.

Ciò si vede in modo particolarmente chiaro nell’uso del termine “stalinismo”, che ormai per tutti, perfino per quelli di destra-destra, serve a designare non solo una determinata fase della storia del comunismo sovietico, bensì qualcosa che in qualche modo (quale esattamente non si sa, ma non importa) si differenzierebbe dal comunismo in quanto tale. Eppure, a nessuno verrebbe in mente di parlare di “mussolinismo” o di “hitlerismo” come qualcosa di distinto dal fascismo o dal nazismo in quanto tali, e non solo perché fascismo e nazismo sono (per fortuna) morti con loro e non hanno conosciuto ulteriori fasi.

In effetti, la sola idea suona ridicola, ancor prima che sbagliata, tant’è vero che neppure i nostalgici più incalliti si sognerebbero mai di usare questo escamotage per difendere le suddette ideologie distinguendole dalla supposta cattiva applicazione che questi regimi ne avrebbero fatto. Ma allora perché la stessa operazione non ci fa lo stesso effetto quando viene applicata al comunismo? Dato che dal punto di vista razionale non c’è nessuna differenza, l’unica risposta possibile è che, come dicevo, in Occidente esiste nei confronti del comunismo un così radicato e diffuso pregiudizio favorevole che esso finisce per condizionare inconsciamente perfino i suoi più accaniti oppositori.

Tale pregiudizio traspare ancor più chiaramente nell’atteggiamento aprioristicamente benevolo che anche molti non comunisti tendono ad avere verso qualsiasi movimento sudamericano che si presenti come “rivoluzionario”. Certo, il mito del “Che” è duro a morire, eppure basterebbe informarsi in modo appena sommario per capire che la guerriglia in America Latina è morta, appunto, con Che Guevara. Dopo di lui, con la sola eccezione dei sandinisti in Nicaragua (qualsiasi cosa se ne pensi: e io, sia chiaro, ne penso piuttosto male) e di Sendero Luminoso in Perù (che però conduceva una vera e propria guerra di sterminio, le cui prime vittime erano i contadini e gli indigeni che diceva di voler proteggere), la guerriglia un po’ alla volta è diventata soltanto una scusa per fare narcotraffico con la benedizione degli intellettuali occidentali. E a quanto pare funziona…

Farò solo tre esempi, fra i tanti possibili. Il primo è l’assurda demonizzazione dell’ex Presidente peruviano Alberto Fujimori, ritenuto  quasi universalmente  un dittatore e spesso addirittura uno dei più sanguinari del nostro tempo. Eppure, Fujimori è sempre stato eletto con maggioranze schiaccianti in elezioni di cui nemmeno i suoi più accaniti oppositori hanno mai contestato la regolarità, ha salvato il paese dalla bancarotta e dal terrorismo e ha dato al Paese una Costituzione che è una delle pochissime cose che ancor oggi funziona tra le sue scalcagnate istituzioni, tanto che è difesa a spada tratta contro i tentativi di revisione periodicamente proposti dalla sinistra anche da moltissimi antifujimoristi.

L’unico reato per cui Fujimori è stato condannato, nel 2009, è l’uccisione di una decina di oppositori verso la fine del suo secondo mandato, in cui effettivamente aveva cominciato a manifestare una certa involuzione autoritaria. Ciononostante, è stato ritenuto responsabile di questi delitti, materialmente ordinati dal capo dei servizi segreti Vladimiro Montesinos, sull’unica base del principio, a noi purtroppo ben noto, ma non per questo accettabile, del “non poteva non sapere” (non casualmente: i magistrati peruviani hanno partecipato a diversi seminari tenuti dai magistrati del pool di Mani Pulite, da cui purtroppo hanno imparato molto).

Ma ciò che davvero i nostri intellettuali non possono perdonargli non è questo, bensì il fatto di avere usato il pugno di ferro contro i movimenti “rivoluzionari” di Sendero Luminoso e del MRTA, in particolare nell’irruzione all’ambasciata giapponese di Lima il 22 aprile 1997, in seguito alla quale vennero uccisi tutti i 14 terroristi del MRTA che l’avevano occupata. Non importa che questi ultimi stessero apprestandosi a sterminare i 72 ostaggi, come questi ultimi hanno sempre concordemente affermato. Non importa che il MRTA fosse uno dei movimenti terroristici più sanguinari che si siano mai visti (anche se non allo stesso livello di Sendero). L’unica cosa che importa è che Fujimori ha ucciso dei guerriglieri comunisti e quindi “deve” essere per forza un fascista, un dittatore e un mostro.

Ancor più incredibile è stata la vicenda di Ingrid Betancourt, candidata socialista alla presidenza della Colombia, rapita dai “guerriglieri” delle FARC per essersi spinta in una zona pericolosa contro le indicazioni della polizia. Tenuta prigioniera per anni, venne infine liberata insieme ad altri ostaggi dalle forze speciali colombiane, che riuscirono a catturare i guerriglieri senza sparare un solo colpo, facendosi passare per loro complici. Fu un autentico capolavoro, che lasciò a bocca aperta perfino la CIA. Eppure, per i media e gli intellettuali liberal gli eroi della vicenda furono la stessa Betancourt (da alcuni sciamannati addirittura candidata al Nobel per la pace) e il dittatore venezuelano Hugo Chávez, che si era offerto di fare da mediatore per la sua liberazione. Invece, il vero eroe, il Presidente colombiano Álvaro Uribe, venne aspramente criticato (e naturalmente definito “fascista”) per avere usato la forza anziché confidare nei buoni uffici di Chávez.

Anche qui, non importa che l’unico “merito” della Betancourt sia stato quello di essersi fatta incautamente rapire, mettendo irresponsabilmente in pericolo non solo la propria vita, ma anche quella dei suoi soccorritori. Non importa che durante l’operazione siano state trovate le prove del traffico di droga da parte delle FARC e quelle di un versamento di 300 milioni di dollari a loro favore fatto dallo stesso Chávez. Non importa che questi si sia mantenuto al potere inserendo nella Costituzione la “rielezione infinita” e truccando sistematicamente il voto, mentre Uribe ha rinunciato a introdurre nella Costituzione colombiana la rielezione anche per un solo mandato pur avendo il 90% di approvazione popolare. L’unica cosa che importa è che Uribe ha usato la forza contro un gruppo di autoproclamati “guerriglieri” comunisti, quindi è per definizione un fascista e un dittatore (al “mostro” non ci siamo ancora arrivati, ma c’è tempo…).

La cosa più incredibile è che si tratta di vicende su cui è abbastanza facile trovare le informazioni corrette. Ma nessuno le cerca, perché non solo i comunisti, ma un po’ tutti credono già di sapere come “ovviamente” stanno le cose. Chi non ne fosse convinto vada a leggersi le incredibili ricostruzioni di questi eventi nelle relative voci di Wikipedia, che sono interamente e acriticamente baste sulle tesi della sinistra.

Non si tratta, però, solo della guerriglia. In generale, qualsiasi governo di sinistra tende a godere di un’indulgenza che sarebbe inimmaginabile veder accordata ad altre parti politiche. Un esempio clamoroso è quello del neo-(ri)eletto Presidente brasiliano Ignacio Lula: certo, rispetto a Bolsonaro è il male minore, ma altrettanto certamente non è affatto quell’eroe senza macchia e senza paura che ci viene sempre raccontato.

Non c’è dubbio, infatti, che Lula abbia usato i soldi di Odebrecht, l’impresa brasiliana di costruzioni responsabile del più grande fenomeno di corruzione della storia umana (vedi Paolo Musso, https://www.ilsussidiario.net/news/dal-peru-il-caso-odebrecht-mani-pulite-e-gli-strani-effetti-dellautonomia-dei-pm/1889314/), per finanziare illegalmente, mentre era Presidente del Brasile, le campagne elettorali dei candidati di sinistra nei principali paesi sudamericani. Al proposito, oltre a molti documenti, c’è la testimonianza dello stesso Marcelo Odebrecht, che ho avuto modo di leggere in versione integrale sui quotidiani peruviani dopo la sua deposizione ai PM di Lima e che non lascia margini di dubbio.

E infatti la condanna di Lula non è mai stata revocata nel merito, ma solo dichiarata nulla con un cavillo formale escogitato da un giudice della Corte Suprema brasiliana: la presunta incompetenza del tribunale, veramente difficile da sostenere, soprattutto considerando che da tempo i magistrati un po’ in tutto il mondo rivendicano la “competenza universale”, che per me è un’aberrazione pericolosa, ma per la sinistra è invece cosa buona e giusta – tranne, ovviamente, quando colpisce politici di sinistra. È davvero difficile capire perché mai il PM spagnolo Baltasar Garzón avrebbe il diritto di perseguire il dittatore cileno Pinochet per crimini commessi in Cile e i PM italiani potrebbero processare gli agenti egiziani che hanno ucciso Giulio Regeni in Egitto, mentre un tribunale brasiliano non potrebbe giudicare un cittadino brasiliano per crimini commessi, almeno in parte, in Brasile.

E attenzione: non si tratta di “semplice” corruzione, che in Sudamerica è purtroppo così fisiologica da essere quasi “scusabile”. Per capirci, è come se, per esempio, Macron avesse per anni usato i fondi neri di un’impresa amica per sostenere illegalmente le campagne elettorali dei candidati a lui vicini in Italia, Spagna, Inghilterra, Germania, ecc. Qualcosa, insomma, di talmente enorme da essere quasi inimmaginabile. Eppure, per tutti i liberal d’Italia e del mondo Lula è un eroe del popolo ingiustamente condannato, “ovviamente” a causa di un complotto (del complottismo parleremo fra poco). E nemmeno l’atteggiamento a dir poco ambiguo da lui tenuto nei confronti di Putin è riuscito, almeno finora, a scalfirne il mito.

Ma ci sono molti altri esempi del genere, fra i quali ne sceglierò solo alcuni, particolarmente clamorosi.

Il primo è quello della cosiddetta “Seconda Repubblica Spagnola”, abbattuta da Francisco Franco nel 1939. In realtà, quando la guerra civile iniziò la Repubblica non era già più tale, in quanto era caduta in mano al Fronte Popolare, un’alleanza di partiti di sinistra guidata da un Partito Comunista caratterizzato da una particolare propensione genocidaria, non molto diversa da quella di Hitler e paragonabile, a sinistra, solo a quella dei Khmer Rossi di Pol Pot e del già citato Sendero Luminoso peruviano.

Il loro “programma politico” era molto semplice: sterminare tutti gli oppositori, a cominciare dai loro alleati più moderati. Ne sapeva qualcosa il socialista George Orwell, che, come poi raccontò egli stesso in Omaggio alla Catalogna, dovete scappare a gambe levate per evitare che quegli stessi che era andato a difendere come volontario, beccandosi pure una pallottola in gola, gli facessero la pelle perché “non abbastanza di sinistra”. Più in generale, i comunisti spagnoli avevano intenzione di sradicare completamente il cristianesimo dal paese, cosa possibile solo sterminando milioni di persone, come avevano già cominciato a fare, fucilando tutti (ma proprio tutti) i sacerdoti, i monaci e le suore che si trovavano nelle zone da loro controllate.

Analoga mitologia è quella che riguarda il governo “popolare” di Salvador Allende, abbattuto dal golpe militare del generale Augusto Pinochet, di cui ricorreva il cinquantenario proprio pochi giorni fa. Peccato che Allende non fosse affatto un eroe, bensì un aspirante dittatore, che si era già portato abbastanza avanti col lavoro, avendo ridotto il paese sull’orlo della bancarotta e moltiplicato le violenze contro gli oppositori, al punto che l’intervento dell’esercito venne richiesto, per disperazione, dalla maggioranza dei parlamentari, compresi molti del suo stesso partito. Paradossalmente, Allende deve la sua beatificazione postuma proprio a Pinochet: senza il suo golpe, infatti, avrebbe combinato un disastro e oggi sarebbe ricordato come uno dei tanti caudillos, sia di destra che di sinistra, che hanno infestato (e in parte infestano ancora) l’America Latina, portando alla rovina paesi che avrebbero tutto per essere ricchi e felici.

Sia chiaro: non sto dicendo che Franco e Pinochet fossero brave persone. Non lo erano, perché usarono metodi brutali non solo per prendere il potere (il che si poteva ancora capire, data la situazione), ma anche dopo, quando ciò non era più giustificabile. È però incredibile che, mentre essi vengono in genere giudicati come si meritano, lo stesso non accade (mai) con i rispettivi avversari, che non erano migliori di loro e, anzi, almeno nel caso dei “repubblicani” spagnoli erano decisamente peggiori.

Ma niente: tranne pochissimi politici e intellettuali di destra-destra (che tra l’altro in genere esagerano nel senso opposto, finendo così per screditare ulteriormente i già pochi e isolati tentativi di ristabilire la verità storica), tutti gli altri, anticomunisti compresi e compresa perfino una parte della destra più moderata, continuano a parlare della eroica lotta della “Repubblica spagnola” contro la brutale aggressione nazifascista e della eroica resistenza del “compagno Presidente” asserragliato col mitra in mano nel Palacio de La Moneda bombardato dall’aviazione. E, per colmo di paradosso, lo fanno anche molti ammiratori di Orwell, dando così un esempio pratico di quel “bispensiero”, da lui stesso immaginato in 1984, che permette ai sudditi del Grande Fratello di credere a cose contraddittorie senza accorgersi della contraddizione e che da qualche tempo si sta diffondendo (in modo sempre più preoccupante) anche nel mondo reale.

Il terzo esempio, più recente, è quello delle “enclaves” spagnole di Ceuta e Melilla in Marocco, dove si sono verificati molti gravi incidenti e in due occasioni delle vere e proprie stragi di migranti: la prima il 30 settembre 2005, quando il premier di ultrasinistra José Luis Zapatero fece addirittura sparare addosso a quelli che cercavano di entrare, causando 5 morti; la seconda il 25 giugno dell’anno scorso, mentre era premier Pedro Sánchez, pure lui di sinistra-sinistra, con ben 37 morti, anche se stavolta la Guardia Civil almeno non ha sparato, ma è comunque intervenuta molto duramente. Eppure, in entrambe le occasioni non è successo sostanzialmente nulla. Ve lo immaginate se l’avesse fatto Salvini?

A proposito: “enclaves” è un eufemismo che significa “colonie”. Alle quali la Spagna, che da un po’ di tempo in qua ci dà lezioni di civiltà un giorno sì e l’altro pure, a quanto pare non ha nessuna intenzione di rinunciare, neanche quando è guidata da governi super-progressisti…

L’esempio più recente (e più drammatico, perché qui i nostri errori di giudizio stanno anche avendo gravi conseguenze pratiche, dato che vengono ripresi dai media locali, alimentando le tensioni sociali) è quello dell’ultimo Presidente peruviano, Pedro Castillo, vincitore per un soffio al ballottaggio del 2021contro Keiko Fujimori, figlia dell’ex Presidente Alberto, e destituito il 7 dicembre 2022.

Ancora una volta, non importa che il suo governo sia stato il più corrotto della pur corrottissima storia peruviana. Non importa che avesse rapporti comprovati con il terrorismo e la malavita organizzata. Non importa che finché è rimasto in carica non abbia fatto niente per aiutare i poveri e gli indigeni di cui si era autoproclamato paladino. Non importa che fosse così ignorante e incompetente da essere espulso dal partito che lui stesso aveva creato (un po’ come se Berlusconi fosse stato espulso da Forza Italia mentre era Presidente del Consiglio). Non importa che per evitare l’impeachment abbia tentato un maldestro colpo di Stato, in cui (per fortuna) nessuno l’ha seguito.

E non importa neanche che continuare a presentarlo come un eroe popolare vittima di un diabolico complotto dei poteri forti (quali, visto che in Perù non ce ne sono?), “ovviamente” ispirato dagli USA (perché, se agli USA del Perù non gliene frega nulla?), contribuisca ad alimentare le tensioni sociali e gli scontri di piazza. Tensioni e scontri che certamente alla base hanno problemi molto seri, che però in questo modo non vengono certo risolti, ma piuttosto aggravati (ho visto con i miei occhi, solo qualche mese fa, come in molte zone dell’Amazzonia peruviana la benzina arrivi con estrema difficoltà per via dei blocchi stradali eretti dai manifestanti, causando inflazione e disoccupazione, soprattutto fra i più poveri).

Agli intellettuali liberl importa solo che Castillo è un contadino comunista con sangue indio, quindi è per definizione dalla parte dei “buoni” e chi protesta per il suo arresto e per il rifiuto di concedere elezioni anticipate ha per definizione ragione, benché il Perù abbia arrestato tutti i presidenti che ha eletto dal 1985 a oggi e le elezioni anticipate non siano mai state concesse, come peraltro vuole la Costituzione, che prevede che in tal caso subentri il Vicepresidente, come infatti è accaduto.

4) E veniamo allo statalismo. Apparentemente, al di fuori della sinistra (e spesso perfino al suo interno) lo statalismo non è più di moda, tanto che i critici della UE se la prendono spesso con il suo presunto “liberismo”. Tuttavia, ciò vale soltanto a livello teorico, mentre nei fatti le cose sono assai diverse. Il liberismo, infatti, si regge su due pilastri: detaxation e deregulation. Noi, invece, soffriamo (in Italia in modo particolare, ma sempre più anche nel resto d’Europa) di iper-tassazione e iper-regolamentazione, che coesiste con alcune politiche liberiste relative ad alcuni ambiti (perlopiù quelli sbagliati, a cominciare dalla finanza), formando una strana e perversa miscela che ricorda assai più il capitalismo di Stato cinese che le politiche di Margaret Thatcher o di Ronald Reagan.

In ciò ha avuto certo un grosso peso l’influenza degli euroburocrati di Bruxelles, ma sarebbe sbagliato ridurre tutto a questo, dato che la tendenza è universale e per certi aspetti ha iniziato a contagiare perfino gli USA. Come sostengo da tempo, alla base di tale fenomeno c’è a mio avviso la “mania del controllo”, vera ossessione della modernità, che spesso affligge anche chi a parole la combatte.

Poiché ne ho già parlato ampiamente nell’articolo precedentemente citato, non tornerò sull’argomento a livello teorico, limitandomi a un solo esempio pratico, ma particolarmente clamoroso: la riforma dell’Università fatta da Mariastella Gelmini, allora pasdaran berlusconiana e quindi anticomunista per definizione, oltre che per (continua) autoproclamazione.

Eppure, la sua è stata una riforma di concezione non “semplicemente” comunista, ma addirittura sovietica, non nel senso generico di iperstatalista, ma proprio in senso tecnico. Anche se ben pochi lo sanno, infatti, la Costituzione sovietica del 1936, promulgata da Stalin, non negava affatto la libertà di culto, parola, stampa, riunione e manifestazione, che erano anzi esplicitamente riconosciuti a tutti i cittadini dagli articoli 124 e 125 (https://it.wikipedia.org/wiki/Costituzione_sovietica_del_1936#Capitolo_X_%E2%80%93_Diritti_e_doveri_fondamentali_dei_cittadini).

Il problema era che ogni volta che qualcuno voleva esercitare tali diritti doveva richiedere un’autorizzazione a qualche organo dello Stato. Se questa veniva negata, come regolarmente accadeva ogniqualvolta ciò confliggeva in un qualsiasi modo con la linea del regime, ci si trovava costretti a scegliere tra rinunciare a farlo oppure farlo lo stesso ed essere denunciati per “attività antisovietiche”. Non però (formalmente) per le proprie idee, bensì per averle espresse senza autorizzazione.

Ebbene, la riforma Gelmini funziona esattamente così. Basata sul principio, di per sé impeccabile, di “autonomia nella responsabilità”, ha però il piccolo difetto di concepire la responsabilità non come obbligo di render conto dei risultati ottenuti nella propria autonoma attività, bensì come obbligo di render conto (in maniera ossessivamente e irragionevolmente dettagliata, proprio come in Unione Sovietica) di ogni singolo passo che si muove per raggiungere i risultati di cui sopra, il che in molti casi finisce col rendere impossibile raggiungerli.

Naturalmente non sto dicendo che la Gelmini si sia ispirata alla Costituzione sovietica, che probabilmente nemmeno conosce. Ma proprio per questo è ancor più significativa questa convergenza involontaria con il modus operandi di chi teoricamente dovrebbe stare ai suoi antipodi. E la stessa tendenza è presente in pressoché tutte le regolamentazioni di qualsiasi attività concepite negli ultimi anni da tutte le forze politiche, compreso il famigerato “controllo concomitante” del PNRR da parte della Corte dei Conti, di cui tanto si è parlato nei mesi scorsi.

Józef Tischner, considerato “il filosofo di Solidarność” (il sindacato degli operai polacchi guidato da Lech Wałesa che tanto contribuì alla caduta del comunismo in Polonia e, più in generale, nel blocco sovietico), soleva dire che il principio base del comunismo potrebbe essere riassunto nel seguente slogan: «È meglio il melo di Stato senza mele che il melo del contadino con le mele». Sotto questa forma nessun liberal lo sottoscriverebbe, ma se lo riformuliamo così: «È meglio il melo del contadino controllato dallo Stato senza mele che il melo del contadino senza controllo statale con le mele», allora abbiamo il principio che guida, se non esplicitamente almeno implicitamente, gran parte delle scelte dell’Europa da almeno due decenni.

Come ho già notato, c’è una singolare convergenza tra questa versione dell’esagerato statalismo marxista e il liberismo altrettanto esagerato (e altrettanto ideologico) che ispira altre parti della politica europea. In effetti, questo controllo ossessivo da parte dello Stato per le piccole imprese rappresenta un grave problema, che può anche portarle al fallimento, mentre per quelle grandi è solo una seccatura, che fa perdere tempo e denaro, ma che comunque sono in grado di gestire. Così, pur essendo di per sé penalizzante per tutti, alla fine l’oppressione burocratica finisce per favorire le grandi imprese, che già godono di altri ingiusti vantaggi, soprattutto in campo finanziario e fiscale, il che spiega come mai non ci sia mai da parte loro una protesta così decisa come ci si potrebbe aspettare.

5) Hanno invece fatto meno presa al di fuori della sinistra alcune altre idee che avevo menzionato come tuttora facenti parte integrante delle sue politiche, come la visione classista della società (anche se intesa in un senso un po’ diverso da quello tradizionale) o l’identificazione dei “lavoratori” con i soli lavoratori dipendenti. Tuttavia, almeno per alcuni aspetti, anche qui qualche conseguenza c’è stata.

La prima idea sta infatti alla base dell’ideologia del politically correct, che non è condivisa da tutta l’area liberal, ma nemmeno è limitata alla sola sinistra. Non insisterò tuttavia su questo, perché, a parte ciò che ne ho scritto io nell’articolo precedente, ne ha già trattato ad abundantiam Luca Ricolfi, anche su questo sito.

6) Una motivazione ultimamente classista, inoltre, si può intravedere a mio avviso anche nelle assurde norme che regolano la legittima difesa, che in effetti per la legge italiana praticamente non esiste, dato che per essere considerata tale richiede che anche un tabaccaio sessantenne che tiri fuori la pistola per la prima volta in vita sua davanti a dei delinquenti armati si comporti con una lucidità e una freddezza che neanche un marine perfettamente addestrato e armato di tutto punto.

Certo, ben pochi, perfino nella sinistra-sinistra, sottoscriverebbero quanto disse diversi anni fa Marco Rizzo in un soprassalto di onestà intellettuale dopo una rapina a una gioielleria: che il gioielliere era ricco, mentre il ladro era povero, quindi rubando in fondo faceva quasi un atto di giustizia (quello che una volta si chiamava “esproprio proletario”). Però è difficile credere che non sia questo che pensa, magari inconsapevolmente, molta gente, anche non di sinistra, quando la si sente dire cose del tipo “non si può togliere la vita a un ragazzo anche se voleva rubare” o “la vita umana vale comunque più dei soldi”: che, cioè, chi ha un’impresa commerciale (non importa se modestissima) è per definizione un privilegiato, mentre chi ruba (non importa se puntando una pistola in faccia al prossimo) è per definizione una vittima della società, della quale fa parte anche l’aggredito, che quindi, in fondo, è almeno parzialmente responsabile dell’aggressione che ha subito.

7) Quanto alla seconda idea, anche tra chi riconosce ai lavoratori autonomi lo status di lavoratori a pieno titolo, ha fatto breccia il pregiudizio che siano tutti, poco o tanto, evasori fiscali per definizione, arrivando spesso perfino a negare che, quando un’evasione (parziale) si verifica effettivamente, si tratti spesso di “evasione di sopravvivenza”, cioè dovuta al fatto che pagare le tasse per intero porterebbe al fallimento (il che tra l’altro non converrebbe nemmeno allo Stato, perché un’impresa fallita non paga più le tasse neanche parzialmente e in più gli getta sulle spalle dei disoccupati che dovrà in qualche modo aiutare).

8) Questo però non è tutto. Vi sono infatti alcune altre idee comuniste di successo che non avevo menzionato nell’articolo precedente perché non hanno conseguenze politiche dirette. Ma ne hanno molte a livello sociale e culturale e hanno in parte favorito anche l’affermarsi di quelle che ho discusso fin qui.

E, paradossalmente, quella più di successo di tutte è anche la più comunista, anzi, la più marxista di tutte: l’idea che tutto ciò che accade nel mondo (e in particolare tutto ciò che vi accade di male) si spieghi ultimamente in termini di interessi economici.

Ovviamente, non sto negando che le motivazioni economiche abbiano un peso rilevante e spesso anche decisivo nell’agire umano. Ma non sono le uniche e, almeno mediamente, neanche le più importanti, tant’è vero che nessuno (ma proprio nessuno) sarebbe disposto ad ammettere che le proprie azioni siano motivate esclusivamente o anche solo principalmente dall’interesse economico. E non perché ci auto-inganniamo (cosa in cui siamo effettivamente molto bravi, ma non in questo caso), ma semplicemente perché sappiamo, in base alla nostra esperienza interiore, che non è vero. E la prova che non di autoinganno si tratta è che sappiamo che non è vero neanche delle persone che conosciamo abbastanza da capirne le reali motivazioni.

Nonostante i nostri molteplici difetti, infatti, praticamente tutti, almeno ogni tanto (e molti anche spesso), agiamo in modo disinteressato, per motivi ideali o anche soltanto per quell’istinto che altrimenti ci impedirebbe di guardarci allo specchio e che fino a non molto tempo fa si chiamava coscienza. E anche quando agiamo male, non lo facciamo solo per avidità di denaro, ma per molti altri motivi, come orgoglio, rabbia, invidia, sesso, fame e disperazione (chi ha ancora un po’ di familiarità col Catechismo si renderà conto che non ho fatto altro che elencare, solo “aggiornandone” un po’ i nomi, i cosiddetti “sette vizi capitali”, così chiamati perché riconosciuti, non solo dal cristianesimo, ma anche dalla sapienza greca e romana, come le principali cause delle cattive azioni umane).

La riduzione di tutte queste cause a una sola – appunto l’interesse economico – è stata operata per la prima volta nella storia da Karl Marx e la giustificazione che egli ne ha dato è legata in modo strettissimo ai principi fondamentali della sua personale filosofia, per cui nessuno che non sia un marxista superortodosso ha il minimo motivo di accettarla. Eppure, oggi praticamente tutti, compresi gli anticomunisti più accaniti, sono dispostissimi ad ammettere – anzi, a sostenere a spada tratta – che “gli altri” (cioè tutti tranne noi e i nostri amici) si comportano proprio così, senza rendersi conto che se tutti pensano che siano “gli altri” a comportarsi così, in realtà ciò significa che nessuno lo fa realmente.

9) Da tale idea altre ne sono derivate, altrettanto infondate eppure altrettanto popolari. La prima è la contrapposizione tra “il Palazzo” e “la gente”, versione aggiornata della classica contrapposizione marxista tra capitalisti e proletariato, che ha fortemente contribuito a inaugurare la “stagione dell’antipolitica”, in cui siamo tuttora immersi. Da essa derivano, fra l’altro, lo strapotere di cui gode oggi la magistratura (il meno democratico dei “tre poteri” dello Stato moderno, dato che è l’unico non elettivo) e l’assurda quanto diffusissima idea che il compito del giornalista non sia informare bensì “lottare contro il potere”, qualsiasi cosa ciò voglia dire (e siccome può voler dire qualsiasi cosa, con ciò si apre la porta a qualsiasi abuso).

Il pregiudizio di cui sopra, infatti, si applica in modo particolarmente efficace ai potenti, che sono “gli altri” per eccellenza, dato che difficilmente la gente comune ha modo di conoscerli di persona. Inoltre, laddove c’è un grande potere inevitabilmente ci sono sempre di mezzo anche dei grandi interessi economici, per cui da qui ad affermare che i potenti agiscono soltanto per interesse economico il passo è breve. Ma non per questo è giustificato.

La storia umana, infatti, ci mostra chiaramente l’esatto opposto: e cioè che anche i potenti agiscono spesso in base a motivi diversi dal puro calcolo economico e a volte anche da qualsiasi calcolo, in modo semplicemente irrazionale. E perché non dovrebbero, dato che sono anche loro esseri umani, esattamente come noi? Quanti potenti sono caduti per aver agito spinti dalla rabbia o dall’orgoglio o per non aver voluto dare ascolto ai loro uomini migliori ed essersi circondati di adulatori e yes-men? Succede a tutti i livelli, in dittatura come in democrazia, nei partiti politici come nelle industrie, negli eserciti come nella criminalità organizzata. Succede perfino nelle squadre di calcio, con buona pace del luogo comune per cui “l’allenatore conosce meglio di noi i suoi giocatori e se ne lascia fuori qualcuno c’è di sicuro un motivo”: e, certo, un motivo c’è sempre, ma non sempre è razionale. La semplice e banale verità è che le passioni determinano la vita dei popoli, nel bene e nel male, esattamente nella stessa misura in cui determinano quella degli individui: cioè molto.

Ma non c’è niente da fare: pensare che i potenti agiscano sempre per interesse e quindi siano sempre “cattivi” è una tentazione quasi irresistibile, non solo perché fornisce un comodo capro espiatorio su cui scaricare le proprie frustrazioni senza prendersi le proprie responsabilità, ma anche perché fornisce una “spiegazione” a buon mercato che permette a chiunque di illudersi di capire senza sforzo dinamiche che invece spesso non sono dominabili neanche dagli studi più approfonditi.

E non solo di capire, ma addirittura di capire meglio degli altri, che è ancor più gratificante. Non per nulla, ogni volta che in una discussione, sia al bar sotto casa o nel salotto di Bruno Vespa, qualcuno tira fuori la “vera” causa economica di un fatto qualunque, accompagna immancabilmente la sua perlopiù semplicistica spiegazione con un irritante sorrisetto di superiorità (dimenticando, ancora una volta, che, siccome tutti pensano che la “vera” causa sia quella economica, la sua “superiore comprensione”, di cui va tanto fiero, altro non è in realtà che il più trito dei luoghi comuni).

10) Da ciò deriva un’altra conseguenza, che sta diventando un problema gravissimo: il complottismo. A prima vista questa affermazione può stupire, perché non solo il complottismo è sempre esistito, ma oggi è prevalentemente di destra. Tuttavia, le teorie complottiste odierne si distinguono per una peculiare caratteristica: anche quando sostengono tesi “di destra”, ne danno sempre una giustificazione “di sinistra”, perché nascono sempre dal portare alle sue estreme (benché sbagliate) conseguenze il ragionamento appena visto. In effetti, non conosco una sola teoria del complotto che non lo spieghi ultimamente in termini economici (tranne – forse – quelle sui Rettiliani, che dopotutto potrebbero anche essere venuti sul nostro pianeta per mangiarci anziché per fare affari).

11) Anche le protagoniste indiscusse di queste pseudo-spiegazioni pan-economiciste sono prese di peso dall’armamentario marxista: sono le cattivissime Multinazionali (la maiuscola è d’obbligo, dato che in queste narrazioni assumono caratteri più metafisici che storici), che nel giro di mezzo secolo sono passate dagli sproloqui per iniziati dei volantini ciclostilati delle Brigate Rosse ad essere tra i principali protagonisti della cultura popolare. Al giorno d’oggi il termine viene pronunciato con tono di “ovvia” riprovazione praticamente da chiunque, indipendentemente dalla sua collocazione politica, compresi quelli (e sono i più) che non sanno nemmeno cosa significa.

Di per sé, infatti, le multinazionali (senza maiuscola, cioè intese come entità sociologiche e non metafisiche) sono semplicemente «imprese di grandi dimensioni, la cui proprietà e direzione si trovano in un paese, mentre gli impianti di produzione e le strutture di distribuzione sono dislocati in paesi diversi» (definizione del Dizionario Treccani). Certo, essendo “grandi” hanno anche grandi poteri e grandi interessi e potrebbero decidere di usare i primi per favorire i secondi, a discapito del bene comune. Ma che possano farlo e che spesso lo facciano davvero (cosa che non intendo certo negare) non significa che debbano farlo per forza, sempre e comunque. Per esempio, solo per restare in casa nostra, la FIAT ha interferito con la politica italiana molto più pesantemente quando era un’impresa a carattere nazionale, che dava per scontato che i propri interessi coincidessero per definizione con quelli del Paese anche quando non era vero, che non dopo essersi trasformata nella multinazionale Stellantis.

Anche qui, per capire quanto i pregiudizi possano accecare potrà essere utile un esempio. Il 15 gennaio 2022 una petroliera della Repsol ha rovesciato in mare oltre 7000 tonnellate di petrolio di fronte alle coste del Perù. Che avesse o no delle colpe nell’incidente, la multinazionale ha comunque subito allestito un piano per ripulire le spiagge contaminate, ingaggiando 1500 operai, tra cui molti minorenni, pagati 80 soles al giorno. Il 15 febbraio su La Stampa è uscito un mega-articolo di Emiliano Guanella intitolato I ragazzini schiavi del Perù, in cui si denunciava questa vicenda come, appunto, un comportamento schiavistico da parte della multinazionale, dato che 80 soles al cambio attuale equivalgono a 20 euro, che per un lavoro così duro sembrano effettivamente pochi (anche se da qui a parlare di “schiavismo” ce ne corre).

Ma c’è un piccolo dettaglio che l’autore non ha considerato: in Perù il costo della vita è un quarto rispetto all’Italia, sicché prendere 80 soles al giorno laggiù è come prendere 80 euro al giorno qui da noi, ovvero 2400 euro al mese, che è lo stipendio di un professore universitario di seconda fascia al primo incarico. Al di là dell’opinione che si può avere del lavoro minorile nel Terzo Mondo (che comunque ha cause molto complesse e non può certo essere imputato a questa specifica iniziativa della Repsol), la paga era quindi buona, anzi, molto buona. E per di più era molto facile verificarlo.

Non so quale sia l’orientamento politico di Guanella, ma di certo il suo articolo è stato letto da persone di ogni orientamento politico, compresi molti anticomunisti. Eppure, sono pronto a scommettere che nessuno di loro, proprio come lui, si è nemmeno posto il problema di sapere quanto valgono 80 soles in Perù. Perché infatti perdere tempo a informarsi, dato che si tratta di una Multinazionale (con la maiuscola), che, come tale, “ovviamente” deve avere agito da schiavista? È molto più semplice (e più comodo…) indignarsi.

Ma c’è un ultimo aspetto che vale la pena sottolineare. Le multinazionali con la minuscola, cioè quelle che esistono nel mondo reale, sono prevalentemente occidentali (come è ovvio, dato che l’Occidente resta ancora di gran lunga la parte di mondo più ricca), ma non esclusivamente: esistono anche multinazionali in Russia (per esempio Gazprom, quella che ci ha tagliato il gas lo scorso inverno), in Cina (per esempio Alibaba, colosso delle vendite online molto più grosso e certo non molto più buono di Amazon) e insomma un po’ in tutti i paesi la cui economia sia abbastanza grande da permetterlo.

Eppure, le Multinazionali con la maiuscola, cioè le loro versioni mitologizzate che sono malvage per necessità metafisica, sono sempre occidentali per definizione, dato che l’Occidente è più ricco e quindi, in questa logica, più cattivo. Ancora una volta, questo finiscono per pensarlo, più o meno coscientemente, tutti quelli che credono a tale mitologia, anche se non sono di sinistra. E così finiscono anche per convincersi (ancora una volta più o meno coscientemente, ma comunque realmente) che l’unico colpevole di tutti i mali del mondo è l’Occidente.

Che tali mali possano essere dovuti, almeno in parte, anche a difetti delle altre culture è un’idea semplicemente inconcepibile (oggi doppiamente, perché per il politically correct, secondo il quale l’unica cultura che può essere accusata di ogni nefandezza è la nostra, ciò sarebbe discriminatorio). Perfino le ideologie violente e intolleranti, sia politiche che religiose, che dominano in gran parte degli altri paesi vengono sempre spiegate come effetto (e mai come causa) della povertà e dell’arretratezza, di cui “ovviamente” i responsabili siamo noi, il che in parte è vero, ma solo in parte. Pretendere invece che ciò valga in senso assoluto equivale in pratica a sostenere che le idee sono una mera conseguenza delle condizioni economiche, che è l’unica vera causa di tutto. In termini marxisti, “la struttura è l’economia, mentre l’ideologia è solo la sovrastruttura, che è determinata dalla struttura”. Appunto…

12) L’ultima conseguenza è il pacifismo e, in particolare, il mito del dialogo-che-risolve-sempre-tutto. A prima vista questa sembrerebbe un’idea comunista solo per accidens, nel senso che storicamente il pacifismo è stata un’invenzione puramente strumentale dei partiti comunisti europei per mettere in difficoltà i nemici dell’Unione Sovietica. Per Marx, infatti, non il dialogo, bensì la violenza è la levatrice della storia. Eppure, c’è almeno un senso in cui il pacifismo si basa su un’idea autenticamente marxista, cioè, ancora una volta, la tesi pan-economicista. Se infatti le guerre sono dovute esclusivamente a interessi economici, allora ne saranno responsabili solo i “cattivi” governi che tali interessi difendono, mentre i “buoni” popoli, che ne sono le vittime, saranno naturalmente portati a fare la pace.

Ora, in questo c’è qualcosa di vero, ma se lo si assolutizza si finisce per non capire più come sia possibile che un popolo possa decidere di combattere e morire per la propria libertà. E allora, quando l’evidenza di ciò sembra schiacciante, come per esempio nel caso degli ucraini, ecco arrivare in soccorso le altre idee preconcette che abbiamo appena visto: una bella teoria del complotto che ci “spiega” come e perché “in realtà” essi siano manipolati (ovviamente per motivi economici) dai loro capi, a loro volta manovrati dalle cattivissime Multinazionali (ovviamente occidentali) che vogliono “usarli” per distruggere la Russia, ovvero la neo-URSS dell’ex-mica-tanto-ex comunista Putin (https://www.fondazionehume.it/politica/la-frattura-tra-ragione-e-realta-1-su-mosca-sventola-bandiera-rossa/).

E così il cerchio si chiude e si arriva all’assurdo di vedere marce per la pace in Ucraina (cioè, di fatto, per la sua resa) svolgersi al canto di Bella, ciao, che racconta la storia di un tizio qualunque che una mattina si è svegliato e, trovandosi in casa l’invasor, ha deciso di combattere per la libertà anche a costo di morire. Che poi non è una storia, ma ciò che è realmente successo in Italia con la Resistenza. Eppure, spesso sono proprio quelli che più di tutti la esaltano quelli che meno di tutti riescono a credere che gli ucraini stiano semplicemente facendo la stessa cosa. A meno di pensare che siano tutti pazzi o in malafede, mi pare che l’unica spiegazione sensata di tale atteggiamento schizofrenico sia quella che ho appena proposto.

Ma non è tutto. Infatti, proprio perché interessati solo al guadagno, in quest’ottica anche i “cattivi” governi dovrebbero essere disposti a mettersi d’accordo, purché si proponga loro un compromesso vantaggioso per tutti. Di qui, come dicevo, la fiducia nell’onnipotenza del dialogo, che è un’altra faccia del pacifismo, meno facilmente riconoscibile, ma non per questo meno reale, che per alcuni è certamente un mero pretesto funzionale a precisi fini ideologici, ma per molti altri nasce invece da una sincera convinzione. Che però, essendo erronea, ha conseguenze drammatiche.

Secondo questa logica, infatti, che qualcuno possa rifiutare un accordo non in base a un interesse quantificabile (problema che richiede solo un più paziente e prolungato dialogo), ma per motivi ideologici o addirittura irrazionali (che invece lo escludono in radice) è semplicemente inconcepibile. E ancor più inconcepibile appare l’idea che a rifiutare il dialogo possano essere i governi dei paesi più poveri, che in questa logica sono per definizione i meno propensi alla guerra, avendo pochi interessi da difendere. Purtroppo, ancora una volta la questione non è solo teorica: come tutti gli errori concettuali, infatti, anche questo finisce sempre per condurre a scelte pratiche altrettanto errate e spesso disastrose.

Per esempio, è essenzialmente in base a questa logica che moltissimi occidentali, non solo a sinistra, anche quando criticano i palestinesi, in fondo in fondo sono convinti che tutto ciò che di male accade in Palestina ultimamente sia colpa di Israele. Non importa che fin dall’inizio, prima che iniziassero le guerre e l’occupazione e che Israele diventasse una potenza militare, i palestinesi (non solo i capi, ma anche il popolo) abbiano lottato non per creare il proprio Stato, ma per distruggere quello israeliano. Non importa che invece in Israele solo alcuni governi (anche se purtroppo tra essi c’è anche quello attuale) abbiano rifiutato ogni dialogo, mentre altri hanno davvero cercato di fare la pace e con chi si è dimostrato disponibile, come Egitto e Giordania, l’hanno anche fatta realmente. Non importa che i palestinesi non  abbiano mai manifestato contro Hamas, non solo a Gaza, dove è pericoloso (ma è pericoloso anche in Iran, eppure i dissidenti iraniani lo hanno fatto), ma neanche in Europa, dove non correrebbero nessun rischio. E non importa neppure che a Gaza l’occupazione israeliana sia finita da ben 18 anni e che a governare la Striscia per tutto questo tempo, con risultati disastrosi, sia stato Hamas. Conta solo che i palestinesi sono poveri e quindi “non possono” realmente volere la guerra, ma vi sono spinti dalla loro condizione economica.

La possibilità inversa, che cioè il fanatismo, il terrorismo e l’indisponibilità al dialogo possano, almeno in parte, derivare da un certo tipo di cultura e possano, almeno in parte, essere non l’effetto, ma la causa della povertà, in genere non viene nemmeno presa in considerazione. Solo l’ultimo attacco di Hamas, che ha raggiunto un livello di disumanità mai visto, è riuscito a far vacillare, per la prima volta, questa convinzione, ma vedrete che non durerà (i distinguo sono già iniziati e il fatto che a guidare la controffensiva israeliana sia Netanyahu, che purtroppo è anch’egli un fanatico, non aiuta).

Un altro esempio clamoroso è l’atteggiamento che l’Occidente ha tenuto nei confronti dei colpi di Stato in Turchia ed Egitto, che abbiamo condannato duramente, mentre avremmo dovuto sostenerli senza esitazioni, se non pubblicamente almeno sottobanco, dato che erano l’unico modo di liberarci di regimi pericolosissimi, come la “democratura” islamista pseudo-moderata di Erdogan e la dittatura islamista a tutto tondo che i Fratelli Musulmani si stavano preparando ad instaurare, tant’è vero che l’intervento dell’esercito era stato richiesto da tutti i partiti egiziani democratici, nessuno escluso.

Ma niente: “i problemi vanno risolti con il dialogo e non con la forza”, abbiamo ripetuto come un mantra dal mondo dei sogni in cui viviamo ormai quasi in permanenza, col risultato che Erdogan se l’è cavata per il rotto della cuffia e il giorno dopo il colpo di Stato l’ha fatto lui. Ovviamente abbiamo condannato anche quello, ma, altrettanto ovviamente, le nostre sono rimaste parole vuote. Il risultato nel mondo reale è stato che ora ci troviamo a fare i conti con un tiranno sanguinario e mezzo pazzo che ha già ammazzato migliaia di persone, sia in patria che fuori, contribuendo pesantemente a destabilizzare tutto il Medio Oriente, e che ora sta pure dalla parte di Hamas. E pensare che sarebbe bastato passare discretamente ai ribelli la posizione del suo aereo e con un solo missile ci saremmo risparmiati tutto questo…

In Egitto, invece, il golpe di Al-Sisi per fortuna è riuscito, ma non certo per merito nostro. Naturalmente quando dico “per fortuna” non è perché pensi che l’attuale regime egiziano sia l’ideale, ma perché è il male minore realisticamente possibile in quella parte di mondo in questo momento storico. Se non siete d’accordo, provate a pensare a quanto peggiore sarebbe oggi la situazione in Medio Oriente se l’Egitto fosse guidato dai “fratelli maggiori” di Hamas (perché Hamas, per chi non lo sapesse, non è altro che la “filiale” palestinese dei Fratelli Musulmani). E, già che ci siamo, provate anche a pensare a quanto migliore sarebbe invece la situazione, non solo in Medio Oriente, ma anche in Ucraina, se la Turchia fosse tornata ad essere ciò che era prima di Erdogan, cioè un paese laico, moderato, membro affidabile della NATO e nemico della Russia.

Il vertice (almeno per ora…) della disconnessione dalla realtà prodotta da questa fede acritica nell’onnipotenza della parola è stato probabilmente raggiunto qualche mese fa, quando l’allora ancora direttore del quotidiano La Stampa, Massimo Giannini, in un memorabile editoriale, dopo aver (giustamente) bollato con parole di fuoco la repressione del dissenso in Iran, aveva solennemente annunciato che basta, la misura era colma ed era giunta l’ora di fare qualcosa di veramente drastico, eclatante e soprattutto incisivo, cioè… una raccolta di firme!

Forse qualcuno penserà che questa iniziativa è certo inutile, ma almeno non è dannosa. Ma non è così. Qualsiasi espressione di questa ideologia del dialogo-che-è-sempre-possibile quando in realtà non lo è (che ovviamente è cosa ben diversa dal grave dovere di perseguirlo ogni volta che è davvero possibile) è dannosa, anche quando non ha conseguenze negative dirette, perché contribuisce a creare nell’opinione pubblica la falsa idea che se il dialogo non dà risultati è solo perché non lo si persegue con la dovuta convinzione.

Così, perfino quando, come per esempio nel caso di Putin, è chiaro come la luce del sole che l’indisponibilità a trattare non ha affatto motivazioni economiche, ma ideologiche (e, almeno in parte, psichiatriche), a impedire che si prenda finalmente atto dell’evidenza scatta di nuovo lo stesso meccanismo di prima: una bella teoria del complotto che ci “spiega” quali sono le “vere” ragioni (ovviamente di ordine economico) per cui le cattivissime Multinazionali (ovviamente occidentali) impediscono che si tengano i negoziati di pace che “in realtà” Putin non vede l’ora di iniziare. E così ancora una volta il cerchio (rosso) si chiude…

Eppure, le guerre danneggiano sempre l’economia, il che è difficilmente compatibile con la loro spiegazione in termini meramente economici. Per convincersene basta guardare l’indice Dow Jones nell’ultimo secolo (fig. 1), che, come dice lo stesso Hirsch, autore dello studio, «mostra come il mercato non sia riuscito a compiere alcun progresso duraturo mentre il mondo era coinvolto in una significativa conflagrazione».

Figura 1 – L’indice Dow Jones dal 1913 al 2010 con indicate le date chiave delle 6 guerre a cui gli USA hanno preso parte nel periodo considerato: I Guerra Mondiale: 1917 entrata in guerra – II Guerra Mondiale: 1934 Hitler prende il potere; 1939 invasione tedesca della Polonia; 1941 attacco a Pearl Harbor ed entrata in guerra – Corea: 1950 entrata in guerra – Vietnam: 1955 entrata in guerra; 1965 inizio del coinvolgimento massiccio; 1972 ritiro delle truppe – Guerra del Golfo: 1993 inizio e fine – Afghanistan: 2001 attacco alle Torri Gemelle e invasione dell’Afghanistan. Si tenga presente che il grafico è in scala logaritmica, che rappresenta le variazioni percentuali in modo sostanzialmente indipendente dal valore assoluto, il che permette un confronto omogeneo tra diversi periodi, ma dà anche l’impressione che esse siano di minore entità rispetto a quella reale. Il grafico è tratto da Jeffrey A. Hirsch, Super boom is underway!, in “Stock Trader’s Almanac”, 11/04/2019 (https://www.stocktradersalmanac.com/Alert/20190411_2.aspx).

Solo la Guerra di Corea e quella del Golfo, che peraltro godeva di un vastissimo sostegno internazionale e si è conclusa in pochi mesi con una vittoria totale, non hanno causato danni significativi all’economia americana (e per questo non erano state incluse nel grafico), anche se un calo nella fase iniziale c’è comunque stato. In tutti gli altri casi, l’entrata in guerra è sempre stata seguita (e nel caso della II Guerra Mondiale anche preceduta, a causa dei drammatici eventi che la facevano presagire) da un prolungato crollo della Borsa. Quando le cose sono andate bene c’è stata poi una progressiva ripresa, a volte a guerra ancora in corso, a volte soltanto dopo, che peraltro è almeno in parte solo apparente, poiché in larga misura è dovuta al fatto che, come nota ancora Hirsch, «una volta finita la guerra, è iniziata l’inflazione causata dalla spesa pubblica», il che ha fatto crescere il PIL nominale, ma non la ricchezza reale. Invece, quando in Vietnam le cose hanno iniziato a mettersi male c’è stata una lunga stagnazione e poi, al momento della ritirata, un lungo crollo seguito da un’ancor più lunga stagnazione.

Ovviamente, le guerre non sono l’unica causa che ha influito sull’andamento dell’economia americana in questi periodi, ma a uno sguardo d’insieme sembra davvero difficile sostenere che le abbiano fatto bene. E del resto la cosa è soltanto logica. L’economia moderna, infatti, per prosperare ha bisogno di facilità nel reperire le materie prime e nel far circolare le merci, sicurezza nei trasporti, stabilità politica, fiducia nel futuro e, sì, anche un pizzico di superficialità, che favorisce il consumismo: tutte cose che le guerre mettono a rischio. Certamente, una vittoria militare può portare dei benefici economici, ma anche in tal caso non è la guerra in sé a portarli, ma solo le sue conseguenze.

La verità è che dall’economia di guerra trae vantaggio solo l’industria di guerra, che perfino negli USA rappresenta appena il 2% del PIL. Certo, la sua influenza sulla politica è ben maggiore di questa misera percentuale, ma è ugualmente difficile credere che possa arrivare al punto di poter far prevalere i propri interessi contro quelli del restante 98% del sistema economico, che comprende moltissime industrie almeno altrettanto grandi e influenti, se non addirittura di più.

Eppure, nonostante l’evidenza contraria, l’idea che a causare le guerre siano le industrie che producono armi è radicatissima.  Anzi, molti ritengono addirittura che non ci sia neanche bisogno di particolari pressioni da parte loro, ma che a scatenare le guerre basti il fatto in sé di produrre armi e venderle ai vari governi.

Ora, è certo brutto che si investano tante risorse per questo (anche se questo non è sicuramente l’unico modo in cui sprechiamo i nostri soldi e probabilmente neanche il più assurdo: ne riparleremo presto). E, certo, avere molte armi a disposizione può invogliare qualcuno ad usarle. Ma pretendere che questa sia la causa delle guerre è davvero mettere il mondo alla rovescia. Sarebbe come dire che, se invece di usare il coltello per tagliare la torta da offrire ai miei ospiti lo uso per sgozzarli, la colpa è del coltello. Ed è ancor più paradossale (nonché, per me cattolico, fonte di un certo disagio) che questa stramba idea compaia anche in molti documenti ufficiali della Chiesa, che pure sa bene, come dice il Vangelo, che la causa del male si trova nel cuore dell’uomo e non in ciò che sta fuori di lui.

Inoltre, seguendo questa logica, se volessimo essere coerenti, allora dovremmo disarmare anche la polizia o, meglio ancora, abolirla del tutto. E infatti questo è esattamente ciò che vorrebbe Black Lives Matter, per il quale è l’esistenza della polizia a causare la criminalità. È soltanto un caso che questo movimento nasca nell’ambito della sinistra radicale e sostenga la cancel (in)culture, cioè, per dirla chiara, la completa distruzione della cultura occidentale, ritenuta la causa di ogni male esistente al mondo? Ed è soltanto un caso che nelle università americane più influenzate da questa ideologia ci siano continue manifestazioni a favore di Hamas (non dei palestinesi in generale, ma proprio di Hamas)?

La realtà è ben diversa. Solo se entrano in gioco questioni di natura più complessa e di più lungo periodo (sul quale si può sperare di compensare i danni che inevitabilmente la guerra produrrà sul breve periodo), che riguardano anche una parte sostanziale dell’industria non di guerra e hanno inoltre una rilevanza strategica e politica, come per esempio assicurarsi il controllo di determinate materie prime o di determinate rotte commerciali – allora, e solo allora, gli interessi economici possono effettivamente causare delle guerre. E spesso le hanno causate realmente. Ma di qui a dire che tutte le guerre hanno soltantomotivazioni economiche c’è un salto enorme, che né la logica né la storia possono giustificare.

Non per nulla, perfino un autore non certo incline all’idealismo o al sentimentalismo come Lucio Caracciolo è arrivato a scrivere:«Il movente primario dei conflitti di potere non è l’acquisizione di beni materiali. È lo status. Identità riconosciuta da chi riconosciamo abilitato a riconoscercela. Diamo al thymós quel che è del thymós. È la brama di riconoscimento che muove la storia. […] La Russia invade l’Ucraina perché vuole certificato da Washington il rango di grande potenza mondiale revocatole dal Numero Uno finita la pace della guerra fredda» (La mente prigioniera di Putin, su La Stampa dell’11/11/2022).

Enunciata in termini così generali, questa affermazione è certo eccessiva, anche se per quanto riguarda l’Ucraina è a mio avviso assolutamente corretta (e ciò significa che nemmeno un capo di Stato comunista e nostalgico dell’Unione Sovietica come Putin si comporta secondo i dettami della filosofia marxista). In ogni caso, se è vero che le guerre non scoppiano certamente solo per questo motivo, è altrettanto vero che scoppiano anche per questo motivo – oltre che per molti altri: e quindi non solo per motivi economici.

Perché tutto questo?

Terminata la nostra analisi, c’è però un’ultima cosa che dobbiamo chiederci: perché così tante idee tipiche del comunismo sono penetrate così profondamente nella nostra mentalità, al punto che spesso le facciamo nostre senza nemmeno rendercene conto?

Io credo che ciò dipenda dal fatto che il comunismo ha qualcosa che entra in risonanza con alcune profonde inclinazioni dell’uomo moderno, che sono presenti anche in chi a livello cosciente vi si oppone. Questo lo aveva già capito, ben 45 anni fa, Václav Havel, il più geniale dei dissidenti del blocco sovietico, che dopo la sua caduta divenne Presidente prima della Cecoslovacchia liberata e poi della neonata Repubblica Ceca. In un passo, che cito molto spesso, del suo straordinario libro Il potere dei senza potere (La Casa di Matriona – Itacalibri, Milano – Castel Bolognese 2013), pubblicato clandestinamente nel 1978 tramite il samizdat, parlando del sistema comunista Havel scriveva infatti:

«Che l’uomo si sia creato e continui, giorno per giorno, a crearsi un sistema finalizzato a sé stesso, attraverso il quale si priva da sé della propria identità, non è una incomprensibile stravaganza della storia, una sua aberrazione irrazionale o l’esito di una diabolica volontà superiore che per oscuri motivi ha deciso di torturare in questo modo una parte dell’umanità. Questo è potuto e può succedere solo perché evidentemente ci sono nell’uomo moderno determinate inclinazioni a creare o per lo meno a sopportare un tale sistema. […] La crisi planetaria della condizione umana penetra sia il mondo occidentale sia il nostro: in Occidente assume solo forme sociali e politiche diverse. […] Si potrebbe anzi dire che quanto più grande è […], rispetto al nostro mondo, lo spazio per le intenzioni reali della vita, tanto meglio […] nasconde all’uomo la situazione di crisi e più profondamente ve lo immerge» (pp. 51 e 125).

Havel non ha specificato l’esatta natura di tali “inclinazioni”, ma l’ha lasciata chiaramente intendere. Si tratta essenzialmente di quelle per la giustizia e l’uguaglianza, però intese (attenzione!) non in senso generico, bensì nel modo peculiare in cui l’uomo moderno vorrebbe assicurarsele: «sognando sistemi così perfetti che nessuno avrà bisogno di essere buono», per dirla con un altro passo che cito in continuazione, tratto da un’opera teatrale del grande poeta inglese Thomas Stearns Eliot (The Rock, Coro VI, vv. 23-24).

Come ho sostenuto nel già citato La scienza e l’idea di ragione e, su questo sito, nell’articolo La frattura tra ragione e realtà(https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta/), che ha concluso la mia serie di interventi sul Covid e ha fornito lo spunto iniziale per questa nuova serie di contributi, io credo che dietro a questo atteggiamento ci sia quello che per me rappresenta “il” problema di fondo della modernità, cioè il radicale rifiuto del rischio, che nasce da una altrettanto radicale diffidenza verso la realtà e ha per conseguenza una patologica mania del controllo.

Nato nel Rinascimento, tale atteggiamento ha trovato la sua espressione più compiuta ed emblematica nella filosofia di Cartesio, ma per molto tempo è rimasto circoscritto a ristrette élites intellettuali, diventando mentalità dominante solo negli ultimi decenni. E non c’è dubbio che a renderlo tale sia stato principalmente il comunismo (che della filosofia moderna è figlio legittimo, derivando direttamente dall’idealismo hegeliano), il quale promette esattamente questo: la giustizia e l’uguaglianza garantite da un meccanismo oggettivo, inesorabile e – soprattutto – impersonale, anziché dallo sforzo personale di usare bene la propria libertà. Infatti, cosa c’è di più rischioso della libertà?

Trovo convincente questa chiave di lettura soprattutto perché spiega parecchie cose che a prima vista appaiono non collegate o addirittura in contrasto fra loro. Una delle cose più importanti che ho cercato di mostrare nel libro è come tale atteggiamento stia alla base sia del razionalismo che del relativismo, le due correnti filosofiche più caratteristiche della modernità, che però in apparenza sono contraddittorie. Viste in quest’ottica, invece, appaiono come due facce della stessa medaglia, giacché entrambi condividono la convinzione che la verità non si possa incontrare nell’esperienza (convinzione che per la sua importanza fondamentale nel mio libro ho chiamato “dogma centrale della modernità”) ed entrambi portano all’idolatria delle regole, che, assolute o convenzionali che siano (da questo punto di vista non fa differenza), diventano l’unico possibile (e perciò intrascendibile) orizzonte di senso.

Tra le altre cose, questa interpretazione rende un po’ più comprensibile come mai la sinistra occidentale, partita da posizioni iper-razionaliste, abbia finito col diventare la paladina del relativismo, dato che è lo stesso cammino che ha compiuto nell’ultimo secolo il razionalismo occidentale nel suo complesso. Ma ci sono anche implicazioni più dirette.

In particolare, il rifiuto del rischio e la mania del controllo spiegano come mai gli aspetti del comunismo che riscuotono più successo fra i liberal non comunisti non siano in genere quelli più nobili e visionari, ma quelli più illiberali e autoritari. E infattinegli ultimi anni, favoriti dalle varie crisi, a cominciare dal Covid, tali aspetti hanno cominciato ad emergere in maniera decisamente preoccupante in molte democrazie occidentali (su questo, oltre agli interventi miei e di Ricolfi sul Covid, si vedano gli articoli dello stesso Ricolfi e di Marco Del Giudice sul politically correct). E il peggio rischia di arrivare adesso, con l’ecologically correct (vedi ancora Ricolfi, https://www.fondazionehume.it/societa/punire-il-negazionismo-climatico/).

Ma ha la stessa radice anche il dilagare nel mondo liberal dell’ossessione per il digitale e, in particolare, per la (inesistente) intelligenza artificiale, nonostante tutti gli argomenti e anche i dati di fatto che ne mostrano i limiti intrinseci e gli effetti negativi che il loro uso pervasivo ha già adesso e rischia di avere ancor di più in futuro (si vedano per esempio: Luca Ricolfi, https://www.fondazionehume.it/societa/chatgpt-limpostore-autorevole/; Paolo Musso, https://www.fondazionehume.it/societa/chatgpt-io-e-chat-lo-studente-zuccone/).

Anche qui, infatti, la motivazione di fondo che induce a “voler credere” a tutti i costi, contro ogni evidenza e ragionevolezza (cfr. Paolo Musso, https://www.fondazionehume.it/societa/chatgpt-gli-imposturati-autorevoli-e-la-superluna/), nella reale esistenza dell’IA è la promessa di un sistema che garantisca la generazione del bene in modo automatico, senza dover passare attraverso il “rischioso” giudizio personale, che, non per nulla (fateci caso, per favore!), sempre più spesso e in un numero sempre maggiore di ambiti è considerato come di per sé stesso negativo.

Pertanto, se la mia analisi è giusta, allora ultimamente il problema non è liberarsi dall’influsso del comunismo, ma da quello della modernità in quanto tale. Non però – si badi bene – cercando un nostalgico quanto vano ricupero di un passato che aveva anch’esso i suoi problemi e che in ogni caso non può tornare, bensì in nome di un’altra e migliore modernità. Infatti, come sostengo da tempo, non esiste una sola modernità, ma due.

La prima, che ha prevalso a livello culturale, è appunto quella inaugurata da Cartesio, che è basata su una radicale frattura tra ragione ed esperienza, ha come principio fondamentale la prevalenza della teoria sulla realtà e ha generato l’ideologia. La seconda, invece, è quella di Galileo, che è basata sulla inscindibile unità di ragione ed esperienza, ha come principio fondamentale la prevalenza della realtà sulla teoria e ha generato la scienza. Quest’ultima, però, ha vinto a livello pratico, perché tutta la nostra civiltà si basa sulla scienza, ma ha perso a livello culturale: e questa è la radice di molti, se non tutti, i nostri attuali problemi.

La soluzione, quindi, può consistere solo nel diffondersi di una mentalità autenticamente scientifica, che ristabilisca il primato della realtà e dell’esperienza (e che è cosa ben diversa dallo scientismo, che è anch’esso un’ideologia che fa violenza alla realtà invece di adeguarsi ad essa).

Mi pare evidente che questo non è ciò che sta accadendo, non solo a sinistra, ma anche a destra, dove si fanno spesso critiche giuste, ma poi le si vanificano andando dietro alla pseudoscienza e al complottismo. Ne parleremo nei prossimi articoli.

Nota bene finale

Prima di chiudere, però, vorrei aggiungere un “nota bene”, a scanso di possibili equivoci. Se ho ritenuto importante scrivere questa sorta di “trilogia del comunismo” (nella Neo-URSS di Putin, nella Sinistra occidentale e nell’Occidente in generale), è perché il comunismo gode tuttora di una fama molto migliore di quanto meriti e, soprattutto, è ancora ben vivo e vegeto, mentre generalmente lo si ritiene ormai morto e sepolto, il che può portare (e porta effettivamente) a formarsi idee sbagliate e, di conseguenza, a compiere scelte altrettanto sbagliate. Ciò però non significa che io sia un uomo di destra o comunque un conservatore, come si vedrà ben presto, soprattutto quando cominceremo a parlare di economia.

In effetti, io non seguo nessuna particolare dottrina politica. L’unica cosa a cui sono o almeno cerco di essere fedele, per come ne sono capace, è la realtà. Comunque, se proprio dovessi definirmi, direi che sono un “anarchico pragmatico”.

Sono tendenzialmente anarchico perché è un dato di realtà che le regole (tutte le regole) di per sé sono un male, dato che rappresentano sempre l’imposizione della volontà di qualcuno a tutti (quando tutti sono d’accordo, infatti, non c’è bisogno di regole) e, di conseguenza, hanno sempre dei costi: anzitutto in termini di libertà, ma poi anche in termini economici, perché per farle rispettare c’è bisogno di uomini e mezzi che vengano pagati per occuparsi di questo anziché per dedicarsi a scopi costruttivi.

Non sono però completamente anarchico perché è pure un dato di realtà che in un mondo senza nessuna regola non si affermerebbe la libertà di tutti, bensì la prepotenza di pochi: di conseguenza, le regole sono un male necessario, che però non per essere necessario cessa di essere un male. Di conseguenza, le regole dovrebbero essere limitate, appunto, a quelle realmentenecessarie e, soprattutto, dovrebbero essere giudicate non astrattamente, in base a principi teorici, quali che siano, bensì pragmaticamente, in base alla loro capacità di produrre benefici maggiori dei danni che sempre inevitabilmente causano (un corollario di ciò è che non esistono regole “semplicemente” inutili e che pertanto ogni regola che non sia utile è dannosa: se ogni regola ha un costo, infatti, una regola inutile, non producendo benefici che possano compensare i suoi costi, ha un saldo negativo e quindi è in realtà dannosa).

Perciò, in tutti i miei ragionamenti cerco sempre di attenermi a un semplice metodo, che tuttavia non per esser semplice è anche facile (“semplice”, infatti, è il contrario di “complicato”, non di “difficile”). Tale metodo presenta una certa analogia con quello della scienza naturale, la quale infatti vi gioca un ruolo importante, ma da sola non è sufficiente, perché qui si tratta anche di valutare i fini, che per definizione non rientrano nell’ambito di competenza del metodo sperimentale galileiano. E questi sono i punti fondamentali:

1) per ciascun problema, cercare anzitutto di stabilire quali sono i dati di realtà di cui disponiamo e, in particolare, quali cose sono ragionevolmente certe e quali invece incerte;

2) in base a ciò, cercare di stabilire quali effetti avrebbero le diverse soluzioni che si possono immaginare per risolvere il problema in questione;

3) infine, discutere i pro e i contro di ciascuno dei possibili effetti per stabilire qual è quello che ci appare preferibile, dal che consegue quale soluzione vada adottata.

Forse tutto ciò vi sembrerà ovvio. E lo è, in teoria. Ma se credete che lo sia anche in pratica, allora temo che non abbiate un’idea chiara di come funziona il mondo in cui vivete..

Oggi, infatti, quasi tutti procedono in senso esattamente inverso: prima fanno un elenco dei fini che ritengono desiderabili e/o necessari, poi in base a questi propongono delle soluzioni ispirate a principi teorici che sembrano in armonia coi fini prescelti e infine cercano di dimostrare che i dati di realtà supportano le soluzioni da loro proposte, il che, però, in genere non accade (e per forza, dato che tali soluzioni sono state scelte prescindendo dai dati di realtà). A questo punto ci si aspetterebbe che le soluzioni proposte venissero rimesse in discussione per adattarle alla realtà, ma, di nuovo, in genere ciò non accade: quello che accade, invece, è che si cerca di adattare la realtà alla teoria (senza farsi problema di deformarla e travisarla) o, addirittura, semplicemente la si ignora.

Uno dei pochi luoghi in cui oggi è possibile ragionare per dritto anziché per rovescio (che non significa necessariamente riuscirci, ma almeno provarci) è il sito della Fondazione Hume. È per questo che ci dedico tanto tempo, anche se in termini di carriera accademica quello che scrivo qui non vale nulla, benché il vaglio critico a cui vengono sottoposti i contributi sia sicuramente molto più serio di quello di molte riviste che invece vengono considerate valide ai fini concorsuali (ah, le meraviglie della Legge Gelmini…).

Ma, anche se sicuramente molti, pur avendo letto questo articolo, continueranno a non crederci, io invece penso davvero che l’interesse economico non sia l’unica cosa che conta nella vita. Perciò continuerò a scrivere di queste cose finché mi sembrerà di avere qualcosa di utile da dire. E finché Ricolfi mi sopporta, temo che dovrete farlo anche voi.

image_print
1 2 3 6
© Copyright Fondazione Hume - Tutti i diritti riservati - Privacy Policy