La frattura tra ragione e realtà 5 / Il Grande Spauracchio – Parte seconda: il nucleare civile

Nel precedente articolo ho cercato di dissipare le numerosissime “leggende nere” che riguardano le armi nucleari, per riportare la discussione sui rischi che esse comportano alla loro reale dimensione. Stavolta parlerò invece del nucleare nel suo uso civile, cioè finalizzato alla produzione di energia elettrica, dove le leggende nere sono, se possibile, ancor più abbondanti, benché i termini della questione siano molto più semplici (e tuttavia altrettanto gravemente fraintesi).

L’ambiguo “ritorno” al nucleare

Se le idee sballate circa le armi nucleari sono già notevoli, quelle sull’uso pacifico del nucleare per produrre energia lo sono ancor di più. Anche se (forse) qualcosa sta iniziando a cambiare, paradossalmente a causa di un clamoroso “autogol” degli ecologisti, che hanno enfatizzato a tal punto il problema del cambiamento climatico che ormai la gente pretende delle soluzioni efficaci. E, nel momento in cui hanno dovuto passare dai proclami ideologici alla realtà, i governi hanno cominciato ad accorgersi che le soluzioni che avevano fin qui sbandierato non funzionano.

Un chiaro segnale di questa controtendenza è il coraggioso documentario di Oliver Stone, Nuclear now (Nucleare subito), appena uscito e trasmesso in anteprima da LA7 lo scorso mercoledì 6 dicembre, che consiglio a tutti di guardare e far guardare il più possibile.

Ancor più importante, proprio in questi giorni alla COP 28, cioè l’annuale conferenza sul clima che fin qui aveva prodotto tante liste di obiettivi (che chiunque è capace a scrivere) e pochissime di mezzi adeguati per raggiungerli (che invece sono la cosa importante, ma anche difficile), si è finalmente preso atto di ciò che era da sempre evidente, ma che nessuno voleva prendersi la responsabilità di dire: e cioè che una riduzione delle emissioni dell’entità (enorme) che si ritiene necessaria è impossibile senza un massiccio uso del nucleare civile.

Problema risolto, allora? Niente affatto, perché il modo in cui lo si è fin qui detto è molto ambiguo, il che potrebbe causare seri problemi. Infatti, la giustificazione che viene data da tutti gli esperti è che le preoccupazioni del passato non sono più giustificate perché il “nuovo” nucleare è molto più economico e molto più sicuro. Ora, questo è certamente vero, ma, detto così, lascia intendere che il nucleare tradizionale fosse troppo caro e/o troppo pericoloso, il che invece è assolutamente falso, come gli esperti sanno benissimo.

Perché allora non lo dicono? La ragione è che in questo modo sperano di riuscire a superare le obiezioni (che sono tuttora fortissime e anzi negli ultimi anni sono perfino aumentate) aggirandole anziché affrontandole, cosa che l’esperienza ha dimostrato essere estremamente difficile, perché alla loro base c’è una paura viscerale che è più forte di qualsiasi argomento razionale.

Tuttavia, per quanto comprensibile, questa tattica comporta un grosso rischio. Il nucleare “buono”, infatti, quello cosiddetto “di quarta generazione”, per ora esiste solo in forma di progetti e (pochi) prototipi, per cui ci vorranno grandi sforzi e molti soldi perché diventi realtà in tempi brevi. Il pericolo è quindi che nel frattempo i movimenti ecologisti e i tantissimi intellettuali e politici che accettano acriticamente tutte le loro tesi pretendano che esso venga usato non solo come risorsa aggiuntiva, ma anche per sostituire le centrali già esistenti, il che renderebbe l’impresa impossibile.

E questo, in realtà, è esattamente ciò che vogliono, perché gli ecologisti hanno una devozione quasi fanatica per le rinnovabili, in particolare l’eolico e il solare. E non solo per ragioni tecnologiche, ma anche politiche, perché le considerano un modo di produrre energia più “democratico”, anche se in realtà queste tecnologie non sono certo prodotte da gruppi di attivisti che lavorano nel garage di casa, ma da grandi e potenti multinazionali, che agiscono per fare profitti e non a scopi umanitari (ma questo per un certo tipo di cultura, oggi dominante in Occidente, non ha importanza: vedi il mio articolo https://www.fondazionehume.it/politica/la-frattura-tra-ragione-e-realta-3-marx-e-vivo-e-lotta-dentro-a-noi-dodici-idee-comuniste-a-cui-credono-anche-gli-anticomunisti/). Pertanto, quasi tutti gli ecologisti vedono come il fumo negli occhi qualsiasi soluzione alternativa e, in particolare, l’odiato nucleare, compreso quello “nuovo”, di cui non si fidano affatto, anche quando non lo dicono apertamente.

Di conseguenza, se si vorrà davvero seguire questa strada (che, ripeto, è l’unica possibile, come subito spiegherò), prima o poi si dovrà comunque fare chiarezza anche sul nucleare tradizionale. Tanto vale, quindi, cominciare subito.

Una fonte energetica a basso costo

Quanto al presunto costo eccessivo, la questione è presto risolta. Anzitutto, va detto che nel valutare i costi del nucleare si tiene sempre conto di tutti i costi, non solo di costruzione, ma anche di gestione, manutenzione e smantellamento, cosa in sé giusta, ma che non viene mai fatta per nessun’altra fonte energetica, a cominciare (ovviamente) dalle rinnovabili. Come se non bastasse, questi costi sono molto superiori a quelli che dovrebbero essere, perché per la paura delle radiazioni (del tutto irrazionale, come subito vedremo) si chiedono misure di sicurezza assolutamente esagerate. Eppure, nonostante tutto ciò, in Italia, che ha abolito il nucleare nel 1988, cioè 35 anni fa, l’energia elettrica costa il 50% in più rispetto alla Francia, che è il nostro “gemello” energetico, in quanto ha all’incirca il nostro stesso livello tecnologico, la stessa popolazione e la stessa (ridotta) quantità di fonti energetiche naturali, ma produce col nucleare oltre il 70% della sua elettricità.

È davvero strano (o forse no…) che questo fattore non venga mai preso in considerazione in nessuna analisi sul nostro declino economico, che, guarda caso, è iniziato proprio pochi anni dopo che l’Italia, unico paese avanzato al mondo, ha deciso di rinunciare al nucleare. Inoltre, per aggiungere ai danni le beffe (nonché altri danni), va considerato che allora il nucleare italiano era il migliore al mondo, un pelo sopra la Francia e almeno due spanne sopra gli USA. Non per nulla, in quel momento l’Ansaldo Energia aveva commesse per costruire centrali nucleari in vari paesi esteri per ben 4000 miliardi di lire (circa 5 miliardi di euro odierni).

Se avessimo proseguito su quella strada, oggi potremmo guidare il processo di ritorno al nucleare, con enormi vantaggi in termini economici e anche di peso politico. Invece, per come ci siamo ridotti (con le nostre stesse mani: qui la “cattiva” Europa non c’entra proprio niente), siamo ormai il fanalino di coda del mondo progredito e, se non vorremo rimanerlo per decenni, finiremo col dover importare dall’estero gran parte delle tecnologie necessarie a metterci al passo con gli altri, anziché essere noi a vendergliele. Insomma, un vero capolavoro di stupidità.

Una garanzia di indipendenza

In secondo  luogo, il nucleare non rischia di creare pericolose dipendenze, come il gas e il petrolio, ma anche i pannelli fotovoltaici e le mitiche auto elettriche (a cui dedicherò un articolo a parte, perché qui siamo nel campo della follia pura). Infatti, i materiali necessari per la loro costruzione sono altamente tossici e quindi difficili da estrarre (e ancor più da smaltire) in modo non inquinante. Inoltre, da noi sono quasi assenti, mentre abbondano in paesi retti da feroci dittature, come la Cina e l’Afghanistan, oppure con situazioni  molto instabili, come per esempio il Congo, dove l’estrazione del cobalto sta causando continui massacri dovuti alle guerre tra le bande che se ne contendono il monopolio. Il rischio, quindi, è di cadere dalla padella nella brace, eliminando la dipendenza dalla Russia solo per andarci a cacciare in una ancor più pericolosa dipendenza da questi paesi, che non sono certo più affidabili.

I più grandi giacimenti di uranio, invece, si trovano in paesi solidamente democratici, a cominciare dall’Australia, che possiede oltre il 30% delle riserve mondiali, il che basta e avanza per rifornire tutto l’Occidente. Se poi ci aggiungiamo Canada, USA e Germania arriviamo a sfiorare il 50%. Inoltre e soprattutto, non c’è necessità di rinnovare continuamente le scorte, dato che, una volta acquisito, un quantitativo relativamente piccolo di uranio può produrre energia in grandi quantità per decenni, il che consente di programmarne l’acquisto con calma e cercando le migliori condizioni, anche economiche.

Un fattore di stabilità

Ma il nucleare non ha solo una convenienza relativa rispetto ai combustibili fossili, ma anche una convenienza intrinseca, che, come dicevo, lo rende non solo utile, ma addirittura indispensabile se si vuole tentare seriamente di superare l’attuale sistema di produzione di energia. Infatti, al di là di altre questioni più specifiche di cui parleremo più diffusamente un’altra volta, eolico e solare presentano un problema di fondo che rende pura utopia ogni tentativo di basarsi solo su di essi: a parte alcuni luoghi molto particolari, dove vento e sole sono sempre presenti, la loro produzione è inevitabilmente incostante e difficilmente prevedibile con esattezza.

E a complicare ulteriormente le cose c’è il fatto che, se continuerà l’attuale tendenza verso la tropicalizzazione del clima alle nostre latitudini, con forte riduzione dei ghiacciai e lunghi periodi di siccità, anche l’idroelettrico, che a oggi è di gran lunga la più diffusa e la più affidabile delle rinnovabili, tenderà a produrre meno energia e con minore regolarità. Ma, ahimè, una rete elettrica ha bisogno di una grandissima stabilità, perché in ogni istante la quantità di energia in circolazione non deve mai essere inferiore a quella richiesta dal sistema, altrimenti si genera immediatamente un blackout. E i blackout nel nostro mondo non sono più solo un fastidio, ma una vera e propria minaccia.

Qualche decennio fa la mancanza di elettricità causava solo la mancanza di illuminazione notturna e il blocco di alcuni sistemi di comunicazione e di trasporto (treni, semafori, ascensori, radio, televisione e poco altro) e ciononostante già un blackout di poche ore causava seri problemi di ordine pubblico. Oggi, invece, si bloccherebbe quasi tutto (e anche il “quasi” sparirà ben presto), con effetti devastanti. Il blocco pressoché totale delle comunicazioni, impedendo alle autorità di spiegare cosa sta realmente succedendo, moltiplicherebbe in modo esponenziale il panico, sicché subito si scatenerebbe l’assalto ai negozi, per la paura di restare senza cibo, il che a sua volta innescherebbe una spirale di violenza diffusa e incontrollabile, essendo impossibile coordinare le forze dell’ordine e i soccorsi.

Un blackout su scala nazionale, anche di un solo giorno, provocherebbe effetti analoghi a quelli di una sommossa. Se dovesse prolungarsi per qualche giorno i danni sarebbero simili a quelli di una guerra. Per una durata superiore, diciamo da una settimana in su, rischieremmo il collasso dell’intero sistema sociale. Se a qualcuno sembra che stia esagerando, provi a riflettere su cosa implicherebbe una situazione del genere per lui e la sua famiglia e cambierà subito idea.

Ora, il problema è che l’affidabilità necessaria per evitare tutto questo è molto superiore a quella che istintivamente potremmo pensare. Come spiega Vaclav Smil, il più grande storico vivente dell’energia, «un sistema […] con elettricità disponibile per il 99,99% del tempo può sembrare altamente affidabile, ma l’interruzione totale annuale sarebbe di quasi 53 minuti». Per eliminare pressoché totalmente il rischio di blackout occorrerebbe un’affidabilità del 99,9999%, che porterebbe a una carenza di energia di appena 32 secondi all’anno, mentre «l’attuale performance statunitense è di circa il 99,98%», che, per quanto elevatissima, espone già al rischio di vasti blackout della durata di alcune ore, che in effetti in questi anni si sono puntualmente verificati (cfr. Energia e civiltà. Una storia, Hoepli 2017, p. 335).

Ciò significa dunque che non possiamo permetterci di diminuire l’affidabilità delle nostre reti elettriche nemmeno di una minima percentuale. Anzi, dovremmo addirittura cercare di aumentarla, soprattutto se continuerà l’attuale tendenza (la cui assurdità a questo punto dovrebbe essere palese) a elettrificare qualsiasi attività umana. E ciò non sarà assolutamente possibile se pretenderemo di basarci esclusivamente su fonti per loro natura incostanti come le rinnovabili.

Beh, ma che problema c’è?, obietterà forse qualcuno. Certo, in un sistema incostante ci saranno periodi con una produzione inferiore a quella necessaria, ma anche periodi con una produzione superiore: basterà quindi immagazzinare l’elettricità in eccesso prodotta durante questi periodi di vacche grasse per poi usarla nei momenti di scarsità. Ma purtroppo il problema c’è.

L’elettricità, infatti, è molto facile da produrre, ma molto difficile da immagazzinare, almeno in grandi quantità. Batterie capaci di contenere riserve sufficienti per un paese moderno come l’Italia o un qualsiasi altro paese europeo dovrebbero essere di dimensioni quasi inimmaginabili, oltre a presentare gli stessi problemi relativi alle materie prime che affliggono i pannelli solari e le batterie delle auto elettriche.

Ciononostante, centrali di raccolta di questo tipo si stanno già progettando, insieme ad altre dove l’energia verrà immagazzinata sotto forma di energia potenziale (per esempio usando l’elettricità in eccesso per pompare acqua in bacini posti in zone elevate o per sollevare grandi pesi in cima ad apposite torri), che poi potrà nuovamente essere trasformata in energia elettrica sfruttando l’energia cinetica liberata durante la loro caduta verso il basso.

Tuttavia la costruzione di questi impianti richiederà uno sforzo tecnologico ed economico gigantesco e la loro gestione rischia di essere molto complicata, anche a causa dei cambiamenti climatici (la siccità prolungata può prosciugare anche questi bacini e i forti venti possono far cadere i pesi al momento sbagliato). Senza contare i terremoti, che potrebbero farli crollare, mentre nessun terremoto ha mai danneggiato seriamente una centrale nucleare, nemmeno quella di Fukushima, dove l’incidente non è stato provocato dal terremoto in sé, pur essendo stato uno dei più forti della storia, ma dall’acqua penetrata a causa del successivo tsunami.

Inoltre, se l’instabilità del sistema diventasse troppo grande potrebbe essere molto difficile calibrare esattamente l’entrata in funzione degli impianti di emergenza, dato il ridottissimo margine che abbiamo per evitare disastrosi black out seriali. Infine e soprattutto, per quanto accuratamente possiamo tentare di stimare quante riserve ci potranno servire, nel momento in cui tutta o quasi tutta la nostra energia dipendesse da un sistema intrinsecamente imprevedibile su tempi lunghi come il clima non potremo mai essere certi di averne abbastanza.

Nei sistemi classici, infatti, l’improbabilità di un qualsiasi evento è direttamente proporzionale alla sua grandezza, sicché oltre un certo limite essi sono di fatto impossibili. Ma ciò non è più vero nei sistemi non lineari, detti anche “caotici” o “complessi” (in questo senso tecnico, che non coincide con la semplice “complicazione”), come è appunto il clima (ma anche la Borsa: ne parleremo presto). Un periodo di siccità o un cambiamento nell’intensità dei venti o la nascita di un microclima con cielo costantemente nuvoloso (come per esempio succede a Lima in inverno) hanno sempre una probabilità non trascurabile di verificarsi, indipendentemente dalla loro entità. E questo è un rischio che non possiamo assolutamente permetterci, perché, come abbiamo visto, anche un blackout di pochi giorni avrebbe conseguenze devastanti.

Che, nonostante tutto ciò, queste centrali di emergenza si stiano comunque progettando significa che, al di là dei proclami ideologici, gli addetti ai lavori sono coscienti che una rete elettrica troppo basata sulle rinnovabili sarebbe insostenibile. E questa è una buona notizia. Che però lo si stia facendo in forma quasi clandestina (alzi la mano chi ha assistito a un solo dibattito televisivo dedicato a questo problema) significa che non si vuole far sapere all’opinione pubblica che anche le mitiche rinnovabili non sono quella bacchetta magica che si crede. E questa, invece, è una pessima notizia, soprattutto perché non è limitata a questo specifico problema, ma è una tendenza generale, quando si tratta di questioni ecologiche.

Le radici del pregiudizio antinucleare

Uno dei motivi di tale reticenza è proprio la paura che il nucleare possa essere preso in considerazione come integrazione o, peggio ancora, come alternativa alle fonti rinnovabili, una volta compreso che garantirebbe un flusso costante e regolare di energia, a basso costo, senza produrre emissioni nocive e senza metterci nelle mani di cinesi, talebani e tagliagole assortiti. Ma se il nucleare è così conveniente, allora da dove nasce questa violenta ostilità nei suoi confronti?

In parte si tratta di un atteggiamento puramente ideologico. I movimenti ecologisti, infatti, hanno certamente il merito di avere denunciato con molto anticipo dei problemi reali ed estremamente seri, della cui gravità ci stiamo rendendo conto solo adesso. Tuttavia, essendo figli del Sessantotto e della sua rivolta contro ogni tipo di autorità, compresa quella degli scienziati, hanno sempre avuto la tendenza a incolpare dei danni inflitti all’ambiente la scienza e la tecnologia in quanto tali e non solo il cattivo uso che spesso (ma non sempre) ne facciamo.

Negli ultimi anni questo atteggiamento almeno in parte è cambiato, perché proprio il fatto che finalmente si sia iniziato a prendere sul serio i problemi ecologici ha reso evidente che non sarà possibile risolverli senza il contributo essenziale della scienza. Anzi, semmai ora si esagera nel senso opposto, aspettandosi che la soluzione possa venire solo dalla scienza, senza bisogno di cambiare davvero il nostro modo di vivere (i cambiamenti nei comportamenti individuali che ci vengono continuamente suggeriti sono in realtà molto superficiali e hanno un’utilità inversamente proporzionale all’ossessività con cui ci vengono proposti e ai grandi disagi che causerebbero: anche di questo riparleremo presto).

Ciononostante, come ormai un po’ dovunque, anche in questo campo si tende a ragionare per categorie ideologiche stabilite a priori in modo del tutto irrazionale, per cui ci sono delle tecnologie che sono considerate per definizione “buone” e altre “cattive”. L’idroelettrico, l’eolico e il fotovoltaico appartengono alle prime, perché usano forze della natura come l’acqua, il vento e il sole, che ci sono familiari e sono chiaramente utili alla nostra vita. Il nucleare, invece, è classificato tra le seconde, benché la radioattività giochi anch’essa un ruolo fondamentale a favore della vita, perché senza di essa il nucleo terrestre non sarebbe fluido e quindi non avremmo la tettonica a placche e, di conseguenza, la terraferma, ma un unico oceano che ricoprirebbe tutto il pianeta, per di più perennemente ghiacciato, perché la temperatura della Terra sarebbe più bassa di una quindicina di gradi.

Ma questi influssi benefici della radioattività sono troppo indiretti e non abbastanza visibili per rendercela “simpatica”, considerando che il “biglietto da visita” (questo sì visibilissimo) con cui essa si è presentata al mondo è purtroppo rappresentato dalle atomiche di Hiroshima e Nagasaki. Per questo anche molte persone che riconoscono i vantaggi del nucleare civile lo considerano troppo pericoloso. Tuttavia, come ora vedremo, non solo esso non ha nulla a che vedere con la bomba atomica, ma è anzi una delle tecnologie più sicure che siano mai state create, sicuramente molto più sicura dell’idroelettrico, di cui nessuno si sogna di chiedere l’abolizione.

Nucleare e metodo scientifico

Prima di discutere il merito del problema sarà però utile una premessa metodologica. Come cerco sempre di spiegare (temo con non troppo successo), non esiste “la” scienza, ma “le” scienze. Infatti, anche se tutte le scienze naturali usano lo stesso metodo, quello sperimentale, genialmente scoperto e magistralmente definito da Galileo Galilei quattro secoli fa, la sua efficacia può variare di molto a seconda del tipo di oggetti a cui viene applicato.

Senza entrare in troppi dettagli tecnici (a chi volesse approfondire consiglio sempre il mio La scienza e l’idea di ragione, 2a ed. ampliata, Mimesis 2019), il punto fondamentale del metodo galileiano, che lo ha reso così efficace, è l’idea di studiare i fenomeni naturali non nella loro globalità, bensì un pezzetto alla volta, il che è fra l’altro determinante perché gli esperimenti siano ripetibili e quindi controllabili da tutti. Infatti, se consideriamo tutti i fattori in gioco nessunfenomeno naturale si ripete mai perfettamente identico, mentre ciò diventa possibile se di esso consideriamo solo alcune proprietà.

Ciò però significa che l’efficacia di questo metodo dipende in maniera cruciale dalla possibilità di isolare le proprietà che intendiamo studiare senza che ciò le alteri in modo significativo. Ora, da qualche decennio sappiamo che ciò è possibile solo per alcuni fenomeni, quelli cosiddetti “lineari”, mentre per i fenomeni non lineari, a cui ho già accennato prima, il metodo funziona solo entro certi limiti, che sono estremamente variabili a seconda dell’oggetto. Di conseguenza, le varie scienze non differiscono solo per il diverso modo di “incarnare” in strumenti ed esperimenti specifici i principi generali del metodo galileiano, ma anche per il diverso grado di certezza che possono raggiungere, non solo in pratica, ma anche in linea di principio.

La scienza naturale che ha, in media, il grado più basso di certezza è senza dubbio la medicina. È per questo che ho giudicato molto grave l’ingiustificata e irresponsabile sicumera con cui all’epoca del Covid molti esperti hanno presentato come verità indiscutibili quelle che erano semplici ipotesi ancora tutte da verificare, quando non addirittura teorie palesemente sbagliate, come quella del contagio attraverso le superfici infette o la necessità delle mascherine all’aperto.

All’estremo opposto sta invece proprio la fisica nucleare, che ha ormai raggiunto una precisione quasi disumana, con un margine di errore di circa una parte su un miliardo, di fatto coincidente, a tutti gli effetti pratici, con quella della matematica pura. Così stando le cose, diversamente da quanto accade in medicina e in molte altre scienze, in fisica nucleare contestare la validità di quanto affermato dagli esperti non ha molto più senso che sostenere che 2+2 potrebbe anche non fare 4. E questo è ancor più vero se consideriamo che le leggi fisiche rilevanti per il problema della sicurezza degli impianti nucleari sono estremamente semplici.

Il nucleare è (almeno) cento volte più sicuro dell’idroelettrico

Anzitutto, le centrali nucleari non producono nessun aumento significativo della radioattività al loro esterno. Per capire che questo è impossibile non occorrono studi complessi: basta riflettere sulla legge fondamentale della radioattività, che dice che essa si attenua in proporzione al quadrato della distanza. Ciò significa infatti che, se appena fuori dalla centrale, cioè a una distanza suppergiù di un chilometro dal reattore (dato che si tratta di impianti di grandi dimensioni), vi fosse una radioattività abbastanza forte da poter causare danni significativi alla salute, a 100 metri dal reattore la radioattività sarebbe 100 volte maggiore e a 10 metri 10.000 volte maggiore, cosicché i tecnici che ci lavorano morirebbero tutti nel giro di poche ore. Poiché ciò non accade, è inevitabile concludere che la presenza di una centrale nucleare non è pericolosa per la nostra salute.

In secondo luogo, le centrali nucleari non esplodono, per la semplice ragione che non sono bombe. Sia le bombe che le centrali hanno infatti bisogno di un particolare isotopo dell’uranio, l’uranio 235, che in natura è sempre mescolato con l’uranio 238 (e a tracce insignificanti del rarissimo 234) nella percentuale di appena lo 0,7%, che non è sufficiente a innescare la reazione a catena (come è logico, altrimenti tutti i giacimenti di uranio del mondo si sarebbero già autodistrutti non appena formatisi). Per entrambi gli usi è quindi necessario aumentare la percentuale di uranio 235, attraverso un processo piuttosto complesso detto “arricchimento”. Tuttavia, per le centrali nucleari, che devono produrre una reazione a catena controllata, cioè non esplosiva, la percentuale necessaria va dal 3% al 5%, mentre per le bombe atomiche dev’essere molto superiore, tra il 90% e il 97%. Se così non fosse, del resto, l’accordo con l’Iran sul nucleare civile non avrebbe avuto alcun senso.

Con questo non sto dicendo che sia stato una buona idea, perché è sempre possibile aumentare ulteriormente la percentuale di uranio 235 contenuto nel combustibile delle centrali nucleari in modo da poterlo poi usare per farci delle bombe atomiche. Pertanto, aver permesso all’Iran di costruire liberamente le prime l’ha avvicinato anche alla costruzione delle seconde (che è palesemente il suo vero obiettivo, perché delle centrali nucleari l’Iran non ha alcun bisogno, dato che naviga su un mare di petrolio). Ma questo è un problema politico, non tecnologico. La trasformazione dell’uranio per uso civile in quello necessario per una bomba, infatti, non può assolutamente verificarsi spontaneamente: occorre prima tirar fuori l’uranio dalla centrale e poi sottoporlo di nuovo al processo di arricchimento in un apposito impianto. Quindi, che una centrale nucleare esploda non è solo improbabile: è proprio fisicamente impossibile.

Tra parentesi, questo dimostra quanto assurde fossero le affermazioni fatte dai russi nella prima fase della guerra (e scelleratamente prese sul serio anche da alcuni commentatori occidentali) secondo cui avrebbero occupato le centrali nucleari ucraine perché in esse si stava usando il loro uranio per costruire bombe atomiche. Peccato solo che degli impianti necessari a eseguire una tale trasformazione in Ucraina non vi sia traccia e che in ogni caso, se anche esistessero, non si troverebbero certo nelle centrali nucleari, che non sono state costruite a tale scopo e quindi non hanno al loro interno né gli spazi né gli strumenti che servirebbero. Dunque, non è per questo che i russi le hanno occupate, ma (ovviamente) per avere il controllo dell’energia elettrica da esse prodotta.

Ma, obietterà qualcuno, la centrale di Chernobyl non è forse esplosa? Ebbene, mi spiace deludervi, ma la risposta è no: quello che è esploso a Chernobyl è stato solo il sistema di raffreddamento della centrale, costituito da un impianto di tubature che riversano costantemente acqua sul nocciolo di uranio per evitare che si scaldi troppo e portano via il gas che si forma quando l’acqua evapora per il contatto con l’uranio rovente. Quando, nella notte del 26 aprile 1986, per un difetto congenito di progettazione seguito da un’incredibile serie di errori umani, la pressione salì troppo, i tubi esplosero e il vapore si disperse nell’atmosfera. Ovviamente ho un po’ semplificato, ma la sostanza è questa. Non si trattò quindi affatto di un’esplosione atomica, tant’è vero che in essa morirono appena due persone.

Naturalmente, a causa dei ripetuti passaggi sul nucleo di uranio il vapor d’acqua era fortemente radioattivo e a peggiorare le cose si aggiunse il fatto che l’esplosione fece crollare il tetto del reattore, lasciando quindi allo scoperto il nocciolo. Ciò provocò un’ulteriore dispersione di polveri radioattive che si mescolarono al vapore generando la mitica “nube di Chernobyl”, che era certamente pericolosa, ma neanche lontanamente quanto lo sarebbe stato se si fosse trattato del “fungo” prodotto da una vera esplosione atomica.

E infatti i decessi che si possono collegare con certezza al disastro di Chernobyl sono appena qualche decina (65 secondo il calcolo più pessimistico). Altre 4000 persone si stima siano morte in seguito a causa di tumori causati dalla nube, ma tutte si trovavano nelle immediate vicinanze dell’epicentro. Che la nube di Chernobyl abbia contaminato l’intera Europa, causando decine di migliaia o addirittura milioni di morti, è una pura e semplice idiozia, che oggi in tutto il mondo è sostenuta, con ostinazione degna di miglior causa, esclusivamente da Greenpace, un’organizzazione che da sempre promuove un ecologismo molto radicale e ideologico.

A dare una parvenza di verosimiglianza a questa assurda teoria c’è il fatto che Chernobyl causò effettivamente morti accertate in ben tre nazioni: Ucraina (dove il reattore era ubicato), Russia e Bielorussia. Ma questo fu dovuto al fatto che il sito era (ed è tuttora) molto vicino al confine tra l’Ucraina e i due paesi suddetti, che anch’essi furono colpiti solo nella zona vicina all’epicentro, mentre la gran parte del loro territorio non riportò alcun danno.

In realtà, come ho spiegato nell’articolo precedente (https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta-4-il-grande-spauracchio-parte-prima-il-nucleare-bellico/), nemmeno la più potente bomba nucleare del mondo potrebbe causare un significativo aumento di radioattività a più di un centinaio di chilometri di distanza. E, di fatto, nessuna delle oltre 600 esplosioni nucleari effettuate nell’atmosfera come test dal 1945 a oggi ha mai causato danni significativi alla salute della popolazione mondiale. L’idea che possa averlo fatto l’esplosione di Chernobyl, che era molto ma molto meno potente e meno radioattiva perfino della più debole di esse, è quindi puro delirio.

E puro delirio è anche il timore che un disastro nella centrale nucleare di Zaporizhzhia possa “contaminare l’intero continente”, come abbiamo sentito ripetere ossessivamente soprattutto nelle prime fasi del conflitto (ma anche adesso, ogni volta che se ne parla, il ritornello ricomincia). Si può capire e perdonare che lo facciano gli ucraini, che hanno bisogno di attaccarsi a tutto per tenere desta l’attenzione dei loro distratti e indolenti alleati europei. Non si può invece capire e meno ancora perdonare che continuino a ripetere questa scemenza anche i nostri commentatori.

Un altro fattore che contribuisce molto a confondere le idee è l’uso di parole che istintivamente impressionano, senza che nessuno spieghi cosa significano in realtà. Per esempio, chiedetevi se sareste disposti a tuffarvi in una piscina in cui sia stata versata una tonnellata d’acqua marina prelevata davanti a Fukushima subito dopo l’incidente, quando aveva un livello di radioattività circa mille volte superiore a quello naturale. Detto così fa impressione ed è facile prevedere che rispondereste tutti di no. Ma proviamo a ragionare.

Un litro d’acqua (ce l’hanno insegnato a scuola) pesa un chilo e ha un volume di un decimetro cubo, per cui una tonnellata d’acqua equivale a un metro cubo. Detto così fa già meno impressione, non è vero? Eppure è esattamente la stessa cosa! Ma la parola “tonnellata” ci dà istintivamente la sensazione di una cosa enorme, mentre la parola “metro” (ancorché cubo) ci dà invece l’impressione di una cosa relativamente piccola. Il motivo, però, è esclusivamente psicologico: tutti, infatti, siamo più alti di un metro, mentre nessuno di noi si avvicina neanche lontanamente a pesare una tonnellata.

E ora proseguiamo. Secondo le norme FINA, una piscina olimpionica è lunga 50 metri, larga 25 e profonda non meno di 2: contiene dunque almeno 2500 metri cubi, ovvero 2500 tonnellate, di acqua non radioattiva (essendo di origine piovana non contiene infatti uranio disciolto, come quella marina). Di conseguenza, la tonnellata d’acqua radioattiva risulta diluita a tal punto che nell’insieme la piscina ha un livello di radioattività addirittura 2,5 volte inferiore a quello del mare della vostra località balneare preferita. Ciononostante, credo di non sbagliare se dico che anche dopo questa spiegazione nessuno di voi sarebbe disposto a tuffarcisi: tanto può la forza della paura suscitata dalle parole usate male.

Per dare l’idea del livello di mistificazione che spesso si raggiunge sul nucleare farò solo un altro esempio, ma particolarmente significativo, poiché si riferisce a un giornalista che molti (non io) ritenevano serio e affidabile, ovvero Andrea Purgatori, da poco deceduto. Ebbene, durante una puntata del suo programma Atlantide su LA7 (credo quella del 29 marzo 2022, ma non sono sicuro), Purgatori ha prima trasmesso un documentario in cui si ripeteva per ben due volte l’assurda affermazione che a Chernobyl si era verificata un’esplosione atomica e poi, come conclusione della puntata, ha fatto un elenco di tutti i disastri nucleari della storia.

Ora, a parte che erano in tutto e per tutto appena quattro (Chernobyl, ovviamente, poi Three Mile Islands, Fukushima e un altro di minore entità che ora non ricordo), Purgatori si è ben guardato dal dire quante persone erano morte in ciascuno di essi. E comprensibilmente, anche se disonestamente. Se l’avesse detto, infatti, la gente avrebbe scoperto che, a parte Chernobyl, il numero di morti per ciascuno dei suddetti “disastri” era zero. Sì, avete capito bene: a parte Chernobyl, di nucleare fino ad oggi non è mai morto nessuno.

E oltretutto Chernobyl è stato un caso più unico che raro: basti dire che l’incidente è classificato allo stesso livello di gravità di quello di Fukushima, in cui non è morta neanche una persona. Come è possibile, allora, che a Chernobyl siano morti così in tanti? La risposta è che la stragrande maggioranza dei decessi furono dovuti all’ostinato rifiuto del regime sovietico di ammettere l’incidente e, quindi, di evacuare immediatamente la popolazione, nonché alla totale impreparazione tecnica per un’emergenza simile.

Tra l’altro, il difetto di progettazione era stato notato già nel 1971 durante un congresso internazionale da un gruppo di ingegneri italiani, tra cui mio padre, che diresse il piano nucleare italiano da allora fino al 1988, quando venne sciaguratamente chiuso. Ma il loro aiuto per sistemare le cose, che i tecnici russi avevano volentieri accettato, venne sprezzantemente rifiutato dal regime sovietico, che poi respinse allo stesso modo anche le offerte di aiuto dell’Occidente successive al disastro. Non è quindi esagerato dire che a Chernobyl più che di nucleare si morì di comunismo.

Eppure niente: tutti continuano imperterriti a parlare di “disastri nucleari”, non solo per Chernobyl, ma anche per gli altri, che semplicemente non furono disastri, in nessun senso sensato della parola “disastro”. Addirittura, pur di addossare qualche cadavere all’atomo, qualche bello spirito è arrivato a inventarsi il concetto di “morte per stress da evacuazione”, sostenendo che l’incidente di Fukushima ne avrebbe causate circa 400.

Non mi soffermo a commentare questa assurdità priva di qualsiasi fondamento scientifico e di cui in ogni caso non sarebbe responsabile il nucleare, ma semmai la cattiva gestione dell’evacuazione. Vorrei invece far notare che il terremoto di Fukushima fu uno dei più terribili della storia, eppure la centrale nucleare rimase in piedi (in effetti, fu l’unica cosa che rimase in piedi) e non uccise nessuno, mentre 400 persone rimasero vittime del crollo della diga di un vicino impianto idroelettrico. Eppure, nessuno parla mai di queste autentiche morti, mentre tutti continuano a parlare e straparlare di quelle immaginarie di Fukushima.

Ma non è tutto. Questo, infatti, non è per nulla un caso isolato. Solo il disastro del Vajont, come ben sappiamo, ha causato 1917 morti: circa la metà di quelli attribuiti a Chernobyl. Ma già nel 1923 erano morte 356 persone nel crollo della diga del Gleno e altre 115 morirono nel 1935 nel crollo della diga del Molare, col che siamo già a 2388. E questo solo in Italia.

Ho cercato insistentemente notizie relative alla situazione a livello mondiale, ma anche sui siti di statistiche più noti e affidabili sembra impossibile trovare dati completi e ancor più difficile è distinguere tra i crolli di dighe di impianti idroelettrici e quelli di dighe destinati ad altri usi (principalmente irrigazione e attività mineraria). Perfino il loro numero è incerto, perché molti studi considerano solo dighe superiori a una certa altezza, che, essendo scelta arbitrariamente, ogni volta porta a risultati diversi. Calcolandole tutte, è probabile che il numero di dighe di qualsiasi altezza e destinazione d’uso già costruite o in fase di costruzione in tutto il mondo sia vicino al milione. Ma alla fine non ha molta importanza.

Se si pensa infatti che solo nel crollo della diga della centrale idroelettrica di Banqiao, situata 300 km a nord-ovest di Shangai e distrutta nel 1975 dal tifone Nina, morirono 171.000 persone e che nell’insieme i crolli di dighe nell’ultimo secolo hanno sicuramente ucciso centinaia di migliaia di persone, forse addirittura milioni, anche se il numero esatto non è determinabile e non tutte le dighe crollate erano destinate alla produzione di elettricità, è comunque evidente che la “buona” energia idroelettrica è in realtà almeno cento volte più pericolosa della “cattiva” energia nucleare.

E in futuro la situazione è destinata a peggiorare ulteriormente, sia per l’invecchiamento delle dighe (secondo alcune stime, senza urgenti interventi di manutenzione, per cui spesso non ci sono i soldi, oltre il 50% sarebbe già ora a rischio), sia per l’aumentare della violenza delle piogge. Senza contare poi l’impatto ambientale, spesso molto pesante, dei grandi bacini idroelettrici e l’enorme numero di persone (sicuramente alcune decine di milioni) che per permetterne la costruzione sono state costrette a lasciare per sempre le loro case, destinate a finire sommerse dall’acqua.

Eppure, nessuno si sogna di chiedere la chiusura degli impianti idroelettrici. E giustamente, perché farlo causerebbe conseguenze ben peggiori. Ma allora perché rifiutare il nucleare, che è (letteralmente) cento volte più sicuro?

Il falso problema delle scorie

Beh, un momento, mi direte: hai dimenticato il problema delle scorie. Non vorrai mica dirci che neanche quello è così grave come sembra? Ebbene, non ve lo dico, ma solo perché il problema delle scorie semplicemente non esiste: il problema delle scorie, infatti è stato creato dalla paura del problema delle scorie.

Cominciamo da un dato di fatto incontestabile: a oggi, nessuna persona al mondo ha riportato danni a causa delle scorie delle centrali nucleari, mentre le scorie di praticamente qualsiasi altra industria almeno qualche morto l’hanno causato e in molti casi anche più di qualcuno.

Di fatto, per neutralizzarle completamente basta seppellirle a qualche decina di metri di profondità, come si sta facendo attualmente. Che questo sia sicuro è provato dal fatto che vivere sopra un giacimento di uranio non comporta nessun rischio significativo per la salute. Se così non fosse, le compagnie minerarie userebbero le statistiche sul cancro per rintracciare i giacimenti, invece di ricorrere a complicate e costosissime tecnologie di prospezione.

Ma per stare del tutto tranquilli si potrebbe ricorrere a una delle tante miniere abbandonate: a un migliaio di metri di profondità, infatti, perfino se un terremoto dovesse aprire in due la miniera la quantità di radiazioni che riuscirebbe a raggiungere la superficie sarebbe trascurabile (a parte poi che dopo un terremoto di quella potenza questo sarebbe l’ultimo dei nostri problemi, in quanto non resterebbe più nessuno in grado di preoccuparsene).

Ma la soluzione più efficace sarebbe semplicemente affondarle in mare, purché ovviamente a profondità adeguata e non sotto costa, ma nelle grandi fosse oceaniche. Siccome già sento gli strilli inorriditi dei più davanti a questa proposta, vorrei far presente a chi non lo sapesse che, come ho accennato prima, l’acqua di mare è radioattiva già di suo, giacché contiene uranio nella percentuale di 3,4 tonnellate per chilometro cubo: eppure uno può andare al mare anche tutti i giorni senza subirne il minimo danno.

Ora, negli oceani del mondo ci sono circa 1400 milioni di chilometri cubi d’acqua, il che significa che in totale essi contengono la bellezza di quasi 5 miliardi di tonnellate di uranio. E poiché il totale delle scorie prodotte finora (in circa 50 anni) è stimato intorno alle 250.000 tonnellate, cioè 5000 all’anno, ne segue che anche buttandole in mare così come sono ci vorrebbe un milione di anni solo per raddoppiare la radioattività naturale degli oceani, il che a prima vista può sembrare una prospettiva spaventosa, ma in realtà non avrebbe la minima conseguenza pratica. Se così non fosse, infatti, uno che va al mare il doppio di un altro dovrebbe avere una probabilità doppia di prendersi il cancro, per non parlare di uno che ci vive stabilmente, che dovrebbe beccarselo con certezza matematica nel giro di pochi mesi.

La realtà dei fatti è che raddoppiare la radioattività naturale dei mari comporterebbe meno rischi per la nostra salute che farci una banale radiografia. Ancora una volta, siamo vittime dell’illusione delle parole: 5 miliardi di tonnellate di uranio ci sembrano infatti una quantità enorme, e di per sé lo sono, ma il fatto è che non ci rendiamo conto di quanto grande sia il mare, per cui anche una quantità del genere risulta in realtà irrisoria (in effetti, equivale a meno di 4 milionesimi di grammo per metro cubo). Il vero rischio di prenderci il cancro quando andiamo al mare sta nel passare troppo tempo al sole ad abbronzarci, che è molto ma molto più pericoloso che vivere vicino a un deposito di scorie nucleari: eppure, di questo non ci preoccupiamo minimamente.

Peraltro, si tratta di un’ipotesi puramente teorica, giacché le scorte di uranio esistenti nel mondo possono bastare al massimo per qualche migliaio di anni (durante i quali si spera che avremo trovato altre soluzioni, per esempio la fusione nucleare). Quindi anche se tutte le scorie di tutte le centrali nucleari passate, presenti e future della storia dell’umanità venissero buttate in mare così come sono, l’irrisorio livello di radioattività naturale degli oceani verrebbe aumentato al massimo di un ancor più irrisorio 1%. E non basta, perché in realtà nessuno ha mai pensato di buttarle davvero così come sono.

Le scorie, infatti, vengono prima inglobate nel vetro fuso e poi l’impasto viene versato in contenitori di acciaio e cemento a tenuta stagna, che affonderebbero ben presto nel fango dei fondali oceanici, per decine o anche centinaia di metri, col che l’impatto ambientale sarebbe nullo a tutti gli effetti pratici. Infine, non dimentichiamo che, contrariamente a ciò che sempre si dice, solo una minima percentuale delle scorie nucleari conserva una forte radioattività per diverse migliaia di anni, mentre la maggior parte diventa innocua nel giro di qualche decennio.

Conoscere la realtà per non temerla

L’unica cosa di cui dobbiamo avere paura è la paura stessa.

(Franklin Delano Roosevelt)

Ma queste soluzioni, perfettamente sicure, ragionevoli e a basso costo, non sono mai state adottate, perché la gente le rifiuta in nome dell’assurda pretesa del “rischio zero”, di cui ho già più volte parlato su questo sito (si veda in particolare https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta/), a cui in questo caso si aggiunge una paura viscerale più forte di qualsiasi ragionamento, dovuta al ricordo delle atomiche di Hiroshima e Nagasaki, peraltro anch’esso in gran parte mitizzato e che in ogni caso col nucleare civile non c’entra nulla.

Di conseguenza, per compiacere gli elettori i vari governi hanno adottato standard di sicurezza così irragionevolmente esigenti che è diventato impossibile trovare un qualsiasi luogo sulla Terra che li soddisfi, col paradossale risultato che continuiamo a tenere le scorie radioattive in depositi in teoria “provvisori”, ma che stanno di fatto diventando definitivi, benché siano molto più costosi e molto meno sicuri di quelli che potremmo usare senza problemi se solo la smettessimo di aver paura.

Ma per non aver paura della realtà bisogna innanzitutto conoscerla. E questo oggi non sembra uno sport molto di moda.




La frattura tra ragione e realtà 4 / Il Grande Spauracchio – Parte prima: il nucleare bellico

Con questo articolo comincio a discutere alcuni temi cruciali per il nostro futuro rispetto ai quali la frattura tra le idee comunemente accettate e la realtà dei fatti è particolarmente grave. Il primo tema che ho scelto era quasi obbligato, perché, tra le tante idee sbagliate in circolazione, ben poche battono quelle che riguardano l’energia nucleare, sia nel suo uso bellico che in quello pacifico. Ma, soprattutto, non esiste nessun altro argomento a proposito del quale così tante assurdità siano condivise da un numero così grande di persone e riguardino non solo alcuni aspetti, ma praticamente tutto ciò che si sente dire al proposito. In questo articolo mi occuperò delle armi nucleari, mentre in uno successivo parlerò dell’energia nucleare per uso civile.

Hiroshima, Nagasaki e dintorni

La guerra in Ucraina ha drammaticamente riportato all’attenzione del grande pubblico il tema dell’energia nucleare, sia nel suo uso bellico che in quello civile, il che di per sé è un bene. Purtroppo, però, ha anche ridato fiato alle tante assurdità che da sempre circolano al riguardo, il che è invece un gran male. Cerchiamo quindi di fare un po’ di chiarezza.

E anzitutto chiediamoci: perché l’energia nucleare è diventata il Grande Spauracchio del nostro tempo? La risposta più ovvia è: perché essa è apparsa sulla scena del mondo nella forma delle due bombe atomiche di Hiroshima e Nagasaki.

Questo è certamente vero, ma è altrettanto vero che fin da allora la leggenda ha cominciato a sovrapporsi alla realtà. In parte ciò dipese dal fatto che questa forza titanica sembrò apparire dal nulla, cogliendo tutti di sorpresa: gli studi in merito erano infatti segretissimi e venivano condotti esclusivamente in Germania e negli Stati Uniti (e in Italia, almeno finché le sciagurate leggi razziali non costrinsero Enrico Fermi, uno dei più grandi scienziati di ogni tempo, a rifugiarsi negli Stati Uniti, essendo sposato con un’ebrea). Ma non si tratta solo di questo.

Come ha spiegato uno dei massimi esperti al mondo di armi nucleari, lo storico della scienza Alex Wellerstein della Harvard University, in un articolo pubblicato il 4 agosto 2020 sull’autorevole Bullettin of the Atomic Scientists contenente un’approfondita discussione di tutti gli studi sul tema (https://thebulletin.org/2020/08/counting-the-dead-at-hiroshima-and-nagasaki/), nessuno saprà mai quante persone morirono esattamente a Hiroshima e Nagasaki.

Moltissimi corpi, infatti, non vennero mai recuperati, perché disintegrati dall’esplosione o carbonizzati dai successivi incendi. Ciò rende inevitabile basarsi su stime, le quali però sono pesantemente influenzate dalla valutazione del numero di persone presenti in città al momento dell’esplosione, che per vari fattori è estremamente incerto.

L’intervallo va dalla più bassa, fatta dalla Joint Commission formata dagli Alleati e dal Giappone poco dopo la fine della guerra, per cui i morti sarebbero stati rispettivamente 64.000 e 39.000, a quella più alta, fatta da una commissione giapponese in collaborazione con le Nazioni Unite nel 1975, la cui stima è stata di 140.000 e 70.000, per un totale che va quindi da 103.000 a 210.000.

È importante notare che secondo Wellerstein la differenza dipende solo dai diversi metodi adottati e non da malafede o trascuratezza: «There is no evidence that either of these estimates was made inaccurately or dishonestly, but they come from different sources and eras».

Qualunque valore si accetti, comunque, dal punto di vista strettamente militare non vi furono molte differenze rispetto a quanto si poteva ottenere con armi convenzionali. Per esempio, soltanto i bombardamenti su Tokyo avevano causato oltre 200.000 morti, di cui 72.000 in un’unica notte, quella fra il 3 e il 4 febbraio 1945: una cifra più alta della più alta stima fatta per Nagasaki.

L’impatto delle atomiche fu quindi soprattutto psicologico e fu dovuto principalmente a due fattori: anzitutto,  ovviamente, il fatto che per causare tutta questa distruzione fosse bastata una sola bomba e poi le radiazioni, che facevano (e fanno ancor oggi) paura soprattutto perché invisibili. Gli effetti delle atomiche sugli esseri umani, infatti, per quanto terribili, non sono poi tanto peggiori di quelli causati dalle bombe convenzionali, specialmente da quelle incendiarie. Ma, si sa, da sempre ciò che non si vede fa più paura di ciò che si vede, perché ci fa sentire totalmente indifesi.

Tuttavia, almeno a quel tempo, l’uso dell’atomica implicava anche notevoli difficoltà. Il processo di produzione era infatti lungo e costoso e la bomba, molto pesante e ingombrante, veniva lanciata da un normale bombardiere, per cui se quest’ultimo fosse stato abbattuto l’intero attacco sarebbe stato azzerato, insieme a mesi e mesi di costose fatiche. Ciò invece non accadeva con un bombardamento convenzionale, dove si potevano perdere molti aerei senza compromettere più di tanto la potenza di fuoco complessiva.

Proprio questa fu una delle principali ragioni (anche se ve ne furono delle altre, a cominciare dalla debolezza del Presidente Eisenhower, gravemente malato) per cui gli Stati Uniti, pur avendone allora il monopolio, una volta sconfitto Hitler non tentarono nemmeno di usare l’atomica per piegare l’Unione Sovietica, preferendo la pace di Yalta, che non era certo una buona soluzione, tanto che ancora oggi stiamo subendo le sue perniciose conseguenze. E la situazione non cambiò nemmeno quando l’URSS rovesciò a suo favore l’equilibrio, costruendo le prime bombe all’idrogeno, molto più potenti delle atomiche: il problema di come portarle a destinazione a così grande distanza le rendeva infatti praticamente inutilizzabili.

L’equilibrio del terrore

Solo quando vennero costruiti i primi missili intercontinentali affidabili le armi nucleari divennero una minaccia davvero seria. Ma a quel punto subentrò un altro fattore a impedirne l’uso: USA e URSS ne avevano ormai così tante che erano in grado di distruggersi a vicenda, il che rendeva impossibile vincere e, di conseguenza, insensato usarle.

Nacque così la cosiddetta MAD (Mutual Assured Destruction), dottrina che, per quanto apparentemente folle (“mad” in inglese significa “pazzo” e l’acronimo non è certo stato scelto a caso), ha finora funzionato benissimo, non solo per prevenire le guerre nucleari, ma anche per prevenire le guerre convenzionali tra paesi dotati di armi nucleari (a parte alcuni scontri di frontiera tra India e Pakistan, che però non si sono mai tradotti in guerra aperta, come sarebbe quasi certamente accaduto in un contesto convenzionale).

La MAD non è stata violata neanche dall’invasione dell’Ucraina, come alcuni sostengono. Quest’ultima, infatti, non è dotata di armi atomiche né è alleata formalmente (benché lo sia di fatto) con paesi che le possiedono. È per questo che l’idea prevalente (e a mio avviso corretta) su come reagire a un eventuale uso di armi atomiche da parte di Putin è che la risposta sarebbe sì durissima, ma di natura convenzionale.

Con ciò non voglio dire che l’attuale “equilibrio del terrore” sia la situazione ideale. È chiaro che l’esistenza di migliaia di bombe nucleari costantemente armate e pronte all’uso è già di per sé molto pericolosa e tale resterebbe anche quando una parte sostanziale di esse non fosse più controllata da uno psicopatico genocida come l’attuale dittatore russo. Ma anche qui la leggenda offusca costantemente la realtà, rischiando di farci compiere scelte drammaticamente sbagliate.

Potenza e distruttività

Innanzitutto dobbiamo chiarire qual è la vera capacità distruttiva delle armi nucleari, che è estremamente variabile e, per quanto tremenda, è fortunatamente inferiore a ciò che si crede. Inoltre, contrariamente a quanto pensano quasi tutti, essa risiede assai più nella forza meccanica dell’esplosione che nella radioattività.

Cominciamo dal primo aspetto. La potenza di un’esplosione di grande portata (sia nucleare che convenzionale o prodotta da cause naturali) si calcola usualmente in kiloton, misura che indica una potenza equivalente a quella di mille tonnellate di tritolo, o in megaton, corrispondente a un milione di tonnellate di tritolo, cioè a mille kiloton.

Ora, la potenza delle armi nucleari va da qualche frazione di kiloton (cioè qualche centinaio di tonnellate di tritolo) per le bombe-zaino, trasportabili a mano sul bersaglio da squadre di incursori, fino ai 50.000 kiloton (50 megaton) della bomba Tsar, la più potente mai costruita, testata dall’URSS sull’isola di Novaja Zemlja, a nord della Siberia, il 30 ottobre 1961 (paradossalmente progettata da Andrej Sacharov, che diventerà poi il più noto oppositore del regime sovietico).

Si tratta di una differenza di ben 5 ordini di grandezza, ovvero di una potenza che può variare di centomila volte in più o in meno. Già da questo, quindi, si capisce che parlare genericamente di “armi nucleari” come se fossero tutte la stessa cosa semplicemente non ha senso.

Inoltre, la distinzione principale che va fatta non è quella tra armi tattiche e strategiche (che oggi tiene banco, ma, come vedremo più oltre, non è chiaramente definibile), bensì quella tra armi atomiche, che utilizzano la fissione, e armi termonucleari, che utilizzano la fusione.

Le prime hanno un limite di potenza intrinseco, non chiaramente definibile, perché dipende da vari fattori tecnici, ma comunque dell’ordine di qualche centinaio di kiloton. Ciò è dovuto al fatto che quando l’uranio supera una certa massa critica esplode, per cui non se ne può mettere più di tanto all’interno di una stessa bomba, neanche suddividendolo in più parti, perché queste non possono essere molto numerose, altrimenti diventa impossibile gestirle.

Le armi termonucleari, familiarmente chiamate bombe H perché utilizzano l’idrogeno, non hanno invece un limite teorico, perché di idrogeno se ne può ammassare quanto se ne vuole, ma hanno comunque un limite pratico. Infatti, il rapporto tra la potenza di una bomba e la sua distruttività non è costante, ma diminuisce sempre più rapidamente con il crescere della potenza stessa.

Il motivo è che qualsiasi esplosione produce un’onda d’urto di forma sferica che si espande in tre dimensioni. Ora, finché la potenza della bomba è relativamente piccola, il suo raggio d’azione sarà dello stesso ordine di grandezza delle dimensioni dei suoi bersagli, cioè di poche decine o al massimo centinaia di metri (che è l’altezza dei più grandi grattacieli), sicché tutta o quasi tutta l’energia sprigionata verrà utilizzata per distruggere l’obiettivo.

Più il raggio d’azione diventa grande, però, più il bersaglio apparirà sostanzialmente bidimensionale rispetto alle dimensioni dell’onda d’urto, per cui tutta o quasi tutta la potenza sviluppata lungo la dimensione verticale andrà sprecata. Di conseguenza, se usata in modo tradizionale, una bomba atomica 1000 volte più potente sarà solo 100 volte più distruttiva, con uno spreco di energia di ben il 90%. Anzi, in realtà anche di più.

Anzitutto, infatti, la componente orizzontale non è mai perfettamente tale, perché viene deviata verso l’alto dall’impatto dell’onda d’urto contro i bersagli. Inoltre, la superficie della Terra è curva, il che fa sì che man mano che ci si allontana dall’epicentro una parte sempre maggiore dei bersagli resti al di sotto dell’onda d’urto, finché si arriva all’orizzonte, che li nasconde completamente.

È per questo che le bombe nucleari non vengono fatte detonare a terra, ma al di sopra del bersaglio, in modo da utilizzare tutta la semisfera inferiore dell’onda d’urto: quanto più in alto ci si trova, infatti, tanto più lontano è l’orizzonte, mentre l’effetto di deviazione viene minimizzato.

Tuttavia, anche così almeno la metà dell’energia prodotta (quella della semisfera superiore) va sprecata. Inoltre, più in alto esplode la bomba, più strada dovrà fare l’onda d’urto, sicché quando raggiungerà il terreno si sarà proporzionalmente indebolita, effetto che si accentua sempre più quanto più ci si allontana dalla verticale. Quindi, in sintesi, se la bomba esplode troppo in basso l’onda d’urto non avrà il tempo di espandersi in tutta la sua ampiezza prima di arrivare a terra, mentre se esplode troppo in alto giungerà sul bersaglio troppo indebolita. Va quindi trovato il giusto compromesso, che dipende essenzialmente dalla potenza della bomba.

Quanto più la bomba è potente, tanto più in alto potrà e dovrà esser fatta esplodere: quella di Hiroshima, infatti, esplose a 600 metri dal suolo, la Tsar invece a 4.000. Tuttavia, l’esplosione non può avvenire a una quota dove l’atmosfera è troppo rarefatta o addirittura al di fuori di essa, perché ciò ridurrebbe, fino ad annullarlo del tutto, l’effetto meccanico dello spostamento d’aria, che è il principale fattore di distruttività, soprattutto nel caso delle bombe più potenti, come vedremo meglio fra poco.

Tutto ciò implica quindi che, pur non esistendo un limite di principio alla potenza delle bombe H, esiste però un limite pratico, giacché, una volta che esso sia stato raggiunto, aumentare ulteriormente la potenza lascia sostanzialmente invariata la distruttività.

Approssimativamente, tale limite è rappresentato proprio dalla potenza della bomba Tsar, che non a caso non è più stata superata, nonostante sia stata costruita 62 anni fa. Sempre non a caso, questa è anche la massima potenza che si può scegliere nelle simulazioni del sito Nukemap (https://nuclearsecrecy.com/nukemap/), anch’esso opera di Wellerstein, sul quale mi sono basato per gran parte della mia analisi.

Ciò chiarito in termini generali, passiamo a esaminare più in dettaglio gli effetti delle armi nucleari per alcuni valori particolarmente significativi.

Prendiamo come punto di partenza una bomba da 1 kiloton, che rappresenta l’ordine di grandezza di quella che può essere contenuta in uno zaino atomico portatile ed equivale a un cinquantamillesimo della Tsar (il limite reale, come detto, è un po’ più basso, ma per semplicità facciamo cifra tonda). Il suo raggio d’azione è di circa 1 km, ragion per cui viene fatta esplodere al suolo o molto vicino ad esso, in modo abbastanza simile a una bomba tradizionale, distruggendo un’area di poco più di 4 km2.

Tuttavia, decuplicandone ripetutamente la potenza le dimensioni dell’area distrutta crescono sempre più lentamente, dando rispettivamente i seguenti valori: 20 km2 (solo il 50% dei 40 attesi se la distruttività fosse proporzionale alla potenza), 94 (23% dei 400 attesi), 435 (11% dei 4.000 attesi), 2.580 (6,5% dei 40.000 attesi), fino agli 8.300 (appena il 4,2% dei 200.000 attesi) nel caso della Tsar, che è quindi 50.000 volte più potente, ma solo 2.000 volte più distruttiva (ho leggermente arrotondato i numeri per renderne più facile la lettura; chi volesse quelli esatti e/o cercarne degli altri può fare le simulazioni che gli interessano sul sopracitato Nukemap, che inoltre permette di visualizzare gli effetti di qualsiasi bomba in qualsiasi località del mondo).

Come si vede, dunque, costruire bombe troppo potenti è un inutile spreco di risorse: si ottiene infatti molta più energia utile (cioè indirizzata sul bersaglio) usando una data quantità di uranio per costruire diverse bombe piccole che una sola grande. E infatti la potenza media delle testate nucleari oggi esistenti è di poco superiore al megaton, che, non a caso, coincide quasi esattamente con il miglior equilibrio costi-benefici, con una percentuale di energia utile del 25% e un’area di distruzione intorno ai 500 km2.

In realtà la maggior parte delle testate sono o un po’ più grandi (qualche megaton, in modo che possano distruggere anche le più grandi città del mondo) o un po’ più piccole (da qualche decina a qualche centinaio di kiloton) rispetto a tale valore medio, ma la sostanza del discorso non cambia.

Onda d’urto e radiazioni

Lo stesso vale, in misura perfino maggiore, per le radiazioni. Infatti l’area entro la quale esse risultano letali è sensibilmente inferiore a quella distrutta dall’onda d’urto e, soprattutto, cresce molto più lentamente sia rispetto ad essa che alla fireball, la palla di fuoco che si produce al centro dell’esplosione e che vaporizza all’istante tutto ciò che tocca.

Questo fenomeno si accentua ulteriormente con le bombe H, giacché la fusione nucleare produce una quantità di radiazioni di gran lunga inferiore rispetto alla fissione. Pertanto, la radioattività cresce notevolmente con l’aumentare della potenza nelle bombe atomiche, ma molto meno nelle bombe H, dove è causata principalmente dalla bomba atomica che innesca il processo di fusione dell’idrogeno, la quale non ha neanche bisogno di essere particolarmente potente, dato che la fusione una volta innescata si alimenta da sola.

Così, se per una bomba da un kiloton il raggio dell’area colpita da radiazioni letali è di 0,5 km per una superficie di 0,8 km2, per una da 10 kiloton è di 4,9 km2, con una crescita più o meno in linea con l’aumento di quella colpita dall’onda d’urto. Ma già per una da 100 kiloton l’area irradiata è di soli 10,5 km2, cioè poco più del doppio della precedente, mentre l’onda d’urto distrugge un’area quasi 5 volte maggiore.

Ancor più significativo è il calo con il passaggio ai megaton, cioè alle bombe H: con una potenza da 1 megaton, infatti, l’area irradiata è di meno di 20 km2, mentre per una da 10 megaton non arriva neanche a 36 km2. Infine, per i 50 megaton della Tsar si ha un raggio di 5 km corrispondente a un’area di 80 km2: appena 100 volte maggiore di quella di una bomba-zaino da un kiloton, mentre l’onda d’urto, come abbiamo visto, colpisce un’area oltre 2.000 volte superiore.

Dunque, anche in un’esplosione nucleare la maggior parte delle vittime muore in realtà per cause “classiche”, mentre i morti da radiazioni sono una minoranza. Inoltre, paradossalmente, a produrne il maggior numero sono le armi nucleari più piccole, perché con l’aumento della potenza una parte sempre maggiore dell’area colpita da radiazioni letali viene assorbita dalla fireball, dove la morte è istantanea. Alla potenza di 13,5 megaton l’area della fireball arriva a 39,75 km2, eguagliando quella delle radiazioni letali, che da lì in poi viene quindi completamente assorbita dalla prima. Perciò, paradossalmente, le bombe H più potenti non causerebbero neanche un morto da radiazioni.

Il fallout radioattivo

Magra consolazione, si dirà. Ed è vero, per quanto riguarda le vittime. Ma queste considerazioni sono importanti per capire le conseguenze che l’uso di armi nucleari potrebbe avere al di fuori del teatro di guerra. E sono tanto più importanti se consideriamo che in questo periodo tutti stanno facendo a gara ad esasperare la minaccia al di là di ogni limite ragionevole (anche se oggi un po’ meno rispetto all’inizio della guerra: è proprio vero che ci si abitua a tutto…).

Certo, l’area interessata dal fallout, cioè dalla ricaduta di polveri radioattive, può essere assai più ampia di quella colpita dalle radiazioni prodotte al momento dell’esplosione (ciò dipende da molti fattori, anzitutto atmosferici, ma anche geografici). Ed è proprio questo che ci fa più paura, anche per il rischio che le polveri in questione possano essere trasportate lontano dal teatro di guerra, fino ad arrivarci in casa. Il rischio indubbiamente esiste, ma, ancora una volta, è assai minore di quel che si pensa.

Come riferisce ancora Wellerstein nell’articolo precedentemente citato, a Hiroshima e Nagasaki il 70% delle vittime si ebbe durante il primo giorno, mentre il resto morì entro pochi mesi a causa delle lesioni riportate (non tutte, peraltro, dovute alle radiazioni). Inoltre, molto significativamente, tale stima è condivisa sia dal gruppo di ricerca americano che da quello giapponese, che pure, come abbiamo visto, hanno seguito metodi e ottenuto risultati completamente diversi quanto al numero delle vittime.

Negli anni successivi l’aumento della mortalità per cancro nelle due zone colpite fu irrisorio, tanto che potrebbe perfino essere interamente dovuto a mere fluttuazioni statistiche. Anche volendo attribuirlo tutto agli effetti della radioattività (il che, va ribadito, è sicuramente esagerato e probabilmente anche di molto), non si supererebbero comunque le 3000 vittime, distribuite nell’arco di vari decenni.

Naturalmente, con bombe più potenti anche le polveri radioattive avrebbero una letalità maggiore, ma solo nelle vicinanze dell’epicentro. È vero infatti che potrebbero essere trasportate dall’aria e dall’acqua in giro per il mondo anche a grandi distanze, ma difficilmente potrebbero causare conseguenze gravi, giacché la loro concentrazione diminuisce proporzionalmente al crescere dell’area su cui si diffondono. Si può quindi avere una concentrazione pericolosa solo in zone relativamente limitate, perché se le polveri si disperdono su aree molto vaste diventano rapidamente innocue. Solo nel caso di una guerra nucleare globale le cose si farebbero davvero pericolose. Ma anche qui non bisogna esagerare.

Si stima che oggi nel mondo vi siano circa 13.000 testate nucleari, ciascuna delle quali contiene al massimo qualche chilo di uranio: stiamo quindi parlando in totale di qualche decina o al massimo qualche centinaio di tonnellate. Ora, giusto per dare un termine di paragone, soltanto negli oceani del mondo sono disciolte quasi 5 miliardi di tonnellate di uranio, cioè una quantità da 10 a 100 milioni di volte maggiore. All’uranio marittimo va poi aggiunto quello contenuto nelle rocce, il cui ammontare totale è più difficile da stimare perché è distribuito in modo meno uniforme, ma come ordine di grandezza non può essere molto diverso, considerato che le terre emerse coprono il 30% del pianeta. Infine, nelle rocce e nei mari vi sono altri minerali radioattivi oltre all’uranio, anche se il loro contributo è inferiore. Eppure, il fondo naturale di radioattività della Terra è così basso da farci assorbire appena 2,4 millisievert (mSv) all’anno.

Per avere un termine di riferimento, una singola TAC può farcene assorbire una quantità anche 6 volte superiore in pochi minuti, eppure non è certo pericolosa. Si comincia a correre qualche rischio per la salute solo intorno ai 100 mSv, mentre la dose letale è di 5000 mSv. Anche utilizzando l’intero arsenale nucleare terrestre, quindi, non si vede come si potrebbe innalzare il livello globale di radioattività a un punto tale da renderlo pericoloso ovunque. Certo, concentrazioni letali di polveri radioattive potrebbero crearsi in alcune zone, anche di considerevole ampiezza, ma sembra difficile che ciò possa accadere in tutto il pianeta.

A conferma di ciò, dobbiamo ricordare che dal 1945 a oggi sono stati eseguiti oltre 2.000 test nucleari, quasi tutti concentrati in soli 42 anni, dal 1951 al 1992. Nel 1958 ce ne sono stati 102, nel 1961 addirittura 140 e per tutti gli anni Sessanta si è rimasti vicini ai 100 all’anno.

La maggior parte di essi sono avvenuti sottoterra o all’interno di atolli come Bikini o Mururoa, ma circa un terzo, per un totale di oltre 400 megaton, si è svolto direttamente nell’atmosfera. Ebbene, a parte un leggero aumento dei casi di tumore in alcune delle popolazioni più vicine alle zone dei test, nell’insieme tutto ciò non ha avuto conseguenze rilevanti sulla salute della gente. Eppure, stiamo parlando di una potenza equivalente a circa un quarantesimo dell’intero arsenale nucleare terrestre odierno, stimato intorno ai 15.000 megaton.

Rischi autentici e rischi immaginari

A questo punto siamo in grado di valutare realisticamente i rischi che corriamo. E a tal fine sarà utile cominciare da quelli che non corriamo, ma di cui, ciononostante, abbiamo paura, visto quanto spesso se ne parla.

Anzitutto, non corriamo il rischio di distruggere la Terra, timore molto diffuso, ma semplicemente ridicolo. Per rendere l’idea saranno utili due termini di paragone.

Il primo è il terremoto del 26 dicembre 2004, il più violento degli ultimi 50 anni e il terzo in assoluto da quando siamo in grado di misurarli, che provocò il famoso “Tsunami di Santo Stefano” nell’Oceano Indiano. Sviluppò un’energia pari a 52.000 megaton, equivalente a mille bombe Tsar o, se si preferisce, a tre volte e mezza l’intero arsenale nucleare terrestre. Eppure, ciò si limitò a generare alcune onde alte una ventina di metri, che per noi sono enormi, ma per il pianeta rappresentano un’increspatura pari ad appena un seicentomillesimo del suo diametro: come se i capelli di un uomo alto un metro e ottanta subissero un ondeggiamento di 3 millesimi di millimetro.

Il secondo è la caduta dell’asteroide che sterminò i dinosauri, il più violento evento terrestre conosciuto. Sprigionò un’energia di almeno 100 milioni di megaton, pari ad oltre 6.600 volte quella dell’intero arsenale nucleare terrestre, creando un cratere di 180 km di diametro e 20 km di profondità e causando catastrofi inimmaginabili in tutto il globo, rispetto alle quali anche le peggiori a cui l’umanità ha assistito in tutta la sua storia sono roba da ridere. Eppure, al pianeta fece appena il solletico.

Nemmeno siamo in grado di distruggere la vita sulla Terra, cosa che non riuscì neppure all’asteroide suddetto. Anzi, quella catastrofe sbloccò la situazione di stallo in cui si trovava da tempo l’evoluzione, dominata da oltre 160 milioni di anni dai dinosauri, aprendo così la strada a una nuova fase che alla fine condusse alla comparsa della prima (e per ora unica) forma di vita intelligente conosciuta: noi. D’altronde, sappiamo che nella storia dell’evoluzione si sono verificate diverse estinzioni di massa e sempre, dopo ognuna di esse, la vita non solo è ripartita, ma è anzi progredita verso un più alto livello di complessità. Anche se noi dovessimo sparire, quindi, la vita di sicuro continuerà.

Ma anche l’estinzione della razza umana è un’eventualità molto remota. Certamente, una guerra nucleare fra Russia e Stati Uniti porterebbe alla fine della nostra civiltà in tutte le zone colpite e avrebbe gravi ripercussioni anche sulle altre, perché farebbe saltare in aria il sistema economico che abbiamo creato negli ultimi decenni (il che di per sé sarebbe positivo, dato che il sistema suddetto è completamente folle, ma sul breve periodo avrebbe conseguenze pesantissime). Alla lunga, tuttavia, in queste zone si creerebbe un nuovo ordine, magari perfino migliore di quello attuale, e l’umanità andrebbe comunque avanti.

Solo se le due superpotenze dovessero scagliarsi reciprocamente addosso tutto ciò che hanno o, peggio ancora, colpire indiscriminatamente ogni parte del pianeta la sopravvivenza dell’umanità sarebbe davvero a rischio. Questo non tanto per le distruzioni in sé stesse o per le radiazioni, che, come già si è detto, da sole non basterebbero a ucciderci tutti, ma piuttosto perché il collasso delle infrastrutture tecnologiche ci costringerebbe a ricorrere, per sopravvivere, a tecniche molto primitive di agricoltura e allevamento, cosa che ben pochi ormai saprebbero fare, perfino nelle zone in cui si vive ancora a più stretto contatto con la natura.

Tuttavia, una guerra nucleare totale è un’eventualità così estrema che appare molto improbabile, anche perché per scatenarla occorre la collaborazione di molte persone e sembra davvero difficile che di fronte all’Apocalisse nessuno si ribelli. Quello che appare invece più verosimile è un uso limitato di armi nucleari tattiche su uno specifico campo di battaglia, come appunto si teme possa accadere in Ucraina. Ma fino a che punto questo rischio è reale?

Armi tattiche e strategiche

Anzitutto va detto che, come già si accennava prima, la distinzione tra armi strategiche e tattiche non è per nulla facile da definire. In genere con il primo termine si intende un’arma di distruzione di massa, mentre col secondo si intende una bomba di potenza e gittata relativamente limitate. In realtà, però, questa è una condizione necessaria, ma non sufficiente, perché conta anche l’uso che se ne fa: solo se usata esclusivamente contro obiettivi militari sul campo di battaglia, infatti, un’arma nucleare tattica può essere considerata realmente tale.

La bomba di Hiroshima, per esempio, era di soli 15 kiloton, ma nessuno sarebbe disposto a considerarla un esempio di arma tattica, essendo stata usata per colpire il nemico sul proprio territorio e in maniera indiscriminata. Perfino un’atomica portatile da mezzo kiloton, se piazzata in una città, potrebbe raderne al suolo una porzione considerevole, pari all’intero centro di Milano: e in tal caso neanch’essa potrebbe essere considerata un’arma tattica.

D’altra parte, le bombe all’idrogeno e le atomiche più potenti, dell’ordine delle centinaia o migliaia di kiloton, non potrebbero in nessun caso essere considerate tattiche, neppure se usate solo a scopi militari, non solo a causa delle distruzioni su vasta scala che provocherebbero, ma soprattutto per il significato che avrebbero, dimostrando che il paese che le ha lanciate non intende porsi alcun limite. E neanche potrebbero essere considerate tattiche bombe di potenza limitata se venissero usate in gran numero, in modo tale che l’effetto cumulativo fosse analogo a quello delle bombe più potenti.

In definitiva, quindi, possiamo dire che le armi nucleari tattiche sono tali solo se rispettano contemporaneamente limiti riguardo alla potenza, all’utilizzo e al numero. Una tale definizione rende però molto difficile il loro impiego nel mondo reale.

Anzitutto, come ci ha mostrato l’analisi precedente, il vero punto di forza delle armi nucleari non è tanto la grandezzadell’area che sono in grado di colpire (che, soprattutto nel caso delle armi tattiche, è assai inferiore a ciò che comunemente si crede), bensì la potenza con cui la colpiscono. In altre parole, esse si caratterizzano principalmente per avere una grande potenza molto concentrata e, di conseguenza, hanno la massima efficacia contro obiettivi anch’essi molto concentrati.

Purtroppo, però, sul campo di battaglia i punti in cui le truppe nemiche sono più concentrate sono in genere gli stessi in cui sono più concentrate anche le proprie truppe, per cui è molto difficile colpire le prime senza colpire anche le seconde. E la situazione è ancor peggiore quando il fronte si trova all’interno del proprio territorio o di quello che si intende conquistare, come sta appunto accadendo attualmente in Donbass. In tal caso, infatti, oltre alle proprie truppe si finirebbe inevitabilmente per colpire anche la propria popolazione. E anche se si riuscisse a evitarlo facendola evacuare (cosa molto complicata, con una guerra in corso), le radiazioni contaminerebbero comunque tutta la zona, rendendola inabitabile per decenni.

Inoltre, come abbiamo visto prima, con una potenza limitata a qualche kiloton si può colpire un’area di non più di 15-20 km2, che sono tantissimi in una zona urbana, ma sono invece pochissimi in un campo di battaglia moderno, che può avere un’area di migliaia di km2. Pertanto, anche volendo ignorare i problemi precedenti, sarebbe in ogni caso molto difficile rovesciare le sorti di una guerra con le sole armi nucleari tattiche, a meno di usarle in così gran numero da cambiarne di fatto la natura.

Non che si tratti di considerazioni particolarmente originali. È noto che gli americani avevano esaminato la possibilità di usare armi nucleari tattiche in Vietnam, ma l’avevano scartata perché erano giunti alla conclusione che non avrebbero prodotto cambiamenti significativi nell’andamento del conflitto. Eppure, vi sono molti, anche tra gli esperti, che ancora non sembrano averlo chiaro.

Di esempi in tal senso ne abbiamo avuti a iosa, per cui mi limiterò a citare il più clamoroso, quando nelle prime settimane del conflitto Andrea Margelletti, che pure di cose militari se ne intende, aveva mostrato quello che secondo lui sarebbe stato l’effetto di una singola atomica tattica usata dai russi sul fronte sudorientale dirigendosi verso la cartina appesa al muro dello studio di Porta a porta e togliendone, senza dire una parola, tutte le figurine che rappresentavano l’esercito ucraino.

L’effetto teatrale è stato ottimo, quello comunicativo, invece, pessimo: per fare scomparire l’intero esercito ucraino da un’area vasta quanto un quarto del paese, ovvero quanto l’intera Pianura Padana, ci vorrebbero infatti almeno una decina di bombe Tsar, pari a circa un quindicesimo della potenza dell’intero arsenale nucleare russo, altro che un’atomica tattica! Inoltre, un attacco del genere in quella zona causerebbe un enorme fallout radioattivo, che, oltre all’Ucraina, devasterebbe l’intero Donbass, nonché tutte le regioni russe poste in prossimità del confine e forse perfino la stessa Mosca.

Ebbene, questo modo irresponsabile di parlare del pericolo nucleare (che certo esiste e non dev’essere sottovalutato, ma nemmeno esasperato) è un esempio perfetto di ciò che intendevo prima quando ho detto che un errore su questo punto ci può portare a prendere decisioni sbagliate.

Putin, infatti, come ho scritto in un precedente articolo (https://www.fondazionehume.it/politica/la-prevedibile-caporetto-di-putin-e-quella-inquietante-degli-esperti/), un po’ scherzando ma anche no, è certamente pazzo, ma non del tutto: diciamo all’87% o giù di lì. Ora, quel 13% di razionalità che gli resta è stato fin qui (fortunatamente) sufficiente a fargli capire che l’atomica gli può essere molto più utile se non la usa davvero, ma si limita ad agitarla come spauracchio per spaventarci, sperando di ottenere delle condizioni di pace abbastanza favorevoli da permettergli di proclamarsi vincitore, salvando così il potere e, con esso, la pelle. E se non abbiamo ben chiara la situazione rischiamo di cascarci.

La pericolosa utopia del mondo denuclearizzato

Ma non si tratta solo di Putin. Con la Bomba, infatti, dovremo purtroppo abituarci a convivere per sempre, perché un mondo completamente denuclearizzato non solo è un’utopia, ma è un’utopia pericolosa. C’è infatti un ultimo punto fondamentale da capire: qualsiasi tecnologia, una volta inventata, può sì essere distrutta, ma non può più essere “disinventata”.

Di conseguenza, un mondo denuclearizzato lo sarebbe solo in apparenza, mentre in realtà sarebbe continuamente esposto al rischio che qualche paese riuscisse a costruirsi di nascosto un proprio arsenale nucleare, anche piccolo. Diventando l’unico a possederlo, infatti, gli basterebbero poche decine di missili intercontinentali con testate di media potenza per essere in grado di distruggere tutte le principali città del mondo senza rischiare nessuna rappresaglia. Di conseguenza, chi ci riuscisse potrebbe imporre a tutti la propria egemonia molto più efficacemente di quanto possano fare oggi le maggiori potenze, che di testate ne possiedono migliaia, ma devono fare i conti con la certezza di subire, se le usano, un danno identico a quello che sarebbero in grado di causare.

Forse qualcuno obietterà che costruire di nascosto decine di bombe nucleari partendo da zero è molto difficile. Ed è vero. Ma difficile non vuol dire impossibile. E le conseguenze sarebbero così gravi che non possiamo permetterci di rischiare.

Inoltre, va tenuto presente che per i paesi più forti non sarebbe necessario mantenere il segreto fino al momento in cui le armi fossero operative, ma solo fino a quando la loro produzione fosse giunta a un punto tale da garantire un vantaggio incolmabile sul resto del mondo. A quel punto, infatti, per fermarla sarebbe necessaria una guerra condotta con armi convenzionali, che potrebbe forse avere successo in tempi sufficientemente brevi contro un piccolo “Stato canaglia”, ma non contro una grande potenza.

Ma non basta. C’è anche un altro motivo per cui questa sarebbe una pessima idea. Le armi nucleari, infatti, potrebbero essere l’unica nostra possibilità di salvezza dall’estinzione che provocherebbe un impatto cosmico con un asteroide o una cometa.

È uno scenario che abbiamo già visto in molti film di genere apocalittico, ma, per una volta, non si tratta di fantasia e neanche di una mera ipotesi, ma di un dato di fatto. Come suol dirsi, la domanda non è “se”, ma “quando”: sappiamo che accadrà perché è già accaduto, non solo coi dinosauri, ma molte altre volte.

E non è neanche una possibilità tanto remota: per metterci a rischio di estinzione basterebbe un oggetto molto più piccolo dell’asteroide dei dinosauri, diciamo intorno a un chilometro di diametro, che ha una probabilità su 100.000 di cadere durante il prossimo anno. Può sembrare poco, ma in realtà è un rischio appena 5 volte inferiore a quello che ciascuno di noi corre di morire in un incidente d’auto nello stesso periodo di tempo. Ci sembra che non sia così solo perché le morti da automobile le vediamo continuamente, essendo un “rischio distribuito” su un lungo arco di tempo, mentre quelle da asteroide no, essendo un “rischio concentrato” che si verifica tutto in una volta. Ma la percezione della gravità di un rischio non ha nulla a che fare con la sua gravità effettiva.

È per questo che ormai da decenni i corpi potenzialmente pericolosi vengono attentamente monitorati, in modo da poter intervenire con largo anticipo per deviarli con metodi “soft”. Ma se qualcuno ci sfuggisse e dovessimo accorgercene solo all’ultimo momento (eventualità che non si può assolutamente escludere), allora non resterebbe che usare i missili nucleari. E poiché l’idea di tenerne un certo numero solo per questo scopo sotto controllo internazionale è pura utopia, data la totale inaffidabilità delle istituzioni che dovrebbero occuparsene, a cominciare dall’ONU, l’unico modo di averli pronti al momento del bisogno (dato che non ci sarebbe il tempo di costruirli da zero) è che le potenze atomiche conservino almeno una parte di quelli che oggi possiedono.

Non credo che questo argomento convincerà molte persone: la guerra atomica ci fa molta più paura degli asteroidi e raramente la paura si vince coi ragionamenti, soprattutto in un tempo come il nostro, che ha eretto l’emotività a valore supremo. Eppure, i fatti dicono che lo scoppio di una guerra atomica è solo una possibilità (neanche tanto probabile), mentre l’essere colpiti prima o poi da un corpo celeste capace di ucciderci tutti è una certezza. Anche da questo punto di vista, quindi, un mondo completamente denuclearizzato sarebbe in realtà un mondo più pericoloso.

Una soluzione realistica: “MAD depotenziata” e mondo multipolare

Così stando le cose, dobbiamo rassegnarci alla situazione attuale o c’è qualcosa che possiamo fare? Per quel che vale, la mia opinione è che il problema delle armi nucleari non può essere risolto una volta per tutte, ma potrebbe essere gestito in modo tale da minimizzarne i rischi, creando una sorta di “MAD depotenziata”, dove la “D” finale non stia più per “destruction”, ma per “debilitation” o qualcosa di simile.

A tal fine bisognerebbe ridurre considerevolmente il numero di testate in circolazione, in modo che nessuno ne abbia a disposizione più di qualche decina. In questo modo, infatti, nessuna potenza atomica sarebbe più in grado di scatenare una guerra globale che minacci la sopravvivenza dell’intera umanità, anche se ognuna manterrebbe la capacità di rispondere a un attacco nucleare infliggendo al nemico danni abbastanza devastanti da scoraggiare chiunque dal provarci, perfino se riuscisse a produrre di nascosto un numero di testate maggiore di quello pattuito.

Inoltre, bisognerebbe limitare la tendenza, fisiologica ma non per questo meno preoccupante, all’aumento del numero dei paesi dotati di armi nucleari, per minimizzare il rischio che in qualcuno di essi vada al potere un dittatore pazzo al 100% (e non solo all’87%), che decida di usarle senza curarsi delle conseguenze.

A tal fine è necessario che i paesi che già le possiedono si facciano garanti, attraverso opportune alleanze regionali analoghe alla NATO, della sicurezza di quelli che non le possiedono. In fondo è la stessa strategia suggerita da Huntington nel suo celeberrimo Lo scontro delle civiltà, che in realtà era un tentativo di evitare tale scontro (che lui – giustamente – vedeva avvicinarsi) attraverso la creazione di un nuovo ordine mondiale più pluralista e multipolare e, soprattutto, che rifletta gli attuali rapporti di forza e non quelli del 1945 su cui si basa ancora l’ONU, che infatti non funziona.

Inoltre, è molto importante che la guerra in corso sia vinta dall’Ucraina, unico paese al mondo, finora, ad avere accettato un accordo del genere dopo avere rinunciato spontaneamente alle proprie  armi nucleari (come il Sudafrica, che però ne possedeva appena 6). Al momento della dissoluzione dell’URSS, infatti, l’Ucraina aveva ben 1300 testate, che restituì alla Russia nel 1994 con la firma del Memorandum di Budapest in cambio della solenne promessa che quest’ultima ne avrebbe in futuro garantito e protetto la sovranità e l’indipendenza. Abbiamo visto tutti com’è finita…

Già di per sé il tradimento di questo accordo da parte della Russia spingerà di sicuro molti paesi che non possiedono ancora armi nucleari a volersene dotare, ma è chiaro che, se l’Ucraina dovesse perdere, questa tendenza verrebbe ulteriormente rinforzata, mentre una sua vittoria dimostrerebbe che dopotutto è possibile difendere la propria indipendenza anche contro una superpotenza nucleare facendo unicamente uso di armi convenzionali.

Dimenticare l’Apocalisse per evitarla

Resta però un ultimo problema. Una soluzione come quella che ho suggerito può essere attuata solo attraverso una serie di complessi accordi internazionali, che presuppongono sì un certo grado di ostilità tra le principali potenze (altrimenti il problema non si porrebbe), ma anche un certo grado di collaborazione, di cui oggi purtroppo non vi è traccia. Cosa dovremmo fare, allora, mentre aspettiamo che  le cose cambino, di fronte a potenze nucleari che sembrano animate da una volontà malefica, più ottusamente violenta nel caso della Russia, più fredda e calcolatrice ma ugualmente spietata nel caso della Cina?

Ebbene, la risposta è l’esatto contrario di quello che in genere i commentatori dicono della Russia quando vogliono apparire particolarmente intelligenti e pensosi: «Non dimentichiamoci che abbiamo a che fare con una potenza nucleare». Ecco, invece dovremmo proprio dimenticarcene.

Dato infatti che con questa minaccia dovremo conviverci per sempre, far vedere che siamo disposti a cedere di fronte a chiunque disponga di armi atomiche sarebbe il modo migliore per incoraggiare tutti i dittatori, i pazzi e i criminali di questo mondo a dotarsene e, per chi le ha già, a considerare seriamente la possibilità di usarle. Certo, anche resistere è rischioso (la vita è un rischio…), però meno. Anche perché i prepotenti in genere sono vigliacchi e si fanno forti solo con i deboli, mentre davanti a un’opposizione risoluta abbaiano molto, ma mordono poco.

In questo periodo si è citata spesso (e spesso a sproposito) la crisi dei missili sovietici a Cuba, cioè il solo momento, finora, in cui il mondo si è trovato davvero a un passo dalla guerra nucleare. Ma se questa alla fine non ci fu, lo si deve al fatto che Kennedy dimostrò ai sovietici di non aver paura di farla (anche se, ovviamente, ce l’aveva). Poi, certo, dopo che ebbero fatto marcia indietro fece loro anche alcune concessioni. Ma dopo.

Se gliele avesse fatte prima, dimostrando di temerli, li avrebbe solo incoraggiati ad andare avanti con il loro folle piano.

E probabilmente noi oggi non saremmo qui a parlarne.




La frattura tra ragione e realtà 2 / Il “comunismo eterno” e la (impossibile?) riforma della sinistra

Nel mio ultimo articolo avevo cercato di dimostrare come Putin sia rimasto sostanzialmente un comunista sovietico degli anni Settanta. Ma allora perché la sinistra si ostina a considerarlo un “fascista”? La mia risposta è che essa «non ha mai fatto realmente i conti con il comunismo», il che «ha avuto e ha tuttora conseguenze profonde, non solo quanto al giudizio su Putin, ma anche quanto alla questione di fondo della crisi di identità della sinistra e del suo possibile (o impossibile) rinnovamento». Proprio quest’ultimo aspetto viene discusso nel presente articolo, suggerendo, in base all’analisi fatta da Luca Ricolfi nel suo ultimo libro “La mutazione”, che una forza di sinistra davvero adeguata ai tempi dovrebbe essere comunitaria ma non comunista, cioè l’esatto opposto di ciò che è attualmente.

Confesso che da molto tempo avevo in mente di scrivere questo articolo, ma poi c’erano sempre questioni più urgenti e così ogni volta rimandavo. La spinta decisiva me l’hanno data due recenti avvenimenti: anzitutto il risultato delle ultime elezioni, con la vittoria, per più di un aspetto storica, comunque la si voglia valutare, della destra italiana guidata da Giorgia Meloni; e poi l’illuminante analisi della vicenda che a tale risultato ha condotto, fatta da Luca Ricolfi nel suo ultimo libro, La mutazione. Come le idee di sinistra sono migrate a destra, uscito da pochi giorni, che mi ha molto aiutato a migliorare la qualità delle mie argomentazioni (delle quali comunque io solo sono responsabile).

Partiamo proprio da qui. Come dice giustamente Ricolfi, oggi «esistono due sinistre: una liberal, illuminista, cosmopolita e pro mercato, l’altra anticapitalista, internazionalista e non priva di nostalgie romantiche per “il mondo fino a ieri”» (Ricolfi, La mutazione, p. 27).

La prima, la “vecchia” sinistra, molto minoritaria a livello politico, ma assai meglio rappresentata tra gli intellettuali, è molto critica verso l’attuale assetto di potere nel mondo e, in particolare, vero la globalizzazione e si richiama esplicitamente a Marx, forse addirittura più di quanto facessero i vecchi partiti comunisti occidentali.

Al contrario, «la sinistra moderna post 1989 ripudia senza ambiguità il comunismo, accetta il capitalismo e l’economia di mercato, crede nei benefici della globalizzazione, è cosmopolita, combatte le discriminazioni, difende gli immigrati, è impegnata nelle grandi “battaglie di civiltà”: unioni civili, eutanasia, liberalizzazione delle droghe, diritti LGBT», diventando di fatto, come già profeticamente previsto da Augusto Del Noce quarant’anni fa, «una sorta di partito radicale di massa, dimentico della questione sociale e ossessionato dalla tutela di alcune specifiche minoranze» (Ricolfi, La mutazione, pp. 17 e 189)

Concordo in tutto, salvo che su quel “ripudio senza ambiguità”. Si tratta però di un disaccordo più apparente che reale, dato che poco più avanti lo stesso Ricolfi scrive: «Alle volte mi viene da pensare che, a dispetto di ogni riconversione, revisione, autoriforma e sforzo di modernizzazione, gli eredi del Partito Comunista siano rimasti profondamente e irrimediabilmente leninisti nell’anima, prigionieri dell’idea che il popolo non sia in grado di prendere coscienza dei propri interessi da sé, e che per far maturare tale coscienza siano indispensabili le “avanguardie”, guide politiche e spirituali delle masse incolte» (Ricolfi, La mutazione, p. 56).

Quel che tenterò qui di documentare è che tale sospetto è più che giustificato e che le cose stanno proprio così: nel profondo della sua anima anche la sinistra liberal, rappresentata in Italia dal PD, è rimasta comunista. Ciò dipende dal fatto che la sinistra tutta, sia “vecchia” che “nuova”, non ha mai dato un giudizio chiaro sulla natura totalitaria del comunismo in quanto tale (e non solo su questa o quella sua concreta realizzazione) e, di conseguenza, crede ancora in molte idee che da esso derivano e che di esso conservano la suddetta natura totalitaria, rendendo così molto difficile una sua autentica riforma.

Con questo, naturalmente, non voglio dire che la sinistra creda ancora al comunismo nel suo insieme: la rivoluzione armata e la dittatura del proletariato erano state messe in soffitta ben prima della caduta del Muro e oggi anche quel che resta della “vecchia” sinistra marxista «ha perso del tutto l’antica fiducia nell’avvento del comunismo», per cui «le devastazioni del capitalismo» non sono più viste «come tappe indispensabili di una traiettoria segnata dalle leggi inesorabili dei movimento del capitale», bensì «solo come segno dello strapotere dei giganti dell’economia, che travolgono e sottomettono ogni cosa, preparando la strada all’incubo di un governo mondiale, che tutto sorveglia e tutto omologa nel segno del consumismo e del superamento di ogni limite morale» (cfr. Ricolfi, La mutazione, pp. 62-63).

Proprio per questo, paradossalmente, questa sinistra “comunitaria” (come la chiama Ricolfi sulla scia di Marcello Veneziani) sperimenta a volte curiose convergenze con la destra, anch’essa critica verso la globalizzazione e l’individualismo e attenta alle identità e agli aspetti comunitari. Lo si è visto in modo clamoroso in occasione delle ultime elezioni, dove a demonizzare al di là di ogni ragionevolezza (e spesso anche di ogni decenza) Giorgia Meloni e la sua destra vittoriosa è stata la sinistra “moderna” e (teoricamente) “moderata”. Al contrario, quella “vecchia” e (teoricamente) “estremista” si è comportata in modo molto più rispettoso e, pur nel quadro di una sostanziale opposizione (ci mancherebbe!), ha perfino mostrato interesse per alcuni aspetti del suo programma.

Tuttavia, ciò premesso, bisogna riconoscere che è difficilissimo trovare un qualsiasi intellettuale di sinistra (non solo in Italia, ma in qualsiasi paese europeo) che sia disposto ad ammettere, “senza se e senza ma”, che il comunismo è un’ideologia intrinsecamente totalitaria e quindi irrimediabilmente violenta e oppressiva, al pari del fascismo. Anzi, molti lo considerano ancor oggi un faro di democrazia e di civiltà, «per l’antico riflesso condizionato, che per tanto tempo ha portato la cultura di sinistra a giudicare il comunismo per i suoi (nobili) fini, anziché per gli (ignobili) mezzi con cui ha tentato di imporli» (Ricolfi, La mutazione, p. 143).

Il massimo che si è sentito dire al proposito dai leader della sinistra (e anche questo solo in momenti molto speciali, quando qualche spiegazione non si poteva proprio evitare di darla, per esempio in occasione del cambio del nome del PCI in PDS) è che il comunismo sarebbe stato «superato dalla storia», come disse Achille Occhetto per giustificare, appunto, la svolta della Bolognina. Tale affermazione, però, non solo non costituisce una vera condanna, ma è essa stessa in perfetto stile comunista, giacché per il comunismo, così come per l’idealismo hegeliano, di cui il marxismo è figlio legittimo, non esistono giudizi morali, ma soltanto storici, o, più esattamente, storicisti.

Per Hegel come per Marx esiste infatti una razionalità intrinseca alla Storia (per il primo lo Spirito, per il secondo l’economia) che ne guida lo sviluppo in modo deterministico attraverso un processo “dialettico” di opposti che devono essere superati in una “sintesi” superiore. Per dirla con la celeberrima espressione di Hegel: «Ciò che è razionale è reale e ciò che è reale è razionale» (Lineamenti di filosofia del diritto, 1821). Di conseguenza, ogni tappa di tale processo è inevitabile e quindi ultimamente positiva per definizione, anche quando ci può apparire il contrario, dato che è un passo necessario verso il futuro, che è per definizione migliore. L’unico comportamento davvero censurabile (e peraltro destinato inesorabilmente al fallimento) è quindi opporsi a tale processo.

Benché oggi nessuno sostenga più apertamente questa tesi, essa tuttavia sopravvive (implicitamente ma realmente) nel concetto stesso di “progressismo”, che identifica il “progresso” col Bene per definizione e fa sì che chi lo sostiene si senta, sempre per definizione, “dalla parte giusta della Storia” (concetto ancora una volta hegeliano e marxista).

Esattamente alla stessa conclusione giunge anche Ricolfi: «Dovessi riassumerla in una formula, direi che le cose sono andate come sono andate perché sinistra e destra hanno un differente rapporto con il “progresso” […]. Per la cultura di sinistra la freccia del tempo storico punta sempre nella direzione giusta: ieri perché il capitalismo era una tappa necessaria sul cammino che avrebbe portato al socialismo, oggi perché l’evoluzione culturale e l’evoluzione del diritto possono incanalare il capitalismo sui giusti binari, specie se a guidare la corsa sono i progressisti», mentre «la destra, a differenza della sinistra, percepisce il lato oscuro del progresso, o meglio, di quel che i progressisti vedono come progresso»(Ricolfi, La mutazione, pp. 195-200).

È importante capire che questo sentimento di superiorità («il complesso dei migliori», come lo chiama Ricolfi) non è frutto di semplice arroganza, ma nasce da una precisa posizione filosofica, che sta al cuore della formulazione originaria della teoria marxista della Storia. E questo si tira dietro tutta una serie di conseguenze, che ingombrano e intossicano tuttora la mente degli esponenti della sinistra, impedendo loro di cambiare davvero e causando quel «vuoto di idee» e quel «non vivere nella realtà» di cui parlava giustamente Luca Ricolfi in una sua intervista immediatamente successiva alle elezioni vinte da Giorgia Meloni (https://www.fondazionehume.it/politica/oggi-la-sinistra-dice-cose-di-destra/).

La prima di tali idee sbagliate è la demonizzazione dell’avversario, che in quest’ottica è inevitabile. Se infatti i progressisti stanno per definizione dalla parte giusta della Storia, chiunque non stia con loro sta, sempre per definizione, dalla parte sbagliata e pertanto non può mai essere “semplicemente” un avversario da battere, bensì sempre e soltanto un nemico da abbattere.

Strettamente collegato a tale atteggiamento teorico è la qualificazione di chiunque si opponga al progresso come “fascista”, il che di per sé non ha una giustificazione teorica, ma storica. I partiti comunisti europei e l’Unione Sovietica, infatti, fanno parte dei vincitori della Seconda Guerra Mondiale, dove il grande sconfitto è stato il nazifascismo. E poiché, come tutti sappiamo, la storia la scrivono i vincitori, quest’ultimo è stato identificato non solo come il principale, ma come l’unico responsabile di essa e dei suoi orrori.

Ciò ha generato in tutto l’Occidente un’asimmetria di giudizio rispetto al comunismo, che è stato da allora giudicato sostanzialmente “accettabile” anche dai suoi avversari, nonostante le gravi responsabilità dell’Unione Sovietica nel favorire la guerra con lo scellerato patto Ribbentrop-Molotov e la conseguente spartizione della Polonia e nonostante che essa e i partiti comunisti suoi alleati avessero abbattuto le dittature nazifasciste solo per instaurare delle dittature comuniste.

Tuttavia, questa motivazione storica è stata col tempo trasformata in una affermazione teorica, identificando il progressismo con l’antifascismo anche in linea di principio. Ciò infatti implica che chiunque si opponga al progressismo diventi per definizione un “anti-antifascista” e quindi un fascista, secondo un meccanismo logico tanto scorretto quanto efficace che era stato evidenziato già negli anni Ottanta da Augusto Del Noce.

Questo trucco negli ultimi tempi è stato opportunamente “aggiornato”, in modo da assecondare l’evoluzione della “nuova” sinistra, che, essendo passata dalla difesa delle classi povere a quella degli immigrati e delle minoranze LGBT, identifica ora il progressista come antirazzista (inteso in senso lato, includendovi ogni forma di discriminazione, anche se non c’entra nulla con la razza) e, di conseguenza, l’anti-progressista come anti-antirazzista e quindi razzista (cfr. Ricolfi, La mutazione, pp. 96-97). Tuttavia, la formulazione originaria era sopravvissuta sottotraccia, come ha dimostrato il risultato delle ultime elezioni, che “ha svelato i pensieri di molti cuori”.

Infatti, di fronte al primo governo della storia italiana guidato dalla destra, erede, sia pure nella discontinuità, del vecchio MSI, la sinistra ha abbandonato anche le ultime cautele verbali che aveva mantenuto perfino con Berlusconi, dicendo finalmente fino in fondo ciò che davvero pensava e verosimilmente aveva sempre pensato: chiunque si opponga alla sinistra è per definizione un “fascista”.

Questo argomento puramente “logico” viene poi completato e integrato dalla teoria del cosiddetto “fascismo eterno”, formulata da Umberto Eco nel 1995 e opportunamente riesumata anch’essa nelle ultime settimane. Essa bolla infatti come “fasciste per natura” determinate idee, rendendole così indifendibili da qualunque movimento politico, indipendentemente dal suo rapporto con il fascismo storico.

Un esempio emblematico è quello del motto “Dio, patria, famiglia”. Non c’è dubbio che esso sia stato spesso strumentalizzato dai regimi fascisti, ma ciò non significa che chiunque creda in tali valori debba per ciò stesso essere considerato fascista. Tra l’altro, ciò porterebbe ad espellere dal consesso democratico tutti i credenti di qualsiasi religione, a meno che accettino di relegare completamente nella dimensione privata la propria identità. Dovrebbe essere evidente a qualunque sincero democratico quanto ciò sia non solo inaccettabile, ma anche pericoloso. Eppure, in queste settimane lo abbiamo sentito ripetere in continuazione, perfino durante il dibattito sulla fiducia alla Camera, in cui Giuseppe Conte ha esplicitamente definito questi valori «reazionari».

Questo atteggiamento è poi ulteriormente esacerbato dalla convinzione che chi si oppone al giusto corso della Storia è destinato fatalmente alla sconfitta, sicché, quando ciò non accade, si scatenano regolarmente reazioni di rabbiosa incredulità, tanto più pericolosa in quanto a suo modo sincera. Questo meccanismo psicologico lo abbiamo visto all’opera in modo particolarmente chiaro proprio in occasione delle ultime elezioni. Infatti, la vittoria della destra meloniana, per quanto ampiamente annunciata, per molti esponenti della sinistra resta tuttora qualcosa di inconcepibile, il che li ha spinti a una violenza verbale mai vista prima e francamente preoccupante.

In queste settimane, infatti, i progressisti hanno bollato come “fascista” praticamente qualsiasi espressione uscisse di bocca agli esponenti della maggioranza, con esiti in alcuni casi addirittura grotteschi. Solo per fare un esempio, sempre nel dibattito sulla fiducia Enrico Letta è arrivato a sostenere che espressioni come “merito”, “natalità”, “sovranità alimentare” e perfino “made in Italy”, aggiunte dal governo al nome di alcuni ministeri, «ricordano il Ventennio». Ci sarebbe solo da ridere, se non fosse per la carica di vero e proprio odio con cui queste assurdità sono state pronunciate.

E non si tratta soltanto di parole, perché tale demonizzazione dell’avversario ha già prodotto in passato gravi discriminazioni (basti pensare a come sia difficile trovare spazio nell’establishment culturale occidentale per chiunque non condivida le “parole d’ordine” della sinistra) e talvolta addirittura vere e proprie persecuzioni. Per non parlare, poi, del frequente uso politico della giustizia, che rischiamo di vedere presto tornare alla ribalta.

Ma se di questi atteggiamenti almeno si discute e vi sono perfino alcuni intellettuali di sinistra (per quanto ancora troppo pochi) che li condannano, ci sono altre sopravvivenze dell’originaria matrice comunista, meno evidenti, ma non meno reali e soprattutto non meno gravi, che invece non vengono mai messe in discussione (per analogia potremmo chiamarle “comunismo eterno”, anche se in questo caso c’è invece un preciso rapporto di continuità con il comunismo storico).

La sinistra liberal vive infatti una contraddizione di fondo, perché continua, nonostante tutto, ad «autopercepirsi come paladina degli ultimi», nascondendosi dietro la foglia di fico del sostegno «agli immigrati, e alle battaglie a difesa delle minoranze LGBT». Ciò le consente per la maggior parte del tempo di «continuare a eludere la domanda fondamentale: perché i ceti popolari le hanno voltato le spalle, e preferiscono votare per i partiti di destra?» (Ricolfi, La mutazione, p. 55). Tale domanda, tuttavia, potrà essere rimossa quanto si vuole, ma continuerà a sopravvivere sottotraccia, turbando i sonni dei suoi  militanti, finché il PD continuerà a proclamarsi “di sinistra”.

Così, ogniqualvolta la sinistra liberal sente il bisogno di dire qualcosa davvero di sinistra, la sua cattiva coscienza la spinge a tornare ai suoi temi tradizionali. Quello che dovrebbe fare, invece, sarebbe tornare al suo elettorato tradizionale, i cui problemi sono in gran parte nuovi e richiedono quindi soluzioni anch’esse nuove. In tal modo, la sinistra liberal finisce per usare la crisi come una scusa per tornare (provvisoriamente) indietro, anziché come un’opportunità per andare (finalmente) avanti. E così, anziché chiarirsi le idee, finisce per confondersele sempre più.

In altre parole, quelli che da sinistra imputano (giustamente) le sconfitte elettorali al fatto che il PD, nei suoi tentativi di ammodernamento, è diventato troppo poco di sinistra, spesso, probabilmente senza rendersene neanche pienamente conto, intendono dire (erroneamente) che è diventato troppo poco comunista. Invece il vero problema è che lo è ancora troppo.

Ciò si vede innanzitutto dal tema delle alleanze. Fin dalla sua fondazione il PDS-DS-PD ha continuamente oscillato fra il tentativo di rompere definitivamente con i tradizionali alleati dell’estrema sinistra quando le cose vanno bene e la tentazione di tornare ad allearsi con essi alla prima batosta subita. Ma se l’alleanza con la sinistra comunista è ritenuta accettabile, allora ciò significa che in fondo anche le sue idee sono ritenute accettabili (o quantomeno “non inaccettabili”) anche per il nuovo soggetto politico che si vorrebbe costruire, col che non si capisce più in cosa dovrebbe consistere la sua novità.

E lo stesso vale a livello internazionale. Abbiamo già visto come per combattere Putin la sinistra si senta costretta a dipingerlo come un fascista anziché come un epigono del comunismo sovietico, ma non è un caso isolato. Solo per fare un esempio, era il 2009 e il segretario del PD non era Togliatti, ma Franceschini, quando il dittatore comunista Hugo Chávez, che ha ridotto alla fame uno dei paesi potenzialmente più ricchi del mondo come il Venezuela, veniva accolto trionfalmente alla Mostra del Cinema di Venezia da tutto l’establishment progressista. Altro esempio: il principale referente del regime comunista cinese per il suo progetto di colonizzazione dell’Europa attraverso la Nuova Via della Seta è da sempre Romano Prodi. E, per stare all’attualità, vogliamo parlare di Lula?

D’accordo, rispetto a Bolsonaro era il male minore, soprattutto per l’Amazzonia, che oggi ha un valore speciale per tutto il mondo. Ma da qui a beatificarlo ce ne corre, visto che la sua scarcerazione si deve a un cavillo formale. La realtà dei fatti è che Lula è stato uno dei principali protagonisti del più grande fenomeno di corruzione della storia umana, lo scandalo Odebrecht, che per anni ha distribuito tangenti per quasi un miliardo di dollari in tutta l’America Latina. Lula aveva addirittura la propria firma sul conto segreto di Marcelo Odebrecht, per cui pagava le tangenti personalmente, senza neanche doverglielo chiedere. Ma niente: Lula è di sinistra, quindi Lula è innocente, anzi, è un santo. È chiaro che finché si (s)ragiona così non si va da nessuna parte.

Invece, se si vuole davvero costruire una sinistra adeguata ai nostri tempi occorre innanzitutto riconoscere che essere di sinistra non significa necessariamente essere comunisti, anzi, che significa necessariamente non esserlo, perché il comunismo ha dimostrato di non essere in grado di risolvere realmente i problemi delle classi disagiate. Di conseguenza, bisogna abbandonare una volta per tutte non solo il comunismo nel suo insieme, ma anche tutti quei pregiudizi che dal comunismo derivano e che scattano implacabilmente, come dei veri e propri riflessi condizionati, ogni volta che si affronta il problema di una vera riforma della sinistra, finendo per renderla di fatto impossibile.

Uno di tali pregiudizi l’ho già accennato prima ed è il laicismo settario, che è cosa ben diversa da una sana laicità e porta gran parte della sinistra a ritenere pregiudizialmente inaccettabile qualsiasi proposta politica che si ispiri a valori religiosi e, in particolare, cattolici, indipendentemente dal contenuto. Un esempio molto attuale è la polemica sull’aborto: una cosa, infatti, è difendere la 194, altra cosa, ben diversa, è bollare come “fascista” chiunque voglia valorizzare maggiormente i Centri di Aiuto alla Vita, previsti da una norma (in gran parte mai applicata) della stessa 194.

Un altro pregiudizio è la tendenza a ragionare in termini di “classi” astratte. Ciò può sembrare strano, perché molti rimproverano alla sinistra proprio di avere abbandonato la lotta di classe, il che almeno in parte è vero (anche perché almeno in parte la lotta di classe non esiste più). Ma ciò che di tale idea è sopravvissuto è la tendenza a pensare che i diritti delle persone siano determinati solo dal gruppo sociale a cui appartengono e non anche dalle loro convinzioni e dalle loro azioni.

Così, per esempio, esisterebbero i diritti “delle donne”, quelli “degli omosessuali”, quelli “dei lavoratori”, quelli “degli studenti”, quelli “degli immigrati” e così via, che tutti gli appartenenti ai gruppi suddetti devono condividere per definizione. Per determinare quali siano i suddetti diritti si ricorre infatti a un altro concetto tipicamente marxista (anche se la formulazione originaria è giacobina): quello, ricordato anche da Ricolfi, delle “avanguardie illuminate” che rappresentano la “coscienza di classe”, nel senso che la loro opinione è per definizione quella di tutti gli appartenenti al gruppo sociale in questione, compresi quelli che non la condividono – o meglio, che “non sanno ancora” di condividerla.

Di fatto, però, le cose non stanno così: per quanto gli esponenti della sinistra trovino difficile crederlo, ci sono donne contrarie all’aborto, omosessuali che non rivendicano il diritto di adottare, lavoratori a cui non piace l’assistenzialismo, studenti che vorrebbero una scuola più selettiva, immigrati che non vogliono l’accoglienza indiscriminata, ecc. Ma poiché essi non dovrebbero pensarla così, il risultato è che tutti costoro sono bollati non solo come “fascisti”, ma addirittura come non realmente appartenenti alle proprie categorie, cioè, di fatto, come delle non-persone.

La cosa è particolarmente grave nel caso delle donne, che se non aderiscono ai valori progressisti sono accusate di essere nemiche delle donne, come se non fossero donne esse stesse. Si è arrivati all’assurdo di accusare di discriminazione e, ovviamente, di “fascismo” perfino figure storiche del femminismo e della lotta per i diritti LGBT come Kathleen Stock in Inghilterra e Marina Terragni in Italia (cfr. Luca Ricolfi, https://www.fondazionehume.it/societa/il-caso-stock-e-la-nostra-liberta/; si veda anche la tavola rotonda con Ricolfi e la stessa Terragni da me organizzata nella mia Università dell’Insubria: https://www.youtube.com/watch?v=XTWboWfh9wA&t=14s).

Un alto esempio inquietante si è visto durante il governo Conte, con le assurde discriminazioni, concettuali prima ancora che economiche, verso i lavoratori autonomi, che non solo si sono visti riconoscere aiuti ridicoli, ma addirittura non erano nemmeno inclusi nella categoria dei lavoratori (nei DPCM contiani c’erano «i lavoratori» e poi «gli autonomi»). Per la sinistra, infatti, non solo gli autonomi non sono ritenuti “veri” lavoratori, ma spesso vengono considerati ricchi per definizione (anche quando non lo sono) e perciò evasori fiscali, secondo il principio per cui i poveri sono di per sé “buoni”, mente i ricchi sono di per sé “cattivi” (tranne, ovviamente, quando sono di sinistra).

Se qualcuno pensa che esageri, faccio presente che quando Giorgia Meloni nel suo discorso per la fiducia alla Camera ha ricordato che il suo partito non ha mai accettato questa discriminazione, concludendo che «per noi un lavoratore è un lavoratore», Lucia Annunziata ha definito questa affermazione «peronista» (Discorso peronista che divide il paese, editoriale di La Stampa del 26/10/2022), che nel gergo della sinistra equivale sostanzialmente a “fascista” (anche se Perón fascista non lo è mai stato e semmai aveva tendenze di sinistra, ma che importa?).

Ma il caso più clamoroso è quello della stessa Meloni, che, essendo rea di non sostenere i valori “delle donne” (cioè i valori che secondo i progressisti tutte le donne dovrebbero condividere), viene trattata di fatto come una non-donna. Se così non fosse, infatti, la sua nomina a premier sarebbe stata celebrata da tutti i media progressisti a lettere cubitali, essendo stata la prima donna nella storia italiana a riuscirci, battendo paesi come USA, Francia e Spagna che vengono regolarmente considerati più “evoluti” del nostro. Invece, niente: solo qualche breve accenno nell’occhiello o nel catenaccio, zero nei titoli. Addirittura, con sovrano sprezzo del ridicolo, qualcuno è arrivato a dire che questo storico risultato è meno importante della sua scelta di farsi chiamare “il” presidente, che sarebbe “maschilista”, “patriarcale” e – naturalmente – “fascista”.

E questo atteggiamento non vale solo per le singole classi sociali, ma anche per la società nel suo insieme. In tal modo, si stabiliscono, sempre ad opera delle avanguardie illuminate di cui sopra,  determinati valori e comportamenti a cui tutti devono aderire, sotto pena, manco a dirlo, di essere altrimenti dichiarati “fascisti” o “razzisti”.

È così che è nato il politically correct, su cui non dirò nulla, perché ha già detto tutto Ricolfi nel secondo capitolo del suo libro, nonché nel Manifesto del libero pensiero, scritto insieme a Paola Mastrocola,  a cui dunque rimando. Ma così è nato anche il pandemically correct (cfr. Paolo Musso, https://www.fondazionehume.it/politica/il-virus-dellautoritarismo/), cioè l’insieme di tutti quei comportamenti suppostamente “virtuosi” (anche se in gran parte scientificamente infondati e spesso disastrosi) impostici dal governo giallorosso, la cui acritica accettazione è ancor oggi per la sinistra, contro ogni evidenza e ragionevolezza, un preciso dovere di ogni cittadino “democratico”.

Il prossimo passo sarà la nascita dell’ecologically correct, che in realtà in gran parte già esiste, anche se non è (ancora) arrivato al punto di produrre vere discriminazioni ai danni di chi lo rifiuta. Ma ci arriverà. E quando accadrà, sarà ancor più pericoloso degli altri due. Per questo ne parlerò diffusamente nei prossimi articoli.

Altro pregiudizio particolarmente deleterio è lo statalismo. Naturalmente non sto qui criticando qualsiasi forma di statalismo: possono esserci, e ci sono state di fatto nella storia, politiche stataliste che hanno dato buoni risultati (per esempio quelle keynesiane), anche se personalmente sono convinto che possano funzionare solo in momenti particolari, mentre a gioco lungo fanno sempre più male che bene. Ma quello che fa sempre più male che bene (anzi, fa soltanto male) è lo statalismo ideologico, per il quale tutto ciò che viene fatto dallo Stato avrebbe per definizione una superiorità morale, il che lo porta inevitabilmente ad assumere caratteri tendenzialmente totalitari.

Anche questo lo abbiamo visto durante il Covid, con la guerra del governo giallorosso alla Sanità regionale, soprattutto a quella lombarda (da sempre nel mirino della sinistra perché dimostra l’efficacia del principio antistatalista della sussidiarietà), ma anche a quella veneta, “rea” di aver disubbidito alle scellerate indicazioni della OMS, nonostante in questo modo Zaia e Crisanti avessero salvato migliaia di vite.

Ancor più chiaramente lo si è visto col reddito di cittadinanza, che è stato criticato per molti motivi, anche giusti, ma mai per quello più importante. Nella sua versione originaria, infatti, poteva perfino essere una buona idea (e lo dico io che i 5 Stelle li detesto), dato che non era puramente assistenzialistico, ma prevedeva la creazione di una rete capace di mettere in comunicazione la domanda e l’offerta di lavoro, unita all’obbligo per i beneficiari di seguire corsi di formazione e di accettare le proposte che avrebbero ricevuto, pena la perdita del reddito stesso. In Olanda esiste un sistema analogo che funziona molto bene. Perché allora da noi ha fallito?

La causa fondamentale è stata l’incompetenza di chi doveva gestirlo, i cosiddetti “navigators”. Ma ciò è accaduto perché in Italia le uniche agenzie di collocamento che funzionano sono quelle private, per le quali però i 5 Stelle hanno sempre nutrito un odio ideologico profondissimo (chiaramente derivato da quello della sinistra perché motivato con gli stessi argomenti, anche se il M5S all’inizio non era né di destra né di sinistra). Così, anziché stabilire con esse una collaborazione basata su opportune convenzioni, integrandole in un sistema misto pubblico-privato, come succede in tanti altri paesi, hanno preferito assumere persone prive di qualsiasi esperienza attraverso un concorso pubblico basato essenzialmente su domande di cultura generale.

L’ultimo esempio, fra i tanti che si potrebbero fare, è l’inquietante idea dell’asilo obbligatorio. La polemica è esplosa quando Letta l’ha tirata fuori in campagna elettorale, salvo poi ridimensionarla subito, viste le reazioni negative, dicendo che la intendeva solo dai tre anni in su (che comunque è sempre troppo presto). Ma in realtà Bonaccini, molto vicino a Letta, generalmente ritenuto un moderato e da molti indicato come l’ennesimo “uomo della Provvidenza” che dovrebbe finalmente modernizzare il PD, la sostiene da anni, includendo esplicitamente anche l’asilo nido.

Come se non bastasse, Simona Malpezzi, capogruppo del PD al Senato nella scorsa legislatura, l’ha giustificata sostenendo che «significa semplicemente dire che si vuole lavorare contro la povertà educativa». Peccato però che ciò significa semplicemente dire che la famiglia non sa educare, mentre lo Stato sì: e questa, ahimè, è ancora una volta un’idea totalitaria. Tanto più, poi, che la sinistra è da sempre ostile alle scuole e agli asili privati e vorrebbe un’educazione esclusivamente statale, che ora vorrebbe addirittura far cominciare dalla culla.

Anche l’evoluzione della sinistra verso un’idea sempre più formalistica dell’educazione stessa e della scuola, così ben descritta da Ricolfi nel terzo capitolo del suo libro, è dovuta, oltre che alle cause da lui individuate, anche all’idea che ciò che conta davvero per l’inclusione sia il riconoscimento da parte dello Stato, indipendentemente dalle capacità che si sono (o non si sono) realmente acquisite.

Infine (e così chiudiamo il cerchio), gli esponenti della sinistra sono disposti a riconoscere come “giuste” solo ed esclusivamente le guerre che fanno loro, indipendentemente dalle motivazioni oggettive. Per quanto riguarda il passato gli esempi sono sotto gli occhi di tutti: qui mi limiterò pertanto a ricordare lo sciagurato intervento in Libia, dove la sinistra riuscì nel capolavoro di accusare Berlusconi sia di aver cercato di salvare Gheddafi (all’inizio), sia di aver contribuito ad abbatterlo (alla fine).

Ma anche sulla guerra in Ucraina sta accadendo qualcosa di analogo, che merita invece di essere descritto in dettaglio, visto che fino alla manifestazione di domenica scorsa nessuno sembrava essersene accorto e che, per altro verso, è particolarmente emblematico della schizofrenia della sinistra, incapace, come dicevo prima,  di scegliere tra la sua proclamata modernità e i suoi vecchi “tic” comunisteggianti. Infatti, non appena perse le elezioni il PD ha cominciato a riposizionarsi, in modo all’inizio quasi impercettibile, poi sempre più evidente, proprio come avevano fatto tre mesi prima i 5 Stelle (cfr. Paolo Musso, https://www.fondazionehume.it/politica/la-prevedibile-caporetto-di-putin-e-quella-inquietante-degli-esperti/).

Anzitutto, domenica 2 ottobre, cioè esattamente una settimana dopo la sconfitta elettorale, Massimo Giannini, direttore di La Stampa (attualmente il quotidiano italiano più filo-PD, tanto che ha perfino varato un inserto satirico, Il giornalone, chiaramente ispirato al mitico Cuore dell’Unità), pubblica un editoriale intitolato Siamo tutti ucraini ma per la pace serve una via. In esso Giannini sostiene che finora la fermezza è stata giusta, ma adesso, con l’aumentare del rischio di una guerra atomica, bisogna assolutamente trattare, dimenticando allegramente che tale rischio è sempre esistito (anche se è basso) e, soprattutto, che fino al giorno prima a chi diceva le stesse cose aveva sempre rimproverato di non capire che le trattative sono impossibili perché Putin non le vuole.

Passa una settimana e il 9 ottobre, intervenendo alla trasmissione di Lucia Annunziata Mezz’ora in più, ben tre presidenti del PD (quello attuale, Valentina Cuppi, e due ex, Rosy Bindi e Gianni Cuperlo) fanno un discorso analogo, ma in termini assai più radicali, tanto da lasciare visibilmente stupita la stessa Annunziata. E negli stessi giorni Enrico Letta apre a una possibile partecipazione del PD a manifestazioni per la pace purché «senza bandiere di partito», il che è un’evidente ipocrisia, perché, bandiere o non bandiere, queste manifestazioni sono sempre state egemonizzate dal pacifismo di sinistra, che di fatto, fin dalla sua nascita al tempo degli euromissili e del celeberrimo slogan “meglio rossi che morti”, non ha mai perseguito la pace, ma la resa.

Un’altra settimana e di nuovo La Stampa il 16 ottobre pubblica due pagine intere intitolate In nome di Dio, fermate la guerra con passi tratti dall’ultimo libro di Papa Francesco. E la settimana dopo, il 24, altre due intitolate Il grido della pace. In queste ultime, oltre a dare ampio spazio al pacifismo cattolico, dedica ben quattro colonne a un articolo di Franco Cardini che parla della necessità di «riconoscere le ragioni russe» e di «non fermarsi alla dicotomia aggressore-aggredito»per ottenere la «fine dell’impegno militare russo». Quest’ultimo eufemismo starebbe per “invasione”, che però secondo Cardini tale non è, dato che «dal punto di vista russo, la guerra non è cominciata nel febbraio del 2022, ma nel 2014 e si è sviluppata con le vessazioni contro i russofoni d’Ucraina e con il mancato rispetto degli accordi di Minsk».

Come ognun vede, si tratta in sostanza degli stessi concetti, sia pure espressi con parole più accorte, dei celeberrimi audio di Berlusconi per i quali quest’ultimo era stato ferocemente attaccato da tutti i media di sinistra solo pochi giorni prima e che ora, improvvisamente, sembrano diventati accettabili. E si noti che Cardini è un tipico esponente di quel cattolicesimo tradizionalista che, in nome di un viscerale antiamericanismo, contribuisce molto ad alimentare i siti anti-vaccini e filo-russi che gli stessi media di sinistra hanno sempre ferocemente avversato, anche con buone ragioni, che però, improvvisamente, sembrano non essere più così buone.

Infine, domenica scorsa, 5 novembre, si passa dalle parole ai fatti, con le due grandi manifestazioni per la pace: quella di Milano, organizzata da Renzi e Calenda, in cui è chiarissimo il sostegno “senza se e senza ma” all’Ucraina, armi comprese; e quella di Roma, egemonizzata da Giuseppe Conte e dal pacifismo di sinistra, che invece di armi non vogliono nemmeno sentir parlare.

Al termine di quest’ultima il PD, che pure si era ecumenicamente diviso tra entrambe, dirama una nota in cui si dice: «Oggi ci siamo sentiti a casa. Pochi estremisti non possono sporcare una bellissima manifestazione». Come se il problema fossero i quattro gatti che hanno dato del “guerrafondaio” e “assassino” a Letta e non invece gli altri centomila che, pur senza insultarlo, erano tutti compattamente contrari a nuovi invii di armi e in grande maggioranza anche agli invii precedenti da lui stesso approvati (salvo poi concludere la manifestazione cantando Bella ciao, che come esempio di frattura tra ragione e realtà non è male, giacché è la storia di un giovane che decide di combattere per la libertà contro l’invasor…).

E non basta: a margine della stessa manifestazione, Gianni Cuperlo, ex presidente PD, invita addirittura a riflettere sull’opportunità di continuare a mandare armi all’Ucraina. Ve l’immaginate se l’avesse detto Berlusconi? Sarebbe venuto già il cielo! Ma l’ha detto Cuperlo, che è di sinistra, quindi non succede niente…

Ora, io non so se tutto ciò nasca da una precisa strategia studiata a tavolino o solo da una reazione “di pancia” che coglie istintivamente il pericolo, ma so che in ogni caso segue una logica ben precisa, per quanto perversa. Come potrebbe infatti la sinistra continuare ad approvare una guerra – fosse anche la “sua” guerra – quando questa fosse sostenuta da un governo “fascista”? Quindi, per intanto si comincia a mettere le mani avanti, poi si vedrà.

I passi successivi dipenderanno da cosa farà il nuovo governo. Se dovesse adottare una strategia più “morbida” verso la Russia, allora questi accenni di correzione di rotta non avranno seguito e il PD continuerà a proporsi come il paladino della fermezza contro la “fascista” Meloni, amica del “fascista” Putin. Ma se invece, come mi sembra scontato, il nuovo governo continuerà a mantenere una ferma linea atlantista, allora vedrete che il PD comincerà a cambiare posizione, prima cautamente, poi in modo sempre più marcato, non rinnegando ovviamente quanto fatto in passato, ma giustificando la propria svolta con argomenti simili a quelli di Giannini.

Continuando così, ci sono buone probabilità che l’atlantismo del PD non arrivi a mangiare il panettone. E siccome la maggior parte dei media gli vanno sempre a rimorchio e con l’arrivo del freddo i disagi legati al problema del gas aumenteranno, rischiamo di passare un Natale di fuoco, con un’opinione pubblica sempre più ostile alla politica filo-atlantica e filo-ucraina del governo. Il che è esattamente ciò che il PD vuole, ma è più o meno l’ultima cosa di cui il paese ha bisogno.

Non resta che sperare che gli ucraini per allora abbiano già chiuso la partita, ipotesi per niente affatto utopistica, giacché se cade Kherson (cosa che nel momento in cui scrivo, martedì 8 novembre, sembra essere ormai questione di giorni) la controffensiva ucraina arriverà presto al Mar Nero, separando il Donbass dalla Crimea, e allora potrebbe crollare l’intero fronte russo. Ma questo è un altro discorso.

Ciò che invece volevo qui evidenziare è che questa vicenda mostra con particolare chiarezza quanto detto in precedenza sull’invincibile convinzione degli esponenti del PD (e della sinistra liberal in generale) di essere sempre e comunque dalla parte giusta, qualsiasi cosa facciano, anche quando questo “qualsiasi” significa prima una cosa e poi il suo esatto contrario; nonché sulla loro altrettanto invincibile tendenza a rifugiarsi nell’“usato sicuro” del loro vecchio armamentario di idee comunisteggianti ogni volta che si trovano in crisi di identità.

Volendo riassumere tutto ciò in una formula, potremmo dire che fino ad oggi la sinistra occidentale ha perseguito la sua modernizzazione essenzialmente cercando di adottare un’ideologia liberal contaminata da elementi residui di comunismo. Al contrario, una forza che voglia essere davvero di sinistra e davvero adeguata ai tempi dovrebbe adottare un’ideologia comunitaria depurata dagli elementi residui di comunismo: cioè l’esatto opposto di quel che sta facendo.

Chiaramente ciò non è facile, perché è un modello tutto da inventare, ma di buone idee in giro ce ne sono. Per esempio: il comunitarismo di MacIntyre; l’approccio “energetico” all’economia di Václav Smil, che unisce ecologismo non ideologico e critica al capitalismo su una base rigorosamente scientifica; la rivalutazione delle character skills all’interno della teoria economica più recente; il principio di sussidiarietà, che è previsto anche dalla Costituzione e mi è particolarmente caro, non perché sono cattolico, ma semplicemente perché funziona (almeno nei pochi casi in cui è stato applicato davvero); per non parlare dei tanti suggerimenti dati nel corso degli anni da Ricolfi, per cui rimando ai suoi articoli e libri. E si potrebbe continuare.

Il vero problema, come si vede, non è che mancano le buone idee, ma che manca chi se ne faccia portatore. Questo, però, oltre che un problema, è anche e soprattutto un’opportunità: benché tali idee perlopiù non siano state prodotte dalla sinistra, infatti, una sinistra del tipo che ho auspicato potrebbe farle proprie. Ma per valorizzare un’idea bisogna innanzitutto vederla, cosa che non potrà mai accadere finché si continuerà a guardare ostinatamente dalla parte opposta.

Certo, anche quando questo atteggiamento cambiasse, il cammino non sarebbe comunque facile, dato che una larga parte dell’elettorato di sinistra è tuttora sensibile (e verosimilmente lo resterà a lungo) al richiamo dell’ideologia. E, ovviamente, ci sarà sempre qualcuno che ne approfitterà per mettere in piedi qualche formazione politica capace di attirarne i voti, come finora è regolarmente accaduto di fronte ad ogni tentativo di riforma. L’ultimo caso è quello dei 5 Stelle, che sono nati come movimento trasversale, ma che a partire dal luglio scorso Giuseppe Conte ha spostato sempre più decisamente a sinistra, accorgendosi che lì c’era un ampio spazio lasciato scoperto dal PD e non adeguatamente presidiato dai vari partitini comunisti, soprattutto sul fronte del pacifismo.

Per la sinistra, quindi, abbandonare definitivamente il comunismo significa inevitabilmente dividersi e, di conseguenza, continuare a perdere ancora per parecchio tempo. Ma non farlo significa rischiare di continuare a perdere per un tempo ancora più lungo e, quel che è peggio, non essere in grado di combinare nulla di buono neanche se per caso dovesse tornare a vincere.

Addirittura, se continuerà a voler tenere insieme tutto e il contrario di tutto, il PD rischia di essere progressivamente fagocitato dai 5 Stelle a sinistra e da Renzi-Calenda a destra, come in parte sta già accadendo e come è stato plasticamente  mostrato dalla divisione fisica dei suoi dirigenti tra le due manifestazioni di Roma e Milano. In tal caso il suo destino sarebbe quello di trasformarsi da partito radicale di massa in un partito radicale a tutti gli effetti, percentuale elettorale del 2% inclusa, mentre il compito di costruire una sinistra comunitaria ma non comunista potrebbe passare alla formazione di Renzi-Calenda (se riuscirà a sopravvivere ai loro caratteri fumantini) o magari a qualche oscuro partitino della sinistra comunitaria (se riuscirà a liberarsi dell’ipoteca marxista), che potrebbe così ripercorrere i fasti della destra meloniana.

Oppure, qualora la sinistra se ne dimostrasse definitivamente incapace, il compito di tutelare le classi più deboli potrebbe passare in pianta stabile alla destra, se saprà completare la propria evoluzione, trasformandosi definitivamente in un partito comunitario ma non populista.

Va però riconosciuto che il compito che la sinistra ha davanti, già di per sé stesso molto arduo, è reso ancor più complicato dal fatto che molte delle idee di origine comunista di cui ho parlato, insieme ad altre che non ho invece nominato perché non hanno un’influenza diretta sulla politica (ma ce l’hanno sulla mentalità generale, che indirettamente influisce anche sulla politica), sono oggi inconsapevolmente accettate non solo dalla sinistra, ma praticamente da tutti, compresi gli anticomunisti dichiarati. Ne parlerò nel prossimo articolo, che chiuderà questa sorta di “trilogia del comunismo”, prima di passare, come promesso, ad altri argomenti più legati alla scienza.

Paolo Mussa