Hume PageHume Page

In primo piano

Il singhiozzo dell’uomo maschio – A proposito di violenza sulle donne

25 Novembre 2023 - di Luca Ricolfi

In primo pianoSocietà

Era il 1983, giusto 40 anni fa, quando Pascal Bruckner pubblicava il suo libro più famoso, Il singhiozzo dell’uomo bianco, in cui descriveva gli impulsi di autoflagellazione della cultura occidentale, già allora in via di autoliquidazione.

Ma oggi siamo ben oltre. Quello cui ci tocca assistere, dopo la orribile, tristissima vicenda di Giulia Cecchettin, è il singhiozzo dell’uomo maschio: il bisogno di tanti maschi di dire che sì, si sentono anche loro responsabili, si vergognano di essere maschi, insomma la responsabilità di quel che è accaduto alla povera Giulia sarebbe anche loro.

La cosa interessante è che questo moto di autodenuncia, che per lo più scopiazza le più ardite (e indimostrate) teorie del movimento woke d’oltre oceano, non tocca minimamente la gente comune, che con difficoltà più o meno grandi, continua a condurre la sua vita ordinaria. Difficile ascoltare un operaio che si sente corresponsabile del femminicidio di Giulia, ma facilissimo leggere le riflessioni di un intellettuale, di uno studioso, di un giornalista, di un politico, che mettono in scena esercizi più o meno sofisticati di autoaccusa e rincrescimento.

Perché questa differenza?

Le ragioni, a mio parere, sono essenzialmente due, del tutto diverse l’una dall’altra. La prima è che chi occupa posizioni di prestigio nella sfera pubblica corre oggi un grandissimo rischio: quello di entrare nel mirino delle attiviste che conducono la crociata conto il maschio, il maschilismo, il cosiddetto patriarcato. Improvvisamente, ci si rende conto che, solo se ci si schiera “dalla parte giusta”, si ha qualche possibilità di salvarsi dalla valanga di accuse dell’attivismo woke, tradizionalmente debole in Italia ma improvvisamente sdoganato dal (sacrosanto) moto di indignazione per la morte di Giulia Cecchettin. Può accadere così che, nella schiera dei maschi pensosi, mi capiti di trovare Ignazio La Russa (quello certo dell’innocenza del figlio, sotto indagine per stupro) che propone una manifestazione bipartisan di soli maschi, ma anche alcuni dei miei giornalisti e intellettuali preferiti. Mattia Feltri, sulla Stampa, per far sentire “tutti noi” corresponsabili di quel che è accaduto a Giulia, scomoda nientemeno che il concetto di “responsabilità collettiva” di Hannah Arendt. Francesco Piccolo, su Repubblica, non esita a stigmatizzare – quasi fossero comportamenti orribili, propedeutici ai peggiori crimini – comunissimi comportamenti della vita quotidiana di maschi e femmine: “urlare sopra, non far parlare, pretendere di parlare per primi, spiegare come bisogna comportarsi, o come fare una cosa, o addirittura come bisogna vivere”. Una mia amica, madre di tre figli, ha commentato divertita: è esattamente quel che faccio io quando sono esasperata con mio figlio adolescente!

Ma c’è anche un’altra ragione per cui il “singhiozzo dell’uomo maschio” ha tanto spazio sui media, ma lascia indifferente la gente comune. Ed è che, nel dibattito pubblico, da tempo hanno trovato un enorme spazio le opinioni astruse, o antiscientifiche, o contrarie al senso comune. Se un’idea strampalata, o semplicemente priva di basi scientifiche, è affermata in nome di una buona causa, i media tendono a presentarla come vera. Nel mondo dell’attivismo woke, ma soprattutto in quello di una parte (solo una parte, per fortuna) dell’attivismo femminista, negli ultimi anni hanno preso piede diverse idee indimostrate. Ad esempio, che la biologia non conti nulla, e tutto dipenda dalla cultura. Che alle radici dell’aggressività maschile vi siano gli stereotipi di genere e la sopravvivenza del patriarcato. Che il linguaggio sia il medium fondamentale della violenza. Che esista una precisa catena causale che dalla battuta sessista conduce alla prevaricazione, alla violenza, allo stupro, quando non al femminicidio. Che sterilizzare il linguaggio sia la via maestra per fermare la violenza. Che l’azione preventiva più efficace sia l’introduzione precoce di corsi di educazione sessuale e sentimentale nelle scuole.

Nessuna di queste credenze è palesemente falsa, ma nessuna è sostenuta da prove scientifiche robuste. Alcune sono, almeno a prima vista, incompatibili con i dati. Quasi tutte sono in contrasto con il senso comune. Il quale senso comune, a differenza degli intellettuali e dei politici, è umile, empirista, e non pretende di imporsi agli altri in nome un’ideologia. Perché di questo si tratta, purtroppo: il modo in cui si parla del dramma di Giulia non ha nulla di scientifico, e tutto della solita pretesa di imporre il proprio punto di vista e di aver ragione dell’avversario politico.

In questo, è paradossale doverlo osservare, molte donne oggi impegnate nella giusta battaglia contro i femminicidi, mostrano un’inquietante somiglianza con i maschi che mettono sotto accusa: forse l’unico segno inequivocabile dell’ubiquità del maschio che è in tutti noi.

Sulla violenza contro le donne, un cambio di prospettiva

24 Novembre 2023 - di Luciana Piddiu

In primo pianoSocietà

Vexata quaestio quella della violenza che si manifesta in forme diverse contro donne e bambine in ogni angolo del pianeta, e controversa l’analisi che se ne fa.

         C’è chi semplifica la questione adottando lo schema binario vittima/carnefice. Ma così si rischia di tralasciare proprio quelle zone d’ombra che spiegano la persistenza del fenomeno, una violenza che sembra non cessare mai nonostante le misure prese per contrastarla. Regolarmente, dopo ogni femminicidio, si invoca un intervento delle istituzioni più incisivo ed efficace. Ma non si può certo porre freno alla violenza domestica mettendo un poliziotto in ogni famiglia.

         L’Onu ha istituito il 17 Dicembre 1999 la Giornata Internazionale per l’eliminazione della violenza contro le donne, che si celebra il 25 Novembre. Gesto simbolico importante, ma che non sposta di un millimetro la soluzione del problema che presenta tuttora aspetti altamente problematici.

         In mancanza di interventi efficaci si rischia di fare i conti con atti di disperazione che non possono essere additati come esempi da imitare.

         In Francia, per esempio, ha fatto molto discutere il caso di Valerie Bacot. Una giovane donna, violata, picchiata, fatta prostituire dal compagno Daniel Polette, che era stato suo patrigno prima di diventare suo marito, nonché padre dei suoi quattro figli. Dopo 24 anni d’inferno Valerie ha ucciso il marito. Condannata a quattro anni, è uscita di prigione subito dopo la sentenza grazie alla sospensione condizionale della pena. La condanna è risultata del tutto simbolica considerato che si trattava di omicidio premeditato. Il suo gesto è stato considerato come una sorta di legittima difesa, sia pure ritardata. Il caso Bacot non è un caso isolato. Prima di lei c’erano stati quelli di Jacqueline Sauvage e poi quello di Edith Scaravetti, condannata in primo grado a tre anni e in appello a dieci per aver ucciso e murato il marito maltrattatore.

         Ora l’eliminazione fisica del ‘carnefice’ si può certo capire, ma non può essere giustificata. Ben prima di arrivare a un punto di non ritorno bisognerebbe mettere al sicuro la donna e i suoi figli, prendersene cura, rimarginare ferite profonde e ricostruire la sua soggettività. Ma tutto questo non è per niente facile.

         L’accoglienza di donne maltrattate nelle case-rifugio a indirizzo segreto dove possono godere dell’assistenza psicologica, legale, economica è molto utile, ma è uno strumento che ha molti limiti. Il più serio è che si tratta di un intervento comunque limitato nel tempo. Una volta che la donna esce dal circuito di sostegno e torna alla propria casa, nella maggioranza dei casi la violenza del convivente ricomincia senza soluzione di continuità.

         Per sperimentare metodi più efficaci si potrebbe introdurre un nuovo modello, già utilizzato in paesi come Canada e Islanda, e che comincia a farsi strada anche da noi, sia pure a fatica. Si tratterebbe di portare fuori dalla casa in cui si consuma la violenza non la vittima e i suoi figli, ma il maltrattatore. Il partner aggressivo viene preso in carico da strutture apposite nelle quali viene aiutato a prendere coscienza del suo essere violento e dei danni che il suo comportamento produce: non solo nei riguardi della compagna ma anche dei figli che subiscono traumi profondi per le aggressioni e il clima di paura.

         In Italia ci sono già alcune strutture dedicate a maschi violenti che abbiano raggiunto un minimo di consapevolezza del loro comportamento nefasto. A Firenze è in funzione dal 2009 il CAM (Centro di Ascolto uomini Maltrattanti) che successivamente è stato esteso a Ferrara, Roma, Cremona e al Nord Sardegna. A Bassano è sorto il centro Ares con l’obiettivo di avviare adeguati percorsi di cambiamento per uomini che agiscono con violenza all’interno della coppia. Sarebbe interess ante vedere se queste esperienze hanno avuto un impatto locale significativo e cercare di espanderle a livello nazionale.

         L’unica nota positiva in questo contesto così complicato è il dato numerico che riguarda i femminicidi nel nostro paese. Sono ancora troppi ma, contrariamente a quello che la cronaca sembra suggerire, i dati non sono in crescita, semmai ci sono timidi segnali di un numero che si sta lentamente riducendo. È un dato di fatto che in Italia il fenomeno è numericamente molto inferiore rispetto a quasi tutti i paesi europei, in particolare quelli del Nord. A questo proposito qualcuno ha parlato di ‘paradosso nordico’. Paesi come Islanda, Finlandia, Norvegia, Svezia, Danimarca, che rispettano molto più degli altri l’eguaglianza di genere, sono anche quelli in cui si registra  il maggior numero di violenze domestiche contro le donne. Portogallo, Italia e Grecia che sono molto indietro per quanto riguarda l’uguaglianza di genere, hanno invece tassi molto più bassi di violenza domestica (Nov. 2017 Social Science and Medicine). La Harvard Political Review sottolinea come questa inattesa discrepanza vada indagata per capire, prevenire e soprattutto cercare di bloccare il fenomeno.

         Quello che è certo è che occorre un cambio di passo, un vero cambio di civiltà. Fin dalla più tenera età bisogna educare bambini e bambine al rispetto reciproco e coltivare la loro autostima. Il giovane adolescente o adulto che sia stato sminuito nel corso della sua infanzia  cercherà con la forza di ricostituire un’immagine di sé ‘forte e virile’ brutalizzando la propria donna per far tornare i conti. A sua volta la giovane adolescente o giovane donna che non ha stima di se stessa, che si considera di poco valore non troverà la forza di fermare la mano di chi la brutalizza scambiando spesso le attenzioni malate per gesti di cura. Alla base del progetto educativo va posto il concetto di inviolabilità del proprio corpo. La centralità di questo concetto metterebbe al riparo non solo dalle violenze fisiche ma anche dalle molestie e dagli abusi di natura sessuale.

 

 

(pubblicato su Free Skipper 25 Novembre 2021 e su Lilìa, giornalino dell Associazione dei pugliesi di Pisa).

L’illusione fiscale

18 Novembre 2023 - di Luca Ricolfi

EconomiaIn primo piano

C’è un ritornello, che sento da almeno trent’anni, più o meno da quando finì la prima Repubblica e l’Italia smise di crescere più della media delle economie avanzate. Il ritornello dice: se la (sacrosanta) lotta all’evasione fiscale avesse successo, e tutti pagassero le tasse dovute, l’Italia risolverebbe d’incanto tutti i suoi maggior problemi; con quei 100 miliardi di gettito addizionale, infatti, potremmo abbattere le liste d’attesa negli ospedali, costruire asili nido, pagare di più gli insegnanti, combattere la povertà.

Sembra un discorso ineccepibile, ma è del tutto sbagliato. Far pagare le tasse agli evasori è opportuno, oltreché giusto, ma le conseguenze di un fisco implacabile non sarebbero quelle attese, per vari motivi.

Intanto, perché una parte dell’evasione è “di sopravvivenza” (copyright: Stefano Fassina, economista e politico di sinistra). Ci sono operatori economici che semplicemente chiuderebbero, se dovessero pagare le tasse fino all’ultimo centesimo. Farli fallire è senz’altro una buona cosa in un’ottica liberista e schumpeteriana, per cui l’uscita dal mercato delle imprese inefficienti è il prezzo per alzare la produttività media (si chiama “distruzione creatrice”), ma si deve sapere che l’effetto immediato sarebbe la distruzione di centinaia di migliaia di posti di lavoro.

Ma c’è anche un altro motivo di riflessione. Anche ammesso che nessuna attività economica sia costretta a chiudere, l’effetto aggregato di un azzeramento dell’evasione sarebbe uno spaventoso aumento della pressione fiscale, già oggi una delle più alte fra le società avanzate. Oggi è circa il 43%, ma sfiorerebbe il 50% se al gettito attuale si dovesse aggiungere quello mancato a causa dell’evasione. Ma nessuna società avanzata raggiunge o sfiora il 50% di pressione fiscale, perché se ciò accadesse si arresterebbe completamente la crescita.

Dobbiamo dunque rinunciare a combattere l’evasione fiscale?

Assolutamente no. Quello cui dobbiamo rinunciare è l’illusione che la lotta all’evasione possa finanziare altra spesa pubblica. L’unica destinazione ragionevole delle maggiori entrate è l’abbassamento delle aliquote a chi già paga le tasse, a partire dalle imprese, che oggi hanno una tassazione globale (tasse + contributi sociali) che sfiora il 60%, superata solo da quella della Francia.

E i problemi del nostro stato sociale? Se il gettito recuperato non può essere destinato a rinforzare il welfare, come se ne esce?

Se vogliamo essere realisti, temo che dobbiamo rassegnarci ad alcune verità amare, presumibilmente indigeribili per qualsiasi leader politico. La prima è che la spesa pubblica corrente non può aumentare più del Pil, e quindi – falliti quasi tutti i tentativi di spending review – la via maestra per rafforzare lo stato sociale è tornare a crescere a un ritmo apprezzabile (cosa impensabile senza un drastico abbassamento della pressione fiscale sulle imprese). L’altra verità, documentata già un quarto di secolo fa dal rapporto Onofri (febbraio 1997), è che il male primario del nostro stato sociale è il suo squilibrio: la spesa previdenziale (pensioni) fa la parte del leone, soffocando tutto il resto. Se la spesa per le pensioni fosse allineata alla media europea, potremmo permetterci migliori ospedali, migliori scuole, migliori università, migliori servizi ai cittadini.

Ma questo è un altro, difficile, discorso: la demagogia in materia di pensioni, e la connessa rinuncia a puntare sulla previdenza complementare, è fra le colpe maggiori delle nostre classi dirigenti, fin dai tempi della prima Repubblica (ricordate gli insegnanti in pensione a 40 anni?). Un male aggravato dall’invecchiamento della popolazione, e da un tasso di occupazione che, nonostante i recenti progressi, resta il più basso dell’occidente.

Sarà un caso che, fra le società avanzate, siamo – contemporaneamente – quella con il tasso di occupazione più basso e quella che più si accanisce su chi produce?

La frattura tra ragione e realtà 4 / Il Grande Spauracchio – Parte prima: il nucleare bellico

16 Novembre 2023 - di Paolo Musso

In primo pianoSocietà

Con questo articolo comincio a discutere alcuni temi cruciali per il nostro futuro rispetto ai quali la frattura tra le idee comunemente accettate e la realtà dei fatti è particolarmente grave. Il primo tema che ho scelto era quasi obbligato, perché, tra le tante idee sbagliate in circolazione, ben poche battono quelle che riguardano l’energia nucleare, sia nel suo uso bellico che in quello pacifico. Ma, soprattutto, non esiste nessun altro argomento a proposito del quale così tante assurdità siano condivise da un numero così grande di persone e riguardino non solo alcuni aspetti, ma praticamente tutto ciò che si sente dire al proposito. In questo articolo mi occuperò delle armi nucleari, mentre in uno successivo parlerò dell’energia nucleare per uso civile.

Hiroshima, Nagasaki e dintorni

La guerra in Ucraina ha drammaticamente riportato all’attenzione del grande pubblico il tema dell’energia nucleare, sia nel suo uso bellico che in quello civile, il che di per sé è un bene. Purtroppo, però, ha anche ridato fiato alle tante assurdità che da sempre circolano al riguardo, il che è invece un gran male. Cerchiamo quindi di fare un po’ di chiarezza.

E anzitutto chiediamoci: perché l’energia nucleare è diventata il Grande Spauracchio del nostro tempo? La risposta più ovvia è: perché essa è apparsa sulla scena del mondo nella forma delle due bombe atomiche di Hiroshima e Nagasaki.

Questo è certamente vero, ma è altrettanto vero che fin da allora la leggenda ha cominciato a sovrapporsi alla realtà. In parte ciò dipese dal fatto che questa forza titanica sembrò apparire dal nulla, cogliendo tutti di sorpresa: gli studi in merito erano infatti segretissimi e venivano condotti esclusivamente in Germania e negli Stati Uniti (e in Italia, almeno finché le sciagurate leggi razziali non costrinsero Enrico Fermi, uno dei più grandi scienziati di ogni tempo, a rifugiarsi negli Stati Uniti, essendo sposato con un’ebrea). Ma non si tratta solo di questo.

Come ha spiegato uno dei massimi esperti al mondo di armi nucleari, lo storico della scienza Alex Wellerstein della Harvard University, in un articolo pubblicato il 4 agosto 2020 sull’autorevole Bullettin of the Atomic Scientists contenente un’approfondita discussione di tutti gli studi sul tema (https://thebulletin.org/2020/08/counting-the-dead-at-hiroshima-and-nagasaki/), nessuno saprà mai quante persone morirono esattamente a Hiroshima e Nagasaki.

Moltissimi corpi, infatti, non vennero mai recuperati, perché disintegrati dall’esplosione o carbonizzati dai successivi incendi. Ciò rende inevitabile basarsi su stime, le quali però sono pesantemente influenzate dalla valutazione del numero di persone presenti in città al momento dell’esplosione, che per vari fattori è estremamente incerto.

L’intervallo va dalla più bassa, fatta dalla Joint Commission formata dagli Alleati e dal Giappone poco dopo la fine della guerra, per cui i morti sarebbero stati rispettivamente 64.000 e 39.000, a quella più alta, fatta da una commissione giapponese in collaborazione con le Nazioni Unite nel 1975, la cui stima è stata di 140.000 e 70.000, per un totale che va quindi da 103.000 a 210.000.

È importante notare che secondo Wellerstein la differenza dipende solo dai diversi metodi adottati e non da malafede o trascuratezza: «There is no evidence that either of these estimates was made inaccurately or dishonestly, but they come from different sources and eras».

Qualunque valore si accetti, comunque, dal punto di vista strettamente militare non vi furono molte differenze rispetto a quanto si poteva ottenere con armi convenzionali. Per esempio, soltanto i bombardamenti su Tokyo avevano causato oltre 200.000 morti, di cui 72.000 in un’unica notte, quella fra il 3 e il 4 febbraio 1945: una cifra più alta della più alta stima fatta per Nagasaki.

L’impatto delle atomiche fu quindi soprattutto psicologico e fu dovuto principalmente a due fattori: anzitutto,  ovviamente, il fatto che per causare tutta questa distruzione fosse bastata una sola bomba e poi le radiazioni, che facevano (e fanno ancor oggi) paura soprattutto perché invisibili. Gli effetti delle atomiche sugli esseri umani, infatti, per quanto terribili, non sono poi tanto peggiori di quelli causati dalle bombe convenzionali, specialmente da quelle incendiarie. Ma, si sa, da sempre ciò che non si vede fa più paura di ciò che si vede, perché ci fa sentire totalmente indifesi.

Tuttavia, almeno a quel tempo, l’uso dell’atomica implicava anche notevoli difficoltà. Il processo di produzione era infatti lungo e costoso e la bomba, molto pesante e ingombrante, veniva lanciata da un normale bombardiere, per cui se quest’ultimo fosse stato abbattuto l’intero attacco sarebbe stato azzerato, insieme a mesi e mesi di costose fatiche. Ciò invece non accadeva con un bombardamento convenzionale, dove si potevano perdere molti aerei senza compromettere più di tanto la potenza di fuoco complessiva.

Proprio questa fu una delle principali ragioni (anche se ve ne furono delle altre, a cominciare dalla debolezza del Presidente Eisenhower, gravemente malato) per cui gli Stati Uniti, pur avendone allora il monopolio, una volta sconfitto Hitler non tentarono nemmeno di usare l’atomica per piegare l’Unione Sovietica, preferendo la pace di Yalta, che non era certo una buona soluzione, tanto che ancora oggi stiamo subendo le sue perniciose conseguenze. E la situazione non cambiò nemmeno quando l’URSS rovesciò a suo favore l’equilibrio, costruendo le prime bombe all’idrogeno, molto più potenti delle atomiche: il problema di come portarle a destinazione a così grande distanza le rendeva infatti praticamente inutilizzabili.

L’equilibrio del terrore

Solo quando vennero costruiti i primi missili intercontinentali affidabili le armi nucleari divennero una minaccia davvero seria. Ma a quel punto subentrò un altro fattore a impedirne l’uso: USA e URSS ne avevano ormai così tante che erano in grado di distruggersi a vicenda, il che rendeva impossibile vincere e, di conseguenza, insensato usarle.

Nacque così la cosiddetta MAD (Mutual Assured Destruction), dottrina che, per quanto apparentemente folle (“mad” in inglese significa “pazzo” e l’acronimo non è certo stato scelto a caso), ha finora funzionato benissimo, non solo per prevenire le guerre nucleari, ma anche per prevenire le guerre convenzionali tra paesi dotati di armi nucleari (a parte alcuni scontri di frontiera tra India e Pakistan, che però non si sono mai tradotti in guerra aperta, come sarebbe quasi certamente accaduto in un contesto convenzionale).

La MAD non è stata violata neanche dall’invasione dell’Ucraina, come alcuni sostengono. Quest’ultima, infatti, non è dotata di armi atomiche né è alleata formalmente (benché lo sia di fatto) con paesi che le possiedono. È per questo che l’idea prevalente (e a mio avviso corretta) su come reagire a un eventuale uso di armi atomiche da parte di Putin è che la risposta sarebbe sì durissima, ma di natura convenzionale.

Con ciò non voglio dire che l’attuale “equilibrio del terrore” sia la situazione ideale. È chiaro che l’esistenza di migliaia di bombe nucleari costantemente armate e pronte all’uso è già di per sé molto pericolosa e tale resterebbe anche quando una parte sostanziale di esse non fosse più controllata da uno psicopatico genocida come l’attuale dittatore russo. Ma anche qui la leggenda offusca costantemente la realtà, rischiando di farci compiere scelte drammaticamente sbagliate.

Potenza e distruttività

Innanzitutto dobbiamo chiarire qual è la vera capacità distruttiva delle armi nucleari, che è estremamente variabile e, per quanto tremenda, è fortunatamente inferiore a ciò che si crede. Inoltre, contrariamente a quanto pensano quasi tutti, essa risiede assai più nella forza meccanica dell’esplosione che nella radioattività.

Cominciamo dal primo aspetto. La potenza di un’esplosione di grande portata (sia nucleare che convenzionale o prodotta da cause naturali) si calcola usualmente in kiloton, misura che indica una potenza equivalente a quella di mille tonnellate di tritolo, o in megaton, corrispondente a un milione di tonnellate di tritolo, cioè a mille kiloton.

Ora, la potenza delle armi nucleari va da qualche frazione di kiloton (cioè qualche centinaio di tonnellate di tritolo) per le bombe-zaino, trasportabili a mano sul bersaglio da squadre di incursori, fino ai 50.000 kiloton (50 megaton) della bomba Tsar, la più potente mai costruita, testata dall’URSS sull’isola di Novaja Zemlja, a nord della Siberia, il 30 ottobre 1961 (paradossalmente progettata da Andrej Sacharov, che diventerà poi il più noto oppositore del regime sovietico).

Si tratta di una differenza di ben 5 ordini di grandezza, ovvero di una potenza che può variare di centomila volte in più o in meno. Già da questo, quindi, si capisce che parlare genericamente di “armi nucleari” come se fossero tutte la stessa cosa semplicemente non ha senso.

Inoltre, la distinzione principale che va fatta non è quella tra armi tattiche e strategiche (che oggi tiene banco, ma, come vedremo più oltre, non è chiaramente definibile), bensì quella tra armi atomiche, che utilizzano la fissione, e armi termonucleari, che utilizzano la fusione.

Le prime hanno un limite di potenza intrinseco, non chiaramente definibile, perché dipende da vari fattori tecnici, ma comunque dell’ordine di qualche centinaio di kiloton. Ciò è dovuto al fatto che quando l’uranio supera una certa massa critica esplode, per cui non se ne può mettere più di tanto all’interno di una stessa bomba, neanche suddividendolo in più parti, perché queste non possono essere molto numerose, altrimenti diventa impossibile gestirle.

Le armi termonucleari, familiarmente chiamate bombe H perché utilizzano l’idrogeno, non hanno invece un limite teorico, perché di idrogeno se ne può ammassare quanto se ne vuole, ma hanno comunque un limite pratico. Infatti, il rapporto tra la potenza di una bomba e la sua distruttività non è costante, ma diminuisce sempre più rapidamente con il crescere della potenza stessa.

Il motivo è che qualsiasi esplosione produce un’onda d’urto di forma sferica che si espande in tre dimensioni. Ora, finché la potenza della bomba è relativamente piccola, il suo raggio d’azione sarà dello stesso ordine di grandezza delle dimensioni dei suoi bersagli, cioè di poche decine o al massimo centinaia di metri (che è l’altezza dei più grandi grattacieli), sicché tutta o quasi tutta l’energia sprigionata verrà utilizzata per distruggere l’obiettivo.

Più il raggio d’azione diventa grande, però, più il bersaglio apparirà sostanzialmente bidimensionale rispetto alle dimensioni dell’onda d’urto, per cui tutta o quasi tutta la potenza sviluppata lungo la dimensione verticale andrà sprecata. Di conseguenza, se usata in modo tradizionale, una bomba atomica 1000 volte più potente sarà solo 100 volte più distruttiva, con uno spreco di energia di ben il 90%. Anzi, in realtà anche di più.

Anzitutto, infatti, la componente orizzontale non è mai perfettamente tale, perché viene deviata verso l’alto dall’impatto dell’onda d’urto contro i bersagli. Inoltre, la superficie della Terra è curva, il che fa sì che man mano che ci si allontana dall’epicentro una parte sempre maggiore dei bersagli resti al di sotto dell’onda d’urto, finché si arriva all’orizzonte, che li nasconde completamente.

È per questo che le bombe nucleari non vengono fatte detonare a terra, ma al di sopra del bersaglio, in modo da utilizzare tutta la semisfera inferiore dell’onda d’urto: quanto più in alto ci si trova, infatti, tanto più lontano è l’orizzonte, mentre l’effetto di deviazione viene minimizzato.

Tuttavia, anche così almeno la metà dell’energia prodotta (quella della semisfera superiore) va sprecata. Inoltre, più in alto esplode la bomba, più strada dovrà fare l’onda d’urto, sicché quando raggiungerà il terreno si sarà proporzionalmente indebolita, effetto che si accentua sempre più quanto più ci si allontana dalla verticale. Quindi, in sintesi, se la bomba esplode troppo in basso l’onda d’urto non avrà il tempo di espandersi in tutta la sua ampiezza prima di arrivare a terra, mentre se esplode troppo in alto giungerà sul bersaglio troppo indebolita. Va quindi trovato il giusto compromesso, che dipende essenzialmente dalla potenza della bomba.

Quanto più la bomba è potente, tanto più in alto potrà e dovrà esser fatta esplodere: quella di Hiroshima, infatti, esplose a 600 metri dal suolo, la Tsar invece a 4.000. Tuttavia, l’esplosione non può avvenire a una quota dove l’atmosfera è troppo rarefatta o addirittura al di fuori di essa, perché ciò ridurrebbe, fino ad annullarlo del tutto, l’effetto meccanico dello spostamento d’aria, che è il principale fattore di distruttività, soprattutto nel caso delle bombe più potenti, come vedremo meglio fra poco.

Tutto ciò implica quindi che, pur non esistendo un limite di principio alla potenza delle bombe H, esiste però un limite pratico, giacché, una volta che esso sia stato raggiunto, aumentare ulteriormente la potenza lascia sostanzialmente invariata la distruttività.

Approssimativamente, tale limite è rappresentato proprio dalla potenza della bomba Tsar, che non a caso non è più stata superata, nonostante sia stata costruita 62 anni fa. Sempre non a caso, questa è anche la massima potenza che si può scegliere nelle simulazioni del sito Nukemap (https://nuclearsecrecy.com/nukemap/), anch’esso opera di Wellerstein, sul quale mi sono basato per gran parte della mia analisi.

Ciò chiarito in termini generali, passiamo a esaminare più in dettaglio gli effetti delle armi nucleari per alcuni valori particolarmente significativi.

Prendiamo come punto di partenza una bomba da 1 kiloton, che rappresenta l’ordine di grandezza di quella che può essere contenuta in uno zaino atomico portatile ed equivale a un cinquantamillesimo della Tsar (il limite reale, come detto, è un po’ più basso, ma per semplicità facciamo cifra tonda). Il suo raggio d’azione è di circa 1 km, ragion per cui viene fatta esplodere al suolo o molto vicino ad esso, in modo abbastanza simile a una bomba tradizionale, distruggendo un’area di poco più di 4 km2.

Tuttavia, decuplicandone ripetutamente la potenza le dimensioni dell’area distrutta crescono sempre più lentamente, dando rispettivamente i seguenti valori: 20 km2 (solo il 50% dei 40 attesi se la distruttività fosse proporzionale alla potenza), 94 (23% dei 400 attesi), 435 (11% dei 4.000 attesi), 2.580 (6,5% dei 40.000 attesi), fino agli 8.300 (appena il 4,2% dei 200.000 attesi) nel caso della Tsar, che è quindi 50.000 volte più potente, ma solo 2.000 volte più distruttiva (ho leggermente arrotondato i numeri per renderne più facile la lettura; chi volesse quelli esatti e/o cercarne degli altri può fare le simulazioni che gli interessano sul sopracitato Nukemap, che inoltre permette di visualizzare gli effetti di qualsiasi bomba in qualsiasi località del mondo).

Come si vede, dunque, costruire bombe troppo potenti è un inutile spreco di risorse: si ottiene infatti molta più energia utile (cioè indirizzata sul bersaglio) usando una data quantità di uranio per costruire diverse bombe piccole che una sola grande. E infatti la potenza media delle testate nucleari oggi esistenti è di poco superiore al megaton, che, non a caso, coincide quasi esattamente con il miglior equilibrio costi-benefici, con una percentuale di energia utile del 25% e un’area di distruzione intorno ai 500 km2.

In realtà la maggior parte delle testate sono o un po’ più grandi (qualche megaton, in modo che possano distruggere anche le più grandi città del mondo) o un po’ più piccole (da qualche decina a qualche centinaio di kiloton) rispetto a tale valore medio, ma la sostanza del discorso non cambia.

Onda d’urto e radiazioni

Lo stesso vale, in misura perfino maggiore, per le radiazioni. Infatti l’area entro la quale esse risultano letali è sensibilmente inferiore a quella distrutta dall’onda d’urto e, soprattutto, cresce molto più lentamente sia rispetto ad essa che alla fireball, la palla di fuoco che si produce al centro dell’esplosione e che vaporizza all’istante tutto ciò che tocca.

Questo fenomeno si accentua ulteriormente con le bombe H, giacché la fusione nucleare produce una quantità di radiazioni di gran lunga inferiore rispetto alla fissione. Pertanto, la radioattività cresce notevolmente con l’aumentare della potenza nelle bombe atomiche, ma molto meno nelle bombe H, dove è causata principalmente dalla bomba atomica che innesca il processo di fusione dell’idrogeno, la quale non ha neanche bisogno di essere particolarmente potente, dato che la fusione una volta innescata si alimenta da sola.

Così, se per una bomba da un kiloton il raggio dell’area colpita da radiazioni letali è di 0,5 km per una superficie di 0,8 km2, per una da 10 kiloton è di 4,9 km2, con una crescita più o meno in linea con l’aumento di quella colpita dall’onda d’urto. Ma già per una da 100 kiloton l’area irradiata è di soli 10,5 km2, cioè poco più del doppio della precedente, mentre l’onda d’urto distrugge un’area quasi 5 volte maggiore.

Ancor più significativo è il calo con il passaggio ai megaton, cioè alle bombe H: con una potenza da 1 megaton, infatti, l’area irradiata è di meno di 20 km2, mentre per una da 10 megaton non arriva neanche a 36 km2. Infine, per i 50 megaton della Tsar si ha un raggio di 5 km corrispondente a un’area di 80 km2: appena 100 volte maggiore di quella di una bomba-zaino da un kiloton, mentre l’onda d’urto, come abbiamo visto, colpisce un’area oltre 2.000 volte superiore.

Dunque, anche in un’esplosione nucleare la maggior parte delle vittime muore in realtà per cause “classiche”, mentre i morti da radiazioni sono una minoranza. Inoltre, paradossalmente, a produrne il maggior numero sono le armi nucleari più piccole, perché con l’aumento della potenza una parte sempre maggiore dell’area colpita da radiazioni letali viene assorbita dalla fireball, dove la morte è istantanea. Alla potenza di 13,5 megaton l’area della fireball arriva a 39,75 km2, eguagliando quella delle radiazioni letali, che da lì in poi viene quindi completamente assorbita dalla prima. Perciò, paradossalmente, le bombe H più potenti non causerebbero neanche un morto da radiazioni.

Il fallout radioattivo

Magra consolazione, si dirà. Ed è vero, per quanto riguarda le vittime. Ma queste considerazioni sono importanti per capire le conseguenze che l’uso di armi nucleari potrebbe avere al di fuori del teatro di guerra. E sono tanto più importanti se consideriamo che in questo periodo tutti stanno facendo a gara ad esasperare la minaccia al di là di ogni limite ragionevole (anche se oggi un po’ meno rispetto all’inizio della guerra: è proprio vero che ci si abitua a tutto…).

Certo, l’area interessata dal fallout, cioè dalla ricaduta di polveri radioattive, può essere assai più ampia di quella colpita dalle radiazioni prodotte al momento dell’esplosione (ciò dipende da molti fattori, anzitutto atmosferici, ma anche geografici). Ed è proprio questo che ci fa più paura, anche per il rischio che le polveri in questione possano essere trasportate lontano dal teatro di guerra, fino ad arrivarci in casa. Il rischio indubbiamente esiste, ma, ancora una volta, è assai minore di quel che si pensa.

Come riferisce ancora Wellerstein nell’articolo precedentemente citato, a Hiroshima e Nagasaki il 70% delle vittime si ebbe durante il primo giorno, mentre il resto morì entro pochi mesi a causa delle lesioni riportate (non tutte, peraltro, dovute alle radiazioni). Inoltre, molto significativamente, tale stima è condivisa sia dal gruppo di ricerca americano che da quello giapponese, che pure, come abbiamo visto, hanno seguito metodi e ottenuto risultati completamente diversi quanto al numero delle vittime.

Negli anni successivi l’aumento della mortalità per cancro nelle due zone colpite fu irrisorio, tanto che potrebbe perfino essere interamente dovuto a mere fluttuazioni statistiche. Anche volendo attribuirlo tutto agli effetti della radioattività (il che, va ribadito, è sicuramente esagerato e probabilmente anche di molto), non si supererebbero comunque le 3000 vittime, distribuite nell’arco di vari decenni.

Naturalmente, con bombe più potenti anche le polveri radioattive avrebbero una letalità maggiore, ma solo nelle vicinanze dell’epicentro. È vero infatti che potrebbero essere trasportate dall’aria e dall’acqua in giro per il mondo anche a grandi distanze, ma difficilmente potrebbero causare conseguenze gravi, giacché la loro concentrazione diminuisce proporzionalmente al crescere dell’area su cui si diffondono. Si può quindi avere una concentrazione pericolosa solo in zone relativamente limitate, perché se le polveri si disperdono su aree molto vaste diventano rapidamente innocue. Solo nel caso di una guerra nucleare globale le cose si farebbero davvero pericolose. Ma anche qui non bisogna esagerare.

Si stima che oggi nel mondo vi siano circa 13.000 testate nucleari, ciascuna delle quali contiene al massimo qualche chilo di uranio: stiamo quindi parlando in totale di qualche decina o al massimo qualche centinaio di tonnellate. Ora, giusto per dare un termine di paragone, soltanto negli oceani del mondo sono disciolte quasi 5 miliardi di tonnellate di uranio, cioè una quantità da 10 a 100 milioni di volte maggiore. All’uranio marittimo va poi aggiunto quello contenuto nelle rocce, il cui ammontare totale è più difficile da stimare perché è distribuito in modo meno uniforme, ma come ordine di grandezza non può essere molto diverso, considerato che le terre emerse coprono il 30% del pianeta. Infine, nelle rocce e nei mari vi sono altri minerali radioattivi oltre all’uranio, anche se il loro contributo è inferiore. Eppure, il fondo naturale di radioattività della Terra è così basso da farci assorbire appena 2,4 millisievert (mSv) all’anno.

Per avere un termine di riferimento, una singola TAC può farcene assorbire una quantità anche 6 volte superiore in pochi minuti, eppure non è certo pericolosa. Si comincia a correre qualche rischio per la salute solo intorno ai 100 mSv, mentre la dose letale è di 5000 mSv. Anche utilizzando l’intero arsenale nucleare terrestre, quindi, non si vede come si potrebbe innalzare il livello globale di radioattività a un punto tale da renderlo pericoloso ovunque. Certo, concentrazioni letali di polveri radioattive potrebbero crearsi in alcune zone, anche di considerevole ampiezza, ma sembra difficile che ciò possa accadere in tutto il pianeta.

A conferma di ciò, dobbiamo ricordare che dal 1945 a oggi sono stati eseguiti oltre 2.000 test nucleari, quasi tutti concentrati in soli 42 anni, dal 1951 al 1992. Nel 1958 ce ne sono stati 102, nel 1961 addirittura 140 e per tutti gli anni Sessanta si è rimasti vicini ai 100 all’anno.

La maggior parte di essi sono avvenuti sottoterra o all’interno di atolli come Bikini o Mururoa, ma circa un terzo, per un totale di oltre 400 megaton, si è svolto direttamente nell’atmosfera. Ebbene, a parte un leggero aumento dei casi di tumore in alcune delle popolazioni più vicine alle zone dei test, nell’insieme tutto ciò non ha avuto conseguenze rilevanti sulla salute della gente. Eppure, stiamo parlando di una potenza equivalente a circa un quarantesimo dell’intero arsenale nucleare terrestre odierno, stimato intorno ai 15.000 megaton.

Rischi autentici e rischi immaginari

A questo punto siamo in grado di valutare realisticamente i rischi che corriamo. E a tal fine sarà utile cominciare da quelli che non corriamo, ma di cui, ciononostante, abbiamo paura, visto quanto spesso se ne parla.

Anzitutto, non corriamo il rischio di distruggere la Terra, timore molto diffuso, ma semplicemente ridicolo. Per rendere l’idea saranno utili due termini di paragone.

Il primo è il terremoto del 26 dicembre 2004, il più violento degli ultimi 50 anni e il terzo in assoluto da quando siamo in grado di misurarli, che provocò il famoso “Tsunami di Santo Stefano” nell’Oceano Indiano. Sviluppò un’energia pari a 52.000 megaton, equivalente a mille bombe Tsar o, se si preferisce, a tre volte e mezza l’intero arsenale nucleare terrestre. Eppure, ciò si limitò a generare alcune onde alte una ventina di metri, che per noi sono enormi, ma per il pianeta rappresentano un’increspatura pari ad appena un seicentomillesimo del suo diametro: come se i capelli di un uomo alto un metro e ottanta subissero un ondeggiamento di 3 millesimi di millimetro.

Il secondo è la caduta dell’asteroide che sterminò i dinosauri, il più violento evento terrestre conosciuto. Sprigionò un’energia di almeno 100 milioni di megaton, pari ad oltre 6.600 volte quella dell’intero arsenale nucleare terrestre, creando un cratere di 180 km di diametro e 20 km di profondità e causando catastrofi inimmaginabili in tutto il globo, rispetto alle quali anche le peggiori a cui l’umanità ha assistito in tutta la sua storia sono roba da ridere. Eppure, al pianeta fece appena il solletico.

Nemmeno siamo in grado di distruggere la vita sulla Terra, cosa che non riuscì neppure all’asteroide suddetto. Anzi, quella catastrofe sbloccò la situazione di stallo in cui si trovava da tempo l’evoluzione, dominata da oltre 160 milioni di anni dai dinosauri, aprendo così la strada a una nuova fase che alla fine condusse alla comparsa della prima (e per ora unica) forma di vita intelligente conosciuta: noi. D’altronde, sappiamo che nella storia dell’evoluzione si sono verificate diverse estinzioni di massa e sempre, dopo ognuna di esse, la vita non solo è ripartita, ma è anzi progredita verso un più alto livello di complessità. Anche se noi dovessimo sparire, quindi, la vita di sicuro continuerà.

Ma anche l’estinzione della razza umana è un’eventualità molto remota. Certamente, una guerra nucleare fra Russia e Stati Uniti porterebbe alla fine della nostra civiltà in tutte le zone colpite e avrebbe gravi ripercussioni anche sulle altre, perché farebbe saltare in aria il sistema economico che abbiamo creato negli ultimi decenni (il che di per sé sarebbe positivo, dato che il sistema suddetto è completamente folle, ma sul breve periodo avrebbe conseguenze pesantissime). Alla lunga, tuttavia, in queste zone si creerebbe un nuovo ordine, magari perfino migliore di quello attuale, e l’umanità andrebbe comunque avanti.

Solo se le due superpotenze dovessero scagliarsi reciprocamente addosso tutto ciò che hanno o, peggio ancora, colpire indiscriminatamente ogni parte del pianeta la sopravvivenza dell’umanità sarebbe davvero a rischio. Questo non tanto per le distruzioni in sé stesse o per le radiazioni, che, come già si è detto, da sole non basterebbero a ucciderci tutti, ma piuttosto perché il collasso delle infrastrutture tecnologiche ci costringerebbe a ricorrere, per sopravvivere, a tecniche molto primitive di agricoltura e allevamento, cosa che ben pochi ormai saprebbero fare, perfino nelle zone in cui si vive ancora a più stretto contatto con la natura.

Tuttavia, una guerra nucleare totale è un’eventualità così estrema che appare molto improbabile, anche perché per scatenarla occorre la collaborazione di molte persone e sembra davvero difficile che di fronte all’Apocalisse nessuno si ribelli. Quello che appare invece più verosimile è un uso limitato di armi nucleari tattiche su uno specifico campo di battaglia, come appunto si teme possa accadere in Ucraina. Ma fino a che punto questo rischio è reale?

Armi tattiche e strategiche

Anzitutto va detto che, come già si accennava prima, la distinzione tra armi strategiche e tattiche non è per nulla facile da definire. In genere con il primo termine si intende un’arma di distruzione di massa, mentre col secondo si intende una bomba di potenza e gittata relativamente limitate. In realtà, però, questa è una condizione necessaria, ma non sufficiente, perché conta anche l’uso che se ne fa: solo se usata esclusivamente contro obiettivi militari sul campo di battaglia, infatti, un’arma nucleare tattica può essere considerata realmente tale.

La bomba di Hiroshima, per esempio, era di soli 15 kiloton, ma nessuno sarebbe disposto a considerarla un esempio di arma tattica, essendo stata usata per colpire il nemico sul proprio territorio e in maniera indiscriminata. Perfino un’atomica portatile da mezzo kiloton, se piazzata in una città, potrebbe raderne al suolo una porzione considerevole, pari all’intero centro di Milano: e in tal caso neanch’essa potrebbe essere considerata un’arma tattica.

D’altra parte, le bombe all’idrogeno e le atomiche più potenti, dell’ordine delle centinaia o migliaia di kiloton, non potrebbero in nessun caso essere considerate tattiche, neppure se usate solo a scopi militari, non solo a causa delle distruzioni su vasta scala che provocherebbero, ma soprattutto per il significato che avrebbero, dimostrando che il paese che le ha lanciate non intende porsi alcun limite. E neanche potrebbero essere considerate tattiche bombe di potenza limitata se venissero usate in gran numero, in modo tale che l’effetto cumulativo fosse analogo a quello delle bombe più potenti.

In definitiva, quindi, possiamo dire che le armi nucleari tattiche sono tali solo se rispettano contemporaneamente limiti riguardo alla potenza, all’utilizzo e al numero. Una tale definizione rende però molto difficile il loro impiego nel mondo reale.

Anzitutto, come ci ha mostrato l’analisi precedente, il vero punto di forza delle armi nucleari non è tanto la grandezzadell’area che sono in grado di colpire (che, soprattutto nel caso delle armi tattiche, è assai inferiore a ciò che comunemente si crede), bensì la potenza con cui la colpiscono. In altre parole, esse si caratterizzano principalmente per avere una grande potenza molto concentrata e, di conseguenza, hanno la massima efficacia contro obiettivi anch’essi molto concentrati.

Purtroppo, però, sul campo di battaglia i punti in cui le truppe nemiche sono più concentrate sono in genere gli stessi in cui sono più concentrate anche le proprie truppe, per cui è molto difficile colpire le prime senza colpire anche le seconde. E la situazione è ancor peggiore quando il fronte si trova all’interno del proprio territorio o di quello che si intende conquistare, come sta appunto accadendo attualmente in Donbass. In tal caso, infatti, oltre alle proprie truppe si finirebbe inevitabilmente per colpire anche la propria popolazione. E anche se si riuscisse a evitarlo facendola evacuare (cosa molto complicata, con una guerra in corso), le radiazioni contaminerebbero comunque tutta la zona, rendendola inabitabile per decenni.

Inoltre, come abbiamo visto prima, con una potenza limitata a qualche kiloton si può colpire un’area di non più di 15-20 km2, che sono tantissimi in una zona urbana, ma sono invece pochissimi in un campo di battaglia moderno, che può avere un’area di migliaia di km2. Pertanto, anche volendo ignorare i problemi precedenti, sarebbe in ogni caso molto difficile rovesciare le sorti di una guerra con le sole armi nucleari tattiche, a meno di usarle in così gran numero da cambiarne di fatto la natura.

Non che si tratti di considerazioni particolarmente originali. È noto che gli americani avevano esaminato la possibilità di usare armi nucleari tattiche in Vietnam, ma l’avevano scartata perché erano giunti alla conclusione che non avrebbero prodotto cambiamenti significativi nell’andamento del conflitto. Eppure, vi sono molti, anche tra gli esperti, che ancora non sembrano averlo chiaro.

Di esempi in tal senso ne abbiamo avuti a iosa, per cui mi limiterò a citare il più clamoroso, quando nelle prime settimane del conflitto Andrea Margelletti, che pure di cose militari se ne intende, aveva mostrato quello che secondo lui sarebbe stato l’effetto di una singola atomica tattica usata dai russi sul fronte sudorientale dirigendosi verso la cartina appesa al muro dello studio di Porta a porta e togliendone, senza dire una parola, tutte le figurine che rappresentavano l’esercito ucraino.

L’effetto teatrale è stato ottimo, quello comunicativo, invece, pessimo: per fare scomparire l’intero esercito ucraino da un’area vasta quanto un quarto del paese, ovvero quanto l’intera Pianura Padana, ci vorrebbero infatti almeno una decina di bombe Tsar, pari a circa un quindicesimo della potenza dell’intero arsenale nucleare russo, altro che un’atomica tattica! Inoltre, un attacco del genere in quella zona causerebbe un enorme fallout radioattivo, che, oltre all’Ucraina, devasterebbe l’intero Donbass, nonché tutte le regioni russe poste in prossimità del confine e forse perfino la stessa Mosca.

Ebbene, questo modo irresponsabile di parlare del pericolo nucleare (che certo esiste e non dev’essere sottovalutato, ma nemmeno esasperato) è un esempio perfetto di ciò che intendevo prima quando ho detto che un errore su questo punto ci può portare a prendere decisioni sbagliate.

Putin, infatti, come ho scritto in un precedente articolo (https://www.fondazionehume.it/politica/la-prevedibile-caporetto-di-putin-e-quella-inquietante-degli-esperti/), un po’ scherzando ma anche no, è certamente pazzo, ma non del tutto: diciamo all’87% o giù di lì. Ora, quel 13% di razionalità che gli resta è stato fin qui (fortunatamente) sufficiente a fargli capire che l’atomica gli può essere molto più utile se non la usa davvero, ma si limita ad agitarla come spauracchio per spaventarci, sperando di ottenere delle condizioni di pace abbastanza favorevoli da permettergli di proclamarsi vincitore, salvando così il potere e, con esso, la pelle. E se non abbiamo ben chiara la situazione rischiamo di cascarci.

La pericolosa utopia del mondo denuclearizzato

Ma non si tratta solo di Putin. Con la Bomba, infatti, dovremo purtroppo abituarci a convivere per sempre, perché un mondo completamente denuclearizzato non solo è un’utopia, ma è un’utopia pericolosa. C’è infatti un ultimo punto fondamentale da capire: qualsiasi tecnologia, una volta inventata, può sì essere distrutta, ma non può più essere “disinventata”.

Di conseguenza, un mondo denuclearizzato lo sarebbe solo in apparenza, mentre in realtà sarebbe continuamente esposto al rischio che qualche paese riuscisse a costruirsi di nascosto un proprio arsenale nucleare, anche piccolo. Diventando l’unico a possederlo, infatti, gli basterebbero poche decine di missili intercontinentali con testate di media potenza per essere in grado di distruggere tutte le principali città del mondo senza rischiare nessuna rappresaglia. Di conseguenza, chi ci riuscisse potrebbe imporre a tutti la propria egemonia molto più efficacemente di quanto possano fare oggi le maggiori potenze, che di testate ne possiedono migliaia, ma devono fare i conti con la certezza di subire, se le usano, un danno identico a quello che sarebbero in grado di causare.

Forse qualcuno obietterà che costruire di nascosto decine di bombe nucleari partendo da zero è molto difficile. Ed è vero. Ma difficile non vuol dire impossibile. E le conseguenze sarebbero così gravi che non possiamo permetterci di rischiare.

Inoltre, va tenuto presente che per i paesi più forti non sarebbe necessario mantenere il segreto fino al momento in cui le armi fossero operative, ma solo fino a quando la loro produzione fosse giunta a un punto tale da garantire un vantaggio incolmabile sul resto del mondo. A quel punto, infatti, per fermarla sarebbe necessaria una guerra condotta con armi convenzionali, che potrebbe forse avere successo in tempi sufficientemente brevi contro un piccolo “Stato canaglia”, ma non contro una grande potenza.

Ma non basta. C’è anche un altro motivo per cui questa sarebbe una pessima idea. Le armi nucleari, infatti, potrebbero essere l’unica nostra possibilità di salvezza dall’estinzione che provocherebbe un impatto cosmico con un asteroide o una cometa.

È uno scenario che abbiamo già visto in molti film di genere apocalittico, ma, per una volta, non si tratta di fantasia e neanche di una mera ipotesi, ma di un dato di fatto. Come suol dirsi, la domanda non è “se”, ma “quando”: sappiamo che accadrà perché è già accaduto, non solo coi dinosauri, ma molte altre volte.

E non è neanche una possibilità tanto remota: per metterci a rischio di estinzione basterebbe un oggetto molto più piccolo dell’asteroide dei dinosauri, diciamo intorno a un chilometro di diametro, che ha una probabilità su 100.000 di cadere durante il prossimo anno. Può sembrare poco, ma in realtà è un rischio appena 5 volte inferiore a quello che ciascuno di noi corre di morire in un incidente d’auto nello stesso periodo di tempo. Ci sembra che non sia così solo perché le morti da automobile le vediamo continuamente, essendo un “rischio distribuito” su un lungo arco di tempo, mentre quelle da asteroide no, essendo un “rischio concentrato” che si verifica tutto in una volta. Ma la percezione della gravità di un rischio non ha nulla a che fare con la sua gravità effettiva.

È per questo che ormai da decenni i corpi potenzialmente pericolosi vengono attentamente monitorati, in modo da poter intervenire con largo anticipo per deviarli con metodi “soft”. Ma se qualcuno ci sfuggisse e dovessimo accorgercene solo all’ultimo momento (eventualità che non si può assolutamente escludere), allora non resterebbe che usare i missili nucleari. E poiché l’idea di tenerne un certo numero solo per questo scopo sotto controllo internazionale è pura utopia, data la totale inaffidabilità delle istituzioni che dovrebbero occuparsene, a cominciare dall’ONU, l’unico modo di averli pronti al momento del bisogno (dato che non ci sarebbe il tempo di costruirli da zero) è che le potenze atomiche conservino almeno una parte di quelli che oggi possiedono.

Non credo che questo argomento convincerà molte persone: la guerra atomica ci fa molta più paura degli asteroidi e raramente la paura si vince coi ragionamenti, soprattutto in un tempo come il nostro, che ha eretto l’emotività a valore supremo. Eppure, i fatti dicono che lo scoppio di una guerra atomica è solo una possibilità (neanche tanto probabile), mentre l’essere colpiti prima o poi da un corpo celeste capace di ucciderci tutti è una certezza. Anche da questo punto di vista, quindi, un mondo completamente denuclearizzato sarebbe in realtà un mondo più pericoloso.

Una soluzione realistica: “MAD depotenziata” e mondo multipolare

Così stando le cose, dobbiamo rassegnarci alla situazione attuale o c’è qualcosa che possiamo fare? Per quel che vale, la mia opinione è che il problema delle armi nucleari non può essere risolto una volta per tutte, ma potrebbe essere gestito in modo tale da minimizzarne i rischi, creando una sorta di “MAD depotenziata”, dove la “D” finale non stia più per “destruction”, ma per “debilitation” o qualcosa di simile.

A tal fine bisognerebbe ridurre considerevolmente il numero di testate in circolazione, in modo che nessuno ne abbia a disposizione più di qualche decina. In questo modo, infatti, nessuna potenza atomica sarebbe più in grado di scatenare una guerra globale che minacci la sopravvivenza dell’intera umanità, anche se ognuna manterrebbe la capacità di rispondere a un attacco nucleare infliggendo al nemico danni abbastanza devastanti da scoraggiare chiunque dal provarci, perfino se riuscisse a produrre di nascosto un numero di testate maggiore di quello pattuito.

Inoltre, bisognerebbe limitare la tendenza, fisiologica ma non per questo meno preoccupante, all’aumento del numero dei paesi dotati di armi nucleari, per minimizzare il rischio che in qualcuno di essi vada al potere un dittatore pazzo al 100% (e non solo all’87%), che decida di usarle senza curarsi delle conseguenze.

A tal fine è necessario che i paesi che già le possiedono si facciano garanti, attraverso opportune alleanze regionali analoghe alla NATO, della sicurezza di quelli che non le possiedono. In fondo è la stessa strategia suggerita da Huntington nel suo celeberrimo Lo scontro delle civiltà, che in realtà era un tentativo di evitare tale scontro (che lui – giustamente – vedeva avvicinarsi) attraverso la creazione di un nuovo ordine mondiale più pluralista e multipolare e, soprattutto, che rifletta gli attuali rapporti di forza e non quelli del 1945 su cui si basa ancora l’ONU, che infatti non funziona.

Inoltre, è molto importante che la guerra in corso sia vinta dall’Ucraina, unico paese al mondo, finora, ad avere accettato un accordo del genere dopo avere rinunciato spontaneamente alle proprie  armi nucleari (come il Sudafrica, che però ne possedeva appena 6). Al momento della dissoluzione dell’URSS, infatti, l’Ucraina aveva ben 1300 testate, che restituì alla Russia nel 1994 con la firma del Memorandum di Budapest in cambio della solenne promessa che quest’ultima ne avrebbe in futuro garantito e protetto la sovranità e l’indipendenza. Abbiamo visto tutti com’è finita…

Già di per sé il tradimento di questo accordo da parte della Russia spingerà di sicuro molti paesi che non possiedono ancora armi nucleari a volersene dotare, ma è chiaro che, se l’Ucraina dovesse perdere, questa tendenza verrebbe ulteriormente rinforzata, mentre una sua vittoria dimostrerebbe che dopotutto è possibile difendere la propria indipendenza anche contro una superpotenza nucleare facendo unicamente uso di armi convenzionali.

Dimenticare l’Apocalisse per evitarla

Resta però un ultimo problema. Una soluzione come quella che ho suggerito può essere attuata solo attraverso una serie di complessi accordi internazionali, che presuppongono sì un certo grado di ostilità tra le principali potenze (altrimenti il problema non si porrebbe), ma anche un certo grado di collaborazione, di cui oggi purtroppo non vi è traccia. Cosa dovremmo fare, allora, mentre aspettiamo che  le cose cambino, di fronte a potenze nucleari che sembrano animate da una volontà malefica, più ottusamente violenta nel caso della Russia, più fredda e calcolatrice ma ugualmente spietata nel caso della Cina?

Ebbene, la risposta è l’esatto contrario di quello che in genere i commentatori dicono della Russia quando vogliono apparire particolarmente intelligenti e pensosi: «Non dimentichiamoci che abbiamo a che fare con una potenza nucleare». Ecco, invece dovremmo proprio dimenticarcene.

Dato infatti che con questa minaccia dovremo conviverci per sempre, far vedere che siamo disposti a cedere di fronte a chiunque disponga di armi atomiche sarebbe il modo migliore per incoraggiare tutti i dittatori, i pazzi e i criminali di questo mondo a dotarsene e, per chi le ha già, a considerare seriamente la possibilità di usarle. Certo, anche resistere è rischioso (la vita è un rischio…), però meno. Anche perché i prepotenti in genere sono vigliacchi e si fanno forti solo con i deboli, mentre davanti a un’opposizione risoluta abbaiano molto, ma mordono poco.

In questo periodo si è citata spesso (e spesso a sproposito) la crisi dei missili sovietici a Cuba, cioè il solo momento, finora, in cui il mondo si è trovato davvero a un passo dalla guerra nucleare. Ma se questa alla fine non ci fu, lo si deve al fatto che Kennedy dimostrò ai sovietici di non aver paura di farla (anche se, ovviamente, ce l’aveva). Poi, certo, dopo che ebbero fatto marcia indietro fece loro anche alcune concessioni. Ma dopo.

Se gliele avesse fatte prima, dimostrando di temerli, li avrebbe solo incoraggiati ad andare avanti con il loro folle piano.

E probabilmente noi oggi non saremmo qui a parlarne.

L’esperimento – Accordo con l’Albania

15 Novembre 2023 - di Luca Ricolfi

In primo pianoPolitica

Alle volte gli economisti mi stupiscono per la loro ingenuità. L’ultima volta che mi è successo è stato sabato scorso, leggendo su Repubblica un articolo di Tito Boeri e Roberto Perotti (due fra i miei economisti preferiti) sul progetto Meloni-Rama di delocalizzare in Albania 36 mila richieste di asilo l’anno, costruendo ex novo due appositi centri con una capacità totale di 3000 richiedenti asilo. Il nocciolo del ragionamento dei due illustri economisti è il seguente: il numero effettivo di domande smaltite sarà inferiore a 3000 all’anno perché il tempo medio di processamento delle richieste è 12 mesi, non 4 settimane.

In effetti, è quel che si insegna in vari corsi universitari, innanzitutto quelli di ingegneria gestionale, quando si spiega la formuletta che collega le vendite annuali con lo stock di merci in magazzino e il loro tempo medio di giacenza: se devo vendere 36000 e il mio magazzino tiene 3000 allora devo rinnovare il magazzino 12 volte l’anno. Banale, e leggermente cinico, visto che stiamo parlando di essere umani.

Però la formula è ineccepibile, come tutte le identità contabili. Il punto è un altro: perché mai il tempo di smaltimento delle domande dovrebbe essere 12 mesi, o addirittura superiore?

La risposta di Boeri e Perotti è: perché in Veneto, dove le cose vanno meglio che altrove, gli “operatori del settore” ci hanno detto che ci vogliono almeno 12 mesi. E, se accettiamo questa stima e la infiliamo nella formula di magazzino, salta fuori che non potremo processare più di 3000 domane e anzi, tenuto conto di altri fattori rallentanti, ne finiremo per processare circa 2000, con costi pro capite enormi, visti i costi fissi che i due centri albanesi comporteranno.

Ma la vera domanda è perché mai, in una struttura nuova di zecca, e dedicata solo alla gestione dei migranti, i tempi di smaltimento delle domande dovrebbero essere quelli medi attuali sul territorio della penisola, dove le questure sono sovraccariche (come gli ospedali!), le procedure sono complicate e farraginose (anche per il coinvolgimento di enti del terzo settore), e alle carenze di personale nelle questure e nelle commissioni territoriali non si riesce a porre rimedio?

E se accadesse invece esattamente l’inverso, ossia che proprio in Albania – e solo in Albania – i migranti potessero esercitare il diritto di essere ascoltati in tempi ragionevoli, senza le umiliazioni, le peregrinazioni, le infinite attese cui da sempre sono costretti in Italia?

In breve: la capacità effettiva dei due centri albanesi (36000 domande, o solo 2000?) non è determinabile con una formula contabile, ma è un interessante problema di sociologia dell’organizzazione. Può darsi benissimo che le cose vadano come prevedono Boeri e Perotti, e persino che vadano peggio: se a oltre 20 anni dal varo della legge Bossi-Fini nessun governo è riuscito a oliare gli ingranaggi della burocrazia dell’accoglienza, è possibilissimo che non ci riesca nemmeno questo governo.

Ma perché non dargli una chance? O, perlomeno, augurarsi che in Albania le cose vadano meglio che sul suolo italiano? Perché scommettere sempre e solo sul fallimento dei tentativi italiani di gestire il problema degli sbarchi? Perché le menti più brillanti di questo paese, anche quando sono chiaramente collocate nel campo riformista, si ingegnano soltanto a profetizzare fallimenti, anziché a dare idee su come correggere quel che non va e far riuscire l’esperimento?

Forse, una vera sinistra riformista, liberale, empirista, deve ancora nascere in Italia. Perché, se ci fosse, la sua stella polare sarebbe l’interesse nazionale, non la speranza – neanche poi tanto segreta – che l’esperimento albanese si riveli l’ennesimo flop.

image_print
1 9 10 11 12 13 105
© Copyright Fondazione Hume - Tutti i diritti riservati - Privacy Policy