Hume PageHume Page

Società

Disagio giovanile? – Un mito diventato realtà

21 Febbraio 2024 - di Luca Ricolfi

In primo pianoSocietà

Se c’è una cosa che mi ha sempre lasciato perplesso, nella mia carriera di sociologo, è l’uso ossessivo, insistito e iterato dell’espressione “disagio giovanile” per descrivere la condizione dei giovani dagli anni della contestazione in poi. Con il passare del tempo la mia perplessità si è progressivamente tramutata in stupore, e alla fine in un sentimento di incredulità. Questo perché, se prendiamo in considerazione il cinquantennio che va dal 1969 (anno dell’esame di maturità facilitato e della liberalizzazione degli accessi all’università) fino al 2019, ossia all’ultimo anno prima del Covid, quello che ci è dato osservare è, semmai, il processo inverso: la instaurazione progressiva di condizioni materiali e immateriali sempre più agiate.

Vogliamo ricordare qualcuno degli spettacolari cambiamenti che, nel cinquantennio 1969-2019, hanno investito la condizione giovanile?

Libertà sessuale: è incomparabilmente maggiore oggi. Uso del tempo: nessun padre di allora avrebbe messo la sveglia alle 2 di mattina per prelevare alle 2.30 la figlia quindicenne in uscita dalla discoteca. Autorità genitoriale: l’ubbidienza è stata sostituita dal negoziato permanente, e fin dalla più tenera età, su tutti gli aspetti della vita quotidiana. Lavoro: si è allungato di circa 5 anni il periodo della vita in cui se ne può fare a meno. Servizio militare: non esiste più, abolito giusto vent’anni fa da un governo di destra. Scuola e università: alleggerimento dei programmi e abbassamento dell’asticella della promozione. Rapporti scuola-famiglia: il patto genitori-insegnanti si è rotto, molti genitori di sono trasformati in sindacalisti dei figli.

Insomma, almeno a prima vista, nei decenni in cui illustri colleghi rilasciavano pensose riflessioni sul “disagio giovanile”, la società spensieratamente evolveva per mettere sempre più suo agio la maggioranza dei giovani. Dico “a prima vista” perché maggioranza dei giovani (ovviamente) non vuol dire tutti i giovani (le sacche di marginalità ci sono anche oggi), ma anche perché non è detto che quel che, oggettivamente, si presenta come uno spettacolare aumento di benessere e di libertà si traduca poi, soggettivamente, in maggiore appagamento, felicità, autorealizzazione.

In effetti, se leggiamo attentamente le sia pur frammentarie statistiche degli ultimi 4-5 anni, è difficile non essere colti da un certo sgomento. Quello cui si assiste, infatti, è una vera e propria esplosione di comportamenti che manifestano – oggi sì – una condizione di disagio: a quel che ricordo, mai in passato si era osservata una crescita tanto rapida e improvvisa di segnali di malessere. Nel breve lasso di tempo che va dall’ultimo anno pre-covid (2019) agli anni più recenti per cui si dispone di statistiche (2022 e 2023) si sono improvvisamente impennati sia i comportamenti autolesionistici o di ritiro sociale, come disturbi alimentari, suicidi, tentati suicidi, richieste di aiuto, auto-isolamento, sia i comportamenti aggressivi come omicidi, rapine, risse, minacce, lesioni dolose, violenza sessuale e, a scuola, bullismo e attacchi agli insegnanti (alcune stime nel grafico accanto).

È curioso. Quando l’evoluzione sociale, come una cornucopia, regalava alla condizione giovanile ogni sorta di agio, i convegni dei sociologi leggevano tutto nel registro del “disagio giovanile”, ora che quel disagio c’è davvero, i sociologi latitano, quasi avessero passato la palla a psichiatri, psicologi e pedagogisti. Resta però una domanda, anzi forse la domanda: c’è un nesso fra il disagio di oggi e gli agi dei 50 anni precedenti?

Sì, io penso che ci sia. La cifra del cinquantennio felice 1969-2019 è stata la rimozione sistematica e progressiva di ogni possibile ostacolo, nella famiglia, nella scuola e nella società, e la piena affermazione della cultura dei diritti, ovvero dell’attitudine a pretendere piuttosto che a conquistare. Questo ha reso i giovani non solo più fragili e impreparati ad affrontare difficoltà, sconfitte, sfide difficili, ma anche più insicuri, più suscettibili, più in competizione reciproca (anche grazie ai social), e in definitiva meno capaci di perseguire la felicità esistenziale: “non si diventa felici per assenza di difficoltà” aveva avvertito, esattamente vent’anni fa, Hara Estroff Marano, psicologa sociale statunitense, già allora preoccupata per la deriva mentale della gioventù americana, devastata dalla vita facilitata e dalla iper-protezione dei genitori (invasive parenting).

Tutto questo, fino allo scoppio del Covid è rimasto allo stato latente. Poi non più. Gli anni del Covid sono stati, non solo per i giovani, anni di ristrutturazione mentale, che hanno indotto a riflettere sulla propria esistenza, le proprie scelte, le proprie priorità. E spesso a concludere, più o meno vittimisticamente, che si meritava di più, o si aveva diritto a un risarcimento. Stranamente, di questa riconversione dei desideri (posso chiamarla così?) si è parlato quasi esclusivamente riguardo agli adulti e al mercato del lavoro, dove si è osservato un innalzamento generalizzato del livello di aspirazione, con l’abbandono di posti di lavoro insoddisfacenti per posti migliori o più remunerativi.

Ma la riconversione ha riguardato anche, se non soprattutto, i giovani, e non solo sul mercato del lavoro. Per loro, il fossato fra quel che si desidera e quel che si ha si è fatto più ampio, molto più ampio. Non tutti sono stati in grado di reggere lo scarto. I dati indicano che alcuni hanno reagito in modo auto-distruttivo, altri in modo aggressivo, come testimonia l’esplosione dei reati predatori, degli omicidi, delle violenze sessuali.

Forse, per il mondo degli adulti, è venuto il momento di farsi qualche domanda.

[sintesi dell’intervento di oggi al Convegno sul cinquantenario dei Decreti delegati, Firenze, Palazzo Vecchio]

Minori e violenza sessuale – Quel che dicono i dati

11 Febbraio 2024 - di Luca Ricolfi

In primo pianoSocietà

Dopo lo stupro di gruppo di Catania, in cui una bambina (italiana) di 13 anni è stata stuprata da un gruppo di ragazzi (egiziani), di cui alcuni minorenni, infuriano le polemiche. C’è chi solleva dubbi sulla legge Zampa sui “minori non accompagnati”, che riserva loro speciali diritti; e c’è chi – come alcuni operatori delle comunità che avevano in carico i ragazzi – trae spunto dal caso di Catania per chiedere “più risorse e più mezzi per fare integrare davvero questi ragazzi”. C’è chi ricorda che in un altro caso di stupro di gruppo, quello di Caivano, gli autori erano ragazzi “italianissimi”; e c’è chi nota che è proprio grazie al criticatissimo (da sinistra) decreto Caivano che, nel nuovo caso di Catania, è stato possibile arrestare anche i minorenni.

Poi, fortunatamente, ci sono anche coloro che invitano a non strumentalizzare politicamente queste tragedie, e a non generalizzare. Guai se, sulla base di singoli episodi di cronaca, si dovesse instaurare la credenza che “tutti i ragazzi egiziani sono stupratori”.

Bene, allora. Raccogliamo l’invito a non generalizzare, e proviamo a vedere che cosa possiamo dire in base ai dati.

La prima cosa è che le denunce per violenza sessuale in cui l’autore è un minorenne sono circa 300 all’anno, a fronte di un po’ meno di 1 milione e mezzo di maschi minorenni di almeno 13 anni. Se teniamo conto del fatto che, in base a varie indagini, i casi denunciati sono dell’ordine di 1 su 10, possiamo stimare che le violenze sessuali siano circa 3000 l’anno. Fatti i dovuti calcoli: per 1 ragazzo che compie violenza sessuale, ve ne sono 499 che non lo fanno. Magra consolazione, per chi (come me) pensa che anche 1 solo caso all’anno sia troppo. Ma doverosa precisazione davanti all’impulso a generalizzare a “tutti i ragazzi”, o a “tutti i ragazzi stranieri”.

La seconda cosa che possiamo osservare è che i minorenni stranieri denunciati per violenza sessuale sono più numerosi di quelli italiani (159 contro 132 nel 2022, ultimo anno per cui si hanno dati consolidati). E questo nonostante i minorenni stranieri siano molto meno numerosi, circa 1 ogni 7 minorenni italiani. In concreto, questo vuol dire che – statisticamente – la pericolosità apparente (dirò poi perché “apparente”) di un ragazzo straniero è circa 8 volte quella di un ragazzo italiano.

A questa amara constatazione alcuni ribattono, non senza qualche ragione, che il tasso di denuncia per le violenze sessuali commesse da minori stranieri potrebbe essere più alto di quello per le violenze commesse da minori italiani. Di qui l’apparente maggiore pericolosità dei minori stranieri.

C’è sicuramente del vero in questa osservazione, che tenta di equiparare ragazzi italiani e ragazzi stranieri. E tuttavia, a un’attenta analisi dei dati, essa rivela non poche pecche. Non tutti i reati, infatti, sono esposti all’obiezione del diverso tasso di denuncia, perché esistono anche reati in cui il “numero oscuro” (reati non denunciati) è prossimo a zero, o verosimilmente non molto diverso fra autori italiani e stranieri. Per un reato come l’omicidio, ad esempio, è arduo sostenere che venga denunciato molto di più se commesso da stranieri ; così per reati come le rapine, le lesioni dolose, le risse, i danneggiamenti mediante incendio. Eppure, anche per questi reati, come per le violenze sessuali, i minori stranieri risultano avere degli indici di criminalità molto più alti di quelli degli italiani. Qualche mese fa la Polizia Criminale ha fornito, per il 2022, dati estremamente accurati e disaggregati sulle segnalazioni (denunce e arresti) di minori. Ebbene, su 15 reati considerati, non ve n’è nemmeno uno in cui l’indice di criminalità dei minori stranieri non sia molto più elevato di quello degli italiani. Si va dall’omicidio e tentato omicidio, per cui gli stranieri sono “solo” 3 volte più pericolosi degli italiani, alle risse e ai furti (per cui lo sono 9 volte), passando per le violenze sessuali (8 volte), le rapine (7 volte), le percosse (6 volte), le estorsioni (5 volte), solo per fare alcuni esempi.

Questo però non è l’unico motivo per cui l’alibi dei diversi tassi di denuncia è molto debole. C’è anche l’andamento delle denunce fra il 2019 (era pre-covid) e il 2022, che  mostra una impressionante divaricazione fra italiani e stranieri: mentre il numero di reati dei minori italiani è diminuito del 2.8%, quello dei minor stranieri è aumentato del 41.5%. Una variazione enorme, se si considera la brevità del periodo, e la lentezza con cui si muovono nel tempo gli indici di criminalità.

Conclusione?

Nessuna, perché i dati non dettano le politiche, ma si limitano a descrivere lo sfondo su cui qualsiasi politica è costretta a operare. Lo sfondo è che, allo stato attuale, la pericolosità dei minorenni stranieri è molto maggiore di quella dei minorenni italiani, e il divario sta aumentando. Qualsiasi politica si preferisca adottare – meno sbarchi, o più accoglienza – sarebbe meglio non ignorare il dato di fatto.

Che cos’è un’emergenza?

7 Febbraio 2024 - di Luca Ricolfi

In primo pianoPoliticaSocietà

Sono molti a pensare che la stampa, e più in generale gli organi di informazione, denunciando ingiustizie di ogni tipo e sollecitando la politica ad intervenire, svolgano una attività meritoria.

Spesso è così. Ci sono drammi, iniquità, angherie che mai verrebbero alla luce se non vi fosse un organo di informazione che le porta all’attenzione dell’opinione pubblica. Nello stesso tempo, però, può accadere che il ruolo dei media sia fortemente distorsivo, o quantomeno arbitrario. Per capire perché, dobbiamo partire da una premessa: non solo il budget del governo, ma anche lo stock di attenzione dei governanti, è una grandezza finita. Nemmeno il più sensibile capo dello stato, presidente del consiglio, ministro, è in grado di stare dietro a tutte le innumerevoli questioni di cui, in linea di principio, dovrebbe occuparsi attivamente, a maggior ragione in un paese come l’Italia, in cui quasi nulla funziona come dovrebbe. Di qui una conseguenza cruciale: non potendo occuparsi di tutto, la politica cerca sì – come è naturale – di attuare le misure programmatiche che considera prioritarie, ma sul resto, sulla porzione altamente discrezionale dei suoi interventi, è in balia delle campagne di stampa. Le quali, proprio per questo, hanno un enorme potere di selezione dei temi su cui – alla ricerca del consenso – finirà per attivarsi l’azione dei governanti.

E’ ben usato questo potere?

Impossibile dirlo in generale, ma è facile notarne l’aleatorietà, l’arbitrarietà, e la volatilità. Prendiamo il caso della piccola Kata, la bambina peruviana di 5 anni scomparsa il giugno scorso. Il suo caso ha suscitato un enorme interesse nei primi tempi, e ora è quasi completamente dimenticato. Ma perché tanta attenzione e tante risorse investigative proprio su Kata? Pochi lo sanno, ma i minori scomparsi sono circa 50 al giorno, di cui la metà non vengono mai rintracciati. Chi si occupa degli altri 10 mila minori scomparsi da allora? Perché Kata ha goduto del (per ora inutile) privilegio di essere cercata assiduamente, e gli altri 9999 bambini e bambine no?

Un discorso analogo, con risvolti paradossali, si potrebbe fare sul caso di Ilaria Salis. Gli italiani detenuti all’estero sono più di 2000, non di rado in condizioni critiche. Ma, anche qui, la possibilità di ricevere la dovuta attenzione è altamente soggetta al caso. Se non avesse avuto la “fortuna” di essere ripresa in catene in un’aula giudiziaria, Ilaria Salis non beneficerebbe dell’attenzione che i media le stanno riservando. E possiamo pure star certi che, dopo che due o tre casi analoghi saranno stati portati all’attenzione, degli altri 2000 italiani all’estero non parlerà più nessun giornale nazionale e non si occuperà nessun politico in vista.

Ho fatto questi esempi per illustrare l’enorme potere dei media nel selezionare le questioni di cui, volente o nolente, il potere politico sarà costretto ad occuparsi, sottraendo attenzione ed energie ad altre questioni, magari ancora più rilevanti o drammatiche. Ecco perché ha senso chiedersi come i media usano la loro discrezionalità.

La mia impressione è che la esercitino più secondo le leggi dello spettacolo che secondo quelle della ragione. Spesso i temi portati all’attenzione sono semplicemente quelli capaci di suscitare le emozioni più forti, dall’odio alla compassione alla paura, con poco riguardo alla rilevanza sociale, o alla effettiva possibilità di intervento da parte della politica. Soprattutto, sono temi volatili, fondati sulla definizione di “emergenze” immancabilmente destinate a scomparire dalla scena nel giro di pochi giorni.

Eppure non dovrebbe essere difficile riconoscere una vera emergenza, e distinguerla dalle emergenze puramente mediatiche. Per far questo, dovremmo almeno imparare a individuare e distinguere gli ingredienti essenziali di una vera emergenza. Che sono almeno tre: la presenza di un interesse pubblico, un improvviso peggioramento della situazione, la possibilità di intervenire per modificare il corso delle cose.

Per fare un esempio provocatorio: i morti sul lavoro sono una cosa bruttissima, sarebbe opportuno intervenire per ridurli, ma tecnicamente non sono un’emergenza, perché sono stazionari (anzi in lieve diminuzione, secondo gli ultimi dati). I suicidi in carcere, al contrario, sono una vera emergenza, perché stanno aumentando a un ritmo mai visto in passato, e sono ben note le misure che potrebbero frenare il fenomeno. Eppure, se contate gli articoli di stampa o i moniti dei capi dello stato degli ultimi anni, vi sembrerà che la vera emergenza sia la prima e non la seconda.

La demenza dell’Intelligenza Artificiale – Dall’Analisi dei Dati all’IA qualche elemento di riflessione

29 Gennaio 2024 - di Renato Miceli

In primo pianoSocietà
  1. Introduzione

Possono esservi efficaci applicazioni informatiche che si avvalgono delle tecnologie cosiddette di Intelligenza Artificiale; mi pare tuttavia, vi sia anche della demenza nel loro utilizzo pervasivo.

In questo scritto mi occupo di Intelligenza Artificiale (IA) e Machine Learning (MaL) ambiti diversi da quello dell’Analisi dei Dati in Psicologia e Sociologia cui ho dedicato gran parte dei miei studi e della mia vita. Fra i diversi settori esistono, tuttavia, intense relazioni, constatato che molti degli algoritmi impiegati nelle nuove tecnologie informatiche utilizzano (spesso con forzature) metodi, modelli e tecniche tradizionali dell’Analisi dei Dati.

Agli esperti di IA chiedo comprensione se qualche mia argomentazione può risultare troppo superficiale o grossolana; lo scopo di queste pagine è prevalentemente didattico, volto ad evidenziare qualche punto di connessione e su questo riflettere. Per raggiungere lo scopo, ho realizzato (a fini didattici, appunto) un’applicazione che emula un Classificatore Bayesiano Naif (CBN)[1]; un CBN in miniatura che, mantenendo integro l’algoritmo bayesiano su cui si fonda, permette però, tramite l’utilizzo di pochi dati di fantasia e di un contesto originale, di assolvere a due propositi. Da un lato illustrare, negli opportuni ambienti di apprendimento, i legami con l’Analisi dei Dati (frequenze, tabelle di contingenza, probabilità, modello logit, etc.); dall’altro, per un pubblico più ampio, conoscere – almeno per sommi capi – come può essere realizzato un CBN, consentendo di riflettere sui pregi, i limiti e i pericoli insiti nell’utilizzo di tecnologie di questo tipo.

Le pagine che seguono sono dedicate a questo secondo obiettivo.

  1. Uno sguardo su Machine Learning e Intelligenza Artificiale

Sempre più sovente ci viene detto che, anche inconsapevolmente, stiamo interagendo con strumenti dell’IA e del MaL. <<Forse non lo sapete, ma il machine learning vi ha circondato. […] Ogni volta che usate un computer, ci sono buone probabilità che da qualche parte entri in gioco il machine learning>> (P. Domingos, 2016, p. 11)[2]. Il MaL è un termine generico per indicare una branca dell’IA che sviluppa algoritmi per risolvere problemi, generalmente di classificazione, con metodi in prevalenza di tipo matematico-statistico. Così, non è sorprendente che la comunicazione di massa usi la più generica e allusiva espressione di IA per farci sentire non solo a nostro agio, ma anche orgogliosi di poter utilizzare queste nuove tecnologie.

Stupisce, invece, la scarsità di informazioni comunemente accessibili e non specialistiche che illustrino il modo di operare di questi strumenti informatici. Accanto alla celebrazione dei loro pregi, è possibile sapere se e quanto sbagliano? Quali limiti di utilizzo è ragionevole attendersi? Presentano qualche difetto conosciuto? Viene comunemente detto che l’utilizzo diffuso di queste nuove tecnologie modifica, e modificherà ancor di più in futuro, l’ambiente in cui viviamo e le nostre vite. Di quali modifiche si tratta? Siamo sicuri che siano rivolte al meglio? Nell’uso pervasivo di queste tecnologie si possono annidare pericoli di tipo sociale? E, nel caso, quali?

Qualcuna di queste domande, le relative risposte e le questioni su cui vertono sono sicuramente e ampiamente discusse nella ristretta cerchia ingegneristico-informatica degli addetti ai lavori, ma – mi pare – non ne giunga eco all’esterno. Eppure l’arco delle applicazioni è già molto vasto e destinato ad estendersi ancor più in futuro; solo per fornire una breve e certamente non esaustiva panoramica, prodotti dell’IA sono coinvolti:

– nei motori di ricerca sul web, per decidere quali risultati (e anche quale pubblicità) mostrare a ciascun utente;

– nei filtri anti-spam delle mail;

– nell’uso del traduttore automatico di Google;

– nei siti di Amazon, Netfix, Facebook, Twitter (ora X), etc. per consigliare cosa può piacerci o quali aggiornamenti mostrare;

– nell’interpretazione dei comandi vocali e nei correttori degli errori di battitura;

– nell’identificazione facciale;

– nella diagnosi di malattie;

– nel determinare l’affidabilità creditizia;

– nell’assistere i giudici nelle loro decisioni (almeno negli USA);

– etc. etc.

Come peraltro avviene in tutti gli ambiti, gli specialisti del campo si preoccupano di far funzionare al meglio il loro prodotto per risolvere il problema che è stato loro posto (quale algoritmo o quale combinazione di algoritmi è più idonea, quali e quanti dati sono necessari per istruire l’algoritmo, quanto rapidamente risponde alla chiamata, e così via). Ragionevolmente, non è compito loro informare il largo pubblico sul funzionamento del prodotto; noi fruitori, spesso inconsapevoli, non siamo nemmeno i committenti di quella tecnologia. Questi ultimi sono aziende interessate a migliorare i loro servizi e a massimizzare il loro profitto; a loro interessa che il prodotto funzioni per i loro fini; ad esse compete la diffusione e la pubblicità del loro operato, non può certo essere demandato neppure a loro il compito di informare adeguatamente il pubblico.

Se a tutto questo si aggiunge anche l’alone mitico, di mistero e di inaccessibilità che accompagna la propaganda intorno all’IA, sembra proprio che a noi, comuni mortali, non resti altro da fare che cliccare.

Così, però, sul tema dell’IA si rischia di alimentare false credenze e il formarsi di faziosità spesso dominate dall’ignoranza: contro chi crede al mito “tecno-digitale” delle macchine, che fanno e faranno tutto e meglio degli umani, si schiera una professione di fede opposta, pregiudicando lo sviluppo di una visione critica che necessita comprendere, almeno approssimativamente, come funziona questa tecnologia.

D’altra parte, è proprio la rilevanza degli scenari aperti dalla diffusione dell’IA che impone lo sviluppo di momenti informativi accessibili a tutti e capaci di alimentare un sano ed equilibrato dibattito pubblico di cui si sente urgente bisogno, ma di cui – almeno qui in Italia – non v’è traccia.

Attingendo ancora dal già citato testo di P. Domingos, è possibile trarre qualche elemento di conoscenza capace, almeno un po’, di dissipare la nebbia che avvolge l’argomento. Facendo riferimento al MaL, due sono gli aspetti sui quali insistono i vari algoritmi: apprendere e prevedere; come fare affinché l’algoritmo apprenda, reagendo adeguatamente all’acquisizione di nuovi dati e come utilizzare le conoscenze acquisite per prevedere cosa accadrà nel futuro.

Pur nella varietà delle risposte che possono essere date a questi quesiti, è confortante sapere che <<le centinaia di nuovi algoritmi di apprendimento inventati ogni anno si basano su un numero ristretto di idee fondamentali>> (ibid., p. 11) che, a loro volta, permettono di articolare il campo in cinque scuole di pensiero che dispongono di un proprio algoritmo di riferimento e che si ispirano a diversi ambiti del sapere. Sinteticamente (ibid., p. 18) le cinque scuole di pensiero sono:

1) i simbolisti che si ispirano alla filosofia, alla psicologia e alla logica, per i quali l’apprendimento è l’inverso della deduzione;

2) i connessionisti che prendono spunto dalle neuroscienze e dalla fisica, che considerano l’apprendimento un’operazione di reverse engineering;

3) gli evoluzionisti che fanno riferimento alla genetica e alla biologia evolutiva, per i quali l’apprendimento si realizza tramite simulazioni numeriche dell’evoluzione;

4) i bayesiani che poggiano sulla statistica e vedono l’apprendimento come una forma di inferenza probabilistica;

5) gli analogisti vicini alla psicologia e all’ottimizzazione matematica, che ritengono l’apprendimento un processo fondato su estrapolazioni basate su criteri di somiglianza.

Cercando di riassumere le principali caratteristiche comuni a tutti questi algoritmi, si può dire che:

(a) producono prevalentemente classificazioni;

(b) possono essere molto semplici, realizzabili – dal punto di vista informatico – con poche righe di codice;

(c) si nutrono di grandi quantità di dati, i cosiddetti “BigData”;

(d) modificano il loro comportamento in funzione dei dati usati in addestramento;

(e) rispondono anche in presenza di situazioni non presenti nei dati di addestramento;

(f) spesso sono secretati, brevettati da aziende private o sottoposti a “proprietà intellettuale” o a “segreto industriale”.

Come detto, fra le diverse scuole vi è quella bayesiana, che produce algoritmi basati sul teorema di Bayes ed è a questa che farò riferimento nel seguito.

  1. Il Classificatore Bayesiano Naif

Il teorema di Bayes viene spesso presentato come uno strumento utile per passare “agevolmente” dalle probabilità degli effetti, alle probabilità delle cause. Più in generale e con riferimento al linguaggio in uso con le tabelle di contingenza, il teorema consente di ottenere le proporzioni o probabilità condizionali di riga (data la colonna), se si dispone delle probabilità condizionali di colonna e viceversa. Nella terminologia Bayesiana, assumendo di conoscere la probabilità di riga, questa viene detta “a priori”, mentre la probabilità condizionale di riga data la colonna si chiama “verosimiglianza”; la probabilità di colonna prende il nome di “evidenza” e la probabilità condizionale di colonna data la riga, che si può calcolare grazie al teorema, è detta “a posteriori”. Così il teorema di Bayes può essere espresso in modo conciso da questa semplice equazione:

Per esempio, possiamo immaginare di sapere che fra tutti i pazienti la probabilità di avere la febbre è 0.3 (a priori) e che la probabilità di avere l’influenza è 0.4 (evidenza); conoscendo anche che, fra i pazienti con la febbre, la probabilità condizionale di essere affetti dall’influenza è 0.6 (verosimiglianza), è possibile ottenere la probabilità condizionale (a posteriori) di essere affetti dall’influenza dato che si ha la febbre:

Chiaramente, nell’esempio, l’influenza è una delle possibili cause dell’effetto o sintomo: avere la febbre; d’altra parte è altrettanto evidente che, per poter stabilire di avere l’influenza, vorremmo e dovremmo disporre della presenza o assenza di altri sintomi come brividi, mal di gola, etc.

Così facendo, però, la questione diventa più complicata dato che raramente, o mai, i vari effetti – proprio come i sintomi dell’esempio – sono fra loro (probabilisticamente) indipendenti.

Generalizzando l’utilizzo del teorema a situazioni in cui è presente più di un effetto, si assiste ad una esplosione combinatoria[3] che rende tecnicamente impossibile considerare (nella formula del teorema) le probabilità condizionali (degli effetti data ciascuna causa), anche quando il numero degli effetti è limitato (per esempio: considerando solo 40 effetti di tipo booleano, le combinazioni da gestire sono già un numero di 12 cifre: 1.0995⋅1012).

Lo stratagemma adottato per superare l’ostacolo consiste nel compiere un’assunzione (piuttosto ardita): si assume che tutti gli effetti considerati siano mutuamente indipendenti, data la causa. Da qui deriva l’attributo “naif” conferito all’algoritmo: <<… si tratta proprio di un’assunzione ingenua. […] Il machine learning, però, è l’arte del fare assunzioni false e cavarsela lo stesso>> (P. Domingos, 2016, p. 182).

Sotto questa assunzione e qualche ulteriore accorgimento tecnico, la realizzazione pratica di un algoritmo basato sul teorema di Bayes diventa gestibile. Accompagnando poi l’output dell’algoritmo (che è un vettore contenente valori di probabilità) ad una opportuna regola di decisione (che può essere anche molto semplice, come l’estrazione del valore massimo), si ottiene un Classificatore Bayesiano Naif (Naïve Bayes Classifier).

Forse anche per la sua semplicità (una sola equazione), l’algoritmo è ampiamente utilizzato nei prodotti informatici che sfruttano le tecniche dell’IA. L’algoritmo, senza paternità, circola dagli anni ‘70 del secolo scorso, ma <<cominciò ad affermarsi seriamente negli anni novanta, quando i ricercatori si accorsero con stupore che spesso era più accurato di learner molto più sofisticati […]. Oggi Naïve Bayes è molto diffuso. Ad esempio, è alla base di molti filtri antispam […]. Anche i motori di ricerca più semplici utilizzano un algoritmo molto simile a Naïve Bayes per decidere che pagine web mostrarvi […]. La lista dei problemi di previsione cui si è applicato Naïve Bayes è praticamente infinita>> (P. Domingos, 2016, p.183). <<Partendo da un database di cartelle cliniche contenenti i sintomi dei pazienti, i risultati delle analisi e la presenza di patologie pregresse, Naïve Bayes può imparare a diagnosticare una malattia in una frazione di secondo, con un’accuratezza che spesso supera quella di medici con anni di studio alle spalle>> (P. Domingos, 2016, p. 47).

3.1 Un’applicazione

Questo stesso algoritmo è alla base del funzionamento di un’applicazione, realizzata a scopo didattico, che consente di “giocare” con il CBN per monitorarne il funzionamento e per ragionare su quanto gli ruota attorno.

L’applicazione volutamente fantasiosa e bizzarra per quanto attiene al contesto che però riguarda l’esperienza di ogni studente, è stata pensata cercando di ridurre al minimo indispensabile i dati da utilizzare, sia per la fase di apprendimento, sia per l’interrogazione (anche a scapito della ragionevolezza).

Lo scopo ipotizzato di questa applicazione consiste nel disporre di uno strumento che, come una magica sfera di cristallo, consenta ad un ipotetico studente di prevedere l’esito di un esame universitario (in una qualche disciplina), sfruttando esclusivamente dati comportamentali o di atteggiamento, senza avvalersi di alcuna informazione nel merito della disciplina stessa.

Così, l’applicazione fornisce il suo responso, stimando la probabilità fra due esiti (Classi) alternativi: “Promosso” / “Respinto”, indicati rispettivamente come “S” e “N”, utilizzando le informazioni desumibili da quattro Indicatori (Caratteristiche o Features) relativi a ciascun studente; due Indicatori sono di tipo categoriale con tre Categorie ciascuno, mentre gli altri due sono booleani; l’insieme degli Indicatori costituisce così un Profilo (Pattern o Configurazione) relativo ad ogni studente. Il significato degli Indicatori e delle relative categorie è riportato in Figura1 (fra parentesi quadre è indicato il codice attribuito a ciascun Indicatore e a ogni Categoria).

Figura1

Si può ipotizzare che ogni studente risponda a quattro domande del tipo: “Lei ha seguito le lezioni in maniera: Continuativa / Saltuaria / Mai ?”; etc.

Senza che i professori possano accedere a queste informazioni, viene poi svolto l’esame tradizionale, così da poter confrontare l’esito empirico (reale) con quello pronosticato dal CBN. Oppure, in maniera “avveniristica”, si può pensare che, svolgendo lo studente tutte le sue attività sul web, altri classificatori siano incaricati di definire la categoria che gli compete, per ogni Indicatore; un opportuno sistema di IA potrebbe allora sostituire i professori (divenuti così obsoleti e inutilmente costosi), fornendo il suo intelligente responso (forse e ahimè, vi è più di qualcuno che auspica questa seconda ipotesi).

Comunque sia, il nostro Classificatore necessita di dati per essere istruito. Grandi quantità di dati (BigData) sono certamente utili e indispensabili per addestrare un CBN a svolgere compiti importanti come la diagnostica di malattie o il riconoscimento di volti; l’addestramento con grandi quantità di dati richiede, tuttavia, che questi siano disponibili, oltre a tempi di elaborazione molto lunghi e computer dedicati. Su questo aspetto si ritornerà nel seguito, intanto però, è bene precisare che non è questa la strada utile per la nostra applicazione.

Per la fase di apprendimento iniziale del nostro CBN ci si è avvalsi di pochi dati (20 osservazioni) frutto di fantasia. Più precisamente, i dati sono stati generati tramite simulazione, facendo in modo però che alcune relazioni (fra Classe e Indicatore) fossero più forti di altre; così da rendere la matrice dei dati in input aderente allo stereotipo che vuole una maggiore probabilità di promozione per chi, convenzionalmente, fa le cose per bene (segue le lezioni, svolge gli esercizi, studia intensamente, etc.): una matrice dati, insomma, benpensante.

La matrice dati utilizzata per la fase di apprendimento iniziale è riportata in Figura2.

Figura2

Sulla base di queste conoscenze acquisite il CBN fornisce prestazioni discretamente buone con un tasso di Classificazioni corrette pari a 0.8 (80%) e una percentuale di falsi positivi (previsti come promossi e invece respinti all’esame) pari a circa il 22% (2 falsi positivi, su 9 empiricamente respinti).

Stante la struttura definita di questo CBN (2 Classi, 2 Indicatori con 3 Categorie e 2 Indicatori con 2 Categorie) le Configurazioni teoriche di cui può disporre sono 72 (32⋅22=36 per 2 Classi); senza considerare le Classi, i Profili disponibili sono 36, e i dati utilizzati ne coprono 11 (30.56%), quindi vi sono 25 Profili totalmente sconosciuti al CBN.

Provando ad interrogare il CBN, fornendogli qualcuno di questi Profili (sconosciuti ai dati di apprendimento), si ottengono comunque delle risposte sensate; per esempio: uno studente con il Profilo “1010” (frequenza alle lezioni continuativa; svolgimento esercizi mai; studio profondo; interesse basso) ottiene la previsione di essere promosso con una probabilità di 0.7056; un altro studente con il Profilo “0200” (frequenza alle lezioni mai; svolgimento esercizi raro; studio superficiale; interesse basso) ottiene la previsione di essere respinto con una probabilità di 0.8274.

Al di là quindi dei pochi dati conosciuti, questo Classificatore sembra rappresentare adeguatamente il “mondo” da cui quei dati provengono; un mondo in cui per superare l’esame serve soprattutto studiare in maniera approfondita. Chiamiamo questo mondo “A” e indichiamo come: “A1”, “A2” e “A3” tre studenti che presentano altrettanti Profili; interrogando il CBN otteniamo i responsi riportati in Figura3.

Figura3

Studente Profilo Responso (Prob.)
A1 1000 RESPINTO (0.7188)
A2 1001 RESPINTO (0.8099)
A3 0001 RESPINTO (0.9697)

Accompagnati dalla loro triste profezia, i tre studenti si avviano ad affrontare l’esame e, nell’incertezza che accompagna sempre la vita, otterranno il loro esito empirico che potrà risultare: coerente (“accidenti, il CBN aveva visto giusto”) o incoerente (“tiè, mi è andata bene lo stesso”).

Ma il mondo non è solo incerto, è anche vario e instabile: senza disturbare Eraclito, sappiamo che le cose cambiano.

Possiamo immaginare che in un luogo diverso da quello di mondo “A” (per condizione spaziale e/o temporale), diciamo in mondo “B”, vengano raccolti nuovi dati che possono alimentare e accrescere la base di conoscenze del CBN. Si tratta di ben 100 osservazioni (sempre di fantasia), provenienti da mondo “B”, in cui domina uno stereotipo diverso da quello di mondo “A”; qui si assiste ad una maggiore probabilità di promozione per chi ha (o manifesta) un atteggiamento di alto interesse per la disciplina. Anche da una superficiale analisi è possibile ricavare alcuni indizi che mostrano la contraddittorietà dei nuovi dati rispetto a quelli iniziali, ma è proprio dinnanzi ad una tale situazione che si evidenzia ciò che qui più interessa.

Nella circostanza ipotizzata, nuovi dati disponibili, una qualche “intelligenza” umana o artificiale dovrà necessariamente decidere il da farsi: includere nella base di conoscenze del CBN i nuovi dati SÌ o NO?

Se si opta per il NO (NON recepire i nuovi dati) il CBN resterà ancorato alla sua conoscenza del mondo che riflette solo quella di mondo “A”. Se, viceversa, si decide per il SÌ (recepire i nuovi dati), facendo in modo che il CBN aggiorni la sua conoscenza, considerando anche quanto accade in mondo “B”, possiamo interrogare nuovamente il CBN, utilizzando gli stessi Profili dei tre studenti visti in precedenza (“A1”, “A2”, “A3”) e confrontare i responsi già visti con quelli che ora ottengono tre diversi studenti (“B1”, “B2”, “B3”). Si può osservare così che il CBN è effettivamente in grado di apprendere dai nuovi dati; l’esito del confronto è riportato in Figura4.

Figura4

    Solo mondo “A”   mondo “A” con mondo “B”
Profilo Studente Responso (Prob.) Studente Responso (Prob.)
1000 A1 RESPINTO (0.7188) B1 PROMOSSO (0.6492)
1001 A2 RESPINTO (0.8099) B2 PROMOSSO (0.7215)
0001 A3 RESPINTO (0.9697) B3 PROMOSSO (0.8981)

Come in precedenza, i tre nuovi studenti (“B1”, “B2”, “B3”) otterranno l’esito empirico (in un contesto incerto) che potrà risultare: coerente con quanto previsto dal CBN (“bene, il CBN aveva visto giusto”) o incoerente (“perdinci, è andata male”).

Il CBN che ha assimilato, nella sua base di conoscenza, i nuovi dati provenienti da mondo “B” fornisce ora prestazioni un poco inferiori a quelle precedenti (tasso di Classificazioni corrette pari a 0.7) e una percentuale di falsi positivi (previsti come promossi e invece respinti all’esame) pari a poco meno del 27% (17 falsi positivi, su 64 empiricamente respinti).

Ora però, più di uno studente su quattro prova una forte delusione dovuta all’incoerenza fra il pronostico del CBN (favorevole) e l’esito empirico (infausto); ci si può chiedere pertanto cosa potrebbe accadere nel mondo reale.

Considerando la retorica che ruota intorno ai temi dell’IA, dei BigData e degli algoritmi intelligenti, pare realistico ipotizzare che la richiesta sarebbe quella di adeguare la realtà (il contesto empirico) ai responsi dell’algoritmo. Professori troppo severi, affetti da favoritismo e parzialità, istituzioni inadeguate, etc. potrebbero essere argomentazioni utilizzate a tale scopo. Soprattutto se si pensa alla potenza mediatica che può esercitare chi ha investito ingenti risorse nella realizzazione di quel prodotto hi-tech, si può ipotizzare che non indietreggerebbe facilmente; la propaganda sarebbe diffusa e continua alimentando fazioni contrapposte, stimolate – in modo demenziale – a schierarsi pro o contro il progresso, la tecnologia o la scienza(!).

D’altra parte, lo stesso scenario potrebbe presentarsi anche qualora si optasse (come è stato detto in precedenza) per la scelta di “NON recepire i nuovi dati”, lasciando il CBN ancorato a quanto sapeva dal solo mondo “A”. Quando la conoscenza dell’applicazione verteva sulle prime 20 osservazioni, la percentuale di falsi positivi (previsti come promossi e invece respinti all’esame) era inferiore a quella successiva (circa uno su cinque); anche in quel caso, però, si sarebbe andati incontro alla delusione di alcuni studenti e la richiesta di adeguamento della realtà all’algoritmo potrebbe essere avanzata in modo altrettanto pressante. Considerato che allora il CBN operava in modo più aderente ad uno stereotipo sensato (maggiore probabilità di promozione per chi studia in modo approfondito), anche la richiesta potrebbe apparire ragionevole, ma il problema, la sua gravità, così come la follia innescata dalla semplice presenza dello strumento, restano inalterati.

Nelle applicazioni dell’IA, chi governa il processo inerente i dati, più che la realizzazione degli algoritmi, ha enormi responsabilità sociali, può manipolare – come mai prima d’ora – l’ideologia degli individui. Disgraziatamente l’assenza di informazioni su come vengono gestiti i dati sembra essere la norma, ancora più stringente della segretezza imposta su alcuni algoritmi.

  1. Qualche ulteriore considerazione (BigData e dintorni)

Si potrebbe pensare che la situazione descritta in precedenza e artatamente generata con pochi dati di fantasia sia dovuta alla scelta (qui obbligata) di non fare ricorso ai cosiddetti BigData. D’altra parte, come già accennato, grandi quantità di dati sono necessari in alcuni casi e il loro utilizzo esige strumenti dedicati allo scopo, comunemente accessibili solo a chi dispone di adeguate risorse.

L’algoritmo qui utilizzato, come molti altri, può richiedere l’utilizzo di grandi quantità di dati in fase di addestramento; ma, raggiunta una prestazione adeguata del sistema, i dati effettivamente utilizzati si riducono ad una manciata (le probabilità condizionali e poco più) e questi valori (anche se centinaia o migliaia) possono essere agevolmente incorporati in un prodotto commerciale, il cui contenuto può essere secretato e sottoposto a Copy Right.

Nell’applicazione descritta in precedenza, se fossero state utilizzate grandi quantità di dati, la scelta relativa a includere o meno i dati relativi a mondo “B” nella base di conoscenze del CBN sarebbe stata comunque da compiere; forse relegata nella sola fase iniziale di addestramento, ma comunque presente.

Il ricorso ai BigData non esime dal considerare il portato informativo dei dati utilizzati che, anche se “big”, sono sempre soltanto dati parziali e generati in condizioni specifiche.

Non è realistico ipotizzare l’utilizzo di dati (in quantità grande o piccola) che sia scevro da difficoltà e scelte che inevitabilmente condizionano il loro significato: la fonte o le fonti, i tempi e luoghi di acquisizione, le modalità che portano un fatto ad essere trasformato in un dato, le finalità per cui il dato viene generato e, come se non bastasse, le procedure messe in opera per collegare (link) fra loro insiemi di dati provenienti da situazioni diverse, la gestione dei dati mancanti, e così via.

Tutto ciò non può essere soddisfatto evocando esclusivamente i BigData, come se la quantità potesse sopperire la qualità. I dati, a dispetto del loro nome, non sono semplicemente dati (participio passato del verbo dare). Senza considerare ciò, si corre il rischio di replicare la vecchia stupidaggine di chi asserisce che “i dati parlano da soli”.

Gran parte dei cosiddetti BigData proviene dal web e viene generata dai click di milioni o miliardi di utenti, ma la realtà è assai più vasta della rete di Internet e in essa non si esaurisce; si tratta sempre e comunque di dati raccolti in quel contesto e, per giunta, come tutti i dati, riguardano ciò che è già accaduto, sono dati del passato, dai quali può essere demenziale pretendere di leggere il futuro.

Nell’Analisi dei Dati[4], dove si usano modelli anche articolati e complessi, ci si preoccupa spesso e giustamente dell’adattamento del modello ai dati (fit o data fitting) e/o dell’adeguatezza dei dati al modello usato; ma adattamento e capacità previsionale restano sempre due aspetti chiaramente distinti.

Può essere utile rammentare il celebre aforisma attribuito a Niels Bohr (ma anche ad altri) che recita: “è difficile fare previsioni, soprattutto sul futuro”.

In un suo scritto, G. Gigerenzer[5] coglie adeguatamente questo aspetto, ricordando che nella scienza si sa che per predire accuratamente il futuro è necessario disporre di una buona teoria, di dati affidabili e di un contesto (relativamente) stabile. Così <<l’IA è magnifica nel gestire simili situazioni stabili, dal riconoscimento facciale per sbloccare il proprio smartphone al cercare la strada più veloce per raggiungere la propria destinazione, all’analisi di grandi quantitativi di dati nell’amministrazione. Ma le aziende hi-tech spesso predicono il comportamento umano senza una buona teoria, dati attendibili o un mondo stabile>> (G. Gigerenzer, 2023, pp. 55-56).

Un altro aspetto preoccupante dei BigData è il loro connubio con le tecniche di ricerca automatica di correlazioni (data mining). Le trappole della “correlazione spuria” e di quella “soppressa”, solo per fare due esempi, sono sempre in agguato[6]. Come ricorda ancora Gigerenzer <<… gli entusiasti dei big data hanno spinto all’estremo le tesi di Pearson e Hume, sostenendo che le cause non sono neppure necessarie; piuttosto [costoro sostengono che], avendo a disposizione petabyte, “basta la correlazione”>> (G. Gigerenzer, 2023, p. 153).

Gli aspetti che ruotano intorno all’uso dell’IA qui richiamati sono preoccupanti, ma molti altri che meriterebbero considerazione, sono altrettanto inquietanti e, a me pare, contrari all’intelligenza (almeno a quella umana).

In conclusione, però, meritano una menzione particolare le applicazioni in ambito militare sulle quali ha recentemente posto l’attenzione  Giorgio Parisi (Nobel per la fisica 2021), nella Prefazione al libro di F. Farruggia (2023), di cui riporto alcuni stralci (le sottolineature sono mie): <<L’intelligenza artificiale apre nuove possibilità per le applicazioni militari, in particolare per quanto riguarda i sistemi d’arma con significativa autonomia nelle funzioni critiche di selezione e attacco dei bersagli. Tali armi autonome potrebbero portare a una nuova corsa agli armamenti […]. Alcune organizzazioni chiedono un divieto sulle armi autonome, simile alle convenzioni in materia di armi chimiche o biologiche. […] In assenza di un divieto di sistemi di armi autonome letali (Lethal Autonomous Weapons Systems, LAWS), dovrebbe essere garantita la conformità di qualsiasi sistema d’arma al Diritto Internazionale Umanitario. Queste armi dovrebbero essere integrate nelle strutture di comando e controllo esistenti in modo tale che la responsabilità e la responsabilità legale rimangano associate a specifici attori umani. C’è una chiara necessità di trasparenza e di discussione pubblica delle questioni sollevate in questo settore>>.

Certo il pericolo militare è soverchiante, ma – mi permetto di aggiungere – pure quello sociale è grave. Così, mi pare opportuno richiedere che anche l’attivazione e lo spegnimento dei prodotti dell’IA, in generale, venga consapevolmente ricondotto agli esseri umani.

Come minimo, andrebbe imposto l’obbligo di segnalare, con un avvertimento, che qualche prodotto dell’IA sta per essere utilizzato (simile a quello apposto su prodotti d’uso ritenuti pericolosi, come il tabacco). Poi sarebbe opportuno disporre sempre di un pulsante (anzi un Click) di “arresto” immediato, capace di inibire l’uso dell’IA in quella specifica applicazione.

Assai più delle illusorie speranze di riservatezza (privacy), solitamente elargite a piene mani, questi accorgimenti aiuterebbero la riflessione e la consapevolezza nell’utilizzo dell’IA da parte delle persone.

Così, si potrebbe forse evitare il rischio che, un domani, qualcuno possa trovarsi nella scomoda posizione di quell’astronauta, unico superstite della strage perpetrata dall’intelligenza del computer, nella lunga e indimenticabile sequenza di disattivazione di HALL9000 (il computer di bordo), che Stanley Kubrick ci ha lasciato nel suo film “2001: Odissea nello spazio”.

Riferimenti bibliografici

Cardano, M., Miceli, R. (a cura di) (1991). Il linguaggio delle variabili. Strumenti per la ricerca sociale. Torino: Rosenberg & Sellier.

Domingos P., 2016, L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo, Torino, Bollati Boringhieri.

Farruggia F., (a cura di), 2023, Dai droni alle armi autonome. Lasciare l’Apocalisse alle macchine?, Milano, Franco Angeli.

Gigerenzer G., 2023, Perché l’intelligenza umana batte ancora gli algoritmi, Milano, Raffaello Cortina.

Miceli R. (2001), Percorsi di ricerca e analisi dei dati, Torino, Bollati Boringhieri

Ricolfi L., (1993), Tre variabili. Un’introduzione all’analisi multivariata, Milano, Angeli Editore.

Ricolfi L. (a cura di), 1997, La ricerca qualitativa, Roma, La Nuova Italia Scientifica.

 

[1]L’applicazione informatica, realizzata artigianalmente con il linguaggio Java, consente di generare e gestire dei CBN che supportano fino a 10 Classi, 25 Indicatori Booleani o Categoriali (max 4 Categorie); chi, per ragioni didattiche, fosse interessato ad utilizzare questo software può richiederlo all’autore.

[2]Pedro Domingos è considerato uno degli scienziati di punta del machine learning a livello internazionale.

[3]Per un’argomentazione più rigorosa su questo aspetto si veda: Wikipedia, https://w.wiki/87oX

[4]Per approfondimenti, almeno nel campo delle Scienze Psicologiche e Sociali, si rimanda a: L. Ricolfi, 1997 e R. Miceli, 2001.

[5]Gerd Gigerenzer, scienziato cognitivo, lavora all’Istituto Max Planck di Berlino.

[6]Per approfondimenti si rimanda a: M. Cardano, R. Miceli, 1991 e L. Ricolfi, 1993.

Saluto romano e giudici onniscienti

24 Gennaio 2024 - di Luca Ricolfi

In primo pianoPoliticaSocietà

Dove finisce la libertà di manifestazione del pensiero?

Su questo non si raggiungerà mai un accordo, non solo perché abbiamo idee diverse, ma perché le leggi in materia lasciano ai giudici larghi (eccessivi?), margini di interpretazione delle norme. Apparentemente, l’articolo 21 della Costituzione garantisce la più ampia libertà di manifestazione del pensiero, perché fissa un solo limite: sono proibite le manifestazioni del pensiero “contrarie al buon costume”.

In realtà, di limiti ve ne sono tantissimi, ma non hanno quasi mai a che fare con il buon costume, nozione che l’evoluzione libertaria dei costumi stessi ha reso evanescente. I veri limiti alla libertà di manifestazione del pensiero derivano, innanzitutto, dalla necessità di bilanciare tale diritto con altri diritti o beni costituzionalmente protetti, come l’ordine pubblico, l’onore, l’integrità e la dignità della persona. Ma derivano anche da un altro fattore: sono le leggi stesse, a partire dalla legge Scelba (1952) e dalla legge Mancino (1993), che lasciano un enorme margine di discrezionalità al singolo giudice, le cui decisioni possono benissimo essere – e spesso sono – diverse da quelle di un altro giudice.

È quel che è accaduto, in particolare, con il saluto romano, e più in generale con le manifestazioni di atteggiamenti, pensieri, convinzioni favorevoli al regime fascista. Comportamenti che per alcuni giudici rientrano nella libertà di riunione, associazione e manifestazione del pensiero, per altri configurano il reato di apologia di fascismo (legge Scelba), per altri ancora violano la legge Mancino contro la “discriminazione razziale, etnica e religiosa”.

Si potrebbe pensare che le diversità di interpretazioni della legge siano una conseguenza logica inevitabile del meccanismo giuridico del bilanciamento fra diritti tra loro conflittuali. Nel caso di un processo per diffamazione contro un giornalista, ad esempio, un giudice potrebbe assegnare più importanza al diritto di cronaca del giornalista, o al diritto ad essere informato del pubblico, mentre un altro giudice al rispetto della dignità della persona.

Ma non è sempre così. Nei casi come quello di Acca Larentia, così come in quelli analoghi accaduti in passato e su cui nei giorni scorsi si è pronunciata la Corte di Cassazione, la vera fonte dell’ambiguità non è la mera competizione fra due diritti costituzionalmente protetti, ma – più fondamentalmente – la circostanza che la legge usa dei concetti che, per loro natura, si prestano a letture soggettive. Al giudice non si chiede di accertare se gli imputati abbiano o non abbiano commesso determinati atti, ma se il loro modo di commetterli abbia determinato il concreto pericolo di esiti sovversivi o violenti: ricostituzione del partito nazionale fascista, violenza e discriminazione nei confronti di membri di minoranze protette.

È un doppio salto mortale epistemologico, perché al giudice viene attribuita la facoltà di stabilire nessi causali, e di farlo non fra due fatti entrambi accaduti, ma fra un fatto accaduto (il comportamento incriminato) e un evento ipotetico che potrebbe derivarne come conseguenza. Ma il giudice, di norma, non possiede gli strumenti per stabilire nessi causali ipotetici, come peraltro – nella maggior parte dei casi non banali – non li possiede il miglior scienziato sociale.

Visto in questa prospettiva, forse è più chiaro il senso della recente sentenza della Corte di Cassazione sul saluto romano. Contrariamente a quanto è capitato di leggere, la Corte non ha sdoganato il saluto romano, ma ha fatto una cosa molto più importante, perché più generale. In sostanza ha detto: se volete perseguire le adunate e le manifestazioni del pensiero, dovete dimostrare che il comportamento dei manifestanti è effettivamente (ossia con alta probabilità) in grado di condurre ad esiti come la ricostruzione del partito fascista, la commissione di atti violenti, l’attuazione di pratiche discriminatorie. In poche parole: la Corte ha dato una sacrosanta tirata d’orecchi ai giudici.

Che tuttavia risulterebbe più convincente se il legislatore, a sua volta, la smettesse di scrivere norme che assumono l’onniscienza dei giudici.

image_print
1 4 5 6 7 8 170
© Copyright Fondazione Hume - Tutti i diritti riservati - Privacy Policy