AI, un rischio rimosso

Quanti posti distruggerà? Quante nuove professioni nasceranno? Quante professionalità dovranno ristrutturarsi? Quanto drastiche saranno le riorganizzazioni aziendali?

Queste, grosso modo, sono le macro-domande che ci facciamo quando proviamo a immaginare come sarà il mondo allorché l’intelligenza artificiale lo avrà completamente riplasmato.

C’è però una conseguenza dell’AI, e più in generale della iper-connessione, di cui si parla pochissimo: la potenziale distruzione della fiducia. Della fiducia si parla pochissimo perché – per un sistema sociale – è un po’ come l’aria per un individuo: non te ne accorgi perché è una condizione minima di sussistenza. Nessun individuo può sopravvivere se smette di respirare, nessun sistema sociale può sopravvivere se viene meno la fiducia fra i suoi membri.

Naturalmente per fiducia non intendo la benevolenza, l’empatia, la solidarietà, bensì una condizione più asettica e fredda, ampiamente studiata dai sociologi e dagli economisti: la convinzione che gli accordi saranno rispettati e le transazioni non saranno inquinate da inganni, sotterfugi, informazioni false, frodi, truffe.

Ebbene, questo presupposto minimo della vita sociale sta progressivamente venendo meno perché le possibilità di inserirsi subdolamente nel flusso comunicativo in cui ormai quasi tutti viviamo sono enormemente cresciute, e si stanno ulteriormente espandendo e affinando. Le cronache ne riferiscono raramente, ma ogni giorno migliaia di persone vengono manipolate (per indurle a fare un versamento o cambiare un contratto) o  subiscono assalti alla propria identità, alla propria privacy, ai propri dati, al proprio conto corrente. Grazie all’intelligenza artificiale e all’iper-connessione, oggi è facilissimo simulare di essere una banca, un’assicurazione, un assessorato, un’azienda erogatrice di servizi, un’autorità di regolazione, un ufficio di polizia, persino – con l’imitazione della voce – una determinata persona che si conosce personalmente e di cui ci si fida. E questo avviene per una ragione ben precisa: negli ultimi anni – grazie a internet, all’informatica e all’AI – si è enormemente abbassato il costo di produzione di segnali al tempo stesso credibili e falsi, ma è rimasta sostanzialmente intatta la fiducia del pubblico verso interlocutori sconosciuti. Fingersi un funzionario di banca attraverso una videata ben costruita, o facendo apparire sul nostro telefonino il numero telefonico della banca custodito in rubrica, è enormemente più facile di 10 anni fa. A dispetto di ciò la maggior parte di noi si comporta sostanzialmente come 10 anni fa, ossia continua a concedere fiducia ai propri interlocutori, come se il rischio di essere ingannati fosse trascurabile.

Ma quel rischio, contrariamente a quanto ci piacerebbe credere, è in vertiginosa ascesa (più della chirurgia estetica, che è una delle industrie leader del nostro tempo). Un buon indicatore del rischio di essere ingannati è l’aumento delle truffe on line e delle frodi informatiche, che secondo una recente indagine FABI (Federazione Autonoma Bancari Italiani) stanno crescendo a un ritmo annuo dell’ordine del 30%, e sottraggono centinaia di milioni di euro ai cittadini (un trend favorito dal crollo delle transazioni in contanti). Quanto ai dati più generali della delittuosità, colpisce il fatto che la voce “truffe e delitti informatici” stia al secondo posto (dopo i furti) come numero assoluto di delitti segnalati (oltre 300 mila nel 2024), e in fatto di velocità di crescita  contenda il primato alle violenze sessuali (la classe di delitti maggiormente cresciuta fra il 2019 e il 2024). Né le cose vanno meglio nel confronto internazionale dove – in materia di truffe e frodi – siamo al 9° posto su 41 società avanzate (paesi Oecd o UE), ed “eccelliamo” precisamente in questo tipo di delitti.

La fase in cui siamo è ancora quella dell’euforia, in cui prevale l’entusiasmo per il progresso tecnologico e i suoi indubbi vantaggi. Ma rischia di essere solo una fase. Nell’istante in cui il sistema informatico di una grande banca  venisse violato, e migliaia di correntisti perdessero i loro risparmi, quella fase finirebbe e si passerebbe istantaneamente da un regime di (prevalente) fiducia a un regime di sfiducia generalizzata, con conseguente caos (se non paralisi) delle transazioni on line.

Fantascienza?

Tanto poco fantascienza che quell’istante ha già ricevuto un nome: si chiama Q-day, ossia giorno in cui un computer quantistico riuscirà a violare i codici di sicurezza di qualche grande istituzione. Nessuno sa quanto vicino sia quel giorno (qualcuno ritiene che possa essere già nel 2029), ma sappiamo che da tempo gli esperti di crittografia stanno lavorando ad algoritmi capaci di scongiurare quella catastrofe, proteggendo le basi di dati dall’imminente assalto dei quasi-onnipotenti computer quantistici.

Nel frattempo si naviga a vista. Il grosso del pubblico si muove sulla rete come in un immenso luna park, con scarsa consapevolezza dei pericoli. Una frazione più istruita, più esperta, più informata o semplicemente più diffidente, già ora adotta precauzioni e sistemi di auto-protezione come le VPN (Virtual Private Network). Con la conseguenza di aggiungere una nuova fonte di diseguaglianza alla già lunga lista dei fattori che creano marginalità, esclusione, vulnerabilità.

Un bel paradosso per chi credeva e crede che internet sia una sorta di paradiso egualitario.

[articolo uscito sul Messaggero il 3 maggio 2026]




AI, apocalittici o integrati?

Di intelligenza artificiale mi sono occupato per diverso tempo, negli anni ’80, presso il LIA, il laboratorio di intelligenza artificiale del centro di calcolo della Regione Piemonte. A quella esperienza ritorno sempre con immenso stupore quando mi capita di maneggiare (o di essere maneggiato da) i pronipoti di quei tentativi, tanto ingenui quanto pionieristici, di emulare le prestazioni degli esseri umani.

Allora erano di moda i sistemi esperti, che venivano meticolosamente programmati per incorporare la conoscenza di medici, ingegneri, e altri specialisti. Una delle caratteristiche di quei sistemi era che, a fronte di un caso da esaminare, il programmatore era in grado di prevedere come l’algoritmo avrebbe risposto: il controllo, in altre parole, era ancora nelle mani dell’uomo. Oggi non è più così: il cuore degli algoritmi di intelligenza artificiale è invisibile all’operatore, e le loro risposte non possono essere previste perché l’addestramento non è più diretto ed esplicito (umano), ma si basa sul cosiddetto machine learning (apprendimento macchina). È un progresso, è un pericolo?

Probabilmente dipende dai campi. Nel campo della diagnosi medica (dalla lettura di una lastra alla diagnosi di una malattia) il progresso è stato spettacolare, e i vantaggi superano largamente i rischi. Ma in altri campi sarei molto più cauto. Se mi dicessero che l’aereo su cui viaggio è pilotato da un algoritmo, e non c’è nessuno a bordo in grado di subentrare se il sistema prende decisioni sbagliate, non sarei tranquillissimo. E se mi investisse (con torto) un veicolo “a guida autonoma” non mi piacerebbe apprendere che non esiste un soggetto legalmente responsabile dell’incidente. Ancora di meno mi piacerebbe che la terza guerra mondiale scoppiasse perché qualche algoritmo ha mal interpretato determinati segnali (anche se non è detto che un operatore umano avrebbe fatto di meglio). E già ora non mi piace affatto che, per un problema con la luce, il gas, il telefono, l’assicurazione, la banca, l’università presso cui lavoro, io venga affidato alle cure di un assistente digitale che non capisce il mio problema e non sa rispondere alle mie domande.

Dove invece l’AI mi stupisce davvero è nel campo della comprensione del linguaggio naturale. Negli anni ’80 la maggior parte di noi considerava ardua, se non disperata, l’impresa di riconoscere la voce e trascrivere il parlato, e molti consideravano la traduzione da una lingua straniera come attività eminentemente umana, non delegabile a una macchina. Quanto alla comprensione del senso di una domanda espressa in linguaggio naturale i tentativi di affidare il compito a una macchina erano circoscritti ad ambiti molto specifici (ad esempio interrogare un database statistico) e, visti con gli occhi di oggi, apparirebbero quanto mai goffi e barocchi.

I cosiddetti chatbot (come ChatGPT) non solo permettono di tradurre un testo in un’altra lingua, ma sono in grado di capire una domanda e, in risposta, di generare testi relativamente complessi, ovviamente basati su altri testi e materiali reperibili in rete. In questo ambito il progresso è stato non solo enorme rispetto agli anni ’80, ma rapidissimo negli ultimi due anni. Alla fine del 2023 ChatGPT faceva errori marchiani, ometteva le fonti e, quando non conosceva la risposta, inventava di sana pianta, perseguendo esclusivamente la verosimiglianza. Oggi non più, oggi si può usare ChatGPT per produrre testi di qualità paragonabile a quella (non eccelsa) che ci si può attendere da una tesina, da una ricerca o da un report compilati da un bravo liceale o da uno scrupoloso studente universitario. Con qualche errore, qualche dato inventato, ma nel complesso un prodotto accettabile e soprattutto comodo, utile.

Utile a chi?

Innanzitutto alle imprese e ai professionisti, che possono sbarazzarsi del lavoro di bassa manovalanza intellettuale. In secondo luogo agli operatori culturali (giornalisti e scrittori compresi), che possono appropriarsi gratis e senza fatica di contenuti che un tempo richiedevano tempo e perizia. In terzo luogo alla vasta rete dei plagiari più o meno professionali, che possono attingere all’oceano dei testi (scritti, musicali, video, eccetera) un tempo soggetti al diritto d’autore. Infine ai truffatori e ai professionisti della disinformazione, che grazie al cosiddetto deep learning (reti neurali multistrato) sono in grado di far circolare notizie e immagini false ma difficilmente riconoscibili come tali.

Come si vede, assumere un atteggiamento netto verso l’AI non è facile. Alla fine, come aveva immaginato Umberto Eco fin dagli anni ’60, ci divideremo fra apocalittici e integrati.

[articolo uscito sulla Ragione il 23 dicembre 2025]