AI, apocalittici o integrati?

Di intelligenza artificiale mi sono occupato per diverso tempo, negli anni ’80, presso il LIA, il laboratorio di intelligenza artificiale del centro di calcolo della Regione Piemonte. A quella esperienza ritorno sempre con immenso stupore quando mi capita di maneggiare (o di essere maneggiato da) i pronipoti di quei tentativi, tanto ingenui quanto pionieristici, di emulare le prestazioni degli esseri umani.

Allora erano di moda i sistemi esperti, che venivano meticolosamente programmati per incorporare la conoscenza di medici, ingegneri, e altri specialisti. Una delle caratteristiche di quei sistemi era che, a fronte di un caso da esaminare, il programmatore era in grado di prevedere come l’algoritmo avrebbe risposto: il controllo, in altre parole, era ancora nelle mani dell’uomo. Oggi non è più così: il cuore degli algoritmi di intelligenza artificiale è invisibile all’operatore, e le loro risposte non possono essere previste perché l’addestramento non è più diretto ed esplicito (umano), ma si basa sul cosiddetto machine learning (apprendimento macchina). È un progresso, è un pericolo?

Probabilmente dipende dai campi. Nel campo della diagnosi medica (dalla lettura di una lastra alla diagnosi di una malattia) il progresso è stato spettacolare, e i vantaggi superano largamente i rischi. Ma in altri campi sarei molto più cauto. Se mi dicessero che l’aereo su cui viaggio è pilotato da un algoritmo, e non c’è nessuno a bordo in grado di subentrare se il sistema prende decisioni sbagliate, non sarei tranquillissimo. E se mi investisse (con torto) un veicolo “a guida autonoma” non mi piacerebbe apprendere che non esiste un soggetto legalmente responsabile dell’incidente. Ancora di meno mi piacerebbe che la terza guerra mondiale scoppiasse perché qualche algoritmo ha mal interpretato determinati segnali (anche se non è detto che un operatore umano avrebbe fatto di meglio). E già ora non mi piace affatto che, per un problema con la luce, il gas, il telefono, l’assicurazione, la banca, l’università presso cui lavoro, io venga affidato alle cure di un assistente digitale che non capisce il mio problema e non sa rispondere alle mie domande.

Dove invece l’AI mi stupisce davvero è nel campo della comprensione del linguaggio naturale. Negli anni ’80 la maggior parte di noi considerava ardua, se non disperata, l’impresa di riconoscere la voce e trascrivere il parlato, e molti consideravano la traduzione da una lingua straniera come attività eminentemente umana, non delegabile a una macchina. Quanto alla comprensione del senso di una domanda espressa in linguaggio naturale i tentativi di affidare il compito a una macchina erano circoscritti ad ambiti molto specifici (ad esempio interrogare un database statistico) e, visti con gli occhi di oggi, apparirebbero quanto mai goffi e barocchi.

I cosiddetti chatbot (come ChatGPT) non solo permettono di tradurre un testo in un’altra lingua, ma sono in grado di capire una domanda e, in risposta, di generare testi relativamente complessi, ovviamente basati su altri testi e materiali reperibili in rete. In questo ambito il progresso è stato non solo enorme rispetto agli anni ’80, ma rapidissimo negli ultimi due anni. Alla fine del 2023 ChatGPT faceva errori marchiani, ometteva le fonti e, quando non conosceva la risposta, inventava di sana pianta, perseguendo esclusivamente la verosimiglianza. Oggi non più, oggi si può usare ChatGPT per produrre testi di qualità paragonabile a quella (non eccelsa) che ci si può attendere da una tesina, da una ricerca o da un report compilati da un bravo liceale o da uno scrupoloso studente universitario. Con qualche errore, qualche dato inventato, ma nel complesso un prodotto accettabile e soprattutto comodo, utile.

Utile a chi?

Innanzitutto alle imprese e ai professionisti, che possono sbarazzarsi del lavoro di bassa manovalanza intellettuale. In secondo luogo agli operatori culturali (giornalisti e scrittori compresi), che possono appropriarsi gratis e senza fatica di contenuti che un tempo richiedevano tempo e perizia. In terzo luogo alla vasta rete dei plagiari più o meno professionali, che possono attingere all’oceano dei testi (scritti, musicali, video, eccetera) un tempo soggetti al diritto d’autore. Infine ai truffatori e ai professionisti della disinformazione, che grazie al cosiddetto deep learning (reti neurali multistrato) sono in grado di far circolare notizie e immagini false ma difficilmente riconoscibili come tali.

Come si vede, assumere un atteggiamento netto verso l’AI non è facile. Alla fine, come aveva immaginato Umberto Eco fin dagli anni ’60, ci divideremo fra apocalittici e integrati.

[articolo uscito sulla Ragione il 23 dicembre 2025]