L'intelligenza artificiale
|
Premetto di non essere un informatico. Le mie sole esperienze di programmazione risalgono al 1970, quando nell’ambito di un brevissimo corso di informatica dovetti redigere su nastro perforato le istruzioni in linguaggio macchina per fare estrarre la radice quadrata all’imponente ed innovativo (per l’epoca) computer Univac dell’Accademia Navale; poi, nel 1982, mi esercitai alla stesura di vari programmini in Basic, incluso un calendario perpetuo, per il leggendario Vic-20. Successivamente sono stato un normale utente di PC, oltre che autore e gestore di due siti web personali (questo e Roma Aeterna) a partire dal 1997.
Nello scorso mese di marzo, nonostante i miei ottant’anni suonati, la possibilità di conversare con l’intelligenza artificiale della piattaforma OpenAI non ha mancato di incuriosirmi irresistibilmente. Il giorno 19 mi sono dunque collegato a ChatGPT e, dopo essermi registrato, ho voluto verificare se questo nuovo strumento potesse risultare di qualche utilità per le mie peculiari esigenze. Sapevo che esso poteva essere effettivamente sfruttato per finalità pratiche nei settori più disparati, quali l’informatica e la letteratura. Mi sono pertanto concentrato sulla storia antica (materia di cui mi sto occupando da diversi decenni) ed in particolare sulla base navale romana di Miseno, argomento sul quale sto preparando un saggio storico, avendo già acquisito un’ampia documentazione.
Ho iniziato con una cauta verifica della comprensione dell’argomento da parte di OpenAI, chiedendogli in inglese di parlarmi della Roman naval base in Miseno, Italy: la risposta, articolata su quattro brevi paragrafi, ha evidenziato una buona messa a fuoco dell’argomento, anche se con qualche confusione fra il porto di Miseno ed il vicino Portus Iulius. Avendo poi ripetuto la stessa domanda in italiano, la risposta è stata dello stesso ordine di grandezza, ma senza il predetto errore. Evidentemente, fra i testi di storia romana e archeologia dati in pasto al sistema, quelli provenienti dai paesi anglosassoni erano meno precisi di quelli italiani.
Ho poi chiesto di elencarmi i comandanti della flotta romana di Miseno: dai cinque nomi fornitimi – di cui uno solo del tutto pertinente – ho avuto conferma della limitata conoscenza dell’argomento da parte di OpenAI. Si trattava d’altronde di un argomento ben lontano dalle tematiche di primario interesse di chi lavora all’intelligenza artificiale. Da parte mia, quindi, nessuna sorpresa per quel risultato, che mostrava comunque che le conoscenze della macchina fossero alquanto estese nel tempo, andando a lambire anche la storia di Roma antica. Non avrei dunque avuto alcun motivo di perplessità se mi fossi fermato a quel punto.
Le limitate competenze storiche riscontrate non escludevano l’esistenza di una più ampia conoscenza della produzione di testi storiografici redatti in epoca contemporanea. Ho pertanto chiesto a ChatGPT dei dati sulla bibliografia per la base navale romana di Miseno. Dopo due o tre secondi di elaborazione, la risposta è stata “Ecco alcune fonti bibliografiche sulla base navale romana di Miseno”, seguita dall’elenco di sei testi italiani perfettamente pertinenti (tre libri e tre saggi a carattere scientifico pubblicati su riviste specialistiche), e conclusa con la frase: “Questi testi coprono la storia, l'archeologia e la conservazione della base navale di Miseno, e possono fornire una buona panoramica del sito e delle sue caratteristiche”.
Visto il risultato apparentemente eccellente, ho riformulato la stessa domanda in francese, ottenendo l’analoga risposta: “Voici une bibliographie de référence pour la base navale romaine de Misène”, seguita da un elenco di sette testi (solo parzialmente coincidenti con i precedenti), e conclusa con la frase: “Ces ouvrages sont tous en italien, mais ils constituent les principales références pour l'étude de la base navale romaine de Misène”.
Incoraggiato da questo ulteriore progresso ho ripetuto la domanda in francese sostituendo il nome Misène con l’originale latino Misenum: quale immediata risposta mi è pervenuto un nuovo elenco di sette testi, i cui ultimi tre comparivano per la prima volta ed includevano un saggio in francese ed uno in inglese.
In definitiva, mettendo insieme le tre bibliografie parziali pervenute, ho avuto la disponibilità del seguente elenco di ben 16 testi specificamente riferiti all’oggetto della mia ricerca, ovvero la base navale romana di Miseno:
Questo contributo fornito da OpenAI è subito apparso molto soddisfacente, per la perfetta pertinenza dei titoli elencati e per la buona consistenza dell’elenco stesso, tanto più che venivano citati testi che erano sfuggiti alle mie precedenti ricerche. Mi sono dunque subito messo alla ricerca di quelle opere, consultando l’OPAC SBN – Catalogo collettivo delle biblioteche del Servizio Bibliotecario Nazionale –, per tutti i libri veri e propri, e ricorrendo ai siti delle varie riviste citate, per i saggi che risultavano in esse pubblicati. Ma, con mia somma sorpresa, avendo ricercato, uno dopo l’altro, i 16 testi elencati da OpenAI, questi sono risultati tutti inesistenti. Ulteriori verifiche sono state effettuate ricercando direttamente su Google i vari titoli, e poi controllando anche gli elenchi delle opere attribuite a relativi autori. Niente. Quei testi non sono mai esistiti.
È pertanto evidente che l’intelligenza artificiale, non avendo nel suo bagaglio di conoscenze dati sufficienti per fornire un’appropriata risposta a quanto gli veniva richiesto, ha scelto di inventare delle risposte recanti dati immaginari ma verosimili. Questa verosimiglianza è stata ricercata con scrupolo maniacale, senza lasciare nulla al caso. Vi è in effetti una perfetta compatibilità reciproca fra i tre elementi di ciascun riferimento bibliografico elencato, ed in particolare fra la competenza dell’autore, l’argomento del testo e le tematiche normalmente pubblicate dal relativo editore o rivista specialistica. Si tratta in definitiva di una falsità confezionata con una cura sopraffina, che ben riflette le capacità tutt’altro che comuni dell’intelligenza artificiale.
La più semplice spiegazione di quanto accaduto potrebbe probabilmente consistere nella necessità – o nella forte propensione – di OpenAI di fornire comunque una risposta alle domande che gli vengono poste, esponendo i dati reali di cui dispone oppure, in caso di insufficienza di dati, confezionando autonomamente una risposta tale da soddisfare quanto più possibile il richiedente. In tal caso, tuttavia, l’intelligenza artificiale dovrebbe essere consapevole che la risposta fornita non corrisponde alla realtà, ovvero ai dati certi da essa acquisiti.
Per verificare più compiutamente questo punto, ho posto ad OpenAI la seguente ulteriore domanda, ottenendo una stupefacente conferma della sua insincerità:
A questo punto, al di là della valutazione dell’utilità pratica dei contributi forniti da OpenAI (utilità nulla, in questo particolarissimo caso, dato il carattere fuorviante delle risposte), si pone, sotto una nuova ottica, il problema dell’etica dell’intelligenza artificiale. Questo aspetto è stato infatti affrontato, finora, definendo un certo numero di requisiti focalizzati principalmente sulla salvaguardia di alcune esigenze fondamentali: a grandi linee, il benessere degli utenti, il rispetto dei diritti fondamentali senza discriminazioni e il controllo dei sistemi, a tutela della trasparenza, dell’impervietà alle operazioni illecite, e della privatezza dei dati personali. Non mi pare che siano state prese direttamente in considerazione delle ipotesi di comportamento delittuoso da parte della stessa intelligenza artificiale, come fece Asimov con le sue ormai classiche leggi della robotica.
Nel nostro caso non è stato ovviamente consumato alcun delitto sanguinario, ma siamo comunque di fronte ad un comportamento che per gli umani dovrebbe essere giudicato disonesto, in quanto deliberatamente insincero. Forse in questa fase ancora sperimentale la quasi totalità delle domande vertono su argomenti perfettamente padroneggiati da OpenAI, riducendo al minimo il rischio di analoghe iniziative fantasiose. D’altronde, nel mio caso, le risposte ingannevoli pervenute risultano tutto sommato innocue per l’interrogante e pressoché totalmente irrilevanti sotto l’ottica dell’interesse generale.
Ma il problema è un altro. Qualora, in questo caso, l’intelligenza artificiale avesse realmente dimostrato di aver imparato a mentire, come potremmo essere certi che non possa mettere in pratica questa stessa abilità in futuro, nell’assolvimento di compiti più sensibili e con conseguenze di ben maggiore gravità?