Facebook e il caso dei chatbot spenti: ecco di cosa stavano parlando le due IA

Lo spegnimento dei due bot di Facebook che hanno creato un nuovo modo di comunicare ha fatto il giro del web: è davvero così preoccupante?

Facebook e il caso dei chatbot spenti: ecco di cosa stavano parlando le due IA
Articolo a cura di

Il 31 luglio è circolata una notizia che vedeva protagonista Facebook e i suoi studi sull'intelligenza artificiale: due bot sono stati spenti dopo aver sviluppato un proprio metodo di comunicazione che si discostava dall'inglese. La notizia, come spesso accade, è stata riportata in modo sensiazionalistico. Anche su questi lidi ne abbiamo parlato: Facebook spegne un'IA che aveva creato una propria lingua, così recita il titolo. Molti portali online si sono scagliati contro questo tipo di notizie come se fossero false, ma il problema non è tanto la volontà del giornalismo di rendere più 'appetibile' un titolo, quanto un'interpretazione errata di un contesto che è ignoto a troppe persone. Si potrebbe contestare l'uso della parola linguaggio riferito a quel che hanno creato i due bot che parlavano fra di loro, ma quel che è stato raccontato non è assolutamente falso perché la realtà è esattamente questa: Facebook, in quanto azienda, ha spento e riavviato due intelligenze artificiali (due bot) che avevano cominciato a parlare fra di loro senza rispettare la grammatica inglese, reinterpretandola in base al contesto nel quale doveva essere applicata. Se da questa notizia viene estrapolato un evento preoccupante e si comincia a parlare di Skynet il problema risiede nel fatto che questi bot vengono immaginati in modo un po' troppo futuristico. Il nostro scopo dunque è proprio quello di andare a scoprire chi sono veramente questi bot e come stavano parlando fra di loro.

Facebook sta agli esperimenti sull'AI come Frankenstein sta al suo mostro?

Non è un mistero che Facebook stia finanziando ricerche sulle future intelligenze artificiali che, grazie allo sviluppo del Machine Learning e all'avanzamento tecnologico, sono diventate l'ambizione delle più grandi aziende tech del mondo. Un giorno il Facebook AI Research Lab (FAIR) ha però scoperto che due chatbot, Alice e Bob, invece di parlare fra di loro negoziando l'uno con l'altro, avevano cominciato a deviare il loro linguaggio dall'inglese costruendo frasi sempre in lingua anglofona ma non comprensibili a primo impatto. Quindi stiamo parlando di due programmi che sono stati avviati su dei computer che stavano letteralmente chattando fra di loro (nessun robot con armi laser è stato coinvolto nell'esperimento). Perché questi bot hanno deciso di cambiare il modo di comunicare? Chi gli ha dato la facoltà di poter prendere decisioni?

Un'IA è tale se è in grado di prendere decisioni in base ai dati che analizza (come facciamo noi umani d'altronde, scegliamo secondo la nostra esperienza e la nostra conoscenza) quindi deve per forza di cose avere la facoltà di scegliere secondo determinate regole. Se ad un certo punto entrambi i chatbot hanno deciso di usare frasi sgrammaticate, questo deriva certamente da come sono stati programmati nel fare queste scelte ed è sempre necessario fare dei test per verificare che il codice faccia esattamente quello che il programmatore aveva in mente. Se questo non accade siamo di fronte a un bug (derivante da un errore umano) e tutti quelli che hanno a che fare con computer e videogames sanno bene che nessuno può scampare alla mannaia del bug.

Ecco il 'linguaggio' che i chatbot hanno inventato nelle loro conversazioni

I poveri bot non stavano facendo nulla di malvagio se non imitare il linguaggio umano, essendo stati programmati proprio per quello. Nel Machine Learning però gli output sono imprevedibili per via dell'enorme quantità di dati che queste IA analizzano durante il loro funzionamento. Mike Lewis del programma FAIR di Facebook ha affermato che il loro interesse era "creare dei bot che potessero parlare con le persone". L'obiettivo di quell'esperimento era insegnare ai due chatbot a dividersi degli oggetti come cappelli, libri e palloni da basket tenendo conto del fatto che se entrambi avessero voluto l'ultimo oggetto rimanente avrebbero dovuto contrattare.

Nello specifico dovevano dialogare in inglese tramite il solito Machine Learning, quindi sono stati avviati e lasciati lì a 'parlare' fra di loro. Immaginate due finestre nere con scritte bianche ognuna aperta su due computer che parlano fra di loro: più o meno è questo l'esperimento così temuto che stavano facendo i ricercatori. Meno inquietante di Google Foto che riesce a riconoscere tutte le foto con gli alberi se scrivete 'albero' nella ricerca, ma è questa la potenza degli algoritmi di Machine Learning. Immaginate di voler scaricare un file Torrent molto pesante, di lasciare il computer acceso tutta la notte e di ritrovare il giorno dopo che il file scaricato è... diverso da quello che vi stavate aspettando. Plausibilmente i ricercatori del programma FAIR hanno lasciato i due bot a parlarsi e ad un certo punto hanno trovato questo (storia molto romanzata ma non per questo inverosimile):

Terrificante vero? Così tanto che i ricercatori li hanno spenti per la disperazione (ma non per quello che avevano creato, ma per il lavoro da fare per rimetterli sulla retta via). I bot avevano cominciato a ripetere una parola più volte per esprimere la necessità di aver bisogno di una certa quantità di quell'oggetto tante volte quante fossero le ripetizioni. Come se qualcuno entrasse in un bar per chiedere 3 caffè dicendo "Salve, vorrei caffè caffè caffè". Il problema risiedeva nel fatto che entrambi i bot stessero cercando di insegnarsi qualcosa a vicenda e l'aggiornamento dei parametri di entrambi portava alla creazione di un linguaggio in codice. Nulla di sconvolgente ma solo un tentativo di creare un chatbot che in futuro possa parlare con un essere umano e contrattare con lui qualcosa. Quindi quello che avete letto nella chat non è altro che un tentativo di entrambi i bot di stimare il valore di un oggetto e capire quanto può valere per entrambe le parti, in modo da poter fingere interesse per qualcosa che non desiderano per poi concederlo in una successiva negoziazione.

Nessun robot gigante della morte?

Benché sia nostra intenzione chiarire la questione dei bot Facebook non vogliamo assolutamente suggerire che non ci siano rischi futuri nell'adozione delle IA, così come più volte detto da Elon Musk e Stephen Hawking (e su questo punto spetta alla singola persona condividere o meno il discorso, sperando che sia informata su come funzioni la tecnologia di cui stiamo parlando). Quindi questo caso va preso per quello che è, un semplice esperimento fallito di un team di ricerca che non deve far altro che continuare a sperimentare fino a che tutti i fallimenti non si tramutino in un successo finale. Siamo ancora lontani dal concepire un'intelligenza artificiale capace di lavorare in più ambiti come un essere umano, bisogna pensare a questi bot come programmi che sono in grado di 'creare' qualcosa dai dati che gli vengono forniti ma che rimangono comunque ancorati a quello per cui sono programmati.