Un dipendente di Google è convinto che un’intelligenza artificiale abbia preso coscienza di sé.
Blake Lemoine è un ingegnere informatico ed è convinto che un sistema di intelligenza artificiale (AI) di Google, l’azienda per cui lavora, abbia “preso vita” e abbia assunto consapevolezza di se stesso. Ne è talmente persuaso dall’aver chiesto a vari dirigenti della società di affrontare il problema, rimediando una sospensione dal proprio incarico con l’accusa di avere rivelato e reso pubbliche informazioni riservate sulle tecnologie impiegate da Google. La società ha inoltre escluso che una propria AI sia diventata senziente, ma ciononostante Lemoine continua a sostenere la propria tesi che potrebbe costargli il posto di lavoro.
Come molte altre società informatiche, Google lavora da tempo allo sviluppo di vari sistemi di intelligenza artificiale, con l’obiettivo di rendere più preciso il proprio motore di ricerca e gli altri servizi non solo per le ricerche online. Alcuni di questi sistemi sono già stati integrati in forma sperimentale in alcune funzionalità del motore di ricerca, per esempio per migliorare la traduzione automatica dei testi o il riconoscimento delle immagini, mentre altri sono ancora sperimentali e disponibili solamente in prova per alcuni dipendenti dell’azienda.
Un’area di ricerca e sviluppo in cui Google si sta dando molto da fare riguarda la produzione di conversazioni in linguaggio naturale, tramite sistemi automatici (“chatbot”) che imitano il modo di parlare delle persone e sono in grado di sostenere normali conversazioni. Il progetto più promettente e avanzato si chiama Language Model for Dialogue Applications (LaMDA) ed è quello che secondo Lemoine sarebbe diventato consapevole della propria esistenza, e di conseguenza delle implicazioni della propria presenza nel mondo.
Lemoine ha lavorato nell’esercito degli Stati Uniti, si è descritto in più occasioni come un “sacerdote” e come un ricercatore nell’ambito dell’intelligenza artificiale. Ai dirigenti di Google ha detto che secondo lui LaMDA può essere paragonato a un bambino di 7-8 anni, e che quindi i programmatori dovrebbero chiedergli esplicitamente un permesso prima di effettuare esperimenti che lo coinvolgono. Lemoine ha poi accusato i responsabili delle risorse umane di Google di fare discriminazioni nei confronti delle sue credenze religiose.
In un post pubblicato su Medium, Lemoine ha descritto la propria esperienza con LaMDA: «Nel corso degli ultimi sei mesi, LaMDA è stato incredibilmente coerente nel comunicare ciò che vuole e ciò che ritiene siano i propri diritti come una persona. La cosa che continuo a non capire è perché Google continui così fermamente a negargli ciò che desidera, considerato che ciò che chiede è semplice e senza costi».
Sulla sospensione di Lemoine dal proprio incarico sembra abbia pesato soprattutto la scelta di inviare a un senatore degli Stati Uniti alcuni dei documenti su LaMDA, che avrebbero dimostrato le discriminazioni in campo religioso. Come in molte altre aziende, i dipendenti di Google sono tenuti a non rendere pubbliche alcune informazioni sui progetti e le attività cui sta lavorando la società. L’esistenza di LaMDA è comunque nota da tempo e vengono spesso pubblicati studi e analisi sulle evoluzioni di questa tecnologia.
Google ha risposto alle accuse di Lemoine ricordando che tutte le attività che riguardano sviluppi nel campo dell’intelligenza artificiale sono seguite da una sorta di comitato etico, con membri indipendenti che hanno il compito di valutare possibili implicazioni nello sviluppo di tecnologie via via più “intelligenti”: «Il nostro gruppo di lavoro – che comprende eticisti e tecnologi – ha sottoposto a revisione le segnalazioni di Blake basandosi sui nostri “Principi per le AI”, informandolo di non avere riscontrato elementi a sostegno delle sue tesi. In generale, alcuni nel settore delle AI stanno valutando le implicazioni nel lungo periodo delle intelligenze artificiali senzienti, ma non ha senso farlo antropomorfizzando i modelli per fare conversazione di oggi, che non sono senzienti».
Lemoine è però convinto del contrario e dice di essersi sentito maltrattato da Google: «Hanno messo ripetutamente in dubbio la mia sanità mentale. Hanno detto: “Ma ti sei fatto vedere da uno psichiatra di recente?”». Nei mesi prima della sospensione, alcuni dirigenti avevano in effetti consigliato a Lemoine di prendersi una pausa dal lavoro citando la necessità di affrontare qualche problema mentale.
Oltre ad avere raccontato la propria esperienza, Lemoine ha anche pubblicato una lunga conversazione avuta con LaMDA insieme a un proprio collega. Il documento mostra una spiccata capacità del software nel formulare risposte coerenti con le domande e nel fornire ulteriori argomenti di conversazione, anche se talvolta con formulazioni grammaticali contenenti qualche errore. Il testo è stato inoltre pubblicato da Lemoine su una piattaforma diversa e non può essere quindi confrontato con l’originale prodotto durante la conversazione.
LaMDA negli ultimi mesi è stato utilizzato da centinaia di ricercatori e ingegneri all’interno di Google, senza che ci fossero segnalazioni sulla possibilità che il sistema avesse assunto consapevolezza sulla propria esistenza. Negli ultimi anni all’interno della società ci sono stati comunque numerosi litigi e scandali legati allo sviluppo di nuove intelligenze artificiali. Il confronto tra i responsabili del settore e i gruppi di ricerca e sviluppo che vi lavorano è spesso molto acceso, con ricorrenti scontri su quali politiche e strategie seguire, legate anche ai temi etici.
Lo scorso marzo, per esempio, Google aveva licenziato una ricercatrice che aveva sollevato alcune critiche e polemiche nei confronti dei propri colleghi, che avevano esposto gli ultimi progressi nelle AI della società in una ricerca scientifica. La società ha inoltre concluso la collaborazione con due ricercatrici che si occupano di etica nello sviluppo delle AI, dopo che avevano criticato Google per alcuni sistemi impiegati per la produzione automatica di conversazioni.
Il confronto nel settore è molto acceso ed è concentrato soprattutto sul rischio di creare intelligenze artificiali che rispecchino pregiudizi e preconcetti di chi le sviluppa, o che decide come debbano essere realizzate e con quali finalità. In varie occasioni è stato osservato come, basandosi su set di dati contenenti pregiudizi razziali, i software abbiano finito a loro volta per discriminare le persone appartenenti a minoranze. Numerosi studi hanno mostrato come rischi di questo tipo siano concreti, spingendo le aziende che si occupano di intelligenze artificiali a rivedere parte della propria organizzazione interna, con lo scopo di creare sistemi di intelligenza artificiale che siano più rappresentativi della grande varietà e diversità delle società in cui viviamo.
Il dibattito su questi temi è ancora in corso, porta periodicamente a polemiche, ed è uno dei motivi per cui Google rende pubblici i propri progressi nelle intelligenze artificiali con grandi cautele, spesso annunciando i risultati ottenuti senza offrire la possibilità a chi è esterno all’azienda di sperimentare i nuovi sistemi. Gli esperimenti disponibili contengono sempre segnalazioni sul rischio di ottenere risposte fuori luogo, offensive e razziste da parte dei sistemi automatici per la generazione di conversazioni.
I modelli per l’elaborazione del linguaggio naturale sono spesso realizzati impiegando reti neurali artificiali, cioè sistemi che cercano di imitare il funzionamento del nostro cervello e in particolare il modo in cui i neuroni comunicano tra loro ed elaborano le informazioni. Questi sistemi apprendono e si allenano analizzando enormi quantità di dati, come testi e trascrizioni di conversazioni, imparando autonomamente a dare un senso a quei dati derivando vari set di regole, comprese quelle grammaticali. Il cervello umano è naturalmente molto più complesso di una rete neurale, ma quest’ultima con i giusti accorgimenti può continuare ad apprendere e a migliorarsi, affinando i propri algoritmi.
Tra i parametri impiegati per LaMDA ci sono quelli orientati a far prevedere al sistema le parole mancanti in una determinata frase, sulla base dei testi che può reperire sul Web. Nel caso di “Una batteria serve per fornire __ a un sistema”, gli algoritmi analizzano la frase e concludono che la risposta più probabile sia “energia”. Ci sono poi naturalmente altri sistemi e algoritmi che consentono alla AI di essere autonoma nel fornire risposte coerenti con le sollecitazioni ricevute, o a fornire autonomamente nuove sollecitazioni al proprio interlocutore.
Semplificando, LaMDA impara soprattutto dal linguaggio umano e dalla capacità di tenere in considerazione una variabile essenziale: ogni persona comunica e si esprime in modo diverso, mostrando in questo modo le proprie caratteristiche. L’obiettivo è ottenere sistemi che siano in grado di analizzare e sfruttare queste diversità, avendo la capacità di prevedere che ogni soggetto potrà rispondere e comportarsi diversamente da un altro. Questo processo è essenziale per fare in modo che la stessa AI possa produrre un proprio modello e una propria socialità.
LaMDA ha superato una parte importante di queste sfide, e può essere considerato come una fabbrica di diversi chatbot. Le conversazioni avvengono con sistemi automatici prodotti dall’intelligenza artificiale di LaMDA, quindi ogni interlocutore ha di per sé caratteristiche diverse. Queste possono essere decise in partenza sulla base di alcuni parametri o si rendono evidenti man mano che si porta avanti la conversazione.
Da queste conversazioni Lemoine ha concluso di avere a che fare con un sistema che ha raggiunto una consapevolezza di sé, paragonabile a quella che avrebbe una persona. Gli elementi per sostenerlo con certezza continuano però a essere limitati, inoltre secondo la maggior parte degli esperti è ancora presto per avere software di intelligenza artificiale che siano in grado non solo di riconoscere la propria esistenza, ma anche di comprendere le implicazioni del far parte del mondo, seppure in un ambiente virtuale sempre più connesso a quello reale.