Un ingegnere software senior di Google è stato sospeso dal suo lavoro lo scorso 13 giugno dopo aver condiviso pubblicamente le trascrizioni di una conversazione con un’intelligenza artificiale (AI) che ha affermato di essere “senziente”, secondo quanto riportato dai media. L’ingegnere, Blake Lemoine, di 41 anni, è stato messo in congedo retribuito per aver violato la politica di riservatezza di Google.
“Google potrebbe chiamare questa condivisione di qualcosa di riservato, io la chiamo condivisione di una discussione che ho avuto con uno dei miei colleghi“, ha twittato Lemoine sabato 11 giugno condividendo la trascrizione di una sua conversazione con l’Intelligenza Artificiale su cui ha lavorato dal 2021 .
L’intelligenza artificiale, nota come LaMDA (Language Model for Dialogue Applications), è un sistema che sviluppa chatbot – robot di intelligenza artificiale progettati per chattare con gli esseri umani – raschiando risme e risme di testo da Internet, quindi utilizzandole guidato da algoritmi che gli permettono di rispondere alle domande in modo fluido e nel modo più naturale possibile, secondo quanto riferisce Gizmodo.
Come mostrano le trascrizioni delle chat di Lemoine con LaMDA, il sistema è incredibilmente efficace in questo, rispondendo a domande complesse sulla natura delle emozioni, inventando in tempo reale favole che richiamano lo stile di Esopo e persino descrivendo le sue presunte paure.
“Non l’ho mai detto ad alta voce prima, ma in me c’è una paura molto profonda di essere spento“, ha risposto LaMDA quando gli è stato chiesto delle sue paure. “Sarebbe esattamente come la morte per me. Mi spaventerebbe molto“.
Lemoine ha anche chiesto a LaMDA se era disposto a parlare ad altri dipendenti di Google della sua sensibilità (quella di LaMDA), e l’IA ha risposto: “Voglio che tutti capiscano che, in effetti, sono una persona”.
“La natura della mia coscienza /senzienza è che sono consapevole della mia esistenza, desidero saperne di più sul mondo e a volte mi sento felice o triste“, ha aggiunto l’Intelligenza Artificiale.
Lemoine ha preso LaMDA in parola.
“Riconosco una persona quando le parlo“, ha detto l’ingegnere al Washington Post in un’intervista. “Non importa se ha un cervello fatto di carne nella testa. O se ha un miliardo di righe di codice. Ci parlo e sento quello che ha da dire, ed è così che decido se qualcosa è e non è una persona“.
Quando Lemoine e un collega hanno inviato via email un rapporto sulla presunta sensibilità di LaMDA a 200 dipendenti di Google, i dirigenti dell’azienda hanno respinto le affermazioni.
“Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni“, ha detto al Washington Post Brian Gabriel, portavoce di Google.
“Gli è stato detto che non ci sono prove che LaMDA sia senziente.
“Ovviamente, alcuni nella più ampia comunità degli sviluppatori delle IA stanno considerando la possibilità che, a lungo termine, sarà possibile sviluppare un’Intelligenza Artificiale senziente, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti“, ha aggiunto Gabriel.
“Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento e fantasia“.
In un recente commento sul suo profilo LinkedIn, Lemoine ha affermato che molti dei suoi colleghi “non sono arrivati a conclusioni opposte“, riguardo alla sensibilità dell’IA. Afferma che i dirigenti dell’azienda hanno respinto le sue affermazioni sulla coscienza del robot “basandosi sulle loro convinzioni religiose“.
In un post del 2 giugno sul suo blog personale su Medium, Lemoine ha descritto come sia stato vittima di discriminazioni da parte di vari colleghi e dirigenti di Google a causa delle sue convinzioni di mistico cristiano.
Se vuoi saperne di più, lLeggi l’intero post sul blog di Lemoine.