A causa dell’aumento di interesse per i grandi robot basati su modelli linguistici come ChatGPT, un filosofo di Oxford ha recentemente affermato che l’intelligenza artificiale ha mostrato tracce di sensibilità. Attualmente l’intelligenza artificiale può raggiungere la singolarità come un traguardo in movimento, ma Nick Bostrom sostiene che dovremmo considerarlo più come una scala mobile: “Se ammetti che non può essere o tutto o niente, alcune di queste macchine potrebbero essere plausibilmente candidate ad avere un certo grado di sensibilità”.
Robot pensanti e sensibili: la nuova frontiera dell’intelligenza artificiale
Per dare un senso all’affermazione di Bostrom, dobbiamo capire cos’è la sensibilità e in che modo differisce dalla coscienza entro i confini dell’intelligenza artificiale impiegata per animare i Robot. Entrambi questi fenomeni sono strettamente correlati e sono stati discussi in filosofia molto prima che l’intelligenza artificiale entrasse in scena. Non è un caso quindi che la sensibilità e la coscienza siano spesso confuse.
Tutti gli esseri senzienti sono esseri coscienti, ma non tutti gli esseri coscienti sono senzienti. Ma cosa significa in realtà?
La coscienza è la consapevolezza di esistere. È quello che rende un essere pensante e senziente, separandolo da batteri, archaea, protisti, funghi, piante e alcuni animali. Ad esempio, la coscienza consente al cervello di dare un senso alle cose nell’ambiente circostante: è il modo in cui impariamo facendo. Lo psicologo americano William James ha definito la coscienza come un flusso in continuo movimento, cambiamento e ininterrotto, da cui il termine “flusso di coscienza”.
La sensibilità è l’innata capacità umana di provare sentimenti e sensazioni senza associazione o interpretazione: “Stiamo parlando di qualcosa di più del semplice codice, stiamo parlando della capacità di un robot di pensare e sentire, oltre ad avere moralità e spiritualità”, ha affermato Ishaani Priyadarshini, Ph.D. in Cybersecurity e ricercatore dell’Università del Delaware.
Per decenni l’idea stessa di coscienza è stata pesantemente contestata in filosofia. Il filosofo del XVII secolo René Descartes disse notoriamente: “Penso quindi sono”. In apparenza un’affermazione semplice, ma era il risultato della sua ricerca di un’affermazione di cui non si potesse dubitare. Basta rifletterci: non poteva dubitare della sua esistenza perché era lui stesso a dubitare in primo luogo.
Molteplici teorie parlano delle basi biologiche della coscienza, ma c’è ancora poco accordo su quale dovrebbe essere presa come vangelo. Le due scuole di pensiero esaminano se la coscienza è il risultato dell’attivazione dei neuroni nel nostro cervello o se esiste in modo completamente indipendente da noi.
Nel frattempo, gran parte del lavoro svolto per identificare la coscienza nei sistemi di intelligenza artificiale che animano i robot mira semplicemente a vedere se riescono a pensare e percepire nello stesso modo in cui lo facciamo noi, con il test di Turing che è lo standard industriale non ufficiale.
Sebbene esista motivo di credere che l’intelligenza artificiale dei robot possa esibire comportamenti coscienti, non percepisce la coscienza, o la sensibilità, nello stesso modo in cui lo facciamo noi. Priyadarshini ha affermato che l’AI implica molta imitazione e processi decisionali basati sui dati, il che significa che teoricamente potrebbe essere addestrata per avere capacità di leadership.
Quindi, un robot sarebbe in grado di fingere il senso degli affari necessario per elaborare decisioni aziendali difficili attraverso, ad esempio, un processo decisionale basato sui dati. L’attuale strategia dell’intelligenza artificiale “fingi finché non ce la fai” rende incredibilmente difficile classificare se è veramente cosciente o senziente.
Test di Turing per valutare coscienza e sensibilità nei robot e nei computer: gli esperti ritengono sia necessario un aggiornamento
Molti considerano il test di Turing come la prima valutazione standardizzata per scoprire la coscienza e la sensibilità nei computer. Sebbene sia stato molto influente, è stato anche ampiamente criticato.
Nel 1950, Alan Turing ha creato il Turing Test, inizialmente noto come Imitation Game, nel tentativo di scoprire se le “macchine” informatiche potessero mostrare un comportamento intelligente equivalente o indistinguibile da quello di un essere umano.
I valutatori umani si impegnerebbero in conversazioni cieche basate su testo con un essere umano e un computer o un robot. Il computer supera il test se il suo virtuosismo conversazionale può indurre il valutatore a non essere in grado di identificarlo in modo affidabile dal partecipante umano. Questo significherebbe che il sistema è senziente.
Il test di Turing è tornato alla ribalta con modelli di intelligenza artificiale come ChatGPT realizzati su misura per replicare il linguaggio umano. Abbiamo visto affermazioni contrastanti sul fatto che ChatGPT abbia effettivamente superato il test di Turing, ma le sue capacità rimangono evidenti.
Per prospettiva, il famoso modello di intelligenza artificiale ha superato l’esame di avvocato, il SAT e persino alcuni esami Chartered Financial Analyst (CFA). Va tutto bene, ma resta il fatto che molti esperti ritengono che sia necessario un test aggiornato per valutare quest’ultima tecnologia di intelligenza artificiale e che forse stiamo guardando all’intelligenza artificiale e ai robot in modo completamente sbagliato.
Molti esperti hanno affermato che è giunto il momento di creare un nuovo test di Turing che fornisca una misura più realistica delle capacità dei computer e dei robot. Ad esempio, Mustafa Suleyman ha recentemente pubblicato il suo libro, The Coming Wave: Technology, Power, and The Twenty-First Century’s Greatest Dilema , che non parla solo di un nuovo punto di riferimento, ma anche di come la nostra comprensione dell’intelligenza artificiale deve cambiare.
Il libro parla di una narrativa fuori luogo sulla capacità dell’intelligenza artificiale di eguagliare o superare l’intelligenza di un essere umano, a volte definita intelligenza artificiale generale.
Piuttosto, Suleyman crede in quella che chiama intelligenza artificiale capace (ACI), che si riferisce a programmi in grado di completare compiti con poca interazione umana. Il test di Turing di nuova generazione chiede all’AI di costruire un piano di gioco aziendale in grado di trasformare 100.000 dollari di capitale iniziale in 1 milione di dollari.
Tutto questo dovrebbe incentrarsi sull’e-commerce mettendo insieme un progetto per un prodotto e il modo in cui verrebbe venduto, ad esempio: Alibaba, Amazon, Walmart, ecc. I sistemi di intelligenza artificiale attualmente non sono in grado di superare questo test teorico, ma ciò non è stato possibile.
Spesso vediamo una buona dose di rovina e tristezza associata al fatto che i robot diventino senzienti e raggiungano il punto di singolarità: questo è definito come il momento in cui l’intelligenza del computer o del robot diventa uguale o supera quella umana. Abbiamo visto segni di sensibilità già nel 1997, quando il supercomputer Deep Blue dell’IBM ha sconfitto Garry Kasparov in una partita a scacchi.
L’intelligenza artificiale che anima robot e computer attualmente non è altro che un processo decisionale basato su regole e parametri, quindi cosa succede quando deve prendere decisioni etiche? Non lo sappiamo.
Bostrom afferma che con lo spazio per i robot per apprendere e crescere, c’è la possibilità che questi modelli linguistici di grandi dimensioni siano in grado di sviluppare la coscienza, ma le capacità risultanti sono ancora sconosciute. In realtà non sappiamo cosa sarebbe capace di fare l’intelligenza artificiale senziente perché noi stessi non siamo superintelligenti.