Cos’è la coscienza, e le macchine potranno mai averla?

Nonostante i loro recenti successi, le macchine attuali stanno ancora implementando calcoli che riflettono l'elaborazione inconscia nel cervello umano.

0
4330

Immagina di guidare quando ti rendi conto all’improvviso che la spia del serbatoio del carburante è accesa. 

Cosa rende te, un complesso di neuroni, consapevole che la spia si è accesa? E cosa rende la macchina, un sofisticato pezzo di elettronica e ingegneria, ignara? Cosa ci vorrebbe perché l’auto fosse dotata di una coscienza simile alla nostra? Queste domande sono scientificamente trattabili?

Alan Turing e John von Neumann, i fondatori della moderna scienza del calcolo, hanno preso in considerazione la possibilità che le macchine alla fine imparino ad imitare tutte le capacità del cervello, compresa la coscienza. I recenti progressi nell’intelligenza artificiale (AI) hanno ravvivato questo obiettivo. I perfezionamenti nell’apprendimento automatico, ispirati alla neurobiologia, hanno portato a reti neurali artificiali che si avvicinano o, occasionalmente, superano l’uomo. Sebbene tali reti non imitino le proprietà biofisiche dei cervelli reali, il loro design ha beneficiato di diverse intuizioni neurobiologiche, tra cui funzioni di input-output non lineari, strati con proiezioni convergenti e pesi sinaptici modificabili. I progressi nell’hardware del computer e negli algoritmi di addestramento ora consentono a tali reti di operare su problemi complessi (come la traduzione automatica) con percentuali di successo che in precedenza si pensava fossero il privilegio di cervelli reali. Sono sull’orlo della coscienza?

Sosteniamo che la risposta è negativa: i calcoli implementati dalle attuali reti di apprendimento profondo corrispondono principalmente alle operazioni non coscienti nel cervello umano. Tuttavia, proprio come le reti neurali artificiali si sono ispirate alla neurobiologia, la coscienza artificiale può progredire studiando le architetture che consentono al cervello umano di generare coscienza, quindi trasferendo tali intuizioni in algoritmi informatici

Diversi significati di coscienza

La parola “coscienza“, come molti termini prescientifici, è usata in molti sensi diversi. In un contesto medico, viene spesso utilizzato in senso intransitivo (come in “il paziente non era più cosciente”), ovviamente, una macchina deve essere correttamente accesa affinché i suoi calcoli si svolgano normalmente.

Suggeriamo che sia utile distinguere altre due dimensioni essenziali del calcolo cosciente. Li etichettiamo usando i termini disponibilità globale (C1) e automonitoraggio (C2).

C1: disponibilità globale

Ciò corrisponde al significato transitivo della coscienza (come in “Il guidatore è cosciente della luce”). Si riferisce alla relazione tra un sistema cognitivo e un oggetto specifico del pensiero, come una rappresentazione mentale della “luce del serbatoio del carburante”. Questo oggetto sembra essere selezionato per un’ulteriore elaborazione, incluso il rapporto verbale e non verbale. Le informazioni consapevoli in questo senso diventano globalmente disponibili per l’organismo; per esempio, possiamo ricordarlo, agire su di esso e parlarne. Questo senso è sinonimo di “avere le informazioni in mente”; solo ciò che è disponibile a livello globale costituisce il contenuto della coscienza C1.

C2: automonitoraggio

Un altro significato di coscienza è riflessivo. Si riferisce a una relazione autoreferenziale in cui il sistema cognitivo è in grado di monitorare la propria elaborazione e ottenere informazioni su se stesso. Gli esseri umani sanno molto di sé stessi, comprese informazioni così diverse come il layout e la posizione del loro corpo, se conoscono o percepiscono qualcosa o se hanno appena fatto un errore. Questo senso di coscienza corrisponde a ciò che viene comunemente chiamato introspezione, o ciò che gli psicologi chiamano “meta-cognizione“: la capacità di concepire e fare uso di rappresentazioni interne delle proprie conoscenze e capacità.

Secondo l’intuizione originale di Turing, anche un sofisticato processo di elaborazione delle informazioni può essere realizzato da un automa insensato. Le neuroscienze cognitive confermano che calcoli complessi come il riconoscimento del viso o del linguaggio, la valutazione del gioco degli scacchi, l’analisi delle frasi e l’estrazione del significato avvengono inconsciamente nel cervello umano, in condizioni che non danno né riporto globale né autocontrollo (Tabella 1). Il cervello sembra funzionare, in parte, come una giustapposizione di processori o “moduli” specializzati che operano inconsciamente e corrispondono strettamente al funzionamento delle attuali reti di deep learning di feedforward.

Tabella 1: Esempi di calcoli relativi ai livelli di elaborazione delle informazioni C0, C1 e C2 nel cervello umano.

Computation Examples of experimental findings References
C0: Unconscious processing
Invariant visual recognition Subliminal priming by unseen words and faces, invariant for font, size, or viewpoint. (5)
Functional MRI (fMRI) and single-neuron response to unseen words and faces (33377879)
Unconscious judgement of chess game configurations (80)
Access to meaning N400 response to unseen out-of-context words (910)
Cognitive control Unconscious inhibition or task set preparation by an unseen cue (1112)
Reinforcement learning Subliminal instrumental conditioning by unseen shapes (17)
C1: Global availability of information
All-or-none selection and
broadcasting of a relevant content
Conscious perception of a single picture during visual rivalry (29)
Conscious perception of a single detail in a picture or stream (2881)
All-or-none memory retrieval (82)
Attentional blink: Conscious perception of item A
prevents the simultaneous perception of item B
(27308384)
All-or-none “ignition” of event-related potentials and
fMRI signals, only on trials with conscious perception
(33358587)
All-or-none firing of neurons coding for the perceived
object in prefrontal cortex and other higher areas
(3132373888)
Stabilization of short-lived
information for off-line processing
Brain states are more stable when information is consciously
perceived; unconscious information quickly decays (~1 s)
(3989)
Conscious access may occur long after the stimulus is gone (90)
Flexible routing of information Only conscious information can be routed through a series
of successive operations (for example, successive calculations 3 × 4 + 2)
(91)
Sequential performance of
several tasks
Psychological refractory period: Conscious processing
of item A delays conscious processing of item B
(3492)
Serial calculations or strategies require conscious perception          (1391)
Serial organization of spontaneous brain activity during conscious thought in the “resting state”          (93)
C2: Self-monitoring
Self-confidence Humans accurately report subjective confidence,
a probabilistic estimate in the accuracy of a decision or computation
(5155)
Evaluation of one’s knowledge Humans and animals can ask for help or “opt out” when unsure (536566)
Humans and animals know when they do not know or remember (4953)
Error detection Anterior cingulate response to self-detected errors (616594)
Listing one’s skills Children know the arithmetic procedures at their disposal, their speed, and error rate. (70)
Sharing one’s confidence with others Decision-making improves when two persons share knowledge (69)

Successivamente esamineremo brevemente le prove sperimentali su come i cervelli umani e animali gestiscono i calcoli di livello C0, C1 e C2, prima di tornare alle macchine e come potrebbero trarre vantaggio da questa comprensione dell’architettura del cervello.

Elaborazione inconscia (C0): dove risiede la maggior parte della nostra intelligenza

Non possiamo essere consapevoli di ciò di cui non siamo consapevoli. Questo truismo ha profonde conseguenze. Poiché siamo ciechi nei confronti dei nostri processi inconsci, tendiamo a sottovalutare il loro ruolo nella nostra vita mentale. Tuttavia, i neuroscienziati cognitivi hanno sviluppato vari mezzi per presentare immagini o suoni senza indurre alcuna esperienza cosciente e quindi hanno utilizzato l’imaging comportamentale e cerebrale per sondare la profondità di elaborazione.

F1.medium

Fig. 1: Esempi di paradigmi che sondano l’elaborazione inconscia (C0).

Il fenomeno dell’innesco illustra la notevole profondità dell’elaborazione inconscia. Uno stimolo target altamente visibile, come la parola scritta “quattro“, viene elaborato in modo più efficiente se preceduto da uno stimolo primo correlato, come la cifra araba “4”. Cifre, parole, facce o oggetti subliminali possono essere riconosciuti in modo invariante e influenzano i livelli di elaborazione motoria, semantica e decisionale (Tabella 1). I metodi di neuroimaging rivelano che la stragrande maggioranza delle aree cerebrali può essere attivata inconsciamente.

Invarianza della vista inconscia ed estrazione di significato nel cervello umano

Molti dei difficili calcoli percettivi, come il riconoscimento facciale invariante o il riconoscimento vocale invariante, recentemente affrontati dall’intelligenza artificiale corrispondono a calcoli non coscienti nel cervello umano. Ad esempio, l’elaborazione del volto di qualcuno è facilitata quando è preceduta dalla presentazione subliminale di una visione totalmente diversa della stessa persona, che indica il riconoscimento invariante inconscio (Fig.1). L’innesco subliminale si generalizza attraverso le modalità visivo-uditive, rivelando che i calcoli transmodali che rimangono difficili per il software di intelligenza artificiale (come l’estrazione di vettori semantici o la sintesi vocale) implicano anche meccanismi inconsci. Anche il significato semantico di input sensoriali può essere elaborato senza consapevolezza dal cervello umano. Rispetto alle parole correlate (ad esempio animale-cane), le violazioni semantiche (ad esempio mobili-cane) generano una risposta cerebrale fino a 400 ms dopo l’insorgenza dello stimolo nelle reti linguistiche del lobo temporale, anche se una delle due parole non può essere rilevata consapevolmente.

Controllo inconscio e processo decisionale

I processi inconsci possono raggiungere livelli ancora più profondi della gerarchia corticale. Ad esempio, i numeri primi subliminali possono influenzare i meccanismi prefrontali di controllo cognitivo coinvolti nella selezione di un compito o l’inibizione di una risposta motoria. I meccanismi neurali del processo decisionale implicano l’accumulo di prove sensoriali che incidono sulla probabilità delle varie scelte fino al raggiungimento di una soglia. Questo accumulo di conoscenza probabilistica continua ad accadere anche con il messaggio subliminaleL’inferenza bayesiana e l’accumulo di prove, che sono calcoli fondamentali per l’IA, sono meccanismi inconsci di base per l’uomo.

Apprendimento inconscio

Gli algoritmi di apprendimento di rinforzo, che catturano il modo in cui gli umani e gli animali modellano le loro azioni future sulla base della storia delle ricompense passate, si sono distinti nel raggiungere prestazioni di intelligenza artificiale sovrumana in diverse applicazioni, come giocare a Go. Sorprendentemente, nell’uomo, tale apprendimento sembra procedere anche quando i segnali di stimolo, ricompensa o motivazione sono presentati al di sotto della soglia di coscienza.

Computazioni e inferenze inconsce complesse si verificano abitualmente in parallelo all’interno di varie aree del cervello. Molti di questi calcoli C0 sono stati ora catturati dall’intelligenza artificiale, in particolare utilizzando reti neurali convoluzionali feedforward (CNN).

C1: disponibilità globale di informazioni pertinenti

La necessità di integrazione e coordinamento

L’organizzazione del cervello in sottosistemi computazionalmente specializzati è efficiente, ma questa architettura solleva anche un problema computazionale specifico: l’organismo nel suo insieme non può attenersi a una varietà di interpretazioni probabilistiche; deve agire e quindi tagliare le molteplici possibilità e decidere a favore di un singolo corso d’azione

L’integrazione di tutte le prove disponibili per convergere verso una singola decisione è un requisito computazionale che deve essere affrontato da qualsiasi sistema di IA animale o autonomo e corrisponde alla prima definizione funzionale di coscienza: disponibilità globale (C1).

Ad esempio, gli elefanti, quando hanno sete, riescono a determinare la posizione della buca più vicina e si spostano direttamente verso essa, da una distanza da 5 a 50 km. Tale processo decisionale richiede un’architettura sofisticata per unire efficacemente tutte le fonti di informazione disponibili, compresi i segnali multisensoriali e di memoria; considerando le opzioni disponibili e selezionando la migliore sulla base di questo ampio pool di informazioni;  attenersi a questa scelta nel tempo; e coordinare tutti i processi interni ed esterni verso il raggiungimento di tale obiettivo. Una pianificazione coerente e ponderata richiede un’architettura C1 specifica.

La coscienza come accesso a uno spazio di lavoro globale interno

La coscienza nel primo senso (C1) potrebbe essersi evoluta come un’architettura di elaborazione delle informazioni che affronta questo problema di raccolta delle informazioniIn questa prospettiva, l’architettura di C1 si è evoluta per rompere la modularità e il parallelismo dei calcoli inconsci. Oltre a una gerarchia profonda di moduli specializzati, uno “spazio di lavoro neuronale globale“, con capacità limitata, si è evoluto per selezionare un’informazione, conservarla nel tempo e condividerla tra i moduli. Chiamiamo “cosciente” qualunque rappresentazione, in un dato momento, vince la competizione per l’accesso a questa arena mentale e viene selezionata per la condivisione globale e il processo decisionale. La coscienza si manifesta quindi con il dominio temporaneo di un pensiero o di un treno di pensieri sui processi mentali, in modo che possa guidare un’ampia varietà di comportamenti

Relazione tra coscienza e attenzione

William James ha descritto l’attenzione come “prendere possesso dalla mente, in forma chiara e vivida, di uno di quelli che sembrano diversi oggetti o treni di pensiero simultaneamente possibili”. Questa definizione è vicina a ciò che intendiamo per C1: la selezione di una singola informazione per l’ingresso nello spazio di lavoro globale. Vi è, tuttavia, una netta distinzione tra questo passaggio finale, che corrisponde all’accesso cosciente, e le fasi precedenti della selezione attenzionale, che possono operare inconsciamente. 

F2.medium
Fig. 2 Disponibilità globale: coscienza nel primo senso (C1).

Stabilità come caratteristica della coscienza

Contrasti diretti tra immagini o parole viste e invisibili confermano che tale accensione avviene solo per la percezione cosciente. Come spiegato in precedenza, gli stimoli inconsci possono raggiungere reti corticali profonde e influenzare livelli più elevati di elaborazione e persino funzioni esecutive centrali, ma questi effetti tendono ad essere piccoli, variabili e di breve durata. Al contrario, la rappresentazione stabile e riproducibile di informazioni di alta qualità mediante un modello di attività distribuita nelle aree corticali superiori è una caratteristica dell’elaborazione cosciente (Tabella 1). Tale “meta-stabilità” transitoria sembra essere necessaria per il sistema nervoso per integrare le informazioni da una varietà di moduli e poi trasmetterle a loro, ottenendo un instradamento flessibile tra i moduli.

C2: automonitoraggio

Considerando che la coscienza C1 riflette la capacità di accedere alle informazioni esterne, la coscienza nel secondo senso (C2) è caratterizzata dalla capacità di rappresentare il riflesso sé. Una notevole quantità di ricerche in neuroscienze cognitive e psicologia ha affrontato l’autocontrollo con il termine di “metacognizione“, che è approssimativamente definito come cognizione sulla cognizione o conoscenza della conoscenza. Di seguito, esaminiamo i meccanismi con cui il cervello dei primati si monitora, sottolineando le loro implicazioni per la costruzione di macchine auto-riflettenti.

Un senso probabilistico di fiducia

Quando prendono una decisione, gli umani si sentono più o meno sicuri della propria scelta

La fiducia può essere definita come un senso della probabilità che una decisione o un calcolo siano corretti. Quasi ogni volta che il cervello percepisce o decide, stima anche il suo grado di fiducia. L’apprendimento è anche accompagnato da un senso quantitativo di fiducia; gli umani valutano la fiducia che hanno in ciò che hanno imparato e lo usano per valutare le conoscenze passate rispetto alle prove attuali. Al contrario, la maggior parte delle attuali reti neurali ne sono prive: sebbene possano imparare, generalmente mancano di meta-conoscenza dell’affidabilità e dei limiti di ciò che è stato appreso. Un’eccezione evidente sono i modelli biologicamente vincolati che si basano su meccanismi bayesiani per simulare l’integrazione di molteplici segnali probabilistici nei circuiti neurali. Questi modelli sono stati fruttuosi nel descrivere come le popolazioni neurali possano calcolare automaticamente la probabilità che un determinato processo venga eseguito con successo.

Meta-memoria

Gli umani non sanno solo cose sul mondo; in realtà sanno ciò che sanno o che non sanno. Un esempio familiare è avere una parola “sulla punta della lingua“. Il termine “meta-memoria” è stato coniato per inquadrare il fatto che gli umani riportano sentimenti di conoscenza, fiducia e dubbi sui loro ricordi. Si ritiene che la meta-memoria coinvolga un sistema di secondo ordine che monitora i segnali interni (come la forza e la qualità di una traccia di memoria) per regolare il comportamento. La meta-memoria è associata a strutture prefrontali la cui inattivazione farmacologica porta a una compromissione metacognitiva risparmiando allo stesso tempo le prestazioni della memoriaLa metamemoria è fondamentale per l’apprendimento e l’educazione umana consentendo agli studenti di sviluppare strategie come aumentare la quantità di studio o adattare il tempo assegnato alla codifica e alle prove della memoria.

Monitoraggio della realtà

Oltre a monitorare la qualità delle rappresentazioni sensoriali e della memoria, il cervello umano deve anche distinguere le rappresentazioni auto-generate rispetto a quelle guidate dall’esterno. In effetti, possiamo percepire le cose, ma le evochiamo anche dall’immaginazione o dalla memoria. Le allucinazioni nella schizofrenia sono state collegate a un fallimento nel distinguere se l’attività sensoriale è generata da sé stessi o dal mondo esterno. Gli studi di neuroimaging hanno collegato questo tipo di monitoraggio della realtà alla corteccia prefrontale anteriore. Nei primati non umani, i neuroni nella corteccia prefrontale distinguono tra normale percezione visiva e mantenimento attivo dello stesso contenuto visivo in memoria.

Dissociazioni tra C1 e C2

Secondo la nostra analisi, C1 e C2 sono in gran parte dimensioni ortogonali e complementari di ciò che chiamiamo coscienza. Da un lato di questa doppia dissociazione, può esistere un autocontrollo per stimoli non riferibili (C2 senza C1). La digitazione automatica fornisce un buon esempio: i soggetti rallentano dopo un errore di battitura, anche quando non notano consapevolmente l’errore. Analogamente, a livello neurale, può verificarsi un ERN per errori soggettivamente non rilevati

Dall’altro lato di questa dissociazione, i contenuti consapevolmente riferibili a volte non sono accompagnati da un adeguato senso di fiducia (C1 senza C2). Ad esempio, quando recuperiamo un ricordo, esso si espande nella coscienza (C1) ma a volte senza una valutazione accurata della sua fiducia (C2), portando a falsi ricordi. Come notato da Marvin Minsky, “ciò che chiamiamo coscienza [nel senso C1] è un riassunto molto imperfetto in una parte del cervello di ciò che il resto sta facendo“.

Questa imperfezione deriva in parte dal fatto che l’area di lavoro globale riduce il complesso dei flussi sensoriali paralleli di calcolo probabilistico ad un singolo campione cosciente. Pertanto, le informazioni probabilistiche vengono spesso perse lungo la strada e i soggetti si sentono troppo fiduciosi nell’accuratezza della loro percezione.

Sinergie tra coscienza C1 e C2

Poiché C1 e C2 sono ortogonali, il loro possesso congiunto può avere vantaggi sinergici per gli organismi. Da una parte, portare informazioni metacognitive probabilistiche (C2) nello spazio di lavoro globale (C1) consente di conservarle nel tempo, integrarle in riflessioni esplicite a lungo termine e condividere con gli altri.

La condivisione delle informazioni sociali migliora le decisioni: condividendo i loro segnali di fiducia, due persone ottengono risultati migliori nel processo decisionale collettivo rispetto a quelli di una sola persona

Dall’altra parte, il possesso di un repertorio esplicito delle proprie capacità (C2) migliora l’efficienza con cui vengono elaborate le informazioni C1.

Durante l’aritmetica mentale, i bambini possono eseguire una valutazione di livello C2 delle loro competenze disponibili (ad esempio, conteggio, aggiunta, moltiplicazione o recupero della memoria) utilizzando queste informazioni per valutare come affrontare al meglio un determinato problema aritmetico. Questa funzionalità richiede un’unica “valuta comune” per la fiducia tra i diversi moduli, che gli umani sembrano possedere.

Dotazione di calcoli C1 e C2 nelle macchine

Come possono le macchine essere dotate di calcoli C1 e C2? 

Torniamo all’esempio della luce dell’auto. Nelle macchine attuali, la luce “a gas ridotto” è un esempio prototipico di un segnale modulare inconscio (C0). Quando la luce lampeggia, tutti gli altri processori nella macchina rimangono disinformati e invariati; il carburante continua ad essere iniettato nel carburatore e l’auto procede sulla sua strada.

Le auto o i telefoni cellulari attuali sono semplici raccolte di moduli specializzati che sono in gran parte “inconsapevoli” l’uno dell’altro. Dotare questa macchina di disponibilità di informazioni globali (C1) consentirebbe a questi moduli di condividere informazioni e collaborare per affrontare il problema imminente (proprio come fanno gli umani quando diventano consapevoli della luce o elefanti della sete).

Un elemento importante di C2 che ha ricevuto relativamente poca attenzione è il monitoraggio della realtà

Gli approcci bayesiani all’IA hanno riconosciuto l’utilità di apprendere modelli generativi che possono essere usati congiuntamente per la percezione effettiva (presente), la pianificazione prospettica (futuro) e l’analisi retrospettiva (passato).

Nell’uomo, le stesse aree sensoriali sono coinvolte sia nella percezione che nell’immaginazione. Pertanto, sono necessari alcuni meccanismi per distinguere l’attività auto-generata rispetto a quella innescata dall’esterno.

Un metodo efficace per l’addestramento di modelli generativi, chiamato apprendimento contraddittorio, implica che una rete secondaria “competa” con una rete generativa in modo da valutare criticamente l’autenticità delle rappresentazioni autogenerate. Quando tale monitoraggio della realtà (C2) è accoppiato con i meccanismi C1, la macchina risultante può imitare più da vicino la coscienza umana in termini di accesso globale alle rappresentazioni percettive pur avendo l’impressione immediata che il loro contenuto sia un vero riflesso dello stato attuale del mondo.

Osservazioni conclusive

Ciò che chiamiamo “coscienza” deriva da specifici tipi di calcoli di elaborazione delle informazioni, realizzati fisicamente dall’hardware del cervello.

Una macchina dotata di C1 e C2 si comporterebbe come se fosse cosciente; per esempio, saprebbe che sta vedendo qualcosa, esprimerebbe fiducia in esso, lo riferirebbe ad altri, potrebbe soffrire di allucinazioni quando i suoi meccanismi di monitoraggio si guastano e potrebbe persino sperimentare le stesse illusioni percettive degli umani. 

Tuttavia, una tale definizione puramente funzionale di coscienza può lasciare alcuni lettori insoddisfatti. Stiamo “iper-intellettualizzando” la coscienza, supponendo che alcune funzioni cognitive di alto livello siano necessariamente legate alla coscienza? Stiamo lasciando da parte la componente esperienziale (“com’è” essere coscienti)? L’esperienza soggettiva sfugge a una definizione computazionale?

Sebbene tali questioni filosofiche vadano oltre lo scopo del presente documento, chiudiamo osservandolo empiricamente, nell’uomo la perdita di calcoli C1 e C2 cova con una perdita di esperienza soggettiva. 

Ad esempio, nell’uomo, il danno alla corteccia visiva primaria può portare a una condizione neurologica chiamata “vista cieca”, in cui i pazienti riferiscono di essere ciechi nel campo visivo interessato. Sorprendentemente, quei pazienti possono localizzare gli stimoli visivi nel loro campo cieco ma non possono denunciarli (C1), né possono effettivamente valutare la loro probabilità di successo (C2), ma credono di essere semplicemente “ipotesi”. In questo esempio, almeno, l’esperienza soggettiva sembra coincidere con il possesso di C1 e C2.

In definitiva, le Intelligenze Artificiali attuali sembrano ancora lontane dall’autoconsapevolezza e, quindi, dalla coscienza e tutti quei processi implementabili di interazione tra i vari stimoli pseudosensoriali potrebbero portarle solo ad una imitazione meccanica della coscienza di sé.

È probabile che sviluppi successivi porteranno le IA a sviluppare un’adeguata coscienza di sé ma si tratta di un obbiettivo che richiederà molta più potenza di calcolo e raffinatezza dei processi, oltre l’apertura all’implementazione di stimoli ambientali in tempo reale.

Questo articolo è stato estratto dalla rivista Sciencemag.org. Leggi l’articolo originale.