Le CPU e GPU che utilizziamo oggi superano notevolmente il nostro cervello riguardo l’elaborazione seriale. Il trasferimento dei dati da una memoria ad un processore o viceversa crea latenza e consuma molta energia.
Nell’informatica neuromorfica i sistemi chiamati, appunto, “neuromorfici” imitano il sistema nervoso umano. Questa ingegneria cerca di simulare ed imitare la struttura dei sistemi nervosi di rilevamento biologico e di elaborazione delle informazioni. Il calcolo neuromorfico implementa aspetti delle reti neurali biologiche come copie analogiche o digitali su circuiti elettronici.
L’ingegneria neuromorfica prolificò negli anni ’80: lo scienziato Carver Mead, pioniere dei microprocessori americani, sviluppò il concetto di ingegneria neuromorfica, nota anche come calcolo neuromorfico. Essa descrive l’uso di sistemi VLSI (Very Large Scale Integration) contenenti circuiti elettronici analogici. Questi circuiti sono organizzati in modo da imitare le architetture neuro-biologiche presenti nel sistema nervoso umano.
L’intelligenza artificiale (AI) ha bisogno di nuovo hardware, non solo di nuovi algoritmi. La legge di Moore sta portando a termine una stagnazione dei nostri computer. “Oggi giorno stiamo generando sempre più dati che devono essere archiviati e classificati“, ha detto il professor Dmitri Strukov, ingegnere elettrico presso l’Università della California a Santa Barbara in un’intervista sulle opportunità e le sfide dello sviluppo di tecnologie ispirate al cervello, quando gli è stato chiesto perché abbiamo bisogno del calcolo neuromorfico.
Strukov racconta come i recenti progressi nell’intelligenza artificiale automatizzino questo processo, con i data center che si moltiplicano a costo di consumare una notevole quantità di elettricità, un potenziale problema per il nostro ambiente. “Questo consumo di energia deriva principalmente dal traffico di dati tra la memoria e le unità di elaborazione separate nei computer“, ha affermato Strukov “Spreca energia elettrica e rallenta notevolmente la velocità di calcolo. I recenti sviluppi nella nanotecnologia offrono la possibilità di avvicinare enormi quantità di memoria all’elaborazione, o meglio ancora, di integrare questa memoria direttamente nell’unità di elaborazione“.
Secondo Strukov, l’idea dell’informatica neuromorfica è di ispirarsi al cervello affinché si progettino chip per computer che uniscano memoria ed elaborazione. Nel cervello, le sinapsi forniscono un accesso diretto alla memoria ai neuroni che elaborano le informazioni. È così che il cervello raggiunge una potenza e una velocità di calcolo impressionanti con un consumo energetico minimo. Imitando questa architettura, l’informatica neuromorfca fornisce un percorso per costruire chip neuromorfici intelligenti che consumano pochissima energia e, nel frattempo, aumentino la potenza di calcolo.
Loihi è il quinto chip neuromorfico di Intel, annunciato a settembre 2017, un prototipo che da allora ha fatto molta strada. Loihi è un processore neuromorfico con apprendimento su chip. Il chip Loihi a 14 nanometri di Intel contiene oltre 2 miliardi di transistor, 130.000 neuroni artificiali e 130 milioni di sinapsi. Integra una vasta gamma di nuove funzionalità per il campo, come le regole di apprendimento sinaptico programmabili.
Secondo Intel, il chip neuromorfico è l’abilitatore di intelligenza artificiale di prossima generazione.
Secondo Intel, Sandia avvierà la sua ricerca utilizzando un sistema basato su Loihi da 50 milioni di neuroni consegnato alla sua struttura di Albuquerque, nel New Mexico. Questo lavoro iniziale con Loihi getterà le basi per la fase successiva della collaborazione, che dovrebbe includere una ricerca neuromorfica continua su larga scala sull’imminente architettura neuromorfica di prossima generazione di Intel, con l’obiettivo di superare più di 1 miliardo di neuroni in capacità di calcolo.
Le sfide emergenti includono problemi nell’informatica scientifica, l’antiterrorismo, l’energia e sicurezza nazionale. L’avanzata ricerca dell’elaborazione neuromorfica su scala determina dove questi sistemi siano più efficaci e come possano fornire valore nel mondo reale.
Il fatto che i sistemi neuromorfici siano progettati per imitare il cervello umano solleva importanti questioni etiche. I chip neuromorfici dell’intelligenza artificiale hanno più in comune con la cognizione umana che con la logica del computer convenzionale.
Quali percezioni, atteggiamenti e implicazioni possono creare in futuro, quando un essere umano incontrerà una macchina nella stanza che ha più somiglianze nelle sue reti neurali con le reti neurali di un essere umano, piuttosto che con un microprocessore?
Mentre l’informatica neuromorfica è ancora agli inizi, la ricerca sta avanzando rapidamente. Nel prossimo futuro, i chip neuromorfici disponibili in commercio avranno un impatto su dispositivi periferici, robotica e sistemi Internet of Things (IoT).
L’informatica neuromorfica si sta dirigendo verso chip miniaturizzati a basso consumo energetico in grado di dedurre e apprendere in tempo reale.