13.3 C
Rome
martedì, Dicembre 6, 2022
HomeTecnologiaL'interfaccia cervello-macchina indossabile trasforma le intenzioni in azioni

L’interfaccia cervello-macchina indossabile trasforma le intenzioni in azioni

Data:

Prepping

Illuminazione domestica di emergenza

Diamo un'occhiata ad alcune semplici opzioni di illuminazione di...

Usi di sopravvivenza per l’olio da cucina

L'olio da cucina potrebbe non essere un elemento che...

Kit di sopravvivenza urbana: gli strumenti critici da avere

Vivi in ​​una città e sei preoccupato per la...

Come tirare con una fionda con la massima precisione

In molte nazioni non è facile poter ottenere il...

Bug in o out, i tempi di risposta contano

Pensiamoci, quasi tutti abbiamo ben classificati INCH, BOB o...

Un nuovo sistema di interfaccia cervello-macchina (BMI) indossabile potrebbe migliorare la qualità della vita delle persone con disfunzioni motorie o paralisi, anche quelle alle prese con la sindrome bloccata, quando una persona è pienamente cosciente ma non è in grado di muoversi o comunicare.

Un team internazionale e multi-istituzionale di ricercatori guidato dal laboratorio di Woon-Hong Yeo presso il Georgia Institute of Technology ha integrato nel cuoio capelluto elettronica wireless e realtà virtuale in un sistema BMI che consente all’utente di immaginare un’azione e controllare in modalità wireless una sedia a rotelle o un braccio robotico.

---L'articolo continua dopo la pubblicità---

Il team, che comprendeva ricercatori dell’Università del Kent (Regno Unito) e della Yonsei University (Repubblica di Corea), descrive questo mese sulla rivista Advanced Science il nuovo sistema BMI basato su immagini motorie.

“Il principale vantaggio di questo sistema per l’utente, rispetto a quello attualmente esistente, è che è morbido e comodo da indossare e non ha fili”, ha affermato Yeo, professore associato della George W. Woodruff School of Mechanical.

I sistemi BMI sono una tecnologia di riabilitazione che analizza i segnali cerebrali di una persona e traduce quell’attività neurale in comandi, trasformando le intenzioni in azioni.

Il metodo non invasivo più comune per l’acquisizione di tali segnali è l’elettroencefalogramma, l’EEG, che in genere richiede una calotta da posizionare sul cranio con elettrodi ingombranti e una rete aggrovigliata di fili.

Questi dispositivi generalmente fanno molto affidamento su gel e paste per aiutare a mantenere il contatto con la pelle, richiedono lunghi tempi di installazione e sono generalmente scomodi da usare.

---L'articolo continua dopo la pubblicità---

I dispositivi spesso soffrono anche di una scarsa acquisizione del segnale a causa del degrado del materiale o degli artefatti da movimento, il “rumore” accessorio che può essere causato da qualcosa come il digrignamento dei denti o il battito delle palpebre.

Questo rumore si presenta nei dati cerebrali e deve essere filtrato

Il sistema EEG portatile progettato da Yeo, integrando impercettibili elettrodi a microaghi con circuiti wireless morbidi, offre una migliore acquisizione del segnale.

La misurazione accurata di questi segnali cerebrali è fondamentale per determinare quali azioni un utente desidera eseguire, quindi il team ha integrato un potente algoritmo di apprendimento automatico e un componente di realtà virtuale per affrontare questa sfida.

Il nuovo sistema è stato testato con quattro soggetti umani , ma non è stato ancora provato con persone disabili.

“Questa è solo una prima dimostrazione, ma siamo entusiasti di ciò che abbiamo visto”, ha osservato Yeo, direttore del Centro per le interfacce e l’ingegneria incentrate sull’uomo della Georgia Tech sotto l’Istituto per l’elettronica e le nanotecnologie e membro del Petit Institute per Bioingegneria e Bioscienze.

Nuovo paradigma

Il team di Yeo ha originariamente introdotto un’interfaccia EEG cervello-macchina morbida e indossabile in uno studio del 2019 pubblicato su Nature Machine Intelligence. L’autore principale di quel lavoro, Musa Mahmood, è anche l’autore principale del nuovo documento di ricerca del team.

---L'articolo continua dopo la pubblicità---

“Questa nuova interfaccia cervello-macchina utilizza un paradigma completamente diverso, che coinvolge azioni motorie immaginarie, come afferrare con entrambe le mani, che libera il soggetto dal dover guardare troppi stimoli”, ha detto Mahmood, uno studente di dottorato di Yeo’s laboratorio.

Nello studio del 2021, gli utenti hanno dimostrato un controllo accurato degli esercizi di realtà virtuale usando i loro pensieri, le loro immagini motorie. I segnali visivi migliorano il processo sia per l’utente che per i ricercatori che raccolgono informazioni.

---L'articolo continua dopo la pubblicità---

“Le istruzioni virtuali si sono dimostrate molto utili”, ha detto Yeo.

“Accelerano e migliorano il coinvolgimento e la precisione degli utenti. E siamo stati in grado di registrare attività di immagini motorie continue e di alta qualità”.

Secondo Mahmood, il lavoro futuro sul sistema si concentrerà sull’ottimizzazione del posizionamento degli elettrodi e sull’integrazione più avanzata dell’EEG basato sullo stimolo, utilizzando ciò che hanno appreso dagli ultimi due studi.

Articoli più letti