“Per ascoltare il dialogo si richiede la quiete – in più di un modo”. Così rileva lo studio di un team che mira a chiarire come un gruppo di neuroni reagisce diversamente all’intensità dei suoni vocali.
“Per percepire il discorso, si necessita di ‘mettere a tacere’ alcuni tipi di cellule cerebrali”; riferisce un équipe di ricercatori della UConn Health e dell’Università di Rochester. Come sarà pubblicato nel prossimo numero del Journal of Neurophysiology.
La loro ricerca, infatti, rivela come una concentrazione di cellule cerebrali, precedentemente sconosciuta, apra ad un nuovo modo di capire come il cervello sente.
Il cervello, non resta mai in silenzio. Le cellule cerebrali, note come neuroni, “chiacchierano” costantemente. E quando un neurone è stimolato, si attiva vibrando più forte. Seguendo ulteriormente l’analogia, si potrebbe dire che un neurone, al massimo dell’eccitazione “gridi”.
Quando una persona dice un nome ad alta voce, le orecchie di chi ascolta, emettono un segnale alle cellule del cervello. Queste cellule sono in sintonia con una tecnica chiamata frequenza di modulazione di ampiezza (o AM dall’analogo termine inglese amplitude modulation). È la frequenza alla quale il volume del suono cambia nel tempo.
La modulazione di ampiezza è molto importante per il linguaggio umano. Essa porta con sé molto del loro significato. Se i modelli di modulazione di ampiezza sono attutiti, il discorso diventa molto più difficile da capire.
I ricercatori hanno scoperto che ci sono gruppi di neuroni in perfetta sintonia con specifiche gamme di frequenza della modulazione d’ampiezza; un tale gruppo di neuroni potrebbe concentrarsi su suoni con frequenze di modulazione d’ampiezza intorno a 32 Hertz (Hz), o 64 Hz, o 128 Hz, o alcune altre frequenze all’interno della gamma dell’udito umano.
I neuroni e la percezione del “dialogo” tra loro
Ma molti studi precedenti del cervello avevano dimostrato che le popolazioni di neuroni esposti a specifici suoni modulati in ampiezza si eccitavano in modelli apparentemente disorganizzati. Le risposte potrebbero sembrare un miscuglio grossolano, non i modelli organizzati e prevedibili che ci si aspetterebbe se la teoria, di neuroni specifici in sintonia con le frequenze di modulazione di ampiezza specifiche, costituisse l’intera storia.
I neuroscienziati di UConn Health Duck O. Kim e Shigeyuki Kuwada hanno voluto capire con passione la vera storia. Kuwada aveva dato molti contributi alla comprensione scientifica dell’udito binaurale (a due orecchie), a partire dagli anni Settanta.
L’udito binaurale è essenziale per localizzare la provenienza di un suono. Kuwada (o Shig, come lo chiamavano i suoi colleghi) e Kim, entrambi professori della Scuola di Medicina, hanno iniziato a collaborare nel 2005 su come l’elaborazione neurale della modulazione di ampiezza influenza il modo in cui riconosciamo il parlato.
Avevano molta esperienza nello studio dei singoli neuroni del cervello e, insieme a Laurel Carney dell’Università di Rochester, hanno escogitato un piano ambizioso: sondare sistematicamente come ogni singolo neurone in una specifica parte del cervello reagiva a un certo suono quando quel suono era modulato in ampiezza e quando non lo era.
Hanno studiato risposte isolate di singoli neuroni di 105 neuroni nel collicolo inferiore (una parte del tronco cerebrale) e 30 neuroni nel corpo genicolato mediale (una parte del talamo) dei conigli. Lo studio ha richiesto loro due ore al giorno, ogni giorno, per un periodo di anni per ottenere i dati di cui avevano bisogno.
L’evoluzione dello studio
Mentre scrivevano i loro risultati, Shig si è ammalato di cancro. Ma continuò comunque a insistere nella ricerca. E dopo anni di meticolose misurazioni, tutti e tre i ricercatori rimasero stupiti dai risultati delle loro analisi: c’era una popolazione di neuroni fino ad allora sconosciuta che faceva l’esatto contrario di ciò che la conoscenza tradizionale prevedeva.
Invece di eccitarsi quando hanno sentito certe frequenze modulate in ampiezza, si sono tranquillizzati. Più il suono era modulato in ampiezza in una specifica frequenza di modulazione, più diventava silenzioso.
Era particolarmente intrigante perché il sistema visivo del cervello è stato a lungo inteso in modo simile. Una popolazione di neuroni visivi (chiamati neuroni “ON”) viene eccitata da certi stimoli visivi mentre, allo stesso tempo, un’altra popolazione di neuroni (chiamati neuroni “OFF”) viene soppressa.
L’anno scorso, quando Shig stava morendo, Kim gli ha fatto una promessa.
“Negli ultimi giorni di Shig, ho indicato a lui e alla sua famiglia che mi impegnerò al massimo per far pubblicare i risultati della nostra ricerca congiunta. Mi sento sollevata ora che è stato raggiunto“, dice Kim. I nuovi risultati potrebbero essere particolarmente utili per le persone che hanno perso la capacità di sentire e capire le parole pronunciate. Se si può offrire loro una terapia con un impianto che stimola direttamente le cellule cerebrali, si potrebbe cercare di adeguarsi al comportamento naturale del cervello uditivo.
“Non dovrebbe stimolare tutti i neuroni; dovrebbe cercare di far combaciare il modo in cui il cervello risponde ai suoni, con alcuni neuroni eccitati e altri soppressi“, dice Kim.