“Per ascoltare il dialogo si richiede la quiete – in più di un modo”. Così rileva lo studio di un team che mira a chiarire come un gruppo di neuroni reagisce diversamente all’intensità dei suoni vocali.
“Per percepire il discorso, si necessita di ‘mettere a tacere’ alcuni tipi di cellule cerebrali”; riferisce un équipe di ricercatori della UConn Health e dell’Università di Rochester. Come sarà pubblicato nel prossimo numero del Journal of Neurophysiology.
La loro ricerca, infatti, rivela come una concentrazione di cellule cerebrali, precedentemente sconosciuta, apra ad un nuovo modo di capire come il cervello sente.
Il cervello, non resta mai in silenzio. Le cellule cerebrali, note come neuroni, “chiacchierano” costantemente. E quando un neurone è stimolato, si attiva vibrando più forte. Seguendo ulteriormente l’analogia, si potrebbe dire che un neurone, al massimo dell’eccitazione “gridi”.
Quando una persona dice un nome ad alta voce, le orecchie di chi ascolta, emettono un segnale alle cellule del cervello. Queste cellule sono in sintonia con una tecnica chiamata frequenza di modulazione di ampiezza (o AM dall’analogo termine inglese amplitude modulation). È la frequenza alla quale il volume del suono cambia nel tempo.
La modulazione di ampiezza è molto importante per il linguaggio umano. Essa porta con sé molto del loro significato. Se i modelli di modulazione di ampiezza sono attutiti, il discorso diventa molto più difficile da capire.
I ricercatori hanno scoperto che ci sono gruppi di neuroni in perfetta sintonia con specifiche gamme di frequenza della modulazione d’ampiezza; un tale gruppo di neuroni potrebbe concentrarsi su suoni con frequenze di modulazione d’ampiezza intorno a 32 Hertz (Hz), o 64 Hz, o 128 Hz, o alcune altre frequenze all’interno della gamma dell’udito umano.
I neuroni e la percezione del “dialogo” tra loro
Ma molti studi precedenti del cervello avevano dimostrato che le popolazioni di neuroni esposti a specifici suoni modulati in ampiezza si eccitavano in modelli apparentemente disorganizzati. Le risposte potrebbero sembrare un miscuglio grossolano, non i modelli organizzati e prevedibili che ci si aspetterebbe se la teoria, di neuroni specifici in sintonia con le frequenze di modulazione di ampiezza specifiche, costituisse l’intera storia.
I neuroscienziati di UConn Health Duck O. Kim e Shigeyuki Kuwada hanno voluto capire con passione la vera storia. Kuwada aveva dato molti contributi alla comprensione scientifica dell’udito binaurale (a due orecchie), a partire dagli anni Settanta.
L’udito binaurale è essenziale per localizzare la provenienza di un suono. Kuwada (o Shig, come lo chiamavano i suoi colleghi) e Kim, entrambi professori della Scuola di Medicina, hanno iniziato a collaborare nel 2005 su come l’elaborazione neurale della modulazione di ampiezza influenza il modo in cui riconosciamo il parlato.
Avevano molta esperienza nello studio dei singoli neuroni del cervello e, insieme a Laurel Carney dell’Università di Rochester, hanno escogitato un piano ambizioso: sondare sistematicamente come ogni singolo neurone in una specifica parte del cervello reagiva a un certo suono quando quel suono era modulato in ampiezza e quando non lo era.
Hanno studiato risposte isolate di singoli neuroni di 105 neuroni nel collicolo inferiore (una parte del tronco cerebrale) e 30 neuroni nel corpo genicolato mediale (una parte del talamo) dei conigli. Lo studio ha richiesto loro due ore al giorno, ogni giorno, per un periodo di anni per ottenere i dati di cui avevano bisogno.