giovedì, Maggio 15, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 6

Stephen Hawking e la teoria del multiverso

0
Stephen Hawking e la teoria del multiverso
Stephen Hawking e la teoria del multiverso
Migliori casinò non AAMS in Italia

Si dice che Albert Einstein abbia trascorso le sue ultime ore a scarabocchiare qualcosa su un pezzo di carta nell’ultimo tentativo di formulare una teoria del tutto. Circa 60 anni dopo, un’altra figura leggendaria della fisica teorica, Stephen Hawking, potrebbe essere morto con pensieri simili.

Sappiamo che Hawking pensava che qualcosa chiamata “teoria M” fosse la soluzione migliore per una teoria completa dell’universo. Ma cos’è?

Dalla formulazione della teoria della relatività generale di Einstein nel 1915, ogni fisico teorico ha sognato di conciliare la nostra comprensione del mondo infinitamente piccolo di atomi e particelle con quella della scala infinitamente grande del cosmo. Mentre il secondo è efficacemente descritto dalle equazioni di Einstein, il primo è previsto con straordinaria accuratezza dal cosiddetto Modello Standard delle interazioni fondamentali.

La nostra attuale comprensione è che l’interazione tra oggetti fisici è descritta da quattro forze fondamentali. Due di loro – gravità ed elettromagnetismo – sono rilevanti per noi a livello macroscopico, li affrontiamo nella nostra vita di tutti i giorni. Le altre due, denominate interazioni forte e debole, agiscono su scala molto piccola e diventano rilevanti solo quando si tratta di processi subatomici.

Il modello standard delle interazioni fondamentali fornisce un quadro unificato per tre di queste forze, ma la gravità non può essere inclusa in modo coerente in questo quadro. Nonostante la sua accurata descrizione di fenomeni su larga scala come l’orbita di un pianeta o la dinamica delle galassie, la relatività generale si rompe a distanze molto brevi. Secondo il modello standard, tutte le forze sono mediate da particelle specifiche. Per la gravità, una particella chiamata gravitone fa il suo lavoro. Ma quando si cerca di calcolare come interagiscono questi gravitoni, appaiono infiniti senza senso.

Una teoria coerente della gravità dovrebbe essere valida a qualsiasi scala e dovrebbe tenere conto della natura quantistica delle particelle fondamentali. Ciò conterrebbe la gravità in una struttura unificata con le altre tre interazioni fondamentali, fornendo così la celebre teoria del tutto. Naturalmente, dalla morte di Einstein nel 1955, sono stati fatti molti progressi e oggi il nostro miglior candidato va sotto il nome di teoria M.

Rivoluzione delle stringhe

Per comprendere l’idea di base della teoria M, bisogna risalire agli anni ’70, quando gli scienziati si resero conto che, invece di descrivere l’universo sulla base di particelle puntiformi, lo si poteva descrivere in termini di minuscole stringhe oscillanti (tubi di energia). Questo nuovo modo di pensare ai costituenti fondamentali della natura si è rivelato risolvere molti problemi teorici. Soprattutto, una particolare oscillazione della corda potrebbe essere interpretata come un gravitone. E a differenza della teoria standard della gravità, la teoria delle stringhe può descrivere matematicamente le sue interazioni senza ottenere strani infiniti. Così, la gravità è stata finalmente inclusa in un quadro unificato.

Dopo questa entusiasmante scoperta, i fisici teorici hanno dedicato molti sforzi alla comprensione delle conseguenze di questa idea seminale. Tuttavia, come spesso accade con la ricerca scientifica, la storia della teoria delle stringhe è caratterizzata da alti e bassi. All’inizio, le persone erano perplesse perché prevedeva l’esistenza di una particella che viaggia più velocemente della velocità della luce, soprannominata “tachione“. Questa previsione era in contrasto con tutte le osservazioni sperimentali e gettava seri dubbi sulla teoria delle stringhe.

Tuttavia, questo problema è stato risolto all’inizio degli anni ’80 con l’introduzione di qualcosa chiamato “supersimmetria” nella teoria delle stringhe. Questo predice che ogni particella ha un superpartner e, per una straordinaria coincidenza, la stessa condizione elimina effettivamente il tachione. Questo primo successo è comunemente noto come ” la prima rivoluzione delle corde “.

Un’altra caratteristica sorprendente è che la teoria delle stringhe richiede l’esistenza di dieci dimensioni spaziotemporali. Attualmente ne conosciamo solo quattro: profondità, altezza, larghezza e tempo. Sebbene questo possa sembrare un grosso ostacolo, sono state proposte diverse soluzioni e oggigiorno è considerato una caratteristica notevole, piuttosto che un problema.

Ad esempio, potremmo in qualche modo essere costretti a vivere in un mondo a quattro dimensioni senza alcun accesso alle dimensioni extra. Oppure le dimensioni extra potrebbero essere “compattezzate” su una scala così piccola da non notarle. Tuttavia, diverse compattazioni porterebbero a valori diversi delle costanti fisiche e, quindi, a leggi fisiche diverse. Una possibile soluzione è che il nostro universo sia solo uno dei tanti in un “multiverso” infinito, governato da diverse leggi della fisica. Può sembrare strano, ma molti fisici teorici si stanno avvicinando a questa idea. 

Teoria M

Ma c’era ancora una questione urgente che infastidiva i teorici delle stringhe. Una classificazione approfondita ha mostrato l’esistenza di cinque diverse teorie delle stringhe coerenti e non era chiaro il motivo per cui la natura ne avrebbe scelto una su cinque.

Questo è quando la teoria M è entrata in gioco. Durante la seconda rivoluzione delle stringhe, nel 1995, i fisici hanno proposto che le cinque teorie delle stringhe coerenti siano in realtà solo facce diverse di una teoria unica che vive in undici dimensioni spaziotemporali ed è nota come teoria M.

Ciascuna include delle teorie delle stringhe in diversi contesti fisici, ma è comunque valida per tutte. Questo quadro estremamente affascinante ha portato la maggior parte dei fisici teorici a credere nella teoria M come teoria di tutto: è anche matematicamente più coerente di altre teorie candidate.

Tuttavia, finora la teoria M ha faticato a produrre previsioni che possano essere verificate mediante esperimenti. La supersimmetria è attualmente in fase di test presso il Large Hadron Collider. Se gli scienziati trovassero prove di superpartner, ciò alla fine rafforzerebbe la teoria M. Ma rimane ancora una sfida per gli attuali fisici teorici produrre previsioni verificabili e per i fisici sperimentali impostare esperimenti per testarle.

La maggior parte dei grandi fisici e cosmologi sono spinti dalla passione a trovare quella bella e semplice descrizione del mondo che può spiegare tutto. E anche se non siamo ancora arrivati, non avremmo una possibilità senza le menti acute e creative di persone come Hawking.

Salute del cervello: 5 minuti di attività intensa ne migliora le prestazioni

0
Salute del cervello: 5 minuti di attività intensa ne migliora le prestazioni
Salute del cervello: 5 minuti di attività intensa ne migliora le prestazioni
Migliori casinò non AAMS in Italia

Una recente e significativa ricerca condotta dall’Università dell’Australia Meridionale, in collaborazione con l’AdventHealth Research Institute, ha gettato nuova luce sul profondo legame esistente tra l’attività fisica e la salute del nostro cervello, specialmente con l’avanzare dell’età.

Lo studio ha rivelato che impegnarsi regolarmente in attività fisiche di intensità moderata o elevata è strettamente correlato a un miglioramento tangibile di diverse funzioni cognitive cruciali negli anziani.

Salute del cervello: 5 minuti di attività intensa ne migliora le prestazioni
Salute del cervello: 5 minuti di attività intensa ne migliora le prestazioni

Un incremento della frequenza cardiaca per un cervello più agile

I risultati dello studio evidenziano come anche un’attività fisica apparentemente semplice, come una camminata a passo sostenuto, qualche esercizio di acquagym o una breve corsa nei dintorni di casa, possa innescare un beneficio significativo per il nostro cervello. L’elemento chiave sembra essere l’aumento della frequenza cardiaca che queste attività comportano. Questo incremento fisiologico non è solo un indicatore di un corpo in movimento, ma si traduce in un impatto positivo diretto sulle capacità cognitive.

Nello specifico, la ricerca ha osservato miglioramenti notevoli in tre aree cognitive fondamentali: la velocità di elaborazione, ovvero la rapidità con cui il cervello è in grado di processare nuove informazioni; la memoria di lavoro, la capacità di trattenere e manipolare temporaneamente le informazioni necessarie per compiti complessi; e la funzione esecutiva, che comprende abilità come la pianificazione, l’organizzazione, il ragionamento e la risoluzione dei problemi. Questi miglioramenti suggeriscono che l’attività fisica non è solo benefica per il corpo, ma agisce come un vero e proprio “allenamento” per le nostre facoltà mentali.

Uno degli aspetti più sorprendenti e incoraggianti dello studio è emerso dall’analisi dei cambiamenti nelle abitudini di attività fisica dei partecipanti. I miglioramenti cognitivi più marcati sono stati riscontrati proprio in quelle persone che sono passate da uno stile di vita completamente sedentario all’introduzione di anche solo cinque minuti di attività fisica da moderata a intensa. Questo dato sottolinea con forza come anche un piccolo cambiamento nelle proprie abitudini quotidiane possa avere un impatto considerevole sulla salute del cervello. Non è necessario intraprendere allenamenti estenuanti; anche una breve e costante attività può fare una grande differenza.

Per giungere a queste conclusioni, i ricercatori hanno analizzato meticolosamente i dati provenienti dallo studio IGNITE*, condotto negli Stati Uniti su un campione di 585 adulti anziani con un’età compresa tra i 65 e gli 80 anni. Lo studio ha preso in considerazione diverse variabili nell’arco di 24 ore, tra cui il tempo dedicato al sonno, i comportamenti sedentari, l’attività fisica leggera e, soprattutto, l’attività fisica da moderata a intensa. Attraverso questa analisi approfondita, è stato possibile stabilire le correlazioni significative tra i diversi livelli di attività fisica e le prestazioni cognitive dei partecipanti.

Il legame bidirezionale tra attività fisica intensa e benessere cerebrale

Una scoperta significativa emersa dalla ricerca è la natura bidirezionale del rapporto tra l’attività fisica “sbrigativa” e la salute del cervello. Questo significa che l’influenza non è a senso unico: non solo un maggiore esercizio fisico apporta benefici alla funzione cerebrale, ma, in modo altrettanto importante, una riduzione dell’attività fisica può portare a un declino della salute del cervello. Questa interconnessione sottolinea l’importanza di mantenere uno stile di vita attivo per preservare le nostre capacità cognitive.

La dott.ssa Maddison Mellow, ricercatrice dell’UniSA, evidenzia come anche modifiche apparentemente modeste nelle nostre attività quotidiane possano produrre effetti considerevoli sulla salute del nostro cervello. Questa prospettiva è particolarmente incoraggiante, in quanto suggerisce che non sono necessari stravolgimenti radicali delle nostre routine per ottenere benefici tangibili. Integrare regolarmente brevi periodi di attività fisica intensa può rappresentare una strategia efficace per promuovere e mantenere la salute cognitiva nel tempo.

Mellow ha sottolineato l’esistenza di tre comportamenti primari che occupano le nostre 24 ore: il sonno, la sedentarietà e l’attività fisica. È l’interazione complessa tra questi tre elementi a plasmare i nostri risultati in termini di salute generale, inclusa quella cerebrale. Comprendere come questi comportamenti si influenzano reciprocamente è fondamentale. Ad esempio, è noto che un’attività fisica regolare può migliorare la qualità del sonno, e, viceversa, un riposo notturno adeguato può aumentare i nostri livelli di energia, rendendo più probabile l’impegno in attività fisica durante il giorno. Tuttavia, la ricerca si sta ancora concentrando sulla determinazione dell’equilibrio ottimale tra questi tre comportamenti per massimizzare le nostre prestazioni cognitive.

Lo studio ha specificamente esplorato l’impatto delle diverse modalità di impiego del nostro tempo sulla salute del cervello. Una delle scoperte chiave è che livelli più elevati di attività fisica da moderata a intensa – quelle attività che richiedono un aumento significativo della frequenza cardiaca e respiratoria – sono strettamente correlati a migliori prestazioni cognitive. Questo suggerisce che non è sufficiente un’attività fisica leggera: è l’intensità dello sforzo a innescare i benefici più significativi per il nostro cervello.

In particolare, l’attività fisica che induce una certa “affaticamento” e aumento del respiro, come l’esercizio aerobico, si è dimostrata efficace nel migliorare tre aree cognitive cruciali. In primo luogo, la velocità di elaborazione, che riflette l’efficienza con cui il nostro cervello processa le informazioni. In secondo luogo, la funzione esecutiva, che governa le nostre capacità di pianificazione, concentrazione e multitasking. Infine, la memoria di lavoro, che ci permette di trattenere e manipolare informazioni per brevi periodi di tempo. Il miglioramento di queste funzioni ha implicazioni dirette sulla nostra capacità di affrontare le sfide quotidiane, apprendere nuove informazioni e mantenere un’elevata qualità di vita.

Un aspetto cruciale sottolineato dalla ricerca è che la relazione osservata funzionava anche al contrario. Livelli inferiori di attività fisica ad alta intensità erano significativamente associati a prestazioni peggiori nei test cognitivi che valutavano la velocità di elaborazione, la funzione esecutiva e la memoria di lavoro. Questa evidenza rafforza ulteriormente l’importanza di integrare regolarmente un’attività fisica vigorosa nella nostra routine per proteggere e potenziare la nostra salute cerebrale. In definitiva, i risultati di questo studio forniscono un forte incentivo a muoverci di più e con maggiore intensità per coltivare una mente più sana e performante.

Limiti degli effetti: memoria episodica e funzioni visuospaziali

È tuttavia importante sottolineare che gli effetti positivi dell’attività fisica intensa riscontrati nello studio non si sono estesi a tutte le aree della cognizione. In particolare, la ricerca non ha evidenziato miglioramenti significativi nella memoria episodica, ovvero la capacità di ricordare dettagli specifici di eventi passati, inclusi il cosa, il dove e il quando. Allo stesso modo, non sono stati osservati effetti rilevanti sulle funzioni visuospaziali, che comprendono l’abilità di riconoscere luoghi, orientarsi nello spazio e percepire le relazioni spaziali tra gli oggetti.

Questa specificità degli effetti suggerisce che l’attività fisica intensa può avere un impatto più diretto su alcune funzioni cognitive rispetto ad altre. La dott.ssa Audrey Collins, co-ricercatrice dello studio, sottolinea l’importanza di comprendere l’interazione dinamica tra le diverse attività che compongono la nostra giornata. Riconoscere come il tempo viene allocato tra il sonno, la sedentarietà e l’attività fisica è cruciale per poter apportare modifiche positive alla nostra salute.

Come ha evidenziato la dott.ssa Collins, la giornata ha un limite di 24 ore, e le nostre decisioni quotidiane determinano come questo tempo viene impiegato. Considerando ad esempio otto ore dedicate al sonno, rimangono sedici ore per le attività di veglia, che possono includere sia l’attività fisica che comportamenti sedentari. I risultati della ricerca suggeriscono che il modo in cui scegliamo di utilizzare queste ore di veglia può avere implicazioni distinte per la salute del nostro cervello. La chiave, secondo la dott.ssa Collins, risiede nel dare priorità all’attività fisica, in particolare a quella che è in grado di aumentare la frequenza cardiaca, in linea con le evidenze emerse dallo studio.

Considerando le proiezioni demografiche che indicano un aumento significativo della popolazione anziana a livello globale, con una persona su sei che si prevede avrà 60 anni o più entro il 2030, diventa imperativo trovare strategie efficaci per promuovere un invecchiamento sano e attivo. In questo contesto, i risultati di questa ricerca offrono una prospettiva promettente: la conoscenza è potere, e comprendere il legame tra attività fisica e salute cerebrale può motivare gli individui ad adottare stili di vita più attivi per mantenere la forma fisica e mentale con l’avanzare dell’età.

È fondamentale specificare che i risultati presentati si basano su un’analisi trasversale dei dati, che fornisce un’istantanea delle associazioni tra le variabili in un determinato momento. Sebbene questi risultati siano incoraggianti e coerenti, i ricercatori riconoscono la necessità di ulteriori studi di tipo longitudinale (che seguano gli stessi individui nel tempo) e sperimentale (che manipolino attivamente i livelli di attività fisica per osservarne gli effetti) per confermare in modo definitivo la relazione causale tra l’attività fisica intensa e i miglioramenti cognitivi osservati. Questi studi futuri potranno fornire una comprensione ancora più approfondita dei meccanismi sottostanti e delle strategie più efficaci per promuovere la salute del cervello attraverso l’esercizio fisico.

Lo studio è stato pubblicato su Age and Aging.

Ritrovati manufatti ungheresi della tarda età del bronzo e 1^ età del ferro

0
Ritrovati manufatti ungheresi della tarda età del bronzo e 1^ età del ferro
Ritrovati manufatti ungheresi della tarda età del bronzo e 1^ età del ferro
Migliori casinò non AAMS in Italia

Una recente e innovativa ricerca, che ha combinato l’utilizzo di tecnologie laser avanzate con meticolose indagini sul terreno, ha portato alla sorprendente scoperta che già nel XV secolo a.C. gli antichi abitanti dell’Ungheria nascondevano almeno sei distinti depositi di manufatti metallici di valore attorno a un enigmatico insediamento situato su una collina isolata. Questa rivelazione getta nuova luce sulle pratiche e sulla società di questa regione in un’epoca remota.

Ritrovati manufatti ungheresi della tarda età del bronzo e 1^ età del ferro
Ritrovati manufatti ungheresi della tarda età del bronzo e 1^ età del ferro

Una miniera di manufatti della tarda età del bronzo e della prima età del ferro

Nel corso di un solo anno di intense ricerche, gli archeologi hanno impiegato con successo i metal detector per identificare un’impressionante quantità di oltre 300 manufatti risalenti a un periodo cruciale della preistoria europea: la tarda età del bronzo (circa 1450-800 a.C.) e la prima età del ferro (circa 800-450 a.C.). Tra questi straordinari ritrovamenti figurano una varietà di oggetti che testimoniano la ricchezza e la complessità culturale dell’epoca, tra cui raffinati gioielli, elaborate decorazioni militari e potenti armi.

L’analisi dettagliata dei manufatti ha permesso di stabilire una precisa cronologia. I reperti più antichi risalgono alla tarda età del bronzo, precisamente a un periodo compreso tra il 1400 e il 1300 a.C. Tuttavia, la maggior parte degli oggetti metallici appartiene a una fase successiva dell’età del bronzo, databile tra il 1080 e il 900 a.C., come riportato nello studio pubblicato il 27 marzo sulla rivista specializzata.

Oltre agli importanti reperti metallici, il team di ricerca ha portato alla luce anche altri materiali organici e non, tra cui preziose perle d’ambra, frammenti di antichi tessuti e manufatti in cuoio, nonché resti di zanne appartenenti a cinghiali e maiali domestici, fornendo preziose informazioni sul contesto ambientale e sulle pratiche di sussistenza dell’epoca.

Il cuore di questa indagine archeologica è Somló, una collina di origine vulcanica che si erge isolata nella pianura dell’Ungheria occidentale. Oggi, la regione è rinomata principalmente per la sua fiorente produzione vinicola, un’eredità agricola che continua a plasmare il paesaggio locale.

Già alla fine del XIX secolo, gli studiosi iniziarono a intuire la sua importanza archeologica quando agricoltori e viticoltori locali iniziarono a riportare alla luce antichi manufatti durante le loro attività quotidiane, come ha spiegato  Bence Soós, primo autore dello studio e archeologo-museologo presso il Museo Nazionale Ungherese.

I manufatti scoperti casualmente da agricoltori e viticoltori nel corso del tempo includevano una notevole varietà di oggetti, tra cui eleganti gioielli, armi in bronzo e raffinati vasi dello stesso metallo. La quantità e la qualità di questi ritrovamenti suggerivano inequivocabilmente una significativa presenza umana nell’area di Somló durante un ampio arco temporale, compreso tra il XIII e il VI secolo a.C.

Nonostante l’importanza di queste scoperte iniziali, le precise ubicazioni dei ritrovamenti non furono adeguatamente documentate. Di conseguenza, un velo di mistero avvolge ancora l’identità delle popolazioni che abitarono l’Ungheria occidentale in quel lontano periodo storico, un enigma che i recenti studi stanno cercando di risolvere, come ha sottolineato Soós.

Le precedenti scoperte e l’ipotesi di un centro di potere elitario

Le precedenti scoperte archeologiche avvenute nei dintorni di Somló includono notevoli corredi funerari risalenti alla prima età del Ferro, rinvenuti all’interno di imponenti tumuli monumentali. Questi ritrovamenti hanno spinto alcuni studiosi a formulare l’ipotesi che punti di riferimento geografici significativi come la collina di Somló potessero aver rappresentato le sedi del potere di una classe elitaria di capi guerrieri, esercitanti la loro influenza su un vasto territorio. Questa suggestiva ipotesi ha fornito una delle principali motivazioni per l’avvio di una nuova e più approfondita indagine archeologica nell’area.

Proprio per verificare e approfondire queste ipotesi, Bence Soós, insieme ai suoi colleghi e a un prezioso gruppo di volontari, ha intrapreso una nuova campagna di scavi e prospezioni archeologiche. Questa indagine ha impiegato una combinazione di metodologie all’avanguardia, tra cui “ampie indagini sistematiche con l’utilizzo di metal detector e dettagliate prospezioni sul campo”. Un ruolo cruciale è stato svolto anche dalla tecnologia lidar (Light Detection and Ranging), una tecnica di telerilevamento che impiega impulsi laser emessi da un aereo per mappare con elevata precisione la topografia del terreno, rivelando dettagli altrimenti invisibili. Il team ha descritto l’impiego di queste metodologie nello studio pubblicato.

Grazie al fondamentale impegno e alla dedizione dei nostri numerosi volontari, le nostre indagini sono riuscite a documentare la presenza dei primi tesori metallici rinvenuti a Somló” , ha dichiarato con entusiasmo Bence Soós: “Già nel corso del primo anno di ricerca intensiva, siamo stati in grado di identificare ben sei complessi depositi di oggetti metallici risalenti alla tarda età del Bronzo e alla prima età del Ferro“. Questa scoperta iniziale ha confermato il potenziale archeologico del sito e ha fornito nuove e concrete evidenze sulla pratica di occultare beni di valore in epoca preistorica.

Ad aprile del 2025, il team archeologico aveva già recuperato un impressionante numero di oltre 900 reperti metallici. La maggior parte di questi manufatti è stata rinvenuta concentrata in un altopiano situato nella porzione sud-orientale della collina di Somló. Tra gli oggetti recuperati figurano numerosi manufatti strettamente associati al processo di lavorazione del bronzo. Questa significativa concentrazione di strumenti e scarti di lavorazione metallurgica suggerisce con forza che il bronzo non solo veniva utilizzato, ma era anche prodotto localmente nell’insediamento di Somló durante l’età del Bronzo, implicando una specializzazione artigianale e una potenziale importanza economica del sito.

Nuove luci sulla transizione tra tarda età del bronzo e prima età del ferro

I recenti ritrovamenti di Somló rivestono un’importanza particolare in quanto offrono preziose informazioni su un periodo cruciale e ancora non pienamente compreso della preistoria regionale: la transizione tra la tarda età del Bronzo e la prima età del Ferro, avvenuta intorno alla fine del IX secolo a.C., come sottolinea Bence Soós. Le evidenze archeologiche di questo periodo sono spesso scarse e frammentarie, rendendo ogni nuova scoperta di grande valore per ricostruire gli sviluppi culturali e sociali dell’epoca.

Un insieme di reperti specifico, denominato Tesoro V, si distingue particolarmente per la sua unicità. Esso rappresenta la prima testimonianza inequivocabile delle usanze locali di deposizione di metalli durante questo periodo di transizione. La pratica di seppellire oggetti metallici, presumibilmente con uno scopo rituale o simbolico, è un fenomeno ben noto in diverse culture antiche, ma il Tesoro V fornisce per la prima volta una chiara attestazione di questa usanza nell’Ungheria occidentale proprio nella fase di passaggio tra l’età del Bronzo e l’età del Ferro.

Un ulteriore elemento di eccezionalità è rappresentato dal fatto che gli oggetti metallici contenuti nel Tesoro V erano conservati all’interno di un recipiente di ceramica, il primo esempio di questo tipo rinvenuto nell’Ungheria occidentale e databile alla fine della tarda età del Bronzo. Questa pratica di deporre oggetti metallici all’interno di contenitori ceramici potrebbe indicare specifiche ritualità o significati simbolici ancora da decifrare.

I ritrovamenti di Somló si aggiungono a un crescente corpo di evidenze che suggeriscono come le popolazioni che abitarono questa regione tra il XIII e il VI secolo a.C. fossero organizzate in società tribali o basate su clan, probabilmente guidate da un’élite guerriera. In particolare, le recenti scoperte indicano con forza che la collina di Somló potrebbe aver rappresentato uno dei loro centri di potere più importanti, nonché la sede di una comunità significativa la cui cultura includeva la pratica della deposizione di tesori metallici. Questa usanza di accumulare e seppellire oggetti di valore potrebbe riflettere dinamiche sociali complesse, rituali religiosi o strategie economiche ancora da comprendere appieno.

Nonostante le importanti scoperte, Soós e i suoi colleghi non sono ancora riusciti a confermare in modo definitivo la presenza di un’officina dedicata alla produzione di metalli nell’area di scavo. Tuttavia, durante le indagini, sono state portate alla luce parti di una struttura edilizia, la cui natura e funzione devono ancora essere chiarite attraverso ulteriori ricerche.

Il team di ricerca nutre la speranza che future indagini archeologiche, con l’impiego di nuove tecniche e l’analisi approfondita dei reperti già recuperati, possano gettare ulteriore luce sulla cronologia precisa degli insediamenti che si sono succeduti sulla collina di Somló e sulle affascinanti tradizioni di accumulo che caratterizzarono le antiche popolazioni di questa regione. Comprendere appieno la storia di questo sito promette di arricchire significativamente la nostra conoscenza della preistoria europea.

Lo studio è stato pubblicato su Antiquity.

Vesta: la MSU riscrive la sua genesi

0
Vesta: la MSU riscrive la sua genesi
Vesta: la MSU riscrive la sua genesi
Migliori casinò non AAMS in Italia

Per lungo tempo, la comunità scientifica ha considerato Vesta, uno degli oggetti più imponenti all’interno della fascia degli asteroidi del nostro sistema solare, non un semplice asteroide, bensì un corpo celeste più evoluto, quasi un pianeta mancato dotato di una struttura interna complessa: crosta, mantello e nucleo distinti. Tuttavia, recenti ricerche condotte con il contributo della Michigan State University hanno radicalmente messo in discussione questa visione.

Vesta: la MSU riscrive la sua genesi
Vesta: la MSU riscrive la sua genesi

La vera identità di Vesta: un mistero cosmico rivelato

Un team di ricerca guidato dal Jet Propulsion Laboratory ha compiuto una scoperta sorprendente: Vesta sembrerebbe non possedere un nucleo. Questo risultato ha lasciato perplessi gli scienziati, i quali fino a questo momento avevano interpretato Vesta come un protopianeta, un embrione planetario che non aveva completato il suo sviluppo fino a diventare un pianeta a tutti gli effetti: “L’assenza di un nucleo è stata davvero sorprendente“, ha commentato Seth Jacobson, professore associato di Scienze della Terra e dell’Ambiente alla MSU e coautore dello studio, sottolineando la portata di questa inattesa rivelazione che impone un ripensamento sulla sua natura.

Di fronte a questa nuova realtà, il team di ricerca sta esplorando due ipotesi principali per svelare la vera identità di Vesta, entrambe bisognose di ulteriori approfondimenti. La prima ipotesi suggerisce che possa aver intrapreso un processo di differenziazione, ovvero la fusione di materiali che avrebbe portato alla formazione dei suoi strati interni distinti (nucleo, mantello e crosta), ma che questo processo non si sia mai completato.

La seconda teoria, proposta anni fa da Jacobson durante una conferenza di astronomia, suggerisce che Vesta potrebbe essere un frammento derivante dalla collisione di un pianeta in crescita nel giovane sistema solare. In quell’occasione, Jacobson aveva esortato i colleghi a considerare la possibilità che alcuni meteoriti potessero essere detriti scagliati da impatti avvenuti durante l’epoca della formazione planetaria, includendo anche Vesta nella sua riflessione, sebbene inizialmente non la considerasse una seria possibilità.

Questa idea si è trasformata da un suggerimento un po’ sciocco in un’ipotesi che ora stiamo prendendo sul serio grazie a questa nuova analisi dei dati della missione Dawn della NASA“, ha riferito Jacobson, evidenziando come le nuove evidenze stiano aprendo scenari inaspettati sulla storia del nostro sistema solare.

Una superficie anomala

La maggior parte degli asteroidi che popolano il nostro sistema solare è costituita da antichi sedimenti cosmici, reliquie primordiali della nebulosa solare. Vesta, tuttavia, si distingue nettamente da questa generalità: la sua superficie è sorprendentemente ricoperta da rocce vulcaniche basaltiche. Questa peculiarità geologica aveva in precedenza suggerito agli scienziati che avesse attraversato un intenso processo di fusione interna, noto come differenziazione planetaria, durante il quale i materiali più densi, come i metalli, sarebbero sprofondati verso il centro, formando un nucleo.

Nel 2007, la NASA intraprese un’ambiziosa missione spaziale, lanciando la sonda Dawn con l’obiettivo di studiare da vicino Vesta e Cerere, i due oggetti di maggiori dimensioni all’interno della fascia principale degli asteroidi. Lo scopo primario di questa esplorazione era quello di acquisire una comprensione più approfondita dei meccanismi che regolano la formazione dei pianeti.

Tra il 2011 e il 2012, Dawn orbitò attorno a Vesta per diversi mesi, dedicandosi alla misurazione del suo campo gravitazionale e alla cattura di immagini dettagliate della sua superficie, utili per la creazione di una mappa topografica precisa. Dopo aver completato analoghe osservazioni su Cerere, la missione si concluse nel 2018, lasciando agli scienziati un ricco patrimonio di dati da analizzare.

Secondo quanto riferito da Jacobson, l’analisi dei dati raccolti dalla sonda Dawn è stata un processo evolutivo. Con il progredire della ricerca, i team scientifici hanno affinato le loro tecniche di elaborazione, riuscendo a ottenere misurazioni sempre più precise della composizione interna. In questo contesto, Ryan Park, ricercatore senior e capo ingegnere del JPL, ha deciso di rianalizzare le misurazioni precedentemente effettuate.

Per anni, i dati gravitazionali contrastanti provenienti dalle osservazioni di Dawn su Vesta hanno creato enigmi“, ha spiegato Park, sottolineando la complessità dell’interpretazione iniziale: “Dopo quasi un decennio di perfezionamento delle nostre tecniche di calibrazione ed elaborazione, abbiamo raggiunto un notevole allineamento tra i dati radiometrici del Deep Space Network di Dawn e i dati di imaging di bordo“.

Siamo stati entusiasti di confermare l’efficacia dei dati nel rivelare le sue profondità“, ha aggiunto Park, evidenziando l’importanza delle nuove analisi: “Le nostre scoperte mostrano che la sua storia è molto più complessa di quanto si pensasse in precedenza, plasmata da processi unici come l’interruzione della differenziazione planetaria e le collisioni in fase avanzata“.

Gli scienziati utilizzano il concetto di momento d’inerzia per stimare le dimensioni del nucleo di un corpo celeste. Questa proprietà fisica descrive la resistenza di un oggetto a variazioni nella sua rotazione attorno a un asse. Jacobson ha offerto un’analogia illuminante per comprendere questo concetto, paragonandolo a un pattinatore sul ghiaccio che varia la sua velocità di rotazione avvicinando o allontanando le braccia dal corpo.

Allo stesso modo, i corpi celesti con un nucleo denso presentano un momento d’inerzia diverso rispetto a quelli privi di nucleo. Sfruttando queste conoscenze, il team di ricerca ha misurato con precisione la rotazione e il campo gravitazionale di Vesta. I risultati di queste analisi hanno inaspettatamente rivelato che il comportamento rotazionale di Vesta non corrisponde a quello di un oggetto dotato di un nucleo centrale, mettendo seriamente in discussione le teorie precedentemente accettate sulla sua formazione.

Nonostante le nuove domande emerse, lo studio di Vesta continua a rivestire un’importanza cruciale per gli astronomi. L’analisi di questo affascinante corpo celeste offre preziose informazioni su come si sono sviluppati i pianeti primordiali e su come potrebbe essere apparsa la Terra nelle sue prime fasi di vita.

L’esplorazione degli impatti giganti e i frammenti planetari

Nessuna delle due ipotesi formulate per spiegare l’assenza del nucleo in Vesta è stata ancora esplorata a fondo al punto da poter essere scartata completamente. Tuttavia, entrambe le teorie presentano delle sfide che necessitano di ulteriori ricerche per essere adeguatamente comprese e risolte.

Sebbene la possibilità di una differenziazione incompleta rimanga teoricamente valida, essa si scontra con le evidenze fornite dai meteoriti che gli scienziati hanno identificato come provenienti da questo asteroide nel corso del tempo: “Siamo assolutamente certi che questi meteoriti provengano da Vesta“, ha affermato con decisione Jacobson: “E non mostrano evidenti prove di differenziazione incompleta“. Questa discrepanza tra la presunta incompletezza del processo di fusione interna e la composizione dei suoi meteoriti rappresenta un nodo cruciale da sciogliere.

Il laboratorio di Jacobson è già attivamente impegnato nello studio delle conseguenze degli impatti giganti che caratterizzarono l’era della formazione planetaria. In particolare, Jacobson sta collaborando con una sua studentessa laureata, Emily Elizondo, sull’affascinante ipotesi che alcuni degli asteroidi presenti nella fascia principale possano essere in realtà frammenti scagliati via da pianeti in fase di accrescimento.

Questa interessante idea è ancora lontana dall’essere definitivamente provata. Saranno necessari ulteriori sforzi nella creazione e nel perfezionamento di modelli teorici in grado di dimostrare che Vesta sia effettivamente un antico frammento di un pianeta in formazione. Come ha suggerito Jacobson, gli scienziati potranno anche adattare le loro metodologie di analisi dei meteoriti vestani, focalizzandosi sulla ricerca di indizi che possano supportare o confutare entrambe le ipotesi. Inoltre, ulteriori studi condotti con i nuovi approcci di analisi dei dati raccolti dalla missione Dawn potrebbero fornire nuove e preziose informazioni.

Questa ricerca è solo l’inizio di una nuova direzione di studio“, ha sottolineato Jacobson, evidenziando il potenziale rivoluzionario di queste nuove scoperte: “Potrebbe cambiare per sempre il modo in cui gli scienziati guardano ai mondi differenziati“. La tradizionale interpretazione della collezione di meteoriti vestani come campioni di un corpo celeste “fallito”, incapace di evolvere in un pianeta completo, potrebbe essere superata da una prospettiva più dinamica e inaspettata: “La collezione di meteoriti non è più un campione di un corpo celeste che non è riuscito a diventare un pianeta“, ha concluso Jacobson.

Potrebbero essere frammenti di un antico pianeta prima che raggiungesse la sua completa maturazione. Semplicemente non sappiamo ancora di quale pianeta si tratti“. Il mistero della vera identità di Vesta rimane aperto, promettendo nuove ed entusiasmanti scoperte nel futuro.

Lo studio è stato pubblicato su Nature Astronomy.

Teletrasporto quantistico: la nanofotonica spiana la strada alla realtà

0
Teletrasporto quantistico: la nanofotonica spiana la strada alla realtà
Teletrasporto quantistico: la nanofotonica spiana la strada alla realtà
Migliori casinò non AAMS in Italia

Quello che un tempo era relegato al regno della fantascienza sta gradualmente varcando la soglia della realtà: gli scienziati hanno compiuto un passo significativo verso una trasmissione di informazioni più chiara ed efficiente che mai.

Grazie all’impiego di un materiale dalle dimensioni infinitesime, una piattaforma nanofotonica, i ricercatori hanno notevolmente potenziato la capacità di veicolare informazioni quantistiche, persino manipolando singole particelle di luce. Questa innovazione apre scenari futuri in cui il teletrasporto quantistico potrebbe integrarsi nelle reti di comunicazione globali, inaugurando un’era in cui i dati viaggiano nello spazio con modalità un tempo considerate irrealizzabili.

Teletrasporto quantistico: la nanofotonica spiana la strada alla realtà
Teletrasporto quantistico: la nanofotonica spiana la strada alla realtà

Il teletrasporto quantistico si avvicina: una svolta nella trasmissione di informazioni

Da anni, la comunità scientifica riconosce il potenziale dei processi ottici non lineari per rendere i sistemi di comunicazione quantistica più affidabili e resilienti a specifiche tipologie di errori. Tuttavia, i primi tentativi in questa direzione si sono scontrati con limitazioni tecniche, in quanto i sistemi sviluppati non erano in grado di operare ai livelli di luce estremamente bassi necessari per una vera comunicazione quantistica.

Un team di ricercatori dell’Università dell’Illinois a Urbana-Champaign ha recentemente segnato una svolta cruciale in questo campo. Essi hanno realizzato un sistema non lineare basato su una piattaforma nanofotonica costituita da fosfuro di indio-gallio, ottenendo un incremento significativo dell’efficienza. L’approccio sviluppato si distingue per la sua capacità di operare con quantità di luce notevolmente ridotte, fino al livello dei singoli fotoni, le unità elementari della luce. Questo risultato rappresenta la prima concreta via verso una comunicazione quantistica pratica che sfrutta l’ottica non lineare.

Il nostro sistema non lineare trasmette informazioni quantistiche con una fedeltà del 94%, superando ampiamente il limite teorico del 33% dei sistemi basati su componenti ottici lineari“, ha dichiarato Kejie Fang, professore di ingegneria elettrica e informatica dell’Illinois e responsabile del progetto, sottolineando l’importanza di questo risultato: “Questo dato da solo dimostra la notevole potenzialità della comunicazione quantistica con l’ottica non lineare. La sfida principale da affrontare era l’efficienza. Grazie all’utilizzo di una piattaforma nanofotonica, abbiamo osservato un aumento dell’efficienza tale da dimostrare la promettente natura di questa tecnologia“.

Un ponte per le reti del futuro

La trasmissione di informazioni quantistiche attraverso le nascenti reti quantistiche è resa possibile da un protocollo affascinante: il teletrasporto quantistico. Questo processo sfrutta un fenomeno peculiare del mondo quantistico, l’entanglement. In questo stato, due oggetti quantistici, tipicamente singoli fotoni, rimangono intrinsecamente connessi, influenzandosi reciprocamente anche a distanza, senza la necessità di un legame fisico apparente.

Il teletrasporto quantistico impiega questa interconnessione per trasferire lo stato quantistico di un’informazione da un mittente a un destinatario, senza che l’informazione stessa debba viaggiare attraverso un canale di comunicazione convenzionale. Un vantaggio cruciale di questa procedura risiede nella significativa riduzione dell’impatto del rumore esterno e delle imperfezioni intrinseche del canale di trasmissione.

Nonostante il suo potenziale rivoluzionario, le prestazioni del teletrasporto quantistico sono attualmente limitate da due fattori principali. In primo luogo, l’impiego di componenti ottici lineari standard introduce un’ambiguità intrinseca nel processo di trasmissione. In secondo luogo, la generazione di fotoni entangled, la risorsa fondamentale per il teletrasporto, è un processo imperfetto, soggetto a errori e alla produzione di rumore indesiderato. In particolare, è frequente che le sorgenti di entanglement emettano più di una singola coppia di fotoni simultaneamente, rendendo incerto se i due fotoni utilizzati nel protocollo di teletrasporto siano effettivamente entangled.

“Il rumore multifotonico è una problematica intrinseca a tutte le sorgenti di entanglement realistiche e rappresenta una seria sfida per lo sviluppo delle reti quantistiche“, ha spiegato Elizabeth Goldschmidt, professoressa di fisica dell’Illinois e coautrice dello studio: “Il grande fascino dell’ottica non lineare risiede nella sua intrinseca capacità di mitigare l’effetto di questo rumore, grazie ai principi fisici che la governano, aprendo la strada all’utilizzo di sorgenti di entanglement imperfette”.

I componenti ottici non lineari possiedono la proprietà di far interagire fotoni con frequenze diverse, generando nuovi fotoni a frequenze differenti. Nel contesto del teletrasporto quantistico, il processo non lineare specificamente sfruttato è la “generazione di frequenza di somma” (SFG, dall’inglese Sum-Frequency Generation). In questo processo, le frequenze di due fotoni interagenti si sommano, dando origine a un nuovo fotone con una frequenza risultante dalla somma delle due originali. Tuttavia, affinché questo processo avvenga in modo efficiente, i due fotoni iniziali devono possedere specifiche frequenze di partenza.

Filtrare il rumore per una trasmissione di alta fedeltà

Nell’applicazione della generazione di frequenza di somma (SFG) al teletrasporto quantistico, il protocollo viene intenzionalmente interrotto qualora vengano rilevati due fotoni aventi la medesima frequenza. Questa specifica condizione agisce come un filtro selettivo, eliminando la principale tipologia di rumore che affligge la maggior parte delle sorgenti di fotoni entangled.

Grazie a questa eliminazione del rumore, si ottiene una fedeltà di teletrasporto significativamente superiore a quanto sarebbe altrimenti possibile con approcci convenzionali. Tuttavia, questo vantaggio in termini di precisione si scontra con un limite operativo intrinseco: la conversione SFG è un evento che si verifica con una probabilità estremamente bassa, rendendo l’intero processo di teletrasporto altamente inefficiente.

I ricercatori sono consapevoli di questa limitazione da tempo, ma la bassa probabilità di successo della SFG ne ha finora ostacolato una piena esplorazione“, ha spiegato il professor Fang: “In passato, il tasso di conversione massimo raggiunto si attestava intorno a 1 su 100 milioni. Il nostro risultato chiave è stato quello di ottenere un incremento di ben 10.000 volte nell’efficienza di conversione, portandola a 1 su 10.000 grazie all’impiego di una piattaforma nanofotonica“. Questo notevole aumento dell’efficienza rappresenta un passo avanti significativo verso la realizzazione pratica del teletrasporto quantistico.

I ricercatori hanno espresso un cauto ottimismo riguardo al potenziale futuro del teletrasporto quantistico basato su componenti ottici non lineari. Essi ritengono che, con ulteriori progressi tecnologici e ottimizzazioni del sistema, sarà possibile incrementare ulteriormente l’efficienza del processo. Inoltre, intravedono un impiego promettente di questa tecnologia anche in altri protocolli fondamentali per la comunicazione quantistica, incluso lo scambio di entanglement, elemento chiave per la costruzione di reti quantistiche distribuite.

Lo studio è stato pubblicato su Physical Review Letters.

Chi ha ucciso i dinosauri? Uno studio riporta il dibattito al punto di partenza

0
Chi ha ucciso i dinosauri? Un nuovo studio riporta il dibattito al punto di partenza
Chi ha ucciso i dinosauri? Un nuovo studio riporta il dibattito al punto di partenza
Migliori casinò non AAMS in Italia

Per molti anni il dibattito scientifico sull’estinzione dei dinosauri è vissuto sulla contrapposizione tra coloro che sostenevano che la responsabilità fosse da attribuire alle emissioni vulcaniche che modificarono il clima del nostro pianeta o all’impatto di un gigamtesco asteroide.

Il fatto è che, all’improvviso, 66 milioni di anni fa i dinosauri, che avevano dominato il pianeta per quasi 200 milioni di anni, si estinsero quasi completamente, lasciando solo alcune popolazioni di dinosauri aviari, che poi si sarebbero evoluti negli attuali uccelli, a ricordare l’antica gloria.

Negli ultimi anni sembrava avere preso piede la fazione che sosteneva l’impatto dell’asteroide come colpevole dell’estinzione dei dinosauri, alla luce delle molte prove emerse circa la portata degli sconvolgimenti ambientali a livello planetario che seguirono all’impatto. Eppure, i ricercatori di Dartmouth, non ancora convinti, hanno provato un nuovo approccio: si sono rivolti all’intelligenza artificiale per esaminare le prove.

Chi ha ucciso i dinosauri? l’Intelligenza Artificiale per esaminare le prove a ritroso nel tempo

Questo team di ricercatori ha pubblicato sulla rivista Science un nuovo metodo di modellazione alimentato da processori interconnessi che possono funzionare attraverso risme di dati geologici e climatici senza input umano. Hanno programmato quasi 130 processori per analizzare i reperti fossili al contrario per individuare gli eventi e le condizioni che portarono all’estinzione del Cretaceo-Paleogene (K-Pg) che aprì la strada all’ascesa dei mammiferi, compresi i primati che avrebbero portato ai primi umani.

Parte della nostra motivazione era quella di valutare questa domanda senza un’ipotesi o un pregiudizio predeterminato“, ha affermato Alex Cox, primo autore dello studio e studente laureato presso il Dipartimento di Scienze della Terra di Dartmouth. “La maggior parte dei modelli si muove da un certo momento del passato in avanti. Abbiamo adattato un modello del ciclo del carbonio per funzionare nella direzione opposta, utilizzando l’effetto per trovare la causa attraverso le statistiche, fornendo solo il minimo indispensabile di informazioni preliminari.

Alla fine, non importa cosa pensiamo o cosa pensavamo in precedenza: il modello ci mostra come siamo arrivati ​​a ciò che vediamo nella documentazione geologica“, ha detto.

Il modello ha elaborato più di 300.000 possibili scenari di emissioni di anidride carbonica, produzione di anidride solforosa e produttività biologica nel milione di anni prima e dopo l’estinzione del K-Pg. Attraverso un tipo di apprendimento automatico noto come Markov Chain Monte Carlo – che non è diverso dal modo in cui uno smartphone prevede ciò che digiterai dopo la prime lettere – i processori hanno lavorato insieme in modo indipendente per confrontare, rivedere e ricalcolare le loro conclusioni fino a raggiungere uno scenario che corrisponde al risultato conservato nella documentazione fossile.

I resti geochimici e organici nella documentazione fossile catturano chiaramente le condizioni catastrofiche presenti durante l’estinzione del K-Pg. Animali e piante in tutto il mondo subirono massicce morie a causa del collasso delle reti alimentari in un’atmosfera instabile, carica di zolfo che assorbe il calore solare, minerali presenti nell’aria e anidride carbonica che intrappola il calore, attraversò un periodo durante il quale divenne gelida per poi passare a condizioni torride.

Sebbene l’effetto sia chiaro, la causa dell’estinzione dei dinosauri è irrisolta. Le prime teorie che attribuivano l’evento a eruzioni vulcaniche sono state eclissate dalla scoperta di un cratere da impatto in Messico noto come Chicxulub, causato da un asteroide grande chilometri che ora si ritiene sia il principale responsabile dell’evento di estinzione. Le due ipotesi, però,  hanno iniziato a convergere poiché le prove fossili sembrano suggerire un uno-due diverso da qualsiasi altra cosa nella storia della Terra: l’asteroide potrebbe essersi schiantato contro un pianeta che era già in sofferenza a causa delle massicce ed estremamente violente eruzioni dei vulcani nei Trappi del Deccan, nell’India occidentale.

Gli scienziati, però, ancora non sanno, né sono d’accordo, in che misura ciascun evento abbia contribuito all’estinzione di massa. Così, Cox e il suo consulente Brenhin Keller, assistente professore di scienze della terra a Dartmouth e coautore dello studio, hanno deciso di “vedere cosa succede lascoando analizzare i dati all’intelligeza artificiale“.

Il loro modello ha suggerito che l’effusione di gas climalteranti dai soli trappi del Deccan avrebbe potuto essere sufficiente a innescare l’estinzione globale. Le Trappole eruttarono circa 300.000 anni prima dell’impatto dell’asteroide di Chicxulub. Si stima che durante i loro quasi 1 milione di anni di eruzioni, i Trappi del Deccan abbiano pompato nell’atmosfera fino a 10,4 trilioni di tonnellate di anidride carbonica e 9,3 trilioni di tonnellate di zolfo.

Storicamente sappiamo che i vulcani possono causare estinzioni di massa, ma questa è la prima stima indipendente delle emissioni volatili ricavata dalle prove dei loro effetti ambientali“, ha affermato Keller, che l’anno scorso ha pubblicato un articolo che collega quattro delle cinque estinzioni di massa della Terra al vulcanismo.

Il nostro modello ha elaborato i dati in modo indipendente e senza pregiudizi umani per determinare la quantità di anidride carbonica e di anidride solforosa necessaria per produrre le alterazioni del clima e del ciclo del carbonio che vediamo nei dati geologici. Queste quantità si sono rivelate coerenti con ciò che ci aspettiamo di vedere nelle emissioni dei trappi del Deccan“, ha detto Keller, che ha lavorato a lungo per esaminare il legame tra il vulcanismo del Deccan e l’estinzione del K-Pg.

Il modello ha rivelato un forte calo nell’accumulo di carbonio organico nelle profondità dell’oceano nel periodo dell’impatto di Chicxulub, la cui causa probabilmente è dovuta all’asteroide che ha causato la morte di numerose specie animali e vegetali. La documentazione contiene tracce di una diminuzione della temperatura nello stesso periodo che sarebbe stata causata dalla grande quantità di zolfo – un agente di raffreddamento a breve termine – che il meteorite gigantesco avrebbe espulso nell’atmosfera quando entrò in collisione con la superficie ricca di zolfo in quella zona del pianeta.

Inoltre, l’impatto dell’asteroide avrebbe probabilmente emesso anche sia carbonio che anidride solforosa. Tuttavia, il modello ha rilevato che in quel momento non vi fu alcun picco nelle emissioni di nessuno dei due gas, suggerendo che il contributo dell’asteroide all’estinzione non è dipeso dalle emissioni di gas.

Nel contesto moderno, ha affermato Cox, l’uso di combustibili fossili dal 2000 al 2023 ha pompato nell’atmosfera circa 16 miliardi di tonnellate di anidride carbonica all’anno. Questo è 100 volte maggiore del tasso di emissione annuale più alto previsto dagli scienziati dai Trappi del Deccan. Anche se questo fatto è di per sé allarmante, ci vorranno ancora alcune migliaia di anni prima che le attuali emissioni di anidride carbonica raggiungano la quantità totale emessa dagli antichi vulcani per indurre i cambiamenti atmosferici che portaroo all’estinzione di massa, ha detto Cox.

La cosa più incoraggiante è che i risultati che abbiamo ottenuto sono ampiamente plausibili dal punto di vista fisico, il che è impressionante dato che il modello avrebbe potuto tecnicamente funzionare completamente senza vincoli precedenti più forti“, ha affermato.

L’interconnessione dei processori ha ridotto il tempo impiegato dal modello per analizzare un set di dati così massiccio da mesi o anni a ore, ha affermato Cox. Il suo metodo e quello di Keller possono essere utilizzati per invertire altri modelli di sistemi terrestri – come quelli per il clima o il ciclo del carbonio – per valutare eventi geologici di cui sono ben noti i risultati ma non i fattori che hanno portato a ciò.

Questo tipo di inversione parallela non è mai stata eseguita prima nei modelli di scienze della Terra. Il nostro metodo può essere ampliato per includere migliaia di processori, il che ci offre uno spazio di soluzioni molto più ampio da esplorare ed è abbastanza resistente ai pregiudizi umani“, Cox disse.

Finora, le persone nel nostro campo sono state più affascinate dalla novità del metodo che dalla conclusione che abbiamo raggiunto“, ha riso. “Qualsiasi sistema terrestre di cui conosciamo l’effetto ma non la causa è maturo per l’inversione. Quanto meglio conosciamo l’output, tanto meglio saremo in grado di caratterizzare l’input che lo ha causato“.

Impatto meteoritico in Scozia: ridatato a 1 miliardo di anni fa il segreto della vita antica

0
Impatto meteoritico in Scozia: ridatato a 1 miliardo di anni fa il segreto della vita antica
Impatto meteoritico in Scozia: ridatato a 1 miliardo di anni fa il segreto della vita antica
Migliori casinò non AAMS in Italia

Una recente scoperta scientifica ha riscritto la cronologia di un significativo evento cosmico avvenuto in Scozia nord-occidentale. Un team di ricercatori ha stabilito che un imponente impatto meteoritico colpì questa regione circa un miliardo di anni fa, spostando indietro nel tempo di ben 200 milioni di anni la precedente stima dell’impatto.

Questa nuova datazione colloca l’evento in una finestra temporale cruciale, allineandolo con l’esistenza di alcuni dei più antichi fossili microbici terrestri non marini conosciuti sul nostro pianeta. Questa coincidenza temporale apre inedite prospettive sulla comprensione di come gli impatti meteoritici abbiano potuto plasmare in modo significativo l’ambiente primordiale della Terra e, di conseguenza, l’evoluzione delle prime forme di vita.

Impatto meteoritico in Scozia: ridatato a 1 miliardo di anni fa il segreto della vita antica
Impatto meteoritico in Scozia: ridatato a 1 miliardo di anni fa il segreto della vita antica

Le rocce torridoniane: un archivio geologico di antichi ecosistemi microbici

Le formazioni rocciose torridoniane della Scozia nord-occidentale sono considerate dagli esperti di geologia come uno degli archivi più preziosi e meglio conservati degli antichi laghi e sistemi fluviali che caratterizzavano il paesaggio terrestre un miliardo di anni fa. Questi antichi corpi idrici ospitavano ecosistemi microbici complessi, popolati da eucarioti.

Gli eucarioti rappresentano un gruppo di organismi unicellulari dotati di strutture interne sofisticate e compartimentalizzate, e sono considerati gli antenati comuni di tutte le piante e gli animali che popolano oggi la Terra. Gli ambienti torridoniani, con le loro fiorenti comunità microbiche, subirono un drastico sconvolgimento a seguito del catastrofico impatto di un meteorite sul pianeta.

La testimonianza geologica di questo violento evento cosmico è mirabilmente conservata in un’unità stratigrafica distintiva nota come Membro Stac Fada. Questa formazione geologica è caratterizzata da insoliti strati composti da frammenti di roccia frantumati e fusi, risultato diretto dell’energia sprigionata dall’impatto meteoritico. L’analisi dettagliata della composizione di questi strati ha rivelato la presenza di minerali alterati in modo significativo dall’onda d’urto dell’impatto. Ciò che rende questa scoperta particolarmente significativa è la notevole somiglianza di questi minerali con quelli rinvenuti in siti di impatto meteoritico di fama mondiale, come il cratere di Chicxulub in Messico, associato all’estinzione dei dinosauri, e il bacino di Sudbury in Canada.

Nel caso specifico della Membro Stac Fada, questi minerali alterati dall’impatto furono rapidamente inglobati e trasportati da potenti flussi di roccia frantumata, ad alta energia e densi di sedimenti, innescati dalla violenza dell’impatto. Questi flussi si propagarono rapidamente attraverso l’antico paesaggio, seppellendo e preservando le tracce mineralogiche dell’evento catastrofico.

La nuova datazione dell’impatto di Stac Fada, che ora coincide temporalmente con la presenza di microfossili conservati in altre sezioni delle rocce del Torridoniano, apre scenari di ricerca estremamente stimolanti. Questa correlazione temporale solleva una serie di interrogativi fondamentali sulla possibile interazione tra l’evento cosmico e le prime forme di vita terrestre non marina.

Ad esempio, una delle domande più pressanti riguarda il modo in cui l’impatto del meteorite potrebbe aver influenzato le condizioni ambientali preesistenti, che costituivano la base per la sopravvivenza e lo sviluppo di quegli antichi e delicati ecosistemi microbici. Comprendere questa interazione potrebbe fornire nuove chiavi di lettura sull’evoluzione precoce della vita sul nostro pianeta e sul ruolo che eventi catastrofici come gli impatti meteoritici potrebbero aver giocato nel plasmare il suo corso.

La ricerca di “cronometri minerali” resistenti al tempo

Stabilire con precisione l’epoca in cui un meteorite ha colpito la superficie terrestre non è un’impresa semplice. Richiede un’analisi geologica sofisticata e l’identificazione di specifici indicatori mineralogici che abbiano conservato tracce dell’evento catastrofico attraverso immense scale temporali.

Per datare un impatto, gli scienziati si affidano all’analisi di minerali presenti nelle rocce colpite. Tuttavia, non tutti i minerali sono adatti a questo scopo. È necessario individuare tipologie mineralogiche che non siano state completamente alterate dall’intenso calore, dalla pressione estrema e dai fluidi generati dall’impatto stesso, pur mantenendo una robustezza sufficiente per sopravvivere alle innumerevoli ere geologiche che si sono succedute. La rarità di tali “cronometri minerali” rende la datazione precisa degli impatti antichi una sfida considerevole.

Fortunatamente, l’analisi delle rocce della Membro Stac Fada ha rivelato la presenza di alcuni di questi rari minerali “cronometro“. Uno di questi è la reidite, un minerale dalla struttura cristallina unica che si forma esclusivamente in condizioni di pressione estremamente elevata, tipiche degli eventi di impatto meteoritico. L’altro minerale chiave è lo zircone granulare, una varietà di zircone contenente uranio che si cristallizza a seguito delle elevatissime temperature generate dall’impatto.

Questi minerali agiscono come minuscoli orologi geologici, i cui meccanismi iniziano a “ticchettare” nel preciso istante della loro formazione. Sebbene questi orologi minerali vengano spesso danneggiati o parzialmente resettati dalle condizioni estreme dell’impatto e dalla successiva ondata di calore, gli scienziati hanno impiegato sofisticati modelli matematici per decifrare i segnali residui e determinare il momento più probabile in cui l’impatto si è verificato.

L’applicazione congiunta di queste tecniche di analisi mineralogica e modellizzazione matematica ha costantemente indicato un’età per l’impatto di Stac Fada pari a un miliardo di anni fa, un risultato che differisce dalla precedente stima di 1,2 miliardi di anni fa. Sebbene una variazione di 200 milioni di anni possa apparire modesta considerando tali scale temporali geologiche, essa riveste un’importanza significativa per la comprensione del contesto evolutivo.

La nuova datazione dell’impatto rivela una sorprendente coincidenza temporale con la comparsa dei primi fossili di eucarioti non marini. Si allinea anche con un importante periodo di intensa attività orogenetica, ovvero di formazione di montagne. Questa sovrapposizione temporale suggerisce che le forme di vita presenti nel periodo Torridoniano dovettero affrontare significative e potenzialmente stressanti alterazioni ambientali, innescate sia dall’impatto meteoritico che dai processi geologici endogeni. Comprendere l’interazione tra questi eventi catastrofici e l’evoluzione della vita primordiale rappresenta un campo di ricerca affascinante e cruciale.

L’impatto meteoritico in Scozia e l’origine della vita: un legame profondo

L’origine della vita sul nostro pianeta rappresenta un processo di straordinaria complessità, con gli scienziati che ipotizzano un inizio scandito da una serie di reazioni chimiche prebiotiche avvenute nelle condizioni primordiali della Terra. Sebbene numerosi aspetti di questa fase cruciale rimangano ancora avvolti nel mistero, emerge un quadro affascinante in cui eventi cosmici, come gli impatti meteoritici, potrebbero aver giocato un ruolo significativo nell’innescare o nel modulare i processi che hanno portato alla comparsa delle prime forme di vita.

È sorprendente notare come due antichi impatti meteoritici, l’impatto del Polo Nord risalente a 3,5 miliardi di anni fa nell’Australia Occidentale e ora il sito di Stac Fada risalente a 1 miliardo di anni fa nella Scozia nord-occidentale, si siano verificati in prossimità temporale di importanti traguardi documentati nella storia fossile della vita sulla Terra. Questa vicinanza temporale suggerisce una potenziale connessione causale o un’influenza significativa di tali eventi catastrofici sull’evoluzione biologica.

L’impatto del Polo Nord si è verificato in una sequenza di rocce che contengono stromatoliti, alcune delle più antiche testimonianze fossili conosciute sulla Terra. Le stromatoliti sono strutture sedimentarie stratificate formate dall’attività di comunità microbiche, in particolare cianobatteri, e sono considerate indicatori inequivocabili di vita microbica primordiale. La prossimità temporale tra questo antico impatto e la presenza di queste prime forme di vita fotosintetica solleva interrogativi sul potenziale ruolo degli impatti nel fornire energia o elementi cruciali per lo sviluppo della vita.

Ogni forma di vita necessita di una fonte di energia per sostenersi e riprodursi. Si ipotizza che le prime forme di vita sulla Terra fossero associate a sorgenti idrotermali vulcaniche, ambienti geotermicamente attivi che rilasciano composti chimici in grado di supportare la chemiosintesi. Tuttavia, gli impatti meteoritici offrono un’alternativa plausibile come fonte di energia per i processi biologici primordiali. Sebbene le conseguenze immediate di un impatto siano estreme e ostili, con distruzione e rilascio di energia devastanti, gli effetti a lungo termine potrebbero aver creato condizioni favorevoli allo sviluppo di processi biologici chiave.

I meteoriti, impattando sulla crosta terrestre, colpiscono rocce fratturate, generando sistemi idrotermali longevi, in cui l’acqua riscaldata dal calore residuo dell’impatto interagisce con le rocce, dissolvendo minerali e creando ambienti chimicamente attivi. Inoltre, gli impatti portano alla formazione di laghi craterici, depressioni naturali che permettono la concentrazione di ingredienti cruciali per la vita, come argille, molecole organiche e fosforo. Quest’ultimo elemento è un componente fondamentale di tutte le forme di vita conosciute, essendo parte integrante del DNA, dell’RNA e delle molecole energetiche come l’ATP.

Nel caso dell’impatto di Stac Fada in Scozia, l’evento si è verificato in un antico ambiente fluviale e lacustre che ospitava già ecosistemi microbici pionieri, capaci di colonizzare la terraferma. Ciò che rende i depositi di Stac Fada particolarmente affascinanti è che, a differenza della maggior parte degli altri siti di impatto sulla Terra, essi preservano in modo eccezionale gli ambienti in cui quegli organismi vivevano immediatamente prima del cataclisma cosmico. Questa “istantanea” geologica offre un’opportunità unica per studiare le condizioni ambientali e le comunità microbiche preesistenti.

Inoltre, i depositi formatisi a seguito dell’impatto di Stac Fada furono successivamente sepolti da sedimenti, creando un contesto in cui gli habitat microbici non marini ebbero l’opportunità di ristabilirsi e di evolvere. Le rocce di Stac Fada offrono quindi una finestra privilegiata per osservare i meccanismi di recupero e resilienza della vita microbica in seguito a un evento catastrofico di portata planetaria. In conclusione, i visitatori extraterrestri sotto forma di collisioni meteoritiche potrebbero non aver semplicemente segnato la superficie della Terra con i loro crateri, ma aver anche contribuito in modo significativo a plasmarne il futuro biologico, trasformando eventi distruttivi in potenziali “culle” naturali per l’origine e l’evoluzione della vita.

Lo studio è stato pubblicato sulla rivista Geology.

Energia da fusione nucleare: TAE, la svolta che il mondo aspetta?

0
Energia da fusione nucleare: TAE, la svolta che il mondo aspetta?
Energia da fusione nucleare: TAE, la svolta che il mondo aspetta?
Migliori casinò non AAMS in Italia

TAE Technologies, un’azienda californiana all’avanguardia nel campo della fusione nucleare, dichiara di aver compiuto un passo significativo verso la realizzazione di una fusione commerciale efficiente ed economica.

L’azienda, in collaborazione con ricercatori dell’Università della California, ha annunciato che il suo prototipo riconfigurato, denominato con audacia “Norm“, è in grado di generare una potenza cento volte superiore rispetto ad altri dispositivi a fusione, operando con costi dimezzati rispetto ai modelli precedenti.

Energia da fusione nucleare: TAE, la svolta che il mondo aspetta?
Energia da fusione nucleare: TAE, la svolta che il mondo aspetta?

Una nuova promessa per l’energia da fusione

L’innovazione chiave del team di ricerca risiede nel perfezionamento della configurazione a campo invertito (FRC). Questo approccio alternativo al confinamento del plasma ad altissime temperature elimina la necessità dei massicci magneti superconduttori impiegati nei sistemi di fusione tradizionali come i tokamak. Nei reattori FRC, è il plasma stesso a generare il proprio campo magnetico, semplificando la struttura del dispositivo e potenzialmente riducendone le dimensioni.

Per decenni, la promessa della configurazione a campo invertito (FRC) come approccio compatto ed efficiente alla fusione nucleare è stata ostacolata da una sfida fondamentale: l’instabilità intrinseca del plasma. A differenza dei tokamak, che utilizzano potenti magneti esterni per confinare il plasma ad altissime temperature, i reattori FRC si affidano alla corrente del plasma stesso per generare il campo magnetico necessario al suo contenimento.

Sebbene questo approccio offra il potenziale per sistemi più piccoli e meno complessi, la dinamica del plasma autogenerato si è storicamente dimostrata incline a instabilità che ne compromettono la stabilità e la durata. Queste instabilità potevano manifestarsi in vari modi, dalla turbolenza interna alla perdita improvvisa del confinamento, impedendo il raggiungimento delle condizioni necessarie per sostenere una reazione di fusione prolungata e quindi utile per la produzione di energia. La difficoltà nel controllare e sopprimere queste instabilità ha rappresentato un collo di bottiglia significativo nello sviluppo della tecnologia FRC, limitando la sua applicabilità pratica come fonte di energia.

Il team di TAE Technologies afferma di aver compiuto un passo avanti cruciale nella risoluzione di questo annoso problema di instabilità. Attraverso anni di ricerca e sviluppo, culminati nel design del loro prototipo “Norm”, l’azienda dichiara di aver implementato soluzioni ingegneristiche innovative che stabilizzano il plasma FRC in modo significativamente più efficace rispetto ai tentativi precedenti. Sebbene i dettagli specifici delle loro tecniche di stabilizzazione siano in gran parte proprietari, l’affermazione di aver superato le limitazioni storiche suggerisce un approccio innovativo al controllo del plasma.

Questo potrebbe includere sofisticati sistemi di iniezione di fasci di particelle, configurazioni magnetiche ottimizzate o algoritmi di controllo in tempo reale capaci di contrastare l’insorgere di instabilità. La stabilità migliorata del plasma è fondamentale per raggiungere densità e temperature sufficientemente elevate per innescare e sostenere reazioni di fusione, consentendo al reattore di operare per periodi di tempo prolungati e produrre energia in modo continuativo.

Le implicazioni di un plasma FRC stabilizzato e controllabile sono profonde. Secondo TAE Technologies, la maggiore stabilità del loro design “Norm” si traduce direttamente in una capacità di generare una potenza cento volte superiore rispetto ad altri progetti di fusione, inclusi i più convenzionali tokamak, a parità di intensità del campo magnetico e volume del plasma. Questo aumento esponenziale della potenza prodotta per unità di risorse impiegate rappresenta un potenziale punto di svolta nel campo della fusione.

Inoltre, l’azienda sostiene che il suo approccio FRC riconfigurato opera con costi dimezzati rispetto ai modelli precedenti. Questa riduzione dei costi potrebbe derivare dalla minore complessità del sistema FRC rispetto ai tokamak, dall’uso meno intensivo di costosi magneti superconduttori e dalla maggiore efficienza nella conversione dell’energia prodotta. La combinazione di una potenza significativamente maggiore e costi operativi inferiori apre prospettive entusiasmanti per la commercializzazione della fusione nucleare come fonte di energia pulita, abbondante e economicamente competitiva.

Se le affermazioni di TAE Technologies verranno convalidate da ulteriori ricerche e dimostrazioni, “Norm” potrebbe rappresentare una svolta cruciale nel percorso verso un futuro energetico basato sulla fusione.

Una semplificazione inattesa per i Reattori FRC

Il team di TAE Technologies ha annunciato una scoperta fondamentale durante la campagna operativa del loro reattore “Norman“, una svolta definita “rivoluzionaria, desiderata ma inaspettata“. Questa scoperta ha portato a una notevole semplificazione dei requisiti di avviamento e delle complessità operative per i futuri progetti di reattori a fusione basati sulla configurazione a campo invertito (FRC). I ricercatori sottolineano che questo avanzamento ha anche fatto progredire l’obiettivo della generazione di energia attraverso uno specifico tipo di plasma, considerato “probabilmente la topologia magneticamente più efficiente per un reattore a fusione economico”.

“Norm” rappresenta una variante evoluta del reattore di quinta generazione dell’azienda, “Norman“. Secondo quanto dichiarato da TAE Technologies, “Norm” introduce una significativa riduzione delle dimensioni, della complessità e dei costi della macchina, stimata fino al 50%. Un aspetto distintivo di “Norm” è la sua capacità di produrre plasma esclusivamente attraverso l’iniezione di fasci neutri. Questo prototipo svolge un ruolo cruciale nella validazione dei componenti operativi che saranno integrati nel reattore di sesta generazione dell’azienda, denominato “Copernicus”.

TAE Technologies descrive “Copernicus” come un reattore “progettato per dimostrare la fattibilità del raggiungimento della generazione netta di energia”. L’azienda sottolinea l’importanza di questa dimostrazione, definendola “il penultimo passo nel percorso di TAE verso la commercializzazione di energia da fusione pulita“. Questa affermazione evidenzia la cautela e la consapevolezza delle sfide ancora da superare nel perseguimento di una fusione commercialmente sostenibile, un obiettivo che, nonostante gli sforzi di numerose aziende e istituzioni, sembra ancora eludere la piena realizzazione.

Nonostante le sfide, TAE Technologies guarda al futuro con ottimismo, ipotizzando che il suo primo prototipo di centrale elettrica, denominato “Da Vinci”, sarà operativo all’inizio degli anni ’30. Michl Binderbauer, CEO di TAE Technologies, ha sottolineato l’urgenza di questa ricerca, affermando: “La domanda globale di elettricità sta crescendo in modo esponenziale e abbiamo l’obbligo morale di fare il massimo per sviluppare una soluzione di alimentazione di base che sia sicura, senza emissioni di carbonio ed economicamente sostenibile“.

Binderbauer riconosce implicitamente le sfide fondamentali che finora hanno ostacolato la realizzazione della fusione commerciale. In primo luogo, è necessario sviluppare una reazione di fusione che produca intrinsecamente più energia di quanta ne consumi per essere innescata e mantenuta. In secondo luogo, è cruciale raggiungere la cosiddetta “potenza a muro“, ovvero una situazione in cui l’intero sistema di fusione, inclusi tutti i suoi sottosistemi operativi, produca più energia di quanta ne consumi per funzionare complessivamente. Il superamento di questi ostacoli rappresenta la chiave per trasformare la promessa della fusione in una realtà energetica concreta.

La promessa della fusione idrogeno-boro

Un aspetto particolarmente interessante del progetto di TAE Technologies, secondo i ricercatori, è la sua potenziale compatibilità con la fusione idrogeno-boro. Questa reazione nucleare alternativa offre il vantaggio significativo di non produrre scorie radioattive, rappresentando un profilo di sicurezza potenzialmente superiore rispetto all’utilizzo di trizio o deuterio, combustibili impiegati in molti altri esperimenti di fusione. L’adozione della fusione idrogeno-boro potrebbe quindi risolvere una delle principali preoccupazioni ambientali associate all’energia nucleare tradizionale.

Se le affermazioni di TAE Technologies dovessero essere confermate, ciò rappresenterebbe un progresso sostanziale verso la realizzazione dell’energia da fusione commerciale, un traguardo che per decenni è rimasto costantemente “a 30 anni di distanza”. È fondamentale ricordare che “Norm” è attualmente un prototipo, una piattaforma di validazione tecnologica, e non ancora una centrale elettrica funzionante, sebbene il successo di “Da Vinci” nel 2030 potrebbe potenzialmente sfumare questa distinzione.

L’esplorazione di nuove metodologie per indurre reazioni di fusione e la semplificazione dei processi esistenti per aumentarne l’efficienza rappresentano indubbiamente passi avanti cruciali nel percorso verso l’energia da fusione commerciale. Tuttavia, è difficile lasciarsi trasportare eccessivamente dall’entusiasmo considerando la lunga storia di rinvii nelle tempistiche previste per la realizzazione pratica della fusione, una tendenza che con ogni probabilità continuerà a manifestarsi nel prossimo futuro.

Lo studio è stato pubblicato su Nature.

I delfini possono rilevare i campi elettrici

0
I delfini possono rilevare i campi elettrici
Migliori casinò non AAMS in Italia

Uno dei mammiferi marini più studiati al mondo nasconde segretamente un sesto senso superpotente. Due delfini tursiopi (Tursiops truncatus) tenuti in cattività hanno ora dimostrato ai ricercatori dell’Università di Rostock e dello zoo di Norimberga in Germania di poter percepire in modo affidabile deboli campi elettrici nell’acqua con i loro lunghi musi.

La scoperta suggerisce la possibilità che alcuni mammiferi marini riescano davvero a fiutare le correnti elettriche di piccole prede sepolte nella sabbia. Potrebbero persino usare questa abilità per percepire il campo magnetico terrestre ed usarlo per l’orientamento.

Ad oggi, è stato scoperto che solo un altro “vero” mammifero placentare sulla Terra possiede elettrorecettori. Poco più di dieci anni fa, gli scienziati hanno dimostrato che il delfino comune della Guyana (Sotalia guianensis) ha sviluppato un proprio sistema unico di elettroricezione, intrinsecamente diverso da pesci, anfibi e monotremi, come ornitorinchi ed echidne.

Gli esperimenti sui delfini 

Gli esperimenti ora suggeriscono che i delfini tursiopi adulti e i delfini della Guyana possono entrambi fare qualcosa di stranamente simile con una linea di pori sensibili sul loro muso, chiamati cripte vibrissali. Questi piccoli fori contengono i baffi giovanili e sono estremamente sensibili. Negli esperimenti, i delfini tursiopi sono stati in grado di utilizzare queste fosse di ex-baffi per rilevare campi elettrici molto deboli, fino a 2,4 e 5,5 microvolt per centimetro, una soglia di rilevamento che secondo i ricercatori è “nello stesso ordine di grandezza di quella dell’ornitorinco” e simile anche ai delfini della Guyana.

I risultati recenti sono stati raccolti solo da due delfini tursiopi tenuti in cattività allo zoo di Norimberga, di nome Dolly e Donna, quindi sono necessari ulteriori esperimenti per capire come queste creature utilizzano effettivamente questo senso in natura. Tuttavia, c’è motivo di sospettare che gli elettrorecettori svolgano un ruolo nel foraggiamento dei delfini.

Negli anni ’90, i ricercatori hanno notato dei delfini tursiopi tuffarsi a testa in giù nella sabbia (a volte fino alle pinne pettorali) prima di nuotare via con dei pesci in bocca. Si pensava che la strategia di foraggiamento, chiamata “alimentazione del cratere”, funzionasse principalmente tramite l’ecolocalizzazione, eppure nuove prove suggeriscono che anche l’elettroricezione può svolgere un ruolo in questa abilità.

I campi elettrici prodotti nell’acqua

Nell’acqua, tutti gli organismi producono campi elettrici di corrente continua (CC) e quando un pesce respira attraverso le branchie, questi campi possono trasformarsi in impulsi di corrente alternata (CA). Il rilevamento passivo dei campi DC e AC potrebbe consentire ai delfini tursiopi e della Guyana di trovare piccole prede nascoste nella sabbia. 

Il comportamento di Donna e Dolly

I delfini sono stati addestrati a nuotare lontano da una sbarra in cui passava la corrente entro cinque secondi dal rilevamento di un campo elettrico. Se non percepivano nulla, rimanevano nello stesso punto per almeno 12 secondi. Nel corso di diversi giorni di sperimentazione, i ricercatori hanno ridotto l’intensità del campo elettrico presentato. Quando hanno presentato campi elettrici CC inferiori a 125 microvolt per centimetro, Dolly e Donna hanno capito come percepire i segnali con una precisione del 90%. Con soli 5,4 microvolt al secondo, le prestazioni di Dolly sono scese al 50%. Oltre a ciò, i ricercatori affermano che i delfini sono diventati riluttanti a continuare l’addestramento e le loro prestazioni sono crollate.

Donna rilevava ancora segnali elettrici a 3 microvolt per centimetro con una precisione di circa l’80%, eppure la sua prestazione a 2 microvolt era scesa al 33%. Anche quando i delfini erano esposti a campi elettrici pulsanti, Dolly e Donna riuscivano a captare segnali deboli rispettivamente di 28,9 microvolt e 11,7 microvolt per centimetro. Per i campi elettrici più deboli, gli scienziati hanno notato che Dolly scuoteva il muso avanti e indietro “come se cercasse uno stimolo elettrico”.

Questa “oscillazione” è comunemente osservata anche durante l’alimentazione nei crateri. I movimenti potrebbero potenzialmente migliorare il rilevamento delle prede, in modo simile a come un ornitorinco muove il proprio becco avanti e indietro quando cerca un pasto con i suoi elettrorecettori.

Morbo di Alzheimer: scoperto SIRT2, il nuovo obiettivo per frenare la disfunzione astrocitica

0
Morbo di Alzheimer: scoperto SIRT2, il nuovo obiettivo per frenare la disfunzione astrocitica
Morbo di Alzheimer: scoperto SIRT2, il nuovo obiettivo per frenare la disfunzione astrocitica
Migliori casinò non AAMS in Italia

Una recente ricerca condotta presso l’Institute for Basic Science (IBS) ha portato alla luce il ruolo cruciale di SIRT2, un enzima precedentemente non associato a questo processo, nella disregolazione della produzione del neurotrasmettitore inibitorio GABA (acido gamma-amminobutirrico) all’interno degli astrociti. Questa scoperta potrebbe rappresentare una svolta nella comprensione dei meccanismi molecolari che sottendono il declino cognitivo osservato nel morbo di Alzheimer e nella distinzione degli effetti specifici delle diverse molecole degenerative coinvolte.

Morbo di Alzheimer: scoperto SIRT2, il nuovo obiettivo per frenare la disfunzione astrocitica
Morbo di Alzheimer: scoperto SIRT2, il nuovo obiettivo per frenare la disfunzione astrocitica

SIRT2: un nuovo protagonista nella oerdita di memoria dell’Alzheimer

Lo studio, guidato dal Direttore C. Justin LEE dell’IBS Center for Cognition and Sociality, ha fornito importanti intuizioni sul contributo attivo degli astrociti alla perdita di memoria caratteristica del morbo di Alzheimer.

Contrariamente alla visione tradizionale che li considerava meri elementi di supporto per i neuroni, gli astrociti sono ora riconosciuti come partecipanti dinamici nelle funzioni cerebrali. Nel contesto della malattia di Alzheimer, queste cellule subiscono una trasformazione reattiva, modificando il loro comportamento in risposta all’accumulo di placche di beta-amiloide (Aβ), una delle principali caratteristiche patologiche della malattia.

Sebbene la funzione primaria degli astrociti sia quella di contrastare l’accumulo di placche di Aβ attraverso meccanismi come l’autofagia e la loro degradazione tramite il ciclo dell’urea, questo stesso processo innesca una serie di eventi deleteri. La scomposizione delle placche porta a una sovrapproduzione di GABA, un neurotrasmettitore inibitorio che, in eccesso, sopprime l’attività neuronale e contribuisce al progressivo deterioramento della memoria. Parallelamente, il processo genera anche perossido di idrogeno (H₂O₂), un sottoprodotto tossico che accelera il danno neuronale e la neurodegenerazione, alimentando ulteriormente il circolo vizioso patologico.

Un nuovo approccio terapeutico: inibizione selettiva per decifrare i meccanismi

La ricerca ha rivelato che SIRT2 interviene nella fase finale della sintesi del GABA negli astrociti, mentre la produzione di perossido di idrogeno (H₂O₂) si verifica nelle fasi iniziali del processo metabolico. Questa distinzione temporale suggerisce che l’H₂O₂ potrebbe essere generato e rilasciato dalle cellule in modo continuativo, anche in assenza dell’attività di SIRT2. Il Direttore C. Justin LEE ha chiarito questo aspetto cruciale: “In effetti, abbiamo osservato che l’inibizione di SIRT2 non blocca la produzione di H₂O₂, indicando che la degenerazione neuronale potrebbe persistere nonostante una riduzione della sintesi di GABA”.

L’identificazione di SIRT2 e ALDH1A1 come target molecolari a valle dei processi patologici apre nuove e promettenti strategie terapeutiche. Gli scienziati ora dispongono della possibilità di inibire selettivamente la produzione di GABA senza alterare i livelli di H₂O₂. Questa rappresenta una svolta concettuale fondamentale, poiché consente ai ricercatori di separare gli effetti neurotossici dei due metaboliti e di studiare il loro contributo individuale e specifico alla neurodegenerazione associata al morbo di Alzheimer.

Il Direttore C. Justin LEE ha enfatizzato il significato traslazionale di queste scoperte, sottolineando i limiti degli approcci terapeutici attuali: “Finora, nella ricerca sull’Alzheimer, abbiamo impiegato inibitori delle MAOB, i quali bloccano simultaneamente la produzione sia di H₂O₂ che di GABA. L’identificazione degli enzimi SIRT2 e ALDH1A1, operanti a valle delle MAOB, ci offre ora la possibilità di inibire selettivamente la sintesi di GABA senza influenzare i livelli di H₂O₂. Questo avanzamento ci permetterà di analizzare in modo più preciso gli effetti distinti di GABA e H₂O₂ e di comprenderne il ruolo individuale nella progressione della malattia, aprendo la strada a terapie più mirate e potenzialmente più efficaci“.

Verso strategie terapeutiche di precisione

Nonostante l’identificazione di SIRT2 come un attore chiave nella modulazione della produzione di GABA negli astrociti reattivi nel contesto del morbo di Alzheimer, la sua diretta inibizione farmacologica potrebbe non rappresentare la strategia terapeutica più efficace e selettiva per contrastare la neurodegenerazione. Questa cautela deriva da una comprensione più approfondita del suo ruolo specifico e, soprattutto, dalla constatazione che la sua inibizione, pur potendo ridurre la sovrapproduzione di GABA con i conseguenti effetti depressivi sull’attività neuronale e sulla plasticità sinaptica, non interviene sul parallelo e indipendente rilascio di perossido di idrogeno (H₂O₂).

Come evidenziato dalla ricerca, l’H₂O₂, generato nelle fasi iniziali del metabolismo astrocitario in risposta alle placche di beta-amiloide, continua ad essere prodotto anche in assenza di una funzionale attività di SIRT2. Questa persistente produzione di un potente agente ossidativo implica che il danno neuronale e la neurodegenerazione potrebbero progredire anche in uno scenario di ridotta inibizione sinaptica mediata dal GABA. Pertanto, un approccio terapeutico focalizzato unicamente sull’inibizione di SIRT2 rischierebbe di affrontare solo una parte del complesso quadro patologico, lasciando inalterato un significativo contributo al danno neuronale.

La vera portata innovativa di questa ricerca risiede nell’aver dischiuso nuove prospettive per lo sviluppo di strategie terapeutiche più mirate e precise, non necessariamente incentrate sull’inibizione diretta di SIRT2, ma piuttosto sulla modulazione più ampia e selettiva della reattività astrocitica nel contesto del morbo di Alzheimer. Comprendere che gli astrociti reattivi orchestrano una complessa risposta patologica, che include sia l’eccessiva produzione di GABA mediata da SIRT2 nelle fasi finali del processo, sia la concomitante liberazione di H₂O₂ nelle fasi iniziali, suggerisce che interventi terapeutici futuri potrebbero concentrarsi su punti di controllo più “a monte” o su meccanismi che regolano globalmente la transizione degli astrociti verso uno stato reattivo dannoso.

Invece di mirare direttamente a SIRT2, la ricerca apre la strada all’identificazione di target farmacologici che agiscono a monte di questo enzima o su vie di segnalazione intracellulari che ne regolano l’espressione o l’attività specifica nel contesto della patologia dell’Alzheimer. Ad esempio, si potrebbe esplorare la possibilità di modulare i segnali che inducono gli astrociti ad adottare un fenotipo reattivo in risposta alle placche di beta-amiloide. Intervenire su questi segnali “iniziali” potrebbe potenzialmente influenzare a cascata l’intera risposta patologica, riducendo sia la sovrapproduzione di GABA mediata da SIRT2 sia la concomitante produzione di H₂O₂.

Lo studio è stato pubblicato su Molecular Neurodegeneration.