LinOSS: l'AI bio-ispirata che domina le lunghe sequenze
Nonostante i progressi, l’IA fatica con lunghe sequenze complesse come clima, biologia e finanza. Per superare queste limitazioni, il CSAIL del MIT ha sviluppato i “modelli lineari oscillatori nello spazio degli stati” (LinOSS), un approccio bio-ispirato per rivoluzionare l’analisi di tali dati.
LinOSS: l’AI bio-ispirata che domina le lunghe sequenze
LinOSS: un’innovativa architettura ispirata agli oscillatori neurali biologici
Tra le architetture promettenti in questo ambito, spiccano i “modelli a spazio di stato”. Questi modelli sono stati progettati con l’obiettivo primario di catturare e comprendere le dinamiche sottostanti a sequenze di dati nel tempo. Tuttavia, nonostante il loro potenziale, i modelli a spazio di stato esistenti spesso manifestano delle vulnerabilità significative. In particolare, possono diventare instabili durante l’elaborazione di sequenze di dati particolarmente lunghe o richiedere una quantità proibitiva di risorse computazionali, limitandone l’applicabilità pratica in scenari reali con grandi volumi di dati.
Per superare queste limitazioni intrinseche, i ricercatori T. Konstantin Rusch e Daniela Rus, afferenti al prestigioso Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, hanno sviluppato un’architettura innovativa denominata “modelli lineari oscillatori nello spazio degli stati” (LinOSS). Questo nuovo approccio trae ispirazione dai principi degli oscillatori armonici forzati, un concetto fondamentale nella fisica classica che trova sorprendenti analogie nelle dinamiche osservate all’interno delle reti neurali biologiche.
Sfruttando questi principi, offre una capacità di previsione che si distingue per la sua stabilità, la sua espressività e la sua notevole efficienza computazionale, il tutto senza imporre condizioni eccessivamente restrittive sui parametri del modello sottostante: “Il nostro obiettivo primario era quello di catturare l’intrinseca stabilità e l’efficienza che caratterizzano i sistemi neurali biologici e di tradurre questi principi fondamentali in un framework coerente per l’apprendimento automatico“, spiega T. Konstantin Rusch, sottolineando la filosofia progettuale alla base di LinOSS.
“Grazie a LinOSS, siamo ora in grado di apprendere in modo affidabile interazioni che si estendono su lunghe distanze temporali, anche in sequenze di dati che comprendono centinaia di migliaia di punti o addirittura superiori. Questa capacità apre nuove frontiere per l’analisi di fenomeni complessi che si evolvono nel tempo“. L’a sua introduzione rappresenta quindi un passo significativo verso lo sviluppo di modelli di intelligenza artificiale più robusti ed efficienti per affrontare la crescente complessità dei dati sequenziali nel mondo reale.
Stabilità inerente e flessibilità di progettazione
Il modello LinOSS si distingue per la sua architettura intrinsecamente stabile, un vantaggio significativo rispetto alle metodologie preesistenti che spesso richiedono vincoli di progettazione stringenti per evitare instabilità numeriche o di apprendimento. Questa peculiarità offre una notevole flessibilità nella scelta dei parametri e nella configurazione del modello, semplificando il processo di sviluppo e ampliando la sua applicabilità a una gamma più vasta di problemi. La garanzia di una previsione stabile rappresenta un passo avanti cruciale nell’affidabilità dei modelli di intelligenza artificiale per l’analisi di sequenze temporali complesse.
Un ulteriore elemento di forza risiede nella rigorosa dimostrazione matematica della sua capacità di approssimazione universale. Questo risultato teorico di fondamentale importanza stabilisce che il modello è in grado di approssimare con precisione qualsiasi funzione causale continua che definisca la relazione tra sequenze di input e output. In termini pratici, ciò implica che possiede la flessibilità necessaria per apprendere e modellare una vasta gamma di dinamiche sequenziali complesse, confermando il suo potenziale come strumento versatile per diverse applicazioni.
La validità teorica di LinOSS è stata ampiamente corroborata da una serie di rigorosi test empirici. Le valutazioni hanno dimostrato che surclassa costantemente i modelli all’avanguardia attualmente in uso in diverse e impegnative attività di classificazione e previsione di sequenze. Un risultato particolarmente degno di nota è la performance in compiti che coinvolgono sequenze di lunghezza estrema, dove ha superato il modello Mamba, ampiamente riconosciuto per le sue capacità in questo ambito, di quasi il doppio. Questa superiorità empirica evidenzia l’efficacia dell’approccio bio-ispirato nel gestire dipendenze temporali a lungo raggio.
Il significativo impatto potenziale della ricerca è stato riconosciuto dalla comunità scientifica con la sua selezione per una presentazione orale all’ICLR 2025 (International Conference on Learning Representations), un prestigioso riconoscimento concesso solo all’1% dei migliori contributi presentati. I ricercatori del MIT nutrono grandi aspettative riguardo alla capacità del modello di apportare un contributo sostanziale in numerosi campi che beneficiano di previsioni e classificazioni a lungo termine accurate ed efficienti.
Tra questi settori chiave figurano l’analisi sanitaria per la diagnosi precoce e la prognosi, la climatologia per la modellizzazione di fenomeni atmosferici complessi, la guida autonoma per la percezione e la previsione del comportamento ambientale, e le previsioni finanziarie per l’analisi di tendenze di mercato a lungo termine. L’introduzione di LinOSS promette di aprire nuove frontiere nell’intelligenza artificiale sequenziale, offrendo strumenti più potenti e affidabili per affrontare le sfide del mondo reale.
Un ponte tra ispirazione biologica e avanzamento tecnologico
“Questo lavoro rappresenta un’efficace dimostrazione di come il rigore matematico possa concretizzarsi in innovazioni prestazionali dirompenti e in applicazioni di vasta portata”, sottolinea Daniela Rus, evidenziando la filosofia che ha guidato lo sviluppo di LinOSS: “Con la sua introduzione, mettiamo a disposizione della comunità scientifica uno strumento potente e versatile per la comprensione e la previsione di sistemi intrinsecamente complessi, colmando in modo significativo il divario esistente tra l’ispirazione tratta dai meccanismi biologici e l’innovazione nel campo della computazione“.
Il team di ricerca è convinto che l’emergere di un nuovo paradigma computazionale come LinOSS susciterà un vivo interesse tra gli esperti di apprendimento automatico e intelligenza artificiale. Rivolgendo lo sguardo al futuro, i ricercatori intendono esplorare l’applicazione del loro modello a una gamma ancora più ampia di diverse modalità di elaborazione dei dati, estendendone ulteriormente la versatilità e il potenziale impatto. In aggiunta, essi suggeriscono che l’architettura potrebbe fornire preziose intuizioni anche nel campo delle neuroscienze, aprendo nuove prospettive per approfondire la nostra comprensione dei principi fondamentali che regolano il funzionamento del cervello stesso.
Il lavoro pionieristico che ha portato allo sviluppo di LinOSS ha beneficiato del sostegno di prestigiose istituzioni e programmi di finanziamento. In particolare, la ricerca è stata supportata dal Fondo Nazionale Svizzero per la Ricerca Scientifica, dal programma Schmidt AI2050, un’iniziativa volta a promuovere l’intelligenza artificiale per il bene comune, e dall’Artificial Intelligence Accelerator del Dipartimento dell’Aeronautica Militare degli Stati Uniti, a testimonianza del potenziale strategico e dell’importanza scientifica di questa innovativa linea di ricerca sull’intelligenza artificiale.
Per maggiori informazioni, visita il sito ufficiale del MIT.
Nel marzo 2025, al Mobile World Congress di Barcellona, la startup australiana Cortical Labs ha presentato il CL1, definito come il primo computer biologico commerciale al mondo. Questo sistema rivoluzionario combina neuroni umani coltivati in laboratorio con hardware in silicio, aprendo la strada a una nuova era della computazione biologica e dell’intelligenza artificiale ibrida.
Grande quanto una scatola da scarpe, il CL1 ospita neuroni umani vivi, che crescono su un chip elettronico grazie a un ambiente di supporto vitale in grado di mantenerli attivi per mesi. Il risultato? Un processore ibrido cervello-computer capace di apprendere, adattarsi e interagire in tempo reale.
Cos’è il CL1 computer e perché se ne parla tanto
Il CL1 computer è il primo sistema computazionale al mondo che unisce neuroni umani vivi e hardware in silicio. Sviluppato dalla startup australiana Cortical Labs, questo computer biologico ibrido rappresenta una novità assoluta nel campo dell’intelligenza artificiale e della neuroscienza applicata.
A differenza dei computer tradizionali, il CL1 non si basa solo su chip elettronici, ma integra una vera e propria rete neurale biologica, coltivata in laboratorio da cellule staminali. Questo consente al sistema di apprendere, adattarsi e rispondere a stimoli come farebbe un organismo vivente.
Nel 2022, un primo prototipo chiamato DishBrain ha dimostrato che i neuroni possono imparare a giocare a Pong, suscitando grande interesse nella comunità scientifica. Oggi, con il CL1 computer, si entra nella fase commerciale: un dispositivo vendibile, potenzialmente usabile per la ricerca neurologica, la scoperta di farmaci e lo sviluppo di nuove forme di intelligenza artificiale.
Come funziona un computer ibrido biologico
Alla base del CL1 c’è un’interfaccia neurale sofisticata: 59 elettrodi collegano il chip di silicio a una rete neurale reale, coltivata da cellule staminali pluripotenti indotte. Il sistema è in grado di ricevere stimoli elettrici, elaborare informazioni e produrre risposte. È un dialogo continuo tra il biologico e l’artificiale, qualcosa che finora esisteva solo nella fantascienza.
Il sistema è mantenuto in vita da un circuito interno che regola temperatura, ossigenazione e nutrienti, rendendo il computer biologico autonomo e operativo per settimane o mesi.
DishBrain: il predecessore che ha imparato a giocare a Pong
Il CL1 è il successore del celebre DishBrain, un esperimento virale del 2022 in cui neuroni coltivati in vitro riuscirono a imparare a giocare a Pong. Attraverso rinforzi elettrici e feedback ambientali, le cellule hanno mostrato capacità di apprendimento rudimentali, una prova concreta del potenziale delle reti neurali viventi.
L’esperimento ha dimostrato che i neuroni possono apprendere comportamenti e adattarsi, diventando parte attiva di sistemi computazionali.
CL1 e l’efficienza energetica: cervello batte silicio
Uno dei vantaggi più sorprendenti del CL1 è la drastica riduzione del consumo energetico. Dove un supercomputer richiede centinaia di kilowatt, il CL1 consuma meno di un migliaio di watt per intero rack operativo. Una rivoluzione in termini di efficienza energetica nell’IA e nella simulazione cognitiva.
Questo approccio potrebbe cambiare radicalmente il modo in cui costruiamo data center, rendendo possibile una potenza di calcolo distribuita su larga scala con consumi sostenibili.
Applicazioni mediche: una svolta per neurologia e farmacologia
Il CL1 apre nuove prospettive anche in ambito clinico. Poiché utilizza neuroni umani reali, può essere impiegato per modellare malattie neurologiche in modo più realistico rispetto ai tradizionali modelli animali o alle simulazioni digitali. Malattie come l’Alzheimer, l’epilessia e le patologie neurodegenerative potrebbero essere studiate in ambienti cellulari vivi e dinamici.
Inoltre, la possibilità di testare farmaci su reti neurali umane reali offre una potenziale accelerazione alla ricerca biomedica.
Verso l’intelligenza biologica sintetica?
Il CL1 rappresenta il primo passo concreto verso ciò che Cortical Labs chiama “intelligenza biologica sintetica“: un’architettura capace di coniugare l’efficienza adattiva della biologia con la precisione del silicio.
Se i computer tradizionali sono macchine rigide, il CL1 inaugura un paradigma dove apprendimento, adattamento ed evoluzione sono biologicamente incorporati.
Disponibilità e modello di business: Wetware-as-a-Service
Cortical Labs ha annunciato che il CL1 sarà disponibile all’acquisto da giugno 2025 al prezzo di circa 35.000 dollari. Per chi non dispone dell’hardware necessario, l’azienda proporrà anche una versione cloud chiamata “Wetware-as-a-Service”. Un’idea che mescola biotech, cloud computing e AI, in un mix mai visto prima.
Le questioni etiche: coscienza, identità, dolore?
L’integrazione di neuroni umani in sistemi digitali solleva però anche interrogativi etici non banali. Cosa succede se una rete neurale diventa troppo complessa? È possibile che percepisca il dolore? Può sviluppare una forma di autocoscienza rudimentale?
Gli scienziati di Cortical Labs affermano che siamo ancora lontani da un simile scenario, ma le implicazioni filosofiche sono reali. Quando la materia vivente entra nel mondo del calcolo, serve una nuova etica della computazione.
Conclusione: un punto di non ritorno?
Il CL1 è più di un esperimento: è il primo tassello di un futuro in cui biologia e tecnologia convergono. Non è solo un nuovo modo di fare calcoli: è un nuovo modo di pensare cosa significhi “intelligenza”.
Siamo all’alba di una rivoluzione, e questa volta… è viva.
Fin qui la notizia… Ora facciamo un breve ragionamento sul suo significato.
Post Scriptum – Neuroni in brodo e sogni di eternità
Il CL1, per quanto straordinario, resta oggi un esperimento. Ma il concetto che porta con sé è grande, enorme, quasi blasfemo: un computer con neuroni umani vivi. Un’idea che suona come una bestemmia per alcuni, come un’illuminazione per altri.
In fondo, cosa stiamo facendo davvero?
Coltiviamo cellule del cervello umano in un liquido nutritivo, le colleghiamo a elettrodi e le costringiamo ad apprendere, rispondere, comportarsi. È un primo passo incerto verso qualcosa che non possiamo ancora comprendere appieno. Una macchina che non solo calcola, ma vive. Anche se solo per sei mesi. Anche se solo per giocare a Pong.
Eppure c’è qualcosa di simbolico, quasi rituale: come se stessimo accendendo un piccolo fuoco nel buio della nostra ignoranza biologica, usando frammenti di noi stessi per costruire un pensiero che ci sopravviva.
“Sarei disposto a trapiantare il mio cervello in un computer se significasse continuare a esistere.” – un uomo, in punto di morte, nel XXI secolo
Non è fantascienza. È una possibilità. Una che inquieta. Una che affascina. Perché se davvero potremo un giorno trasferire la mente umana in un supporto non biologico, allora l’identità diventerà codice, e il corpo… un’opzione.
Ma c’è anche un’altra via: non caricare la coscienza, ma coltivarla da zero, in laboratorio. Come sta facendo Cortical Labs. E allora sì, i replicanti non saranno cloni. Saranno nuovi esseri. Mezzo vivi, mezzo artificiali. Forse capaci di provare, ricordare, reagire. Forse un giorno… capaci di sognare pecore elettriche.
Il CL1 non è un computer. È uno specchio. E la cosa più inquietante è che… comincia a guardarci indietro.
❓ Domande frequenti (FAQ)
🔹 Cos’è il CL1 computer?
Il CL1 computer è un dispositivo ibrido che combina neuroni umani coltivati in laboratorio con componenti elettronici in silicio. Sviluppato da Cortical Labs, è considerato il primo computer vivente al mondo.
🔹 Come funziona il CL1?
Il CL1 utilizza neuroni umani reali, cresciuti su un chip con 59 elettrodi che consentono una comunicazione bidirezionale tra il tessuto biologico e il processore. I neuroni apprendono, rispondono a stimoli e si adattano, proprio come in un cervello.
🔹 Per cosa può essere usato il CL1?
Il CL1 può essere utilizzato nella ricerca neurologica, per studiare malattie come l’Alzheimer o l’epilessia, nella scoperta di farmaci, e come base per sviluppare nuove forme di intelligenza artificiale biologica.
🔹 Il CL1 è già disponibile?
Sì, Cortical Labs ha annunciato che il CL1 sarà disponibile dal giugno 2025. Sarà venduto come dispositivo fisico e anche in versione cloud, tramite un servizio chiamato Wetware-as-a-Service.
Space Jaws: il buco nero vagante che divora stelle a 600 milioni di anni luce
Come in una sequenza di un film di fantascienza, gli astronomi, scrutando le profondità cosmiche attraverso i telescopi della NASA, hanno portato alla luce un fenomeno soprannominato Space Jaws. A una distanza di 600 milioni di anni luce, nell’oscurità inchiostrata tra le stelle, si cela un predatore invisibile, un buco nero vagante che inghiotte senza pietà qualsiasi stella sfortunata osi avvicinarsi troppo.
La presenza di questo subdolo divoratore è stata rivelata da un evento di distruzione mareale (TDE) di recente identificazione, in cui una stella ignara è stata dilaniata e consumata in una spettacolare esplosione di radiazioni.
Space Jaws: il buco nero vagante che divora stelle a 600 milioni di anni luce
Space Jaws: un evento di distruzione mareale illumina un predatore cosmico
Questi eventi di distruzione mareale rappresentano potenti strumenti per sondare la fisica dei buchi neri. Essi svelano le condizioni necessarie per l’emissione di getti e venti nel momento in cui un buco nero è impegnato nel divorare una stella, manifestandosi ai telescopi come oggetti celesti estremamente luminosi. Il nuovo TDE, designato AT2024tvd, ha permesso agli astronomi di localizzare un buco nero supermassiccio inusualmente errante grazie alle osservazioni del telescopio spaziale Hubble della NASA, supportate da dati simili provenienti dall’osservatorio a raggi X Chandra della NASA e dal telescopio Very Large Array dell’NRAO. Queste osservazioni hanno concordemente indicato che il buco nero si trova spostato rispetto al centro della sua galassia ospite.
Questo buco nero, con una massa stimata di un milione di volte quella del nostro Sole, non risiede esattamente nel cuore della sua galassia, la tipica dimora dei buchi neri supermassicci, ma sta attivamente consumando la materia circostante. Tra i circa cento eventi di distruzione mareale registrati finora dalle survey ottiche del cielo, AT2024tvd rappresenta la prima identificazione di un TDE avvenuto in una posizione decentrata rispetto al nucleo galattico. Tutti gli altri eventi osservati in precedenza erano associati ai buchi neri centrali delle rispettive galassie.
Infatti, al centro della galassia ospite di AT2024tvd si annida un altro buco nero supermassiccio, con una massa impressionante pari a cento milioni di volte quella del Sole. La straordinaria precisione ottica del telescopio Hubble ha rivelato che l’evento di distruzione mareale si è verificato a una distanza di soli 2.600 anni luce da questo buco nero centrale molto più massiccio. Questa distanza è sorprendentemente breve, rappresentando solo un decimo della separazione tra il nostro Sole e il buco nero supermassiccio situato nel cuore della Via Lattea.
Un nucleo galattico attivo e un vagabondo stellare
Il buco nero più massiccio al centro della galassia ospite emette una notevole quantità di energia mentre attrae e inghiotte il gas circostante, classificandosi come un nucleo galattico attivo. Questi due buchi neri supermassicci coesistono all’interno della stessa galassia, ma non sono legati gravitazionalmente l’uno all’altro, come accade in un sistema binario. Sebbene sia possibile che il buco nero più piccolo possa in futuro spiraleggiare verso il centro galattico per fondersi con il suo omologo più grande, al momento la distanza che li separa è eccessiva per instaurare un legame gravitazionale significativo.
Un evento di distruzione mareale (TDE) si verifica quando una stella, deviando troppo vicino a un buco nero, viene stiracchiata e letteralmente “spaghettificata” dalle intense forze mareali gravitazionali del gigante oscuro. I frammenti stellari risultanti vengono trascinati in un’orbita vorticosa attorno al buco nero, generando onde d’urto e deflussi di materia ad altissime temperature, fenomeni che si manifestano come emissioni luminose rilevabili nello spettro ultravioletto e visibile.
“AT2024tvd è il primo TDE decentrato catturato dalle survey ottiche del cielo e apre nuove prospettive per la scoperta di questa elusiva popolazione di buchi neri vaganti grazie alle future osservazioni del cielo“, ha dichiarato Yuhan Yao, autore principale dello studio presso l’Università della California a Berkeley: “Al momento, i teorici non hanno dedicato molta attenzione ai TDE decentrati. Credo che questa scoperta stimolerà gli scienziati a cercare ulteriori esempi di questo tipo di evento”.
Il buco nero “divoratore di stelle” si è rivelato quando diversi telescopi terrestri dedicati all’osservazione del cielo hanno registrato un improvviso e intenso brillamento luminoso, inizialmente scambiato per una supernova. A differenza di un’esplosione stellare, gli astronomi hanno compreso che si trattava di un buco nero che stava consumando una stella grazie alle caratteristiche uniche del brillamento: temperature elevatissime e la presenza di ampie linee di emissione di idrogeno, elio, carbonio, azoto e silicio nel suo spettro luminoso. La Zwicky Transient Facility presso l’Osservatorio Palomar del Caltech, con il suo telescopio da 1,2 metri che scruta l’intero cielo boreale ogni due giorni, è stata la prima a intercettare questo evento cosmico.
“Gli eventi di distruzione mareale sono estremamente promettenti per rivelare la presenza di buchi neri massicci che altrimenti non saremmo in grado di rilevare“, ha affermato Ryan Chornock, professore associato presso l’UC Berkeley e membro del team ZTF: “I teorici hanno ipotizzato l’esistenza di una popolazione di buchi neri massicci situati lontano dai centri delle galassie, e ora possiamo utilizzare i TDE per individuarli”.
Il brillamento osservato appariva chiaramente decentrato rispetto al nucleo di una galassia massiccia e luminosa, catalogata da Pan-STARRS (Panoramic Survey Telescope and Rapid Response System), Sloan Digital Sky Survey e DESI Legacy Imaging Survey. Per confermare in modo definitivo la sua posizione non centrale, il team guidato da Yao ha utilizzato l’Osservatorio a raggi X Chandra della NASA, ottenendo la prova che anche le emissioni di raggi X provenienti dal sito del brillamento erano significativamente spostate dal centro galattico.
Infine, è stata la straordinaria risoluzione spaziale del telescopio Hubble a dissipare ogni residua incertezza. La sensibilità di Hubble alla luce ultravioletta ha inoltre permesso di localizzare con precisione la posizione del TDE, che appariva notevolmente più blu rispetto al resto della galassia ospite.
L’enigma del buco nero vagante: un nomade cosmico nel cuore galattico
Il buco nero responsabile dello spettacolare evento di distruzione mareale si aggira nelle regioni centrali, all’interno del bulbo della sua galassia ospite. Questo elusivo predatore cosmico si manifesta alla nostra osservazione solo a intervalli di decine di migliaia di anni, in un breve e violento rigurgito di energia emesso dopo aver catturato e divorato una stella incauta. Dopodiché, ritorna al suo silenzio cosmico, in attesa del suo prossimo, sfortunato pasto.
Come ha fatto questo buco nero a ritrovarsi lontano dal centro galattico, la sua naturale dimora? Precedenti studi teorici hanno suggerito che i buchi neri possono essere espulsi dai nuclei galattici a seguito di violente interazioni a tre corpi, un processo in cui l’oggetto con la massa inferiore viene scagliato via. Questa potrebbe essere una spiegazione plausibile nel caso di Space Jaws, data la sua relativa vicinanza al buco nero centrale molto più massiccio. “Se il buco nero ha subito una tripla interazione con altri due buchi neri nel nucleo della galassia, può comunque rimanere legato alla galassia, orbitando attorno alla regione centrale“, ha ipotizzato Yao.
Un’ipotesi alternativa suggerisce che questo buco nero vagante sia il residuo superstite di una galassia più piccola che si è fusa con la galassia ospite attuale miliardi di anni fa. In questo scenario, il buco nero “vagabondo” potrebbe alla fine spiraleggiare lentamente verso il centro galattico per fondersi con il buco nero attivo centrale in un futuro cosmico lontano. Pertanto, al momento, gli astronomi non sono ancora in grado di determinare se questo buco nero si stia avvicinando al centro galattico o se ne stia allontanando.
Erica Hammerstein, un’altra ricercatrice post-dottorato dell’Università della California a Berkeley, ha analizzato meticolosamente le immagini di Hubble nell’ambito di questa ricerca, ma non ha trovato prove dirette di una fusione galattica avvenuta in un passato recente. Tuttavia, ha sottolineato: “Esistono già solide prove che le fusioni galattiche aumentino i tassi di TDE, ma la presenza di un secondo buco nero nella galassia ospite di AT2024tvd significa che a un certo punto del passato di questa galassia deve essersi verificata una fusione“. Questa osservazione suggerisce un legame profondo tra gli eventi cosmici violenti e la dinamica dei buchi neriall’interno delle galassie.
Lo studio è disponibile sul server di preprint arXiv.
Uturuncu: oltre 250.000 anni di silenzio, ma il vulcano "parla" ancora
Nascosto tra le imponenti vette delle Ande centrali, si erge Uturuncu, un vulcano che si guadagna il soprannome inquietante di “vulcano zombie”. Nonostante un silenzio eruttivo che dura da oltre 250.000 anni, questo colosso geologico manifesta ancora segnali di attività che solitamente associamo ai vulcani attivi: sbuffi di gas che si innalzano verso il cielo e sussulti tellurici che scuotono le profondità.
Uturuncu: oltre 250.000 anni di silenzio, ma il vulcano “parla” ancora
Uturuncu si sta risvegliando?
Oltre due decenni fa, occhi elettronici nello spazio, sotto forma di radar satellitari, hanno scrutato Uturuncu, la cima più alta della Bolivia sud-occidentale. Le immagini catturate hanno rivelato un fenomeno sorprendente: una vasta area di circa 150 chilometri intorno alla sua sommità si era sollevata e poi abbassata, assumendo una peculiare forma a sombrero. Questa insolita deformazione ha acceso la curiosità degli scienziati, spingendoli a indagare più a fondo per comprendere se questi movimenti e altre attività fossero i precursori di un possibile risveglio del gigante dormiente.
Unendo le preziose informazioni fornite dai satelliti con l’analisi meticolosa dell’attività sismica e sofisticati modelli computerizzati che simulano il comportamento delle rocce sotto diverse pressioni, i ricercatori sono riusciti a ricostruire un quadro più chiaro dell'”anatomia” interna di Uturuncu e a identificare la causa della sua inaspettata irrequietezza.
Generalmente, le eruzioni vulcaniche sono innescate dalla risalita del magma che si accumula in serbatoi sotterranei chiamati camere magmatiche, per poi farsi strada verso la superficie attraverso bocche e fratture. L’esplosività di un’eruzione è spesso legata alla densità del magma: un magma più denso intrappola i gas, aumentando la pressione fino a un rilascio improvviso e violento che proietta la lava con forza.
Lo studio condotto su Uturuncu ha rivelato uno scenario diverso. Nelle profondità del vulcano non si è riscontrato il classico accumulo di magma pronto all’eruzione. Al contrario, i ricercatori hanno scoperto un’intricata interazione tra magma, gas e fluidi salati all’interno di una rete idrotermale, un sistema complesso la cui attività non è ancora completamente compresa. Proprio questa inattesa interazione sembra essere la responsabile dei “brontolii zombi” che Uturuncu manifesta, svelando un nuovo aspetto della complessa dinamica che può animare anche i vulcani apparentemente spenti.
Il Corpo Magmatico Altiplano-Puna
Nelle viscere della Terra, tra i 10 e i 20 chilometri di profondità sotto Uturuncu, pulsa un’immensa riserva di roccia fusa: il Corpo Magmatico Altiplano-Puna. Con una straordinaria estensione di circa 200 chilometri, questo colossale serbatoio magmatico rappresenta la più grande struttura attiva di questo tipo conosciuta all’interno della crosta terrestre. Precedenti indagini scientifiche avevano ipotizzato l’esistenza di un dinamico sistema idrotermale che fungeva da collegamento tra questo serbatoio profondo e la catena montuosa che lo sovrasta, ma la natura precisa dell’interazione tra il magma e i fluidi all’interno di questa complessa rete rimaneva avvolta nel mistero.
Sfruttando i segnali emessi da oltre 1.700 eventi sismici registrati tra il 2009 e il 2012, un team di scienziati ha realizzato immagini ad alta risoluzione delle stratificazioni superficiali della crosta terrestre al di sotto di Uturuncu. Sono state effettuate misurazioni delle variazioni elettriche e gravitazionali nel sottosuolo, unitamente all’analisi delle trasformazioni chimiche delle rocce. Questa sinergia di dati ha permesso di rivelare dettagli inediti del sistema di canali che si snodano sotto e all’interno del vulcano, tracciando il percorso di fluidi riscaldati dall’energia geotermica.
Le analisi hanno rivelato un processo dinamico innescato dal calore sprigionato dal corpo magmatico sottostante. Questo calore riscalda le acque sotterranee e provoca il rilascio di gas. Successivamente, questi gas e liquidi intraprendono una lenta migrazione verso l’alto, accumulandosi in cavità situate al di sotto del cratere vulcanico. Il loro movimento attraverso le intricate vie interne di Uturuncu si manifesta in superficie attraverso terremoti di modesta entità, emissioni di vapore e una graduale deformazione della roccia vulcanica, traducendosi in un innalzamento della superficie di circa un centimetro all’anno.
Le dinamiche interne di Uturuncu non solo forniscono una spiegazione plausibile per la sua persistente attività, ma suggeriscono anche uno scenario futuro in cui questo “zombie” geologico non sembra destinato a tornare in vita con una vera e propria eruzione in tempi brevi. Il dottor Mike Kendall, professore e direttore del dipartimento di scienze della Terra presso l’Università di Oxford e coautore dello studio, ha sottolineato l’assenza di segnali allarmanti.
“Non stiamo assistendo a un aumento crescente della sismicità. Un brutto segno sarebbe un aumento della sismicità, e poi una sismicità che inizia a migrare da grandi profondità a profondità molto più superficiali: di solito è un’indicazione che il magma è in movimento. Non stiamo vedendo niente del genere”, ha aggiunto Kendall, suggerendo che il vulcano stia semplicemente “degassando, sfogando vapore e calmandosi, semmai”.
Il dottor Benjamin Andrews, direttore del Global Volcanism Program presso il National Museum of Natural History dello Smithsonian Institution di Washington, DC, ha evidenziato il ruolo cruciale dell’integrazione di diverse tecniche scientifiche per ottenere una comprensione approfondita della struttura del sottosuolo di Uturuncu. Secondo Andrews, l’analisi isolata dell’attività sismica, della chimica delle rocce o delle proprietà fisiche “darebbe risultati interessanti ma alquanto ambigui”.
È la combinazione di questi metodi che ha permesso di identificare un sistema idrotermale, piuttosto che un’imminente risalita di magma, come la causa principale dell’attività di Uturuncu, fornendo una preziosa istantanea dell’interazione complessa tra magma, roccia e fluidi nelle profondità dei vulcani. Questa ricerca, ha concluso Andrews, riveste un’importanza fondamentale per la comprensione non solo dei vulcani, ma anche delle rocce granitiche, dei giacimenti minerari e dei processi di formazione della crosta continentale, sottolineando come alcuni vulcani possano manifestare una notevole attività “ma non necessariamente essere pronti per un’eruzione”.
Una cinquantina di enigmi geologici sparsi per il globo
Nel corso degli anni, l’attento lavoro del Global Volcanism Program ha portato all’identificazione di circa cinquanta vulcani “zombie”, giganti geologici che, pur mostrando un’età compresa tra i 12.000 e i 2,6 milioni di anni, continuano a manifestare flebili segnali di attività. Come spiega il dottor Matthew Pritchard, professore di geofisica alla Cornell University di New York e coautore dello studio, queste manifestazioni si traducono “per lo più in caratteristiche geotermiche come sorgenti termali e fumarole (aperture da cui fuoriescono gas caldi)”.
Poiché Uturuncu rappresenta uno dei numerosi vulcani “zombie” attentamente monitorati dagli scienziati in diverse parti del mondo, le nuove scoperte relative alle sue dinamiche interne potrebbero fornire indizi cruciali per distinguere quali tra questi colossi dormienti potrebbero rappresentare un potenziale rischio di eruzione. Alcuni vulcani “zombie” presentano temperature superficiali elevate e sono già oggetto di interesse per lo sfruttamento dell’energia geotermica e per la presenza di giacimenti minerari. Tuttavia, come sottolinea Pritchard, “molti sono pronti per ulteriori indagini”.
Il futuro di questi vulcani “zombie” rimane incerto. “Alcuni potrebbero essere in un lungo e lento declino, semplicemente raffreddandosi dopo i precedenti periodi più caldi. Altri potrebbero alla fine registrare un aumento dell’attività“, afferma Pritchard. “Ma non sappiamo ancora come distinguerli“. Esaminare con attenzione le intricate reti di condotti interni di un vulcano potrebbe rivelare promettenti giacimenti sfruttabili per l’energia geotermica e l’accesso a metalli essenziali per le moderne tecnologie, come rame, nichel e platino, aggiunge il dottor Kendall. Inoltre, questa combinazione di metodi di indagine potrebbe rivelarsi preziosa per analizzare qualsiasi tipo di vulcano, non limitandosi esclusivamente a quelli classificati come “zombie“.
“È un ottimo modo per comprendere meglio l’anatomia di un vulcano e il suo stadio di sviluppo“, conclude Kendall. “È molto importante per la valutazione del rischio e della pericolosità“. In definitiva, decifrare i segreti dei vulcani “zombie” non solo amplia la nostra conoscenza dei processi geologici profondi, ma fornisce anche strumenti cruciali per la previsione e la gestione dei rischi vulcanici a livello globale.
Se ci fosse una distorsione temporale, come la troverebbero i fisici?
Potrebbe sembrare fantascienza, ma gli scienziati hanno già rilevato una distorsione temporale. Ma cosa significa questo? Fondamentalmente, una distorsione temporale è un fenomeno che modifica il flusso del tempo accelerandolo o facendolo scorrere più lentamente.
I fisici conoscono le distorsioni temporali da oltre 100 anni: in effetti, ci troviamo in una sorta di distorsione temporale proprio ora.
Nel 1905, Albert Einstein pubblicò la sua teoria della relatività speciale, seguita dieci anni dopo dalla teoria sulla relatività generale, in cui affermava che la gravità è una proprietà della curvatura dello spazio e del tempo, il tessuto del nostro universo. Di conseguenza, tutto ciò che ha massa può deformare il tempo.
Naturalmente, le cose più grandi deformano meglio il tempo. Con masse miliardi di volte più grandi del Sole, i buchi neri hanno molto peso, il che si traduce in un grande potenziale di distorsione temporale. Se dovessimo avvicinarci a un buco nero, la gravità dell’oggetto dilatarebbe il tempo, facendo accadere le cose molto più lentamente di quanto farebbero se confrontate con un osservatore esterno. Tuttavia, un buco nero non sarebbe una buona macchina del tempo se volessimo fare un viaggio di ritorno: dopo aver superato un certo punto chiamato orizzonte degli eventi, tutto ciò che portiamo con noi non potrete mai tornare indietro. Nemmeno la luce (da qui il nome buco nero).
Il Sole e la Terra possono anche dilatare il tempo su scale notevoli. Nel 2007, un satellite della NASA noto come Gravity Probe B ha confermato la relatività generale con una precisione del 99% osservando come la Terra distorce lo spazio attorno ad essa. Come ulteriore esempio, se vivessimo sulla cima di un’alta montagna, invecchieremmo più velocemente rispetto alle persone in riva al mare, dove l’attrazione della gravità è più forte, il che significa che il tempo scorre più lentamente. Anche se, a essere onesti, il l’invecchiamento accelerato avverrebbe a un ritmo assolutamente impercettibile.
La dilatazione del tempo può essere ottenuta anche muovendosi velocemente. Secondo la relatività speciale, muoversi più velocemente può causare un rallentamento del tempo rispetto a un punto di vista stazionario. Questa volta la deformazione dovuta alla velocità e alla gravità si manifesta nella nostra vita quotidiana ogni volta che utilizziamo il GPS sui nostri telefoni per trovare la nostra posizione.
“I satelliti GPS funzionano avendo orologi super precisi a bordo del satellite”, ha dichiarato Ken Olum, professore presso il Tufts University Institute of Cosmology di Medford, Massachusetts. “Gli orologi sui satelliti funzionano a velocità diverse, a seconda della distanza dalla Terra. Inoltre funzionano a velocità diverse a seconda del movimento del satellite. Affinché il GPS possa segnalare con precisione la tua posizione, i satelliti devono tenere conto della relatività generale e speciale quando calcolano l’ora”.
Ovviamente, oggetti massicci che deformano il tempo non sono esattamente il tipo di viaggio nel tempo di cui gli autori di fantascienza amano scrivere. Quindi, ci sono altri modi per distorcere il tempo? Beh, forse, ma non è probabile.
“Il consenso generale è che queste soluzioni davvero bizzarre della relatività generale che includono le macchine del tempo sono quasi certamente impossibili nell’universo reale”, ha affermato Benjamin Shlaer, ricercatore di fisica presso l’Università di Auckland in Nuova Zelanda.
Ma ci sono alcune opzioni. L’improbabile opzione numero uno è un wormhole, un ponte teorico attraverso il quale la materia e la luce potrebbero passare e creato dalla curvatura dello spazio. Sebbene alcune teorie prevedano che esistessero a livelli microscopici nell’universo primordiale, hanno anche scoperto che questi wormhole erano probabilmente instabili e sarebbero collassati rapidamente.
Affinché un wormhole possa effettivamente funzionare per i viaggi nel tempo, dovrebbe esserci qualche tipo di materia esotica. Per stabilizzare il wormhole, la teoria richiede che questo tipo di materia esotica – una forma sconosciuta di materia fondamentalmente diversa da quella che costituisce tutto ciò che ci circonda – dovrebbe avere massa e pressione negative, qualcosa che gli scienziati non hanno mai visto, né si aspettano di trovare in qualsiasi momento.
La seconda opzione riguarda le stringhe cosmiche. Le stringhe cosmiche sono ipotetici tubi di energia che, se esistessero, sarebbero estremamente piccole. La teoria prevede che due stringhe che sfrecciano l’una accanto all’altra potrebbero alterare il tempo in modi strani, come creare curve chiuse nello spazio-tempo che potrebbero agire come macchine del tempo. Tuttavia, avremmo bisogno di una quantità infinita di energia per accelerare queste corde abbastanza da vedere questo effetto.
Se c’è qualche speranza di trovare materia esotica o distorsioni temporali in futuro, molto probabilmente saranno trovate attraverso la cosmologia osservativa, che potrebbe arrivare come nuove, inaspettate scoperte, sostiene Shlaer.
“È abbastanza chiaro che tutte le nostre cosiddette ipotesi sicure su ciò che esiste realmente probabilmente non sono vere se si vanno a regimi estremi”, ha affermato Shlaer. “E potremmo sperare che queste siano domande che possiamo porre e a cui possiamo rispondere nel campo della cosmologia”, ha concluso.
Davvero il tempo scorreva più lentamente nell'Universo primordiale?
Non importa dove o quando ti trovi nello spaziotempo, sperimenti sempre le stesse leggi della fisica. Le costanti fondamentali rimangono costanti nello spazio e nel tempo, così come le nostre nozioni di massa, distanza e durata.
I righelli, o qualsiasi metro fatto di atomi, avranno sempre la stessa lunghezza, e gli orologi, o qualsiasi dispositivo fatto per misurare il tempo, mostreranno sempre che passa alla stessa velocità universale per tutti gli osservatori: un secondo al secondo. Non ci sono mai eccezioni a questo, né secondo le leggi della teoria quantistica, né secondo la teoria generale della relatività di Einstein.
Qui l’unica opzione è separare i fatti dalla finzione. Analizziamo ciò che sta realmente accadendo con gli orologi, il tempo e l’universo in espansione.
Tempo nell’Universo
Uno dei più grandi progressi nella nostra comprensione della fisica è arrivato quando Einstein ha presentato la relatività: l’idea che quantità come il tempo e lo spazio non sono assolute in alcun senso, ma piuttosto sono specifiche per ogni singolo osservatore.
A seconda di dove e quando ti trovi, oltre che di come ti muovi, potresti avere una percezione diversa di quanto sono distanti due oggetti (distanza) o di quanto tempo impiegano (tempo) per arrivare due diversi segnali. A differenza dell’idea newtoniana in cui lo spazio era come una griglia cartesiana e il tempo era un assoluto, il lavoro di Einstein ci ha mostrato che ogni osservatore ha un’esperienza unica di cosa sono lo spazio e il tempo.
Tuttavia, comprendendo correttamente le leggi della relatività, possiamo “trasformare” da ciò che sperimenta qualsiasi osservatore in qualsiasi parte dell’Universo a come qualsiasi altro osservatore vedrà distanze e durate. Per te, non importa dove o quando ti trovi, fintanto che sei in quello che chiamiamo un sistema di riferimento inerziale (cioè, non stai accelerando a causa di una spinta, una forza esterna o qualcosa di diverso dalla curvatura dello spaziotempo), sperimenterai le distanze come corrette (dove un metro fatto di atomi misura 1 metro con qualsiasi orientamento) e anche il tempo come corretto (dove un secondo sul tuo orologio significa che è passato un secondo di realtà sperimentata).
In altre parole, mentre tutti sperimentano le stesse leggi della fisica per se stessi, possono vedere le lunghezze come “contratte” o il tempo come “dilatato” per altri osservatori, in funzione della curvatura, dell’evoluzione dello spaziotempo e dei moti relativi dell’osservatore e del osservato.
Un orologio luminoso, formato da un fotone che rimbalza tra due specchi, definirà il tempo per qualsiasi osservatore. Anche se i due osservatori potrebbero non essere d’accordo tra loro su quanto tempo sta trascorrendo, saranno d’accordo sulle leggi della fisica e sulle costanti dell’Universo, come la velocità della luce. Quando la relatività viene applicata correttamente, le loro misure saranno equivalenti tra loro. ( Credito : John D. Norton/Università di Pittsburgh)
Segnali nell’Universo in espansione
Una delle scoperte più sorprendenti degli ultimi 100 anni è avvenuta negli anni ’20 e all’inizio degli anni ’30: quando abbiamo stabilito che più un oggetto cosmico è lontano da noi, più la sua luce sembra essere spostata verso lunghezze d’onda sempre più lunghe. La spiegazione sottostante è che, nel contesto della teoria della relatività generale di Einstein, il tessuto dello spaziotempo non può essere una struttura statica se è uniformemente riempito di materia ed energia, ma deve piuttosto espandersi o contrarsi. Poiché i dati indicano l’espansione, allora si espande.
Questa consapevolezza alla fine ha portato all’immagine moderna di ciò che chiamiamo l’origine del Big Bang del nostro Universo: che le cose sono iniziate calde, dense e uniformi e da lì si sono evolute. Col passare del tempo, si sono verificate le seguenti cose:
l’Universo si espande,
le masse gravitano,
la distanza tra gli oggetti (non legati) aumenta,
la radiazione ha la sua lunghezza d’onda spostata verso il rosso verso lunghezze d’onda maggiori,
l’universo si raffredda,
e alla fine, nel tempo, questo porta alla complessa rete cosmica della struttura che osserviamo oggi.
Mentre guardiamo a distanze sempre maggiori, tuttavia, dobbiamo tenere presente che stiamo vedendo l’Universo com’era molto tempo fa: più vicino nel tempo ai primi momenti del caldo Big Bang. In quelle epoche precedenti, le costanti fondamentali avevano ancora gli stessi valori, le forze e le interazioni avevano ancora le stesse forze, le particelle elementari e composite avevano ancora le stesse proprietà e gli atomi legati in una configurazione lunga 1 metro ammontavano ancora a un dimensione di un metro. Inoltre, il tempo passava ancora alla stessa velocità di sempre: un secondo al secondo.
Ma la luce che vediamo da quegli oggetti, quando arriva ai nostri occhi, ha viaggiato per molto tempo attraverso l’Universo in espansione. La luce, così come la vediamo, non è più identica alla luce emessa dall’oggetto tanto tempo fa. Man mano che l’Universo si espande, non solo il tessuto dello spazio stesso si “allunga” in un certo senso, ma anche i segnali che lo attraversano si allungano. Ciò dovrebbe includere i segnali di ogni quanto di energia che attraversa quello spazio, inclusa la luce, le onde gravitazionali e persino le particelle massicce.
Questa animazione semplificata mostra come la luce si sposta verso il rosso e come le distanze tra gli oggetti non legati cambiano nel tempo nell’Universo in espansione. Si noti che gli oggetti iniziano più vicini del tempo necessario alla luce per viaggiare tra di loro, la luce si sposta verso il rosso a causa dell’espansione dello spazio e le due galassie finiscono molto più distanti rispetto al percorso di viaggio della luce intrapreso dal fotone scambiato fra loro. ( Credito : Rob Knop)
Cosa viene “allungato” dall’Universo in espansione?
Il segnale che vediamo, in molti modi, non è più lo stesso del segnale emesso tanto tempo fa nel lontano Universo. Ci sono una serie di effetti che l’Universo in espansione ha su ciò che un osservatore alla fine vede.
In analogia con lo spostamento Doppler, visibile in tutti i tipi di onde in cui la sorgente emittente e l’osservatore sono in movimento l’uno rispetto all’altro, assistiamo anche a un redshift cosmologico dovuto all’espansione dell’Universo. La luce, quando viene emessa, ha una specifica lunghezza d’onda, ma mentre viaggia attraverso l’Universo:
Potrebbe affondare più profondamente in un pozzo potenziale gravitazionale, diventando più energica e spostata verso il blu, oppure potrebbe uscire da un pozzo potenziale gravitazionale, diventando meno energetica e spostata verso il rosso.
Potrebbe essere osservata da qualcuno che si muove verso la sorgente emittente, il che farebbe apparire quella luce più energetica e spostata verso il blu, oppure potrebbe essere osservata da qualcuno che si allontana dalla sorgente, il che fa apparire quella luce meno energetica e spostata verso il rosso.
E potrebbe essere osservata da qualcuno lontano attraverso le grandi distanze cosmiche, dove quella luce verrebbe spostata verso il blu da un Universo in contrazione, o dove verrebbe spostata verso il rosso da un Universo in espansione.
Quando un pallone si gonfia, tutte le monete incollate sulla sua superficie sembreranno allontanarsi l’una dall’altra, con le monete “più distanti” che si allontanano più rapidamente di quelle meno distanti. Qualsiasi luce si sposterà verso il rosso, poiché la sua lunghezza d’onda si “allunga” a valori più lunghi man mano che il tessuto del pallone si espande. Questa visualizzazione spiega solidamente il redshift cosmologico. ( Credito : E. Siegel/Oltre la Galassia)
Dal momento che siamo abbastanza certi che il nostro Universo si sta espandendo, ciò significa che la luce viene spostata verso il rosso, o spostata verso lunghezze d’onda maggiori ed energie inferiori, man mano che l’Universo si espande. Inoltre, maggiore è la quantità di espansione cumulativa dell’Universo nell’intervallo in cui quella luce si è propagata attraverso l’Universo dall’emettitore all’osservatore, maggiore è l’entità dello spostamento verso il rosso osservato.
Questo non si applica solo alla luce. Anche un’onda gravitazionale emessa da qualsiasi fonte, dalla fusione dei buchi neri ai pianeti in orbita attorno alle stelle a qualsiasi massa che si muove nelle vicinanze dello spazio che è curvato da un’altra massa, sarà spostata verso il rosso e allungata a lunghezze d’onda maggiori man mano che l’Universo si espande.
Anche le particelle massicce, cariche o neutre, perderanno energia cinetica man mano che l’Universo si espande. Puoi recuperare previsioni identiche per quanta energia usano trattando l’espansione come un effetto sulla velocità relativa della particella o considerando la doppia natura onda/particella della particella in movimento e notando che anche la sua lunghezza d’onda viene spostata verso il rosso dall’Universo in espansione.
Indipendentemente da come la guardi, la lunghezza d’onda di qualsiasi onda che si propaga attraverso l’Universo in espansione si allunga mentre si allunga anche il tessuto dello spazio, e più l’Universo si espande mentre queste onde si propagano, maggiore è l’entità di questo effetto.
Ma pensa a questo per un momento: se questi segnali si stanno spostando verso il rosso, cosa sta succedendo loro?
Fisicamente, è come se si stessero “allungando“. Ogni quanto di luce ha una lunghezza d’onda specifica quando viene emesso, e in ogni secondo che passa, viene emesso un certo numero di onde complete di quella lunghezza d’onda.
Quando l’Universo si sarà espanso di un fattore due, la distanza tra ogni successiva “cresta” o “depressione” di queste onde sarà raddoppiata. Ciò corrisponde a ciò che osserviamo come oggetti a un “redshift di z=1“, dove la lunghezza d’onda di ogni quanto di luce che osserviamo è stata allungata di una quantità pari alla sua lunghezza d’onda originale.
Considerando che la sorgente che ha emesso quella luce avrebbe visto, diciamo, 600.000.000.000.000 (seicento trilioni) lunghezze d’onda di quella luce passarle accanto con ogni secondo che passava (per una luce di una lunghezza d’onda di 500 nanometri), la persona che osserva quella luce ora vedrà solo metà di quel numero (trecento trilioni) di lunghezze d’onda che le passano accanto ogni secondo che passa. Sì, la luce ora ha una lunghezza d’onda maggiore (di 1000 nanometri), ma ci vogliono anche due secondi perché le stesse informazioni emesse nell’arco di un secondo arrivino all’osservatore.
In altre parole, l’Universo in espansione non provoca solo un redshift cosmologico e un “allungamento” del segnale emesso in termini di lunghezze d’onda, ma provoca anche una dilatazione del tempo cosmologico: un “allungamento” del segnale emesso nel tempo. Ciò significa che, quando guardiamo oggetti molto lontani, non li stiamo osservando in “tempo reale” ma piuttosto al rallentatore a causa di questa dilatazione temporale cosmologica. La formula è molto semplice: lo stesso “fattore” in base al quale i tuoi segnali vengono spostati verso il rosso è il “fattore” in base al quale i tuoi segnali appaiono rallentati quando li visualizzi.
Non è che gli orologi funzionassero più lentamente nell’Universo primordiale; non è affatto vero. Quello che è vero, invece, è che l’Universo in espansione fa apparire “disteso” nel tempo il segnale che osserviamo, e questo vale per tutti i segnali che vediamo dall’Universo lontano.
Lo vediamo per le supernove lontane, come misurato dalle loro curve di luce: il tempo che impiega dalla detonazione iniziale fino a raggiungere il suo picco di luminosità, e poi per calare di nuovo e svanire.
Lo vediamo anche per le onde gravitazionali, poiché le onde gravitazionali che arrivano da fusioni di buchi neri più distanti hanno i loro tempi di inspirazione “allungati” dall’espansione dell’Universo.
E lo vediamo anche nelle fluttuazioni di temperatura impresse nel fondo cosmico a microonde, poiché queste fluttuazioni devono variare nel tempo, ma quella variabilità è “allungata” nel tempo di più di un fattore 1000, spiegando perché dobbiamo ancora osservare i “punti caldi” e “punti freddi” che cambiano nel periodo di circa 30 anni in cui li abbiamo osservati.
La visione più completa del fondo cosmico a microonde, che è la luce più antica osservabile nell’Universo, ci mostra un’istantanea di com’era il cosmo appena 380.000 anni dopo l’inizio del caldo Big Bang. Anche se lo schema di questi punti “caldi” e “freddi” dovrebbe cambiare su scale temporali di poche centinaia di anni, la dilatazione del tempo cosmico di oltre un fattore 1000 ha finora reso questo cambiamento impercettibile sulle scale temporali umane. ( Credito : Collaborazione ESA/Planck)
Cosa ci insegna effettivamente la nuova scoperta del “ticchettio del quasar”?
Il 3 luglio 2023, gli scienziati Geraint Lewis e Brendon Brewerhanno pubblicato un articolo su Nature Astronomy che affermava di rilevare questa dilatazione del tempo dipendente dal redshift nel “ticchettio” dei quasar. Sebbene non siano orologi cosmici particolarmente buoni come lo sono le pulsar a millisecondi, sono orologi abbastanza buoni che, con un campione abbastanza ampio di quasar, dovremmo essere in grado di rilevare una dipendenza dal redshift ai segnali che emettono.
A differenza di studi precedenti che affermavano di non vedere tale segnale e affermavano di mettere in dubbio l’interpretazione dei quasar come oggetti cosmici all’interno dell’Universo in espansione, questo studio ha messo a tacere quelle affermazioni precedenti, dimostrando che i quasar mostrano davvero questa dilatazione del tempo cosmico. In altre parole, una delle cose che questo studio ci insegna è che i quasar sono davvero oggetti cosmici e mostrano una dilatazione del tempo cosmico, proprio come qualsiasi altra cosa.
Ma dal momento che possiamo osservare i quasar oltre la massima distanza alla quale abbiamo mai osservato una singola supernova, ciò stabilisce anche un nuovo record di distanza cosmica per la dilatazione del tempo cosmologico osservata per ogni singolo oggetto!
L’ibrido quasar-galassia GNz7q è qui visto come un punto rosso al centro dell’immagine, arrossato a causa dell’espansione dell’Universo e della sua grande distanza da noi. Sebbene sia stato esposto nel campo GOODS-N per oltre 13 anni, è stato contrassegnato come oggetto di interesse solo nel 2022, poiché il suo spettro rivela proprietà sia della galassia che del quasar. Uno dei quasar più distanti mai osservati, la sua luce sembra dilatarsi non solo nella lunghezza d’onda, ma anche nel tempo . ( Crediti : NASA, ESA, Garth Illingworth (UC Santa Cruz), Pascal Oesch (UC Santa Cruz, Yale), Rychard Bouwens (LEI), I. Labbe (LEI), Cosmic Dawn Center/Niels Bohr Institute/University of Copenhagen, Danimarca)
Sfortunatamente, molte delle persone che hanno letto questo studio hanno diffuso un messaggio sbagliato: ora credono (erroneamente) che il tempo scorresse più lentamente di quanto non faccia oggi nell’Universo primordiale.
Non è vero!
Quello che succede è che il tempo scorre alla stessa velocità in tutte le epoche della storia dell’Universo, ma che mentre l’Universo si espande, qualsiasi segnale che viene creato viene “allungato”. Questo “allungamento” avviene non solo in termini di lunghezza d’onda ed energia (cinetica), ma anche nel tempo.
È stato ora dimostrato che la dilatazione del tempo si applica in tre casi separati.
Quando due oggetti si incrociano ad alta velocità, ognuno vede l’altro con i propri orologi dilatati, e il tempo sembra scorrere più lentamente per l’altro, anche se ciascuno lo percepisce come normale.
Quando due oggetti si trovano in campi gravitazionali diversi, quello che è immerso nel campo più profondo sperimenta il tempo che passa più lentamente di quello in un campo meno profondo e, di conseguenza, la tua testa invecchia più velocemente dei tuoi piedi quando ti trovi sulla Terra.
E cosmologicamente, quando un osservatore locale vede un segnale emesso da un oggetto attraverso l’Universo distante, l’espansione dell’Universo allungherà sia la lunghezza d’onda di quel segnale sia il tempo di osservazione.
Questo è tutto; è la dilatazione del tempo che allunga i segnali provenienti da quasar distanti, niente di più. Ma il tempo stesso passa sempre alla stessa velocità per un osservatore ovunque nell’Universo: allora, ora e per sempre.
La sonda Resilience, frutto dell’ingegneria della società ispace con sede a Tokyo, ha compiuto con successo l’ingresso nell’orbita lunare martedì 6 maggio, mantenendo la tabella di marcia prevista per un tentativo di allunaggio che si preannuncia storico e programmato tra un mese.
Dichiarazioni del CEO di ispace e prossime fasi della missione
Takeshi Hakamada, fondatore e CEO di ispace, ha espresso la sua soddisfazione in una nota ufficiale: “Siamo estremamente lieti che il lander Resilience abbia raggiunto con successo l’orbita lunare come previsto oggi. Continueremo a procedere con operazioni accurate e preparativi approfonditi per garantire il successo dell’allunaggio“. Queste parole sottolineano l’impegno e la meticolosità del team di ispace nelle fasi cruciali che precedono la discesa sulla superficie lunare.
La sonda Resilience era stata lanciata il 15 gennaio a bordo di un razzo SpaceX Falcon 9, condividendo il viaggio inaugurale con un altro lander lunare privato, il Blue Ghost, sviluppato e gestito dalla compagnia texana Firefly Aerospace. Tuttavia, le due sonde hanno intrapreso rotte distinte verso la Luna. Blue Ghost ha optato per una traiettoria più diretta, raggiungendo l’orbita lunare già il 13 febbraio e concludendo la sua missione con un atterraggio sulla Terra il 2 marzo.
Questo evento ha segnato un traguardo significativo, con Blue Ghost che è diventato il secondo lander privato a effettuare un atterraggio morbido sulla Luna, dopo la sonda Odysseus di Intuitive Machines nel febbraio 2024. Resilience, al contrario, ha scelto un percorso più lungo e a basso consumo energetico, che ha incluso un sorvolo ravvicinato della Luna il 14 febbraio. Questa strategia evidenzia le diverse filosofie di missione e le priorità in termini di ottimizzazione del carburante e di durata del viaggio spaziale.
Obiettivo allunaggio nel mare Frigoris
Se le operazioni procederanno senza intoppi, il lander Resilience, sviluppato dalla società con sede a Tokyo ispace, dovrebbe effettuare il suo allunaggio il 5 giugno. Il sito designato per questo storico tentativo è il Mare Frigoris, una vasta pianura basaltica situata nell’emisfero settentrionale della Luna, il cui nome latino significa “Mare del Freddo“.
Un atterraggio riuscito rappresenterebbe il secondo successo di questo tipo per il Giappone. Precedentemente, l’agenzia spaziale nazionale giapponese aveva lanciato la sonda SLIM, acronimo di “Smart Lander for Investigating Moon”, nel gennaio del 2024, dimostrando la crescente competenza del paese nell’esplorazione lunare.
A bordo sono presenti cinque carichi utili di natura scientifica e tecnologica. Tra questi spicca un rover in miniatura denominato Tenacious, realizzato dalla filiale lussemburghese di ispace. Tenacious avrà il compito di raccogliere materiale lunare in base a un contratto stipulato con la NASA, segnando un’importante collaborazione internazionale per l’analisi del suolo lunare. Il piccolo rover trasporta a sua volta un carico utile singolare: “Moonhouse”, un progetto artistico ideato da Mikael Genberg. Questa installazione è stata posizionata sul paraurti anteriore di Tenacious, aggiungendo una dimensione culturale e artistica alla missione scientifica.
Il tentativo di allunaggio previsto per il 5 giugno rappresenta il secondo sforzo di ispace per raggiungere la superficie lunare, un obiettivo che la compagnia persegue con l’intento di contribuire all’apertura della Luna a ulteriori esplorazioni e alla potenziale utilizzazione delle sue risorse. Il primo lander lunare dell’azienda aveva raggiunto con successo l’orbita lunare nel marzo del 2023, ma aveva incontrato difficoltà durante la fase di atterraggio nell’aprile dello stesso anno. Questo nuovo tentativo testimonia la determinazione di ispace nel superare le sfide tecniche e nel perseguire la sua visione di un futuro lunare accessibile.
Resilience: design e struttura ottimizzati
La sonda Resilience, sviluppata da ispace, presenta un design e una struttura che sono stati meticolosamente ottimizzati per garantire un peso contenuto, dimensioni compatte e un’elevata affidabilità, elementi cruciali per il successo della prima missione commerciale di allunaggio. La lander della Serie 1, su cui si basa Resilience, si erge a circa 2.3 metri di altezza e presenta un ingombro di 2.6 x 2.6 metri grazie ai suoi quattro piedi di atterraggio. La massa a secco della sonda è di 340 kg, con un corpo principale di forma prismatica ottagonale alto 1.64 metri e con un diametro massimo di circa 1.6 metri.
Per le manovre di atterraggio è equipaggiata con un motore principale e sei propulsori ausiliari che consentono un controllo preciso durante la discesa sulla superficie lunare. L’energia necessaria per il funzionamento dei sistemi di bordo è fornita da pannelli solari montati sul corpo della sonda, capaci di generare una potenza di picco di 350 W, che caricano una batteria agli ioni di litio. Le comunicazioni con la Terra avvengono tramite banda X, sia per l’invio di comandi (uplink) che per la ricezione di dati (downlink).
La missione di Resilience prevede il trasporto di cinque carichi utili scientifici e tecnologici. Uno dei principali è il micro-rover Tenacious, sviluppato dalla filiale europea di ispace in Lussemburgo. Questo rover esplorerà l’area circostante al sito di atterraggio, raccoglierà regolite lunare e trasmetterà i dati raccolti al lander. È dotato di una telecamera HD frontale e di una pala per la raccolta dei campioni. Un ulteriore carico utile trasportato dal rover è “Moonhouse”, una piccola casa modello realizzata dall’artista svedese Mikael Genberg, installata sul paraurti anteriore di Tenacious.
La sonda Resilience funge anche da artefatto culturale, trasportando un disco di memoria dell’UNESCO che preserva la diversità linguistica e culturale del nostro pianeta. Altri carichi utili includono apparecchiature per l’elettrolisi dell’acqua, un modulo autonomo per esperimenti di produzione alimentare a base di alghe e una sonda per la misurazione delle radiazioni nel Deep Space.
Per maggiori informazioni visita il sito ufficiale di ispace.
Come spesso ammoniva Al Gore, la sfida più ardua nel dibattito sul cambiamento climatico non risiede nell’ignoranza, bensì nella tenacia di credenze che, pur radicate, si rivelano fallaci. Due recenti indagini scientifiche gettano nuova luce sulla intrinseca complessità del sistema climatico terrestre, rammentando l’urgenza di adottare strategie energetiche e climatiche improntate al pragmatismo e alla cautela.
La complessità del sistema climatico terrestre: oltre le certezze apparenti
Uno di questi studi, condotto da un team di ricercatori della Tongji University in Cina, ha portato alla luce un’inattesa inversione di tendenza nella dinamica della calotta glaciale antartica. Dopo anni caratterizzati da una progressiva riduzione della massa glaciale, l’Antartide ha registrato un “sorprendente cambiamento“, manifestatosi con un accumulo di ghiaccio che ha raggiunto livelli record.
Questa scoperta si basa su misurazioni di elevata precisione della massa di ghiaccio antartico, ottenute grazie alla costellazione di satelliti GRACE (Gravity Recovery and Climate Experiment) della NASA. A partire dal lancio del primo satellite GRACE nel 2002, l’Antartide aveva mostrato una costante diminuzione della massa totale dei suoi ghiacciai. Tuttavia, la nuova ricerca ha identificato un’inversione di questa tendenza nel periodo compreso tra il 2021 e il 2023.
Lo scioglimento dei ghiacci antartici rappresenta un fattore significativo che contribuisce all’innalzamento del livello globale del mare. Pertanto, un’inversione di tendenza in questo processo avrebbe l’effetto di rallentarne la progressione.
Acquisire una comprensione approfondita delle dinamiche che regolano le masse di ghiaccio in Antartide riveste un’importanza cruciale per elaborare modelli climatici più accurati e per prevedere le future variazioni del livello del mare. Sebbene la recente variazione osservata in Antartide incida solo marginalmente sulla perdita complessiva di ghiaccio registrata a partire dal 2022, essa costituisce comunque un fenomeno inatteso che merita ulteriori approfondimenti.
Un secondo studio, attualmente in fase di revisione paritaria e disponibile come pre-stampa, segnala un cambiamento analogo che si sta verificando all’estremità opposta del pianeta. Questa concordanza di fenomeni suggerisce una complessità ancora maggiore nei meccanismi che governano il sistema climatico globale, evidenziando la necessità di un approccio scientifico rigoroso e di politiche energetiche e climatiche fondate su dati empirici solidi e su una comprensione dinamica delle interazioni climatiche.
Un inatteso rallentamento nella perdita di ghiaccio marino artico
Un recente studio condotto da ricercatori statunitensi e britannici ha evidenziato un fenomeno inatteso e significativo: la perdita di copertura di ghiaccio marino artico ha subito un netto rallentamento nel corso degli ultimi due decenni, un andamento riscontrato in tutti i mesi dell’anno. Questa osservazione sfida le proiezioni lineari e sottolinea la complessità intrinseca del sistema climatico globale.
Secondo gli autori della ricerca, questa “pausa” nel declino del ghiaccio marino artico potrebbe protrarsi per diversi decenni. Tale previsione, basata sull’analisi di dati e modelli climatici, introduce un elemento di incertezza nelle stime a lungo termine sulla scomparsa dei ghiacci polari e sulle sue conseguenze sull’ecosistema artico e sul clima globale.
I risultati di questo studio, unitamente alle sorprendenti dinamiche osservate nella calotta glaciale antartica, rammentano con forza che il sistema climatico globale si configura come un’entità intrinsecamente imprevedibile, capace di evoluzioni che smentiscono aspettative semplicistiche di un cambiamento unidirezionale e lineare. Queste scoperte invitano a una maggiore cautela nell’elaborazione di previsioni climatiche definitive
Nel 2009, l’allora senatore John Kerry lanciò un allarme, prevedendo che l’Oceano Artico sarebbe stato libero dai ghiacci entro il 2013, sostenendo che la scienza indicava una finestra temporale decennale, se non inferiore, prima che un cambiamento climatico catastrofico divenisse inevitabile e irreversibile. A sei anni dalla scadenza di quella “finestra temporale“, pur in un contesto di continuo riscaldamento globale dovuto principalmente alla combustione di combustibili fossili, gli scenari catastrofici paventati non si sono concretizzati.
Questo episodio dovrebbe indurre i fautori del dibattito sul clima a riflettere sulle conseguenze di allarmismi basati su affermazioni estreme, che rischiano di generare scetticismo qualora le apocalissi annunciate non si verifichino nei tempi previsti. D’altro canto, studi come i sorprendenti articoli sui ghiacci polari, pur rivelando le intricate complessità del clima terrestre, non inficiano la realtà e la serietà del cambiamento climatico in atto. È fondamentale distinguere tra la variabilità naturale del sistema climatico e le tendenze a lungo termine indotte dalle attività umane.
Attualmente, i decisori politici sembrano orientarsi verso un approccio di realismo energetico, abbandonando una corsa miope verso l’azzeramento netto a qualsiasi costo. Questo ritrovato pragmatismo dovrebbe tuttavia abbracciare con determinazione la decarbonizzazione dell’economia, unitamente alla riduzione dei costi energetici, all’ampliamento dell’accesso globale all’energia e alla garanzia di forniture energetiche sicure e affidabili. La coesistenza di questi molteplici obiettivi non è sempre agevole, il che rende la politica energetica una sfida complessa.
È ormai accertato che le attività umane esercitano un’influenza significativa sul sistema climatico attraverso diverse modalità: non solo tramite le emissioni di gas serra, ma anche attraverso la gestione del territorio, l’inquinamento atmosferico e le dinamiche della vegetazione. Comprendere appieno queste interazioni complesse è cruciale per elaborare strategie di mitigazione e adattamento efficaci.
La sfida della gestione del rischio climatico
Sebbene l’effetto netto dei cambiamenti climatici su scala planetaria si traduca in un riscaldamento del sistema terrestre, la previsione delle conseguenze a livello regionale e locale si presenta come una sfida notevolmente più complessa. Le intrinseche incertezze scientifiche impongono un approccio all’adattamento alla variabilità e al cambiamento climatico che si configuri come una gestione del rischio, nel tentativo di bilanciare obiettivi spesso contrastanti tra loro.
Fortunatamente, una politica energetica improntata al pragmatismo offre diverse opportunità concrete. L’espansione dell’energia nucleare, in quanto fonte a basse emissioni di carbonio, e l’accelerazione della dismissione delle centrali a carbone, notoriamente inquinanti, rappresentano validi punti di partenza per una transizione energetica responsabile e sostenibile.
La storia del nostro pianeta insegna che il clima può subire variazioni improvvise e significative, con profonde ripercussioni sulle società umane. Ad esempio, nel corso degli anni ’70 del XIX secolo, si verificò una vasta gamma di eventi climatici estremi a livello globale che, secondo alcune stime, contribuirono alla morte di una porzione considerevole della popolazione mondiale, quantificabile intorno al 4%.
Più recentemente, gli eventi climatici estremi che caratterizzarono gli anni ’70 del XX secolo diedero impulso alla creazione di numerosi nuovi programmi governativi negli Stati Uniti, focalizzati sul monitoraggio e sulla ricerca del clima, come la National Oceanic and Atmospheric Administration (NOAA). Tali sforzi rivestono un’importanza fondamentale, poiché i risultati della ricerca scientifica non sono sempre prevedibili. Se la scienza potesse anticipare ogni esito, la raccolta di dati e l’indagine scientifica perderebbero la loro ragione d’essere.
Il sistema climatico globale continua a riservarci potenziali sorprese. Ignorare queste incertezze e la possibilità di eventi inattesi rappresenta un rischio significativo per il nostro futuro e per la capacità di adattamento delle nostre società. Un approccio proattivo e informato è essenziale per affrontare le sfide del cambiamento climatico.
Habemus Papam. Alle 18:07 dell’8 maggio 2025, l’abbondante fumata bianca è salita limpida sopra la Cappella Sistina, emozionando visibilmente le migliaia di fedele presenti in Piazza San Pietro in attesa speranzosa dell’elezione del nuovo Pontefice. Dopo circa un’ora, dalla Loggia delle Benedizioni in Piazza San Pietro, il cardinale protodiacono Dominique Mamberti ha annunciato l’elezione di Robert Francis Prevost, cardinale statunitense, nuovo Pontefice della Chiesa Cattolica con il nome di Leone XIV.
Una scelta storica: è il primo Papa proveniente dagli Stati Uniti e, anche, il primo Papa proveniente da una grande potenza politica e militare in un momento in cui proprio gli Stati Uniti sono tornati al centro della scena geopolitica mondiale — evidenziando come non mai la spaccatura politica e spirituale della più potente nazione del mondo.
Un Papa americano con radici in spagna e in sudamerica
Nato a Chicago nel 1955, Prevost è un agostiniano con profonda esperienza missionaria in Perù, dove è stato vescovo di Chiclayo. La sua formazione è teologica, pastorale e multiculturale. Negli ultimi anni, ha ricoperto ruoli centrali nella Curia romana: Prefetto del Dicastero per i Vescovi e Presidente della Pontificia Commissione per l’America Latina. È stato uno degli uomini di fiducia di Papa Francesco, e la sua elezione, avvenuta al quarto scrutinio, segnala una volontà di continuità riformista, ma con un volto nuovo.
Le prime parole: “Una pace disarmata”
Nel suo primo discorso da Papa, Leone XIV ha scelto toni semplici ma carichi di significato. Ha esordito dicendo “La pace sia con voi“, spiegando poi che queste sono state le prime parole pronunciate da cristo risorto e ha spiegato che “Questa è la pace di Cristo Risorto. Una pace disarmata e una pace disarmante, umile e perseverante. Proviene da Dio. Dio che ci ama tutti incondizionatamente.“
Una dichiarazione non programmatica ma profondamente valoriale. Nessun riferimento diretto ai conflitti in corso, ma un chiaro posizionamento morale. In un mondo lacerato da guerre — non solo Ucraina, Gaza, India-Pakistan ma anche tutta una serie di guerre striscianti in background e poco o nulla coperte dai media— e da un clima globale di isteria politica e identitaria, il Papa ha posto la pace al centro della sua visione. Una pace senza arroganza né retorica, ma radicata nel Vangelo e nella dignità umana.
Il significato di un nome: Leone
Il nome scelto non è neutro. Leone I, detto Magno, fu il Papa che nel 452 affrontò Attila e lo convinse a risparmiare Roma. Lo fece senza eserciti, con la sola autorità spirituale e la forza della parola. Fu anche teologo e riformatore, pilastro del papato come istituzione universale.
Leone XIII, invece, fu il primo pontefice del Novecento, noto per l’enciclica Rerum Novarum, con cui la Chiesa entrò nel dibattito sulla modernità, sul lavoro e sulla giustizia sociale.
Leone XIV si colloca idealmente tra questi due predecessori: un Papa chiamato a fermare nuove invasioni — quelle del cinismo, del fanatismo, della disumanizzazione — e a ridefinire la presenza morale della Chiesa nel mondo contemporaneo.
Il peso dell’America… e l’ombra di Trump
Non è sfuggito a nessuno che Leone XIV entra in carica nella seconda presidenza di Donald Trump. E non potrebbe esserci contrasto più evidente.
Da una parte, la Chiesa di Francesco e ora di Prevost, con la sua attenzione agli ultimi, alla giustizia, al dialogo. Dall’altra, un’America MAGA in pieno revival identitario, sempre più legata a una visione muscolare e nazionalista del cristianesimo. Una parte dell’elettorato evangelico ha già storto il naso. Il rischio è che il Papa americano sia percepito in patria più come voce controcorrente che come gloria nazionale.
Ma forse è proprio qui il punto di forza. Prevost conosce bene gli Stati Uniti e il Sud del mondo. Sa parlare a entrambi. Potrebbe rivelarsi un ponte, non una bandiera. E proprio di costruire ponti ha più volte parlato il nuovo Papa nel suo primo discorso ai fedeli, prima di concedere l’Indulgenza Plenaria a tutti coloro che lo stavano seguendo su qualsiasi media e importire poi la tradizione Benedizione Urbi et Orbi.
Riuscirà a fermare i nuovi barbari?
La domanda è aperta. Può un Papa fermare guerre, odio e violenza solo con la parola? Probabilmente no. Ma può offrire un linguaggio alternativo, una speranza, schierarsi come autorità morale e affrontare occhi negli occhi i fautori della sofferenza, come fece San Leone Magno con Attila.
I barbari oggi non sono alle porte di Roma, ma sul web, nei parlamenti, nelle multinazionali, nei mercati delle armi e nella banalità del male quotidiano. Sono nelle ambizioni personali dei politici e degli autocrati autoreferenziali che stanno approfittando dello sbandamento etico e morale del mondo per fini personali.
Affrontarli richiederà più di un discorso dalla loggia. Ma cominciare da lì — da un invito alla pace disarmata — non è poco.
Un Leone non ha bisogno di ruggire per essere ascoltato. Basta che non smetta mai di camminare dritto.
ESA, Trump e lo Spazio: l'Europa cerca la sua indipendenza
Il ritorno di Donald Trump alla presidenza degli Stati Uniti sta inducendo i leader europei a riconsiderare le proprie alleanze strategiche, con un conseguente incremento della spesa per la difesa e una crescente enfasi sull’autonomia.
Tale riorientamento, dettato da una rinnovata consapevolezza delle vulnerabilità geopolitiche, si estende significativamente al settore spaziale, ponendo l’ESA di fronte a nuove sfide e opportunità.
ESA, Trump e lo Spazio: l’Europa cerca la sua indipendenza
L’imperativo dell’autonomia spaziale europea
Secondo Josef Aschbacher, direttore generale dell’Agenzia Spaziale Europea (ESA), l’organismo intergovernativo che coordina le ambizioni spaziali dei paesi europei, tra cui gran parte dell’Unione Europea e il Regno Unito, la spinta verso una maggiore autonomia continentale impone un parallelo e sostanziale aumento degli investimenti nelle tecnologie spaziali.
“Ci sono molti ambiti nello spazio che vengono considerati quelli in cui l’Europa vorrà aumentare la propria autonomia, ed è chiarissimo che in una situazione geopolitica più volatile la necessità di maggiore autonomia è evidente“, ha dichiarato Aschbacher: “La situazione sta cambiando drasticamente”. Questa affermazione sottolinea la necessità strategica per l’Europa di rafforzare la propria capacità di agire in modo indipendente nello spazio, un dominio sempre più cruciale per la sicurezza, l’economia e la scienza.
L’umanità sta rivolgendo il proprio sguardo verso il cielo con un’intensità senza precedenti. Siamo nel pieno di una seconda corsa allo spazio, caratterizzata dalla partecipazione di governi e aziende private, che stanno sfruttando i formidabili progressi compiuti nei settori dei satelliti, dei sensori e, soprattutto, dei razzi.
Gli analisti prevedono che questo settore raggiungerà un valore di mille miliardi di dollari, una dimensione paragonabile all’attuale industria aeronautica, con una crescita esponenziale prevista nei settori dell’osservazione della Terra, delle comunicazioni e persino del turismo spaziale. L’aumento della spesa militare, potenzialmente accelerato da un ritorno di Trump, potrebbe fornire un ulteriore impulso, con le forze armate che competono per ottenere equipaggiamenti di spionaggio avanzati.
Il ruolo di Aschbacher come direttore dell’ESA implica anche la promozione di investimenti continui nella ricerca scientifica a beneficio dell’umanità, attraverso progetti come la misurazione della velocità del vento mediante laser, i satelliti per il monitoraggio climatico e il telescopio Euclid, progettato per svelare i misteri della materia oscura.
La collaborazione con gli Stati Uniti è stata fondamentale per la scienza spaziale europea per decenni, con progetti congiunti che spaziano dall’invio di astronauti alla Stazione Spaziale Internazionale al telescopio James Webb e al programma Artemis per il ritorno dell’uomo sulla Luna. Aschbacher, che gestisce un budget di 7,7 miliardi di euro, si trova di fronte alla sfida di bilanciare la necessità di autonomia europea con la proficua collaborazione con la NASA, il cui budget è di 25,4 miliardi di dollari.
Il ritorno di Trump solleva dubbi sulla continuità della cooperazione transatlantica, data la sua propensione a imporre tagli drastici alla NASA. La situazione è ulteriormente complicata dall’influenza crescente di Elon Musk e della sua azienda SpaceX. SpaceX, grazie ai suoi razzi riutilizzabili Falcon 9, ha già rivoluzionato il settore dei lanci spaziali, riducendo drasticamente i costi.
Il controverso mandato di riduzione dei costi di Musk sotto la presidenza Trump potrebbe portarlo a esercitare un’influenza significativa sulla politica spaziale statunitense, nonostante l’evidente rischio di conflitti di interesse derivante dal suo ruolo di appaltatore chiave della NASA. La scelta di Trump per l’amministratore della NASA, il miliardario Jared Isaacman, che ha pagato SpaceX per un volo spaziale, evidenzia ulteriormente questa potenziale influenza.
I paesi europei stanno anche correndo per svincolarsi dalla dipendenza da Starlink di SpaceX, una rete di satelliti internet in orbita terrestre bassa (LEO). Starlink ha costruito la costellazione LEO più grande del mondo, fornendo accesso internet affidabile in località remote e diventando una componente essenziale delle comunicazioni militari dell’Ucraina dopo l’invasione russa del 2022. Questa dipendenza strategica ha spinto l’Europa a cercare alternative autonome per garantire la propria sovranità digitale e la sicurezza delle comunicazioni.
L’ESA tra collaborazione statunitense e la ricerca di alternative strategiche
Interrogato specificamente sull’influenza di Elon Musk sulla politica spaziale statunitense, il direttore generale dell’ESA, Josef Aschbacher, ha mantenuto una posizione di cautela diplomatica, rifiutandosi di commentare “la politica interna degli Stati Uniti e chi dovrebbe influenzare queste decisioni”.
Nonostante le potenziali incertezze geopolitiche, Aschbacher ha ribadito l’impegno dell’ESA nel proseguire la propria parte dei lavori pianificati nell’ambito della collaborazione con gli Stati Uniti, citando in particolare la costruzione della capsula Orion, destinata al trasporto di astronauti. Aschbacher ha espresso la propria “fiducia” nella continua collaborazione degli Stati Uniti con l’Europa nel quadro del programma Artemis, inclusa la realizzazione del “gateway lunare“, una stazione spaziale che orbiterà attorno alla Luna e che rappresenta un elemento chiave per le future missioni umane sul nostro satellite.
Pur manifestando fiducia nella prosecuzione della collaborazione con gli Stati Uniti, l’ESA si sta attivamente preparando per eventuali cambiamenti di scenario: “Se dovessero verificarsi cambiamenti e se i nostri partner e amici statunitensi dovessero cambiare i loro piani, saremo ovviamente pronti per il piano B“, ha dichiarato Aschbacher, sottolineando la lungimiranza strategica dell’agenzia. In questo contesto, Aschbacher ha aggiunto che l’ESA è pronta a “rafforzare la nostra autonomia e la nostra capacità di conseguenza”. Tuttavia, ha precisato che “oggi non è il momento di parlare del piano B, perché il piano A è già in atto“, evidenziando la priorità attuale della collaborazione con gli Stati Uniti.
Nell’ottica di diversificare le proprie collaborazioni e di prepararsi a possibili scenari futuri, l’ESA sta anche valutando attivamente partnership con altri paesi che potrebbero rientrare nel suo “piano B“. Aschbacher ha specificamente indicato Australia, Emirati Arabi Uniti e India come partner promettenti per l’Europa nel settore spaziale. Queste nazioni stanno emergendo come attori significativi nell’esplorazione e nella tecnologia spaziale, offrendo all’Europa potenziali alternative e complementi alla tradizionale cooperazione con gli Stati Uniti.
Il panorama del trasporto spaziale è attualmente dominato da SpaceX, come evidenziato dal recente successo della sua capsula Dragon, che ha riportato sulla Terra quattro persone, tra cui due astronauti che erano rimasti bloccati sulla Stazione Spaziale Internazionale a causa di problemi tecnici riscontrati sul velivolo Starliner della rivale Boeing. Questo evento sottolinea la posizione di leadership di SpaceX nel settore dei lanci spaziali e le sfide che altre aziende, come Boeing, stanno affrontando nel tentativo di competere in questo mercato in rapida evoluzione.
La dipendenza Inattesa da SpaceX e la rinascita con Ariane 6
Un periodo critico ha segnato l’accesso europeo allo spazio in seguito al ritiro del razzo Ariane 5 e alla messa a terra del vettore Vega C, entrambi gestiti da Arianespace, una società di proprietà congiunta dei colossi aerospaziali Airbus e Safran. Questa simultanea indisponibilità di lanciatori affidabili ha paradossalmente costretto l’Europa a dipendere da SpaceX, un’entità esterna, per il lancio di parte dei satelliti del suo sistema di navigazione Galileo. Questa situazione ha rappresentato una vera e propria “crisi dei lanci“, la cui fine è coincisa con il primo volo operativo del tanto atteso razzo Ariane 6 di Arianespace avvenuto lo scorso anno, segnando un ritorno alla capacità di lancio autonoma.
Guardando al futuro, l’ESA sta attivamente cercando di stimolare la concorrenza nel settore dei lanci di prossima generazione, con un focus particolare sullo sviluppo di razzi riutilizzabili. Questa strategia mira a emulare le significative riduzioni di costo ottenute da SpaceX grazie alla sua tecnologia di riutilizzo dei vettori. Un progetto chiave in questo ambito è il motore Prometheus, interamente finanziato dall’ESA, il cui lancio è previsto, secondo le dichiarazioni di Aschbacher, in “meno di una manciata” di anni. Parallelamente, altri attori privati europei, come l’innovativa startup tedesca Rocket Factory Augsburg, stanno entrando in competizione in questo promettente mercato.
Se i piani procederanno senza intoppi, i lanciatori europei di prossima generazione potrebbero decollare anche dal Regno Unito, ponendo fine alla storica dipendenza dallo spazioporto dell’ESA situato nella Guyana francese, in Sud America. Aschbacher ha espresso un parere positivo sullo sviluppo di spazioporti nel Regno Unito, menzionando in particolare quello situato nelle isole Shetland, come un ulteriore passo avanti verso una maggiore autonomia europea nel settore spaziale.
È importante notare che l’ESA, finanziata da 23 Stati membri, non è un’organizzazione dell’Unione Europea, il che ha significato che la Brexit non ha rappresentato un ostacolo al coinvolgimento del Regno Unito, sebbene vi sia stata una temporanea pausa nel suo ruolo all’interno del programma satellitare climatico Copernicus.
Il mandato primario dell’ESA è l’esplorazione pacifica dello spazio. Tuttavia, le evidenti applicazioni militari delle tecnologie spaziali potrebbero facilitare l’ottenimento di maggiori finanziamenti da parte dei governi membri dell’agenzia nel prossimo novembre, in un contesto di rapido riarmo e tentativo di colmare il vuoto lasciato dagli Stati Uniti in termini di sicurezza. Nonostante ciò, Aschbacher è un convinto sostenitore della scienza.
Con una formazione in scienze naturali presso l’Università di Innsbruck, è entrato a far parte dell’ESA nel 1990, percorrendo una brillante carriera fino a guidare la Divisione di Osservazione della Terra. Pur riconoscendo il ruolo cruciale che le tecnologie spaziali “svolgeranno per soddisfare molti di questi requisiti di sicurezza” per i governi europei, ha anche sottolineato l’importanza di investimenti continui nella ricerca scientifica.
Aschbacher ha efficacemente paragonato gli investimenti nel settore spaziale a quelli nella ricerca fondamentale, evidenziando come quest’ultima abbia permesso agli scienziati di sviluppare vaccini contro il Covid-19 con una velocità sorprendente durante la pandemia: “Gli investimenti nello Spazio in Europa devono aumentare per garantire che l’Europa possa mantenere il suo standard di qualità della vita e quello dei suoi cittadini“, ha affermato con convinzione.
“La scienza è un punto di forza dell’Europa. È in realtà la ragione per cui il progresso e lo sviluppo economico possono verificarsi, o addirittura accelerare“. Questa affermazione sottolinea come gli investimenti spaziali non siano solo una questione di prestigio o di sicurezza, ma un motore fondamentale per l’innovazione, la crescita economica e il benessere complessivo della società europea.
Per maggiori informazioni visita il sito ufficiale dell’ESA.