mercoledì, Aprile 2, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1332

Tracciata l’origine di un Fast radio Burst in una galassia lontana 3,6 miliardi di anni luce

0
Migliori casinò non AAMS in Italia

Questi Lampi Radio veloci sono raffiche di segnali radio della durata di pochi millisecondi e tali esplosioni rapide non sono rare nello spazio. Ma scoprire da dove vengono è incredibilmente difficile.

Molta gente ama credere che provengano da una civiltà extraterrestre avanzata, peraltro questa ipotesi non è stata esclusa completamente dai ricercatori di Breakthrough Listen, un programma di ricerca scientifica dedicato a trovare prove di vita intelligente nell’universo.

Gli astronomi sono stati in grado di individuare la fonte di un FRB che si ripeteva nel 2017. Per quanto riguarda i FRB a singola raffica, però, è tutta un’altra cosa:  sono difficili  da individuare proprio perché non si ripetono.

Il singolo FRB, soprannominato FRB 180924, è stato scoperto dal radiotelescopio australiano Square Kilometer Array Pathfinder, o ASKAP, nell’Australia occidentale.
Tre dei più grandi telescopi del mondo, Keck, Gemini South e il Very Large Telescope dell’osservatorio europeo meridionale, sono stati in grado di registrare lo scoppio. I risultati di questa osservazione sono stati pubblicati sulla rivista Science.

Le raffiche radio veloci, spesso indicate come FRB, sono state scoperte dagli astronomi nel 2007. Da allora ne sono stati individuati 85, inclusa una coppia che si ripete dalla stessa posizione.
Questa è la grande svolta che il settore stava aspettando da quando gli astronomi hanno scoperto gli FRB“, ha detto Keith Bannister, autore principale dello studio e principale ricercatore presso la CSIRO, l’agenzia scientifica nazionale australiana.
Poiché le raffiche sono così brevi e difficili da rintracciare, il team di Bannister ha trovato un modo per congelare e salvare i dati raccolti dall’array Pathfinder australiano una frazione di secondo dopo che il telescopio ha rilevato la raffica.
I dati del rilevamento sono stati utilizzati per creare una mappa che mostra il punto di origine. Lo scoppio proveniva da una galassia delle dimensioni della nostra, posta a 3,6 miliardi di anni luce di distanza. La sorgente è posta alla periferia di quella galassia.
Abbiamo identificato la galassia di origine dello scoppio e persino il suo esatto punto di partenza, 13.000 anni luce fuori dal centro della galassia nei sobborghi galattici“, ha detto Adam Deller, autore dello studio e professore associato presso il Centro di Astrofisica della Swinburne University of Technology e Supercomputing.
Rispetto al punto di origine dell’FRB ripetuto rilevato nel 2017, questo, non ripetuto, ha un’origine molto diversa.
L’FRB che si ripeteva proveniva da una piccola galassia piena di stelle in formazione. L’FRB a scoppio singolo proveniva da una galassia enorme che ha bassi tassi di formazione stellare.
“Questo suggerisce che gli FRB si generano in ambienti notevolmente diversi tra loro, o che apparentemente le raffiche che non si ripetono rilevate dall’ASKAP sono generate da un meccanismo diverso”, ha detto Deller.
Naturalmente, il mistero delle esplosioni radio veloci che arrivano dallo spazio è ben lungi dall’essere risolto: perché accadono? Cosa li genera?
Essere  finalmente riusciti ad identificarne una fonte è, però, un enorme passo avanti nella direzione della comprensione di questi misteriosi fenomeni spaziali.
Gli FRB potrebbero essere considerati come una firma per decodificare lo spazio tra i sistemi stellari.
Queste esplosioni sono alterate dalla materia che incontrano nello spazio“, ha spiegato Jean-Pierre Macquart, autore dello studio e professore associato presso l’Istituto Curtin per l’astronomia radio. “Ora che possiamo individuarne la sorgente, possiamo usarli per misurare la quantità di materia nello spazio intergalattico“.
Un aspetto interessante che, probabilmente, non ci aiuterà molto nella comprensione del fenomeno ma che potrebbe essere utile ad astronomi ed astrofisici nella caccia alla Materia Oscura.

L’analisi delle rocce meteoritiche di Marte dimostra che le condizioni adatte alla vita potrebbero essersi realizzate prima di quanto pensassimo

0
Migliori casinò non AAMS in Italia

Un team internazionale di ricercatori ha dimostrato che la prima “vera possibilità” di sviluppo della vita su Marte si è avuta prima di quanto si pensasse finora, circa 4,2 miliardi di anni fa, quando finirono gli impatti di enormi meteoriti. I risultati di questo studio non solo chiariscono che Marte potrebbe avere avuto la possibilità di ospitare la vita ma potrebbero aiutare anche a capire quando questa potè affermarsi sulla Terra.

Lo studio,  Decline of giant impacts on Mars by 4.48 billion years ago and an early opportunity for habitability, è stato pubblicato sulla rivista Nature Geoscience.

I ricercatori suggeriscono che su Marte potrebbero essersi verificate le condizioni per ospitare la vita tra 4,2 e 3,5 miliardi di anni fa. Quasi mezzo miliardo di anni prima della datazione stabilita per le prime prove certe di vita sulla Terra.

Gli impatti di meteoriti giganti su Marte potrebbero aver effettivamente accelerato il rilascio di acqua liquida in superficie dall’interno del pianeta, preparando il terreno per le reazioni chimiche che portarono l’ambiente ad essere idoneo per la nascita della vita“, ha detto Desmond Moser. “Questo studio potrebbe indicarci le zone più interessanti per il prelievo di campioni marziani da riportare sulla Terra”.

Il professore di Scienze della Terra e Geografia ha spiegato che è noto che il numero e le dimensioni degli impatti dei meteoriti su Marte e sulla Terra diminuirono gradualmente dopo la formazione dei pianeti. Alla fine, gli impatti divennero piccoli e rarefatti, stabilendo condizioni di superficie che avrebbero potuto consentire lo sviluppo della vita.

È stato proposto che ci sia stata una fase “tarda” di pesanti bombardamenti su entrambi i pianeti che si è conclusa circa 3,8 miliardi di anni fa.

Per lo studio, Moser e il suo team hanno analizzato i grani minerali più conosciuti prelevati nelle meteoriti che si ritiene siano cadute sulla Terra provenendo dagli altopiani meridionali di Marte. Questi grani antichi, fotografati fino ai livelli atomici, sono quasi immutati da quando si sono cristallizzati sulla superficie di Marte.

In confronto, l’analisi di campioni prelevati da aree simili sulla Terra e sulla Luna mostra che più dell’80 per cento dei grani studiati contiene caratteristiche associate agli impatti, come l’esposizione a pressioni e temperature intense. Le analisi dei campioni di Terra, Marte e Luna sono state condotte presso l’esclusivo Zircon & Accessory Phase Laboratory, un centro nazionale occidentale guidato da Moser.

I risultati suggeriscono che il pesante bombardamento di Marte finì prima che si formassero i minerali analizzati, il che significa che la superficie marziana sarebbe potuta diventare abitabile nel momento in cui vi è apparsa abbondante acqua allo stato liquido, poco più di 4 miliardi di anni fa. Nello stesso periodo, anche sulla Terra era presente acqua allo stato liquido quindi è plausibile che l’orologio biologico del sistema solare sia partito molto prima di quanto precedentemente pensato.

Buchi neri primordiali: se confermati comporterebbero una revisione completa del modello standard

0
Migliori casinò non AAMS in Italia

I buchi neri sono “una porta a senso unico fuori dal nostro universo“, ha detto l’astronomo e direttore dell’Event Horizon Telescope Sheperd S. Doeleman dell’Harvard Smithsonian Center for Astrophysics. Ellie Mae O’Hagan sul The Guardian li descrive come “il punto in cui ogni legge fisica dell’universo conosciuto crolla. Forse è la cosa più vicina che c’è all’inferno: è un abisso, un momento di oblio“.

È stato ipotizzato che potrebbero esserci buchi neri che si sono formati nell’universo primordiale prima che esistessero le stelle.” Ha detto Savvas Koushiappas, professore associato di fisica alla Brown University e coautore di uno studio con Avi Loeb della Harvard University.

L’idea è molto semplice“, ha detto Koushiappas. “Con i futuri esperimenti sulle onde gravitazionali, potremo guardare indietro fino a un tempo precedente la formazione delle prime stelle. Quindi se dovessimo vedere eventi di fusione di buchi neri prima che esistessero le stelle, allora sapremmo che quei buchi neri non sono di origine stellare.”

 

Lo studio pubblicato su Physical Review Letters ha delineato come gli scienziati potrebbero usare l’osservazione delle onde gravitazionali con LIGO per verificare l’esistenza di buchi neri primordiali, pozzi gravitazionali formatisi pochi istanti dopo il Big Bang che alcuni scienziati hanno ipotizzato potrebbero essere una spiegazione per la materia oscura.

L’idea è che poco dopo il Big Bang, le fluttuazioni della meccanica quantistica portarono alla distribuzione della densità della materia che osserviamo oggi nell’universo in espansione. È stato suggerito che alcune di quelle fluttuazioni di densità potrebbero essere state abbastanza grandi da generare buchi neri disseminati in tutto l’universo. Questi cosiddetti buchi neri primordiali furono già proposti all’inizio degli anni ’70 da Stephen Hawking e collaboratori, ma non sono mai stati rilevati e non è ancora chiaro se esistono.

La capacità di rilevare le onde gravitazionali, come dimostrato recentemente dall’Osservatorio Gravitazionale-Onda Laser Interferometro (LIGO), potrebbe potenzialmente gettare nuova luce sulla questione. Le osservazioni di LIGO rilevano le increspature nel tessuto dello spaziotempo associato a giganteschi eventi astronomici come la collisione di due buchi neri. LIGO ha già rilevato diverse fusioni di buchi neri e gli esperimenti futuri saranno in grado di rilevare eventi che sono accaduti molto più indietro nel tempo.

I cosmologi misurano quanto indietro nel tempo si è verificato un evento usando il redshift: lo spostamento verso il rosso della lunghezza d’onda della luce associata all’espansione dell’universo. Gli eventi più indietro nel tempo sono associati a redshift più grandi. Per questo studio, Koushiappas e Loeb hanno calcolato il redshift con il quale le fusioni dei buchi neri non dovrebbero più essere rilevate assumendo solo origine stellare.

Ad nn valore di redshift di 40, che equivale a circa 65 milioni di anni dopo il Big Bang, gli eventi di fusione dovrebbero essere rilevati a un ritmo non superiore a uno all’anno, assumendo siano di origine stellare. A redshift maggiore di 40, gli eventi dovrebbero scomparire del tutto.

Questo è davvero il punto di non ritorno“, ha detto Koushiappas. “In realtà, ci aspettiamo che gli eventi di fusione si fermino molto prima di quel punto, ma un redshift di 40 circa è il punto limite più assoluto o limite assoluto“.

Un redshift di 40 dovrebbe essere alla portata di diversi esperimenti proposti sulle onde gravitazionali. E se dovessero essere rilevati eventi di fusione oltre questo punto, potrebbero significare una delle due cose: o esistono buchi neri primordiali, o l’universo primitivo si è evoluto in un modo molto diverso dal modello cosmologico standard. Sarebbero scoperte molto importanti.

Ad esempio, i buchi neri primordiali rientrano in una categoria di entità conosciute come MACHO, o Halo Objects compatti. Alcuni scienziati hanno proposto che la materia oscura, la sostanza invisibile che si ritiene comprenda la maggior parte della massa dell’universo, possa essere composta da MACHO sotto forma di buchi neri primordiali. Scoprire l’esistenza di buchi neri primordiali rafforzerebbe quest’idea, mentre un non-rilevamento la squalificherebbe.

L’unica altra possibile spiegazione per le fusioni dei buchi neri con redshift superiori a 40 sarebbe che l’universo è “non-gaussiano“. Nel modello cosmologico standard, le fluttuazioni della materia nell’universo primordiale sono descritte da una distribuzione di probabilità gaussiana. Un rilevamento di fusione potrebbe significare che le fluttuazioni della materia si discostano da una distribuzione gaussiana.

Una prova di non-gaussianità richiederebbe una nuova fisica per spiegare l’origine di queste fluttuazioni, il che sarebbe un grosso problema“, ha detto Loeb.

La velocità con cui i rilevamenti verranno effettuati dopo un redshift di 40, se effettivamente verranno effettuati tali rilevamenti, dovrebbe indicare se sono un segno di buchi neri primordiali o prove di non-gaussianità.

Una mancata osservazione rappresenterebbe una forte sfida per queste idee.

Fonte: Brown University

L’Europa avvolta da un’ondata di caldo potenzialmente devastante: “L’inferno sta arrivando”, dice un meteorologo

0
Migliori casinò non AAMS in Italia

Un’intensa ondata di calore è destinata ad attraversare l’Europa nei prossimi giorni e potrebbe portare a temperature senza precedenti in un’ampia porzione del continente.

Secondo i meteorologi, l’ondata di calore raggiungerà il picco tra oggi e venerdì, con una sacca di calore che si espanderà dalla Spagna alla Polonia, che vedranno temperature superiori alla norma da 11 a 17 gradi Celsius. Su tutta quest’area, particolarmente nei centri cittadini, potrebbero registrarsi temperature effettive tra i 35 ed i 40 gradi Celsius.

Alcune località potrebbero essere ancora più calde, soprattutto le grandi città in cui l’effetto “isola di calore” provocato da asfalto e cemento, in aggiunta alla presenza di grandi palazzi  che impediscono la normale circolazione dell’aria creerà una vera e propria “cappa” di calore persistente.

Mika Rantanen, meteorologo finlandese, ha descritto le previsioni fornite dai modello computerizzati come uno scenario “assolutamente inedito per giugno” per l’intensità del calore, soprattutto in Francia, dove il governo ha varato un piano anti calore, posponendo gli esami scolastici di fine anno di una settimana e organizzando nelle città specifiche aree di refrigerio.

Le ondate di caldo di inizio estate possono essere particolarmente letali, poiché le persone non hanno ancora avuto il tempo di acclimatarsi alle temperature più alte. Gli anziani, i senzatetto e quelli senza aria condizionata sono più sensibili alle patologie legate al calore.

Le ondate di calore sono assassini silenziosi“, ha twittato Stefan Rahmstorf, climatologo dell’Università di Potsdam. “L’ondata di caldo europea del 2003 ha provocato circa 70.000 morti. Si stima che l’estate calda dell’anno scorso in Germania abbia causato almeno 1.000 morti“.

È probabile che le temperature più alte si verifichino nell’Europa continentale e centrale. Alcuni dei più picchi maggiori si verificheranno in Spagna e in Francia con temperature superiori ai 40 gradi Celsius per tre giorni consecutivi, da oggi, mercoledì, fino a venerdì. Anche per l’Italia nord-occidentale sono previsti picchi di temperature intorno ai 40 gradi, particolarmente nelle città di Milano e Torino. Ma le temperature saranno largamente sopra la norma praticamente in tutto il centro-nord, con picchi intorno o sopra i 38 gradi per le città di Roma, Rieti, Firenze e Bologna.

In un tweet virale, Silvia Laplana, una meteorologa spagnola, ha scritto “El infierno“, che si traduce in inferno, “sta arrivando”. A madrid venerdì potrebbero registrarsi 40,6 gradi Celsius, la temperatura più alta mai registrata nella capitale spagnola.

Embedded video

Silvia Laplana@slaplana_tve

El infierno is coming.

12.1K people are talking about this
Parigi, insieme a più della metà della Francia, è in allarme arancione, il secondo più alto livello sulla scala del calore del paese. La scala è stata istituita dopo l’ondata di caldo estivo del 2003, che provocò in Francia 15.000 morti.

Il meteorologo francese Gillaume Woznica ha twittato martedì che le ultime previsioni lasciano pochi dubbi sul fatto che la Francia stabilirà un nuovo record nazionale di temperatura nazionale, intorno ai 45 gradi, venerdì, superando il vecchio record di 44,1 gradi Celsius, stabilito nel 2003.

Più a nord-est, anche Berlino potrebbe in questi giorni registrare le temperature più alte del secolo è prevista flirtare con il marchio del secolo giovedì, mentre in Svizzera, Ginevra dovrebbe arrivare intorno ai 37 gradi mercoledì e giovedì.

Ma temperature molto sopra la norma di giugno sono previste anche per l’Austria, la Germania e la Svizzera, così come per molti altri paesi dell’Europa continentale.

Nel Regno Unito e in Irlanda, le temperature non dovrebbero essere così intense come più a sud, ma probabilmente anche qui andranno sopra la norma. Più a est nella Svezia meridionale, così come nella vicina Danimarca, alcune zone potrebbero toccare i 30 gradi.

Insieme, le zone di alta pressione, combinate con la zona di bassa pressione, più fredda,  guideranno un pennacchio spagnolo” sull’Europa continentale e sul Regno Unito.

Il pennacchio di aria calda, proveniente dai deserti della Spagna e del Sahara , si riverserà su Francia, Gran Bretagna e Germania. Il risultato potrebbe portare alla caduta di parecchi record delle temperature massime, alternati a violenti temporali.

In alcune aree, il calore risultante sarà una versione intensificata di ciò che sta succedendo in questi giorni, mentre in altre zone sarà un vero e proprio shock termico.

Finora giugno è stato dominato dal calore nell’Europa orientale e centrale, con condizioni più fresche del normale nelle parti occidentali del continente.

Questa ondata di caldo è l’ultima di una serie di episodi storici di calore verificatisi negli ultimi anni. Proprio la scorsa estate, il continente ha visto temperature record incessanti abbinate a condizioni insolitamente asciutte. Di conseguenza, si sono avuti siccità e numerosi incendi.

Le estati più calde dal 1500 DC in Europa sono state: 2018, 2010, 2003, 2016, 2002“, ha scritto Rahmstorf su Twitter.

X73QOD64HFCMXFFZJB5EWTCDRM1Previsioni ad alta temperatura per l’Europa da oggi, mercoledì. (WeatherBell.com)

Su una scala più ampia, il regime meteorologico dietro questa ondata di caldo ha connessioni con la zona di alta pressione stagnante responsabile del grande evento di scioglimento dei ghiacci della Groenlandia avvenuto a metà giugno.

Sia la fusione dei ghiacci della Groenlandia che questa ondata di calore sono collegate a un “modello di blocco” composto da grandi e pesanti zone di alta pressione nelle latitudini settentrionali che possono rimanere bloccate e portare a condizioni climatiche estreme. Tali modelli potrebbero diventare più comuni nei prossimi anni a causa del riscaldamento globale.

L’attuale ondata di calore dovrebbe vedere il suo picco nei prossimi giorni, ma, sembra, che le temperature sopra la norma continueranno a protrarsi ancora per diverso tempo in gran parte dell’Europa occidentale e centrale. Le correnti e le sacche di aria più fresca sembrano, al momento, rimanere centrate sulle regioni nordiche e sull’Asia.

Questo articolo è stato originariamente pubblicato da The Washington Post.

Encelado e i mattoni della vita

0
Migliori casinò non AAMS in Italia

Encelado, uno dei satelliti di Saturno, è stato scoperto da Fredrick William Herschel il 28 agosto 1789, con l’uso del suo nuovo telescopio da 1,2 m, il più grande del mondo in quel tempo.  Fino alle spettacolari missioni delle due sonde Voyager, tra la fine degli anni settanta e l’inizio degli anni 1980, le caratteristiche di questo corpo celeste erano poco note, a parte l’identificazione di ghiaccio d’acqua sulla superficie, e per questo Encelado, con un diametro di soli 500 km riflette quasi il 100% della luce solare. La Voyager 1 scoprì che Encelado orbita nella regione più densa dell’anello E di Saturno mentre Voyager 2 rivelò che, nonostante le sue piccole dimensioni, il satellite presenta regioni che variano da superfici antiche con molti crateri da impatto a zone recenti datate circa 100 milioni di anni.

Nel 2005, Encelado fu studiato della sonda Cassini, che ne rivelò ulteriori dettagli superficiali approfondendo le scoperte fatte dalle sonde Voyager 1 e 2.  In particolare, la sonda Cassini scoprì un pennacchio ricco d’acqua emesso nella regione polare sud. Questa scoperta, assieme alla presenza di fuoriuscite di calore interno e di pochi crateri da impatto nel polo sud, indica che Encelado è attualmente geologicamente attivo. Le analisi dei gas emessi composti da molecole complesse 10 volte più pesanti del metano, suggeriscono che siano stati generati da acqua liquida situata sotto la superficie.

Assieme alle analisi chimiche del pennacchio, queste scoperte hanno alimentato le ipotesi che Encelado sia un importante soggetto di studio nel campo dell’esobiologia potendo vantare condizioni ideali per il sostentamento della vita, in particolare per microrganismi monocellulari simili ai nostri archei.

Gli archei si trovano sulla Terra nei pressi delle sorgenti idrotermali degli oceani e sopravvivono convertendo il biossido di carbonio e l’idrogeno in metano. sono tra i batteri più antichi conosciuti e in particolare uno di essi, il Methanothermococcus okinawensis, un batterio metanifero, è stato studiato da un gruppo di ricerca che ha poi pubblicato la propria esperienza su Nature Communications. Secondo i ricercatori le molecole complesse e il metano rilevati nei pennacchi di Encelado possono teoricamente essere il sottoprodotto di un tipo di batteri simili. Per capire se quanto affermato è possibile, i ricercatori hanno simulato un ambiente simile a quello di Encelado che potrebbe ospitare un oceano di acqua liquida sotterraneo, riscaldato dagli effetti mareali del pianeta gigante Saturno.

Gli scienziati pensano che anche su Encelado il calore possa fuoriuscire da spaccature nel fondo degli oceani come nei mari che ospitano sorgenti idrotermani sul nostro pianeta e i pennacchi potrebbero essere ricchi di forme di vita monocellulare che producono metano.

L’esperimento, condotto utilizzando tre ceppi di batteri di cui uno, lo stesso Methanothermococcus okinawensis, è risultato uno dei più resistenti, hanno prosperato producendo metano in condizioni presumibilmente simili a quelle dell’ambiente di Encelado. Questo ha portato Simon von Rittmann, un microbiologo dell’Università di Vienna e uno degli autori dello studio, a pensare che questo organismo potrebbe vivere in maniera simile su altri corpi planetari come appunto Encelado.

A far crescere le speranze sulla presenza di forme di vita anche se unicellulari ci hanno pensato gli scienziati dell’Università di Washington che hanno annunciato che molto probabilmente Encelado, oltre a vantare un oceano sotterraneo, è molto più ricco di anidride carbonica e di idrogeno e che è caratterizzato da livello di pH più alto di quanto teorizzato da precedenti studi.

Questi elementi disciolti nell’acqua di Encelado rappresenterebbero i nutrienti per eventuali microbi presenti nell’oceano, come riferisce Lucas Fifer. Ovviamente questa non è una prova dell’esistenza di qualche tipo di forma di vita su Encelado, questi elementi potrebbero semplicemente essere presenti anche in assenza di forme di vita, ma la notizia è positiva e ci aiuta a migliorare la nostra comprensione di questo mondo che forse ospita un oceano sotterraneo che, secondo gli ultimi dati ricavati, sembra almeno come tipo di salinità e pH, molto simile agli oceani della Terra. Lo studio dei pennacchi che espellono materiale attraverso la crosta ghiacciata di Encelado potrà fornire ulteriori dati.

Secondo Lucas Fifer, lo studente dell’Università di Washington che ha realizzato l’interessante studio, questi pennacchi non sono uguali a livello chimico all’acqua dell’oceano da cui vengono generati perché il processo stesso dell’eruzione cambia la loro composizione. Ciò sarebbe dovuto ad un fenomeno di “frazionamento” in base al quale durante l’evoluzione si separano i gas e alcuni di essi restano indietro.

Si tratta di “condizioni incoraggianti” secondo il ricercatore, che aggiunge che potrebbero esserci anche altre concentrazioni di ammonio, un altro carburante potenziale per la vita.

Un ulteriore passo in avanti si farà in un prossimo futuro quando si potrà studiare in loco il suolo ghiacciato di Encelado, grazie a sonde dotate di dispositivi in grado di perforare la crosta del satellite e cercare forme di vita

Sette cose che sappiamo sull’universo e la sua nascita

0
Migliori casinò non AAMS in Italia

Circa 13,8 miliardi di anni fa, iniziò l’universo come lo conosciamo. Nel momento conosciuto come Big Bang comparve lo spazio stesso che iniziò rapidamente ad espandersi. Al momento del Big Bang, l’universo osservabile (compreso tutto ciò che c’è attualmente in almeno 2 trilioni di galassie), era compresso in uno spazio di meno di un centimetro di diametro. Ora, l’universo osservabile copre circa 93 miliardi di anni luce e continua ad espandersi.

Ci sono molte domande sul Big Bang e la scienza sta cercando di scoprire cosa ci fosse prima e cosa è successo esattamente nei primissimi milionesimi di secondo dopo il Big Bang.

Alcune cose, però, le sappiamo, o almeno crediamo di saperle. Ecco sette cose che sappiamo sull’inizio della vita dell’universo.

L’universo si sta espandendo

Fino al 1929, le origini dell’universo erano avvolte interamente nel mito e nella teoria. Ma quell’anno, un intraprendente astronomo di nome Edwin Hubble scoprì qualcosa di molto importante sull’universo, qualcosa che avrebbe aperto nuovi modi di comprendere il suo passato: l’universo si sta espandendo.

Hubble fece la sua scoperta misurando qualcosa chiamato redshift, che è lo spostamento verso lunghezze d’onda della luce più lunghe, rosse, osservato nelle galassie molto distanti (Più lontano è l’oggetto, più pronunciato è il redshift, o spostamento verso il rosso), Hubble scoprì che il redshift delle galassie più lontane aumentava linearmente con la distanza, indicando che l’universo non è stazionario. Si sta espandendo, dappertutto, tutto contemporaneamente.

Hubble riuscì a calcolare il tasso di questa espansione, una figura conosciuta come la costante di Hubble. È stato da questa scoperta che gli scienziati hanno potuto estrapolare le conseguenze e teorizzare che l’universo fosse un tempo impacchettato in un punto minuscolo. Il primo momento dell’espansione dell’universo è stato chiamato Big Bang.

Radiazione cosmica di fondo a microonde

Nel maggio del 1964, Arno Penzias e Robert Wilson, ricercatori dei Bell Telephone Laboratories, stavano lavorando alla costruzione di un nuovo ricevitore radio nel New Jersey. La loro antenna continuava a percepire uno strano ronzio che sembrava venire da ogni parte, in ogni momento. Inizialmente pensarono che la causa potesse essere la presenza di alcuni nidi di piccione sulle antenne, ma rimuoverli non risolse il problema e nemmeno altri tentativi riuscirono a ridurre le interferenze. Alla fine, si resero conto che stavano ascoltando qualcosa di reale.

Quello che avevano scoperto era l’eco della prima luce dell’universo: la radiazione cosmica di fondo a microonde. Questa radiazione risale a circa 380.000 anni dopo il Big Bang, quando l’universo si era raffreddato abbastanza da permettere ai fotoni (le particelle ondulatorie che formano la luce) di viaggiare liberamente. La scoperta fornì supporto alla teoria del Big Bang e alla nozione che l’universo, nei suoi primi momenti, si è espanso più velocemente della luce (Questo lo sappiamo perché lo sfondo cosmico è abbastanza uniforme, suggerendo una regolare espansione tutto in una volta da un piccolo punto)

Mappa del cielo

La scoperta dello sfondo delle microonde cosmiche aprì una finestra sulle origini dell’universo. Nel 1989, la NASA lanciò un satellite chiamato Cosmic Background Explorer (COBE), che misurava le piccole variazioni nella radiazione di fondo. Il risultato fu, secondo la NASA una “immagine dell’universo bambino” nella quale si potevano vedere alcune delle prime variazioni di densità nell’universo in espansione. Queste minuscole variazioni hanno probabilmente dato origine allo schema delle galassie e dello spazio vuoto, noto come la rete cosmica delle galassie, che vediamo oggi.

Prova diretta di inflazione

Il background cosmico delle microonde ha anche permesso ai ricercatori di trovare la “pistola fumante” per la teoria dell’inflazione, quell’espansione enorme, più veloce della luce avvenuta al pochi milionesimi di secondo dopo il Big Ban. (Anche se la teoria della relatività speciale di Einstein sostiene che nulla vada più veloce della luce attraverso lo spazio, l’inflazione cosmica non può essere considerata una violazione, in quanto fu lo spazio stesso ad espandersi). Nel 2016, i fisici hanno annunciato di aver rilevato un particolare tipo di polarizzazione, o direzionalità, nello sfondo cosmico di microonde. Questa polarizzazione è nota come “modalità B“. La polarizzazione B-mode è stata la prima prova diretta dell’esistenza di onde gravitazionali generate dal Big Bang. Le onde gravitazionali si creano quando oggetti massicci nello spazio accelerano o rallentano (la prima onda gravitazionale rilevata dai nostri strumenti era stata creata collisione di due buchi neri). Le modalità B forniscono un nuovo modo per sondare direttamente l’espansione dell’universo primordiale e forse per capire che cosa l’ha guidata.

Nessuna dimensione extra finora

Una conseguenza della scoperta delle onde gravitazionali fu che questo consentiva agli scienziati di cercare ulteriori dimensioni, oltre alle solite tre. Secondo i teorici, le onde gravitazionali dovrebbero essere in grado di attraversare dimensioni sconosciute, se queste dimensioni esistono. Nell’ottobre 2017, gli scienziati hanno rilevato le onde gravitazionali dalla collisione di due stelle di neutroni. Hanno misurato il tempo impiegato dalle onde per viaggiare dalle stelle alla Terra, e non hanno trovato alcuna traccia di perdite extra dimensionali.

I risultati, pubblicati nel luglio 2018 nel Journal of Cosmology and Astroparticle Physics, suggeriscono che se esistono altre dimensioni, sono minuscole: influenzerebbero aree dell’universo con dimensioni inferiori a 1,6 chilometri. Ciò significa che la teoria delle stringhe, che presuppone che l’universo sia costituito da minuscole stringhe vibranti e prevede almeno 10 dimensioni, potrebbe ancora essere vera.

Accelerazione dell’espansione…

Una delle scoperte più strane della fisica moderna è che l’universo non si sta solamente espandendo ma si sta espandendo ad un ritmo accelerato.

La scoperta risale al 1998, quando i fisici annunciarono i risultati di diversi progetti di lunga durata che misuravano supernove particolarmente pesanti chiamate supernove di tipo Ia. I risultati (che hanno fruttato un premio Nobel 2011 ai ricercatori coinvolti Saul Perlmutter, Brian P. Schmidt e Adam G. Reiss) hanno rivelato una luce più debole del previsto dalla più lontana di queste supernove. Questa debole luce ha dimostrato che lo spazio stesso si sta espandendo: ogni cosa nell’universo si sta gradualmente allontanando da tutto il resto.

Gli scienziati chiamano la causa di questa espansione “energia oscura” un motore misterioso che potrebbe costituire circa il 68% dell’energia nell’universo. Questa energia oscura sembra essere cruciale per far sì che le teorie sull’inizio dell’universo si adattino alle osservazioni che vengono condotte ora, come quelle fatte dal Wilkinson Microwave Anisotropy Probe (WMAP) della NASA, uno strumento che ha prodotto la mappa più precisa che possediamo dello sfondo di microonde cosmico.

…Ancora più veloce del previsto

I nuovi risultati delle osservazioni del telescopio spaziale Hubble, pubblicati nell’aprile 2019, hanno approfondito il puzzle dell’universo in espansione. Le misure del telescopio spaziale mostrano che l’espansione dell’universo è del 9% più veloce di quanto previsto dalle osservazioni precedenti. Per le galassie, ogni 3,3 milioni di anni luce di distanza dalla Terra si traducono in ulteriori 74 km al secondo in più di velocità rispetto alle previsioni dei calcoli precedentemente effettuati, riferisce la NASA.

Perché questo è importante per le origini dell’universo? Perché ci dice che ai fisici manca qualcosa. Secondo la NASA, potrebbero esserci state tre “raffiche” di energia oscura durante il Big Bang e poco dopo. Quelle esplosioni hanno preparato il terreno per quello che vediamo oggi.

La prima esplosione di energia oscura potrebbe aver avviato l’espansione iniziale; una seconda potrebbe essere accaduta molto più velocemente, agendo come un pesante piede premuto sul pedale del gas dell’universo, facendo sì che l’universo si espandesse più velocemente di quanto si credesse in precedenza. L’ultima esplosione di energia oscura potrebbe spiegare l’espansione accelerata dell’universo oggi. 

Niente di tutto ciò è stato provato, per ora. Ma gli scienziati studiano. I ricercatori dell’Università del Texas dell’Austin McDonald Observatory stanno utilizzando uno strumento recentemente aggiornato, l’Hobby-Eberly Telescope, per cercare di individuare direttamente l’energia oscura. Il progetto Hobby-Eberly Telescope Dark Energy Experiment (HETDEX) sta misurando la debole luce proveniente da galassie lontane fino a 11 miliardi di anni luce, il che permetterà ai ricercatori di vedere eventuali cambiamenti dell’accelerazione dell’universo nel tempo.

Sono in corso studi anche gli echi dei disordini avvenuti nell’universo all’età di 400.000 anni, creati nella densa zuppa di particelle da cui è derivato tutto subito dopo il Big Bang. Anche questo rivelerà i misteri dell’espansione e, forse, spiegherà l’energia oscura che l’ha guidata.

Fonte: LiveScience

Solo dieci anni per avere veicoli spaziali spinti dalla fusione nucleare?

0
Migliori casinò non AAMS in Italia
Le ambizioni di esplorare i pianeti extrasolari sono, ad oggi, utopistiche a causa delle enormi distanze. Potrebbe, però, essere possibile abbreviare di molto, in termini di tempo di viaggio, le missioni destinate al sistema solare esterno se l’appaltatore della NASA, la Princeton Satellite Systems, riuscisse a sviluppare un motore spaziale a fusione nucleare, sul quale già lavora da tempo. Secondo alcuni esperti, potrebbe essere solo questione di un decennio per vederlo operativo.
La fusione nucleare è la reazione attraverso il quale i nuclei di due o più atomi fusi insieme producono energia.
“Il nostro carico utile andrebbe dai 500 ai 1.000 kg o più, ciò potrebbe aiutare a viaggiare attraverso il sistema solare interno ed esterno” ha spiegato il dr Michael Paluszek, Presidente della Princeton Satellite Systems.

Lo stesso processo che alimenta il Sole, può essere utilizzato per creare un grande reattore a fusione nucleare. Il concetto di replicare la fusione per sfruttarne il potere è stato a lungo pensato come un sogno irrealizzabile, ma Michael Paluszek, è certo che la sua unità di fusione diretta potrà presto alimentare i viaggi nello spazio interstellare.

“Il Sole attraverso innesca la fusione comprimendo gli atomi insieme grazie alla gravità. Noi utilizziamo i campi magnetici per fornire il confinamento e poi li riscaldiamo il plasma con onde a radiofrequenza. Con questo metodo siamo riusciti ad ottenere la fusione, che può essere utilizzata come ulteriore propellente, poiché entra da una camera ed esce da un ugello, producendo cosi una spinta”.

I ricercatori hanno calcolato che grazie alla tecnologia di fusione si riuscirà a ridurre il tempo di viaggio di un veicolo spaziale diretto su Saturno dai sette anni attuali a soltanto due anni e un viaggio di nove anni diretto su Plutone richiederebbe solamente cinque anni.

Stephanie Thomas, vice presidente della compagnia, aggiunge anche che la trasmissione a fusione diretta non è utile solo per la sua velocità, dichiarando che: “Il nostro carico utile sarebbe tra i 500 e i 1.000 kg o più, e potrebbe aiutare a viaggiare nel sistema solare interno ed esterno”. La potenza disponibile per i carichi utili si aggirerebbe intorno alle centinaia di chilowatt, con cui si potrebbero fare molte cose differenti, ad esempio attuare perforazioni ed estrazioni sugli asteroidi.

Il sistema di fusione nucleare potrebbe essere utilizzato per generare energia sulla Luna o su Marte. Quindi, questo tipo di propulsore non farebbe la differenza solo in termini di durata dei viaggi ma anche quello che è possibile fare una volta arrivati a destinazione è notevolmente diverso“.

La tecnologia di fusione potrebbe essere utilizzata anche sulla Terra su aree remote e per situazioni di emergenza, riuscendo a generare fino 10 mega-watt di energia. La fusione nucleare offre benefici anche per molteplici tecnologie di prossima generazione, come ad esempio alimentare l’esplorazione dello spazio profondo con le vele solari e la fissione nucleare”. 

La Thomas ha inoltre dichiarato: Sappiamo che le vele solari funzionano, perché sono state testate sui satelliti di comunicazione su cui lavoravamo e dovevamo affrontare la pressione solare che spingeva il nostro satellite. Le vele solari sono una tecnologia molto significativa, utili purtroppo solo nel sistema solare interno. Quindi se volessimo viaggiare verso Nettuno o Plutone, le vele solari non sarebbero efficaci perché avrebbero problemi a rallentare. sarebbero necessarie vele spaziali di dimensioni maggiori per farlo, ma sarebbero difficili da costruire“.

Saturno

Unità di fusione nucleare: un viaggio verso Saturno verrebbe ridotto da sette anni a solo due (Immagine: Getty)

Il carico utile che attualmente può essere messo su una vela solare va dai 50 ai 100 kg di peso quindi dovrebbe essere molto piccolo“. Un metodo per aiutare le astronavi a rallentare sarebbe un “propulsore laser”, ma ad oggi questa tecnologia è ancora teorica.

Il dott.Paluszek ha inoltre dichiarato: “L’idea è quella di costruire un laser con una apertura maggiore e un diaframma più grande, visto che i limiti di diffrazione si basano sulla dimensione dell’apertura, quindi minore sarà l’apertura e maggiore potrà essere la diffusione. Pertanto, per avere l’energia necessaria per arrivare a Plutone, ci sarebbe bisogno di un’apertura abbastanza grande tale da consentire al veicolo spaziale di rallentare“.

Gli impianti di fissione nucleare che generano elettricità sono un interessante tecnologia. La NASA ha effettuato diversi tentativi per costruire gli impianti di fissione nucleare in grado di volare nello spazio, ma finora senza successo.

Il dott.Paluszek ha spiegato che: “Il problema che hai con la fissione è che devi utilizzare uranio o plutonio, come combustibile, ed entrambi questi elementi creano problemi di sicurezza. Un altro problema dipenderebbe dalla necessità di avere una schermatura più spessa creando cosi maggior peso. Questo significherebbe che il suo rapporto peso/potenza, durante i voli all’interno del sistema solare, sarebbe piuttosto basso e peggiore in confronto all’utilizzo di una vela solare“.

Creato un nuovo tipo di memoria informatica “universale” che rivoluzionerà il modo di memorizzare i dati

0
Migliori casinò non AAMS in Italia

I dati di tutte le immagini che postiamo quotidianamente su Instagram, facebook, Flickr, Pinterest e tutti i vari social devono essere archiviati da qualche parte, e la quantità crescente di informazioni digitali che stiamo producendo implica la necessità di disporre di una crescente quantità di energia solo per archiviarle tutte.

Abbiamo bisogno di sistemi di archiviazione più efficienti.

A quanto pare, però, un team di ricercatori ha escogitato un esempio funzionante di una cosa chiamata memoria universale, un nuovo tipo di cella di memoria elettronica che combina i migliori elementi delle attuali tecnologie di memorizzazione dei dati riducendo al minimo molti degli inconvenienti.

il prototipo di cella di memoria realizzato per questo studio è stata sviluppata utilizzando un approccio legato alla meccanica quantistica, che ha permesso di migliorare l’efficienza energetica del sistema.

La memoria universale, memorizza i dati in modo affidabile permettendo comunque di modificarli quando è necessario. Fino ad ora era ritenuta irrealizzabile o addirittura impossibile, ma questo dispositivo dimostra che è possibile“, afferma il fisico Manus Hayne, della Lancaster University nel Regno Unito.

I computer, i telefoni e i data center di oggi usano due tipi di memoria, in senso lato. C’è la RAM (Random Access Memory) che tiene in memoria tutte le tue app e i tuoi file aperti – è super veloce e ha un basso consumo di energia, ma tutto ciò che immagazzina si perde quando viene interrotta l’alimentazione.

Se vi è mai capitato di perdere un lavoro non salvato a causa di un crash del computer, conoscete i limiti della RAM. La RAM dinamica o DRAM è il tipo di memoria più comunemente usato nei computer, anche se una piccola quantità di Static RAM (SRAM) viene solitamente distribuita sul processore principale del computer.

Esiste anche la memoria flash: questa può conservare i file per lungo tempo, si usa, ad esempio,  quando si salva un documento o una foto sul laptop, ma è più lenta della RAM e richiede più energia. inoltre, con il passare del tempo si degrada, anche se a un ritmo così lento che non dovremmo accorgercene prima di adottare un nuovo computer più aggiornato.

Quello che i ricercatori dell’università di Lancaster sono riusciti a fare è fondere i due tipi di memoria, anche se per ora si tratta solo di un prototipo di laboratorio e ci vorrà diverso tempo prima che entri nell’uso comune. il vero vantaggio, quando questo nuovo tipo di memoria entrerà in commercio, starà nel fatto che non sarà necessario cambiare periodicamente il nostro disco rigido ma sarà possibile trasferirlo di volta in volta nei nuovi dispositivi che acquisiremo.

Secondo noi, la memoria ideale è quella che combina i vantaggi di entrambi i tipi attualmente in uso, evitando i loro inconvenienti, e questo è ciò che abbiamo dimostrato che è possibile fare“, afferma Hayne. “Il nostro dispositivo ha un tempo di vita per l’archiviazione dei dati intrinseco che si prevede superi l’età dell’Universo, ma può registrare, modificare o eliminare dati utilizzando 100 volte meno energia rispetto alla DRAM.”

Secondo i ricercatori, la loro memoria universale potrebbe ridurre l’utilizzo di energia dei data center nelle ore di punta fino a un quinto. Permetterebbe anche l’utilizzo di un un nuovo tipo di computer che non avrebbe mai bisogno di essere avviato, ma che resterebbe costantemente in stans by quando non in uso.

Con un brevetto registrato e un altro in arrivo, c’è ovviamente un interesse commerciale a far decollare questa nuova tecnologia, ed i primi clienti potrebbero essere i giganti della tecnologia, ovvero le aziende che hanno bisogno di immagazzinare grandi quantità di dati.

Potenzialmente, tuttavia, questa nuova tecnologia sarà utile per chiunque utilizzi un dispositivo elettronico di nuova generazione, Permettendo di svolgere qualsiasi attività di archiviazione dati, dalla memorizzazione di immagini fino al mettere in cache uno streamig, risparmiando significativamente sul consumo energetico ed evitando il rischio di perdere i dati mentre si lavora.

La ricerca è stata pubblicata su Scientific Reports.

L’esperimento di Milgram – L’obbedienza all’autorità

0
Migliori casinò non AAMS in Italia

Adolf Eichmann fu uno degli esecutori della deportazione e dello sterminio del popolo ebraico e nel 1961 venne processato come criminale di guerra.

Durante il processo, Eichmann tentò una vana difesa affermando di essere solo un mero esecutore degli ordini ricevuti e di non avere responsabilità. Il processo, tenutosi in Israele però andò male per lui, Eichmann infatti venne ritenuto colpevole e condannato a morte.

La difesa tentata da Eichmann segnò l’opinione pubblica, ma soprattutto colpì Stanley Milgram, psicologo e assistente universitario 26enne dell’Università di Yale, che per indagare le dinamiche di obbedienza all’autorità concepì uno dei più celebri e discussi esperimenti sociali mai eseguiti.

Per arrivare al suo scopo, Milgram pubblicò su un giornale locale un annuncio in cui cercava dei volontari a pagamento che partecipassero al suo studio sulle dinamiche dell’apprendimento. I partecipanti, di età compresa tra i 20 e i 50 anni furono istruiti dal ricercatore che spiegò loro i particolari del test per indagare gli effetti della punizione sulla capacità di imparare. I volontari dovevano ricoprire il ruolo di insegnante e ogni volta che gli allievi, che erano complici dello sperimentatore, avessero risposto in modo errato, gli insegnanti avrebbero dovuto procedere e punirli con una scossa elettrica azionando un comando che metteva in funzione un generatore.

Milgram nei test incoraggiava i più titubanti ad azionare il dispositivo che dava la scossa e a ogni errore degli allievi il voltaggio saliva e con esso le finte urla dei complici-allievi, infatti era tutto finto, una recita e le urla, i lamenti e gli svenimenti non erano reali. I volontari-insegnanti ne erano all’oscuro, non sapevano che il test era rivolto a loro e ne voleva verificare i limiti dell’obbedienza agli ordini che via via ricevevano.

Il test, una volta concluso, presentò dei risultati inquietanti: Milgram scrisse che il 65% dei soggetti sottoposti alle prove aveva eseguito gli ordini dell’autorità, proseguendo con la tortura nonostante il dolore evidente delle vittime.  Riferendosi poi ai campi di concentramento e alle torture inferte dai nazisti aggiunse che nulla di questo sarebbe stato possibile senza la cieca obbedienza di massa agli ordini impartiti dai gerarchi.

I risultati colpirono l’opinione pubblica per come veniva descritta la natura umana che, se sottoposta a un certo tipo di stress, avrebbe agito senza riflessione alcuna e senza nessuna empatia verso il prossimo.

Ma le cose non stavano come Milgram raccontava, molti dei dati raccolti nell’esperimento non vennero mai esposti al pubblico, furono nascosti o sminuiti per far apparire plausibile il caso del gerarca nazista Eichmann, e queste sono le conclusioni tratte da Gina Perry, psicologa che si prese la briga di analizzare il lavoro del ricercatore, ascoltando le registrazioni dei 780 esperimenti e studiato le 158 scatole di documenti raccolti durante il test.

Lo studio che affermava che quasi due terzi delle persone coinvolte eseguissero qualsiasi ordine non può essere, in alcun modo, ritenuto attendibile; quella percentuale del 65% si basava infatti su un primo test che vedeva la partecipazione di una quarantina di soggetti maschi. Questo poteva voler dire che Milgram aveva scoperto una verità universale da applicare a tutto il genere umano sulle reazioni di 26 persone?

Ma ci sono diversi dettagli poco noti. Il primo racconta che Milgram condusse 23 varianti del suo esperimento, con ciascuna che prevedeva diversi scenari e diversi attori. In una, l’attore-allievo non urlò mai fino alla scossa di 300 volt dopo la quale finse di sbattere contro il muro e di cadere privo di sensi. In un’altra, l’allievo si rifiutava di partecipare e lo sperimentatore occupava entrambi i ruoli di vittima e motivatore. Ma soprattutto, in più della metà delle varianti, la maggior parte dei volontari non volle eseguire gli ordini rifiutandosi di continuare il test, ma questo fatto venne omesso nella raccolta dei dati.

Gli archivi parlano chiaro e raccontano che i soggetti tentarono ogni sotterfugio pur di evitare di somministrare le scosse alle cavie false. Alcuni si offrirono di “scambiarsi di ruolo” con la vittima; altri enfatizzarono la risposta corretta, per non far sbagliare l’allievo e evitargli la punizione; altri ancora imbrogliarono dando una scossa più bassa di quanto stabilito. Molti implorarono lo sperimentatore, in tanti ci litigarono e lo sfidarono.

Il team di Milgram manipolò i risultati tralasciando pesantemente i dati più “scomodi” in modo ben poco scientifico.

Nelle prime fasi della ricerca, i soggetti che si opposero più di quattro volte agli ordini furono classificati come “disobbedienti” e cacciati dallo studio (in seguito questo comportamento fu ignorato). In una variante con un soggetto donna, lo sperimentatore insistette per ben 26 volte affinché continuasse a dare la scossa – più che un ordine, una coercizione.

C’è un’altro aspetto che dobbiamo considerare: le cavie erano assolutamente certe della realtà dell’esperimento? Veramente pensavano che l’università Yale permettesse un test del genere con torture e coercizioni?

A esporsi fu anche la National Science Foundation, tra i primi a finanziare Milgram, che espresse riserve sugli esperimenti già nel 1962, invitandolo a compiere un follow-up della prima ricerca in cui avrebbe chiesto ai volontari intervistati la loro interpretazione dei fatti di Yale.

Milgram, in effetti, si occupò di questa dettagliata analisi, ma pubblicò i risultati dopo una decina di anni. Solo allora emerse che appena il 56% dei volontari aveva realmente creduto che le scosse fossero reali come Milgram diceva diceva loro.

Oltre a questo, un’ultima buona notizia che scagiona il genere umano: i disobbedienti erano per la maggior parte gente che era caduta nel tranello e non sospettava che i test fossero pilotati, fasulli. Mentre tra chi dubitava della bontà dell’esperimento,il 44% non si fermava davanti alle richieste di aumentare il voltaggio ordinatogli.

L’umanità in fondo non è cosi cieca davanti al dolore altrui, se lo fosse si sarebbe probabilmente già estinta da tempo.

Fonte: Focus.it

Breaking news: Curiosity ha rilevato un’importante quantità di metano nell’aria di Marte

0
Migliori casinò non AAMS in Italia

Secondo quanto riporta il New York Times, notizia ripresa anche da alcune agenzie stampa italiane, in una rilevazione effettuata lo scorso mercoledì, il rover Curiosity della Nasa ha improvvisamente rilevato grandi quantità di metano nell’aria di Marte.

Sulla Terra il metano è spesso prodotto dal metabolismo di batteri e altri organismi più complessi, per cui gli scienziati ritengono che la presenza di metano nell’atmosfera marziana potrebbe essere il segnale della presenza di vita. Già altre volte, in passato, è stata rilevata la presenza di questo gas su Marte, sia dai rover a Terra che dagli strumenti degli orbiter che lo sorvolano.

Nel 2013 il rover della NASA Curiosity rilevò la presenza di metano nell’aria di Marte. Quello del rover non è stato l’unico rilevamento di metano nell’atmosfera di Marte, nel corso del tempo questo gas è stato rilevato varie volte dai diversi strumenti che scandagliano il Pianeta Rosso, e in vari punti. Purtroppo, però, la presenza del metano si è rilevata fuggevole, al punto che da un anno a questa parte, la sonda Europea Trace Gas Orbiter, inviata, praticamente, proprio per confermare i rilievi precedenti e la loro eventuale stagionalità, non riesce a rilevare alcuna traccia di metano nell’atmosfera di Marte, nemmeno a concentrazioni bassissime come 50 parti per trilione, pur avendo scansionato ormai l’intera atmosfera marziana.

Insomma, siamo sicuri che il metano c’era, oltre che da Curiosity è stato rilevato anche dalla sonda dell’ESA Mars Express per ben due volte, ma è scomparso e non sappiamo né da dove arrivasse né che fine abbia fatto. Secondo gli scienziati, il metano nell’atmosfera di Marte dovrebbe metterci circa 300 anni a degradarsi completamente e scomparire.

Ora questo nuovo rilevamento, anticipato dal New York Times, confermato ieri in tarda serata dalla NASA, che lo ha definito un “primo risultato scientifico”. Secondo il quotidiano statunitense, gli scienziati che lavorano alla missione stanno valutando le implicazioni di questo nuovo rilevamento.

La NASA ora, ha avviato le procedure per effettuare ulteriori verifiche. “Visto questo sorprendente risultato, abbiamo riorganizzato il weekend per eseguire un ulteriore esperimento“, avrebbe scritto Ashwin R. Vasavada, il responsabile scientifico della missione, in una mail della quale il New York Times avrebbe avuto visione.

A quanto pare, il controllo missione, da Terra, ieri ha inviato nuove istruzioni al rover, per eseguire delle letture aggiuntive, sospendendo le attività precedentemente pianificate. I risultati di queste osservazioni dovrebbero giungere lunedì sulla Terra.

Sul nostro pianeta, microrganismi chiamati metanogeni proliferano in luoghi dove c’è scarsità di ossigeno, come le rocce in profondità e i tratti digestivi degli animali e rilasciano il metano come prodotto di scarto. Tuttavia, anche le reazioni geotermiche, prive di attività biologica, possono produrre metano. E’ anche possibile che il metano su Marte sia di origine antica, intrappolato all’interno del pianeta per milioni di anni e rilasciato in maniera intermittente attraverso le crepe del terreno.

Il New York Times cita anche una mail dello scienziato italiano Marco Giuranna, dell’Istituto nazionale di astrofisica, responsabile delle misurazioni di metano della missione Mars Express, la navetta europea in orbita attorno al pianeta e ancora operativa.

Giuranna nella mail afferma che gli scienziati al lavoro sulle missioni Curiosity, Mars Express e Trace Gas Orbiter (la nuova missione europea lanciata nel 2016) hanno discusso queste ultime misurazioni, che avrebbero rilevato nell’atmosfera 21 parti di metano per miliardo, il livello più alto mai rilevato dalle varie missioni che si sono succedute negli anni.

Secondo Giuranna è ancora troppo presto per dare una risposta definitiva. “Ci sono molti dati da processare. Avrò dei risultati preliminari entro la prossima settimana“, ha scritto lo scienziato italiano nella mail citata dal Times.