Il primo di una nuova generazione di esperimenti che mirano a far luce sulla misteriosa energia oscura inizierà a raccogliere dati all’inizio di quest’anno.
Nel 1998, Saul Perlmutter stava guidando una delle due squadre che ha scoperto che l’espansione dell’Universo sta accelerando. La scoperta ha sbalordito il mondo scientifico, poiché la maggior parte delle aspettative erano che l’attrazione gravitazionale della materia verso altra materia avrebbe rallentato l’espansione. Invece, una forza ripugnante ed enigmatica – in seguito chiamata energia oscura – sembrava allontanare l’Universo.
Perlmutter, un astrofisico del Lawrence Berkeley National Lab e dell’Università della California, Berkeley, alla fine condivise il premio Nobel per la fisica per la scoperta. In risposta ai risultati, si rivolse ai teorici in cerca di spiegazioni. “Molto rapidamente, ci siamo resi conto che per distinguere tra teorie concorrenti, avremmo dovuto misurare la storia dell’ espansione dell’Universo con almeno 20 volte la precisione ottenibile in quel momento”, ha dichiarato Perlmutter alla conferenza sulle Controversie Cosmiche a Chicago in ottobre.
Nonostante gli intensi sforzi di ricerca negli ultimi due decenni, i cosmologi non hanno fatto molti progressi nella comprensione della natura dell’energia oscura. La mancanza di progressi può sembrare frustrante, “ma è il momento assolutamente sbagliato per sentirsi depressi”, ha detto Perlmutter, perché i tipi di osservazioni che lui e altri desideravano 20 anni fa stanno finalmente diventando possibili. “I primi esperimenti per raggiungere il nuovo livello di precisione stanno per iniziare“, ha detto.
Il primo della nuova generazione di esperimenti a dare il via sarà Dark Energy Spectroscopy Instrument (DESI), installato sul telescopio Mayall in cima a Kitt Peak in Arizona. Il DESI è attualmente in fase di test e dovrebbe iniziare a raccogliere dati scientifici il mese prossimo. Altri esperimenti, alcuni terrestri e altri su satelliti, inizieranno nei prossimi anni. Le nuove osservazioni useranno una gamma di tecniche diverse e complementari che i cosmologi sperano forniscano nuovi indizi sulla natura dell’energia oscura.
DESI: osservazioni su galassia a scala industriale
Esistono diversi modi per sondare l’espansione dell’Universo. Il metodo più consolidato si basa su supernove di tipo Ia, esplosioni termonucleari di nane bianche che sono visibili anche nelle galassie a dieci miliardi di anni luce di distanza. Poiché la luminosità intrinseca di questo tipo di supernova è nota, questi eventi fungono da “candele standard“: la luminosità osservata sulla Terra può essere utilizzata per calcolare le loro distanze. Gli astronomi possono anche determinare la velocità con cui una supernova si sta allontanando da noi misurando il suo spostamento verso il rosso, la variazione della lunghezza d’onda delle caratteristiche spettrali causata dall’effetto Doppler. Il redshift fornisce il tempo cosmico in cui stiamo assistendo all’esplosione, poiché gli oggetti che si allontanano più velocemente sono più lontani sia nello spazio che nel tempo rispetto a quelli che si allontanano più lentamente.
DESI utilizzerà un metodo diverso, basato sulla misurazione della distribuzione su larga scala delle galassie. Questa distribuzione conserva le firme di un fenomeno noto come oscillazioni barioniche acustiche (BAO). I BAO sono stati prodotti da onde acustiche nel plasma caldo e primordiale che compone l’Universo primordiale. Queste onde si bloccarono circa 380.000 anni dopo il big bang, quando gli elettroni e i protoni del plasma si legarono in atomi neutri. Questo congelamento alla fine ha provocato oscillazioni sottili e periodiche nella densità delle galassie: scegli una galassia e avrai un po ‘più probabilità di trovare altre galassie a una distanza specifica da essa, una distanza chiamata scala acustica.
Poiché la scala acustica al momento del congelamento può essere calcolata da principi primi, “È come avere un metro di riferimento impresso nell’universo“, afferma il regista DESI Michael Levi. La scala acustica aumentò con l’espansione dell’Universo, quindi ora è quasi mezzo miliardo di anni luce. I ricercatori possono seguire come questo parametro è cambiato nel tempo studiando le galassie in una serie di spostamenti verso il rosso.
Levi afferma che l’utilizzo di BAO per determinare la storia dell’ espansione dell’Universo è meno soggetto a errori sistematici rispetto all’interpretazione delle misurazioni di supernova, che richiede una modellizzazione dettagliata delle esplosioni stellari. Misurare la scala acustica, tuttavia, è tutt’altro che semplice. Per misurarlo con precisione, è necessario osservare un gran numero di galassie in miliardi di anni luce. I precedenti sondaggi BAO hanno mappato circa 2,5 milioni di galassie. DESI supererà la precisione di questi sondaggi mappando oltre 35 milioni di galassie e 2,4 milioni di quasar, nuclei galattici estremamente luminosi e distanti. Da tali mappe, DESI ricostruirà gli ultimi 11 miliardi di anni di espansione dell’universo. “È come fare una scansione MRI 3D dell’Universo“, afferma Levi.
DESI sarà in grado di misurare un numero così elevato di oggetti grazie alla tecnologia robotica. Sul piano focale del telescopio, 5000 fibre ottiche raccolgono ciascuna luce da una galassia e inviano la luce a uno spettrometro, che fornirà il redshift della galassia. Ogni 20 minuti, i 5000 posizionatori robotici riallineano le estremità delle fibre, indicandole a una nuova serie di galassie e attraversando oltre 100.000 galassie ogni notte. Per preparare il terreno a DESI, tre precedenti sondaggi hanno osservato un terzo del cielo, raccogliendo immagini di oltre un miliardo di galassie, da cui sono stati selezionati gli obiettivi più promettenti per il DESI. Questi dati sono raccolti in un Sky Viewer online pubblicamente disponibile .
DESI ha aperto gli occhi al cielo notturno nell’ottobre 2019 e i suoi scienziati e ingegneri hanno testato e calibrato lo strumento.
Altri modi per misurare l’energia oscura
Oltre alle supernovae e ai BAO, ci sono altre due importanti tecniche per studiare l’energia oscura. Uno sta contando gli ammassi di galassie: l’abbondanza degli ammassi varia nel tempo a seconda del mix cosmico di materia e energia oscura. L’altro sono misurazioni di lente gravitazionale debole, che mappano la distribuzione della materia oscura in base alla sua sottile distorsione dello spaziotempo e alle conseguenti distorsioni delle forme e delle posizioni delle galassie osservate. Il conteggio dei cluster e la lente debole – entrambi misurati in funzione del redshift – riveleranno come l’espansione accelerata ha cambiato la crescita delle strutture della materia oscura e visibile.
“La gente era solita combattere su quale delle quattro tecniche fosse la migliore“, afferma il cosmologo Andreas Albrecht dell’Università della California, Davis. “Oggi crediamo che la combinazione di diverse tecniche sia molto più potente di ogni singola tecnica“. Mark Kamionkowski, fisico teorico alla Johns Hopkins University di Baltimora, è d’accordo e si riferisce a una famosa parabola del Sud Asia. “Se ci concentrassimo su un solo osservabile, saremmo come uno di quei sei ciechi che cercano di capire cos’è un elefante toccando solo una delle sue parti“.
Seguendo questa filosofia, le prossime strutture includono una varietà di esperimenti che sfrutteranno l’intero spettro di osservabili di energia oscura. L’Agenzia spaziale europea lancerà Euclid nel 2022 e la NASA prevede di lanciare WFIRST nel 2025. Questi due satelliti applicheranno tutte e quattro le tecniche eseguite con alta risoluzione dallo spazio. A terra, la prossima grande novità è il telescopio sinottico a grande apertura, un telescopio ottico da 6,5 m che dovrebbe essere operativo nel 2022. Sebbene non abbia le capacità spettroscopiche di DESI, sarà in grado di vedere molti altri oggetti deboli di qualsiasi sondaggio esistente, scrutando più a fondo il passato dell’Universo.
Migliori interazioni con i dati e tra scienziati
L’ottimismo di Perlmutter non è motivato solo dalla nuova tecnologia di misurazione, ma anche dai notevoli miglioramenti nel modo in cui i ricercatori gestiscono i dati. Ha citato i progressi chiave in diverse aree: i ricercatori sono migliorati nel comprendere come gli errori casuali e sistematici influenzano gli esperimenti; gli strumenti di apprendimento automatico sono stati sempre più applicati all’analisi dei big data; e i progressi nelle cosiddette tecniche di accecamento hanno permesso ai ricercatori di prevenire meglio i pregiudizi che influiscono sul loro trattamento dei dati.
Vi sono stati anche importanti “cambiamenti sociologici“: le collaborazioni stanno adottando sempre più filosofie di scienza aperta, condividendo pubblicamente tutti i loro dati in tempo reale. L’astrofisico Wendy Freedman dell’Università di Chicago ha affermato che molti giovani ricercatori stanno entrando nell’arena dell’energia oscura, provenienti da altre aree, come la fisica delle particelle, e introducendo nuove tecniche. “Questi sono tempi in cui otteniamo una fertile impollinazione incrociata di idee da diversi campi”, ha detto.
Albrecht si è meravigliato dei cambiamenti negli ultimi decenni. “Quando sono entrato nel campo, c’erano molte grandi domande e nessun modo di rispondere. La trasformazione della cosmologia in una scienza di precisione è stata davvero esaltante “, ha affermato. Mentre Perlmutter ha ammesso che non vi è alcuna garanzia che il nuovo livello di precisione sarà sufficiente per vedere qualcosa di nuovo, “una svolta sembra una cosa naturale che accadrà presto“, ha detto.
https://physics.aps.org/articles/v13/1
Entrando in una nuova era della cosmologia dell’energia oscura
Trovate prove di un probabile vulcanismo attivo su Venere
Una nuova ricerca condotta dall’University Space Research Association (USRA) e pubblicata su Science Advances mostra che i flussi di lava su Venere potrebbero avere solo pochi anni, suggerendo che Venere potrebbe essere vulcanicamente attiva oggi, rendendola l’unico pianeta nel nostro sistema solare, oltre alla Terra, con eruzioni recenti.
“Se Venere fosse effettivamente attiva oggi, sarebbe un ottimo posto da visitare per comprendere meglio la conformazione dei pianeti“, afferma il dott. Justin Filiberto, autore principale dello studio e scienziato dello staff della University Space Research Association (USRA) presso il Lunar and Planetary Institute (LPI). “Ad esempio, potremmo studiare il modo in cui i pianeti si raffreddano e perché la Terra e Venere hanno un vulcanismo attivo, ma non Marte. Le missioni future dovrebbero essere in grado di vedere questi flussi e cambiamenti in superficie e fornire prove concrete di questa attività“.
All’inizio degli anni ’90, l’imaging radar della sonda spaziale Magellano della NASA ha rivelato che Venere è un mondo ricco di vulcani e con vasti flussi di lava in superficie.
Negli anni 2000, l’orbiter Venus Express dell’Agenzia spaziale europea (ESA) ha gettato nuova luce sul vulcanismo di Venere misurando la quantità di luce infrarossa emessa da una parte della superficie di Venere (durante la notte).
Questi nuovi dati hanno permesso agli scienziati di distinguere i flussi di lava più recenti rispetto ai più antichi sulla superficie di Venere. Tuttavia, fino a poco tempo fa, l’epoca cui risalgono i vulcani e le eruzioni su Venere non era ben chiara perché il tasso di alterazione della lava fresca non era ben limitato.
Il dottor Filiberto e i suoi colleghi hanno ricreato la calda atmosfera caustica di Venere in laboratorio per indagare su come i minerali osservati su Venere reagiscono e cambiano nel tempo.
I loro risultati sperimentali hanno mostrato che un abbondante minerale di basalto – l’olivina – reagisce rapidamente con l’atmosfera e in poche settimane si ricopre di minerali di ossido di ferro – magnetite ed ematite.
È stato inoltre scoperto attraverso le osservazioni di Venus Express che questo cambiamento nella minerologia avrebbero richiesto solo pochi anni.
Pertanto, i nuovi risultati di Filiberto e dei coautori suggeriscono che questi flussi di lava su Venere sono molto giovani, il che a sua volta implicherebbe che Venere abbia effettivamente vulcani attivi.
Fonte: Phys.org
Misteriosi sciami di droni sul Colorado
A partire dalla settimana di Natale, sciami di droni di quasi 2 metri di diametro sono stati avvistati nel cielo notturno in Colorado orientale. Anche il loro numero era elevato, si parla di una trentina di oggetti.
Cosa sta succedendo?
L’accaduto è stato reso noto per la prima volta dal Denver Post il 23 dicembre scorso e da quella data sei contee in Nebraska e Colorado sono state teatro di questi avvistamenti misteriosi. Lo sceriffo della contea di Phillis, Thomas Elliott, ha affermato che i misteriosi droni volavano formando una sorta di griglia, ma non di non immaginare da dove possano provenire o a chi appartengano.
Per una settimana i grossi droni hanno sorvolato le contee di Phillips e Yuma ogni notte, ha detto Elliott lunedì scorso. Ogni notte, almeno 17 droni compaiono alle 19 circa e scompaiono alle 22 circa, rimanendo in aria ad una quota da 200 a 300 piedi.
La Federal Aviation Administration interpellata da The Post ha dichiarato non avere idea di dove provengano i droni. I rappresentanti dell’Aeronautica Militare, della Drug Enforcement Administration e del US Army Forces Command hanno tutti affermato che i droni non appartenevano alle loro organizzazioni.
Nello spazio aereo sorvolato dai droni, d’altro canto, non esistono regolamenti che costringono i possessori dei droni ad identificarsi ma, nonostante lo stupore suscitato dalle schiere di grossi droni, per ora non si sono verificati problemi.
Il Post ha parlato degli avvistamenti con il fotografo e pilota di droni Vic Moss, il quale ha affermato che i droni sembrano cercare qualcosa o mappare l’area.
Moss ha riferito, inoltre, che i droni volavano spesso di notte, apparentemente con lo scopo di esaminare delle colture. I droni potrebbero anche appartenere a un’azienda locale di droni del Colorado, che potrebbe essere impegnata nel testare nuove tecnologie.
Nel frattempo, Moss ha consigliato ai residenti a non abbattere in alcun modo i droni, poiché essi sono altamente infiammabili.
Fonte: https://www.sciencealert.com/mysterious-swarms-of-giant-drones-keep-appearing-at-night-over-colorado?perpetual=yes&limitstart=1
L’espansione dell’Universo è più veloce del previsto – di Adam G. Riess
L’attuale tasso di espansione del nostro Universo, la costante di Hubble, può essere previsto dal modello cosmologico usando le misurazioni dell’Universo primordiale, o più direttamente misurate dall’Universo tardivo. Ma quando queste misurazioni sono migliorate, è apparso un sorprendente disaccordo tra le due. Nel 2019, una serie di misurazioni indipendenti dell’Universo tardivo utilizzando metodi e dati diversi hanno fornito risultati coerenti, rendendo sempre più difficile ignorare la discrepanza con le prime previsioni dell’Universo.
I progressi chiave
- La misurazione dell’Universo locale (o tardivo) della costante di Hubble è migliorata dall’incertezza del 10% di 20 anni fa, a meno del 2% nel 2019.
- Nel 2019, più team indipendenti hanno presentato misurazioni con metodi e calibrazioni diverse per produrre risultati coerenti.
- Queste stime dell’Universo tardivo non sono d’accordo con una tensione di 4σ sigma
L’obiettivo della cosmologia moderna è spiegare l’evoluzione dell’Universo dal suo inizio ai giorni nostri usando la nostra comprensione limitata della sua composizione e leggi fisiche. Questo è ancora più difficile di quanto sembri!
La prima difficoltà si è materializzata nel 1929, quando le stime iniziali dell’attuale tasso di espansione – nota come costante di Hubble o H 0 – implicava che l’Universo fosse più giovane dell’età stimata per Terra e Sole. Con il senno di poi, entrambe le cifre erano decisamente fuori dal comune, ma nel frattempo si sono registrati enormi progressi. La misura di H 0 è migliorata dall’incertezza del 10% all’inizio degli anni 2000 a meno del 2% nel 2019. Negli ultimi anni, le incertezze ridotte sia dal fondo cosmico a microonde (CMB) – il bagliore del Big Bang – che dalle misurazioni sull’universo locale hanno rivelato una discrepanza di fondo che sta diventando sempre più difficile da ignorare.
Gli scienziati hanno ora un “modello standard di cosmologia“, chiamato MCDM (lambda cold dark matter), ricavato economicamente da sei parametri liberi e da una serie di risposte ben collaudate.
Il modello caratterizza una vasta gamma di fenomeni tra cui l’espansione accelerata, la formazione di strutture, la nucleosintesi primordiale, la geometria piatta dello spaziotempo, le fluttuazioni del bagliore del Big Bang e la prima combinazione di barioni in atomi. Sorprendentemente, i componenti oscuri (materia ed energia) rappresentano il 95% dell’Universo, come descritto da ΛCDM, e la loro presenza è inferita in modo robusto dai loro effetti gravitazionali.
Tuttavia, nonostante il successo nella migliore comprensione del nostro Universo confermato da una ricchezza di misurazioni precise, negli ultimi anni ci sono state prove crescenti che l’espansione dell’Universo sta ancora superando le nostre previsioni.
Le osservazioni della CMB dal satellite Planck dell’ESA forniscono la migliore calibrazione attuale dei parametri in ΛCDM, che sono usati insieme per fornire la stima più precisa di due quantità contemporanee: l’attuale era dell’Universo di 13,8 ± 0,02 miliardi di anni e l’attuale costante di Hubble H 0 = 67,4 ± 0,5 km s −1 Mpc −1.
L’uso di altre misurazioni dall’epoca primordiale dell’Universo produce una figura molto simile. Ma questa stima dell’Universo primordiale si basa sulle ipotesi più semplici sulla natura della materia oscura e dell’energia oscura e su un elenco incerto di particelle relativistiche (come i neutrini). Un potente test end-to-end di ΛCDM con questi presupposti consiste nel misurare la costante di Hubble nell’universo locale o tardivo con una precisione comparabile dell’1%.
Il metodo locale più consolidato è quello di costruire una “scala delle distanze” usando una semplice geometria per calibrare le luminosità di specifici tipi di stelle, pulsanti (variabili Cefeidi) ed esplosive (tipo Ia supernovae o SNe Ia), che possono essere viste a grandi distanze dove i loro spostamenti verso il rosso misurano l’espansione cosmica.
Una scala è necessaria perché anche con gli strumenti più luminosi, le SNe Ia sono troppo rare per essere viste all’interno della gamma di tecniche, come la parallasse, che sono puramente geometriche. La parallasse trigonometrica può essere misurata su qualsiasi oggetto visibile, ma utilmente entro una frazione della Via Lattea. Scoperte da Henrietta Leavitt Swan nel 1912, le Cefeidi sono stelle supergiganti il cui periodo di variabilità è fortemente correlato alla loro luminosità. Raggiungono una luminosità di 100.000 volte quella del Sole, che le rende visibili con il telescopio spaziale Hubble (HST) nella maggior parte delle galassie ad una distanza di 40 Mpc. Le supernove raggiungono i 10 miliardi di volte la luminosità del sole, ma si verificano solo una volta al secolo in una tipica galassia. Due decenni di misurazioni con questi strumenti hanno costantemente prodotto valori per H 0 nei primi anni ’70.
Il progetto SH0ES (Supernovae H0 for the Equation of State) ha avanzato questo metodo espandendo il campione di calibrazioni di alta qualità di SNe Ia dalle Cefeidi, aumentando il numero di calibrazioni geometriche indipendenti e misurando i flussi di tutte le Cefeidi lungo la scala della distanza con lo stesso strumento per annullare gli errori di calibrazione. Stime della distanza geometrica migliorate verso la Grande nube di Magellano utilizzando eclissi separate di binari, e la galassia NGC 4258, usando i maser d’acqua (sorgenti di emissione stimolata da microonde), hanno aiutato notevolmente questo lavoro. Il miglior valore del progetto SH0ES H 0 = 73,5 ± 1,4 km s −1 Mpc −1 è in tensione di 4.2σ con la previsione dell’ Universo primordiale.
Una misurazione locale indipendente di H 0 viene dal team H0LiCOW ( H0 Lenses in COsmograil’s Wellspring), che ha misurato i ritardi temporali tra più immagini di quasar di sfondo per limitare le diverse lunghezze del percorso dell’immagine (causate dal lensing gravitazionale forte dall’obiettivo di una galassia in primo piano). Sei di questi sistemi sono stati misurati per produrre H 0 = 73,3 ± 1,8 km s −1 Mpc −1, con un settimo da un team diverso, STRIDES (STRong-lensing Insights into Dark Energy Survey), che misurano H 0 = 74,2 ± 3,0 km s −1 Mpc −1. Le analisi del lensing sono notevolmente migliorate negli ultimi due decenni e hanno dimostrato coerenza interna da sistemi con un numero diverso di immagini quasar, ritardi di tempo medi, telescopi e metodi utilizzati per stimare la massa dell’obiettivo.
Recentemente sono state costruite scale alternative di distanza, sostituendo altri tipi di stelle nel ruolo solitamente interpretato dalle Cefeidi.
La punta del ramo gigante rosso (TRGB) è la luminosità di picco raggiunta dalle stelle giganti rosse dopo che smettono di fondere l’idrogeno e iniziano a fondere l’elio nel loro nucleo, una preziosa discontinuità che può essere osservata nelle galassie ospiti delle SNe Ia a distanze fino a ~ 20 Mpc con l’HST. Poiché il TRGB non è un tipo di stella, ma piuttosto una caratteristica della distribuzione di migliaia di stelle, la sua luminosità non può essere facilmente calibrata con la qualità limitata delle misurazioni di parallasse nella Via Lattea, né vista direttamente con l’HST nel nostro vicino più vicino, la Grande Nuvola di Magellano, che limita la precisione della sua calibrazione.
Tuttavia, i recenti risultati di TRGB hanno prodotto due misure di H 0 = 69,8 ± 1,9 km s −1 Mpc−1, e 72,4 ± 1,9 km s −1 Mpc −1 , con la differenza principale tra questi risultante da diverse stime dell’estinzione di TRGB da polvere nella Grande nuvola di Magellano e della calibrazione tra HST e fotometria a terra.
I Miras sono stelle giganti rosse variabili che sono state recentemente messe in servizio per misurare H 0 come controllo sulle Cefeidi e TRGB producendo H 0 = 73,3 ± 3,9 km s −1 Mpc −1 usando nuove osservazioni HST e le distanze geometriche precedentemente discusse. Altri due aggiornamenti alla misurazione locale di H 0 provengono da maser d’acqua in quattro galassie a grandi distanze (H 0 = 74,8 ± 3,1 km s −1 Mpc −1 ) e l’uso di un metodo chiamato fluttuazioni della luminosità della superficie (H 0 = 76,5 ± 4,0 km s −1 Mpc −1 ) . Vedi la figura sotto per un riepilogo dei risultati.
Undici medie uniche forniscono un quadro completo di queste recenti misurazioni di H 0. Ognuna costruite con metodi diversi (Cefeidi, TRGB, Miras, SNe Ia, lente) o con calibrazione geometrica diversa (parallasse, DEB, maser in NGC 4258) o team diversi per consentire “sfide perentorie” usando solo misurazioni senza sovrapposizione di dati.
Essi vanno da 72,8 ± 1,1 km s −1 Mpc −1 a 74,3 ± 1,0 km s −1 Mpc −1 e la tensione corre tra 4,5σ a 6,3σ con la stima di Planck.
Tutto ciò in effetti, ci sta dicendo che tutte le recenti misurazioni locali superano la previsione iniziale dell’Universo. Pertanto, è difficile evitare la conclusione che la tensione con la previsione dell’Universo primordiale è sia altamente significativa che non facilmente attribuibile a un errore in uno qualsiasi degli strumenti, squadra o metodo. Le nuove misurazioni dall’universo locale che utilizzano la lente gravitazionale, e dall’universo primordiale, che utilizza la polarizzazione CMB a terra, potranno fare la differenza nei prossimi anni, fornendo anche nuove possibili intuizioni.
Se l’Universo fallisce questo cruciale test end-to-end (sicuramente non è ancora passato), cosa ci potrebbe dire ciò?
È allettante pensare che potremmo vedere prove di qualche “nuova fisica” nel cosmo.
In effetti, un gran numero di soluzioni teoriche sono state proposte e riviste. Ad esempio, se vivessimo vicino al centro di un vasto e profondo vuoto nella struttura su larga scala dell’Universo, ciò potrebbe causare un’espansione locale eccessiva. Tuttavia, le probabilità che si verifichi un vuoto così grande per caso sono incredibilmente basse. I calcoli mostrano che supera 10σ ed è anche fortemente escluso empiricamente dalla mancanza di prove. L’energia oscura, con un’equazione di stato inferiore all’energia del vuoto, potrebbe produrre un’accelerazione più forte e spiegare la discrepanza, ma questa possibilità è sfavorita da altre misurazioni intermedie del redshift.
Un maggior successo nello spiegare le discrepanze di misurazione di H 0 è stato ottenuto modificando la composizione dell’Universo poco prima dell’emergere del CMB.
Un componente aggiuntivo in ΛCDM, come un nuovo neutrino o campo scalare (quest’ultimo chiamato energia oscura precoce o EDE), avrebbe potuto aumentare l’espansione precoce, diminuire l’orizzonte sonoro delle fluttuazioni primordiali e aumentare il valore previsto di H 0 a seconda del avvicinamento usato, a 70–73 km s −1 Mpc −1 in accordo plausibile con il valore locale.
Nuove particelle tendono a creare nuovi conflitti con la CMB, mentre l’EDE sostiene bene l’accordo con la CMB. Una critica all’EDE è che le sue scale devono essere regolate con precisione, anche se lo stesso si può dire degli altri due episodi di energia oscura (inflazione e accelerazione attuale). Ciò solleva la questione se episodi apparenti di tale espansione anomala siano comuni o addirittura correlati.
Inoltre, se il vero tasso di espansione fosse il valore locale più alto, l’Universo potrebbe effettivamente essere fino a un miliardo di anni più giovane del previsto. Più lavoro dal punto di vista teorico e nuovi dati sono estremamente necessari prima di poter sperare di raggiungere la comprensione end-to-end dell’Universo da tempo ricercata.
Nature Reviews Physics (2019)
Gli scienziati fissano i tempi della morte della dinamo lunare
Si sa che in epoca remota la Luna aveva un nucleo metallico e un campo magnetico generato per effetto dinamo. Ora Weiss e colleghi del MIT, e di altri paesi, hanno fissato i tempi della fine della dinamo lunare a circa 1 miliardo di anni fa. I risultati compaiono oggi sulla rivista Science Advances.
Il nuovo tempismo esclude alcune teorie su ciò che ha guidato la dinamo lunare nelle sue fasi successive e favorisce un meccanismo particolare: la cristallizzazione del nucleo.
Mentre il nucleo di ferro interno della Luna si cristallizzava, il fluido caricato elettricamente del nucleo liquido veniva energicamente agitato, producendo la dinamo.
“Il campo magnetico è come una nebulosa che pervade lo spazio, come un campo di forza invisibile“, afferma Benjamin Weiss, professore di scienze della terra, atmosferiche e planetarie al MIT. “Abbiamo dimostrato che la dinamo che ha prodotto il campo magnetico lunare è morta da qualche parte tra 1,5 e 1 miliardo di anni fa e sembra essere stata alimentata in modo simile alla Terra“.
Negli ultimi anni, il gruppo del MIT e altri hanno scoperto segni di un forte campo magnetico, di circa 100 microtesla, in rocce lunari vecchie di 4 miliardi di anni. Per fare un confronto, il campo magnetico terrestre oggi è di circa 50 microtesla.
Nel 2017, il gruppo di Weiss ha studiato un campione raccolto dal progetto Apollo della NASA e ha trovato tracce di un campo magnetico molto più debole, sotto i 10 microtesla, in una roccia lunare che hanno determinato avere circa 2,5 miliardi di anni. All’epoca pensavano che fossero in gioco solo due meccanismi per la dinamo lunare: il primo avrebbe potuto generare un campo magnetico molto più forte e precedente, circa 4 miliardi di anni fa, prima di essere sostituito da un secondo meccanismo più longevo che sosteneva un campo molto più debole, fino ad almeno 2,5 miliardi di anni fa.
“Ci sono diverse idee su quali meccanismi hanno alimentato la dinamo lunare, e la domanda è: come si fa a capire quale sia stato?” Dice Weiss. “Si scopre che tutte queste sorgenti di energia hanno vite diverse. Quindi, se riusciamo a capire quando la dinamo si è spenta, allora si potrebbe distinguere tra i meccanismi che sono stati proposti per la dinamo lunare. Questo era lo scopo di questo nuovo documento“.
La maggior parte degli studi magnetici sui campioni lunari delle missioni Apollo proviene da antiche rocce, risalenti da circa 3 a 4 miliardi di anni fa. Queste sono rocce originariamente emerse come lava su una superficie lunare molto giovane, e mentre si raffreddavano, i loro microscopici granuli si allineavano nella direzione del campo magnetico della Luna. Gran parte della superficie della luna è coperta da tali rocce, che sono rimaste invariate da allora, conservando una registrazione dell’antico campo magnetico.
Tuttavia, le rocce lunari le cui storie magnetiche sono iniziate meno di 3 miliardi di anni fa sono state molto più difficili da trovare perché ormai la maggior parte del vulcanismo lunare era cessato.
“Gli ultimi 3 miliardi di anni di storia lunare sono stati un mistero perché non c’è quasi nessuna ‘registrazione’“, afferma Weiss.
Tuttavia, lui e i suoi colleghi hanno identificato due campioni di roccia lunare, raccolti dagli astronauti durante le missioni Apollo, che sembrano aver subito un impatto enorme circa 1 miliardo di anni fa e di conseguenza sono stati fusi e saldati insieme in modo tale che l’antica registrazione magnetica è stata quasi cancellata.
Il team ha riportato i campioni in laboratorio e prima ha analizzato l’orientamento degli elettroni di ciascuna roccia, che Weiss descrive come “piccole bussole” che si allineano nella direzione di un campo magnetico esistente o, in assenza, compaiono in orientamenti casuali. Per entrambi i campioni, il team ha osservato l’ultimo: configurazioni casuali di elettroni, suggerendo che le rocce si sono formate in un campo magnetico da estremamente debole a sostanzialmente zero, non superiore a 0,1 microteslas.
Il team ha quindi determinato l’età di entrambi i campioni utilizzando una tecnica di datazione radiometrica che Weiss, e il suo collega Shuster, sono stati in grado di adattare per questo studio.
Il team ha sottoposto i campioni a una serie di test per vedere se funzionavano davvero come registratori magnetici. In altre parole, una volta riscaldati da un impatto enorme, avrebbero potuto essere ancora abbastanza sensibili da registrare anche un debole campo magnetico sulla luna, se esistesse?
Per rispondere a questo, i ricercatori hanno posto entrambi i campioni in un forno e li hanno fatti esplodere ad alte temperature per cancellare efficacemente la loro ‘registrazione’ magnetica, quindi hanno esposto le rocce a un campo magnetico generato artificialmente in laboratorio mentre si raffreddavano.
I risultati hanno confermato che i due campioni erano effettivamente dei registratori magnetici affidabili e che l’intensità di campo inizialmente misurata, di 0,1 microtesla, rappresentava accuratamente il valore massimo possibile del campo magnetico estremamente debole della luna 1 miliardo di anni fa. Weiss afferma che un campo di 0,1 microtesla è così basso che è probabile che la dinamo lunare sia terminata a questo punto.
Le nuove scoperte si allineano alla durata prevista della cristallizzazione del nucleo, un meccanismo proposto per la dinamo lunare che avrebbe potuto generare un campo magnetico debole e di lunga durata nella parte successiva della storia della luna.
Weiss afferma che prima della cristallizzazione del nucleo, un meccanismo noto come precessione potrebbe aver alimentato una dinamo molto più forte sebbene di breve durata.
La precessione è un fenomeno mediante il quale il solido guscio esterno di un corpo come la Luna, in stretta prossimità di un corpo molto più grande come la Terra, oscilla in risposta alla gravità terrestre. Questo traballare agita il liquido nel nucleo, nello stesso modo in cui il liquido si agita dentro una tazza di caffè.
Circa 4 miliardi di anni fa, la Luna neonata era probabilmente molto più vicina alla Terra di quanto lo sia oggi, e molto più suscettibile agli effetti gravitazionali del pianeta. Mentre la Luna si allontanava lentamente dalla Terra, l’effetto della precessione diminuiva, indebolendo a sua volta la dinamo e il campo magnetico.
Weiss afferma che è probabile che circa 2,5 miliardi di anni fa, la cristallizzazione del nucleo divenne il meccanismo dominante con cui la dinamo lunare continuava, producendo un campo magnetico più debole che continuava a dissiparsi mentre il nucleo della luna alla fine si cristallizzava completamente.
Il gruppo sta cercando di misurare la direzione dell’antico campo magnetico della luna nella speranza di raccogliere ulteriori informazioni sull’evoluzione della Luna.
Questa ricerca è stata supportata, in parte, dalla NASA.
http://news.mit.edu/2019/when-lunar-dynamo-ended-0101
Come fu misurata la velocità della luce
Uno dei primi che cercò di stabilire, con scarso successo, la velocità della luce fu Galileo Galilei. Egli piazzò due suoi assistenti sulla sommità di due colli prospicenti impegnati tutta la notte, ad accendere e spegnere delle lanterne ad orari prefissati. I due colli distavano l’uno dall’altro qualche centinaio di metri. Quando scorgevano la luce accesa dovevano gridarlo a voce alta ad un terzo osservatore, lo stesso Galileo, che cercava di prendere nota del tempo intercorso.
Questo metodo è ottimo per misurare la velocità del suono secondo il principio per cui tra lo scorgere il lampo e sentire il tuono passa un certo lasso di tempo. Il suono non è rapidissimo: va a circa 1200 km all’ora o 330 metri al secondo, se preferite, dunque l’effetto è percepibile ad occhio nudo: ad esempio occorrono circa tre secondi perché si avverta il boato di un fulmine che cade ad un chilometro di distanza.
La luce va enormemente più veloce ed il metodo usato da Galileo non permise al grande scienziato italiano di misurare la velocità della luce. Per percorrere un miglio, la luce impiega grossomodo 0,000005 secondi. Un tempo assolutamente non misurabile con gli strumenti a disposizione di Galileo.
Nel 1676, circa 30 anni dopo la morte di Galileo, un astronomo danese, Ole Romer, che allora lavorava all’Osservatorio di Parigi puntò il telescopio verso i satelliti di Giove allora conosciuti detti “galileiani o medicei”. Si concentrò sulle loro eclissi e si accorse di un certo ritardo con cui le lune scomparivano e ricomparivano dietro al gigante gassoso.Questo intervallo temporale dipendeva misteriosamente dalla distanza tra la Terra e Giove che cambia nel corso dell’anno.
Romer intuì che questo ritardo dipendeva dalla velocità della luce secondo il principio dell’intervallo tra fulmine e tuono. L’astronomo partì dall’assunto che la velocità della luce non era infinita, e pertanto impiegava un certo tempo per percorrere la strada fra Giove e la Terra. Gliene serviva di più quando la Terra è più lontana.
In base alle sue osservazioni Romer stabilì che la luce viaggia 220.000 km al secondo (sbagliando i calcoli del diametro terrestre l’astronomo danese definisce un valore pari al 73% dell’effettivo valore di c).
Poco più di 10 anni dopo, il matematico e fisico olandese Christiaan Huygens riutilizza l’idea di Rømer per misurare in modo più preciso la velocità della luce. E il suo risultato si avvicina moltissimo a quello che conosciamo oggi: 300.000 km al secondo.
Huygens sostenne inoltre che la luce è un’onda che si propaga in un mezzo, così come le onde del mare viaggiano nell’acqua o quelle sonore nell’aria. Chiama il mezzo necessario alla luce etere luminifero (cioè “portatore di luce”), sostenendo che questo riempia tutto l’universo e sia composto da microscopiche particelle.
Ci vorrà poi moltissimo tempo prima che questo assunto venga smentito.
Nel 1850 Armand Fizeau e Jean Foucault due ricercatori francesi, in feroce competizione tra loro, riuscirono a calcolare la velocità della luce con metodi diretti sulla Terra, senza ricorrere a misure astronomiche.
Fu l’inizio di una vera e propria gara tra gli scienziati per determinare la misura più precisa possibile della velocità della luce, gara che continua anche ai giorni nostri.
L’attuale misurazione della velocità della luce, più accreditata, e che in fisica è indicata con la lettera c, è pari a 299.792,458 km al secondo.
Una velocità al momento insuperata in natura.
L’ammasso di galassie che illumina le epoche cosmiche oscure
Le osservazioni di un lontano gruppo di galassie suggeriscono che la formazione stellare iniziò solo 370 milioni di anni dopo il Big Bang. I risultati forniscono dettagli chiave su dove e quando le prime stelle e galassie sono emerse nell’Universo.
Poco dopo il Big Bang, l’Universo era completamente buio. Le stelle e le galassie, che forniscono luce all’Universo, non si erano ancora formate e l’Universo consisteva in una zuppa primordiale di atomi di idrogeno ed elio neutri e “materia oscura” invisibile. Durante queste ere oscure cosmiche, che durarono per diverse centinaia di milioni di anni, emersero le prime stelle e galassie. Sfortunatamente, le osservazioni di questa epoca sono difficili perché le galassie dell’età oscura sono eccezionalmente deboli. Nello studio di Willis et al. si fa luce su ciò che è accaduto durante il periodo oscuro facendo un po’ di archeologia galattica. Misurando le età delle stelle in uno dei gruppi più distanti di galassie conosciute, gli autori hanno individuato galassie che formavano stelle nei periodi oscuri, più vicino possibile al momento in cui le stelle potevano emergere.
Un ammasso di galassie è un gruppo di migliaia di galassie che orbitano a vicenda a velocità di circa 1.000 chilometri al secondo. A loro è impedito di volare a pezzi dall’attrazione gravitazionale della materia oscura che l’accompagna, che ha la massa totale equivalente di circa cento miliardi di miliardi di soli. Gli astronomi usano questi cluster come laboratori per molti esperimenti di astrofisica, come misurare la composizione dell’Universo, testare le teorie della gravità e determinare come si formano le galassie. Willis et al. usò uno dei cluster più distanti noti per studiare quando le galassie più imponenti dell’Universo iniziarono a produrre stelle.
Sebbene i cluster vicini, come il cluster Coma, siano più facili da osservare rispetto a quelli più lontani, non possiamo misurare la loro età proprio perché le galassie sono estremamente vecchie. È difficile distinguere, ad esempio, una galassia che ha 7 miliardi di anni e una che ne ha 13. Pertanto, per ottenere una data precisa per quando i cluster hanno formato per la prima volta le loro stelle, Willis e colleghi hanno usato il telescopio spaziale Hubble della NASA per guardare uno dei cluster più distanti che potevano trovare.
Poiché la luce viaggia a una velocità finita, i cluster più distanti che possiamo vedere sono anche quelli nelle prime fasi dell’Universo. La luce del cluster esaminata da Willis et al. ha viaggiato per 10,4 miliardi di anni prima di raggiungere la Terra, il che significa che stiamo guardando un ammasso come era appena 3,3 miliardi di anni dopo il Big Bang. Di conseguenza, questo gruppo funge da buco della serratura attraverso il quale possiamo scrutare nell’universo primordiale (Fig. 1).
Willis e colleghi hanno scoperto che il cluster contiene diverse galassie che hanno colori rossi simili. Il colore di una galassia può essere usato per stimare la sua età perché le stelle più giovani sono più blu delle loro controparti più vecchie e più rosse. Di conseguenza, le galassie che hanno colori rossi hanno formato le loro stelle molto tempo fa. Confrontando i colori dei cluster di galassie con quelli dei modelli, gli autori hanno stimato che le stelle di queste galassie iniziarono a emergere quando l’Universo aveva solo 370 milioni di anni. Questa è l’epoca in cui ci aspettiamo che le prime stelle si siano formate negli anni dell’oscurità cosmica.
Un punto particolarmente intrigante è che Willis et al. identificato almeno 19 galassie nel cluster che hanno colori simili, il che significa che le galassie hanno età simili. Nel momento in cui queste galassie formavano le loro stelle, sarebbero state ben distribuite, quindi è un dilemma il motivo per cui tutti hanno iniziato a produrre stelle approssimativamente nello stesso momento. Sono stati influenzati dal loro ambiente? In alternativa, la formazione stellare in una galassia in qualche modo ha innescato una reazione a catena, portando alla formazione stellare nelle nuvole di gas vicine? Al momento non abbiamo la risposta, ma ciò che è chiaro dal lavoro degli autori è che questi cluster distanti sono pieni delle galassie più antiche dell’Universo.
La mia opinione è che le stime di età di Willis et al. sono le migliori possibili, visto i dati limitati che gli autori hanno dal telescopio Hubble. Tuttavia, determinare le età dai colori delle galassie è un metodo relativamente grezzo che è soggetto a grandi incertezze. Ad esempio, una giovane galassia che contiene molta polvere astronomica può avere lo stesso colore di una vecchia galassia contenente poca polvere. Pertanto, sebbene i risultati degli autori siano allettanti, dovrebbero essere trattati con cautela fino a quando non verrà lanciato James Webb Space Telescope (JWST) della NASA nei prossimi anni.
Il JWST misurerà gli spettri della luce emessa da queste galassie. Un confronto degli spettri con i modelli sarà un modo molto più preciso per determinare l’età delle stelle rispetto all’utilizzo dei colori delle galassie. Inoltre, poiché è più facile misurare le età delle galassie precedenti rispetto a quelle più recenti, ha senso indirizzare le galassie nei progenitori di questi ammassi di galassie nell’Universo primordiale. I risultati di Willis et al. dimostrano che questi gruppi distanti sono tra i primi obiettivi che il JWST dovrebbe osservare.
Nature 577, 36-37 (2020)
doi: 10.1038/d41586-019-03893-7
[Spectroscopic confirmation of a mature galaxy cluster at a redshift of 2 – J. P. Willis et al. 2019] Nature volume 577, pages39–41(2020)
Quanto può resistere un organo espiantato? Nuove frontiere dei trapianti d’organo
Davanti a un’operazione delicata come quella di trapiantare un organo, il tempo è un fattore fondamentale. Nella prima fase si deve espiantare l’organo dal donatore che viene immediatamente preparato per il trasporto affinché giunga rapidamente al suo destinatario che potrebbe trovarsi anche a grande distanza.
Una volta arrivato a destinazione, l’organo viene preparato per l’operazione di trapianto e ancora una volta, i chirurghi devono lottare contro il tempo per garantire sia la sicurezza del paziente che la vitalità dell’organo.
Questa corsa frenetica contro il tempo solleva una domanda, quanto può durare un organo fuori dal corpo per poter essere trapiantato prima che si deteriori?
Il tempo varia, e dipende dall’organo preso in considerazione, ma possiamo dire che esiste una finestra utile che va dalle 4 fino alle 36 ore, anche se in futuro c’è la speranza di espandere questa finestra temporale fino a intere settimane.
Solo nel 2018 sono stati trapiantati negli USA (fonte United Network for Organ Sharing) oltre 36.500 organi, di cui 21.000 solo di reni, a seguire fegato, cuore, polmoni, pancreas, intestino e trapianti multipli. Gli organi vengono conservati in celle frigorifere e come spiega il il dott. Mingyao Liu, direttore dell’Institute of Medical Science e professore di chirurgia, medicina e fisiologia all’Università di Toronto in un rapporto del 2019 sul Journal of International Medical Research.
“L’idea di eseguire la conservazione con il freddo è molto simile a quando mettiamo i nostri alimenti in frigorifero“.
Gli organi vengono lavati con una soluzione di conservazione che li protegge dai danni che il freddo estremo potrebbe causare e li rifornisce di sostanze nutritive e antiossidanti. A basse temperature le cellule non possono attivare i loro processi e con il passare del tempo tendono a gonfiarsi di liquido subendo gravi danni, queste soluzioni invece ne impediscono il deterioramento mantenendo i livelli di sodio e potassio sotto controllo.
A basse temperature, tra 0 e 4 gradi celsius, il metabolismo cellulare è più lento del 5%, i tessuti bruciano le loro riserve lentamente consumando meno ossigeno. Grazie a questo si ritardano i processi che danneggiano i tessuti.
L’organo più delicato è il cuore che non dovrebbe essere conservato in celle frigorifere statiche per più di 4-6 ore.
Dopo appena 4 ore, la funzione delle cellule cardiache inizia a deteriorarsi e la probabilità che l’organo non funzioni correttamente una volta impiantato aumenta drammaticamente.
I reni invece sono organi molto resistenti e possono rimanere vitali per 24/36 ore dall’espianto conservati in celle frigorifere; i polmoni 6/8 ore e il fegato 12.
Il metodo di conservazione e trasporto a bassa temperatura è in uso dagli anni 60, è un metodo efficace ma comporta dei problemi in quanto i medici non possono valutare la qualità dell’organo refrigerato.
Tuttavia esiste un’alternativa alla refrigerazione che da l’opportunità ai medici di verificare gli organi prima del trapianto.
Il metodo si chiama “perfusione” e consiste nel collegare l’organo espiantato a una macchina che lo rifornisce di fluidi ricchi di ossigeno e nutrienti come farebbe il cuore. I metaboliti vengono rimossi e lo zucchero rimpinguato. Con una macchina del genere si può consegnare un organo integro e funzionante al 100% e cosa importante, l’organo è facilmente monitorabile.
Alcuni sistemi di perfusione hanno bisogno di un sistema di raffreddamento per conservare l’organo ma negli ultimi 20 anni diversi gruppi di ricerca hanno optato per mantenere l’organo tra i 20 e i 33° C e inondare i tessuti di sangue. Entrambi i sistemi, a freddo e a caldo sono oggi utilizzati sia in Australia che nel Regno Unito anche se la maggior parte di questi dispositivi rimane negli studi clinici negli Stati Uniti.
Poco tempo fa, un sistema di perfusione a caldo utilizzato negli USA è stato utilizzato per un trapianto unico nel suo genere. I medici del Duke University Medical Center di Durham, nella Carolina del Nord, hanno espiantato il cuore di un paziente dopo che aveva smesso di battere; hanno quindi “rianimato” l’organo usando un sistema di perfusione calda.
In genere, i cuori vengono rimossi dai donatori dopo la morte cerebrale prima che l’organo smetta di battere, per evitare danni estesi dall’ischemia. I medici avevano già “rianimato” i cuori pediatrici negli Stati Uniti, ma non avevano mai usato il sistema su un organo di un adulto. In paesi che hanno usato il sistema per anni, il pool di donatori di cuori accettabili è aumentato di circa il 30% al 40%.
Fino ad ora, pochi studi hanno confrontato direttamente la conservazione fredda con la perfusione, ma in genere gli organi perfusi sembrano andare meglio.
Ad esempio, in uno studio che ha confrontato un sistema di perfusione epatica con una normale cella frigorifera, i medici hanno rifiutato solo 16 fegati perfusi, rispetto ai 32 provenienti da dispositivi di raffreddamento, e gli organi perfusi sembravano meno danneggiati, secondo Stat News.
Sono state riscontrate tendenze simili anche nel trapianto del polmone e grazie a un sistema di perfusione ex vivo i trapianti sono passati dal 20 al 70%.
Esperimenti condotti con organi di animali hanno dimostrato che i polmoni perfusi possono rimanere vitali fino a 12-18 ore e forse più. Inoltre questo consentirà ai medici di riparare eventuali danni fino a limitare, grazie al sistema, di inibire la morte cellulare e le infiammazioni.
Il futuro si prospetta interessante se consideriamo le terapie geniche o gli studi sulle staminali. Oggi però la realtà dimostra che gli organi, per la maggior parte, vengono tenuti sotto ghiaccio per il semplice motivo che è un sistema molto economico rispetto agli alti costi delle macchine per la perfusione.
La teoria tolemaica
Claudio Tolomeo fu un astronomo, matematico, geografo fisico e cronologo, visse ad Alessandria d’Egitto tra il 100 d.C. e il 178 d.C.. ma non sappiamo con certezza quali furono le sue origini, se fosse nato ad Alessandria d’Egitto o a Tolemaide.
In diverse opere si attesta il suo enciclopedismo ma sulla sua vita sappiamo che compì diverse osservazioni astronomiche tra il 127 e il 141 d.C. e che fu attivo nel Museo d’Alessandria.
A Tolomeo viene riconosciuta fama grazie al sistema che prese il suo nome, il sistema Tolemaico che poneva il nostro pianeta al centro dell’universo conosciuto. Questo sistema venne insegnato per 1400 anni, fino a quando Copernico non lo spodestò, verso la metà del XVI secolo con il suo sistema Eliocentrico, che poneva invece il Sole al centro dell’universo.
La sua opera più importante è la “Composizione matematica“, conosciuta anche con il nome di “Grande sintassi” o Almagesto. Tredici libri in cui Tolomeo ordina tutte le conoscenze dell’antichità sugli astri, in particolar modo quelle dell’astronomia greca.
Tolomeo parte dal modello aristotelico elaborando una teoria geocentrica e antropocentrica dell’universo allora conosciuto ponendo la Terra al centro con ogni altra cosa che gli ruotava attorno indefinitamente.
Come mai questa teoria, seppur errata durò oltre un millennio? Fondamentalmente per due motivi, vediamoli.
Il sistema Tolemaico riesce a prevedere con buona approssimazione il movimento degli astri sulla volta celeste confermata dalle osservazioni. Venne adottato dalla Chiesa Cattolica che con la sua politica repressiva impedì per secoli ogni tipo di critica scientifica accusando di eresia e condannando a morte chiunque avrebbe osato sfidarla.
Tolomeo, nella sua teoria mise al centro del tutto la Terra intorno alla quale ruotava l’intera sfera celeste. Tolomeo sosteneva che la Terra fosse abitata solo su una parte rifiutando la sua rotazione diurna affermando che era il Sole a ruotare attorno al nostro pianeta cosi come il resto dei corpi celesti visibili di notte.
Tolomeo riprende il sistema Aristotelico in uso qualche secolo prima, introducendo delle correzioni per rendere il modello geocentrico compatibile con le osservazioni. Le differenze tra i due sistemi sono comunque marcate, Aristotele ipotizza le orbite dei pianeti lungo delle circonferenze sferiche perfette e concentriche intorno alla Terra. Nel modello tolemaico, invece, lo schema è imperfetto e le orbite non sono concentriche, pur restando la Terra al centro dell’universo.
Tolomeo definisce le orbite dei pianeti epicicli, sono circolari ma non concentriche e si muovono lungo un’altra circonferenza circolare deferente intorno alla Terra. La posizione della Terra non si trova al centro esatto delle circonferenze deferenti ma, a seconda dei casi, è leggermente decentrata. Gli stessi moti dei pianeti si muovono intorno a dei punti decentrati detti equanti.
La teoria tolemaica fu oggetto di critiche a causa del movimento degli altri pianeti del sistema solare, Mercurio, Venere, Marte, Giove e Saturno visibili dalla Terra. Agli occhi di un astronomo dell’antichità questi corpi celesti, definiti da Tolomeo “astri erranti“, hanno un movimento diverso dalla sfera celeste.
Fonte: https://www.okpedia.it/teoria-tolemaica
No, non possiamo ancora usare l’entanglement quantistico per comunicare più velocemente della luce
Di Ethan Siegel
Una delle regole fondamentali della fisica, indiscussa da quando Einstein l’ha definita nel 1905, è che nessun segnale che trasporta informazioni di qualsiasi tipo può viaggiare attraverso l’Universo più veloce della velocità della luce. Le particelle, massicce o prive di massa, sono necessarie per trasmettere informazioni da una posizione all’altra, e quelle particelle sono obbligate a viaggiare al di sotto (a causa della massa) della velocità della luce, come stabilito dalle regole della relatività.
Dallo sviluppo della meccanica quantistica, tuttavia, si è pensato che potrebbe essere possibile sfruttare l’entanglement quantistico per sovvertire questa regola, escogitando schemi intelligenti per tentare di trasmettere informazioni in modo da “imbrogliare” la relatività e comunicare più veloce della luce. Sebbene sia un mirabile tentativo di aggirare le regole del nostro Universo, la comunicazione più veloce della luce è ancora impossibile. Ecco perché.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 6 Lanciare una moneta dovrebbe tradursi in un risultato 50/50 di ottenere testa o croce. Se due "quantum" ... [+] sono intrappolate, tuttavia, misurare il risultato di una delle monete (testa o croce) può fornirti informazioni per fare meglio delle ipotesi casuali quando si tratta dello stato dell'altra moneta. Tuttavia, tali informazioni possono essere trasmesse, da una moneta all'altra, solo alla velocità della luce o più lentamente.](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2017%2F04%2F5262645427_a47dba0232_b.jpg)
Concettualmente, l’entanglement quantistico è un’idea semplice. Puoi iniziare immaginando l’Universo classico e uno dei più semplici esperimenti “casuali” che potresti eseguire: lanciare una moneta. Se io e te abbiamo una moneta uguale e la lanciamo, ci aspetteremmo che ci sia una probabilità 50/50 che ognuno di noi ottenga testa e una probabilità 50/50 che ognuno ottenga croce. I tuoi risultati e i miei risultati non dovrebbero essere solo casuali, dovrebbero essere indipendenti e non correlati: se ricevo testa o croce, dovresti comunque avere 50/50 probabilità a prescindere da ciò che ottieni con il tuo lancio.
Ma se questo non è un sistema classico dopo tutto, e invece uno quantistico, è possibile che la tua moneta e la mia moneta rimangano intrecciate. Ognuno di noi potrebbe avere ancora una probabilità 50/50 di ottenere teste o croci, ma se lanci la tua moneta e misuri le teste, sarai immediatamente in grado di prevedere statisticamente una precisione migliore del 50/50 sul risultato.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 7 Creando due fotoni aggrovigliati da un sistema preesistente e separandoli da grandi distanze, ... [+] possiamo "teletrasportare" le informazioni sullo stato di uno misurando lo stato dell'altro, anche da posizioni straordinariamente diverse. Le interpretazioni della fisica quantistica che richiedono sia la località che il realismo non possono giustificare una miriade di osservazioni, ma tutte le interpretazioni multiple sembrano ugualmente valide.](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2016%2F11%2F3794835939_fb72bb28d0_b.jpg)
Com’è possibile?
Nella fisica quantistica esiste un fenomeno noto come entanglement quantico, che è il luogo in cui si crea più di una particella quantistica – ognuna con il proprio stato quantico individuale – in cui si conosce qualcosa di importante sulla somma di entrambi gli stati insieme. È come se ci fosse un filo invisibile che collega la tua moneta e la mia moneta, e quando uno di noi effettua una misurazione della moneta che abbiamo, sappiamo immediatamente qualcosa sullo stato dell’altra moneta che va oltre la familiare casualità classica.
Anche questo non è un semplice lavoro teorico. Abbiamo creato coppie di quanti impigliati (fotoni, per essere specifici) che vengono poi allontanati l’uno dall’altro fino a quando non sono separati da grandi distanze, quindi utilizziamo due apparati di misurazione indipendenti che ci dicono qual è lo stato quantico di ogni particella. Effettuiamo queste misurazioni contemporaneamente, quindi ci riuniamo per confrontare i nostri risultati.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 8 La migliore imitazione realista locale possibile (rossa) per la correlazione quantistica di due spin nello stato [...] singoletto (blu), insistendo sulla perfetta correlazione a zero gradi, perfetta correlazione a 180 gradi. Esistono molte altre possibilità per la correlazione classica soggetta a queste condizioni laterali, ma tutte sono caratterizzate da picchi acuti (e valli) a 0, 180, 360 gradi e nessuno ha valori più estremi (+/- 0,5) a 45, 135, 225, 315 gradi. Questi valori sono contrassegnati da stelle nel grafico e sono i valori misurati in un esperimento di tipo Bell-CHSH standard. Le previsioni quantistiche e classiche possono essere chiaramente discernute.](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2018%2F09%2F896px-Bell.jpg)
Quello che troviamo, forse sorprendentemente, è che i tuoi risultati e i miei risultati sono correlati!
Abbiamo separato due fotoni su distanze di centinaia di chilometri prima di effettuare tali misurazioni e quindi misurato i loro stati quantici entro nanosecondi l’uno dall’altro. Se uno di questi fotoni ha uno spin +1, si può prevedere uno stato dell’altro con un’accuratezza di circa il 75%, anziché lo standard del 50%.
Inoltre, possiamo “conoscere” istantaneamente tali informazioni, piuttosto che aspettare che l’altro apparato di misurazione ci invii i risultati di quel segnale, che richiederebbe circa un millisecondo. Sembra, in superficie, che possiamo conoscere alcune informazioni su ciò che sta accadendo all’altra estremità dell’esperimento impigliato non solo più velocemente della luce, ma decine di migliaia di volte più velocemente di quanto la luce potrebbe mai trasmettere informazioni.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 9 Se due particelle sono intrappolate, hanno proprietà di funzione d'onda complementari e misurando una ... [+] determina le proprietà dell'altra. Se crei due particelle o sistemi intrecciati, tuttavia, e misuri il modo in cui uno decade prima che l'altro decade, dovresti essere in grado di verificare se la simmetria di inversione temporale viene conservata o violata.](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2016%2F11%2FSlideshow_entanglement.jpg)
Ciò significa che possiamo usare l’entanglement quantistico per comunicare informazioni a velocità superiori alla luce?
Potrebbe sembrare così. Ad esempio, potresti tentare di elaborare un esperimento come segue:
- Preparate un gran numero di particelle quantistiche aggrovigliate in una posizione (sorgente).
- Trasportate una serie di coppie aggrovigliate a grande distanza (fino alla destinazione) mantenendo l’altra impostata alla fonte.
- Hai un osservatore a destinazione per cercare una sorta di segnale e forzare le loro particelle intrappolate nello stato +1 (per un segnale positivo) o -1 (per un segnale negativo).
- Quindi, effettui le tue misurazioni delle coppie intrecciate alla fonte e determini con una probabilità superiore al 50/50 quale stato vede l’osservatore a destinazione.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 10 Il modello d'onda per gli elettroni che passano attraverso una doppia fenditura, uno alla volta. Se si misura "quale ... [+] fenditura" attraversa l'elettrone, si distrugge il modello di interferenza quantica mostrato qui. Indipendentemente dall'interpretazione, gli esperimenti quantistici sembrano preoccuparsi se facciamo o meno determinate osservazioni e misurazioni (o forziamo determinate interazioni).](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2017%2F03%2FDouble-slit_experiment_results_Tanamura_four-1200x702.jpg)
Sembra un’ottima configurazione per consentire comunicazioni più veloci della luce. Tutto ciò di cui hai bisogno è un sistema ben preparato di particelle quantistiche intrecciate, un sistema concordato per ciò che significheranno i vari segnali quando effettuerai le tue misurazioni e un tempo predeterminato in cui effettuerai quelle misurazioni critiche. A partire anche da anni luce, puoi immediatamente sapere cosa è stato misurato a destinazione osservando le particelle che hai tenuto con te.
Giusto?
È uno schema estremamente intelligente, ma che non ripagherà affatto. Quando, alla fonte originale, vai a fare queste misurazioni critiche, scoprirai qualcosa di estremamente deludente: i tuoi risultati mostrano semplicemente 50/50 probabilità di essere nello stato +1 o -1. È come se non ci fosse mai stato nessun intreccio.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 11 Schema del terzo esperimento di Aspetto che verifica la non località quantistica. I fotoni aggrovigliati dalla sorgente ... [+] vengono inviati a due interruttori rapidi, che li indirizzano ai rivelatori polarizzanti. Gli interruttori cambiano le impostazioni molto rapidamente, cambiando efficacemente le impostazioni del rivelatore per l'esperimento mentre i fotoni sono in volo. Impostazioni diverse, abbastanza sconcertanti, portano a risultati sperimentali diversi.](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2016%2F11%2Faspect3.jpg)
Cosa abbiamo sbagliato? L’errore avviene nella fase in cui l’osservatore a destinazione fa un’osservazione e cerca di codificare tali informazioni nel loro stato quantico.
Quando fai questo passo – forzando un membro di una coppia di particelle aggrovigliate in un particolare stato quantico – rompi l’entanglement tra le due particelle. Vale a dire, l’altro membro della coppia intrecciata non è completamente influenzato da questa azione “forzante“, e il suo stato quantico rimane casuale, come una sovrapposizione di stati quantistici +1 e -1. Ma quello che hai fatto è rompere completamente la correlazione tra i risultati della misurazione. Lo stato in cui hai “forzato” la particella di destinazione ora non è correlato al 100% allo stato quantico della particella di origine.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 12 Una configurazione di esperimento di gomma quantistica, in cui due particelle intrecciate vengono separate e misurate. No ... [+] alterazioni di una particella a destinazione influenzano il risultato dell'altra. Puoi combinare principi come la gomma quantistica con l'esperimento a doppia fenditura e vedere cosa succede se mantieni o distruggi, o guardi o non guardi, le informazioni che crei misurando ciò che accade alle fessure stesse.](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2016%2F11%2FWalbornEtAl_D-S_eraserWithPOL-1200x866.jpg)
L’unico modo possibile per aggirare questo problema è se fosse possibile, in qualche modo, fare una misurazione quantistica per forzare un risultato particolare. (Nota: questo non è qualcosa consentito dalle leggi della fisica).
Se fosse possibile, allora qualcuno a destinazione potrebbe condurre osservazioni – ad esempio, scoprire se un pianeta che stava visitando fosse abitato o meno – e quindi utilizzare un processo sconosciuto per:
- misurare lo stato delle loro particelle quantistiche,
- dove il risultato risulterà essere +1 se il pianeta è abitato,
- o -1 se il pianeta è disabitato,
- e quindi consentire all’osservatore alla sorgente delle coppie intrecciate di capire istantaneamente se questo pianeta distante è abitato o meno.
Sfortunatamente, i risultati di una misurazione quantistica sono inevitabilmente casuali; non è possibile codificare un risultato preferito in una misurazione quantistica.
![No, non possiamo ancora usare l'entanglement quantistico per comunicare più velocemente della luce 13 Anche sfruttando l'entanglement quantistico, dovrebbe essere impossibile fare di meglio che indovinare ... [+] quando si tratta di sapere che cosa tiene la mano del mazziere.](https://thumbor.forbes.com/thumbor/960x0/https%3A%2F%2Fblogs-images.forbes.com%2Fstartswithabang%2Ffiles%2F2017%2F05%2FBell-test-photon-analyer-1200x530.jpg)
Come ha scritto il fisico quantistico Chad Orzel, c’è una grande differenza tra fare una misurazione (dove viene mantenuto l’entanglement tra le coppie) e forzare un risultato particolare – che di per sé è un cambiamento di stato – seguito da una misurazione (dove l’entanglement non è mantenuto). Se vuoi controllare, piuttosto che misurare semplicemente, lo stato di una particella quantistica, perderai la tua conoscenza dello stato completo del sistema combinato non appena esegui l’operazione di cambiamento di stato.
L’entanglement quantistico può essere utilizzato solo per ottenere informazioni su un componente di un sistema quantistico misurando l’altro componente fintanto che l’entanglement rimane intatto.
Quello che non puoi fare è creare informazioni a un’estremità di un sistema aggrovigliato e in qualche modo inviarle all’altra estremità. Se potessi in qualche modo fare copie identiche del tuo stato quantico, dopo tutto sarebbe possibile una comunicazione più veloce della luce, ma anche questo è vietato dalle leggi della fisica.
Ci sono moltissime cose che puoi fare sfruttando la bizzarra fisica dell’entanglement quantico, come ad esempio creare un sistema quantistico di blocco e chiave che è praticamente indistruttibile con calcoli puramente classici.
Ma non è possibile copiare o clonare uno stato quantico – poiché l’atto di limitarsi a leggere lo stato cambia radicalmente – è la bara di ogni schema realizzabile per ottenere una comunicazione più veloce della luce con l’entanglement quantistico.
Ci sono molte sottigliezze associate al modo in cui l’entanglement quantistico funziona effettivamente nella pratica, ma la chiave è questa: non esiste una procedura di misurazione che è possibile intraprendere per forzare un risultato particolare mantenendo l’entanglement tra le particelle.
Il risultato di qualsiasi misurazione quantistica è inevitabilmente casuale, annullando questa possibilità. A quanto pare, Dio gioca davvero a dadi con l’Universo, e questa è una buona cosa. Nessuna informazione può essere inviata più velocemente della luce, consentendo di mantenere la causalità nel nostro Universo.
Fonte: Forbes