mercoledì, Aprile 2, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1309

Osservato per la prima volta un buco nero che ingoia una stella fin dall’inizio dell’evento

0
Migliori casinò non AAMS in Italia

La maggior parte di noi pensa che i buchi neri supermassicci siano vortici gravitazionali perennemente affamati e continuamente intenti a divorare stelle, ma, in realtà, non succede così spesso. Ad esempio, sembra che il buco nero al centro della nostra galassia si nutra più o meno ogni 100.000 anni.

Quindi è un’occasione abbastanza speciale per gli astronomi l’aver appena osservato le conseguenze immediate dell’azione di uno di questi buchi neri. In effetti, è la prima volta che viene individuato un buco nero nell’atto di divorare una stella e sono moltissimi i telescopi che sono stati puntati verso il raro evento.

Queste osservazioni hanno fornito un’enorme quantità di dati che possono aiutare a perfezionare la nostra comprensione di come i buchi neri supermassicci inghiottono le stelle provocando quelli che sono noti come eventi di disturbo delle maree (TDE).

Questo particolare TDE si è verificato attorno a un buco nero supermassiccio 6,3 milioni di volte la massa del Sole (il nostro Sagittario A * della Via Lattea è grande 4 milioni di masse solari), in una galassia chiamata 2MASX J07001137-6602251, situata a circa 375 milioni di anni luce di distanza.

Questo TDE si è verificato nella minuscola chiazza di cielo che viene continuamente sorvegliata dal telescopio TESS della NASA per la caccia agli esopianeti. A sua volta, TESS viene monitorato dall’All- Sky Automated Survey for Supernovae (ASAS-SN).

Quando TESS ha registrto una fonte di luce più luminosa del solito, gli astronomi sono stati immediatamente allertati e sono entrati in azione per puntare un certo numero di telescopi verso 2MASX J07001137-6602251.

Agli occhi degli astronomi è apparso un buco nero supermassiccio che aveva catturato una stellaa. Il team non ha ancora determinato la massa della vittima, ma l’evento è stato così energico da produrre un picco di luce di oltre 10 ordini di grandezza più luminoso del Sole e quattro volte più luminoso della galassia che lo ospita.

Questo è la prima volta che vediamo in diretta un TDE e, poiché TESS stava già monitorando la parte del cielo in cui è successo, siamo riusciti a vedere esattamente quando ha iniziato a diventare più luminoso,” ha detto a ScienceAlert l’astronomo Tom Holoien del Carnegie Science. “Finora erano noti solo 4 o 5 TDE individuati poco prima del picco, nessuno di questi è stato individuato così precocemente“.

L’evento – chiamato ASASSN-19bt – è stato rilevato da TESS il 29 gennaio 2019. Poiché sembrava provenire dalla regione centrale della galassia ospite, era necessario uno sguardo più attento. Il 31 gennaio, il team ha studiato la regione utilizzando lo spettrografo 3 a bassa dispersione (LDSS-3), montato sul telescopio Magellan Clay in Cile.

Ciò rivelò che l’evento era probabilmente un TDE e furono prese più osservazioni; l’Osservatorio Swift della NASA ha osservato l’evento nell’ultravioletto e nei raggi X; l’ESA XMM-Newton prese spettri; e i telescopi terrestri dell’Osservatorio di Las Cumbres hanno acquisito immagini ottiche.

ASASSN-19bt ha raggiunto la massima luminosità il 4 marzo 2019 e il team ha continuato a osservare l’evento per mesi, anche se il loro documento copre solo fino al 10 aprile.

E ci sono state alcune grandi sorprese.

Il satellite Swift della NASA ha evidenziato che, per i primi giorni dopo la scoperta, il TDE è diventato più debole e si è notevolmente raffreddato. Questo non è mai stato visto prima, in genere i TDE aumentano progressivamente di luminosità prima del picco e la temperatura in genere rimane costante “, ha spiegato Holoien.

In questo caso, abbiamo visto sia la luminosità che la temperatura calare bruscamente prima di riprendere a seguire la solita evoluzione che avevamo già visto prima. Questa potrebbe anche essere una caratteristica comune nei TDE, ma non lo sappiamo, perché su nessun TDE avevamo potuto prendere informazioni così precocemente“.

Inoltre, la galassia ospite è più giovane e più polverosa di altre galassie in cui tali eventi sono stati osservati. E, mentre il TDE si schiariva verso il picco, l’aumento della luminosità era molto regolare. Questo è qualcos’altro che non era mai stato visto prima.

Nella prima parte delle osservazioni, le emissioni provengono da molto vicino al buco nero, ha detto Holoien – forse alcune decine di volte le dimensioni dell’orizzonte degli eventi, vicino al buco nero come lo sono Marte o la Terra il Sole.

Pensando a quanto è lontana quella galassia, è una cosa straordinaria.

In realtà ho avuto i brividi quando ho visto la curva della luce di TESS per la prima volta, perché non è stata osservata alcuna TDE da nessuna parte vicino o con cadenza così rapida“, ha detto. “Quando l’ho visto, ho capito che avremmo acquisito un set di dati straordinario – e poi abbiamo trovato anche gli altri aspetti interessanti“.

Il team ha continuato a monitorare ASASSN-19bt per tre mesi dopo il picco e pubblicherà i risultati in un documento separato. Segnerà il set di dati più completo mai pubblicato per un evento di perturbazione delle maree.

“Queste osservazioni sono così precoci che pur essendo generalmente in linea con i modelli fisici, nessuna teoria aveva previsto esattamente ciò che vediamo, quindi speriamo che queste osservazioni ci aiutino a perfezionare quei modelli”, ha concluso Holoien.

La ricerca è stata pubblicata su The Astrophysical Journal.

Un nuovo modello propone che i getti diventino superluminali nelle raffiche di raggi gamma

0
Migliori casinò non AAMS in Italia

Gli astrofisici Jon Hakkila, del College of Charleston, e Robert Nemiroff, della Michigan Technological University, hanno pubblicato una ricerca secondo la quale gli scoppi di raggi gamma possono effettivamente superare la velocità della luce nelle nuvole di gas circostanti, ma farlo senza violare la teoria della relatività di Einstein.

Hakkila e Nemiroff propongono che tali getti superluminali potrebbero creare la reversibilità temporale vista nelle curve di luce gamma ray burst. Questi getti, tuttavia, non violano la relatività di Einstein perché si muovono più velocemente della luce attraverso il mezzo del getto, non attraverso il vuoto.

Hakkila spiega che un buon modo per visualizzare questo movimento superluminale è immaginare qualcuno su un lato di uno stagno lancia una pietra facendola saltare sull’acqua nella tua direzione. La pietra, saltando si muove attraverso l’aria più velocemente di quanto le onde che genera si muovono attraverso l’acqua. Le onde create da ogni salto della pietra mentre si avvicina le vedresti in ordine inverso, con le onde del salto più recente che arrivano per prime e quelle del salto iniziale che arrivano per ultime.

Questa spiegazione dello scoppio superluminale conserva molte caratteristiche dei modelli di jet di gamma ray burst, afferma Hakkila.

Nemiroff aggiunge, tuttavia, che lo scenario proposto nello studio prevede emissione di radiazione di Cherenkov, un tipo di luce creata dal movimento superluminale che in precedenza non si pensava fosse importante nel generare le curve di luce delle esplosioni di raggi gamma.

I modelli dei gamma ray burst standard hanno trascurato le proprietà della curva della luce reversibile nel tempo“, afferma Hakkila. “Il movimento del getto superluminale tiene conto di queste proprietà pur mantenendo molte caratteristiche del modello standard“.

Fonte: The Astrophysical Journal 

L’indipendenza alimentare delle colonie marziane dipenderà dai grilli e dalla carne coltivata in laboratorio

0
Migliori casinò non AAMS in Italia

L’idea di colonizzare Marte è ancora nel pieno della sfera della speculazione ma sta facendo passi da gigante verso una possibile realtà. In effetti, gli scienziati sono ora nella fase di ideare modi per rendere autosufficiente una futura colonia su Marte. Secondo uno studio recente, questa autosufficienza dipenderà da insetti e colture ipercaloriche coltivate in tunnel.

Il cibo, a quanto pare, sarà la sfida più grande, almeno secondo il planetologo Kevin Cannon, che ha parlato a Space.com del lavoro che lui e i suoi colleghi dell’Università della Florida centrale stanno facendo sull’ipotesi colonizzazione di Marte.

L’idea di colonizzare Marte è incentrata sul rendere la colonia autosufficiente piuttosto che dipendere dalle importazioni. L’energia potrà essere fornita localmente — usando impianti solari e reattori nucleari — la produzione del cibo, ma non impossibile, da realizzare localmente. I futuri coloni di Marte, potranno usufruire delle più moderne tecnologie, sufficientemente avanzate per rendere possibile coltivare fibre di carne in laboratorio e sarà anche possibile allevare, in ambienti progettati appositamente, generazioni di insetti, utilizzabili per fornire un adeguato nutrimento proteico ai coloni. E sappiamo già che sarà possibile coltivare, in ambienti sotterranei appositamente bonificati e illuminati artificialmente, diversi tipi di ortaggi e, con il tempo, anche della frutta.

Gli insetti, secondo i ricercatori, offrono un rapporto molto interessante tra la quantità di calorie che possono offrire e la quantità di acqua e cibo di cui hanno bisogno. Ecco perché il team ha incluso fattorie per l’allevamento di grilli nel loro modello per una colonia marziaba autosufficiente con una popolazione di un milione di persone.

Oltre alle minuscole confezioni di calorie a sei zampe, il team di Cannon ha preso in considerazione altri tipi di proteine ​​coltivate in laboratorio: ormai è possibile far crescere in laboratorio qualsiasi cosa, dalla carne di pollo al pesce e alle alghe, secondo Cannon e non è nemmeno così costoso. In soli due anni, il costo di un hamburger di carne coltivata è passato da oltre $ 300.000 a soli $ 11 grazie a generosi investimenti in questa particolare tecnologia per la produzione di sostituti della carne.

Perché non trasportare alcuni animali da fattoria e tenerli per ottenere latte, e carne?

Perché il trasporto stesso sarebbe una sfida, e nutrirli su Marte sarebbe un’altra sfida. L’atmosfera ed il suolo di Marte non sono come sulla Terra e, anche non considerando il problema dell’adattamento degli animali ad un ambiente a gravità più bassa, potremmo avere problemi ad allevarne grandi numeri in tunnel sotterranei o serre chiuse all’esterno, cosa che, invece, potrebbe riuscire per le piante.

Se vuoi nutrire una vasta popolazione su un altro pianeta, devi allontanarti dall’idea di verdure acquose e pensare davvero alle enormi quantità di energia, acqua e materie prime necessarie per produrre abbastanza calorie“, ha detto Cannon a Space.com, osservando che la maggior parte delle ricerche sull’insediamento marziano si è concentrata sul cibo coltivato per nutrire gli astronauti, ma hanno sottovalutato la quantità di spazio, acqua e luce solare di cui molte piante hanno bisogno.

Il team ha stimato che con le fattorie di grilli e circa 9.000 miglia di tunnel per la coltivazione di ortaggi, una colonia di un milione di persone potrebbe raggiungere l’autosufficienza entro un secolo.

Mentre ciò accade, un sacco di cibo dovrebbe essere importato dalla Terra e questo aumenterebbe i costi totali della colonizzazione del Pianeta Rosso. Nel frattempo, la maggior parte dei coloni marziani dovrebbe superare la comune avversione umana nei confronti di un’alimentazione a base di insetti.

Gli hamburger coltivati ​​in laboratorio saranno sicuramente di aiuto.

Scoperto un mondo nascosto di vulcani sottomarini, camini e flussi di lava al largo della costa italiana

0
Migliori casinò non AAMS in Italia

Nascosto sotto le onde del Mar Tirreno, vicino all’Italia sud-occidentale, si trova un nuovo mosaico vulcanico punteggiato da camini geotermici e monti marini a cima piatta.

Questo complesso è nuovo sia per la scienza che per il pianeta, geologicamente parlando; ha solo circa 780.000 anni. Gli scienziati non sono particolarmente sorpresi di trovare vulcanismo nella regione, che ospita vulcani attivi come il Vesuvio e l’Etna. Il nuovo complesso, però, è insolito perché è stato creato da un fenomeno abbastanza raro, ha dichiarato il leader dello studio Fabrizio Pepe, geofisico dell’Università di Palermo.

Questa è un’area molto complessa“, ha commentato Pepe.

Regione irrequieta

Il Mediterraneo occidentale è sismicamente irrequieto a causa della collisione di tre placche tettoniche: africana, eurasiatica e anatolica. A rendere le cose più complesse è una piccola porzione di crosta chiamata micropiastra adriatico-ionica, che si staccò dalla placca africana più di 65 milioni di anni fa e ora viene spinta sotto la più grande placca eurasiatica in un processo chiamato subduzione. Il Vesuvio è uno dei vulcani creati dalla subduzione.

In precedenza, gli scienziati hanno scoperto una serie di archi vulcanici sottomarini creati da questi disordini tettonici, iniziando vicino alla costa sarda, con archi sempre più giovani a sud e ad est. Questi archi sono come una freccia che punta sempre più verso est, spingendo Pepe e i suoi colleghi a cercare un arco ancora più giovane a circa 15 chilometri al largo della costa calabrese, chiamato la “punta” dello “stivale” d’Italia.

Lì, sulla base della mappatura dei fondali marini, dei dati sismici e delle anomalie magnetiche, i ricercatori hanno scoperto una regione di 2.000 km quadrati di flussi di lava, montagne vulcaniche e camini idrotermali; le prese d’aria sul fondo del mare consentono ai minerali caldi di schizzare fuori e formare strutture simili a un camino. La nuova area è stata chiamata Diamante ‐ Enotrio ‐ Ovidio Volcanic ‐ Intrusive Complex, con tre monti a cima piatta (montagne sottomarine formate da vulcani spenti) che dominano il fondale marino.

Passo dopo passo

Quelle fratture sono ciò che ha permesso al magma di emergere in superficie nel complesso Diamante-Enotrio-Ovidio, creando un paesaggio sottomarino di flussi di lava e vulcani montuosi.
Questi monti vulcanici ora sono altipiani perché sporgevano in superficie quando il livello del mare era più basso e l’erosione ha dato loro l’attuale forma piatta, ha spiegato Pepe.
Il complesso vulcanico è inattivo, ma ci sono piccole intrusioni di lava in alcune parti del fondale marino, hanno riferito i ricercatori il 6 luglio sulla rivista Tectonics. Tuttavia, l’area potrebbe diventare attiva in futuro, ha detto Pepe, perché sul lato orientale del Mar Tirreno sono in corso fenomeni di vulcanismo attivo.
I ricercatori stanno lavorando per costruire una mappa del rischio vulcanico del complesso per capire meglio se potrebbero esserci in futuro rischi per la popolazione o le cose.
Sul complesso sono anche in corso studi per stabilire se sia possibile sfruttarlo per la produzione di energia geotermica.
Fonte: Live Science .

Emozionante la nuova visualizzazione della NASA di un buco nero

0
Migliori casinò non AAMS in Italia

La prima immagine diretta in assoluto dell’orizzonte degli eventi di un buco nero è stata un’impresa davvero impressionante di ingegnosità scientifica. Ma L’immagine ricavata, pur essendo emozionante, aveva una risoluzione relativamente bassa.

Le tecniche e la tecnologia saranno perfezionate e si prevede che le future immagini dirette dei buchi neri miglioreranno con il tempo. Intanto, una nuova visualizzazione della NASA, mostra cosa potremmo aspettarci di vedere nelle immagini ad alta risoluzione di un buco nero supermassiccio particolarmente attivo.

I buchi neri supermassicci stanno al centro della maggior parte delle grandi galassie, ma non sappiamo ancora come e perché; se sia venuto prima il buco nero o la galassia è una delle grandi domande della cosmologia.

Quello che sappiamo è che sono davvero enormi, grandi milioni o miliardi di volte la massa del Sole; inoltre, possono influenzare la formazione stellare; un altro fatto che sappiamo è che quando diventano attivi e iniziano ad ingoiare materia, possono diventare gli oggetti più luminosi nell’Universo. Nel corso dei decenni, abbiamo anche capito alcune delle loro strane dinamiche.

buco nero m87Prima immagine diretta di un buco nero, M87 *. (Collaborazione EHT)

In effetti, la primissima immagine simulata di un buco nero, calcolata utilizzando un computer IBM 7040 a schede perforate degli anni ’60 e tracciata a mano dall’astrofisico francese Jean-Pierre Luminet nel 1978, assomiglia ancora molto alla simulazione della NASA.

In entrambe le simulazioni (quella nuova la vedete nell’immagine di copertina e l’opera di Luminet qui sotto), si vede un cerchio nero al centro. Questo è l’orizzonte degli eventi, il punto in cui le radiazioni elettromagnetiche, luce, onde radio, raggi X e così via, non riescono a raggiungere la velocità di fuga dall’attrazione gravitazionale del buco nero.

Luminet(Jean-Pierre Luminet)

Al centro del buco nero c’è la parte anteriore del disco di materiale che vortica attorno al buco nero, simile al mulinello generato dall’acqua mentre cade in uno scarico. La velocità del materia vorticante, a causa dell’attrito, genera una radiazione così intensa che possiamo rilevarla con i nostri telescopi e questo è ciò che si vede nella foto di M87 *.

Si può vedere l’anello fotonico, un perfetto anello di luce attorno all’orizzonte degli eventi. E si può vedere anche un’ampia striscia di luce attorno al buco nero. Quella luce proviene effettivamente dalla parte del disco di accrescimento dietro il buco nero; ma la gravità è così intensa, anche al di fuori dell’orizzonte degli eventi, che deforma lo spaziotempo e piega il percorso della luce attorno al buco nero.

Si vede distintamente anche che un lato del disco di accrescimento è più luminoso dell’altro. Questo effetto è chiamato raggiante relativistico ed è causato dalla rotazione del disco. La parte del disco che si sta muovendo verso di noi è più luminosa perché si sta avvicinando alla velocità della luce. Questo movimento produce un cambiamento di frequenza nella lunghezza d’onda della luce. Si chiama effetto Doppler.

Il lato che si sta allontanando da noi, quindi, è più debole, perché quel movimento ha l’effetto opposto.

È proprio questa forte asimmetria di apparente luminosità“, ha scritto Luminet in un documento dell’anno scorso, “che è la firma principale di un buco nero, l’unico oggetto celeste in grado di dare alle regioni interne di un disco di accrescimento una velocità di rotazione vicina alla velocità della luce e indurre un effetto Doppler molto forte“.

Simulazioni come queste possono aiutarci a comprendere la particolare fisica che agisce attorno ai buchi neri supermassicci e questo ci aiuta a capire cosa stiamo vedendo quando guardiamo l’immagine di M87 *.

I vantaggi e i punti deboli dei robot aspirapolvere: cosa c’è da sapere

0
Migliori casinò non AAMS in Italia

Le pulizie domestiche sono diventate molto più comode – e perfino piacevoli – da quando nelle nostre case sono entrati i robot aspirapolvere. Chi non ha ancora avuto l’opportunità di metterli alla prova, tuttavia, potrebbe porsi dei dubbi legittimi a proposito della loro utilità e del loro funzionamento. In verità questi dispositivi sono presenti sul mercato da oltre un decennio, e nel corso del tempo la tecnologia ha offerto sviluppi e miglioramenti continui: il mercato, insomma, è in fermento e in costante evoluzione, a tutto vantaggio dei consumatori.

Cosa sono e come operano i robot aspirapolvere

Un robot aspirapolvere è un elettrodomestico di dimensioni contenute che è in grado di spostarsi tra i locali della casa (ma ovviamente può essere utilizzato anche in uffici, negozi, studi o altri ambienti chiusi) attraverso le ruote meccanizzate di cui è dotate. Il suo compito è quello di aspirare le polveri, il che avviene in virtù delle setole circolari e delle spazzole che lo costituiscono. Una volta raccolto, poi, lo sporco viene depositato all’interno di un piccolo serbatoio. La tecnologia sensoristica è il punto di forza dei modelli più moderni, come per esempio l’irobot roomba 605, e contribuisce a semplificare in misura notevole le pulizie di casa.

Chi controlla i robot aspirapolvere

Questi robot non hanno bisogno di essere monitorati o guidati, poiché lavorano in totale autonomia. Vi si può fare riferimento non solo per aspirare lo sporco dai tappeti e dai pavimenti, ma anche per lavare le superfici, per spazzolarle e per lucidarle. Anche i modelli meno costosi al giorno d’oggi assicurano prestazioni di tutto rispetto, riuscendo a eliminare lo sporco più grosso e la polvere in superficie. A tale proposito, è sempre utile tenere in considerazione le caratteristiche del pavimento che deve essere pulito, anche se non di rado i robot riescono a riconoscere da soli le differenze tra le varie pavimentazioni. Intensificare o ridurre l’aspirazione a seconda delle necessità consente di ottimizzare i consumi di energia, mentre a contatto con superfici scabrose lo sfregamento delle setole può essere ridotto.

Quali aspetti considerare in vista di un acquisto

Le dimensioni degli spazi da pulire costituiscono un ulteriore fattore su cui è opportuno riflettere, sia per l’autonomia del robot sia per evitare gli sprechi. Se per un appartamento piccolo ha poco senso puntare su un modello troppo potente, per locali molto ampi è necessario affidarsi a cassetti di aspirazione abbastanza capienti, a maggior ragione nel caso in cui siano presenti anche animali domestici che lasciano peli in giro. Per quanto concerne il livello di rumorosità, è meglio preferire i modelli più silenziosi se si sceglie un robot automatico senza programmazione, così da non correre il rischio di disturbare i vicini.

Le setole e le spazzole

A fronte di parquet, marmi o altri pavimenti dalle superfici delicate, è molto importante scegliere delle setole ad hoc, e soprattutto accertarsi che le stesse offrano una sporgenza tale da consentire di arrivare nei punti più impegnativi e negli angoli più difficili da raggiungere. La conformazione del robot è decisiva in tal senso: quelli a forma di D sono più efficaci rispetto a quelli di forma rotonda. Ci sono, per altro, anche modelli quadrati, a loro volta in grado di pulire negli angoli con successo.

Le misure di un robot aspirapolvere

Per chi in casa ha diversi mobili bassi il consiglio è quello di privilegiare un modello slim che non vada a impattare contro gli arredi. Con i tappeti, invece, è bene che il robot che si decide di comprare garantisca un’altezza da terra sufficiente a impedire difficoltà nei movimenti e a evitare ogni imprevisto.

Gli scienziati stanno iniziando a prendere sul serio l’idea di un motore a curvatura

0
Migliori casinò non AAMS in Italia

È difficile vivere in un universo relativistico, dove anche le stelle più vicine sono lontanissime e la velocità della luce è assoluta. Non c’è da stupirsi quindi che i franchising di fantascienza impieghino abitualmente per le astronavi  fantasiosi dispositivi di propulsione FTL (Faster-than-Light) per far funzionare la trama.

Basta premere un pulsante o tirare una leva quel sofisticato sistema di propulsione, i cui meccanismi nessuno può spiegare, ci invierà in un’altra posizione nello spazio-tempo.

Tuttavia, negli ultimi anni, la comunità scientifica si è notevolmente divisa tra possibilisti e scettici riguardo alle affermazioni secondo cui un concetto particolare, l’Alcubierre Warp Drive, potrebbe effettivamente essere fattibile.

Questo è stato l’argomento di una presentazione effettuata lo scorso agosto all’American Institute of Aeronautics and Astronautics Propulsion and Energy Forum, che si è tenuto ad Indianapolis.

Questa presentazione è stata condotta da Joseph Agnew, un ingegnere ricercatore dell’Università dell’Alabama nel Centro di ricerca sulla propulsione di Huntsville.

Nell’ambito di una sessione intitolata “Il futuro della propulsione nucleare“, Agnew ha condiviso i risultati di uno studio che ha condotto intitolato “Esame di una teoria e una tecnologia per determinarne lo stato dell’arte e la fattibilità“.

Come ha spiegato Agnew davanti ad un sala gremita, la teoria alla base di un sistema di propulsione a curvatura è relativamente semplice.

Originariamente proposto dal fisico messicano Miguel Alcubierre nel 1994, questo concetto per un sistema FTL è visto come una soluzione altamente teorica (ma forse valida) alle equazioni di campo di Einstein, che descrivono come spazio, tempo ed energia interagiscono nel nostro Universo.

In parole povere, il motore proposto da Alcubierre realizzerebbe il viaggio spaziale a velocità superiori a quella della luce grazie ad un trucco: allungando il tessuto dello spazio-tempo in un’onda, facendo contrarre lo spazio davanti all’astronave e riespandendo lo spazio dietro.

In teoria, un veicolo spaziale all’interno di questa onda sarebbe in grado di cavalcare questa “bolla di curvatura” e percorrere le distanze interstellari molto più rapidamente della luce. Questo è noto come “Alcubierre Metric“.

Interpretato nel contesto della Relatività Generale, l’interno della bolla generata dall’onda costituirebbe il quadro di riferimento inerziale per qualsiasi cosa al suo interno. Tali bolle potrebbero essere generate in una regione dello spazio-tempo precedentemente piatta per spostarsi su enormi distanze in tempi inferiori a quanto impiegherebbe la luce.

Poiché la nave non si muoverebbe attraverso lo spazio-tempo (ma si muoverebbe nello spazio-tempo stesso), gli effetti relativistici convenzionali (come la dilatazione del tempo) non si applicherebbero.

In breve, l’Alcubierre Metric consente i viaggi FTL senza violare le leggi della relatività in senso convenzionale.

Agnew ha spiegato ad Universe Today via e-mail c he stato ispirato da questo concetto fin dalle superiori e lo persegue da allora: “Ho approfondito la matematica e la scienza e, di conseguenza, ho iniziato a interessarmi alla fantascienza e alle teorie più avanzate su una scala più tecnica. Ho iniziato a guardare Star Trek, la serie originale e The Next Generation, e ho notato come avevano ha predetto o ispirato l’invenzione di telefoni cellulari, tablet e altri servizi. Ho pensato ad alcune delle altre tecnologie, come i siluri fotonici, i phaser e il dispositivo di curvatura, e ho cercato di confrontare ciò che la “scienza di star trek” e “l’equivalente di quella scienza nel mondo reale” avevano da dire al riguardo. Poi mi sono imbattuto nel documento originale di Miguel Alcubierre e dopo averlo digerito per un po’, ho iniziato a perseguire altre parole chiave e documenti e ad approfondire la teoria “.

In realtà, questo concetto che è stato generalmente respinto come del tutto teorico e altamente speculativo, negli ultimi anni ha avuto una nuova vita. Il merito di ciò va in gran parte a Harold “Sonny” White, a capo del team di propulsione avanzata del laboratorio di fisica propulsiva avanzata del NASA Johnson Space Center (alias “Eagleworks Laboratory“).

Durante il  100 Year Starship Symposium tenutosi nel 2011, White condivise alcuni calcoli aggiornati sulla Alcubierre Metric, oggetto di una presentazione intitolata “Warp Field Mechanics 101” (e uno studio con lo stesso nome).

Secondo White, la teoria di Alcubierre è solida, ma necessita di alcuni test e sviluppi seri. Da allora, lui e i suoi colleghi hanno fatto proprio queste cose attraverso l’Eagleworks Lab.

Allo stesso modo, Agnew ha trascorso gran parte della sua carriera accademica alla ricerca della teoria e della meccanica alla base della meccanica di curvatura. Sotto la guida di Jason Cassibry, professore associato di ingegneria meccanica e aerospaziale e membro di facoltà del Propulsion Research Center della UAH, il lavoro di Agnew è culminato in uno studio che affronta i principali ostacoli e opportunità presentati dalla ricerca sulla meccanica di curvatura.

Come riferito da Agnew, uno dei più grandi problemi è il fatto che il concetto di “ordito di curvatura” non è ancora preso molto sul serio nei circoli scientifici: “Nella mia esperienza, la menzione del warp drive tende rendere surreale la conversazione perché è un concetto altamente teorico e considerato legato alla fantascienza. In realtà, questo discorso spesso viene accolto con commenti sprezzanti e usato come esempio di qualcosa di totalmente stravagante, cosa, tutto sommato, comprensibile. So che nel mio caso, inizialmente, l’avevo raggruppato mentalmente nella stessa categoria dei tipici concetti superluminali, dal momento che ovviamente tutti violano l’idea che la ‘velocità della luce è la massima velocità’. Solo quando ho approfondito la teoria con più attenzione ho capito che non aveva questi problemi. Penso che ci sarà molto più interesse sull’argomento quando verranno approfonditi i progressi che sono stati fatti. Anche la natura storicamente teorica dell’idea è di per sé un fattore dissuasivo, poiché è molto più difficile vedere progressi sostanziali quando si osservano le equazioni anziché i risultati quantitativi“.

Mentre le ricerche nel settore sono ancora agli inizi, ci sono stati numerosi sviluppi recenti. Ad esempio, la scoperta delle onde gravitazionali (GWS) effettuata dagli scienziati di LIGO nel 2016, che hanno confermato una previsione fatta da Einstein un secolo fa e dimostrano che le basi per la curvatura sono presenti in natura.

Come indicato da Agnew, questo è forse lo sviluppo più significativo, ma non l’unico: “Negli ultimi 5-10 anni, ci sono stati molti progressi eccellenti in linea con la previsione degli effetti previsti per l’azione del motore, determinando come si potrebbe metterlo in atto, rafforzando ipotesi e concetti fondamentali e modi per testare la teoria in un laboratorio. La scoperta di LIGO è stata, secondo me, un enorme balzo in avanti nella scienza, dal momento che ha dimostrato, sperimentalmente, che lo spaziotempo può ‘deformarsi’ e piegarsi in presenza di enormi campi gravitazionali, e questo si propaga in tutto l’Universo in un modo che possiamo misurare. In precedenza, era chiaro che questo era probabilmente il caso, grazie a Einstein, ma ora lo sappiamo con certezza“.

Poiché il sistema si basa sull’espansione e la compressione dello spaziotempo, questa scoperta ha dimostrato che alcuni di questi effetti si verificano in natura.

Ora che sappiamo che l’effetto è reale, la domanda successiva, nella mia mente, è: ‘come lo studiamo e possiamo generarlo da soli in laboratorio?’“, Ha aggiunto. “Ovviamente, una cosa del genere comporterebbe un enorme investimento di tempo e risorse, ma sarebbe di grande beneficio“.

Naturalmente, il concetto di Warp Drive richiede ulteriore supporto e numerosi progressi prima che sia possibile la ricerca sperimentale. Questi includono progressi in termini di quadro teorico e progressi tecnologici.

Se questi saranno trattati come problemi “di dimensioni ridotte” anziché come una grande sfida, ha affermato Agnew, allora i progressi saranno sicuramente fatti: “In sostanza, ciò che è necessario per un ordito di curvatura è un modo per espandere e contrarre lo spaziotempo a piacimento e in modo locale, come intorno a un piccolo oggetto o nave. Sappiamo per certo che densità di energia molto elevate, nella forma dei campi EM o della massa, ad esempio, può causare la curvatura nello spazio-tempo, ma, per quanto ne sappiamo attualmente, sono necessarie enormi quantità per farlo. D’altro canto, le aree tecniche dovrebbero cercare di perfezionare le attrezzature e il processo il più possibile, rendendo più plausibili queste alte densità di energia. Credo che ci sia la possibilità che una volta che l’effetto potrà essere duplicato su scala di laboratorio, porterà a una comprensione molto più profonda di come funziona la gravità e potrà aprire la porta ad alcune teorie o scappatoie ancora da scoprire. In sostanza, il più grande ostacolo è l’energia, e con ciò arrivano gli ostacoli tecnologici, che richiedono campi EM più grandi, attrezzature più sensibili, ecc“.

L’enorme quantità di energia positiva e negativa necessaria per creare una bolla di curvatura rimane la più grande sfida associata al concetto di Alcubierre.

Attualmente, gli scienziati ritengono che l’unico modo per mantenere la densità di energia negativa richiesta per produrre la bolla sia utilizzando la materia esotica. Gli scienziati stimano inoltre che il fabbisogno energetico totale sarebbe equivalente alla massa di Giove.

Tuttavia, ciò rappresenta già un calo significativo rispetto alle precedenti stime energetiche, secondo le quali avrebbe richiesto una massa di energia equivalente all’intero Universo. Certo, una quantità di massa esotica equivalente alle dimensioni di Giove è ancora grande in modo proibitivo. A questo proposito, devono ancora essere compiuti progressi significativi per ridimensionare i requisiti energetici a qualcosa di più realistico.

L’unico modo prevedibile per farlo è attraverso ulteriori progressi nella fisica quantistica, nella meccanica quantistica e nei metamateriali, afferma Agnew. Per quanto riguarda il lato tecnico delle cose, saranno necessari ulteriori progressi nella creazione di superconduttori, interferometri e generatori magnetici. E, naturalmente, c’è il problema del finanziamento, che è sempre una sfida quando si tratta di concetti che sono considerati “oltre“.

Ma come afferma Agnew, questa non è una sfida insormontabile. Considerando i progressi compiuti finora, ci sono motivi per essere ottimisti riguardo al futuro: “La teoria ha dimostrato finora che vale la pena proseguire, ed è ora più facile che mai fornire prove che sia legittimo. In termini di giustificazioni per l’allocazione delle risorse, non è difficile dimostrare che la capacità di poter esplorare mondi oltre il nostro Sistema Solare, anche oltre la nostra Galassia, comporterebbe un enorme salto per l’umanità. E la crescita della tecnologia derivante dal superamento dei limiti della ricerca sarebbe sicuramente vantaggiosa in molti altri campi“.

Come l’avionica, la ricerca nucleare, l’esplorazione dello spazio, le auto elettriche e i missili lanciatori riutilizzabili, l’Alcubierre Warp Drive sembra destinato a essere uno di quei concetti che dovranno combattere in salita. Ma se questi altri casi storici sono indicativi, alla fine si potrebbe passare un punto di non ritorno e improvvisamente tutto sembrerà possibile!

E data il crescente interesse per gli esopianeti (un altro campo in crescita dell’astronomia), non mancano le persone che sperano di inviare missioni alle stelle vicine per cercare pianeti potenzialmente abitabili.

E come dimostrano certamente gli esempi di cui sopra, a volte tutto ciò che serve per far rotolare la palla è una buona spinta…

Fonte: Universe Today

Confermata l’origine interstellare dell’oggetto simile ad una cometa individuato il mese scorso. E ora ha anche un nome ufficiale

0
Migliori casinò non AAMS in Italia

L’insolito oggetto rilevato dagli astronomi lo scorso 30 agosto è stato confermto essere una cometa di provenienza interstellare, cioè che ha avuto origine al di fuori del nostro Sistema Solare il mese scorso è stata una cometa che ha avuto origine al di fuori del nostro sistema solare. L’oggetto è il secondo oggetto interstellare noto, dopo ‘Oumuamua individuato nel settembre del 2017, ad attraversare il nostro Sistema Solare.

La denominazione ufficiale dell’oggetto è ora 2I / Borisov, dal nome del suo scopritore.
Le osservazioni del Solar System Dynamics Group del Jet Propulsion Laboratory della NASA, sostengono che questa cometa abbia l’orbita più iperbolica tra le migliaia di comete conosciute.
L’orbita è ora sufficientemente ben nota e l’oggetto ha origine inequivocabilmente interstellare“, recita un comunicato della IAU, che ha designato l’oggetto come secondo oggetto interstellare, 2I.
L’oggetto è stato anche monitorato dal sistema scout del Jet Propulsion Laboratory della NASA, che ne ha confermato la probabile origine al di fuori del nostro sistema solare. Il sistema scout serve a valutare i rischi e le traiettorie degli oggetti individuati di recente dal Minor Planet Center.
Sono state fatte osservazioni di follow-up della cometa, anche da Davide Farnocchia, del Centro per gli studi sulla terra della NASA e dal Centro di coordinamento degli oggetti vicino alla Terra dell’Agenzia spaziale europea.
Presto avremo la possibilità di conoscere meglio la cometa. Dovrebbe entrare nella parte interna del nostro sistema solare il 26 ottobre e resterà visibile attraverso i telescopi professionali per mesi.
La cometa si sta facendo strada verso il nostro sole e ora è a 390 milioni di chilometri di distanza. Toccherà il punto più vicino alla Terra, 285 milioni di chilometri, il prossimo 8 dicembre.
La velocità attuale della cometa è alta, circa 165.000 Kph, che è ben al di sopra delle velocità tipiche degli oggetti che orbitano attorno al Sole a quella distanza“, ha detto Farnocchia. “L’alta velocità indica non solo che l’oggetto probabilmente ha avuto origine al di fuori del nostro sistema solare, ma anche che lo lascerà e tornerà nello spazio interstellare“.
L’oggetto è stato designato come una cometa perché all’osservazione appare sfocato. Le comete tendono ad apparire sfocate perché sono ghiacciate e rilasciano polvere e particelle mentre si riscaldano avvicinandosi al sole.
Al contrario di ‘Oumuamua, questa cometa resterà visibile alle strumentazioni degli astronomi abbastanza a lungo. “L’oggetto raggiungerà il picco di luminosità a metà dicembre e continuerà ad essere osservabile con telescopi di dimensioni moderate fino ad aprile 2020“, ha spiegato Farnocchia. “Successivamente, sarà osservabile solo con telescopi professionali più grandi fino a ottobre 2020“.
Le osservazioni future cercheranno di fornire informazioni più dettagliate sulle sue dimensioni, rotazione, percorso e composizione.

Se terraformassimo Venere, ammesso di averne i mezzi, resterebbe abitabile?

0
Migliori casinò non AAMS in Italia

Se non fosse per un qualche disastro geologico avvenuto in passato, Venere sarebbe ancora abitabile oggi? E ancora più allettante, se avessimo i mezzi per terraformare Venere e lo facessimo, rimarrebbe temperata?

Tali domande nascono dalle notizie della scorsa settimana sulla possibilità che Venere possa essere stata abitabile per almeno tre miliardi di anni. Bene, la copertura di questa notizia ha ampiamente omesso un punto cruciale. Cioè, Venere si trova ancora all’interno della zona abitabile del nostro sistema solare in cui può esistere acqua liquida sulle superfici planetarie?

Lo studio pubblicato la scorsa settimana ha notato che se non fosse stato per un cataclisma geologico, Venere dovrebbe ancora abitabile. O almeno così dice Michael Way, un planetologo del NASA Goddard Space Institute for Space Studies, che ha presentato i suoi risultati in una riunione congiunta della Divisione per le scienze planetarie dell’American Astronomical Society e del Congresso europeo delle scienze planetarie.

Attualmente Venere riceve quasi il doppio della radiazione solare che abbiamo sulla Terra, tuttavia, in tutti gli scenari che abbiamo modellato, abbiamo scoperto che [potrebbe] supportare ancora temperature di superficie suscettibili di acqua liquida“, ha dichiarato Way in una nota.

La linea standard della comunità scientifica planetaria sulla storia evolutiva di Venere è stata finora basata sull’idea che, con il tempo, la luminosità del nostro Sole è progressivamente aumentata, spostando verso l’esterno il margine interno della zona abitabile del nostro sistema solare. E così facendo, il potenziale di Venere come possibile pianeta abitabile è radicalmente diminuito.

Mentre il nostro antico Sole acquistava luminosità, l’acqua di superficie di Venere iniziò ad evaporare nell’atmosfera. Allo stesso tempo, il calore ha iniziato a modificare la crosta del pianeta con una combinazione di convezione del mantello e alte temperature superficiali.

Questo fenomeno ha provocato un catastrofico degassamento del biossido di carbonio e una fusione superficiale, con conseguente rovesciamento e fusione della superficie di Venere in un evento (o eventi) che probabilmente è andato avanti per diverse centinaia di milioni di anni.

In effetti, Way e il collega ricercatore del Goddard Institute Anthony Del Genio ritengono che a partire da circa 750 milioni di anni fa, la situazione su Venere è precipitata drammaticamente. Il pianeta potrebbe ancora trovarsi nella zona abitabile, ma questi eventi hanno ha cambiato il suo clima. Il pianeta si è riscaldato troppo e il riciclo crustale del carbonio si è bloccato.

Date le prove attuali, Kane ritiene improbabile che questi eventi geologici abbiano causato il cambiamento climatico su Venere. Secondo lui, più probabilmente, è stata semplicemente la vicinanza di Venere a un Sole sempre più splendente che ha provocato il drammatico cambiamento climatico del pianeta, che ha avuto conseguenze per la sua geologia.

Concordo sul fatto che Venere potrebbe aver avuto un clima temperato [recentemente] come un miliardo di anni fa, ma non sono d’accordo sul fatto che il resurfacing abbia causato la catastrofe climatica“, ha detto Kane.

Way afferma che sulla Terra l’analogia più vicina a ciò che è successo su Venere, si può trovare nei flussi di lava de trappi del Deccan in India. Alcuni paleontologi ritengono che il gigantesco asteroide che impattò con la Terra circa 66 milioni di anni fa, che ha portato all’estinzione dei dinosauri, abbia anche innescato successive eruzioni vulcaniche globali.

Il concetto di zona abitabile di un sistema solare.

I flussi di lava generati dalle eruzioni in quella che oggi è l’India potrebbero aver contribuito all’estinzione dei dinosauri poiché si ritiene che abbiano emesso grandi quantità di anidride carbonica e altri gas nocivi nell’atmosfera terrestre.

Su Venere, tuttavia, si sospetta che questo tipo di eventi vulcanici siano stati di dimensioni più grandi e più drammatiche che qui sulla Terra. “È successo qualcosa su Venere in cui un’enorme quantità di gas è stata rilasciata nell’atmosfera senza che le rocce potessero riassorbirla“, ha spiegato Way in una nota. “Queso qualcosa ha completamente trasformato Venere “.

Se si dovesse sostituire l’attuale Venere con un nuovissimo pianeta di massa terrestre, con oceani e una sorta di meccanismo geologico per riciclare il carbonio del pianeta, allora questo Venere 2.0 rimarrebbe probabilmente abitabile, sostiene Way. Cioè, nella sua orbita attuale di 0,72 unità astronomiche (un’unità astronomica corrisponde alla distanza Terra-Sole).

È un’idea che non sarà mai adeguatamente testata a meno che la nostra lontana discendenza non decida di trasformare Venere in qualcosa che sostenga la vita come la conosciamo. Il primo passo sarebbe quello di dare a Venere un clima temperato con un sano mix di oceani e continenti, quindi attendere e vedere se rimane abitabile.

Way è convinto che potrebbe. Oggi Venere riceve quasi il doppio della radiazione solare della Terra. Ma, secondo lui, una Venere 2.0 dovrebbe essere ancora in grado di mantenere una temperatura superficiale media compresa tra 20 e 40 gradi Celsius. Insomma, secondo way, a dispetto dell’accresciuta luminosità del Sole, Venere dovrebbe ancora essere nella zona abitabile del sistema solare.

Fonte: Forbes

Un nuovo tipo di particella di Higgs potrebbe aver causato la scomparsa di quasi tutta l’antimateria dal nostro universo

0
Migliori casinò non AAMS in Italia

In qualche modo, nei primissimi attimi di esistenza dell’universo, quasi tutta l’antimateria scomparve, lasciando solo la materia che comunemente vediamo. Da anni i fisici cercano di capire cosa abbia provocato la scomparsa di quasi tutta l’antimateria.

Ora, un tre fisici teorici ha proposto che un trio di particelle chiamato bosoni di Higgs potrebbe essere responsabile della misteriosa scomparsa dell’antimateria. E pensano di sapere come confermarne la colpevolezza.

Il caso dell’antimateria mancante

In quasi ogni singola interazione tra particelle subatomiche, l’antimateria (che è identica alla materia normale ma con carica opposta) e la materia normale vengono prodotte in egual misura. Sembra essere una simmetria fondamentale dell’universo. Eppure, quando usciamo e guardiamo l’universo, non vediamo antimateria. Per quanto ne sanno i fisici, per ogni particella di antimateria ancora in circolazione, ci sono circa un miliardo di particelle di materia normale, in tutto il cosmo.

Questo mistero ha molti nomi, come, ad esempio, “problema della asimmetria della materia” o “problema della asimmetria barionica“; indipendentemente dal nome, fino ad ora, nessuno è stato in grado di fornire una spiegazione coerente del dominio della materia sull’antimateria.

Tuttavia, la natura ha lasciato in giro alcuni indizi. Ad esempio, nel cosiddetto fondo cosmico a microonde non è rilevabile nessuna prova di abbondante presenza di antimateria: il calore lasciato dal Big Bang, la nascita dell’universo. Ciò suggerisce che la scomparsa dell’antimateria si è verificata nell’universo primordiale. E l’universo primordiale era un posto piuttosto strano, la cui fisica era complicata e ancora mal compresa.

Colpa di Higgs

In effetti, il momento migliore per la scomparsa dell’antimateria è proprio durante la breve ma tumultuosa epoca durante la quale le forze della natura si andavano definendo e il cosmo iniziava a raffreddarsi.

Ad alte energie (come quelle all’interno di un collisore di particelle), la forza elettromagnetica e la forza nucleare debole uniscono i loro poteri per formare una nuova forza: l’elettrodebole. Questa forza torna a dividersi nella due forze familiari una volta che le cose si raffreddano e le energie tornano alla normalità.

Ad energie ancora più elevate, come quelle che c’erano nei primi momenti del Big Bang, pensiamo che la forza nucleare forte si fonda con l’elettrodebole, e ad energie ancora più elevate, la gravità riunisce tutto in un’unica forza unificata. Ma non abbiamo ancora capito come entra in gioco la gravità.

Il bosone di Higgs svolge il compito di dividere la forza elettromagnetica dalla forza nucleare debole. I fisici sono abbastanza certi che la divisione materia-antimateria avvenne prima che tutte e quattro le forze della natura si mettessero al loro posto come entità definite; questo perché abbiamo una comprensione abbastanza chiara della fisica dell’universo post-split e l’aggiunta di troppa antimateria nelle epoche successive violerebbe le osservazioni del fondo cosmico a microonde.

Perciò, è possibile che il bosone di Higgs abbia avuto un ruolo.

Ma l’Higgs da solo non può bastare; non esiste alcun meccanismo noto che utilizza solo gli Higgs per causare uno squilibrio tra materia e antimateria.

Per fortuna, la storia del bosone di Higgs potrebbe non essere finita. I fisici, durante esperimenti con i collisori, hanno trovato un singolo bosone di Higgs dotato di una massa di circa 125 miliardi di elettron-volt o GeV (per riferimento, un protone pesa circa 1 GeV).

E qui si scopre che il bosone di Higgs potrebbe non essere solo.

È del tutto possibile che vicino vi siano più bosoni di Higgs più massicci di ciò che possiamo attualmente rilevare nei nostri esperimenti. Per quanto ne sappiamo oggi, quei bosoni di Higgs più pesanti, se esistessero, non parteciperebbero realmente a nessuna fisica a cui possiamo accedere con i nostri collisori, non abbiamo abbastanza energia per “attivarli“. Ma nei primi tempi dell’universo, quando le energie erano molto, molto più alte, l’altro Higgs avrebbe potuto essere attivato e quegli Higgs avrebbero potuto causare uno squilibrio in alcune interazioni fondamentali delle particelle, portando alla moderna asimmetria tra materia e antimateria.

Risolvere il mistero
In un recente articolo pubblicato online sulla rivista di prestampa arXiv, tre fisici hanno proposto un’interessante soluzione potenziale: forse tre bosoni di Higgs (soprannominati “Troika di Higgs“) hanno giocato una partita particolare nell’universo primordiale, generando un’inondazione di materia normale. Quando la materia tocca l’antimateria, materia ed antimateria si annichiliscono e scompaiono.

E così gran parte di quel flusso di materia in eccesso avrebbe potuto, prodotta violando la simmetria, annichilire l’antimateria, eliminandola quasi completamente dall’universo in un flusso di radiazioni. In questo scenario, rimarrebbe abbastanza materia normale da condurre all’universo che conosciamo.

Per fare questo lavoro, i teorici propongono che il trio includa una particella di Higgs conosciuta e due ancora da individuare, con ognuno di questi due con una massa di circa 1.000 GeV. Questo numero è puramente arbitrario, ma è stato appositamente scelto per rendere questo ipotetico Higgs potenzialmente rilevabile con la prossima generazione di collettori di particelle. Inutile presupporre l’esistenza di una particella che non potrebbe essere rilevata.

Quindi ora c’è da vincere una sfida. Qualunque meccanismo abbia causato l’asimmetria deve aver dato alla materia un vantaggio sull’antimateria di un fattore da un miliardo a uno. E ha avuto un brevissimo lasso di tempo nell’universo primordiale per fare le sue cose; una volta divise le forze, il gioco è finito e la fisica, come sappiamo, si è definita. E questo meccanismo, inclusi i due nuovi Higgs, deve essere testabile.

La risposta breve: l’hanno fatto. È comprensibilmente un processo molto complicato, ma il meccanismo (e teorica) funzionerebbe così: i due nuovi Higgs decadono in docce di particelle a velocità leggermente diverse e con preferenze leggermente diverse per la materia rispetto all’antimateria. Queste differenze si accumulano nel tempo e quando la forza elettrodebole si divide, c’è abbastanza differenza nelle popolazioni di particelle materia-antimateria “costruite” nell’universo che la materia normale finisce per dominare sull’antimateria.

Certo, questo risolve il problema dell’asimmetria barionica ma porta immediatamente alla domanda su cosa stia facendo la natura con così tanti bosoni di Higgs.

Beh, facciamo un passo alla volta.

Fonte: Live Science.