venerdì, Aprile 4, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1323

Scoperte 39 antichissime e lontanissime galassie risalenti all’Universo primordiale

0
Migliori casinò non AAMS in Italia

Si può pensare che farsi sfuggire per decenni delle enormi galassie sia impossibile, eppure gli astronomi hanno appena individuato ben 39 nuove galassie lontane miliardi di anni luce, rimaste fino ad ora invisibili, cambiando così la nostra comprensione dell’Universo primordiale.

Questa è la prima volta che una così grande popolazione di enormi galassie è stata confermata, risalgono ai primi 2 miliardi di anni della vita dell’universo. In precedenza non eravamo riusciti a vederle“, ha detto l’astronomo Tao Wang dell’Università di Tokyo.

Questa scoperta è in contrasto con i modelli attuali per quel periodo di evoluzione cosmica e aiuterà ad aggiungere alcuni dettagli, che finora mancavano“.

L’Universo ha circa 13,8 miliardi di anni, il che significa, almeno in teoria, che possiamo scrutare il passato per vedere come erano le condizioni nel momento in cui si accesero le luci.

La luce di galassie poste a 10 miliardi di anni luce di distanza, ad esempio, impiega 10 miliardi di anni per viaggiare nello spazio per raggiungerci; quindi, quando vediamo qualcosa da così lontano, lo vediamo com’era 10 miliardi di anni fa.

In termini pratici, è molto più difficile. La luce più viene da lontano, più è debole quando ci raggiunge. Immaginiamo di vedere una torcia da una distanza di 10 metri e un’altra posta a oltre cento metri. Quest’ultima ci apparirà più piccola e più debole. A 1.000 metri, potremmo non essere nemmeno in grado di vederla ad occhio nudo.

E l’Universo si sta espandendo, il che allunga le onde luminose mentre viaggiano attraverso lo spazio, spostandole verso l’estremità rossa dello spettro. Questo fenomeno si chiama redshift, e più qualcosa è lontano, più lo spazio si espande tra noi e l’oggetto, aumentando così il redshift.

Quando il telescopio spaziale Hubble ha guardato più lontano che mai nello spazio-tempo per la sua serie di immagini Deep Field, ha catturato un ampio spettro di lunghezze d’onda, dall’ultravioletto al vicino infrarosso, catturando alcune delle galassie più distanti che abbiamo mai visto.

Ma queste galassie appena scoperte avevano un’ulteriore complicazione.

Li abbiamo rilevati nella lunghezza d’onda dell’infrarosso medio e del submillimetro [tra infrarosso e microonde]“, ha spiegato Wang a ScienceAlert.

Queste galassie sono così scure nell’ultravioletto al vicino infrarosso perché contengono un’enorme quantità di polvere che assorbe la luce a lunghezze d’onda più brevi“.

confronto delle prime galassieImmagine di Hubble Deep Field (a sinistra) e osservazioni ALMA nella lunghezza d’onda del submillimetro (a destra). (© 2019 Wang et al.)

A queste lunghezze d’onda, è difficile caratterizzare queste galassie. La spettroscopia, ad esempio, la tecnica utilizzata per determinare le proprietà delle stelle in base a uno spettro di radiazioni elettromagnetiche, diventa estremamente difficile con una gamma così limitata di lunghezze d’onda.

Tuttavia, i ricercatori sono stati in grado di determinare che queste galassie sono sostanziali, con una densità spaziale di due ordini di grandezza superiore alle galassie stellari estreme (la densità spaziale è la quantità di materiale cosmico – stelle, pianeti e così via – impacchettata nello spazio che una galassia occupa; alcune galassie sono più piene di altre).

Secondo le osservazioni, queste antiche, enormi galassie stanno ancora formando nuove stelle a una velocità 100 volte superiore a quella della Via Lattea oggi.

E più una galassia è massiccia, più enorme è il buco nero supermassiccio al suo interno. Uno studio all’inizio di quest’anno ci ha mostrato che questi buchi neri erano molto più comuni nell’universo primordiale di quanto pensassimo in precedenza, sfidando la nostra comprensione su come possano essersi formati così velocemente

Le galassie appena individuate sono un altro pezzo del puzzle.

L’esistenza di questo gran numero di galassie imponenti e polverose è inaspettata negli attuali modelli o simulazioni, il che dimostra che l’Universo, nella sua prima fase di vita, poteva formare sistemi enormi in modo più efficiente di quanto pensassimo“, ha detto Wang a ScienceAlert. “Ciò comporta nuove sfide per teorici e modellisti“.

E aiutano anche a risolvere un altro problema che aveva infastidito gli astronomi: la grande popolazione di enormi galassie con bassi spostamenti verso il rosso. I precedenti sondaggi dell’Universo primordiale non avevano trovato abbastanza galassie per spiegare la formazione delle enormi galassie che avvenne in seguito.

Sulla base dei risultati ottenuti, il team ha stimato che sono molto numerose queste galassie ad alto spostamento verso il rosso con masse masse inferiori che non abbiamo ancora rilevato – forse circa 530 per grado quadrato di cielo (per capire, la Luna piena ha un diametro di mezzo grado se vista dalla Terra).

La grande densità numerica di questa nuova popolazione di enormi galassie aiuterà a risolvere questa tensione“, ha detto Wang.

Il team sta pianificando di condurre ulteriori osservazioni con l’Aracama Large Millimeter / Submillimeter Array per cercare di ottenere informazioni più dettagliate sullo spostamento verso il rosso delle 39 galassie, nonché sui tassi di formazione delle stelle e sul contenuto di polvere.

Ma l’analisi spettroscopica delle galassie potrebbe dover attendere fino a quando il James Webb Space Telescope, successore di Hubble, verrà lanciato nel 2021.

Sono impaziente che i prossimi strumenti per l’osservazione dell’universo, come il James Webb Space Telescope, comincino  mostrarci come sono fatte davvero queste bestie primordiali“, ha concluso Wang.

La ricerca è stata pubblicata su Nature.

Geoingegneria, irrorazioni e vulcani

0
Migliori casinò non AAMS in Italia

David Keith, docente di fisica applicata, è un sostenitore della cosiddetta geo-ingegneria, ossia dell’idea di modificare il clima grazie l’intervento antropico. Il suo piano consiste nell’abbassare la temperatura globale riversando grandi quantità di anidride solforosa nell’atmosfera, replicando l’effetto che si ottiene quando avviene una grande eruzione vulcanica.

L’anidride solforosa è una sostanza che permette di bloccare una parte dei raggi solari, con un effetto inverso “all’effetto serra”. Lo si è osservato, ad esempio, quando nel 1991 eruttò il vulcano Pinatubo, nelle Filippine: le emissioni di anidride solforosa invertirono, per un breve periodo, il riscaldamento climatico.

Secondo David Keith, si dovrebbe replicare ciclicamente questo effetto, che in questo caso non dipenderebbe da eruzioni vulcaniche ma da aerei che irrorano anidride solforosa nell’atmosfera. Keith aveva avanzato la tesi nel suo libro A Case for Climate Engineering (MIT Press, 2013) un libro che, sicuramente, ha fatto saltare sulla sedia molti cospirazionisti che seguono la teoria delle scie chimiche, che prevede appunto, l’irrorazione tramite aerei che rilasciano sostanze chimiche nell’atmosfera.

L’idea è stata poi rilanciata da Bloomberg BusinessWeek in occasione del vertice di Parigi. “L’idea è replicare l’effetto-Pinatubo con una flotta di aerei modificati che irrorano minuscole gocce di acido solforico nella stratosfera, dove combinandosi con il vapore acqueo formeranno particelle di solfato capaci di deflettere la luce del sole”, si legge. “Gli scienziati stimano che pochi grammi di solfato sarebbero in grado di contrastare il riscaldamento causato da tonnellate di anidride carbonica”.

Il piano, secondo Bloomberg BussinessWeek, sarebbe poco costoso, forse si attesterebbe attorno allo 0,01% del Pil mondiale.

Un approccio del genere al problema del riscaldamento globale è fattibile? Probabilmente si, ma è anche auspicabile? Secondo il magazine dello Smithsonian uno dei problemi associati con la geo-ingegneria sta nel fatto che “potrebbero esserci dei rischi per ora non ancora conosciuti dal momento che il processo non è mai stato testato, fatta eccezione per delle simulazioni al computer”.

Oltre a questa proposta esiste un nuovo documento pubblicato in Geophysical Research Letters che prova a capire se è possibile controllare il clima immettendo anche in questo caso sostanze chimiche nell’atmosfera.

Come abbiamo visto, la geoingegneria è un approccio teorico per contenere gli effetti dei cambiamenti climatici inseminando l’atmosfera con uno strato di particelle di aerosol rilasciate in modo intenzionale. I sostenitori di questo approccio lo descrivono come un vulcano “creato dall’uomo“.

A nessuno piace l’idea di armeggiare intenzionalmente con il nostro sistema climatico su scala globale“, ha dichiarato Ken Caldeira del Carnegie. “Anche se speriamo che questi approcci non debbano mai essere utilizzati, è davvero importante capirli perché un giorno potrebbero essere necessari per aiutare ad alleviare la sofferenza”. Anche Ken Caldeira insieme a Lei Duan del Carnegie, Long Cao della Zhejiang University e Govindasamy Bala dell’Indian Institute of Science, hanno iniziato a confrontare gli effetti sul clima indotti da un’eruzione vulcanica e della geoingegneria solare.

I ricercatori hanno usato modelli sofisticati per studiare l’impatto di un singolo evento vulcanico, che rilascia particelle che rimangono nell’atmosfera per pochi anni e di una distribuzione geoingegneristica a lungo termine, che richiede il mantenimento di uno strato di aerosol nell’atmosfera. Grazie a questi modelli sono arrivati alla conclusione che indipendentemente da come le particelle vengono iniettate in atmosfera, si verifica una rapida diminuzione della temperatura superficiale, con un raffreddamento del terreno più veloce dell’oceano.

Tuttavia, l’eruzione vulcanica aveva creato una differenza di temperatura maggiore tra la terra e il mare rispetto alla simulazione della geoingegneria. Ciò ha comportato diversi modelli di precipitazione tra i due eventi. In entrambe le situazioni, le precipitazioni sulla terra diminuiscono – il che significa meno acqua disponibile per le popolazioni, anche se la diminuzione è stata più significativa in seguito a un’eruzione vulcanica rispetto al caso della geoingegneria.

Quando un vulcano si spegne, la terra si raffredda sostanzialmente più velocemente dell’oceano. Ciò interrompe i modelli di pioggia in modi che non ci si aspetterebbe da un dispiegamento prolungato di un sistema di geoingegneria“, ha detto l’autore principale Duan.

Nel complesso, gli autori affermano che i loro risultati dimostrano che le eruzioni vulcaniche sono analoghi imperfetti per la geoingegneria e che gli scienziati dovrebbero essere cauti nell’estrapolare troppi dati da loro.

Sebbene sia importante valutare le proposte di geoingegneria da una posizione informata, il modo migliore per ridurre il rischio climatico resta quello di ridurre le emissioni“, ha concluso Caldeira.

Fonte: Carnegie Institution for Science; .rivistastudio.com.

Facebook ha beffato i 2 milioni di persone che volevano occupare l’area 51

0
Migliori casinò non AAMS in Italia

Facebook ha rimosso l’evento mega-virale chiamato “Storm Area 51“, sostenendo che violava gli standard della community.

Prima di essere rimosso, l’evento era stato sottoscritto da oltre 2 milioni di utenti di Facebook, attirando l’attenzione dei media mainstream.

L’idea, secondo la descrizione, era di formare un vero e proprio esercito di appassionati di ufologia ed alieni per fare irruzione nella base militare top-secret dell’Aeronautica militare chiamata AREA 51, situata nel mezzo del deserto del Nevada.

Vediamoli alieni“, diceva la descrizione dell’evento.

L’area 51 è stata a lungo oggetto di speculazioni incontrollate e teorie cospirative. La base, grande 13.000 chilometri quadrati ha ospitato centinaia di test di armi nucleari ed è servita come banco di prova per una serie di nuovi velivoli stealth che hanno dato adito alle molte voci di attività ufologica nei suoi cieli.

L’Aereonautica Militare statunitense aveva preso sul serio la minaccia ed un suo portavoce aveva riferito al Washington Post che “la US Air Force è sempre pronta a proteggere l’America e i suoi beni“.

L’uomo dietro l’evento, Mathew Roberts, sta pianificando di realizzare un vero e proprio festival dell’Area 51 che si svolgerà in Nevada il 20 settembre, secondo quanto riferisce CNET. Nel frattempo, una serie di persone si sta arricchendo vendendo magliette ed altri gadgets a tema UFO ed Area 51 tra i sostenitori dell’evento.

Nonostante il grande apprezzamento da parte degli utenti, Facebook, per evitare problemi, ha rimosso sia la pagina dell’evento che quella del festival.

Al via i lavori di rimozione del sarcofago intorno al reattore numero 4 di Chernobyl

0
Migliori casinò non AAMS in Italia

L’incidente della centrale nucleare di Chernobyl è probabilmente uno dei peggiori disastri nucleari della storia.

Il 26 aprile 1986, il nucleo di uno dei reattori nucleari dell’impianto si ruppe durante un normale test di sicurezza, inviando una grande nuvola di materiale radioattivo nell’aria. L’esplosione e i successivi incendi favorirono la diffusione nell’ambiente della contaminazione che si diffuse in tutta Europa, ma la maggiore contaminazione rimase sotto il reattore numero 4, quello danneggiato nell’incidente.

Meno di due mesi dopo il disastro, furono impiegati circa 600.000 addetti alla decontaminazione per costruire un “sarcofago“, una spessa copertura di cemento armato, attorno al reattore per bloccare la fuoriuscita di materiali radioattivi come il corio, l’uranio e il plutonio.

L’opera espose molti dei lavoratori a livelli pericolosi di radiazioni e almeno 31 persone morirono per malattia acuta da radiazioni.

La copertura era progettata per essere robusta (400.000 metri cubi di cemento e circa 16 milioni di libbre di acciaio) ma la costruzione fu fatta in fretta. Si lavorò in fretta per limitare l’esposizione dei lavoratori alle radiazioni ma questo causò troppe approssimazioni e non si riuscì a sigillare completamente l’edificio.

Rimasero crepe nei soffitti, ad esempio, che permisero all’acqua piovana di filtrare e di corrodere l’interno.

Ora, l’intero sarcofago deve essere smantellato prima che precipiti.

La società ucraina che gestisce l’impianto di Chernobyl, la SSE Chernobyl NPP, ha comunicato in una dichiarazione diffusa online che le valutazioni di esperti hanno rivelato che il sarcofago ha una “altissima” probabilità di collasso. Solo la gravità sta tenendo la struttura legata ai suoi blocchi di supporto, secondo quanto affermato la compagnia.

Quindi, il 29 luglio, ha firmato un contratto da 78 milioni di dollari con una società di costruzioni per smantellare il sarcofago entro il 2023. L’operazione prevede di rinforzare la struttura smontando e sostituendo le sue parti, mentre quelle smontate (con l’aiuto di gru robotizzate) verranno ripulite e spedite in appositi centri per il riciclaggio o lo smaltimento.

La rimozione di ogni elemento aumenterà il rischio di collasso della volta che a sua volta causerà il rilascio di grandi quantità di materiali radioattivi“, ha comunicato la società in una nota.

In ogni caso, il sarcofago originale si trova racchiuso all’interno di un guscio composto da 32.000 tonnellate di cemento le cui parti furono assemblate in Italia e consegnate tramite 18 navi e 2.500 camion mettendo la struttura in sicurezza relativamente al pericolo di nuove fughe radioattive.

Il guscio completo, noto come struttura di Nuovo Confinamento Sicuro, è stato portato nella sua posizione finale nel 2016, ed è diventato il più grande oggetto terrestre mai mosso dagli umani. La nuova struttura, è stata rivelata al pubblico lo scorso luglio.

Si prevede che l’area dovrà restare confinata per un altro secolo. Nel frattempo, completato lo smantellamento del sarcofago, inizierà la gigantesca opera di bonifica delle scorie radioattive che rimangono ancora nel reattore numero 4.

Il processo prevede l’aspirazione delle particelle radioattive e l’eliminazione della miscela di “lava” formatasi quando i sovietici scaricarono sabbia, piombo e boro nel reattore in fiamme.

Si prevede che questi sforzi dureranno fino al 2065. A quel punto, gli scienziati stimano che le radiazioni liberate dall’incidente avranno provocato oltre 40.000 casi di tumore.

Fonte: Washington Post

Software di clonazione del disco rigido: cos’è e perché averlo

0
Migliori casinò non AAMS in Italia

Un clone è una copia perfettamente duplicata di qualcosa. La scienza è arrivata a clonare pecore ed altri animali e forse un giorno sarà possibile clonare anche le persone, ma a noi, ora, interessa la clonazione del disco rigido cui è possibile ricorrere attraverso un software apposito per gestire e proteggere i dati in caso di malfunzionamenti dell’hardware.

Cosa fa un software di clonazione del disco rigido? Diamogli un’occhiata da vicino.

Fondamentalmente, la clonazione del disco rigido è un processo atto a produrre una copia perfetta di ogni bit di informazione da un disco rigido del computer a un altro disco, interno od esterno.

Spesso, il contenuto del primo disco viene scritto in un file di immagine come passaggio intermedio. Il secondo disco viene quindi creato con il contenuto dell’immagine.

Che cos’è un software di clonazione del disco rigido?

Un software di clonazione del disco rigido replica specularmente il disco, quindi il sistema operativo, le unità, il software e le patch di un computer.

In pratica elimina il lungo processo tecnico di reinstallazione e riconfigurazione manuale di un sistema in modo da poter eseguire una o più delle seguenti operazioni:

Riavvio e ripristino di un computer a una versione precedente oppure installare più computer con la stessa configurazione, in pratica crea tanti computer duplicati del primo.

È anche possibile aggiornare un disco rigido ormai troppo piccolo con uno di capacità maggiore mantenendo la stessa configurazione del PC, così come si può sostituire sostituire un disco rigido danneggiato con uno nuovo senza perdere molto tempo o ripristinare il sistema in caso di problemi del software o guasti al computer.

Perfetto, è ovvio che voglio proteggere i miei dati ma queste cose non si fanno già con un normale backup?

Non del tutto.

Un software di backup a immagine intera o un software di backup di file e cartelle non sono la stessa cosa di un software che esegue la clonazione del disco, sebbene i motivi per utilizzarli possano sovrapporsi. Ecco alcune buone linee guida su quando usare l’uno o l’altro:

Utilizzare il software di backup per i seguenti scopi:

  • Eseguire il backup di singoli file o cartelle sul cloud per la protezione offsite e l’accesso remoto.
  • Eseguire periodicamente il backup di un intero computer. Il backup dell’immagine del disco include tutte le informazioni di avvio, applicazioni, impostazioni e dati e li archivia su un disco rigido locale esterno o sul cloud. Quando i dati e le applicazioni cambiano, il software di backup salva queste modifiche “incrementali”. I backup incrementali richiedono molto meno tempo rispetto a un nuovo backup (o immagine del disco) di un’intera unità di origine. Inoltre, consente di ripristinare tutto ciò che è accaduto dalla prima installazione del disco rigido.

Il miglior software di backup dati che ho utilizzato è EaseUS Todo Backup Free 11.5 che non posso fare a meno di consigliare a tutti i lettori che avessero esigenze di questo genere.

Utilizzare un software di clonazione quando l’obbiettivo è:

  • Duplicare le configurazioni di più computer in modo che ogni macchina sia configurata in modo identico. Configurare un computer nel modo desiderato, clonare il disco rigido, quindi installare il clone su ciascun computer successivo.
  • Se è necessario aggiornare l’hardware del computer, il semplice inserimento di un disco clonato nell’hardware potrebbe non funzionare. Sarà necessario utilizzare alcune funzionalità di configurazione del sistema operativo per assicurarti che sia supportato tutto l’hardware più recente o utilizzare uno strumento di backup e ripristino per supportare il ripristino di un disco su un computer con hardware diverso rispetto al computer originale.

I vantaggi del software di clonazione

Rispetto ai software di backup, il più grande vantaggio dei software per software di clonazione del disco rigido, per la maggior parte degli utenti di computer domestici, è che in questo modo si ottiene un’immagine completa del tuo computer in un determinato momento.

Ad esempio, potresti voler avere la “configurazione perfetta” per la tua famiglia o l’ufficio, con tutte le applicazioni e le impostazioni riutilizzabili in qualsiasi momento. I file di dati (come documenti, foto e video di Microsoft Word) possono trovarsi su un disco rigido o volume separato.

In questo modo, tutti i computer sono sincronizzati; hanno gli stessi programmi e gli utenti avranno la stessa esperienza indipendentemente dalla macchina che usano.

Tuttavia, ogni computer può contenere dati diversi. Quindi, ci possono essere diversi documenti Word ed Excel su ciascun computer, ma le versioni Word ed Excel e l’interfaccia utente – come si accede a questi programmi – sono uguali su ogni computer.

Funzionalità chiave del software di clonazione

Essere semplice: utilizza la migrazione dei dati per trasferire i dati. In genere offre il modo più semplice per eseguire il backup e il ripristino del sistema. Assicurarsi che il software di clonazione dell’unità sia intuitivo.

Flessibile: offre opzioni per definire quando, cosa e dove eseguire il backup dei dati.

Sicuro: Garantisce che i tuoi dati siano protetti e sicuri utilizzando la sicurezza più rigorosa disponibile.

Anche in questo caso, nella mia esperienza  EaseUS Todo Backup Free rappresenta il meglio dei due mondi, rendendo possibile di effettuare Backup e ripristino dei dati oppure di creare un clone, la copia speculare del tuo disco rigido, già pronto ad essere utilizzato come disco di avvio.

La maggior parte degli utenti richiede soluzioni che permettano sia il backup che la clonazione. EaseUS Todo Backup Free fornisce in modo efficiente e sicuro una protezione continua dei dati, ottimizzando al contempo le prestazioni del computer durante i backup e riducendo al minimo i requisiti di spazio di archiviazione.

Con EaseUS Todo Backup Free, si ha il vantaggio di poter utilizzare strumenti di backup e clonazione del disco, incluse opzioni di pianificazione flessibili, backup di imaging incrementale, possibilità di scegliere di quali file e programmi eseguire il backup e una serie di scelte su dove e come archiviare l’immagine del disco clonato.

Tutto questo è anche semplice da usare. Anche i neofiti del computer possono utilizzare la guida alle procedure guidate facile da seguire durante il processo di configurazione. Una volta completata la configurazione iniziale, il software di clonazione dell’unità viene eseguito automaticamente, eliminando ulteriori tempi o sforzi.

Il software di clonazione e backup del disco è il modo perfetto per proteggere e gestire i tuoi dati.

Uno studio sui topi ha identificato alcuni potenziali danni che potrebbero subire gli astronauti durante lunghe missioni nello spazio profondo

0
Migliori casinò non AAMS in Italia

L’umanità progetta di andare sulla Luna ed oltre nei prossimi due decenni. Ma mentre la nostra tecnologia fa progressi costanti verso questi ambiziosi obiettivi, i nostri corpi possono essere l’unico vero ostacolo per i viaggi nello spazio sulle lunghe distanze. Un articolo pubblicato sulla rivista ENeuro rivela alcuni “potenziali problemi inattesi” con cervelli dei mammiferi che potrebbero significare che non siamo pronti ad intraprendere viaggi nello spazio.

Utilizzando una nuova struttura a radiazioni “a basso dosaggio” situata presso la Colorado State University, un team di scienziati ha osservato che i topi, dopo avere trascorso mesi esposti a radiazioni simili a quelle che si trovano nello spazio profondo, iniziano a comportarsi in modo strano.

I topi coinvolti nello studio hanno mostrato “gravi disabilità” nell’apprendimento e nella memoria e sono diventati estremamente ansiosi. Il team ha anche riscontrato cambiamenti fisici nel cervello dei topi che potrebbero spiegare i cambiamenti.

Nel documento, scritto da Charles Limoli, professore di oncologi presso la UC Irvine School of Medicine, il team sostiene che le sue scoperte “comprometterebbero chiaramente le capacità degli astronauti che hanno bisogno di rispondere rapidamente, in modo appropriato ed efficiente a situazioni impreviste che potrebbero verificarsi nel corso di una missione su Marte“.

ISS, stazione spaziale internazionale.
Andare oltre l’orbita terrestre bassa potrebbe comportare rischi significativi per i cervelli dei futuri astronauti.

Questo studio è stato condotto su topi, quindi non possiamo dire con certezza che i risultati si applicheranno agli umani. Tuttavia, arriverà un momento cruciale. Ad aprile i risultati dello studio sui gemelli effettuato dalla NASA hanno mostrato che l’astronauta Scott Kelly,  dopo avere trascorso un anno a bordo della Stazione Spaziale Internazionale, ha subito alcuni piccoli cambiamenti fisiologici rispetto al suo gemello terrestre, ma nulla di  irreversibile o pericoloso per la vita. Tali scoperte suggeriscono che gli umani reagiscono bene durante le missioni spaziali estese nell’orbita terrestre bassa, il che è un buon punto di partenza.

L’orbita terrestre bassa, però, è una cosa, ma andare su Marte (e oltre) è un’altra cosa. Le missioni nello spazio profondo dovranno fare i conti con la radiazione cosmica galattica (GCR), particelle che stanno accelerando così velocemente da essere spogliate dei loro elettroni, che lasciano indietro solo il nucleo. Quelle particelle possono “passare praticamente senza ostacoli attraverso una navicella spaziale tipica o la pelle di un astronauta“, ponendo minacce alla salute umana, ha osservato la NASA.

Limoli e il suo team della UC Irvine hanno cercato di imitare al meglio questo ambiente inospitale confinando i topi per sei mesi in una struttura dove sono rimasti esposti a radiazioni a basso dosaggio. Non è perfetto, ma sostengono che il loro protocollo di esperimento “simula ragionevolmente le esposizioni di GCR durante una missione prolungata nello spazio profondo“.

Nel tempo, hanno osservato preoccupanti cambiamenti fisici e comportamentali. In particolare, hanno visto che i neuroni nell’ippocampo dei topi esposti alle radiazioni erano molto meno eccitabili di quanto non fossero nei topi di controllo. Tale effetto ha creato una riduzione della segnalazione, che secondo loro spiega alcuni cambiamenti comportamentali nei topi sottoposti a test di memoria e interazione sociale.

 

Ma hanno anche notato che anche il potenziamento a lungo termine dei neuroni nell’ippocampo è stato ostacolato. Il potenziamento a lungo termine è una forma di plasticità cerebrale che permette a due neuroni di “imparare” a interagire formando una forte connessione che si ritiene sostenga l’apprendimento e la memoria. L’esposizione a lungo termine alle radiazioni, notano questi autori, sembra interrompere questo processo cruciale.

Gli autori, comunque, osservano che la traduzione di una scoperta sul cervello di un topo in qualcosa che la NASA può utilizzare per aiutare a informare i viaggiatori dello spazio umani “rimane ancora una sfida“. Le radiazioni spaziali possono anche influenzare persone diverse in modi diversi, ma in base ai loro calcoli nei topi, il il team stima che un numero significativo di astronauti potrebbe avere difficoltà con le funzioni cognitive (come ad esempio la memoria) quando saranno nello spazio profondo:

Pertanto, in un equipaggio di cinque astronauti che viaggiano su Marte, ci aspetteremmo che almeno un membro mostrasse gravi deficit delle funzioni cognitive al rientro sulla Terra“, scrivono i membri del team.

Considerando che gli imprenditori spaziali stanno già progettando di costruire vere e proprie colonie su Marte, l’idea che una persona su cinque possa avere grossi problemi cognitivi durante il viaggio potrebbe rappresentare un enorme ostacolo. Ma non insormontabile. Anche se gli autori descrivono questi rischi specifici come “imprevisti“, la NASA è consapevole da anni della sfida rappresentata dalle radiazioni dello spazio profondo e sta attivamente cercando soluzioni.

Ad esempio, nel 2003 la NASA ha finanziato il Brookhaven National Lab di New York per creare il NASA Space Radiation Laboratory, che, come il progetto di Limoli, inizialmente aveva lo scopo di valutare i rischi da radiazioni simili a quelle dello spazio profondo. L’idea è che man mano che riusciremo a gestire meglio i rischi, la priorità della ricerca “passerà dalla valutazione del rischio allo sviluppo delle contromisure“.

In effetti, il tempo stringe. Diverse stime suggeriscono che gli umani arriveranno su Marte (e rimarranno lì) entro i prossimi due decenni. Ma si spera di riuscire ad escogitare le necessarie contromisure nei tempi giusti.

Abstract:

Mentre la NASA progetta una futura missione su Marte, sono emerse preoccupazioni riguardo ai rischi per la salute associati all’esposizione alle radiazioni nello spazio profondo. Fino ad ora, gli impatti di tali esposizioni sono stati osservati negli animali solo dopo esposizioni acute, utilizzando dosi di circa 1,5 ± 105 88 superiori a quelli effettivamente riscontrati nello spazio. Utilizzando una nuova struttura di irradiazione di neutroni a basso dosaggio, abbiamo scoperto che esposizioni realistiche a basso tasso di dosaggio producono gravi complicanze neurocognitive associate a neurotrasmissione compromessa. L’esposizione cronica (6 mesi) a bassa dose (18 cGy) e la velocità di dose (1 mGy / giorno) di topi a un campo misto di neutroni e fotoni determinano una ridotta eccitabilità neuronale dell’ippocampo e interruzione dell’ippocampo e potenziamento corticale a lungo termine. Inoltre, i topi hanno mostrato gravi disabilità nell’apprendimento e nella memoria, e l’emergere di comportamenti di autoprotezione. Le analisi comportamentali hanno mostrato un allarmante aumento del rischio associato a queste simulazioni realistiche, rivelando per la prima volta alcuni potenziali problemi inattesi associati al viaggio nello spazio profondo a tutti i livelli della funzione neurologica.

Fonte: Inverse

In ricordo della tragedia di Hiroshima e Nagasaki

0
Migliori casinò non AAMS in Italia

Oggi ricordiamo il 74° anniversario dello scoppio del primo ordigno atomico sulla città di Hiroshima.

Nel ricordare il tragico avvenimento il sindaco della città giapponese ha rinnovato le richieste di eliminazione di tutte le armi atomiche. “Oggi in tutto il mondo vediamo un nazionalismo egocentrico in ascesa, tensioni accentuate dall’esclusività internazionale e dalla rivalità, con il disarmo nucleare a un punto morto“, ha affermato Matsui nella sua dichiarazione di pace. Ha esortato le giovani generazioni a non dimenticare mai i bombardamenti atomici e la guerra derubricandoli a semplici eventi descritti nei libri di storia, ma a pensarli come propri, mentre ha invitato i leader mondiali a venire a visitare le città bombardate dalle armi nucleari per capire cosa è successo.

Matsui ha anche chiesto al governo giapponese di rappresentare le volontà dei sopravvissuti ai bombardamenti atomici e di firmare un trattato di divieto delle armi nucleari delle Nazioni Unite.

Era il 6 agosto del 1945 quando, alle 8:16 di quel lunedì, «Little Boy» la bomba che l’aereo bombardiere Enola Gay sganciò su Hiroshima, uccise 80 mila esseri umani, e tanti ne morirono negli anni successivi.

Un nomignolo apparentemente canzonatorio per un’ordigno che con quasi 65 chilogrammi di uranio arricchito all’80 per cento, aveva un’attività fissile della massa critica che durava 1,35 millisecondi, e nell’esplosione liberò un’energia compresa tra i 12,5 e i 20 chilotoni. Ma questi sono freddi dettagli, misure e numeri ai quali siamo poco abituati e che non danno il giusto risalto alla carneficina che l’arma provocò.

Fu un caso, uno scherzo del destino a portare l’Enola Gay con il suo carico di morte su Hiroshima, le condizioni meteo avverse fecero mutare l’obiettivo designato che inizialmente era la città di Kokura. Cosi la rotta cambiò e la bomba prese un’altra via.

Gli americani sganciarono un secondo ordigno atomico dopo tre giorni su Nagasaki. L’ordigno conteneva 6 chili e mezzo di plutonio 239, secondo le stime morirono quasi 40 mila esseri umani, per il Giappone fu la resa incondizionata.

A Los Alamos costruirono “solo” tre ordigni atomici, il primo dei quali era stato fatto detonare come test nel deserto di Alamagordo, nel Nuovo Messico. Dietro i calcoli e la realizzazione di quelle bombe c’era uno scienziato, e senza il suo genio quelle bombe non ci sarebbero mai state. Ma lui il test di Alamogordo non lo guardò nemmeno, si limitò a far cadere alcuni pezzettini di carta per calcolare la potenza della bomba misurandone lo spostamento dalla verticale, forse non trovò il coraggio.

Quel lunedì mattina del 6 agosto lo scienziato senza il quale la bomba atomica non si sarebbe mai potuta realizzare, uscì dalla sua casa di Los Alamos per raggiungere i laboratori, come sempre.

Quello scienziato si chiamava Enrico Fermi, genio della Fisica e premio Nobel grazie alla ricerca sui neutroni lenti nel laboratorio di Via Panisperna.

Doveva fare un lavoro e lo aveva fatto.

Fonti: corriere.it; time.com; wikipedia

L’Unione Sovietica e lo sbarco sulla Luna (seconda parte)

0
Migliori casinò non AAMS in Italia

Il modulo lunare Russo

Pesante 5,5 tonnellate e alto poco meno 5 metri, il modulo lunare sovietico Lunnyj Korabl (LK) era composto essenzialmente da due parti distinte, una piattaforma per l’atterraggio morbido e una cabina pressurizzata in grado di ospitare un solo cosmonauta. Il modulo di atterraggio era dotato di un motore di 24 kN a tetrossido di azoto e dimetilidrazina che aveva il compito di rallentare nelle fasi di avvicinamento al suolo lunare e di consentire anche il decollo della sola cabina nella fase di ritorno lasciando sulla Luna la base con le quattro gambe che costituivano il carrello di atterraggio, un sistema più semplice di quello utilizzato dai moduli lunari statunitensi, composti da due stadi separati, uno di discesa e uno di risalita ma con un’importante innovazione visto che il modulo LK era dotato di un motore di riserva, che in caso di malfunzionamento del motore principale, avrebbe assicurato il decollo del cosmonauta dal suolo lunare.

All’epoca i sovietici avevano studiato anche la realizzazione di una cosmonave più grande capace di condurre sulla Luna tre cosmonauti. Tuttavia, questa ipotesi avrebbe richiesto il lancio contemporaneo di due vettori N-1 e le spese troppo elevate, assieme alla cancellazione successiva del programma, ne causarono la chiusura.

Il modulo lunare LK fu visto per la prima volta oltre vent’anni dopo da un gruppo di ingegneri aerospaziali guidati dal professor Jack L. Kerrebrock, del Massachussets Institute of Technology (MIT), che alla fine degli anni Ottanta si erano recati in visita ai colleghi dell’Istituto Moscovita per l’Aviazione. All’interno di un magazzino dell’istituto, i tecnici americani poterono vedere e fotografare il modulo lunare sovietico perfettamente conservato. Furono i primi occidentali a poterlo fare.

Il piccolo modulo lunare LK portava pochi strumenti scientifici e pochissimo carburante a bordo, che avrebbe consentito un breve tentativo di allunaggio di 20 secondi e un unico tentativo per ricongiungersi alla cosmonave in orbita lunare.

La missione UR500K/L1

All’epoca era stato progettato un secondo vettore che era entrato in competizione con l’N-1 di Korolëv. Il vettore era l’UR-500 ed era stato ideato inizialmente come missile balistico intercontinentale dalla fertile mente dell’ingegnere Valentin Gluško, capace di trasportare testate nucleari da 100 megatoni su distanze di oltre 13.000 chilometri. Venne impiegato nei test sperimentali della “bomba tsar” agli inizi degli anni Sessanta. Il suo esordio avvenne nel 1964, dopodiché il missile subì ulteriori modifiche fino a raggiungere la versione attualmente utilizzata con successo dall’Agenzia Spaziale Russa.

Nella versione prevista per le missioni di circumnavigazione lunare, il vettore UR500K/L1 era un tri stadio alto 44,3 metri. Il primo stadio dal peso di 450 tonnellate era dotato di sei motori RD-253 progettati da Gluško ciascuno dei quali collegato ad un proprio serbatoio di propellente di diametro di 2 metri. Durante l’accensione, per circa 120 secondi, i motori producevano una spinta di 8.767 kN.
Il secondo stadio alto 17 metri e dal peso di 170 tonnellate e con un diametro di 4,2 metri era dotato di tre RD-465 (RD-0208) ed un RD-468 (RD-0209), tutti progettati dal bureau OKB-154 di Semyon Kosberg. generava una spinta di 2.402 kN per la durata di circa 215 secondi.

L’ultimo stadio misurava solo 6,6 metri e aveva un unico motore, un RD-473 da 628 kN. Per correggere l’assetto era invece fornito di sei piccoli razzi Vernier.
Il compito di questo vettore era inserire in orbita terrestre per il volo translunare il blocco D e l’astronave L-1 Zond.

Durante ii lanci con equipaggio, la sonda era sormontata da un sistema di emergenza che, in caso di pericolo sulla rampa, avrebbe automaticamente allontanato la nave portando in salvo l’equipaggio. Il vettore UR500K/L1 era controllato da un sistema elettronico ideato da Nikolai Pilugin, membro del bureau NII-855.

Il progetto fu approvato dalle autorità sovietiche che consentirono l’avvio della produzione dei veicoli con l’obiettivo di circumnavigare la Luna entro il 1967, un anno prima degli americani che la circumnavigarono alla fine del 1968 con la missione spaziale Apollo 8.

Furono, però, gli americani a compiere l’impresa, appunto nel 1968, a causa dell’incidente capitato alla Sojuz 1, e altri problemi di affidabilità comportarono ulteriori rinvii. Il vettore in seguito fu aggiornato prendendo il nome di Proton. Tali aggiornamenti, apportati dal direttore dell’OKB-52 Vladimir Chelomej furono la risposta agli sviluppi del super-vettore di Korolëv

Il progetto di circumnavigazione lunare affidato a questo razzo si sarebbe prima realizzato nel lancio diretto verso la Luna di una capsula Sojuz modificata L-1, dotata di uno stadio supplementare, successivamente lo stesso vettore avrebbe collocato in orbita intorno alla Luna la capsula e il blocco D senza equipaggio in attesa che un altro vettore (R-7) avrebbe portato nella stessa orbita una seconda Sojuz con tre cosmonauti a bordo per il trasferimento nella capsula L-1 adibita alla circumnavigazione lunare.

Il razzo Proton UR-500K era pronto già nel 1967. Il 4 febbraio il Consiglio dei Ministri aveva dichiarato il programma di circumnavigazione lunare L-1, priorità assoluta dell’intero programma spaziale sovietico.

Come abbiamo visto, però, sovvennero doversi incidenti e difficoltà e lo sbarco degli americani sulla Luna nel 1969 portò il Soviet supremo ad annullare le fasi successive del costoso programma.

(Prima parte)

Quasi pronti per il volo di collaudo i prototipi della Starship. Il 24 agosto Musk farà il punto della situazione

0
Migliori casinò non AAMS in Italia

Secondo quanto rivelato da Elon Musk su Twitter, due diversi prototipi dell’astronave di SpaceX chiamata Starship potrebbero avere il loro battesimo del volo entro la fine di questo mese. Il CEO di SpaceX non ha però chiarito se si tratterà di un piccolo balzo o se sarà tentato, addirittura, uno storico primo volo orbitale.

Il 24 agosto SpaceX terrà una presentazione a Boca Chica, in Texas, durante la quale verranno rilasciati aggiornamenti sul programma Starship. Durante una serie di tweet in cui si è discusso della presentazione, Musk ha osservato che SpaceXdovrebbe avere la versione MK1 della Starship con 3 motori Raptor quasi pronti a volare già in occasione dell’evento” Le rivelazioni di Musk potrebbero essere il segno che la compagnia ritiene essere molto avanti nello sviluppo della nave spaziale, destinata, nelle intenzioni di Musk, a riportare gli uomini sulla Luna prima della NASA per poi puntare direttamente verso Marte nel 2024.

SpaceX ha attualmente due team che costruiscono due diversi prototipi della Starship, uno a Boca Chica e l’altro a Cocoa, in Florida .

Il 19 luglio, Musk fece sapere tramite twitter che entrambi i prototipi sarebbero stati pronti per volare entro “2-3 mesi“, quindi, se per il 24 agosto fossero davvero “quasi pronti“, sarebbe evidente un anticipo sui tempi previsti. Naturalmente, dire che i razzi dovrebbero essere pronti a volare non è la stessa cosa che dire che SpaceX li manderà in orbita prima della fine del mese.

In ogni caso, il tweet di sabato sembra implicare che Musk sia ottimista sui progressi della sua compagnia sul razzo, e questo aggiunge certamente un po’ di eccitazione alla presentazione che si svolgerà a Boca Chica.

Nel frattempo, SpaceX ha incassato un significativo riconoscimento dalla NASA che ha messo a disposizione il Glenn Research Center in Ohio e il Marshall Space Flight Center in Alabama per far avanzare la tecnologia necessaria per trasferire propellente in orbita da astronave ad astronave, unendo le competenze già acquisite dal personale NASA, che ha già da tempo iniziato a studiare il problema, con quelle del team di SpaceX deputato a questo progetto.

La Starship, infatti, per trasportare il suo carico utile fino su Marte, atterrandovi, in tempi più brevi di quelli impiegati attualmente dalle sonde, dovrebbe fare il pieno di carburante una volta posizionatosi in orbita. Questo permettere all’astronave di SpaceX di compiere in accelerazione buona parte della distanza tra i due pianeti, accorciando notevolmente i tempi di percorrenza.

In ogni caso, non resta che aspettare il 24 per sapere le ultime novità e gli sviluppi dei progetti di SpaceX e del suo fondatore, che appare deciso più che mai a portare gli uomini sulla Luna e su Marte.

Scoperto un buco nero assolutamente gigantesco, ha una massa di 40 miliardi di soli

0
Migliori casinò non AAMS in Italia

I buchi neri possono diventare piuttosto grandi, ma ce ne sono alcuni che appartengono ad una classe tutta loro, composta di buchi neri mostruosi e davvero grandi. Gli astronomi ritengono di avere individuato il campione assoluto di questa classe, dato che, a quanto risulta, avrebbe una massa 40 miliardi di volte la massa del Sole.

Questo mostro è stato individuato al centro di una galassia chiamata Holmberg 15A, una galassia ellittica enorme posta a circa 700 milioni di anni luce di distanza, che a sua volta si trova al centro del cluster di galassia Abell 85.

L’oggetto è uno dei più grandi buchi neri mai trovati e il più grande individuato tracciando il movimento delle stelle attorno ad esso.

I calcoli precedenti basati sulla dinamica della galassia e dell’ammasso avevano portato a stime di massa di Holm 15A * fino a 310 miliardi di volte la massa del Sole. Tuttavia, queste erano tutte misure indirette del buco nero. Questa nuova ricerca segna la prima misurazione diretta; il documento è stato inviato al The Astrophysical Journal e attende la peer review.

Utilizzando modelli di Schwarzschild assiali e basati sull’orbita per analizzare la cinematica stellare di Holm 15A da nuove osservazioni spettrali ad ampio campo ad alta risoluzione ottenute con MUSE presso il VLT, abbiamo trovato un buco nero supermassiccio (SMBH) con una massa di (4,0 ± 0,80) × 10 10 masse solari al centro di Holm 15A“, hanno scritto i ricercatori nel loro articolo. Questo è il buco nero più massiccio individuato con un rilevamento dinamico diretto nell’universo locale“.

Questo non è il buco nero più massiccio mai rilevato – quello dovrebbe essere il quasar TON 618, che apparentemente ha un buco nero con un clock di 66 miliardi di volte la massa del Sole, basato su misurazioni indirette.

Ma Holm 15A * è lassù. Con 40 miliardi di masse solari come massa, l’orizzonte degli eventi di questo buco nero (noto anche come raggio di Schwarzschild) sarebbe enorme, in grado di inghiottire tutto il nostro sistema solare fino all’orbita di Plutone e parecchio oltre.

Plutone è, in media, a 39,5 unità astronomiche (AU) dal Sole. Si ritiene che l’eliopausa – il punto dove il vento solare cessa di avere effetti e inizia lo spazio interstellare – sia a circa 123 UA dal Sole.

In base alla massa calcolata di Holm 15A *, come determinato dal nuovo documento, il suo raggio di Schwarzschild sarebbe di circa 790 UA.

Se proviamo ad immaginare qualcosa di quelle dimensioni. La mente vacilla.

In effetti, è persino più grande di quanto suggerito dalle altre misurazioni prese dai ricercatori, il che potrebbe spiegare perché la massa di Holm 15A * sia stata difficile da definire con metodi indiretti.

L’SMBH di Holm 15A non è solo il più massiccio fino ad oggi, è anche da quattro a nove volte più grande del previsto, data la massa stellare del rigonfiamento della galassia e la dispersione stellare della velocità della galassia“, hanno scritto i ricercatori.

Tutto ciò, si adatta alle predizioni di un modello relativo alla collisione tra due galassie di tipo precoce con nuclei esauriti. Questo accade quando non ci sono molte stelle nel nucleo, in base a ciò che ci si aspetta dal numero di stelle nelle regioni esterne della galassia.

Scopriamo che le masse dei buchi neri al centro di galassie di questo tipo, tra cui Holm 15A, si scalano inversamente con la luminosità della superficie stellare centrale e la densità di massa, rispettivamente“, hanno scritto i ricercatori.

Ora, l’enorme oggetto sarà sottoposto ad ulteriori studi, producendo modelli più complessi e dettagliati, confrontando i risultati con le osservazioni, per cercare di capire esattamente come si è formato il buco nero.

A sua volta, ciò può aiutare a capire con quale frequenza si verifica una tale fusione – e quindi quanti buchi neri ultramassivi potrebbero ancora essere scoperti.

La ricerca è stata inviata a The Astrophysical Journal ed è disponibile su arXiv.