martedì, Aprile 22, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1273

Meteore relativistiche

0
Migliori casinò non AAMS in Italia

Sappiamo che il nostro pianeta viene bombardato occasionalmente da corpi celesti che, catturati dal suo intenso campo gravitazionale, impattano con l’atmosfera bruciando o, se di dimensioni sufficienti, impattando sulla superficie. La Terra, durante il suo percorso attorno al Sole, incrocia con una certa regolarità vaste nuvole di detriti che producono piogge di meteore e inoltre incrocia corpi di dimensioni cosi piccole, circa 1 mm, da passare praticamente inosservati.

Due astrofisici di Harvard molto noti, Amir Siraj e il Prof. Abraham Loeb hanno effettuato uno studio secondo il quale l’atmosfera del nostro pianeta sarebbe raggiunta da piccoli corpi rocciosi di dimensioni comprese da 1 mm fino a 10 cm che si muoverebbero nello spazio a velocità fantastiche. I due studiosi sostengono che queste meteore potrebbero essere state prodotte da supernovae relativamente vicine che avrebbero impresso loro velocità sub relativistiche e relativistiche.

Lo studio di Siraj e Loeb si intitola “Firme osservative delle mete sub-relativistiche“, è apparso di recente sul server di prestampa arXiv ed è stato presentato all’Astrophysical Journal.

Siraj e Loeb affrontano un vero e proprio mistero astrofisico, ovvero se l’ejecta creato da una supernova può essere accelerato a velocità relativistiche e viaggiare attraverso lo spazio interstellare fino a raggiungere l’atmosfera terrestre.

L’esistenza di questo tipo di piccoli oggetti cosmici è stata proposta in passato anche da altri astronomi, tra cui Lyman Spitzer e Satio Hayakawa. E’ stata studiata a fondo la possibilità che questi oggetti cosmici possano sopravvivere a un viaggio interstellare. Come ha spiegato Siraj a Universe Today via e-mail:

Le prove empiriche indicano che in passato almeno una supernova ha scagliato pesanti elementi sulla Terra. È noto che le supernovae rilasciano quantità significative di polvere a velocità sub-relativistiche. Vediamo anche prove di aggregazione o “proiettili” nella eiezione da supernova. La frazione di massa è sconosciuta, ma se solo lo 0,01% della polvere eiettata fosse contenuta in oggetti di dimensioni millimetriche o più grandi, ci aspetteremmo che uno di essi appaia nell’atmosfera terrestre come meteora sub-relativistica ogni mese (in base alla tasso di supernovae nella galassia della Via Lattea)“.

La base teorica pare solida ma non sappiamo se effettivamente granelli di polvere cosmica entrino a velocità relativistiche nella nostra atmosfera, perché la ricerca odierna non è in grado di compiere osservazioni del genere.

Le meteore in genere viaggiano vicino allo 0,01% della velocità della luce“, ha affermato Siraj. “Pertanto, le ricerche attuali cercano segnali emessi da oggetti che si muovono a quella velocità. Le meteore emesse dalle supernova si muoverebbero cento volte più velocemente (circa l’1% della luce della velocità), e quindi i loro segnali sarebbero diversi dalle meteore tipiche, rendendole non rilevabili dai sistemi di rilevamento attualmente in uso“.

Per effettuare lo studio, Siraj e Loeb hanno sviluppato un modello idrodinamico e radiativo per tracciare l’evoluzione dei cilindri al plasma caldi che risultano da meteore sub-relativistiche che attraversano l’atmosfera. Da questo, sono stati in grado di calcolare quale tipo di segnali verrebbero prodotti, fornendo così un’indicazione di ciò che gli astronomi dovrebbero registrare. Come ha spiegato Siraj:

Abbiamo scoperto che una meteora sub-relativistica darebbe origine a un’onda d’urto che potrebbe essere captata da un microfono e anche a un lampo luminoso di radiazione in lunghezze d’onda ottiche, che durerà per circa un decimo di millisecondo. Per meteore di 1 mm, un piccolo rivelatore ottico (1 centimetro quadrato) potrebbe facilmente rilevare il lampo di luce verso l’orizzonte“.

Con questo in mente, Siraj e Loeb hanno delineato il tipo di infrastruttura che consentirebbe agli astronomi di confermare l’esistenza di questi oggetti e di studiarli. Ad esempio, nuovi sondaggi potrebbero incorporare microfoni e strumenti a infrarossi-ottici in grado di rilevare la firma acustica e i flash ottici creati da questi oggetti che entrano nella nostra atmosfera e le conseguenti esplosioni.

Sulla base dei loro calcoli, basterebbero una rete globale di circa 600 rilevatori a cielo aperto che sarebbero in grado di captare alcune di queste meteore relativistiche all’anno. Un’altra possibilità è quella di studiare i dati esistenti cercando possibili tracce di meteore sub-relativistiche e relativistiche. A questo scopo si potrebbero utilizzare le infrastrutture già esistenti.

Un buon esempio di quanto si potrebbe studiare, ha spiegato Siraj, si trova nella rete e nel database del Center for Near-Earth Object Studies (CNEOS) della NASA: “Inoltre, notiamo che la rete mondiale di sensori classificati dal governo degli Stati Uniti (inclusi microfoni e rilevatori ottici ) che fornisce il database CNEOS Fireball e Bolidi probabilmente comprende una valida infrastruttura esistente. Esortiamo il governo degli Stati Uniti a declassificare ampie strisce dei dati CNEOS in modo che gli scienziati possano cercare meteore sub-relativistiche senza spendere più soldi dei contribuenti per sviluppare una nuova rete globale con una già in funzione“.

In questo modo si potrebbero attivare le capacità necessarie a studiare una serie completamente nuova di oggetti che interagiscono regolarmente con l’atmosfera terrestre. Questo ci darebbe una nuova prospettiva allo studio delle supernovae permettendo agli astronomi di porre importanti vincoli sulle emissioni che producono. Si potrebbe a questo scopo investire in una rete globale a basso costo di telecamere a cielo aperto, ne varrebbe certamente la pena.

Fonte: Phys.org 

Nuovo coronavirus, primi casi di contagio avvenuti in Italia, aggiornamento 21 febbraio 2020

0
Migliori casinò non AAMS in Italia

A Milano i primi tre casi di contagio uomo-uomo avvenuti in Italia. Il paziente zero sarebbe un uomo tornato dalla Cina verso fine gennaio, rimasto asintomatico e negativo al test, che avrebbe contagiato un uomo di 38 anni con cui ha cenato ad inizio febbraio. Quest’ultimo, che vive a Castiglione d’Adda nei pressi di Lodi, si è presentato in pronto soccorso con febbre molto alta il 16 febbraio, dimesso con una terapia, vi è tornato il 19 manifestando sintomi di grave difficoltà respiratorie. Questa volta è stato eseguito il test che è risultato positivo. L’uomo è ora ricoverato in gravi condizioni in terapia intensiva.
Ricoverata anche la moglie dell’uomo, un’insegnate che lavora in un liceo di Codogno, e uno stretto conoscente, risultati positivi al virus.
Si sta tentando di individuare tutte le persone con cui il trentottenne è stato in contatto negli ultimi venti giorni mentre le autorità hanno invitato gli abitanti di Castiglione d’Adda e Codogno a restare in casa.
Sono state avviate le procedure di quarantena per i familiari dell’uomo e tutti i medici e gli infermieri che sono entrati a contatto con lui. L’uomo lavora alla Unilever di Casalpusterlengo, dove oggi i sanitari sono già arrivati per fare i tamponi a tutti i suoi colleghi.
Sono già un centinaio le persone sotto controllo ma si cerca di ricostruire i movimenti dell’uomo dagli ultimi giorni di gennaio a oggi in quanto potrebbe avere incontrato moltissime persone.
Se fosse confermato che il vettore del virus è stato l’amico con cui ha cenato, rimasto asintomatico e negativo al test, si confermerebbero i timori più volte espressi dal virologo professor Burioni che, da giorni, ha più volte esortato le autorità a non abbassare la guardia e ad isolare chiunque sia tornato dalla Cina di recente in quanto il virus sarebbe trasmissibile pure in assenza di sintomi e con un periodo di incubazione vicino alle tre settimane.
Da tempo è diffusa l’idea che il virus abbia due settimane di incubazione e sia trasmissibile solo da persone che manifestano sintomi.
Nella giornata di ieri si è registrato un calo notevole dei contagi confermati in Cina, poco più di 300, ma probabilmente ciò è dipeso dall’ennesima decisione delle autorità cinesi di cambiare nuovamente la definizione di “casi confermati” che ora considera affetti solo i casi sintomatici.
Come numeri assoluti, per quello che valgono vista la confusione che arriva dalla Cina, a ieri sera i casi confermati in tutto il mondo sono 76.627, con 2.247 deceduti e 18.562 pazienti dichiarati guariti.
Intanto giunge dalla Cina alcune voci, per ora non confermate dalle autorità sanitarie, sostengono che, un medico, rimasto anonimo, che opera in uno degli ospedali di Wuhan, avrebbe affermato che si sono verificati casi di reinfezione che si sono dimostrati molto più gravi dei casi di prima infezione.
Da Hong Kong giunge la notizia che il virus si sarebbe infiltrato anche nelle strutture carcerarie cinesi con oltre 500 casi di infezione confermati.
Intanto, il numero di casi in Corea del Sud è aumentato vertiginosamente, dai 28 di una settimana fa sono saliti ad almeno 204 a partire da venerdì pomeriggio. Lo scoppio è incentrato sulla città meridionale di Daegu. Tra i nuovi casi, la maggior parte sono collegati al gruppo Shincheonji. Giovedì le autorità sudcoreane hanno cercato di interrogare più di 1.000 membri del gruppo religioso che hanno partecipato a un servizio con uno dei casi recentemente confermati.

Una persona in Corea del Sud è morta a causa del virus.

Diversi passeggeri della nave da crociera Diamond Princess, evacuati dagli Stati Uniti e dall’Australia, sono risultati positivi al coronavirus, affermano le autorità sanitarie locali.

Negli Stati Uniti, 11 evacuati Diamond Princess su 13 portati al centro medico dell’Università del Nebraska per accertamenti sono stati confermati infetti.

Due sfollati australiani che sono stati infettati vengono ospitati in una speciale unità di isolamento presso la struttura di quarantena di Howard Springs.

Oggi sono stati confermati altri 13 casi a bordo della nave colpita. In totale, sono 639 i casi di virus che sono stati collegati alla nave, inclusi due decessi.

L’ultima osservazione di LIGO impone un radicale ripensamento delle ipotesi sulle coppie di stelle di neutroni

0
Migliori casinò non AAMS in Italia

L’estate scorsa, il rilevatore di onde gravitazionali LIGO ha visto per la seconda volta in assoluto la fusione di due stelle di neutroni. La collisione di questi oggetti incredibilmente densi – giganteschi nuclei residui da antiche esplosioni di supernova – ha generato increspature nello spazio-tempo abbastanza potenti da poter essere rilevati qui sulla Terra.
A differenza della prima fusione, conforme alle aspettative, quest’ultimo evento ha costretto gli astrofisici a ripensare alcune ipotesi di base su ciò che si nasconde là fuori nell’universo. “Abbiamo un dilemma“, ha detto Enrico Ramirez-Ruiz dell’Università della California.
La massa eccezionalmente elevata del sistema a due stelle è stata la prima indicazione che l’osservazione di questa collisione non ha avuto precedenti. La massa delle due stelle coinvolte da sola potrebbe lasciare intendere possibili sorprese future.
In un articolo recentemente pubblicato sul sito scientifico di prestampa arxiv.org, Ramirez-Ruiz e i suoi colleghi sostengono che GW190425, come è noto il sistema binario coinvolto, sfida tutto ciò che pensavamo di sapere sulle coppie di stelle di neutroni. Quest’ultima osservazione sembra fondamentalmente incompatibile con l’attuale comprensione degli scienziati su come si formano queste stelle e quanto spesso. Di conseguenza, i ricercatori potrebbero dover ripensare anni di conoscenze accettate.

Lontano ma ovunque

Prima del 2017, quando LIGO ha catturato la sua prima fusione di stelle di neutroni, tutto ciò che sapevamo delle stelle di neutroni proveniva dalle osservazioni di esemplari relativamente vicini nella nostra galassia della Via Lattea (Delle 2.500 o più conosciute stelle di neutroni, 18 coesistono in coppie orbitanti come stelle di neutroni binarie).
La prima cosa sorprendente è la massa: il nuovo sistema ha una massa totale di circa 3,4 volte il Sole. Tutti gli esempi precedentemente noti di stelle binarie di neutroni pesavano intorno a 2,6 il sole. La prima coppia di stelle binarie di neutroni osservate da LIGO aveva una massa che rientrava nelle misure attese.

Graph of neutron star pair masses.
Lucy Reading-Ikkanda / Quanta Magazine;

Ma l’alta massa combinata è solo il primo dei misteri della fusione di queste due stelle. Ancora più sconcertante è la presunta abbondanza di grandi stelle di neutroni: in base alla recente osservazione, gli scienziati di LIGO stimano che questi accoppiamenti pesanti dovrebbero essere comuni quasi quanto i sistemi di stelle binarie più leggeri che gli astronomi hanno studiato per decenni. Le grandi coppie di stelle di neutroni dovrebbero essere in tutto l’universo, inclusa la nostra Via Lattea.
Perché, quindi, non sono mai stati individuati prima?
Una possibilità è che queste fusioni sono difficili da rilevare perché avvengono molto rapidamente.
Con un telescopio che può vedere solo la luce – vale a dire tutti i telescopi fino a quando è arrivato LIGO – bisognere guardare nel posto giusto al momento giusto. Un breve lampo da una coppia di stelle di neutroni potrebbe passare inosservato. “Se un tipo di binario si fonde molto rapidamente, statisticamente è molto improbabile che tu riesca a vederne uno proprio quando accade“, ha detto Salvatore Vitale, astrofisico del Massachusetts Institute of Technology che fa parte della collaborazione LIGO.
LIGO ha cambiato le carte in tavola. È un rilevatore di onde gravitazionali omnidirezionali che monitora l’intero cielo. Vitale e il resto del team credono di essersi imbattuti in qualcosa di praticamente invisibile prima dell’avvento dell’astronomia delle onde gravitazionali.
Il problema più significativo di questa sovrabbondanza nascosta di gigantesche stelle di neutroni, tuttavia, è che non si capisce perché dovrebbero essercene così tante.
In pratica, se ci sono tante coppie di stelle di neutroni massicce quante ce ne sono di più leggere, allora dovremmo aspettarci di trovare tante stelle pesanti (che le creano) quante stelle più leggere. Ma non è così: gli astronomi stimano che meno del 10% di tutte le stelle sia abbastanza grande da produrre stelle di neutroni così massicce. “Abbiamo prove confuse provenienti da metodi molto diversi“, ha detto Ramirez-Ruiz.
E le domande non finiscono qui. Le migliori simulazioni al computer esistenti dell’evoluzione stellare, semplicemente non possono tenere conto dell’abbondanza stimata di queste coppie di stelle insolitamente pesanti perché nessuno, fino ad ora, pensava potessero essercene così tante.
Gli scienziati usano spesso simulazioni al computer per modellare processi complicati per lunghi periodi di tempo. In questo caso, gli autori hanno modellato il ciclo di vita di oggetti stellari compatti per miliardi di anni. “Inserisci un gruppo di stelle e dici al codice come esplodono le stelle“, ha detto Vitale. Quindi “lo lasci calcolare cosa accadrebbe in qualche milione o miliardi di anni e vedi qual è il risultato“.
Per fornire una fedele simulazione dell’universo, il codice considera gli effetti della relatività, del magnetismo, delle radiazioni gravitazionali e molto altro. Fa anche ipotesi su dettagli che non sono completamente compresi, come la quantità di gas che ricade in una stella dopo l’esplosione di una supernova rispetto a quanto viene perso nello spazio. Queste ipotesi offrono ai ricercatori una vasta gamma di possibili input che possono essere inseriti nel codice rimanendo comunque entro i limiti della plausibilità fisica.
Tuttavia, indipendentemente dagli input inseriti nella simulazione, il risultato non si è in alcun modo avvicinato al numero di coppie di stelle di neutroni pesanti previste da LIGO. “Se questa è una stella binaria di neutroni, dovrà fornirci risposte a molte domande”, ha commentato Mohammad Safarzadeh, un astrofisico di Santa Cruz che ha guidato la ricerca. Come lui e i suoi colleghi hanno scritto nel loro articolo, un tasso di fusione così elevato richiede un “cambiamento radicale nella nostra comprensione dell’esplosione di supernova“.
I ricercatori avvertono, tuttavia, che le simulazioni sulle supernovae sono notoriamente complesse e difficili. I modelli che li guidano sono noti per essere “estremamente approssimativi“, secondo Safarzadeh, “e dire estremamente approssimativi è generoso“. Vitale concorda: “È un problema molto, molto difficile da simulare“. Tuttavia, una così forte disparità tra teoria e prove è preoccupante. “È un invito all’azione“, ha detto Ramirez-Ruiz, “che dovrebbe spingere gli scienziati a ripensare il modo in cui queste stelle si formano“.
Molti aspetti dell’evoluzione delle stelle binarie sono poco compresi, incluso il modo in cui le stelle scambiano massa e si avvicinano abbastanza da fondersi. “Conosciamo molto sulla formazione stellare e sull’evoluzione, ma molta della fisica legata alla produzione di binari compatti è ancora poco conosciuta“, ha dichiarato Ben Farr, fisico dell’Università dell’Università dell’Oregon e membro della collaborazione LIGO.

Le scoperte riportate nel documento, quindi, stanno spingendo gli astrofisici a riesaminare ciò che pensavano di sapere sulle stelle di neutroni.
Fonte: Quanta Magazine

Realizzato il primo genoma autoreplicante

0
Migliori casinò non AAMS in Italia

La biologia di sintesi o biologia sintetica è una disciplina che sintetizza la biologia e l’ingegneria per realizzare organismi artificiali combinando varie conoscenze per ingegnerizzare sistemi biologici a scopo di ricerca, per applicazioni mediche e biotecnologiche.
La biologia sintetica persegue la progettazione e la realizzazione di componenti e sistemi biologici non esistenti in natura e la riprogettazione di sistemi biologici esistenti. Il termine è stato introdotto dal genetista polacco Waclaw Szybaski nel 1974.
Questa disciplina sfrutta una caratteristica che contraddistingue i sistemi viventi e la vita stessa, cioè la capacità di replicarsi. Gli scienziati del Max Planck Institute of Biochemistry di Martinsried hanno ideato un sistema che è in grado di rigenerare parti del proprio codice genetico e blocchi di proteine.
Nel campo della biologia sintetica i ricercatori studiano processi chiamati “dal basso verso l’alto“, il che significa che la generazione di sistemi di simulazione della vita parte da blocchi di costruzione inanimati.
Una delle caratteristiche fondamentali di tutti gli organismi viventi è la capacità di conservarsi e riprodursi come entità distinte. Tuttavia, l’approccio artificiale “dal basso verso l’alto” per creare un sistema in grado di replicarsi, è una grande sfida sperimentale. Per la prima volta, gli scienziati sono riusciti a superare questo ostacolo ottenendo questo processo.
Hannes Mutschler, capo del gruppo di ricerca “Sistemi biomimetici” del Max Planck Institute for Biochemistry, e il suo team si sono impegnati a imitare la replicazione dei genomi e della sintesi proteica attraverso l’approccio “dal basso verso l’alto”. Entrambi i processi sono fondamentali per l’autoconservazione e la riproduzione dei sistemi biologici. I ricercatori sono stati in grado di produrre un sistema in vitro, in cui entrambi i processi potrebbero aver luogo simultaneamente. “Il nostro sistema è in grado di rigenerare una percentuale significativa dei suoi stessi componenti molecolari“, spiega Mutschler.
Il processo è stato avviato grazie a un “manuale delle istruzioni o DNA ”, di diverse “macchine molecolari o proteine” e di sostanze nutritive. Il DNA contiene informazioni per costruire le proteine che in alcuni casi agiscono come catalizzatori accelerando le reazioni biochimiche. A comporre il DNA sono i cosi detti nucleotidi e le proteine invece sono fatte da altre sostanze dette “aminoacidi”.
I ricercatori hanno ottimizzato un sistema in vitro che sintetizza le proteine sulla base di un modello di DNA. Grazie a numerosi miglioramenti, il sistema è ora capace di sintetizzare le proteine della DNA polimerasi, in modo molto efficiente. La DNA polimerasi replica quindi il DNA usando i nucleotidi.
Kai Libicher, primo autore dello studio, spiega: “A differenza degli studi precedenti, il nostro sistema è in grado di leggere e copiare sequenze di DNA relativamente lunghe.

I ricercatori hanno assemblato i genomi artificiali con un massimo di undici pezzi di DNA a forma di anello. Questa struttura modulare consente loro di inserire o rimuovere facilmente determinati segmenti di DNA. Il più grande genoma modulare riprodotto dai ricercatori nello studio è costituito da oltre 116.000 coppie di basi, raggiungendo la lunghezza del genoma di cellule molto semplici.

Il genoma non si limita a codificare le polimerasi importanti per la replicazione del DNA, esso contiene progetti per realizzare ulteriori proteine, come ad esempio 30 fattori di traduzione originati dal batterio Escherischia coli.

I fattori di traduzione sono importanti per la traduzione del progetto del DNA nelle rispettive proteine. Pertanto, sono essenziali per i sistemi autoreplicanti, che imitano i processi biochimici.

Per dimostrare che il nuovo sistema di espressione in vitro non solo è in grado di riprodurre il DNA ma è anche in grado di produrre i propri fattori di traduzione, i ricercatori hanno utilizzato la spettrometria di massa. Utilizzando questo metodo analitico, hanno determinato la quantità di proteine prodotte dal sistema.

La sorpresa è stata quella di trovare alcuni dei fattori di traduzione presenti anche in quantità maggiori dopo la reazione rispetto a quelli aggiunti in precedenza. Secondo i ricercatori, questo è un passo importante verso un sistema continuamente autoreplicante che imita i processi biologici.

In futuro, gli scienziati vogliono estendere il genoma artificiale con ulteriori segmenti di DNA.

In collaborazione con i colleghi della rete di ricerca MaxSynBio, vogliono produrre un sistema avvolgente in grado di rimanere praticabile aggiungendo sostanze nutritive e smaltendo i prodotti di scarto; una cellula praticamente.

Una cellula così minima potrebbe essere utilizzata, ad esempio, in biotecnologia come macchina di produzione su misura per sostanze naturali o come piattaforma per la costruzione di sistemi realistici ancora più complessi.

Fonte: Phys.org

Nuova tecnica per alleggerire la protezione dalle radiazioni per i veicoli spaziali: la ruggine

0
Migliori casinò non AAMS in Italia

Una delle maggiori sfide per il lavoro e la vita nello spazio è la minaccia rappresentata dalle radiazioni. Oltre ai raggi solari e ai raggi cosmici, che sono pericolosi per la salute degli astronauti, vi sono anche radiazioni ionizzanti che minacciano le apparecchiature elettroniche. Ciò richiede che tutti i veicoli spaziali, i satelliti e le stazioni spaziali che vengono inviati in orbita, siano schermati utilizzando materiali che spesso sono piuttosto pesanti e/o costosi.
Per trovare una valida alternativa agli alti costi e alla pesantezza dei materiali, un team di ingegneri ha messo a punto una nuova tecnica per la produzione di schermature contro le radiazioni. Sarebbe una soluzione più leggera e più economica rispetto ai metodi esistenti. L’ingrediente segreto, secondo la loro ricerca recentemente pubblicata, sono gli ossidi di metallo, cioè la comunissima ruggine. Questo nuovo metodo potrebbe avere numerose applicazioni e portare ad un calo significativo dei costi associati ai lanci spaziali e al volo spaziale.
Lo studio è stato condotto da Michael DeVanzo, un ingegnere senior presso Lockheed Martin Space, e Robert B.Hayes, professore associato di ingegneria nucleare presso la North Carolina State University.
In parole semplici, la radiazione ionizzante deposita energia sugli atomi e sulle molecole con cui interagisce, causando la perdita di elettroni e la produzione di ioni. Sulla Terra, questo tipo di radiazione non è un problema, grazie al campo magnetico protettivo della Terra stessa e all’atmosfera densa. Nello spazio, invece, le radiazioni ionizzanti sono molto comuni e provengono da tre fonti: raggi cosmici galattici (GCR), particelle emesse dai flares solari e cinture di radiazione terrestri (Van Allen).
Per proteggersi da questo tipo di radiazioni, le agenzie spaziali e i produttori aerospaziali commerciali in genere racchiudono le apparecchiature elettroniche più sensibili in scatole di metallo. Se da un lato i metalli come il piombo o l’uranio impoverito offrono la massima protezione, dall’altro questo tipo di schermatura aggiunge una notevole quantità di peso a un veicolo spaziale.
Ecco perché si preferisce usare scatole di alluminio, poiché si ritiene che forniscano il miglior compromesso tra il peso di uno scudo e la protezione che viene fornita.
Come ha spiegato il prof. Hayes, insieme a DeVanzo ha cercato di studiare materiali che potessero fornire una migliore protezione e ridurre ulteriormente il peso complessivo dei veicoli spaziali: “Il nostro approccio può essere utilizzato per mantenere lo stesso livello di radioprotezione e ridurre il peso del 30% o poco più, oppure è possibile mantenere lo stesso peso e migliorare la schermatura del 30% circa, rispetto alle tecniche di schermatura più utilizzate. In entrambi i casi, il nostro approccio riduce il volume di spazio occupato dalla schermatura“.
La tecnica che Hayes e DeVanzo hanno sviluppato, si basa sulla miscelazione di metallo ossidato in polvere (la ruggine) in un polimero e quindi sull’integrazione in un rivestimento che viene quindi applicato alle apparecchiature elettroniche. Rispetto alle polveri metalliche, gli ossidi metallici offrono meno schermatura ma sono anche meno tossici e non creano dei problemi elettromagnetici che potrebbero interferire con i circuiti elettronici di un veicolo spaziale.
Come ha spiegato DeVanzo: “I calcoli del trasporto di radiazioni mostrano che l’inclusione della polvere di ossido di metallo fornisce una schermatura paragonabile a una schermatura convenzionale. A basse energie, la polvere di ossido di metallo riduce la radiazione gamma verso l’elettronica di un fattore 300 e il danno da radiazione di neutroni del 225%“.
Allo stesso tempo, il rivestimento è meno voluminoso di una scatola di schermatura“, ha aggiunto Hayes. “E nelle simulazioni computazionali, le peggiori prestazioni del rivestimento di ossido assorbivano ancora il 30% in più di radiazioni rispetto a uno schermo convenzionale dello stesso peso. Inoltre, il particolato di ossido è molto meno costoso della stessa quantità di metallo puro“.
Oltre a ridurre il peso e il costo dell’elettronica spaziale, questo nuovo metodo potrebbe potenzialmente ridurre la necessità di schermature convenzionali nelle missioni spaziali.
Guardando al futuro, DeVanzo e Hayes continueranno a mettere a punto e testare la loro tecnica di schermatura per varie applicazioni e sono alla ricerca di partner del settore che li aiutino a sviluppare la tecnologia per uso industriale.
FONTE: Universe Today

Cosmologia sempre più in crisi: perché?

0
Migliori casinò non AAMS in Italia

Con che velocità si sta espandendo l’universo?

Da quando, nel 1929, Edwin Hubble scoprì che le galassie si stanno allontanando nel tempo, consentendo agli scienziati di risalire all’evoluzione dell’universo fino al Big Bang iniziale, gli astronomi hanno cercato misurare l’esatta velocità di questa espansione. In particolare, astronomi, astrofisici e cosmologi vorrebbero determinare un numero chiamato parametro di Hubble, che indica la velocità con cui il cosmo si sta espandendo. La costante di Hubble ci dice anche l’età dell’Universo, quindi misurarlo è stato un obiettivo importante per molti astronomi nella seconda metà del XX secolo.
Questo valore viene derivato dalla legge di Hubble-Lemaître che afferma che esiste una relazione lineare tra lo spostamento verso il rosso della luce emessa dalle galassie e la loro distanza. Tanto maggiore è la distanza della galassia e tanto maggiore sarà il suo spostamento verso il rosso. In forma matematica la legge di Hubble può essere espressa come

{z={\frac {H_{0}D}{c}}}

dove z è lo spostamento verso il rosso misurato della galassia, D è la sua distanza, c è la velocità della luce e H0 è la costante di Hubble, il cui valore attualmente stimato è attorno a 2,176 aHz (67,15 km/s/Mpc).
Il problema, tuttavia, è che misurare la costante di Hubble è, forse non sorprendentemente, abbastanza difficile. Si pensa che sia possibile determinare questo parametro con diversi metodi ma gli osservatori impegnati in questa misura stanno ottenendo numeri diversi a seconda del metodo che usano.
C’è da fare un’ulteriore precisazione: in quasi tutti i modelli cosmologici (ed in particolare in tutti quelli basati sull’ipotesi del Big Bang, cioè praticamente tutti quelli attualmente ritenuti possibili) la costante di Hubble è costante solo nel senso che se in questo momento (cioè nello stesso istante di tempo cosmologico) noi ripetessimo la sua misura in qualunque altro punto dell’universo, otterremmo il medesimo valore. Questo valore però cambia nel tempo. Per limitare la confusione, solitamente si usa il termine parametro di Hubble al tempo t (indicato con H(t)), mentre con costante di Hubble H0 si intende il valore attuale.
L’evoluzione di H è dovuta agli effetti della gravità (la forza gravitazionale della materia presente nell’universo tende a rallentare l’espansione) e della cosiddetta energia oscura (dark energy), che invece tende ad accelerarla; la cosiddetta costante cosmologica sarebbe una forma particolare di energia oscura. Misure condotte in anni recenti (a partire dal 1999) sembrano indicare che l’espansione dell’universo stia in questo momento accelerando.
Sembra che il numero ottenuto in base all’apparizione dell’universo poco dopo il Big Bang sia significativamente più piccolo del numero ottenuto quando si osservano misure che coinvolgono gli oggetti più vicini.
Il primo parametro di Hubble dell’universo, derivato dalle osservazioni del satellite Planck dell’Agenzia spaziale europea, ci dice che l’universo ha circa 13,8 miliardi di anni. Nel frattempo però, le misurazioni effettuate sul cosmo locale darebbero un risultato che assegnerebbe all’universo un’età di quasi un miliardo di anni in meno. Se quell’età più piccola fosse corretta, bisognerebbe rivedere l’intera linea temporale della storia cosmica e falsare la nostra comprensione di quando e come sono accaduti i vari eventi principali nell’evoluzione dell’universo.
Il sostanza dovremmo rivedere completamente il modello cosmologico standard.
Una volta nota l’età dell’universo e accettando l’assunzione che la velocità della luce sia costante, parrebbe che non sia possibile osservare oggetti più lontani dello spazio percorso dalla luce durante l’intera vita dell’universo. La nozione che questa distanza sia banalmente pari a circa 13,82 miliardi di anni luce (4,3 gigaparsec) è erronea, poiché non tiene conto dell’espansione dell’universo che è intervenuta progressivamente, tra l’altro in costante accelerazione, fino a raggiungere la situazione in cui lo spazio si dilata più velocemente della luce.
La distanza di Hubble, ricavata dalla costante di Hubble, posta a 16 miliardi di anni luce dall’osservazione, delimita la distanza oltre la quale leggi fisiche, spazio e tempo perdono significato e contatto causale, cioè non esisterà mai la possibilità di osservare o scambiare alcun segnale, interazione o informazione, che in pratica esce dalla realtà dell’osservatore.
Per tornare al parametro di Hubble, la discrepanza tra i valori di volta in volta calcolati non è così grande da mettere seriamente in dubbio la teoria del Big Bang o il modello cosmologico standard, ma è abbastanza grande che alcuni cosmologi – scienziati che studiano la storia e la composizione dell’universo nel suo insieme – stanno suggerendo che quantomeno è in corso una crisi.
Adam Riess, il cosmologo del Johns Hopkins che ha condiviso il Premio Nobel per la fisica nel 2011, sostiene che non possiamo ignorare la discrepanza, perché continua a comparire, ancora e ancora, in troppe osservazioni indipendenti sul cosmo locale per essere casuale. “Se l’universo fallisce questo cruciale test end-to-end, cosa dovrebbe dirci questo?Ha scritto Riess su Nature. “È allettante pensare che potremmo vedere prove di una nuova fisica del cosmo”.
Potrebbe essere così, ma “Direi che è almeno altrettanto probabile che non comprendiamo ancora quali siano tutte le sottigliezze di queste misurazioni“, ha affermato il cosmologo Arthur Kosowsky dell’Università di Pittsburgh, “ed è possibile che tutte le misurazioni alla fine convergeranno su un unico valore [per il parametro Hubble]“.
In effetti, la discrepanza potrebbe ridursi a poco più che ai pregiudizi nascosti nelle misurazioni. Per usare un’analogia, se hai un fucile ad aria compressa che tira leggermente a destra mentre spari a un bersaglio, tutti i tuoi colpi possono essere raggruppati attorno a un singolo punto, ma quel punto sarà a destra del centro del bersaglio. Il fucile introduce un errore sistematico nel tuo obiettivo normalmente corretto.
Ma l’analogia è imperfetta perché in cosmologia non sappiamo dove sia il “centro del bersaglio”: il valore preciso del parametro di Hubble non può essere calcolato indipendentemente dalle misurazioni.
A complicare ulteriormente le cose, nessuna delle osservazioni misura direttamente il parametro di Hubble. Al contrario, le misurazioni collegano diversi fenomeni osservabili al tasso di espansione cosmica. Il trucco consiste nell’utilizzare più misurazioni indipendenti come confronto reciproco, sperando che eventuali effetti sistematici possano essere individuati nel processo.
Ad esempio, le osservazioni sull’universo primordiale del satellite Planck – quelle che ci dicono che l’universo si sta espandendo più lentamente – si basano su qualcosa chiamato sfondo cosmico a microonde (CMB), sostanzialmente una specie di eco della prima luce comparsa nell’universo circa 400.000 anni dopo il Big Bang. Tuttavia, non stiamo vedendo questa luce com’era allora; la vediamo dopo che è passata attraverso gruppi di galassie ed è entrata nella Via Lattea, con l’aggiunta di luce proveniente da altre fonti. Per ottenere qualcosa di utile dai dati CMB, gli astronomi devono sottrarre tutto ciò che non è primordiale; sono molto bravi in ​​questo ma potrebbe esserci ancora spazio per una distorsione sistematica nel modo in cui viene fatta la sottrazione.
Le misurazioni basate su oggetti più vicini, quelle che producono un’età leggermente più giovane per l’universo, vengono effettuate utilizzando la luce di supernove di tipo Ia, che sono le esplosioni di oggetti super densi chiamati nane bianche; le pulsazioni di stelle molto grandi; e la distorsione gravitazionale della luce mentre passa dalle galassie. Ogni tipo di misurazione ha il proprio set di errori sistematici che devono essere corretti. Vale anche la pena notare che anche se i loro valori dei parametri di Hubble sono vicini l’uno all’altro, comunque non sono d’accordo. In altre parole, tutte queste osservazioni sono abbastanza complesse che i loro risultati non sono completamente risolti.
Sono in corso nuovi tipi di osservazione, che potrebbero aiutare a identificare dove esistono distorsioni nelle misurazioni dei parametri di Hubble. Rimuovere questi pregiudizi potrebbe portare i numeri calcolati per il parametro di Hubble ad essere in accordo.
E se i numeri fossero giusti?
Ciò potrebbe essere indicativo di alcuni fenomeni precedentemente sconosciuti nell’universo primordiale, dall’epoca precedente alla formazione dei primi atomi. Forse l’energia oscura, che pensiamo stia attualmente guidando l’accelerazione dell’espansione cosmica, ha giocato un ruolo molto prima di quanto la maggior parte dei cosmologi pensi. Forse ci sono particelle extra che erano importanti quando l’universo era più piccolo e più denso, ma la cui influenza si è diluita nel corso dei miliardi di anni.
Nessuna di queste possibilità è perfetta, ma qualunque sia la risposta giusta, è un grosso problema.
Non ho una sfera di cristallo ma penso che queste misurazioni siano davvero difficili“, dice Kosowsky. Tuttavia, la sua cautela non significa che non sarebbe felice di sbagliarsi. “Sto facendo il tifo perché emerga che questa incertezza in realtà ci sta mostrando qualcosa di eccitante sulla cosmologia“.

Come si installa l’antifurto in casa?

0
Come si installa l’antifurto in casa?
Come si installa l’antifurto in casa?
Migliori casinò non AAMS in Italia

Per installare da soli un antifurto in casa è necessario prima di tutto conoscere lo schema di base del circuito. A dir la verità esso è tutt’altro che complicato, e può essere paragonato allo schema per l’accensione da più punti di una o più lampade attraverso un relè che viene gestito da pulsanti. Nel caso di un impianto di allarme, ad essere azionata è una sirena; al posto dei pulsanti, invece, ci sono i contatti che vengono collocati in corrispondenza delle finestre e delle porte.

Antifurto: come viene collegato il circuito

Il collegamento tra il circuito e la linea di alimentazione elettrica è reso possibile da una scatola di derivazione. Il conduttore di fase è indirizzato a un interruttore, mentre il conduttore di terra e il conduttore di neutro sono inviati verso la suoneria. Attraverso un ponticello, poi, è necessario collegare il ritorno dell’interruttore ai due morsetti di ingresso di un relè a 220 volt. Di questi, uno rappresenta il contatto dell’interruttore interno al relè, il quale può essere chiuso o aperto, mentre l’altro è indispensabile per alimentare la bobina. Il collegamento dei contatti applicati sulle finestre è in parallelo, il che vuol dire che per far partire l’allarme è sufficiente aprire una finestra. Una uscita del relè è collegata alla suoneria, mentre l’altra è collegata ai contatti esterni.

Come funziona il circuito

Nel momento in cui viene data tensione al circuito attraverso l’interruttore generale a chiave, la suoneria resta muta se tutte le finestre e tutte le porte sono chiuse, dato che il relè non viene eccitato. Quando anche solo una delle aperture in questione viene spostata, la suoneria entra in azione perché il relè è stato eccitato. La suoneria continua a suonare anche nel caso in cui la porta o la finestra vengano richiuse subito. In pratica, la sirena non suona più solo se l’interruttore a chiave interrompe il circuito.

Il dispositivo di ritardo

Una manopolina apposita permette di regolare il dispositivo di ritardo di cui è munito il circuito. Ciò permette di dare a chi esce il tempo necessario per attivarlo, così che la porta possa essere chiusa prima che l’allarme entri in funzione; al tempo stesso chi entra ha la possibilità di aprire la porta e riuscire a disattivare l’allarme tramite l’interruttore a chiave senza che esso suoni subito. Per l’installazione, c’è bisogno solo di una scatola di derivazione murata.

L’interruttore a chiave

Per installare l’antifurto è necessario realizzare la canalizzazione dell’impianto, che può essere esterna o sottotraccia, e a quel punto è possibile mettere nell’incavo della placca l’interruttore a chiave. Il conduttore di fase derivato dalla linea viene collegato a un morsetto dell’interruttore; ovviamente è fondamentale prestare attenzione ai colori dei cavi. I contatti sono composti da due parti, di cui una deve essere collocata vicino alla battuta di chiusura della finestra o della porta, mentre l’altra va posizionata sull’anta. Tra le due parti devono esserci pochi millimetri di distanza nel momento in cui l’anta è chiusa.

Cosa occorre sapere sui kit di allarme

Per ottenere ulteriori informazioni sui kit allarme casa si può fare riferimento alle spiegazioni disponibili sul sito Antifurtocasa.biz, che permettono di conoscere tutti i pregi e le caratteristiche degli impianti di sicurezza. Qui, tra l’altro, si può scoprire quali sono i componenti fondamentali di un kit, e cioè la centralina, la sirena di allarme, i sensori volumetrici da interno, il telecomando e i rilevatori a contatto magnetico.

Ovviamente a seconda delle necessità è possibile integrare componenti ulteriori, dai combinatori telefonici ai sensori perimetrali esterni, passando per le telecamere di videosorveglianza. Per esempio, Sector Alarm che oltre l’installazione del sistema di allarme casa offre il servizio di monitoraggio 24/7 dalla Centrale di ricezione allarmi. In caso di dubbi, è comunque indispensabile rivolgersi a un professionista del settore.

Epidemia da nuovo coronavirus, forse raggiunto il picco ma sui social ed i media impazza il dibattito sulle origini

0
Migliori casinò non AAMS in Italia

Sembra che secondo un rapporto di alcuni medici cinesi abbiano affermato che COVID-19, la malattia indotta dal nuovo coronavirus, potrebbe essere ancora più mortale per i pazienti che la prendono di nuovo.
Secondo quanto riportato dal Taiwan Newsi medici che lavorano negli ospedali di Wuhan, epicentro dell’epidemia, hanno rivelato che alcuni pazienti sottoposti a cure mediche sono stati nuovamente infettati.
È altamente possibile essere infettati una seconda volta“, avrebbe detto uno dei medici, che ha rifiutato di essere identificato.
Il medico ha affermato che i farmaci usati per trattare il virus possono avere effetti collaterali negativi sul tessuto cardiaco dei pazienti, rendendoli più suscettibili all’arresto cardiaco.
Alcune persone si sono riprese dalla prima infezione grazie al proprio sistema immunitario, ma i farmaci in uso danneggiano il tessuto cardiaco e, in caso di reinfezione, gli anticorpi non aiutano ma peggiorano la situazione, portando facilmente a morte il paziente per insufficienza cardiaca ”, avrebbe detto il medico.
Il medico nell’intervista ha aggiunto che il virus ha “superato in astuzia tutti noi” dal momento che, sembrerebbe, che possa nascondere i sintomi della malattia fino a 24 giorni, cosa che va in contrasto con l’attuale convinzione che il periodo di incubazione possa durare al massimo due settimane.
Inoltre, sembra che spesso i pazienti infetti restituiscono falsi negativi ai test prima che alla fine venga diagnosticata la malattia.
Il nuovo coronavirus “Può ingannare il kit di test, ci sono stati casi in cui la TAC mostrava che entrambi i polmoni erano completamente infetti ma il test ha restituito risultati negativi per quattro volte“.
Ovviamente, si tratta di un’informazione priva dei crismi dell’ufficialità. I dati odierni parlano di un totale di 75.751 pazienti infetti confermati in tutto il mondo e di 2130 decessi. Il calo delle nuove infezioni giornaliere in Cina è sempre più marcato e molti osservatori ipotizzano che l’epidemia abbia ormai superato il picco.
Intanto, rilanciate dagli organi di stampa, continuano a rincorrersi voci contraddittorie sull’origine del virus.
Il coronavirus è emerso nella città cinese di Wuhan alla fine dello scorso anno, ma è nato come si è creduto all’inizio in un mercato in cui venivano venduti animali vivi insieme ai frutti di mare oppure c’è un’altra spiegazione che potrebbe essere collegata al principale istituto cinese che si occupa di virologia, patologia virale e malattie infettive emergenti?
I dibattiti sulla questione si sono scatenati online, e gli scienziati di tutto il mondo, come riportato da Science News la scorsa settimana, “si stanno scambiano dati e informazione, inclusi dettagli genetici sul virus“.
Le teorie della cospirazione nate dallo scoppio del coronavirus di Wuhan, ora chiamato SARS-CoV-2, ovviamente parlano di un’arma biologica cinese, deliberatamente o accidentalmente scaricata.
Il problema vero è la scarsa trasparenza mostrata anche in questa occasione da Pechino. Alcuni critici, pur non promuovendo necessariamente l’idea di un’arma biologica, mettono in discussione l’affermazione che la fonte sia partita dal mercato all’ingrosso del pesce di Wuhan.
Sui social si stanno sollevando domande su un possibile collegamento con il Wuhan Institute of Virology (WIV), situato a meno di nove miglia di distanza dal mercato.

Il Centro cinese per il controllo e la prevenzione delle malattie (CCDC) afferma che i primi casi sono stati registrati il 21 dicembre. I ricercatori del CCDC hanno riferito che tra i tre pazienti adulti ricoverati in ospedale il 27 dicembre uno lavorava al mercato del pesce e uno lo frequentava spesso. (Le autorità cinesi hanno informato l’OMS il 31 dicembre e hanno chiuso il mercato il 1 ° gennaio)
Tuttavia, secondo un articolo firmato da 12 ricercatori cinesi, tra cui il vicedirettore dell’ospedale Jinyintan di Wuhan – pubblicato su The Lancet, una delle più importanti pubblicazioni di medicina del mondo “la data di inizio dei sintomi del primo paziente identificato si può far risalire al 1° dicembre 2019“, ovvero tre settimane prima di quanto afferma il CCDC.
Sulla base dei dati dei primi 41 pazienti confermati per COVID-19 trattati presso l’ospedale Jinyintan, i ricercatori hanno affermato che “non è stato trovato alcun legame epidemiologico tra il primo paziente e i casi successivi“.
(Screengrab: The Lancet)
(Screengrab: The Lancet)

In altre parole, il “paziente zero” non aveva precedenti di esposizione al mercato ittico.
Due terzi di questi 41 pazienti avevano un’esposizione al mercato, suggerendo che il mercato possa avere effettivamente funzionato come acceleratore dell’esplosione dell’epidemia ma potrebbe non esserne la fonte.
Il virus è entrato nel mercato alimentare, prima di uscirne“, ha detto il senatore Tom Cotton (R-Ark.) Domenica a Fox News, indicando il rapporto su The Lancet .
Quindi non sappiamo da dove sia nato. Ma sappiamo che dobbiamo andare fino in fondo“, ha detto Cotton. “Sappiamo anche che a pochi chilometri da quel mercato alimentare c’è l’unico super laboratorio cinese di livello 4 di biosicurezza che fa ricerca malattie infettive umane“.
Ora, non abbiamo prove che questa malattia abbia avuto origine lì, ma a causa della duplicità e della disonestà della Cina, dobbiamo almeno porci la domanda per vedere cosa dicono le prove“, ha continuato. “E la Cina in questo momento non sta fornendo alcuna risposta credibile su questa domanda“.

Feci di pipistrello

Un secondo motivo di scetticismo in alcuni ambienti riguarda la ricerca dell’origine del nuovo coronavirus nei pipistrelli.
Nextstrain.org, un’iniziativa scientifica collaborativa open source che monitora il coronavirus, ha affermato nel suo aggiornamento più recente che mentre l’origine rimane poco chiara, “l’analisi genomica suggerisce che [SARS-CoV-2] è più strettamente correlato ai virus precedentemente identificati nei pipistrelli“.
Science News riferisce che la mappatura genetica in corso “suggerisce che il nuovo coronavirus è strettamente correlato a un coronavirus del pipistrello identificato in Cina nel 2013“.

WIV è un laboratorio specializzato cinese in cui si studiano i coronaviru. Nel 2013 ha raccolto e mappato un coronavirus di pipistrello chiamato RaTG13 da feci di pipistrello prelevate da una grotta nella provincia cinese dello Yunnan.

Alcuni ricercatori della WIV hanno riferito nelle stesse settimane che SARS-CoV-2 condivide la sequenza del genoma per il 96 percento con RaTG13 dello Yunnan.
Tre anni fa Richard Ebright, professore di chimica e biologia chimica alla Rutgers University, è stato citato nella rivista Nature per avere espresso preoccupazioni per la sicurezza dei virus ad alto rischio presso la WIV.
All’inizio di questo mese, Ebright ha dichiarato alla BBC che il coronavirus RaTG13 è stato immagazzinato presso la WIV dal 2013 e che la possibilità che il nuovo focolaio fosse stato causato da un “incidente di laboratorio” non poteva essere esclusa.
Martedì, in una discussione su Twitter, Ebright ha esposto le possibili origini di SARS-CoV-2, che secondo lui avrebbe potuto verificarsi sia come “incidente naturale o come incidente di laboratorio“.
In uno scenario potenziale, un lavoratore che raccoglieva campioni di pipistrelli o maneggiava campioni di pipistrelli o virus di pipistrello in un laboratorio avrebbe potuto essere infettato dal “progenitore immediato del virus dell’epidemia”, ha affermato. “Dopo un breve adattamento all’essere umano nel paziente 0 e possibilmente in altri, si verifica un’epidemia.”
Il quotidiano Global Times, affiliato al Partito Comunista cinese, ha riferito questa settimana che il ministero cinese della scienza ha emesso nuove regole che impongono ai laboratori nazionali di rafforzare le loro misure di sicurezza biologica.
Ha citato un esperto di agenti patogeni all’Università di Wuhan, Yang Zhanqiu, affermando che il rilascio delle linee guida si riferisce a “fughe croniche nei laboratori“.
Yang ha respinto le teorie secondo cui SARS-CoV-2 sia stato “fatto trapelare” dal WIV, ma ha sollevato preoccupazioni sulle procedure di laboratorio in Cina in generale.
I rifiuti di laboratorio possono contenere virus, batteri o microbi creati dall’uomo con un impatto potenzialmente mortale su esseri umani, animali o piante. Alcuni ricercatori scaricano materiali di laboratorio nelle fognature dopo esperimenti senza uno specifico meccanismo di smaltimento biologico”, ha spiegato Yang al Global Times.

La catena di Sant’Antonio

0
Migliori casinò non AAMS in Italia

unnamed
Già durante la prima guerra mondiale, infatti, circolavano cartoline stampate con una “Preghiera per la Pace”, da ricopiare e rispedire, che all’epoca furono interpretate come propaganda nemica.
Fu solo nel 1934, però, che una vera ondata di  fogli dattiloscritti con la promessa di fortissimi guadagni in breve tempo a patto di ricopiare e inviare il messaggio ad un certo numero di persone, invase l’Italia. Mussolini diede un ordine perentorio a tutte le questure e un apposito manifesto diffidò chiunque dal continuarne la diffusione, dichiarando la catena una truffa e minacciando di prendere  provvedimenti di legge contro i trasgressori.
Una simile catena della felicità che prometteva ricchezza e agiatezza a chiunque, risultava, infatti, assolutamente contraria alla politica del regime che in quell’epoca si batteva per un “necessario e vitale posto al sole”. Qualcuno, più pratico, tentò di far includere la catena nella lista dei giochi permessi dallo Stato per far pagare anche su questo un’apposita tassa ma Mussolini non tornò sulla sua decisione.
Venne la guerra coi suoi disastri e ovviamente la gente ebbe altre cose a cui pensare. La catena sembrò una cosa del passato ma non per molto: nel 1951, ribattezzata “Catena di Sant’Antonio” dato che solitamente le lettere iniziavano con la frase Recita tre avemarie a Sant’Antonio fece ritorno dal confino politico e migliaia di fogli dattiloscritti tornarono a portare nuove liste di nomi e nuove speranze di utopistici guadagni. Non c’erano banche popolari, roulette o lotterie che potessero gareggiare con la mirabolante catena che garantiva a tutti i partecipanti un premio pari a 1024 volte la posta nel tempo limite di un mese.
Inviate al primo nome della lista un vaglia o un biglietto di banca da cinquecento lire”, era spiegato nelle brevi istruzioni, “quindi scalate di un posto i nove nomi rimasti e mettete il vostro al decimo: poi fate due copie del nuovo foglio e datele a due amici disposti a fare altrettanto. Seguendo scrupolosamente queste istruzioni, entro un mese circa, attraverso i successivi passaggi da amici ad amici, quando il vostro nome avrà raggiunto il primo posto della lista, riceverete 1024 vaglia da lire cinquecento, pari ad un ammontare di 512.000 lire…”
Purtroppo, come tutti sanno, questo meccanismo era perfetto solo in teoria: anche ammettendo che l’intera popolazione italiana (all’epoca 40 milioni di persone) avesse partecipato inviando le fatidiche cinquecento lire, e si fosse raggiunto un montepremi totale di 20 miliardi, i fortunati che avrebbero ricevuto le 512.000 sarebbero stati soltanto 40.000: e gli altri 39.960.000 sarebbero rimasti a bocca asciutta…
Qualcuno giurava che dietro a tutto quel movimento di lettere ci fosse un undicesimo nome della lista, un misterioso personaggio ideatore del gioco per trarne da solo il maggior vantaggio: costui avrebbe inizialmente spedito diecimila lettere con il proprio nominativo al primo posto, e ricevuto il denaro sarebbe scomparso definitivamente e prudentemente dalla scena.
Col tempo la catena si modernizzò: la fotocopiatrice evitò le lunghe e noiose trascrizioni e, con l’avvento di Internet, la diffusione di questo genere di messaggio non ebbe più limiti.
Perchè queste cose continuano ad esistere?
In molti casi il messaggio iniziale è diffuso da pagine Facebook o da siti che guadagnano sui click ed hanno quindi interesse a spargere notizie mirabolanti per aumentare i loro visitatori.
Altre volte si tratta di persone in buona fede che, ricevuto un appello magari scaduto da anni (tipo una urgente donazione di sangue per un bambino malato) lo condividono senza prendersi la briga di verificare, creando ulteriori danni; non è raro che messaggi ed auguri di persone ignare continuino ad arrivare per anni, ad esempio, ai genitori di un bambino morto per una grave malattia, rinnovando così il loro dolore.
Quindi, quando si riceve una di queste mail o si legge un drammatico appello su Facebook, la prima cosa da fare è informarsi e, dopo aver appurato che si tratta di una bufala, come nella maggior parte dei casi, cestinare senza rimpianti.

Hyperloop, il treno del futuro prossimo

0
Migliori casinò non AAMS in Italia

Hyperloop è un progetto di tecnologia futuristica adibito al trasporto ad altissima velocità di merci e passeggeri in una capsula che scorre all’interno di tubi a bassa pressione. Questa infrastruttura è stata ideata, tra il 2012 e il 2013, da Elon Musk, nonché proprietario di aziende quali Tesla, SpaceX e The Boring Company.

Cos’è Hyperloop?

L’Hyperloop è un’infrastruttura super veloce che viaggerà alla stessa velocità degli aerei. Come anticipato prima, nasce da un’idea visionaria di Musk, avviata con The Boring Corpany, che successivamente è stata supportata da altre industrie in competizione con l’obiettivo di velocizzare i tempi di realizzazione e vincere la gara della prima realizzazione di Hyperloop.
La tecnologia di questo treno super veloce, si basa sull’utilizzo di capsule per il trasporto, spinte da motori lineari a induzione e compressori d’aria. Queste capsule viaggiano all’interno di tubi sopraelevati, tenuti a bassa pressione per ridurre al minimo l’attrito dell’aria. All’interno di questi tunnel, quindi, verrà riprodotto un vuoto d’aria spinto e permanente che eliminerà la resistenza aerodinamica, “lanciando” il mezzo a velocità incredibili.

Storia dell’Hyperloop

L’11 maggio 2016, in Nevada, viene realizzato un prototipo parziale in scala 1:1. Fu costruito un carrello che dopo un’accelerazione di due secondi raggiunse una velocità di 186 Km/h.
Sempre nello stesso mese, le ferrovie russe resero pubblica una collaborazione con Hyperloop Technologies Inc. per introdurre questo progetto visionario nella tratta fra Mosca e San Pietroburgo. Oltre alla Russia, anche l’Italia, tramite l’amministratore delegato delle Ferrovie dello Stato, Renato Mazzoncini, ha dichiarato di voler collaborare al progetto, sebbene, a causa della morfologia del territorio, sarà difficile riuscire ad applicarlo.
Oltre a quello del maggio 2016, sono stati effettuati altri test in Nevada. Nello specifico il 2 agosto 2017, dai nuovi test effettuati, si è visto che il prototipo ha potuto raggiungere una velocità di 300 Km/h percorrendo un tubo depressurizzato lungo 500 metri.
Il 19 luglio 2018 in Cina, il governo locale della città di Tongren ha annunciato il raggiungimento di un accordo con la società californiana Hyperloop Transportation Technologies (HTT) per la costruzione di un tracciato ferroviario. Questo tracciato prevede la realizzazione di una prima tratta della lunghezza di 10 km che metterà in collegamento la città con l’aeroporto. La seconda tratta si estenderà per 50 chilometri dal centro cittadino fino alle pendici del monte Fanjing, una delle località turistiche più famose di Tongren.

Hyperloop a Dubai 2020

La società che sta costruendo l’Hyperloop a Dubai, è la Virgin Hyperloop One, di Richard Branson, il quale ha stretto una partnership con il sistema di infrastrutture di Dubai. L’intero sistema di carburazione, verrà ottenuto utilizzando propellenti solari ed elettromagnetici.
Il super treno potrà trasportare 3400 persone ogni ora nelle tratta fra Dubai e Abu Dhabi, tenendo una velocità di 1200 Km/h. I passeggeri viaggeranno in delle cabine che non avranno finestrini ma schermi digitali per evitare problemi di disorientamento. Il prezzo di una corsa sarà molto alto all’inizio, ma poi col tempo si abbasserà per diventare più accessibile a tutti.
Hyperloop One consentirà di percorrere la tratta in circa 12 minuti, al momento occorre circa un’ora e mezza per coprire la stessa tratta.
Quando sarà pronto?
L’Hyperloop di Dubai è ancora in fase di test ma è stato dichiarato che sarà pronto entro il 2020 per l’Expò di Dubai. L’area dedicata all’esposizione si trova nel deserto, a metà strada tra Abu Dhabi e Dubai.