mercoledì, Aprile 2, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1328

Iniziato l’Amazon Prime Day 2019 – attive le prime offerte

0
Migliori casinò non AAMS in Italia

Ci siamo, è iniziato  il Prime Day 2019 e sono finalmente attive le prime offerte speciali, gli sconti e le promozioni.

Ricordate che le offerte e gli sconti irripetibili del Prime Day saranno fruibili solo dagli utenti iscritti ad Amazon Prime, cui potete, però, iscrivervi gratis per 30 giorni seguendo questo link.

Vediamo ora le prime offerte del Prime Day 2019, riservate agli iscritti ad Amazon Prime 

DISPOSITIVI AMAZON

(Ricordiamo che queste sono anticipazioni dei prezzi in promozione Prime Day che saranno validi lunedì 15 e martedì 16 luglio o, in alternativa, cui sarà possibile accedere attraverso i dispositivi ECHO da sabato 13).

OFFERTE PER IL PRIME DAY

(Queste offerte saranno disponibili solo per il Prime Day, 15 e 16 luglio 2019)

  • Fino al 30% di sconto su prodotti Apple
  • Samsung TV e Soundbar
  • Fino al 25% di sconto su Notebook Acer, Huawei, HP e tanto altro
  • Garmin: promozioni su Smartwatche, Bike, Computer e Activity Tracker
  • Sony: le migliori fotocamere, videocamere, obiettivi e accessori
  • Fino al 42% di sconto su prodotti iRobot
  • Selezione di TV OLED
  • Fino al 30% di sconto su prodotti Fitbit, Polar e Suunto
  • Selezione TV Smart da 50” a 75”
  • Fino al 55% di sconto su epilazione e luci pulsate
  • Le migliori offerte su MicroSD, SD e penne USB
  • Le migliori offerte per la Smart Home
  • Le migliori periferiche per PC gaming
  • Fino al 60% di sconto su regolabarba e rasoi
  • Fino al 35% di sconto sui prodotti Foppapedretti
  • Macchine del caffè De Longhi, Bialetti e tanto altro in offerta
  • Fino al 45% di sconto su Nescafè, Illy, Carracci, Kimbo e tanti altri
  • Fino a 62% di sconto su Oral-B per l’igiene orale
  • Fino a 62% di Fino a 30% di sconto su monitor Acer, HP, Samsung, BenQ e altro
  • Huawei Watch GT Smartwatch

OFFERTE IMPERDIBILI

Queste offerte, disponibili solo il 15 e 16 luglio, includeranno prezzi sbalorditivi sui prodotti dei migliori marchi (“Offerte Imperdibili”), tra cui:

Proprio per la loro eccezionalità, questi prodotti in offerta saranno disponibili in un numero limitato e con la possibilità di un rapido esaurimento delle scorte, quindi i lettori di Reccom Magazine sono invitati a controllare regolarmente la sezione “Store by Reccom Magazine” del sito o l’apposito gruppo facebook, per visualizzare le nuove offerte che saranno attivate durante le 48 ore dell’evento. Le Offerte Imperdibili includeranno alcuni dei prodotti più interessanti dell’anno.

NOVITA’ PRIME DAY

Altre offerte dal mondo Amazon

  • Amazon Music Unlimited – I nuovi clienti Prime di Amazon Music Unlimited possono ottenere sei mesi senza costi aggiuntivi del servizio premium di streaming musicale con l’acquisto di dispositivi Amazon Echo selezionati durante Prime Day
  • Twitch Prime – Twitch Prime sta mettendo insieme celebrità, i migliori streamer e i clienti Prime per la Twitch Prime Crowne Cup, che li vedrà sfidarsi a FIFA 19 e Apex Legend con tornei a Londra e Las Vegas. Lo spettacolo sarà trasmesso in diretta streaming dal 12 al 14 luglio su twitch.tv/twitchprime
  • Kindle Unlimited – I clienti Prime che si iscrivono per la prima volta a Kindle Unlimited possono ottenere i loro primi tre mesi senza costi aggiuntivi di letture illimitate al momento della registrazione.
  • Prime Now – I clienti Prime possono acquistare centinaia di offerte esclusive di Prime Day attraverso Prime Now e ricevere i propri acquisti in finestre di due ore. La selezione di offerte include 700 prodotti e il 20% di sconto su tutti i prodotti Viaggiator Goloso offerti da Supermercato U2 per i clienti Prime di Milano. A Roma, PAM Panorama offrirà uno sconto del 20% su oltre 2.000 prodotti a marchio PAM Panorama, Arkalia, Fresche Bontà, I Tesori, Semplici e Buoni e Bio. I clienti di Milano potranno inoltre beneficiare di spese scontate a 1,99€ invece di 3,49€ per le consegne in finestre di due ore per ordini inferiori ai 50€ (non sono previsti costi di consegna per ordini superiori ai 50€). I clienti di Roma potranno invece beneficiare della consegna senza costi aggiuntivi. Tra le offerte disponibili: Maxi-Hamburgher di Scottona Chianina IGP di Antico Podere; Carne macinata di Scottona di Agrobio; Adez Latte vegetale di Noce di Cocco, 800 ml; Adez Bevanda vegetale di riso, 800ml; Sant’Anna Fruity Touch Frutti Rossi – 500 ml

Ecco perché il filmato trasmesso in diretta dello sbarco sulla Luna sarebbe stato impossibile da truccare – video d’epoca

0
Migliori casinò non AAMS in Italia

Nonostante siano trascorsi esattamente 50 anni dallo sbarco sulla Luna che ha visto i primi uomini posare il piede sulla sua grigia superficie molte persone ancora non credono che le missioni Apollo siano realmente avvenute.

Le missioni Apollo risalenti a un periodo che va dal 69 al 72, almeno quelle che hanno permesso l’effettivo allunaggio, tranne la missione numero 13 che è comunque andata in parte a termine riportando sano e salvo l’equipaggio, vengono oggi più che mai additate come false, un complotto ordito dalla NASA e dal governo americano che avrebbe chiesto al grande regista Stanley Kubrick di realizzarle “in studio” simulando lo storico sbarco della missione Apollo 11 e le restanti missioni.

Torniamo indietro agli anni sessanta e vediamo se, con la tecnologia di allora sarebbe stato possibile realizzare un filmato del genere.

https://www.youtube.com/watch?v=3TVjukQyGv4

Howard Berry, regista e docente di post-produzione cinematografica, afferma con sicurezza che il filmato dello sbarco sulla Luna sarebbe stato impossibile da falsificare.
Ecco alcune delle credenze e domande più comuni spiegate dal regista:

Gli sbarchi sulla luna sono stati girati in uno studio televisivo

Esistono due tecniche per catturare immagini in movimento. La prima è in film, strisce di materiale fotografico su cui sono esposte una serie di immagini. La seconda è il video, che è un metodo elettronico di registrazione su vari mezzi, come lo spostamento del nastro magnetico. Con il video, si può trasmettere a un ricevitore televisivo. Una pellicola cinematografica standard registra le immagini a 24 fotogrammi al secondo, mentre le trasmissioni televisive sono in genere di 25 o 30 fotogrammi al secondo, questo dipende dalla nazione.

Se si mantiene l’idea che gli atterraggi sulla luna sono stati registrati in uno studio televisivo, allora ci aspetteremmo che siano video da 30 fotogrammi al secondo, che era lo standard televisivo in quel momento. Tuttavia, sappiamo che il video dal primo sbarco sulla luna è stato registrato a dieci fotogrammi al secondo in SSTV (televisione Slow Scan) con una speciale telecamera.

Hanno usato la fotocamera speciale in uno studio e poi hanno rallentato il filmato per far sembrare che ci fosse meno gravità

Alcuni possono pensare che, quando si guardano le persone che si muovono al rallentatore in un filmato, sembrano essere in un ambiente a bassa gravità. Il rallentamento del film richiede più fotogrammi del solito, quindi si inizia con una fotocamera in grado di catturare più fotogrammi in un secondo rispetto a una normalequesto è chiamato overcranking. Quando viene riprodotto al normale, questo filmato viene riprodotto più a lungo. Se non riesci a sorpassare la tua fotocamera, ma registri con una frequenza di fotogrammi normale, puoi invece rallentare artificialmente il filmato, ma hai bisogno di un modo per archiviare i fotogrammi e generare nuovi fotogrammi aggiuntivi per rallentarlo.

Al momento della trasmissione, nel 1969, la tecnologia dei registratori di dischi magnetici in grado di memorizzare filmati in slow motion permetteva di acquisire solo 30 secondi in totale, per una riproduzione di 90 secondi di video al rallentatore. Per catturare 143 minuti al rallentatore, è necessario registrare e memorizzare 47 minuti di live action, il che semplicemente all’epoca non era possibile.

Avrebbero potuto disporre di un registratore di archiviazione avanzato per creare filmati in slow motion. Tutti sanno che la NASA ottiene la tecnologia prima degli altri

Beh, forse avevano un registratore extra di memoria super segreto – ma uno quasi 3000 volte più avanzato? Pare improbabile, anche perché questa tecnologia ci ha messo poi parecchi anni per entrare in commercio.

Hanno girato il film e hanno rallentato il film. Puoi avere tutto il film che vuoi per fare questo. Poi hanno convertito il film da mostrare in TV

Finalmente un po ‘di logica! Peccato che girare su pellicola richiederebbe migliaia di metri di pellicola. Una tipica bobina di pellicola da 35 mm – a 24 fotogrammi al minuto secondo – dura 11 minuti ed è lunga 1.000 piedi .Se applichiamo questo film a 12 fotogrammi al secondo (il più vicino possibile a dieci con il film standard) per 143 minuti (la durata del filmato dell’Apollo 11), servirebbero sei rulli e mezzo.

Questi avrebbero quindi bisogno di essere uniti. La giuntura, il trasferimento di negativi e la stampa – e potenzialmente grani, granelli di polvere, peli o graffi – farebbero immediatamente il resto. Ma non ci sono questi artefatti, il che significa che non è stato girato su pellicola. Inoltre, gli sbarchi successivi dell’Apollo sono stati trasmessi a 30 fotogrammi al secondo, quindi falsificare quelli sarebbe tre volte più difficile..

L’illuminazione nel filmato viene chiaramente da un riflettore. Le ombre sembrano strane

Sì, è un riflettore – posto a 150 milioni di chilometri di distanza. Si chiama Sole.

Osservate le ombre nel filmato, se la fonte di luce fosse un riflettore nelle vicinanze, le ombre sarebbero originate da un punto centrale. Ma poiché la fonte è così lontana, le ombre sono parallele nella maggior parte dei posti piuttosto che divergere da un singolo punto.

Detto questo, il sole non è l’unica fonte di illuminazione: la luce viene riflessa anche dal terreno. Ciò può causare che alcune ombre non appaiano parallele. Significa anche che possiamo vedere oggetti che sono nell’ombra.

Beh, sappiamo tutti che lo sbarco è stato filmato da Stanley Kubrick

La NASA avrebbe certamente potuto chiedere a Stanley Kubrick di falsificare gli sbarchi sulla Luna. Ma dato che era un perfezionista, avrebbe insistito per girare i filmati sul posto. Ed è ben documentato che non gli piaceva volare.

Fonte: livescience.com

E, infine, eccolo il filmato originale, compreso di audio, dello sbarco dell’uomo sulla Luna. Se qu

alcuno preferisce credere sia un falso, si nega la più grande conquista dell’umanità

 

 

La faglia di San Andreas sta per scaricare la sua energia: ecco cosa accadrà

0
Migliori casinò non AAMS in Italia

Il direttore del Southern California Earthquake Center, Thomas Jordan, ha recentemente fatto un annuncio che ha fatto rabbrividire ogni californiano: la faglia di San Andreas sembra essere in uno stato critico e in quanto tale, potrebbe presto provocare un grande terremoto. Naturalmente, il pericolo sismico per i californiani non è nulla di nuovo, ma ciò che è nuovo è l’avvertimento che la parte meridionale della faglia “sembra pronta a scaricare la sua enorme energia“.

Perché un eminente sismologo rilascia queste affermazioni così allarmanti?

Il fatto è che la parte meridionale del sistema di faglia di San Andreas non ha più rilasciato energia generando un terremoto importante dal 1857. In termini semplici, la faglia di San Andreas è uno dei tanti sistemi di faglia che segna approssimativamente il confine tra le placche tettoniche del Pacifico e il Nord Americane. Entrambe le placche si stanno muovendo in direzione nord, ma la placca del Pacifico si muove più velocemente della controparte nordamericana, il che significa che le tensioni tra le placche si stanno costantemente accumulando.

Nel 1906, l’energia accumulata dallo stress tettonico delle fagli fu rilasciata in modo catastrofico nella zona della Baia di San Francisco con un evento di magnitudo 7.8, cosa che avvenne nuovamente nel 1989, nel nord della California, durante il terremoto di Loma Prieta che raggiunse 6.9 di magnitudo. Eventi di queste grandezze, tuttavia, non si sono verificano da troppo tempo nella zona meridionale della faglia di San Andreas, a parte l’evento Northridge del 1994 che, però, è stato associato a un vicino, ma separato, sistema di faglia, portando i sismologi alla conclusione che un evento deve essere imminente e, data la quantità di stress che potrebbe effettivamente essersi accumulata, molto probabilmente il prossimo terremoto che arriverà sarà l’atteso e temuto “Big One“.

Quanto sarà potente il “Big One“?

Quanto sarà forte questo terremoto? È possibile che la distruzione che porterà sarà paragonabile a quella mostrata nel film San Andreas?

Fiction… O realtà?

Le recenti previsioni limitano la possibile grandezza massima dei terremoti lungo il sistema di faglia di San Andreas a 8.0, con una stima del 7% di probabilità che un evento del genere possa verificarsi nella California meridionale nei prossimi 30 anni; nello stesso periodo, c’è una probabilità del 75% di un evento di magnitudo 7.0.

Magnitudini 7.0, 8.0 e 9.0 potrebbero sembrare avere una potenza non molto diversa l’una dall’altra, ma, in realtà, l’energia che tali eventi scatenerebbero varia significativamente: un evento di magnitudo 9.0 che rilascia energia 32 volte maggiore di uno di magnitudo 8.0 e 1.000 volte più energia di uno di magnitudo 7.0.

Ovviamente, sia un evento di magnitudo 7.0 che uno di magnitudo 8.0, farebbero molti danni ma la sequenza di eventi, immaginati nel film, è improbabile. Ad esempio, la faglia di San Andreas non è al di sotto dell’oceano e, per questo, qualsiasi scivolamento lungo di essa non potrebbe spostare una quantità d’acqua tale da generare uno tsunami della potenza vista nel film. Inoltre, non potranno aprirsi voragini nel terreno perché le due faglie stanno scivolando una sull’altra, non allontanandosi.

image 20160511 18150 1aj35kj.jpg?ixlib=rb 1.1
Mappa della faglia di San Andreas, che mostra il movimento relativo. – USGS PD

Ciò che è realistico, tuttavia, è che probabilmente si verificheranno molti danni. Le leggi sulle costruzioni in California sono severe, raccomandando l’adeguamento delle misure di protezione antisismica agli edifici più vecchi e impedendo la costruzione di nuovi edifici vicino alle linee di faglia conosciute, ma non c’è modo di rendere un edificio sicuro al 100%.

Predire la devastazione

Nel tentativo di comprendere gli effetti di un grande terremoto provocato dalal parte meridionale della faglia di San Andreas, l’US Geological Survey ha sviluppato un modello di un evento di magnitudo 7.8, con uno slittamento di 2-7 metri, per rappresentare gli stress che si sono accumulati nell’area dall’ultimo grande evento.

Da questo modello è emerso che il danno sarà più grave per le costruzioni a cavallo della faglia. Fortunatamente, le costruzioni di questo tipo sono poche e distanti tra loro grazie alla legge sulla zonizzazione dei danni provocati dal terremoto di Alquist-Priolo del 1972. Ciò che potrebbe essere influenzato da questo slittamento, tuttavia, sono le 966 strade, 90 cavi in ​​fibra ottica, 39 tubi del gas e 141 linee elettriche che attraversano la zona a rischio.

Il costo totale dei danni agli edifici è stato stimato in 33 miliardi di dollari, con gli edifici moderni che dovrebbero reggere la scossa, ma con gli edifici più vecchi molto più a rischio. Il pericolo vero è costituito dagli incendi che infurieranno dopo la rottura delle condutture del gas e delle condutture dell’acqua; Si stima che il danno derivante dagli incendi risultanti sarà più alto e costoso di quello risultante dallo scuotimento iniziale.

image 20160511 18168 1xgu5zw.jpg?ixlib=rb 1.1
Faglia di San Andreas nella piana di Carrizo, veduta aerea da un’altitudine di 8.500 piedi. Di Ikluft (opera propria) tramite Wikimedia Commons , CC BY-SA

Il bilancio complessivo delle vittime è stimato in 1.800. L’evento, inoltre, destabilizzerà la tettonica della regione al punto che le scosse di assestamento potrebbero essere particolarmente potenti.

Con tutta probabilità, quindi, la faglia di San Andreas genererà un terremoto importante in un futuro non troppo lontano. Quando arriverà, il danno sarà significativo e la California meridionale sarà gravemente colpita. Ma i californiani non sono estranei a questi eventi e l’infrastruttura dello stato, negli ultimi tempi, è stata progettata pensando alla protezione antisismica.

Igienismo, digiuno terapeutico ed altre bufale

3
Migliori casinò non AAMS in Italia

Nel variegato e, purtroppo, ampio panorama della medicina alternativa, che si riassume in una serie di pratiche che di scientifico non hanno proprio nulla ma si rifanno, nel migliore dei casi, a pratiche tradizionali più vicine alla stregoneria che alla scienza, quando non si tratti proprio di truffe, va ancora abbastanza per la maggiore, in particolare sui social, una pratica nota come igienismo.

L’igienismo si rifà ad una vecchia teoria risalente ad un paio di secoli fa, e viene spesso consigliato tramite il passaparola da personaggi con diplomi in discipline paramediche, o perfino da medici di scarso successo professionale e con pochi scrupoli, che approfittando del fatto che non prevede alcuna prescrizione farmacologica, riescono a svicolare da eventuali accuse di esercizio abusivo della professione medica (benché in molti casi potrebbe profilarsi il reato di abuso della credulità altrui).

In Italia, purtroppo (e come al solito), il movimento igienista vanta ancora una discreta notorietà.

In realtà, l’igienismo sarebbe uno stile di vita che, almeno nella sua forma originale, consiste nell’utilizzare il digiuno come forma terapeutica verso un numero enorme di malattie. Secondo i seguaci di questo stile di vita, l’astinenza dal cibo e dai medicinali, sarebbe in grado di depurare e disintossicare il corpo, stimolandone le capacità di autoguarigione, secondo una non meglio definita “armonia del corpo con la natura”.

Attenzione, il digiuno igienista non ha nulla a che vedere con quelle diete mima-digiuno validate scientificamente come, ad esempio, quella ideata dal professor Veronesi.

Il movimento igienista nacque negli Stati Uniti nel Diciannovesimo secolo. La data di fondazione è ritenuta il 1829 e il guru dell’igienismo è considerato Sylvester Graham. Nel Ventesimo secolo raggiunse una buona diffusione, grazie soprattutto ad Herbert Shelton.

Dedito principalmente alla chiropratica e alla naturopatia, Shelton scrisse oltre 40 libri sulle cure naturali e fondò una scuola medica a San Antonio, la Dr. Shelton’s Health School. Produsse anche una serie di sette volumi dal titolo The Hygienic System raccogliendo tutte le conoscenze igieniste dell’epoca, e diresse per quasi quarant’anni una rivista mensile dedicata all’igienismo.

Shelton fondò anche la American Natural Hygiene Society (Anhs), che nel 1998 divenne la National Health Association (Nha), ancora oggi esistente. In Italia i due principali punti di riferimento dell’igienismo sono l’Associazione igienista italiana fondata a Genova nel 1972 e (fino agli anni Novanta) la Società editrice igiene naturale.

Secondo il parere degli stessi igienisti, l’igienismo non deve essere confuso né con la naturopatia né con l’omeopatia né con la macrobiotica, nonostante esistano innegabili affinità con ciascuna delle tre. In realtà, un naturopata propone erbe e tinture, mentre un igienista non prescrive alcun rimedio, a parte prodotto di tipo omeopatico essenzialmente a base di zucchero.

Soprattutto, l’igienismo non può essere considerato una pratica scientifica, dal momento che sono del tutto assenti le dimostrazioni di efficacia e i risultati clinici che possano in qualche modo validarne le pratiche. Tutto ciò che si trova in letteratura sull’igienismo (o sulle traduzioni internazionali del termine come Orthopathy e Natural Hygiene) sono una serie di studi a metà tra la filosofia e la teologia, oltre a qualche analisi sull’evoluzione storica del movimento.

In sostanza, l’igienismo non è una pratica sicura, dal momento che la sua applicazione (ossia il rifiuto di cibo e medicinalipuò porre in serio pericolo la vita dei pazienti, tanto più se questi si trovano in una effettiva condizione di malattia o di debolezza fisica.

Le patologie per le quali può essere consigliabile un breve digiuno sono pochissime, e in ogni caso è doveroso confrontarsi con il proprio medico di fiducia per capire come sopperire al mancato apporto di nutrienti.

In assenza di patologie, un praticante dell’igienismo conduce una vita normale e si limita a seguire una dieta strettamente basata su una accurata scelta degli ingredienti (commestibili crudi e attraenti ai sensi) e dei loro abbinamenti. A seconda dei casi la dieta può coincidere con quella vegetariana, vegana o crudista, e si basa principalmente su verdure crude, semi, germogli e frutta fresca o secca.

Gli igienisti meno radicali si concedono anche qualche verdura cotte (patate e melanzane) con incursioni nei prodotti di origine animale come yogurt, formaggi freschi e tuorlo d’uovo, badando accuratamente di evitare aglio, cipolle, funghi, alghe e spezie. Inoltre, deve essere vitato qualsiasi tipo di integratore alimentare e si deve bere il meno possibile: i liquidi devono essere derivati esclusivamente, o quasi, dal consumo di frutta e verdura.

Ma cosa fa un igienista quando sta male?

In breve: NIENTE.

Secondo gli igienisti lo stato di malattia coincide sempre con una intossicazione che chiamano tossiemia, eliminando la quale si dovrebbe automaticamente risolvere la patologia.

In base a questa dottrina, l’intossicazione dipenderebbe dall’incapacità del corpo di eliminare abbastanza in fretta alcune fantomatiche tossine (non meglio specificate), e quindi l’unico rimedio per curarsi è quello di smettere di nutrirsi per non ingerire ulteriori tossine mentre si aspetta il ripristino dell’equilibrio fisiologico. Questo, ovviamente, comporta l’eliminazione di tutto il cibo ma anche la non assunzione di qualunque tipo di farmaco.

Alle intossicazioni derivanti dal cibo, dai medicinali e dall’inquinamento dell’aria respirata (continuare a respirare è comunque concesso!) si aggiungono, secondo gli igienisti, grandi quantità di tossine auto-prodotte dal nostro organismo, che deriverebbero dalla qualità e dallo stile della vita, ad esempio da stress, sforzi fisici e sbalzi di temperatura.

In sostanza, l’igienista attribuisce ogni tipo di malattia esclusivamente alle tossiemie, arrivando a negare perfino l’esistenza di batteri e virus. Con questa premessa, gli igienisti negano l’esistenza di infezioni e contagio.

Secondo loro, al’astensione dal cibo permettere al corpo di dedicare tempo ed energie per ripulirsi ed eliminare le cellule patogene. Unitamente al digiuno assoluto si deve praticare l’assoluto riposo da qualsiasi attività fisica e mentale perché il risparmiare energia aiuterebbe a velocizzare il processo di depurazione.

Insomma, la Terapia Ideale sarebbe restare fermi a letto senza cibo né acqua, quale che sia la malattia, incluso il cancro, principio che vale anche per i bambini ancora in età da allattamento.

Pseudoscienza e bufale

All’interno del movimento igienista trovano spazio collegamenti con numerosissime altre teorie pseudoscientifiche e del complotto. Anzitutto nell’ideale igienista ci sono ricorrenti riferimenti ad un presunto passato, più o meno antico, in cui, secondo loro, già si conosceva il valore della pratica del digiuno come metodo di guarigione, arrivando a considerare Pitagora come il padre fondatore dell’igienismo.

Senza soffermarci sulle numerose singole bufale, la dottrina dell’igienismo sostiene che il virus dell’hiv non esiste, che la dieta vegana sia scientificamente la migliore, che viviamo in un mondo architettato per farci ammalare, che “le vaccinazioni sono una novità assolutamente illusoria”, che i farmaci non hanno alcun effetto sul nostro corpo, che il contagio non esista e sia solo una leggenda inventata dalle case farmaceutiche, che la ricerca scientifica, le medicine e le terapie siano tutte inutili, che microbi e virus siano solo “una nuova demonologia insensata”.

Tutto ciò, ovviamente, viene condito con riferimenti alla Bibbia e al Corano, a presunte, non riscontrabili e indefinite tesi di scienziati fra cui pure Einstein, di poeti e di artisti. Vengono anche riportate alcune autoreferenziali e fantomatiche prove scientifiche basate sull’autocertificazione a posteriori presentate da parte di medici e presunti tali che per anni hanno praticato l’igienismo sui propri pazienti, ovviamente senza nessun riscontro clinico ufficiale.

Gli igienisti riportano anche storie quasi leggendarie di medici che avrebbero sperimentato l’igienismo senza volerlo, arrivando con molto ritardo a casa del malato e scoprendolo già guarito. Molte di queste testimonianza si trovano, ad esempio, negli scritti di Albert Mosséri, considerato uno dei più recenti luminari del movimento.

Insieme a tesi del tutto in contraddizione con i risultati scientifici, l’igienismo ha effettivamente una serie di riferimenti a buone abitudini che anche secondo la scienza corrispondono a uno stile di vita sano. Eliminare il fumo, ridurre gli alcolici, moderare il consumo di grassi, vivere in ambienti poco inquinati, curare la pulizia personale, limitare lo stress e concedersi un adeguato riposo sono solo alcuni dei tanti consigli, banali, suggeriti dal movimento igienista.

Il problema è che accanto a questi buoni suggerimenti se ne trovano poi altri del tutto deleteri per il nostro benessere, nonché contrari ad alcuni risultati ormai indiscutibili della scienza medica.

Le nuove tendenze

Negli ultimi anni, probabilmente a causa di alcune innegabili evidenze scientifiche, si sono iniziate a diffondere alcune teorie igieniste non ortodosse e meno drastiche, che perlomeno riconoscono i più eclatanti e assodati risultati della scienza. Alcuni igienismi moderati, ad esempio, riconoscono che i farmaci abbiano un’azione sul nostro corpo anche se sottolineano che sono azioni di tipo tossico e, quindi, da evitare.

Ultimamente, alcuni igienisti sono arrivati ad ammettere  l’esistenza dei virus e che sia possibile essere contagiati da altre persone, che il digiuno sia appropriato solo per certe malattie, che durante i digiuni convenga almeno bere, che ci si possa concedere la carne fino a due volte la settimana e includere nella dieta alcuni cibi tradizionalmente esclusi come le alghe e i funghi.

Anche i più moderni e moderati (e prudenti) degli igienisti continuano a sostenere la necessità di non assumere mai farmaci o integratori, di astenersi dal cibo per guarire dalla maggior parte delle malattie e la fiducia assoluta nella capacità umana di autoguarigione.

La Dieta mima Digiuno

Il Digiuno terapeutico totale propugnato dagli igienisti non va confuso con la “Dieta del Digiuno”, una particolare forma di alimentazione validata da numerosi scienziati al mondo, in particolare dal professor Valter Longo dell’Istituto di Longevità della University of Southern California e responsabile del programma di ricerca “Oncologia & Longevità” all’IFOM (Istituto FIRC di Oncologia Molecolare) di Milano.

La dieta in questione, se effettuata sotto stretto controllo medico, a quanto pare influirebbe positivamente su diversi aspetti allungando, di fatto, l’aspettativa di vita media. Ne parla la dottoressa Elena Dogliotti, biologa nutrizionista della Fondazione Veronesi.

Che cos’è la dieta del digiuno?

La dieta del digiuno, conosciuta anche come dieta “mima digiuno”, è un regime alimentare atipico che prevede l’assunzione controllata di proteine (11- 14%), carboidrati (42-43%) e grassi (46%), per una riduzione calorica complessiva compresa tra il 34% e il 54% rispetto al normale. In realtà non si tratta né di una dieta tipica – in quanto non è continuativa – né di digiuno poiché, seppur poco, si mangia.

In particolare questo regime alimentare, descritto nello studio di Valter Longo, deve essere effettuato per soli 5 giorni continuativi al mese e nelle persone in buona salute può essere ripetuto ogni 3-6 mesi.

Accanto alla dieta del digiuno classica c’è una variante. Un approccio molto simile che prevede invece una riduzione marcata delle sole proteine lasciando intatto l’introito calorico.

Quali sono i suoi vantaggi?

I benefici della riduzione delle calorie sono noti da decenni. Negli ultimi anni i ricercatori hanno approfondito gli studi sull’argomento perché si è notato che alcuni animali costretti a “mangiare meno” hanno una durata media della vita maggiore del normale.

Negli animali trattati con questa particolare dieta si è registrato un prolungamento dell’11% della vita, una riduzione dell’incidenza di cancro, un ringiovanimento del sistema immunitario, una riduzione delle malattie infiammatorie, un rallentamento della perdita di densità minerale ossea e un aumento del numero di cellule progenitrici e staminali in vari organi.

Sperimentata anche sull’uomo la dieta, somministrata una volta al mese per cinque giorni, sembrerebbe aver ridotto i fattori di rischio e i biomarcatori di invecchiamento, diabete, malattie cardiovascolari e cancro.

Ovviamente, questo non significa che stando senza mangiare si ottengono benefici anche maggiori, ricordiamo che si tratta di una dieta, e non di un digiuno, che va effettuata sotto stretto controllo medico.

Si può considerare una dieta per perdere peso?

L’obbiettivo primario della dieta non è quello di perdere peso. Durando solo 5 giorni il regime alimentare che mima il digiuno serve a ridurre quei fattori di rischio tipici di malattie cardiovascolari e oncologiche.

Ovviamente, nelle persone che hanno problemi di peso, questo tipo di dieta ha indubbiamente molti vantaggi ma deve essere effettuata contestualmente ad un regime alimentare volto a ridurre la massa grassa.

Come posso fare per seguire questa dieta?

Come ogni dieta è opportuno essere seguiti da un esperto in materia. Il fai da te, soprattutto per quanto riguarda il digiuno, è da evitare assolutamente. Questo tipo di approccio è relativamente ancora poco diffuso e per questa ragione deve essere svolto sotto controllo medico in modo da valutare gli effettivi benefici.

Non tutti infatti possono seguire una dieta del genere. Le condizioni fisiche di partenza vanno valutate attentamente. Dagli studi è emerso che si tratta di una dieta da non consigliare sopra i 65 anni.

Saltare alcuni pasti nella giornata ha lo stesso effetto?

Saltare i pasti senza criterio non porta nessun beneficio. Anzi, rischia di essere controproducente. Bisogna distinguere l’obbiettivo della dieta. Se si vuole perdere peso è fondamentale una dieta equilibrata. Saltare la colazione, ad esempio, potrebbe essere un errore.

Se l’obbiettivo, invece, è l’effetto rigenerativo e protettivo attribuito alla dieta del digiuno, allora si può decidere di sperimentare questo regime alimentare, ma sotto stretto controllo medico. Il fai da te, anche in questo caso, non giova a nessuno.

Vi lascio, infine, con un link alla sezione del sito web dell’Istituto Superiore di Sanità dove vengono sconfessate bufale ed idee sbagliate in materia di alimentazione,

Fonti:

 

Fotografato per la prima volta l’entanglement quantistico

0
Migliori casinò non AAMS in Italia

Per la prima volta in assoluto, i fisici sono riusciti a scattare una foto di una forte forma di entanglement quantico chiamata Bell entanglementcatturando la prova visiva del fenomeno elusivo che uno sconcertato Albert Einstein chiamava una volta “azione spettrale a distanza“.

Due particelle che interagiscono l’una con l’altra, ad esempio, come due fotoni che attraversano uno splitter, possono a volte restare connesse, condividendo istantaneamente i loro stati fisici, non importa quanto grande sia la distanza che le separa. Questa connessione è conosciuta come .

Einstein pensava che la meccanica quantistica fosse “spettrale” a causa dell’istantanea dell’interazione remota apparente tra due particelle entangled, cosa che sembrava incompatibile con alcuni elementi della sua teoria della relatività speciale.

Più tardi, Sir John Bell formalizzò questo concetto di interazione non locale descrivendo una forte forma di entanglement. Oggi, l’entanglement di Bell viene utilizzato in applicazioni pratiche come il calcolo quantistico e la crittografia, ma non era mai stato possibile visualizzarlo.

In un articolo pubblicato sulla rivista Science Advances, un gruppo di fisici dell’Università di Glasgow descrive come sono riusciti a rendere visibile questo sfuggente fenomeno.

in pratica, hanno ideato un sistema che spara un flusso di fotoni entangled da una fonte quantistica di luce su “oggetti non convenzionali“, visualizzati su materiali a cristalli liquidi che cambiano la fase dei fotoni mentre li attraversano.

Successivamente hanno attivato una fotocamera super sensibile in grado di rilevare singoli fotoni, pronta a catturare un’immagine solo quando inquadra sia un fotone che il suo “gemello” aggrovigliato (entangled), fissando una registrazione visibile dell’entanglement dei fotoni.

Gli scienziati svelano l'immagine dell'entanglement quantistico
Sistema utilizzato per eseguire un test di disuguaglianza Bell visualizzabile. Un cristallo BBO pompato da un laser a ultravioletti viene utilizzato come fonte di coppie di fotoni entangled. I due fotoni sono separati su un beam splitter (BS). Una telecamera intensificata attivata da uno SPAD viene utilizzata per acquisire immagini fantasma di un oggetto di fase posizionato sul percorso del primo fotone e non automaticamente filtrato da quattro diversi filtri spaziali che possono essere visualizzati su un SLM (SLM 2) collocato nell’altro braccio. Attivata dallo SPAD, la fotocamera acquisisce immagini di coincidenza che possono essere utilizzate per eseguire un test di Bell. Credito: Science Advances (2019). DOI: 10.1126 / sciadv.aaw2563

Il Dr. Paul-Antoine Moreau della School of Physics and Astronomy dell’Università di Glasgow, è l’autore principale della pubblicazione. Il Dr. Moreau ha dichiarato: “L’immagine che siamo riusciti a catturare è un’elegante dimostrazione di una proprietà fondamentale della natura, vista per la prima volta in forma immagine. È un risultato entusiasmante che potrebbe essere utilizzato per far avanzare l’informatica quantistica e portare a nuovi tipi di imaging“.

Il documento, intitolato ‘Imaging Bell-type nonlocal behavior‘, è pubblicato su Science Advances, DOI: 10.1126 / sciadv.aaw2563

NASA: effettuato con successo “l’abort test” della capsula Orion

0
Migliori casinò non AAMS in Italia

E’ andata a buon fine la missione Ascent Abort-2 effettuata martedì 2 luglio sulla capsula Orion, cosi la NASA ha potuto dimostrare che il sistema di interruzione di emergenza del lancio, LAS (Launch Abort System), della capsula Orion funziona alla perfezione.

Questo sistema di salvataggio agisce, se necessario, durante le fasi iniziali di lancio. Il sistema LAS è capace di sganciare la capsula Orion con con il suo equipaggio, dal sistema di lancio principale se durante le prima fasi di volo avviene un qualche guasto che può compromettere la missione e mettere in pericolo l’equipaggio stesso. Il sistema sgancia la capsula dal lanciatore proiettandola a distanza di sicurezza consentendo un ammaraggio di emergenza.

Il test, svolto senza l’equipaggio, è durato in totale 3 minuti ed è costato 256 milioni di dollari. Per la realizzare il costoso test è stato utilizzato un simulacro del modulo Orion, che è stato lanciato alle 13:00 ore italiane di martedì 2 luglio dallo Space Launch Complex 46 della Cape Canaveral Air Force Station, in Florida, utilizzando un missile monostadio a propellente solido Peacekeeper, dell’U.S. Air Force, appositamente modificato.

Il Peacekeeper, è un missile alto 28 metri, dismesso dall’U.S. Air Force e in uso alla NASA che lo ha appesantito di 45 tonnellate in modo da poter raggiungere la giusta quota, velocità e pressione aerodinamica previste durante la fase di lancio nominale della capsula Orion.

Il propulsore del Peacekeeper, un SR118, ha fornito una spinta di 226,8 tonnellate e ha raggiunto una quota di circa 9.500 metri in approssimativamente 50 secondi, raggiungendo la velocità di Mach 1,08 prima che il computer di bordo della capsula Orion desse inizio alla sequenza di launch abort terminando la missione e “salvando” l’equipaggio.

A qual punto di quota, velocità e pressione aerodinamica, il sistema di aborto missione ha staccato il simulacro della capsula Orion appena prima che il razzo finisse il propellente. Nella fase di sgancio il sistema LAS, dotato di quattro ugelli, ha fornito una spinta complessiva di 181,4 tonnellate in circa 5 secondi accelerando la capsula fino a 7 g.

La capsula è stata stabilizzata dagli ugelli posti sulla punta della torre di fuga durante le fasi di allontanamento dal booster principale e dopo 15 secondi il sistema ha orientato il simulacro della capsula Orion con lo scudo termico rivolto verso il suolo.

Il sistema LAS della capsula Orion è molto più avanzato di quello utilizzato nelle capsule delle missioni Apollo. In questo caso, il sistema di aborto missione è composto da otto ugelli a spinta variabile posizionati a 45° l’uno dall’altro attorno alla torre e ognuno di essi può essere controllato separatamente dagli altri dando alla Orion una capacità di fuga in condizioni molto più estreme rispetto a quelle delle missioni lunari.

La capsula Orion è dotata di sensori che ne rilevano l’orientamento durante le fasi di aborto trasmettendo le informazioni al computer che invia i comandi ai motori attitudinali, che, grazie a speciali valvole, modulano la spinta mantenendo il corretto assetto del velivolo.

Quando i sensori rilevano che la capsula è correttamente posizionata con lo scudo termico rivolto perso il suolo un propulsore si attiva per staccare il LAS dalla Orion. Arrivati a questa fase della fuga se ci fossero degli astronauti a bordo si attiverebbero una serie di paracadute che rallenterebbero la capsula fino allo splashdown, operazione non prevista nel test del 2 luglio scorso perché ne sono già stati effettuati 47 presso lo Yuma Proving Ground in Arizona e sono stati svolti anche dei test al suolo sui propulsori.

Il simulacro della Orion, privo di paracadute, è finito in mare a 11 Km a est di Cape Canaveral a una velocità di circa 480 Km orari 3 minuti e 12 secondi dopo il liftoff. Anche il booster Peacekeeper e il LAS sono finiti in acqua. I componenti erano progettati per affondare, il test è terminato con successo ma ora dovremo attendere l’analisi di tutti i dati per sapere se il successo del test sarà pienamente confermato.

Il LAS è strutturato in due parti, la prima che funge da carenatura realizzata in materiale composito leggero in grado di difendere la capsula dal calore dalla pressione dell’aria e dal rumore durante le fasi di ascesa e se necessario, l’eventuale aborto di emergenza. La seconda parte invece è costituita dalla torre di fuga composta dai propulsori di aborto, di controllo altitudine e sgancio.

Il sistema è progettato per il nuovo lanciatore della NASA chiamato SLS o Space launch System.

Il test doveva fondamentalmente raccogliere una grande mole di dati grazie a 900 tra sensori di temperatura, di pressione e acustici che sono stati salvati su 12 registratori espulsi dalla capsula e recuperati dopo la caduta in mare.

Fonte: Astronautinews

La NASA riduce i sistemi attivi sulla Voyager 2 per prolungarne la vita di alcuni anni

7
Migliori casinò non AAMS in Italia

Lanciate nel 1977, le sonde Voyager 1 e 2 sono i veicoli spaziali più longevi ancora in attività, ancora operative dopo 42 anni dal lancio, decenni dopo la fine nominale della loro missione che consisteva nel dare, letteralmente, un’occhiata ai pianeti esterni del sistema solare. Dopo tutti questi anni, i tre generatori termoelettrici a radioisotopi (RTG) che le hanno alimentate ancora funzionano e forniscono energia, sia pure in misura sempre minore.

Per ovviare alla sempre maggiore carenza di energia, i responsabili delle due missioni hanno dovuto scegliere a quali strumenti dare la priorità, e recentemente hanno spento lo strumento di riscaldamento del sensore di raggi cosmici della Voyager 2. Lo strumento, al momento, risulta ancora funzionante, nonostante sia stato testato per operare a temperature entro i 10 gradi sotto zero e la temperatura esterna risulta essere di meno 24.

La sonda ha ancora cinque strumenti attivi che vengono utilizzati ancora per raccogliere dati e rimandarli sulla Terra nel suo lungo viaggio nello spazio profondo.

Dopo tutti questi anni

La sonda spaziale Voyager 2 fu lanciata nel 1977 con una sonda gemella, ciascuna dotata di dieci strumenti per esplorare il sistema solare solare esterno e prendere immagini dei pianeti durante gli incontri ravvicinati con gli stessi.

La Voyager 1 visitò Giove e Saturno prima di dirigersi verso lo spazio profondo, mentre la Voyager 2 oltre questi due visitò anche Urano e Nettuno, con una traiettoria più lunga e lenta. È ormai dal 1989 entrambe esplorano lo spazio al di là dei pianeti e restituiscono informazioni inestimabili sull’estensione dell’atmosfera solare e dei suoi effetti. Nel 2018 la Voyager 2 è entrata ufficialmente nello spazio interstellare, inviando informazioni su come l’ambiente spaziale è cambiato da quando ha lasciato la sfera d’influenza del Sole.

Voyager 2 ha ancora cinque strumenti attivi rispetto ai quattro di Voyager 1. Gli strumenti spenti sono stati disattivati intenzionalmente, poiché, ad esempio, le telecamere per le immagini non sono utili così lontano dalla luce solare o da oggetti da riprendere. Gli altri stanno ancora misurando l’intensità dei raggi cosmici, dei campi magnetici e di altre particelle cariche che riempiono lo spazio interstellare ben oltre i pianeti.

Misurando queste particelle, gli astronomi stanno imparando quanto lontano si estende l’energia del Sole e come questi campi interagiscono con il mezzo interstellare oltre i bordi del sistema solare.

voyager_trajectories
Le due navicelle spaziali Voyager hanno preso strade diverse attraverso il sistema solare, e non hanno ancora lasciato interamente l’area influenzata dal Sole. – NASA / JPL-Caltech

Strumenti di lavoro

Non sono solo gli strumenti per la raccolta dei dati che contano sulle Voyager. Affinché tali dati possano essere utilizzati, è necessario che dispongano di apparecchiature di comunicazione funzionanti in grado di puntare le proprie antenne verso la Terra per la trasmissione. Fortunatamente, le loro apparecchiature di comunicazione sono ancora funzionanti. Ma i propulsori che permettono alla sonda di puntare le antenne in una particolare direzione hanno iniziato a degradarsi. Nel 2017, gli ingegneri hanno attivato i vecchi propulsori della Voyager 1, che non erano più stati utilizzati da 37 anni. Tra alcuni giorni verrà effettuata la stessa manovra sulla Voyager 2, sperando che anche in questo caso siano ancora funzionanti, poiché vennero utilizzati per l’ultima volta vicino a Nettuno nel 1989.

I responsabili di missione delle Voyager sono riusciti a mantenere le due sonde attive per decenni oltre la fine delle loro missioni originali. Hanno spinto gli strumenti verso nuovi limiti e stanno dimostrando che questi pionieri, invecchiati come sono, possono ancora rivelare importanti informazioni sul cosmo. Sono i più lontani oggetti creati dall’uomo nell’universo, e stanno ancora esplorando e insegnando all’umanità com’è il universo. Con gli sforzi continui dei responsabili di missione e un po’ di fortuna, dovrebbero continuare a farlo per anni.

Come iniziarono le teorie sulla cospirazione lunare e perché persistono ancora oggi

0
Migliori casinò non AAMS in Italia

Bill Kaysing era un ex ufficiale della marina statunitense che lavorava come scrittore tecnico per uno dei produttori di missili per le missioni lunari della NASA (In pratica scriveva manuali tecnici). Affermò di essere a conoscenza interna di una cospirazione governativa per falsificare gli sbarchi sulla luna, e moltela maggior parte delle teorie cospirative sugli sbarchi sulla Luna delle missioni Apollo che persistono fino adancora oggi possono essere fatte risalire ad un suo libro pubblicato del 1976, We Never Went to the Moon: America’s Thirty Billion Dollar Swindle.

L’ipotesi alla base della teoria della cospirazione è che la NASA non è riuscita a far atterrare in sicurezza un uomo sulla luna alla fine degli anni ’60, come aveva promesso il presidente John F. Kennedy, quindi ha inviato astronauti solo in orbita terrestre. I teorici della cospirazione sostengono poi che la NASA ha messo in scena gli sbarchi sulla luna in uno studio cinematografico e che ci sono segni rivelatori di ciò nei filmati e nelle foto che permettono di smascherare il trucco. Sostengono che la NASA ha coperto l’elaborata mistificazione da allora.

Gli scettici degli sbarchi sulla Luna indicano presunti indizi come le foto che sembrano mostrare gli astronauti davanti ai mirini incisi sul vetro della fotocamera o una lettera misteriosa C visibile su una roccia lunare. Queste e molte altre apparenti anomalie sono state ridimensionate, ma le teorie complottiste sullo sbarco sulla Luna persistono nell’immaginazione popolare.

Negli Stati Uniti, i sondaggi indicano che tra il 5-10% degli americani non si fida della versione ufficiale degli eventi. Nel Regno Unito, un sondaggio di YouGov nel 2012 ha rilevato che il 12% degli inglesi credeva nella teoria della cospirazione. Un recente sondaggio ha rilevato che il 20% degli italiani ritiene che gli sbarchi sulla Luna siano stati una burla, mentre un sondaggio del 2018 in Russia ha riportato la cifra al 57%, senza sorprese vista la popolarità locale delle teorie complottiste anti-occidentali.

 

Pronti a non crederci

La teoria della cospirazione di Kaysing si è affermata in America verso la metà degli anni ’70, in gran parte per via di una più ampia crisi di fiducia nel paese in quel momento. Nel 1971, i cittadini aveva potuto leggere documenti trapelati dal Pentagono che dimostravano che l’amministrazione Johnson aveva mentito sistematicamente sulla guerra del Vietnam. A questo si aggiunse lo scandalo Watergate che coinvolse il presidente Nixon, tutte cose che contribuirono a creare un clima favorevole al complottismo.

A questi fatti si aggiunsero una serie di rapporti del Congresso che descrivevano una disaffezione verso la IA sia in patria che all’estero, e nel 1976, il Comitato ristretto di indagine sull’assassinio del presidente Kennedy concluse – contrariamente alla Commissione Warren di più di dieci anni prima – che c’era un’alta probabilità che ci fosse stata una cospirazione uccidere Kennedy. Queste rivelazioni contribuirono a creare un terreno fertile per le teorie della cospirazione, spostando l’attenzione da nemici esterni come il comunismo verso lo stato americano, sospettato di stare cospirando contro i suoi stessi cittadini.

Da allora, le teorie del complotto sullo sbarco lunare si sono dimostrate particolarmente persistenti da allora. Per comprendere la loro popolarità dobbiamo considerare il loro contesto culturale, così come le disposizioni psicologiche dei credenti.

Come con l’assassinio di Kennedy, prese forma un nuovo tipo di teorizzazione della cospirazione. Queste teorie reinterpretano le prove pubblicamente disponibili, trovando incongruenze nella documentazione ufficiale, piuttosto che scoprire informazioni nascoste. Le prove visive sono cruciali: nonostante tutto il lo scetticismo, il punto di partenza è che vedere è credere. Nel regno delle prove fotografiche, l’ipotesi è che tutti possano essere detective. Nelle comunità dei teorici della cospirazione emerse alla fine degli anni ’60, la formazione autodidatta divenne centrale.

Realtà costruita

Le teorie sulla cospirazione lunare hanno portato all’attenzione dei media mainstream l’idea che gli eventi significativi non sono ciò che sembrano: si è trattato di messe in scena, parte di una campagna ufficiale di disinformazione. L’idea che tragici eventi siano interpretati da “attori della crisi” impiegati dal governo è diventata la spiegazione predefinita per molti eventi di oggi, dall’11 settembre alle sparatorie di massa. Questo tipo di teoria della cospirazione è particolarmente dannosa per le persone normali – ad esempio, i genitori dei bambini uccisi nella sparatoria della scuola elementare Sandy Hook sono stati a lungo perseguitati da troll di Internet che li accusavano di essere dei tirapiedi governativi profumatamente pagati.

Tuttavia, la storia secondo la quale gli sbarchi lunari sono stati messi in scena risuona anche con la nozione più plausibile che la stessa corsa allo spazio sia stata più una messa in scena per la guerra fredda che un trionfo dello spirito e dell’ingegno umano.

Il film di Hollywood del 1978 Capricorn One fece molto per diffondere le teorie sulla cospirazione sull’atterraggio della luna. Basato sul libro di Kaysing, la trama immaginava che uno sbarco su Marte fosse stato simulato in uno studio cinematografico, attingendo alle ipotesi complottiste secondo le quali gli sbarchi sulla Luna erano stati diretti da Stanley Kubrick. Questo suggestivo mito si basa in parte sull’idea che gli effetti speciali cinematografici erano diventati molto più sofisticati con il film di Kubrick del 1968 “2001, Odissea nello spazio”, sebbene quegli effetti fossero ancora lontani dalle capacità che le teorie del complotto presumono.

Anche se sono inverosimili in termini fattuali, le teorie sulla cospirazione lunare prendono spunto dalla possibilità, ritenuta plausibile, che nella nostra epoca saturata dai media tradizionali e dai social media in rete, la realtà sia costruita, se non addirittura falsata.

Seguiranno altri articoli sull’argomento.

Che futuro ha la fisica delle particelle?

0
Migliori casinò non AAMS in Italia

A un livello fondamentale, di cosa è fatto il nostro universo? Questa domanda ha portato avanti la fisica per secoli. Anche con tutti i progressi che abbiamo fatto, non lo sappiamo ancora. Il Large Hadron Collider ha scoperto il bosone di Higgs e completato il modello standard all’inizio di questo decennio, ma la suite completa delle particelle che conosciamo rappresenta solo il 5% dell’energia totale nell’universo.

Non sappiamo cosa sia la materia oscura, ma la prova indiretta della sua presenza è schiacciante. Lo stesso succede con l‘energia oscura. Ma sul perché le particelle fondamentali hanno le masse che hanno, o perché i neutrini non sono senza massa, o perché il nostro Universo è fatto di materia e non di antimateria, siamo ancora in alto mare. I nostri strumenti e ricerche attuali non hanno risposto a questi grandi enigmi esistenziali della fisica moderna. La fisica delle particelle ora è davanti ad un incredibile dilemma: conitnuare a provare, con tutti i limiti tecnologici o arrendersi.

The Standard Model of particle physics accounts for three of the four forces (excepting gravity), the full suite of discovered particles, and all of their interactions. Whether there are additional particles and/or interactions that are discoverable with colliders we can build on Earth is a debatable subject, but one we'll only know the answer to if we explore past the known energy frontier.

Il modello standard della fisica delle particelle rappresenta tre delle quattro forze (eccetto la gravità), la suite completa di particelle scoperte e tutte le loro interazioni. Se ci sono particelle aggiuntive e / o interazioni che sono individuabili con i collisori che possiamo costruire sulla Terra è un argomento di cui si può discutere, ma la risposta òa conosceremo solo se esploreremo oltre la frontiera energetica nota. – PROGETTO DI EDUCAZIONE ALLA FISICA CONTEMPORANEA / DOE / NSF / LBNL

Le particelle e le interazioni che conosciamo sono tutte governate dal modello standard della fisica delle particelle, oltre che dalla gravità, dalla materia oscura e dall’energia oscura. Negli esperimenti di fisica delle particelle, tuttavia, è importante solo il modello standard. I sei quark carichi di leptoni e neutrini, gluoni, fotoni, bosoni di gauge e bosoni di Higgs sono tutto ciò che predice, e ogni particella non è stata solo scoperta, ma ne sono state misurate anche le proprietà.

Di conseguenza, il modello standard è forse vittima del proprio successo. Le masse, gli spin, le vite, le forze di interazione e i rapporti di decadimento di ogni particella e antiparticella sono stati tutti misurati e concordano ogni volta con le previsioni del Modello standard. Ci sono enormi enigmi sul nostro universo e la fisica delle particelle non ci ha dato indicazioni sperimentali su dove o come potrebbero essere risolti.

The particles and antiparticles of the Standard Model have now all been directly detected, with the last holdout, the Higgs Boson, falling at the LHC earlier this decade. All of these particles can be created at LHC energies, and the masses of the particles lead to fundamental constants that are absolutely necessary to describe them fully. These particles can be well-described by the physics of the quantum field theories underlying the Standard Model, but they do not describe everything, like dark matter.

Le particelle e le antiparticelle del modello standard sono state rilevate direttamente, con l’ultimo blocco, il bosone di Higgs, che è caduto all’LHC all’inizio di questo decennio. Le particelle portano a costanti fondamentali che sono assolutamente necessarie per descriverle completamente. Queste particelle possono essere ben descritte dalla fisica delle teorie dei campi quantistici che stanno alla base del Modello Standard, ma non descrivono tutto, come la materia oscura. –  E. SIEGEL / OLTRE LA GALASSIA

Potrebbe quindi essere allettante presumere che la costruzione di un collisore di particelle più potente sarebbe un’inutile impresa. In effetti, questo potrebbe essere il caso. Il modello standard della fisica delle particelle ha previsioni esplicite per gli accoppiamenti che avvengono tra le particelleSe è vero che ci sono un certo numero di parametri che rimangono mal determinati al momento, è concepibile che non ci siano nuove particelle che un collisore di prossima generazione potrebbe rivelare.

La particella del modello standard più pesante è il quark top, che richiede circa 180 GeV di energia per essere creata. Il Large Hadron Collider può raggiungere energie di 14 TeV (circa 80 volte l’energia necessaria per creare un quark top), ma potrebbe non esserci nessuna nuova particella da scoprire a meno di non riuscire a raggiungere energie più grandi di 1.000.000 volte. Questa è la grande paura di molti: la possibile esistenza di un cosiddetto “deserto energetico” che si estende per molti ordini di grandezza.

There is certainly new physics beyond the Standard Model, but it might not show up until energies far, far greater than what a terrestrial collider could ever reach. Still, whether this scenario is true or not, the only way we'll know is to look. In the meantime, properties of the known particles can be better explored with a future collider than any other tool. The LHC has failed to reveal, thus far, anything beyond the known particles of the Standard Model.

C’è sicuramente nuova fisica oltre il Modello Standard, ma potrebbe non apparire fino a quando le energie saranno molto, molto più grandi di quelle che un collisore terrestre potrebbe mai raggiungere.Tuttavia, se questo scenario è vero o no, l’unico modo per saperlo è provare. Nel frattempo, le proprietà delle particelle conosciute possono essere esplorate meglio con un collisore futuro rispetto a qualsiasi altro strumento. L’LHC non è riuscito a rivelare, fino ad ora, nulla oltre le particelle conosciute del Modello Standard. –  UNIVERSE-REVIEW.CA

Ma è anche possibile che ci sia una nuova fisica presente su una scala modesta oltre la quale abbiamo già esplorato. Esistono molte estensioni teoriche al modello standard piuttosto generiche, in cui le deviazioni dalle previsioni del modello standard potrebbero essere rilevate da un collisore di nuova generazione.

Se vogliamo sapere qual è la verità sul nostro Universo, dobbiamo guardare, e ciò significa spingere le attuali frontiere della fisica delle particelle in un territorio inesplorato. In questo momento, la comunità scientifica sta discutendo tra più approcci, ognuno con i suoi pro e contro. Lo scenario da incubo, tuttavia, non è che cercheremo e non troveremo nulla: è questa lotta intestina e la mancanza di unità distruggerà per sempre la fisica sperimentale e non otterremo affatto un collisore di nuova generazione.

A hypothetical new accelerator, either a long linear one or one inhabiting a large tunnel beneath the Earth, could dwarf the sensitivity to new particles that prior and current colliders can achieve. Even at that, there's no guarantee we'll find anything new, but we're certain to find nothing new if we fail to try.

Un ipotetico nuovo acceleratore, sia uno lungo lineare che uno installato in un grande tunnel sotto la Terra, potrebbe sminuire la sensibilità alle nuove particelle che i collisori precedenti e attuali possono ottenere. Anche avendolo, non c’è alcuna garanzia che troveremo qualcosa di nuovo, ma siamo sicuri di non trovare nulla di nuovo se non ci proviamo. –  COLLABORAZIONE ILC

Quando si tratta di decidere quale collider costruire dopo, ci sono due approcci generici: un collisore di leptoni (dove elettroni e positroni vengono accelerati e fatti scontrare) e un collisore di protoni (dove i protoni vengono accelerati e fatti scontrare). I collisori di leptoni hanno questi vantaggi:

  • il fatto che i leptoni sono particelle puntuali, piuttosto che particelle composite,
  • Il 100% dell’energia degli elettroni in collisione con i positroni può essere convertita in energia per nuove particelle,
  • il segnale è pulito e molto più facile da estrarre,
  • e l’energia è controllabile, nel senso che possiamo scegliere di sintonizzare l’energia su un valore specifico e massimizzare la possibilità di creare una particella specifica.

I collisori di Leptoni, in generale, sono ottimi per gli studi di precisione e non ne abbiamo avuto uno all’avanguardia dal momento che LEP era operativo quasi 20 anni fa.

At various center-of-mass energies in electron/positron (lepton) colliders, various Higgs production mechanisms can be reached at explicit energies. While a circular collider can achieve much greater collision rates and production rates of W, Z, H, and t particles, a long-enough linear collider can conceivably reach higher energies, enabling us to probe Higgs production mechanisms that a circular collider cannot reach. This is the main advantage that linear lepton colliders possess; if they are low-energy only (like the proposed ILC), there is no reason not to go circular.

Alle varie energie del centro di massa nei collettori di elettroni / positroni (leptoni), vari meccanismi di produzione di Higgs possono essere raggiunti a energie esplicite. Mentre un collisore circolare può ottenere tassi di collisione e tassi di produzione molto più alti di particelle W, Z, H e t, un collisore lineare abbastanza lungo può raggiungere energie più elevate, permettendoci di sondare i meccanismi di produzione di Higgs che un collisore circolare non può raggiungere. Questo è il vantaggio principale dei collisori di leptoni lineari; se sono solo a bassa energia (come l’ILC proposto), non c’è motivo per non farli circolari. – H. ABRAMOWICZ ET AL., EUR. PHYS. J. C 77, 475 (2017)

È molto improbabile, a meno che la natura sia estremamente gentile, che un collisore di leptoni scoprirà direttamente una nuova particella, ma potrebbe essere la soluzione migliore per scoprire indirettamente la presenza di particelle al di fuori del Modello standard. Abbiamo già scoperto particelle come i bosoni W e Z, il bosone di Higgs e il quark top, ma un collisore di leptoni potrebbe produrli in grande abbondanza e attraverso una varietà di canali.

Più eventi di interesse creiamo, più profondamente possiamo sondare il Modello standard. Il Large Hadron Collider, ad esempio, sarà in grado di dire se Higgs si comporta in modo coerente con il modello standard fino a circa il livello dell’1%. In un’ampia serie di estensioni del modello standard, sono previste deviazioni di ~ 0,1% e il futuro collisore leptonico offrirà i migliori vincoli di fisica possibili.

The observed Higgs decay channels vs. the Standard Model agreement, with the latest data from ATLAS and CMS included. The agreement is astounding, and yet frustrating at the same time. By the 2030s, the LHC will have approximately 50 times as much data, but the precisions on many decay channels will still only be known to a few percent. A future collider could increase that precision by multiple orders of magnitude, revealing the existence of potential new particles.

I canali di decadimento di Higgs osservati rispetto all’accordo Modello standard, con gli ultimi dati di ATLAS e CMS inclusi. L’accordo è sbalorditivo e allo stesso tempo frustrante. Entro il 2030, LHC avrà circa 50 volte più dati, ma le precisioni su molti canali di decadimento saranno note solo per pochi punti percentuali. Un futuro collisore potrebbe aumentare quella precisione di più ordini di grandezza, rivelando l’esistenza di potenziali nuove particelle. – ANDRÉ DAVID, TRAMITE TWITTER

Questi studi di precisione potrebbero essere incredibilmente sensibili alla presenza di particelle o interazioni che non abbiamo ancora scoperto. Quando creiamo una particella, essa ha un certo insieme di rapporti di ramificazione, o probabilità che decadrà in una varietà di modi. Il modello standard prevede predizioni esplicite per tali rapporti, quindi se creiamo un milione o un miliardo o un trilione di particelle di questo tipo, possiamo sondare tali rapporti di ramificazione con precisioni senza precedenti.

Se si desiderano vincoli di fisica migliori, sono necessari più dati e dati migliori. Non sono solo le considerazioni tecniche che dovrebbero determinare quale collisore verrà dopo, ma anche dove e come ottenere il personale migliore, la migliore infrastruttura e supporto e dove è possibile creare una forte comunità di fisica sperimentale e teorica.

Ci sono due proposte di classi generali per un collisore di leptoni: un collisore circolare e un collisore lineare. I collisori lineari sono semplici: accelerano le particelle in linea retta e le fanno scontrare al centro. Con la tecnologia di accelerazione ideale, un collisore lineare lungo 11 km potrebbe raggiungere energie di 380 GeV: abbastanza per produrre W, Z, Higgs, o top in grande abbondanza. Con un collisore lineare di 29 km, è possibile raggiungere energie di 1,5 TeV e con un collider di 50 km, 3 TeV, anche se i costi aumentano enormemente per accompagnare lunghezze maggiori.

I raccoglitori lineari sono leggermente meno costosi dei collettori circolari per la stessa energia, perché puoi scavare un tunnel più piccolo per raggiungere le stesse energie e non subiscono perdite di energia a causa della radiazione di sincrotrone, consentendo loro di raggiungere energie potenzialmente più elevate. Tuttavia, i collettori circolari offrono un enorme vantaggio: possono produrre un numero molto maggiore di particelle e collisioni.

The Future Circular Collider is a proposal to build, for the 2030s, a successor to the LHC with a circumference of up to 100 km: nearly four times the size of the present underground tunnels. This will enable, with current magnet technology, the creation of a lepton collider that can produce ~10^4 times the number of W, Z, H, and t particles that have been produced by prior and current colliders.

The Future Circular Collider è una proposta per costruire, negli anni ’30, un successore del LHC con una circonferenza di 100 km: quasi quattro volte più grande delle attuali gallerie sotterranee. Ciò consentirà, con l’attuale tecnologia dei magneti, la creazione di un collisore leptonico in grado di produrre ~ 10 ^ 4 volte il numero di particelle W, Z, H e t prodotte dai collisori precedenti e attuali. – STUDIO DEL CERN / FCC

Mentre un collisore lineare potrebbe essere in grado di produrre da 10 a 100 volte più collisioni di un collisore leptonico della generazione precedente come LEP (dipendente dalle energie), una versione circolare può superarla facilmente: producendo 10.000 volte il numero di collisioni alle energie richieste per crea il bosone Z.

Sebbene i collisori circolari abbiano tassi di eventi sostanzialmente più elevati rispetto ai collisori lineari delle energie rilevanti che producono anche particelle di Higgs, iniziano a perdere il loro vantaggio sulle energie necessarie per produrre quark top e non possono andare oltre, dove i collisori lineari diventano dominanti.

Poiché tutti i processi di decadimento e produzione che si verificano in queste particelle pesanti si ridimensionano in base al numero di collisioni o alla radice quadrata del numero di collisioni, un collettore circolare ha il potenziale per sondare la fisica con molte volte la sensibilità di un collisore lineare.

La FCC-ee proposta, o lo stadio lepton del Future Circular Collider, potrebbe realisticamente scoperto prove indirette per qualsiasi nuova particella accoppiata a W, Z, Higgs o top quark con masse fino a 70 TeV: cinque volte l’energia massima del Large Hadron Collider.

Il rovescio della medaglia di un lepton è un collisore di protoni, che – a queste alte energie – è essenzialmente un collisore gluone-gluone. Questo non può essere lineare; deve essere circolare.

The scale of the proposed Future Circular Collider (FCC), compared with the LHC presently at CERN and the Tevatron, formerly operational at Fermilab. The Future Circular Collider is perhaps the most ambitious proposal for a next-generation collider to date, including both lepton and proton options as various phases of its proposed scientific programme.

La scala del futuro Circular Collider (FCC) proposto, confrontata con l’LHC attualmente al CERN e al Tevatron, già operativa al Fermilab. The Future Circular Collider è forse la proposta più ambiziosa per un collisore di nuova generazione fino ad oggi, comprese opzioni di lepton e protone come varie fasi del suo programma scientifico proposto. –  PCHARITO / WIKIMEDIA COMMONS

C’è davvero un solo sito adatto per questo: il CERN, poiché non solo ha bisogno di un nuovo, enorme tunnel, ma di tutte le infrastrutture delle fasi precedenti, che esistono solo al CERN. (Potrebbero essere costruiti altrove, come un sito in Asia, ma il costo sarebbe più alto che in un sito in cui esistono già infrastrutture come LHC e collettori precedenti come SPS.)

Proprio mentre l’LHC occupa attualmente il tunnel precedentemente occupato dal LEP, un collettore circolare di lepton potrebbe essere sostituito da un collider di protoni circolare di prossima generazione, come il proposto FCC-pp. Purtroppo, non è possibile eseguire simultaneamente un collider di protoni esplorativi e un collisore di lepton di precisione; devi smantellare uno per finire l’altro.

The CMS detector at CERN, one of the two most powerful particle detectors ever assembled. Every 25 nanoseconds, on average, a new particle bunch collides at the center-point of this detector. A next-generation detector, whether for a lepton or proton collider, may be able to record even more data, faster, and with higher-precision than the CMS or ATLAS detectors can at present.

Il rivelatore CMS al CERN, uno dei due più potenti rilevatori di particelle mai assemblati. Ogni 25 nanosecondi, in media, un nuovo grappolo di particelle collide al centro di questo rivelatore. Un rilevatore di prossima generazione, sia per un lepton che per un collisore di protoni, può essere in grado di registrare ancora più dati, più velocemente e con una precisione più elevata rispetto ai rilevatori CMS o ATLAS al momento. – CERN

È molto importante prendere la decisione giusta, poiché non sappiamo quali segreti la natura riserva al di là delle frontiere già esplorate. Passare a energie più elevate sblocca il potenziale per nuove scoperte dirette, mentre andando verso precisioni più elevate e statistiche più grandi potrebbero fornire prove indirette ancora più forti per l’esistenza di nuova fisica.

I collisori lineari della prima fase avranno un costo compreso tra 5 e 7 miliardi di dollari, compreso il tunnel, mentre un collisore di protoni di quattro volte il raggio dell’LHC, con magneti due volte più forti, 10 volte il tasso di collisione e calcolo e criogenia di prossima generazione potrebbe costare un totale di fino a $ 22 miliardi, offrendo un grande salto rispetto al LHC mentre LHC era sopra il Tevatron. Qualcosa potrebbe essere risparmiato costruendo il collettore circolare di lepton e protoni uno dopo l’altro nello stesso tunnel, che essenzialmente fornirebbe un futuro per la fisica delle particelle sperimentali dopo che l’LHC esaurirà la sua utilità alla fine degli anni ’30.

La cosa più importante da ricordare in tutto questo è che non stiamo semplicemente continuando a cercare la supersimmetria, la materia oscura o qualsiasi particolare estensione del Modello Standard. Abbiamo un sacco di problemi e di enigmi che indicano che ci deve essere nuova fisica oltre ciò che attualmente comprendiamo, e la nostra curiosità scientifica ci costringe a cercare. Nella scelta di quale macchina costruire, è fondamentale scegliere la macchina più performante: quella con il maggior numero di collisioni alle energie a cui siamo interessati a sondare.

Indipendentemente da quali progetti specifici la comunità sceglierà, ci saranno dei compromessi. Un collisore lineare di leptoni può sempre raggiungere energie più alte di quelle circolari, mentre uno circolare può sempre creare più collisioni e andare a precisioni più alte. È in grado di raccogliere un numero di dati pari a un decimo di tempo e di individuare effetti più sottili, al costo di una portata energetica inferiore.

This diagram displays the structure of the standard model (in a way that displays the key relationships and patterns more completely, and less misleadingly, than in the more familiar image based on a 4x4 square of particles). In particular, this diagram depicts all of the particles in the Standard Model (including their letter names, masses, spins, handedness, charges, and interactions with the gauge bosons: i.e., with the strong and electroweak forces). It also depicts the role of the Higgs boson, and the structure of electroweak symmetry breaking, indicating how the Higgs vacuum expectation value breaks electroweak symmetry, and how the properties of the remaining particles change as a consequence. Note that the Z boson couples to both quarks and leptons, and can decay through neutrino channels.

Questo diagramma mostra la struttura del modello standard (in un modo che mostra le relazioni e gli schemi chiave in modo più completo e meno fuorviante rispetto all’immagine più familiare basata su un quadrato 4×4 di particelle). In particolare, questo diagramma descrive tutte le particelle nel Modello Standard (inclusi i loro nomi di lettere, masse, spin, mani, cariche e interazioni con i bosoni di gauge: cioè, con le forze forti ed elettrodebole). Descrive anche il ruolo del bosone di Higgs e la struttura della rottura della simmetria elettrodebole, indicando come il valore di aspettativa del vuoto di Higgs rompa la simmetria elettrodebole e come le proprietà delle restanti particelle cambino di conseguenza. Si noti che il bosone Z si accoppia ai due quark e ai leptoni e può decadere attraverso i canali del neutrino. – LATHAM BOYLE E MARDUS DI WIKIMEDIA COMMONS

Avrà successo? Indipendentemente da ciò che troviamo, questa risposta è inequivocabilmente sì. Nella fisica sperimentale, il successo non equivale a trovare qualcosa, come alcuni potrebbero credere erroneamente. Invece, avere successo significa conoscere qualcosa, post-esperimento, che non sapevi prima di aver fatto l’esperimento. Per andare oltre le attuali frontiere, vorremmo idealmente sia un leptone che un collisore di protoni, alle più alte energie e ai tassi di collisione che possiamo raggiungere.

Non c’è dubbio che le nuove tecnologie e gli spin-off verranno da qualsiasi collisore o collisore, ma non è questo il motivo per cui lo facciamo. Stiamo cercando i segreti più profondi della natura, quelli che rimarranno inafferrabili anche dopo che il Large Hadron Collider avrà finito la sua attività. Abbiamo le capacità tecniche, il personale e le competenze per realizzarlo a portata di mano. Tutto ciò di cui abbiamo bisogno è la volontà politica e finanziaria, come civiltà, di cercare le verità ultime sulla natura.

Fonte: Forbes

La ‘bufala’ del cratere lèttone

0
Migliori casinò non AAMS in Italia

Tutto iniziò domenica 25 ottobre 2009, quando gli abitanti, forse complici, di un villaggio della zona paludosa di Mazsalaca, nel nord del Paese baltico in prossimità del confine con l’Estonia, ritrovarono un cratere largo una decina di metri e profondo 5.

I residenti raccontarono di aver chiamato i vigili del fuoco per segnalare delle fiamme sviluppatesi in un campo. A visitare la zona dell’impatto fu anche uno studente, Ancis Steinbergs, che riferì dell’oggetto infuocato caduto in un campo nei pressi della città di Mazsalaca.

All’epoca dei fatti si parlò di un probabile meteorite o della caduta di un satellite artificiale. Il presunto cratere mostrava al centro una grossa traccia di terra bruciata, ma i primi rilievi non confermarono né smentirono tale ipotesi. La notizia fu data anche da un’agenzia che riportava le parole di un’esperta che asseriva che nella zona non era caduto nessun meteorite perché non era stata rilevata alcuna traccia di radioattività, l’esperta forse faceva confusione, ammesso esistesse veramente, i meteoriti non sono radioattivi.

Tornando a Steinberg, lo studente quel giorno realizzò un video in cui lui, la sua fidanzata e un altro studente discutevano tra di essi animatamente quando scoprirono una massa in fiamme sul fondo del cratere stesso. Il video tremolante mostra gli studenti visibilmente emozionati. Lo stesso video in seguito venne pubblicato su un sito di notizie che attirò l’attenzione di tantissime persone. Secondo quanto raccontato, la proprietaria del terreno avrebbe chiesto l’equivalente di 2 dollari per visitare la zona dell’impatto.

Il sito del cratere venne visitato da uno scienziato, Uldis Nulle, del Centro Lettone per l’ambiente, la geologia e la meteorologia, che inizialmente appoggiò la tesi del cratere causato da un meteorite. Cambiò, però, idea quando visitò il sito alla luce del giorno concludendo che il cratere era falso.

Anche altri scienziati confermarono la bufala, uno di essi, Andris Karpovics, uno studente di geologia presso l’ Università della Lettonia, descrisse il cratere come “un semplice buco con una sostanza versata dentro“. Parlando con i giornalisti, raccontò che il cratere sembrava scavato con dei badili e affermò che le fiamme potevano essere state causate dalla termite, un materiale esplosivo composto da alluminio, ferro e zolfo.

Il cratere sembrava anche più piccolo di quanto raccontato inizialmente, largo una decina di metri e profondo circa tre. A propendere per il falso fu anche il dottor Ilgonis Vilks, presidente del consiglio scientifico dell’Istituto di astronomia dell’Università della Lettonia, “È molto deludente, ero pieno di speranza venendo qui, ma sono certo che non è un meteorite“.

Il dott. Vilks fece inoltre notare che all’interno del cratere artificiale c’era erba verde, con solo una piccola area sul fondo bruciata, e nessun materiale espulso o frammenti di meteorite sul terreno circostante. Oltre al cratere abbiamo da parte di Viks anche la descrizione del presunto meteorite, una palla di argilla che bruciava.

Vennero presi anche dei campioni da esaminare. Dainis Ozols, naturalista, dopo avere esaminato la scena “del delitto”, affermò che probabilmente qualcuno aveva bruciato un composto pirotecnico sul fondo di un buco creato artificialmente per creare l’illusione di un cratere da meteoriti. Anche la polizia avverti della possibilità di avviare un’indagine per capire chi fossero i responsabili della burla.

Caroline Smith, curatrice di meteoriti al Natural History Museum di Londra, dichiarò che le immagini e le riprese video del cratere in fiamme indicavano che non si trattava di un cratere causato da un meteoriti: i meteoriti che non vanno in fiamme quando colpiscono la Terra. Smith sottolineò che non c’erano stati avvistamenti di palle di fuoco nel cielo,  che sarebbero stati inevitabili se il “meteorite” fosse stato reale.

Il giallo del cratere non durò a lungo. Come visto, venne smontato subito da alcuni scienziati che lo classificarono come una montatura, una burla e infatti lo era.

La burla del presunto impatto era stata organizzata dalla compagnia telefonica svedese Tele2, presente in tutta Europa, per attirare l’attenzione di tutto il mondo proprio sul Paese baltico, come venne spiegato dal direttore commerciale della compagnia Janis Sprogis.

La trovata riuscì e per diverse ore la Lettonia rimase al centro dell’attenzione mondiale, tutti i giornali parlavano del misterioso cratere. Ma ci fu chi non gradì lo scherzo, il governo di Riga.

Il ministro dell’Interno Linda Murniece condannò il fatto che costò alle casse nazionali del danaro che poteva certamente essere speso in altro modo.

Fonti: Wikipedia; Focus.it