venerdì, Aprile 18, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1292

L’origine della vita e l’esperimento di Urey e Miller

0
Migliori casinò non AAMS in Italia

Uno scienziato russo, Alexander Oparin (1894-1980) sviluppò la prima teoria sull’origine della vita. Secondo Oparin, la vita sarebbe comparsa sul nostro pianeta a partire da una lunga catena di eventi che prende il nome di evoluzione chimica. L’ambiente primitivo sede dell’evoluzione chimica aveva alcune proprietà fondamentali:  l’ossigeno libero era quasi del tutto assente nell’atmosfera che, però, abbondava di idrogeno, mentre sia l’atmosfera che le acque presentavano importanti percentuali di azoto e carbonio.

Oltre a questi fondamentali “mattoncini”, sul nostro pianeta non mancava una fonte di energia che si manifestava sotto forma di calore, scariche elettriche, radioattività e radiazioni provenienti dal Sole.

Secondo Oparin in tali condizioni, dai gas dell’atmosfera si sarebbero potute formare grandi quantità di molecole complesse, che in seguito si sarebbero raccolte nei mari e nei laghi del pianeta dando origine a un «brodo primordiale».

Un’altro elemento determinante è stato certamente il tempo, con il suo scorrere le molecole sarebbero diventate sempre più numerose e sempre più concentrate cosi da formare aggregati sempre più complessi.

L’evoluzione chimica, in seguito, avrebbe ceduto il passo all’evoluzione prebiotica con l’apparizione di minuscoli sistemi detti coacervati, forse il punto di partenza del mondo vivente di oggi. Oparin pubblicò la sua ipotesi nel 1922, ma la comunità scientifica non gli diede molto peso.

Passarono oltre 30 anni e nel 1953 un giovane chimico americano, Stanley Miller, propose al suo professore Harold Urey un esperimento per verificare l’ipotesi del biochimico russo Alexander Oparin.

Miller e Urey utilizzarono il Metano (CH4), Ammoniaca (NH3) ed Idrogeno (H2) in un contenitore di vetro di forma sferica che conteneva acqua calda. Queste sostanze erano ritenute presenti nella primitiva atmosfera della Terra.

Per una settimana Urey e Miller sottoposero il contenitore contenente l’acqua e le sostanze a scariche elettriche per simulare fulmini e radiazioni ultraviolette che probabilmente facevano parte dell’ambiente primordiale del nostro pianeta.

Una volta estratta la miscela, i due scienziati trovarono numerose sostanze organiche, tra di esse c’erano anche gli “amminoacidi” i mattoni della materia vivente.

Sulla Terra le reazioni chimiche ebbero centinaia di milioni di anni di tempo per rendere possibile la formazione di ulteriori sostanze. Gli esperimenti effettuati hanno sempre avuto successo in assenza di ossigeno, che ha la capacità di distruggere i composti organici.

L’ossigeno sulla terra comparve molto tardi, circa 2,5 miliardi di anni dalla formazione.

L’ossigeno venne prodotto della fotosintesi di organismi unicellulari. Simulazioni computerizzate sembrano dimostrare che esperimenti come quelli svolti da Miller ed Urey, se prolungati per almeno diecimila anni, potrebbero effettivamente produrre rudimentali molecole autoreplicanti, capaci di evolvere mediante selezione naturale.

L’esperimento di Urey e miller, rivisitato dai membri del Carnegie Institution della NAI di Washington, l’Università dell’Indiana e i team del Goddard Space Flight Center della NASA ha dato risultati inaspettati. Si è scoperto che l’esperimento di Urey e Miller ebbe due esperimenti “fratelli” che non furono mai pubblicati. Gli esperimenti, una volta recuperate le fiale sono stati rivisti con le moderne tecnologie una decina di anni fa, nel 2008.

Uno degli esperimenti inediti produsse una varietà più ampia di molecole organiche rispetto all’esperimento che rese famoso Miller.

L’esperimento inedito utilizzava un aspiratore che aumentava il flusso d’aria nel dispositivo contribuendo a creare un maggior numero di reazioni. Gli autori del report notano che negli esperimenti mai pubblicati c’erano più amminoacidi (22) e ammine (5) rispetto a quelli noti, che contavano meno amminoacidi (14) e lo stesso numero di ammine.

Forse l’utilizzo dell’aspiratore aveva migliorato e intensificato le reazioni, ma perché le fiale non vennero utilizzate per la pubblicazione?

Non lo sappiamo, Miller è morto nel 2007 e forse, si può solo speculare sul fatto ritenendo che avrebbe usato gli esperimenti fatti in maniera più semplice.

Fonti:

Il materiale “meraviglia” che cresce sugli alberi

0
Migliori casinò non AAMS in Italia

Per dare forma al futuro, i materiali di prossima generazione non devono necessariamente essere esotici come isolanti e metamateriali topologici. I ricercatori stanno studiando il potenziale della nanocellulosa, una forma nanostrutturata di cellulosa che può essere ottenuta dall’umile truciolo di legno, per applicazioni che vanno dai dispositivi microfluidici alle batterie ricaricabili.

Un team guidato da Liangbing Hu all’Università del Maryland a College Park ha riferito all’incontro autunnale del 2019 della Material Research Society di Boston che un materiale che combina la nanocellulosa con la grafite ha proprietà meccaniche che superano quelle degli acciai e di altri materiali strutturali consolidati. Il composito riciclabile potrebbe offrire un’alternativa ecologica per la costruzione di veicoli leggeri, aerei e armature.

Hu ha presentato una panoramica della sua ricerca di sostituzione di materiali tradizionali con materiali sostenibili a base di nanocellulosa di legno. Le fibre di cellulosa che compongono la nanocellulosa hanno diametri compresi tra 5 e 20 nm e lunghezze di diversi micrometri. Sono tipicamente preparati dalla polpa di legno usando metodi meccanici che strappano le fibre di legno della polpa in baffi su scala nanometrica.

Il legno e i suoi materiali derivati ​​hanno molto da offrire“, afferma Hu, osservando che i materiali a base di legno sono riciclabili, biocompatibili e biodegradabili. “Queste sono proprietà fantastiche, ma per avere successo con questi materiali, dobbiamo dimostrare che le loro prestazioni sono superiori a quelle dei materiali tradizionali”, aggiunge.

Usando la nanocellulosa, il team di Hu ha recentemente dimostrato che è possibile produrre un legno trasparente che potrebbe sostituire il vetro e una nanocarta ad alta resistenza che potrebbe sostituire la plastica. Nel nuovo lavoro, dimostrano di aver imitato le proprietà strutturali dell’acciaio.

I materiali strutturali devono la loro forza alla presenza di forti legami chimici primari tra i loro atomi: legami metallici in metalli e leghe metalliche, legami covalenti carbonio-carbonio nelle fibre di carbonio e legami ionici in ceramica. La forza di questi legami, tuttavia, è sia una benedizione che una maledizione. Per manipolare, fabbricare e riciclare questi materiali, questi legami devono essere spezzati e riformati, il che richiede alte temperature consumando grandi quantità di energia, portando a un costo sostanziale e un forte impatto ambientale.

La strategia di progettazione dei materiali di Hu e dei suoi colleghi sfrutta legami chimici secondari, come i legami idrogeno che sono abbondanti in materiali organici come la nanocellulosa.

Mentre l’energia necessaria per creare o spezzare un singolo legame di idrogeno è molto più piccola di quella di un legame chimico primario, le reti di questi legami possono rendere un materiale estremamente forte, qualcosa che il team sapeva dal loro precedente lavoro sulla nanocarta di cellulosa.

La loro nanocarta è più forte e più resistente della carta normale di vari ordini di grandezza, grazie all’abbondante numero di legami secondari di idrogeno che si formano tra le nanofibre di cellulosa della carta e grazie alla facilità e alla velocità con cui questi legami si riformano quando vengono rotti.

Per il materiale simile all’acciaio, il team ha sfruttato questi legami per “attaccare” la cellulosa alla grafite, che è dura ma troppo fragile per essere utilizzata nelle strutture portanti. Per fabbricare un composito di grafite-nanocellulosa, hanno preparato una sospensione altamente concentrata di acqua, scaglie di grafite e nanocellulosa a temperatura ambiente. Hanno poi stampato questa miscela in un metro grande, 2 0 – μ m strati sottili. Gli strati erano flessibili – potevano essere piegati in un raggio di 2 mm senza rompersi – e più strati potevano essere stampati a caldo in fogli più spessi.

Le misurazioni meccaniche mostrano che il materiale è eccezionalmente resistente. I fogli stampati sono più resistenti dell’acciaio inossidabile e 6 volte più leggeri. La resistenza specifica del materiale (definita come la resistenza divisa per la densità del materiale) è superiore a quella dei materiali utilizzati nelle applicazioni strutturali, come acciai, leghe di alluminio e leghe di titanio.

I ricercatori hanno caratterizzato il composito per rivelare la struttura microscopica dietro le sue proprietà meccaniche, usando una combinazione di microscopia a forza atomica, microscopia elettronica a trasmissione e simulazioni di dinamica molecolare. La loro analisi suggerisce che migliaia di nanofibre di cellulosa si attaccano a ciascuno dei fiocchi di grafite, le cui dimensioni sono comprese in centinaia di micrometri, attraverso il legame idrogeno. Le fibre collegano anche diversi fiocchi di grafite. “È come un muro di mattoni, in cui i fiocchi di grafite sono i mattoni e le nanofibre di cellulosa sono il mortaio che incolla i mattoni insieme”, afferma Yubing Zhou, postdottorato del gruppo Hu che ha guidato lo studio.

Hu cita i numerosi vantaggi ambientali del composito. Il suo processo di fabbricazione non comporta l’uso di sostanze chimiche aggressive e il composito può essere facilmente riciclato: un semplice processo di taglio e agitazione può ritrasformare il materiale nella sospensione originale. “Le proprietà del materiale sono eccezionali. Ora non ci resta che trovare modi più economici per realizzarlo e ampliare il processo di produzione“, ha concluso Hu.

Fonte: https://physics.aps.org/articles/v12/142

L’economia circolare salverà il mondo?

0
Migliori casinò non AAMS in Italia

Secondo tanti esperti ci apprestiamo a diventare una civiltà spaziale e se vogliamo che la nostra civiltà sia veramente duratura e equa dobbiamo applicare un nuovo concetto all’economia. Il concetto applicato alla base di questa nuova economia chiamata “economia circolare” è noto da oltre 50 anni.

Nella sua forma ideale, l’economia circolare, secondo la definizione della Ellen MacArthur Foundation, «è un termine generico per definire un’economia pensata per potersi rigenerare da sola. In un’economia circolare i flussi di materiali sono di due tipi: quelli biologici, in grado di essere reintegrati nella biosfera, e quelli tecnici, destinati ad essere rivalorizzati senza entrare nella biosfera».

Oggi il nostro sistema economico consiste nell’estrazione di una risorsa, processare tale risorsa per fabbricare dei prodotti finiti, che spesso vengono utilizzati per un periodo piuttosto breve, per poi essere gettati con uno scarso, se non nullo riutilizzo.

Da decenni, generiamo una grande quantità di rifiuti che non riutilizziamo se non in minima parte, rifiuti che occupano spazio, inquinano e sono dannosi per l’ambiente e per la nostra salute. Da questo punto di vista sembra quanto mai opportuno avviare al più presto un tipo di economia circolare.

Ed Morgan, un ricercatore della Griffith University in Australia, che lavora su clima, risorse naturali e pianificazione del governo risponde ad alcune domande: come mai buttiamo cosi tanta spazzatura? Perché molti dei prodotti che compriamo sono imballati in carta vergine?

Morgan ha affermato: “Penso che sia possibile, ma difficile, immaginare una società sostenibile perché significa uno spostamento dello stile di vita e dei sistemi economici, in cui siamo attualmente così bloccati che non possiamo immaginare alternative“.

Il sistema economico che regge la nostra civiltà non è certamente sostenibile ancora a lungo e non basta gettare i rifiuti negli appositi cestini o fare la raccolta differenziata.

Non dobbiamo guardare lontano per trovare esempi chiari che dimostrino come la nostra attuale disposizione di gestione delle risorse in modo lineare sia inadeguata, che milioni di tonnellate dei prodotti del nostro riciclaggio venivano semplicemente spediti in Cina. Siamo di nuovo punto e a capo: cosa dobbiamo fare con tutti questi rifiuti che continuiamo ad ammassare semplicemente spostandoli e contribuendo cosi a inquinare ulteriormente?

Cambiare il nostro sistema lineare è una sfida immensa, ma qualcuno ci sta già provando.

Ed Morgan ha spiegato al sito ScienceAlert: “Ci sono molti modi per renderci più sostenibili, molti dei quali non abbiamo sfruttato. Significa uno spostamento dello stile di vita per molti. Ma, e penso che questa sia la chiave, non significa necessariamente un” arretramento “cambiamento“.

Torna a ciò che è realmente importante per noi. Ricordo una persona che ho sentito parlare dire quando si tratta di esso, quello che vogliono è il tempo con i loro figli e un bicchiere di vino. Dovremmo essere in grado di farlo in modo sostenibile“.

Si possono fare diversi esempi, i contenitori di vetro si trovano regolarmente in vendita e il vetro è uno dei materiali più semplici da riciclare, lo si può fondere molto facilmente e ricavare altri oggetti. Peccato che in molti posti questo non si faccia, sembra essere più economico importare nuovi oggetti invece che riciclarli.

Esiste un posto in Canada chiamato The Beer Store che raccoglie e riutilizza le sue bottiglie di birra dal 1927. L’azienda ha uno dei più alti tassi di recupero in Nord America: il 99% delle sue bottiglie viene restituito e riutilizzato almeno 15 volte prima che si danneggi per essere poi riciclato nuovamente e nascere a nuova vita in un’altro oggetto di vetro. Riciclare costa meno energia e meno risorse rispetto alla fabbricazione di un oggetto nuovo. In questo modo è la società stessa che gestisce i suoi rifiuti valorizzandoli.

Si potrebbe ragionare come Steffen Lehmann, architetto ambientale dell’Università del Nevada, a Las Vegas, sta immaginando microclimi ed edifici sostenibili. Urban Nexus, un progetto su cui Lehmann sta lavorando, sta cercando di raggiungere un obiettivo entusiasmante: utilizzare lo spreco di un sistema per alimentare un altro.

La nostra acqua, energia, cibo e rifiuti sono generalmente visti come settori separati, ma Lehmann spiega che non è così. In un mondo ideale gli sprechi di un settore sarebbero confluiti nel successivo per essere utilizzati come risorsa.

È molto importante comprendere l’interconnessione e il nesso dei vari settori attualmente separati“, spiega.

Le città hanno una governance basata sulla separazione di questi settori – ad esempio, le persone che gestiscono le risorse idriche non parlano con le persone che gestiscono i rifiuti nell’amministrazione. Un primo passo è avvicinare questi settori diversi ma interconnessi“.

In un articolo pubblicato sulla rivista City, Culture and Society nel 2017, Lehmann dimostra come le acque reflue che inquinavano le insenature vicine in una piccola città nelle Filippine sono state dirottate con successo in un sistema che produce biogas e fertilizzanti. Questo approccio non solo ha bonificato l’ecosistema locale, ma ha anche fornito alla città un prodotto utile da utilizzare in altre attività economiche.

È impossibile ottenere zero sprechi o zero emissioni, perché ci sono leggi di fisica e chimica che dobbiamo seguire“, spiega Anthony Halog, un ricercatore di ecologia e bioeconomia all’Università del Queensland.

Ma perché ci prendiamo la briga di farlo? Penso che sia meglio fare qualcosa. Andare in quella direzione – verso zero sprechi e zero emissioni“.

Occorre un grande sforzo affinché quello che produciamo duri più a lungo, sia riparabile e riciclabile quando non può essere più utilizzato, in futuro i nostri sistemi industriali e le nostre città saranno diverse e utilizzeranno i propri rifiuti in modo reciproco. Afferma Halog: “Se parliamo di città, parliamo di prodotti, parliamo di paesi, dobbiamo davvero guardare in modo sistemico. Perché altrimenti è solo un approccio di Band-Aid“.

L’economia circolare ci potrebbe aiutare a uscire dal circolo vizioso costruendo una nuova economia su larga scala per difendere e preservare il nostro pianeta, il suo ecosistema e le risorse il più a lungo possibile. La Terra è come una nave generazionale e le sue risorse sono limitate, se la inondiamo di rifiuti presto o tardi ci presenterà il conto.

Fonte: Science Alert

Dove sono tutti quanti #4: Il cuore della Terra

0
Migliori casinò non AAMS in Italia

 

Le nostre speculazioni per dare una risposta al paradosso di Fermi, ovvero perché in un universo cosi sterminato, popolato da miliardi di galassie a loro volta con centinaia di miliardi di stelle e pianeti, ancora non ci sia stato alcun contatto o prova di altra vita evoluta, ci portano a soffermarci brevemente sulle caratteristiche molto “speciali” del nostro pianeta.

L’evoluzione della vita sulla Terra non dipende esclusivamente dall’energia che proviene dalla nostra stella, ma anche dal calore generato nel centro del pianeta.
Conosciamo direttamente soltanto una ventina di chilometri del raggio terrestre (la distanza che separa un punto della superficie con il centro del pianeta) lungo 6371 chilometri.

Se siamo riusciti a ipotizzare un modello credibile della composizione del nucleo terrestre lo dobbiamo a sofisticati ed indiretti metodi di indagine come l’invio nel sottosuolo di onde elastiche, capaci cioè di attraversare rocce e materiali. Studiando come queste onde vengono riflesse o rifratte siamo riusciti a farci un’idea piuttosto chiara della conformazione interna del globo terrestre.

Sappiamo che il nucleo terrestre è essenzialmente diviso in nucleo esterno e nucleo interno.

Il primo, liquido, è composto principalmente da ferro (80%) e nichel ed è caratterizzato da una temperatura di 3000 °C, una densità di 9,3 g/cm³ e una pressione di 1400 kbar, secondo alcune accreditate teorie sarebbe la causa dell’origine del campo geomagnetico terrestre, basato sul modello della geodinamo.

Il nucleo interno, invece, è viscoso, composto quasi esclusivamente di ferro, con un raggio di circa 1250 km, ha una temperatura attorno ai 5400° C, una densità di 13 g/cm³ e una pressione di 3300-3600 kbar. Probabilmente in queste particolari condizioni geotermiche il ferro è presente allo stato cristallino.

Il cuore della Terra genera, quindi, per decadimento radioattivo, un calore che dal nucleo sale verso la superficie. Il calore sale dal nucleo al mantello terrestre uno degli involucri concentrici che costituiscono la Terra. Il mantello ha una viscosità molto elevata ed uno spessore di quasi 3.000 km.

A causa della differenza di temperatura fra la superficie della Terra e il nucleo esterno e della capacità delle rocce cristalline, sottoposte ad alta pressione e temperatura, di subire deformazioni viscose nel corso di milioni di anni, si crea una circolazione convettiva di materiale nel mantello.

Questa corrente che prende il nome di cella convettiva è il fenomeno alla base della deriva dei continenti.

La deriva dei continenti è stata essenziale per la “speciazione” ovvero il fenomeno per il quale si formano nuove specie viventi partendo da quelle esistenti.

In altri termini la deriva dei continenti è stata essenziale per un forte sviluppo della biodiversità, separando ed isolando grandi segmenti di superficie terrestre ha infatti consentito l’evoluzione di nuove specie viventi.

Come se non bastasse, la presenza di miriadi di vulcani attivi è stata indispensabile per consentire il mantenimento per oltre 3 miliardi di anni di acqua allo stato liquido.

Per ottenere questo risultato è necessario infatti un’ottimale presenza di anidride carbonica nell’atmosfera, tale da provocare il cosiddetto effetto serra naturale che impedisce una dispersione eccessiva nello spazio della radiazione infrarossa proveniente dal sole.
Senza questa protezione la temperatura media della Terra che è di circa 15° centigradi sarebbe precipitata a -18° con perniciosi risultati per lo sviluppo della vita.

Insomma, anche il nostro pianeta ha condizioni molto particolari che lo hanno reso un posto estremamente favorevole allo sviluppo della vita. Le sue caratteristiche peculiari non finiscono certo nel suo “cuore”, in un prossimo articolo, vedremo il ruolo essenziale giocato dall’atmosfera.

Gravità dell’antimateria e universo – parte terza

0
Migliori casinò non AAMS in Italia

(leggi la Parte 1 e la Parte 2)

Vuoto quantico e dipoli gravitazionali virtuali 

Esiste un modo sottile per un forte impatto gravitazionale dell’antimateria in un universo dominato dalla materia.

Invece dell’antimateria nascosta nei vuoti cosmici (che è la pietra miliare di Dirac-Milne Cosmology e Lattice Universe), l’impatto dell’antimateria può provenire dal vuoto quantistico che contiene lo stesso numero di particelle e antiparticelle virtuali.

Storicamente, questo è il primo paradigma proposto, ma lo presentiamo come l’ultimo per ragioni pedagogiche.

È noto che il vuoto quantico e la materia immersi in esso interagiscono attraverso interazioni elettromagnetiche, forti e deboli. La domanda aperta è se: ci sono anche interazioni gravitazionali tra il vuoto quantistico e la materia immersa?

Il cuore del paradigma è la seguente ipotesi : (1) Per loro natura, le fluttuazioni del vuoto quantistico sono dipoli gravitazionali virtuali. A proposito, la motivazione per questa ipotesi deriva dalla domanda su qual è la soluzione più semplice possibile al problema della costante cosmologica.

Sappiamo che la carica elettrica del vuoto quantistico è zero poiché particelle virtuali e antiparticelle (che hanno la carica elettrica opposta e fanno un dipolo elettrico) appaiono sempre in coppia. Di conseguenza, è ovvio che la carica gravitazionale del vuoto quantistico sarebbe zero (cioè il vuoto quantistico sarebbe privo del problema della costante cosmologica) se particelle e antiparticelle hanno carica gravitazionale di segno opposto. Naturalmente, non sappiamo se questa soluzione logicamente più semplice e la vera soluzione fisica al problema della costante cosmologica siano le stesse.

fig1 1
figura 1 – Un dipolo gravitazionale virtuale è definito in analogia con un dipolo elettrico: due cariche gravitazionali del segno opposto (𝑚𝑔> 0, 𝑚𝑔 + 𝑚 ̅𝑔 = 0) a una distanza 𝑑 inferiore alla corrispondente lunghezza d’onda Compton ridotta ƛ𝑔. Si noti che l’esistenza e l’impatto dei dipoli elettrici virtuali sono ben stabiliti

Secondo l’ipotesi di cui sopra, una fluttuazione quantistica del vuoto è un sistema di due cariche gravitazionali (vedi una figura 1 molto schematica) del segno opposto; di conseguenza, la carica gravitazionale totale di una fluttuazione del vuoto è zero, ma ha un momento di dipolo gravitazionale diverso da zero.

L’entità della carica gravitazionale, mentre, il vettore 𝒅 è diretto dall’antiparticella alla particella, ha un’intensità uguale alla distanza tra di loro. La disuguaglianza deriva dal fatto che la dimensione di una fluttuazione quantistica è inferiore alla lunghezza d’onda Compton ridotta.

Se esistono dipoli gravitazionali, la densità di polarizzazione gravitazionale 𝑷𝑔, cioè il momento di dipolo gravitazionale per unità di volume, può essere attribuita al vuoto quantistico. È ovvio che l’entità della densità di polarizzazione gravitazionale 𝑷𝑔 soddisfa la disuguaglianza 0 ≤ | 𝑷𝒈 | ≤ 𝑃𝑔𝑚𝑎𝑥 dove 0 corrisponde agli orientamenti casuali dei dipoli, mentre la magnitudine massima 𝑃𝑔𝑚𝑎𝑥 corrisponde al caso di saturazione (quando tutti i dipoli sono allineati con il campo esterno).

Il valore 𝑃𝑔𝑚𝑎𝑥 deve essere una costante universale correlata alle proprietà gravitazionali del vuoto quantistico.

fig2
Figura 2 – Presentazione schematica di dipoli gravitazionali virtuali nel vuoto quantico: (a) dipoli gravitazionali orientati casualmente (in assenza di un campo esterno); (b) Alone di dipoli gravitazionali orientati non casuali attorno a un corpo con massa barionica 𝑀𝑏.

Se il campo gravitazionale esterno è zero, il vuoto quantistico può essere considerato come un fluido di dipoli gravitazionali orientati casualmente (Figura 2a). In questo caso tutto è uguale a zero: la carica gravitazionale totale, la densità di carica gravitazionale e la densità di polarizzazione gravitazionale 𝑷𝑔.

Naturalmente, un tale vuoto non è una sorgente di gravitazione (si noti ancora che questa è la soluzione più semplice possibile al problema della costante cosmologica). Tuttavia, l’orientamento casuale dei dipoli virtuali può essere interrotto dal campo gravitazionale della materia del Modello standard immerso. Corpi massicci (particelle, stelle, pianeti, buchi neri …) ma anche sistemi a molti corpi come le galassie sono circondati da un alone invisibile di vuoto quantistico polarizzato gravitazionalmente, cioè una regione di orientamento non casuale di dipoli gravitazionali virtuali.

Mentre il comportamento delineato di un fluido di dipoli gravitazionali orientati casualmente è ovvio per dipoli gravitazionali permanenti, se non si ha familiarità con il vuoto quantistico, ci si potrebbe chiedere se è corretto anche per dipoli virtuali di breve durata.

Fortunatamente, il fenomeno della polarizzazione elettrica del vuoto quantistico è ben radicato nell’elettrodinamica quantistica e ciò rende molto plausibile un’analoga polarizzazione gravitazionale del vuoto quantistico. Più precisamente, l’elettrodinamica quantistica (QED) è la nostra prima teoria dei campi quantistici e il vuoto quantistico (come parte intrinseca del QED) è una delle più grandi scoperte nella storia della scienza.

Uno dei fenomeni più importanti è la sua polarizzazione elettrica; in particolare, lo screening di una carica elettrica da parte dei dipoli elettrici virtuali circostanti. È immediatamente ovvio (per chiunque abbia familiarità con la polarizzazione elettrica del vuoto quantistico) che possano esistere anche altri tipi di polarizzazione.

La polarizzazione gravitazionale del vuoto quantistico è evidente se le sue fluttuazioni sono dipoli gravitazionali virtuali (definiti in piena analogia con i dipoli elettrici).

La variazione spaziale della densità di polarizzazione gravitazionale genera una densità di carica gravitazionale legata al vuoto quantistico. Si può considerare questa densità di carica legata alla gravità come un’effettiva densità di carica gravitazionale, che agisce come se ci fosse una vera carica gravitazionale diversa da zero. Ecco come funziona la magia della polarizzazione; il vuoto quantistico è una sorgente di gravità grazie alla materia del Modello Standard immersa.

L’ipotesi (1) può essere combinata con una seconda ipotesi: (2) la materia del modello standard (cioè la materia fatta di quark e leptoni che interagiscono attraverso lo scambio di bosoni di gauge) è l’unico contenuto dell’Universo.

L’ipotesi (2) esclude la materia oscura e l’energia oscura come contenuto dell’Universo, mentre l’ipotesi (1) postula il vuoto quantistico come un fluido cosmologico privo del problema della costante cosmologica. Insieme, queste due ipotesi hanno le seguenti serie di conseguenze intriganti.

I fenomeni generalmente attribuiti all’ipotetica materia oscura e all’energia oscura possono essere considerati come risultato della polarizzazione gravitazionale del vuoto quantistico da parte della materia del Modello Standard immerso.

A livello locale, ogni alone di materia oscura può essere sostituito dall’alone del vuoto quantistico polarizzato. A livello globale, tutti gli aloni del vuoto quantistico polarizzato sono un fluido cosmologico che, durante l’espansione dell’Universo si converte da un fluido a pressione negativa – permettendo un’espansione accelerata dell’Universo – in un fluido a pressione zero, che significa fisicamente la fine dell’espansione accelerata.

Inoltre, le due ipotesi aprono la possibilità che viviamo in un universo ciclico con cicli alternativamente dominati dalla materia e dall’antimateria. La conversione della materia (o antimateria) di un ciclo in antimateria (o materia) del ciclo successivo, avviene in un evento cataclismico simile al Big Bang, ma a dimensioni macroscopiche significative (più precisamente a dimensioni macroscopiche del fattore di scala 𝑅 dell’Universo); la causa della conversione è una creazione estremamente rapida ed eccezionale di coppie particella-antiparticella dal vuoto quantistico in un campo gravitazionale estremamente forte con un fattore di scala relativamente piccolo 𝑅 dell’Universo.

Di conseguenza, almeno matematicamente, non c’è singolarità iniziale, non c’è bisogno di inflazione cosmica e c’è un’elegante spiegazione dell’asimmetria materia-antimateria nell’universo: il nostro universo è dominato dalla materia perché il ciclo precedente era dominato dall’antimateria e il prossimo sarà nuovamente dominato dall’antimateria.

Prospettive e osservazioni astronomiche

Se, negli esperimenti nei nostri laboratori, l’antimateria dovesse cadere verso l’alto, sarebbe una rivoluzione scientifica, ma non la conferma di nessuna delle conseguenze astrofisiche e cosmologiche proposte.

È ovvio che l’eventuale scoperta della repulsione gravitazionale tra materia e antimateria non sarebbe la conferma di altre ipotesi nelle teorie proposte; gli esperimenti con antiidrogeno, muonium e positronium non possono dirci se c’è antimateria nascosta nei vuoti, se c’è repulsione gravitazionale tra antimateria e antimateria, se le fluttuazioni del vuoto quantistico si comportano come dipoli gravitazionali.

I fenomeni astrofisici e cosmologici possono essere rivelati solo da osservazioni astronomiche e siamo fortunati che i telescopi di nuova generazione (dal James Webb Space Telescope al telescopio ExtraLarge) saranno operativi quasi immediatamente dopo una sorprendente scoperta che può venire dal CERN.

In generale, una precisione significativamente più elevata delle misurazioni astronomiche aumenterà la nostra capacità di distinguere tra predizioni di diverse teorie. Oltre alle considerazioni cosmologiche è illuminante considerare un buco nero dal punto di vista della repulsione gravitazionale tra materia e antimateria e tre teorie concorrenti descritte in questa recensione

Buchi neri-bianchi 

Consideriamo un buco nero fatto di materia. Se c’è repulsione gravitazionale tra materia e antimateria, un tale oggetto è un buco nero per la materia, ma non è un buco nero per l’antimateria; qualsiasi antimateria all’interno dell’orizzonte sarebbe espulsa violentemente dalla repulsione.

Proponiamo il nome di “buco nero-bianco” per tale entità, ma si noti che le parole bianco e nero non hanno lo stesso significato in Relatività generale.

Tutti pensano che gli esperimenti al CERN siano solo una misura dell’accelerazione gravitazionale dell’antiidrogeno. È divertente che nessuno abbia notato che, in effetti, gli esperimenti al CERN sono un test per l’esistenza di buchi neri-bianchi nell’universo. Se l’antiidrogeno cade verso l’alto, i buchi neri devono essere rinominati in buchi neri-bianchi; un buco nero fatto da materia è un buco nero per la materia ma un buco bianco per l’antimateria.

Se l’antiidrogeno cade verso l’alto è un fenomeno inevitabile indipendente da qualsiasi teoria. Immaginiamo che la materia cada in un buco bianco-nero. Una piccola frazione di materia che cade verrà espulsa sotto forma di antiparticelle ad alta energia. Vale a dire, come risultato delle collisioni del materiale in caduta (analogo alle collisioni nei nostri acceleratori), si possono creare diversi tipi di antiparticelle all’interno dell’orizzonte e le antiparticelle di lunga durata verrebbero espulse violentemente fuori dall’orizzonte.

Se esistono buchi neri-bianchi, sono una sorgente inevitabile di positroni e antiprotoni ad alta energia nei raggi cosmici. Una domanda interessante è se sono già state viste delle firme di questi buchi neri-bianchi. 

La prima firma potrebbe essere un eccesso inspiegabile di positroni e antiprotoni ad alta energia nei raggi cosmici rivelati da misurazioni con Alpha Magnetic Spectrometer sulla Stazione Spaziale Internazionale.

La seconda firma potrebbe essere una recente rivelazione, presso il telescopio per neutrini IceCube al polo sud, di (anti)neutrini ad altissima energia provenienti dal centro galattico; apparentemente il buco nero supermassiccio della Via Lattea funge da misteriosa “fabbrica” ​​di (anti)neutrini ad alta energia.

Esiste un secondo meccanismo più sottile per la creazione di coppie particella-antiparticella in profondità all’interno dell’orizzonte della materia. Ricordiamo che il vuoto quantistico è una parte intrinseca del Modello standard di particelle e campi e che in determinate condizioni coppie virtuali di particelle / antiparticelle del vuoto quantistico possono essere convertite in particelle reali; apparentemente possiamo creare qualcosa dal nulla. Ad esempio, un elettrone e un positrone in una coppia virtuale possono essere convertiti in reali in un campo elettrico sufficientemente forte, accelerandoli nella direzione opposta. Lo stesso (cioè la creazione di coppie particella-antiparticella dal vuoto quantistico) può essere fatto dal campo gravitazionale se particelle e antiparticelle hanno carica gravitazionale del segno opposto; l’unica differenza è che l’accelerazione opposta necessaria è causata da un campo gravitazionale.

Quindi, i buchi neri-bianchi potrebbero irradiarsi a causa della creazione di particelle-antiparticelle dal vuoto quantistico. È ovvio che si tratta di un meccanismo dipendente dal modello (ad esempio non valido in Dirac-Milne Cosmology e nell’Universo Reticolo).

Una domanda importante è se la radiazione Hawking può coesistere con la radiazione del vuoto quantistica?

La risposta è: No. La radiazione di Hawking dipende dal modello finora assunto delle proprietà gravitazionali del vuoto quantistico. I calcoli di Hawking corrispondono al caso dei monopoli gravitazionali e non possono essere validi se il vuoto quantistico è composto da dipoli gravitazionali.

Binari transnettuniani e vuoto quantistico

Come fenomeno dipendente dal modello (non esistente in Dirac-Milne Cosmology e nell’Universo Reticolo) citiamo che il vuoto quantistico potrebbe avere un piccolo impatto sulle orbite dei corpi celesti nel Sistema Solare; è l’analogo gravitazionale del Lamb shift (ovvero dell’impatto del vuoto quantistico sui livelli di energia degli elettroni negli atomi) nell’elettrodinamica quantistica.

Apparentemente, il modo più promettente per rivelare un tale impatto del vuoto quantistico è lo studio delle orbite di piccoli satelliti in alcuni binari trans-nettuniani. Il punto chiave è che in un binario isolato, il vuoto quantistico provoca uno spostamento del perielio per orbita che è direttamente proporzionale alla magnitudine massima 𝑃𝑔𝑚𝑎𝑥 della densità di polarizzazione gravitazionale 𝑷𝑔.

La nostra attuale comprensione dell’Universo (Λ𝐶𝐷𝑀 Cosmologia) è sia un affascinante risultato intellettuale sia la fonte della più grande crisi nella storia della fisica. Non conosciamo la natura di ciò che chiamiamo campo di inflazione, materia oscura ed energia oscura; non sappiamo perché la materia domini l’antimateria nell’Universo e quale sia la radice del problema della costante cosmologica.

Tra circa tre anni gli esperimenti porteranno a termine la disputa teorica già vecchia di 6 decenni su come cade l’antimateria. Gli esperimenti ci diranno se la gravità dell’antimateria è cruciale o meno nella comprensione dei più grandi misteri della fisica, dell’astrofisica e della cosmologia contemporanee.

Finora ci sono tre teorie pionieristiche (Dirac-Milne Cosmology,  Lattice Universe e Cosmologia con fluttuazioni quantistiche del vuoto come dipoli gravitazionali virtuali) che anticipano la gravità repulsiva come il risultato dei prossimi esperimenti.

Fonti:

Nove grandi scoperte spaziali del 2019

0
Migliori casinò non AAMS in Italia

Rivelata la rete cosmica

Ogni galassia nell’universo fa parte di una struttura composta di gas conosciuta come la rete cosmica. Ognuno dei “filamenti” di questa struttura intergalattica è fatto di idrogeno creato dal Big Bang. Le zone di addensamento dell’idrogeno portano alla nascita di galassie che si aggregano intorno questi filamenti immensi.

La rete non è visibile a occhio nudo, ma ad ottobre gli astronomi ne hanno fotografato un pezzo per la prima volta in assoluto usando il debole bagliore ultravioletto di una galassia lontana come retroilluminazione. L’immagine mostra fili blu di idrogeno che si incrociano nello spazio a 12 miliardi di anni luce di distanza, collegando galassie bianche luminose lungo il suo percorso. L’immagine ci aiuterà a capire come sono nate le prime galassie e ci ricorda come tutte le cose sono connesse.

Lo scudo al plasma che protegge la vita

C’è uno scontro titanico che si sta svolgendo ai confini del nostro sistema solare. A miliardi di chilometri dal centro del sistema solare, la furia del vento solare si scontra con potenti raggi cosmici lungo un confine chiamato eliopausa.

Quando le sonde Voyager 1 e 2 della NASA hanno attraversato la regione e sono entrate nello spazio interstellare l’anno scorso, gli astronomi hanno visto che l’eliopausa non è solo un confine simbolico: è anche una parete fisica di plasma minaccioso che devia e diluisce la peggiore delle radiazioni in arrivo. Questo “scudo” al plasma, come descritto in uno studio del 4 novembre, può impedire a circa il 70% dei raggi cosmici di entrare nel nostro sistema solare.

Bolle radio nell’intestino della galassia

Le Bolle di Fermi sono particolari strutture presenti nella Via Lattea che emettono radiazione gamma.

La struttura si estende per 50.000 anni luce, 25.000 sopra e 25.000 sotto il disco galattico. Sono state osservate nel 2010 con il Fermi Large Area Telescope (LAT). Si pensa che le bolle abbiano qualche milione di anni e che probabilmente abbiano qualcosa a che fare con un’esplosione gigantesca prodotta dal buco nero posto al centro della nostra galassia.

A settembre, tuttavia, gli astronomi hanno rilevato per la prima volta le bolle nelle onde radio, rivelando grandi quantità di gas energetico che si muove attraverso le bolle, probabilmente alimentandole per crescere ancora di più, secondo il rapporto degli scienziati pubblicato sulla rivista Nature.

I camini di Fermi

Al centro della nostra galassia c’è un buco nero supermassiccio. L’intensa forza di gravità che genera tiene insieme la Via Lattea. In uno studio del 20 marzo, gli astronomi hanno osservato i raggi X che filtravano dal centro della galassia e hanno scoperto due “camini” di plasma superpotente che si estendevano per centinaia di anni luce in entrambe le direzioni.

I giganteschi fumaioli sembrano collegare il buco nero centrale al fondo delle Bolle di Fermi. È possibile che questi camini alimentino la crescita lenta ma costante delle bolle.

Pianeta attorno a una stella morta

Quando un sole smette di splendere e collassa, può diventare un nana bianca, un cadavere compatto e cristallino.

Eventuali pianeti in orbita intorno alla stella verrebbero probabilmente spazzati via nelle fasi che portano la stella morente a diventare una gigante rossa o risucchiati e distrutti dalla gravità della stella diventata una nana bianca.

A dicembre, gli astronomi hanno scoperto per la prima volta un pianeta che orbita attorno a una nana bianca. Il sistema sembra emettere una combinazione di gas provenienti da un pianeta di tipo nettuniano che evapora mentre orbita attorno alla sua stella madre ormai cadavere.

Tsunami solari

L’avvicinamento record al sole della sonda spaziale Parker Solar Probe ha preso parecchi  grandi titoli di scienza quest’anno, ma probabilmente lo studio sul Sole più epico è arrivato mesi prima, a febbraio, secondo gli scienziati che scrivono sulla rivista Scientific Reports.

I ricercatori hanno descritto un fenomeno solare chiamato “eventi terminator“, collisioni cataclismiche del campo magnetico all’equatore del Sole.

Come scrivono gli autori, queste collisioni possono provocare due tsunami di plasma che lacerano la superficie della stella a 300 piedi al secondo in direzioni opposte.

I giganteschi tsunami solari (anche se ancora teorici) potrebbero durare per settimane e potrebbero verificarsi ogni decennio circa. Il prossimo potrebbe accadere all’inizio del 2020.

Buco nero neonato dall’universo primordiale

A marzo, gli astronomi giapponesi hanno cercato utilizzando il telescopio in una porzione dello spazio a 13 miliardi di anni luce di distanza dei buchi neri primordiali.

Lì, hanno osservato 83 buchi neri supermassicci precedentemente sconosciuti risalenti ai primi giorni dell’universo. I buchi, in realtà un gruppo di quasar, o enormi, luminosi, dischi di gas e polvere che circondano buchi neri supermassicci – erano risalenti a circa 800 milioni di anni dopo il Big Bang, rendendoli alcuni dei primi oggetti mai formati nel cosmo.

La stella super veloce

A settembre, gli astronomi hanno rilevato una delle stelle più veloci mai registrate prima.

La stella, in fuga dalla nostra galassia a 2 milioni di Km orari, probabilmente apparteneva in passato a un sistema binario.

Una componente del binario, forse diventando un buco nero o una supernova, ha scagliato la compagna lontano nello spazio. Questa stella però mostrava delle particolarità, e dopo che gli astronomi ne hanno calcolato velocità e traiettoria hanno stabilito che la stella potrebbe essere passata nelle vicinanze di un buco nero con centinaia di migliaia di masse solari.

Un tipo ancora teorico di oggetto massiccio non ancora osservato che questa stella super veloce potrebbe aiutarci a trovare.

Lampi radio veloci

I lampi radio veloci (FRB) sono impulsi intensi e brevissimi di energia radio.

Che cosa sono esattamente? le eruzioni di radiazioni dai buchi neri supermassicci? Segnali alieni di qualche tipo?

Gli scienziati non lo hanno ancora scoperto, ma un team di ricercatori si è avvicinato alla risoluzione del problema a giugno quando hanno seguito un FRB nello spazio e nel tempo fino alle sue origini precise, per la prima volta in assoluto.

Utilizzando un array di radiotelescopi nell’entroterra australiano, i ricercatori hanno scoperto che l’emissione radio in questione della durata di una frazione di millisecondo ha avuto origine da una galassia delle dimensioni della Via Lattea a circa 3,6 miliardi di anni luce dalla Terra, che non produceva più nuove stelle.

Questi risultati mostrano che gli FRB possono formarsi in una varietà di ambienti cosmici e, per una volta, non si escludono neanche possibili segnali alieni.

Astrofisici sviluppano nuova teoria per spiegare l’Energia Oscura

0
Migliori casinò non AAMS in Italia

Il fatto che il nostro Universo si stia espandendo è stato scoperto quasi cento anni fa, ma come esattamente ciò accade, gli scienziati lo hanno realizzato solo negli anni ’90 del secolo scorso, quando apparvero potenti telescopi (compresi quelli orbitali) e iniziò l’era della cosmologia esatta.

Nel corso delle osservazioni e dell’analisi dei dati ottenuti, si è scoperto che l’Universo non si sta solo espandendo, ma si sta espandendo con accelerazione, che è iniziata dai tre ai quattro miliardi di anni dopo la nascita dell’Universo.

Per molto tempo, si credeva che lo spazio fosse pieno di materia ordinaria: stelle, pianeti, asteroidi, comete e gas intergalattico altamente rarefatto. Ma, se così fosse, l’espansione accelerata è contraria alla legge di gravità, che afferma che i corpi sono attratti l’uno dall’altro. Le forze gravitazionali tendono a rallentare l’espansione dell’universo, ma non possono accelerarlo.

Artyom Astashenok dice: “E poi è nata l’idea che l’Universo sia riempito per lo più non con la materia ordinaria, ma con un po’ di “energia oscura”, che ha proprietà speciali. Nessuno sa cos’è e come funziona, quindi viene chiamata “Dark Energy” come qualcosa di sconosciuto. E il 70% dell’ Universo è composto da questa energia”.

Ci sono molte teorie su cosa sia questa “Dark Energy“, e gli scienziati di IKBFU hanno presentato la loro teoria.

“Il cosiddetto effetto Casimir (dal nome del fisico olandese Hendrik Casimir), che consiste nel fatto che due piastre metalliche poste nel vuoto sono attratte l’una dall’altra, è noto da tempo. Sembrerebbe che non possa essere così, perché non c’è nulla nel vuoto. Ma in effetti, secondo la teoria quantistica, le particelle appaiono e scompaiono costantemente lì, e come risultato della loro interazione con le piastre, che indicano determinati confini dello spazio (che è estremamente importante), si verifica un’attrazione molto piccola. E c’è un’idea secondo cui, approssimativamente la stessa cosa accade nello spazio. Solo questo porta, al contrario, ad un’ulteriore repulsione, che accelera l’espansione dell’Universo. Cioè, essenzialmente non c’è “Energia Oscura”, ma c’è una manifestazione dei confini dell’Universo. Questo, ovviamente, non significa che esso finisca da qualche parte, ma può avere luogo una sorta di topologia complessa. Si può disegnare un’analogia con la Terra. Dopotutto, non ha confini, ma è finita. La differenza tra la Terra e l’Universo è che nel primo caso abbiamo a che fare con lo spazio bidimensionale e nel secondo – con lo spazio tridimensionale”.

L’articolo pubblicato, che, come spiegato da Artem Astashenok, sviluppa le idee presentate nella tesi di Alexander Teplyakov, presenta un modello matematicamente solido dell’universo in cui si verifica una repulsione aggiuntiva e in cui non vi è alcuna contraddizione tra il fatto che l’espansione dell’Universo accelera e la legge della gravitazione universale.

Riferimento: “Alcuni modelli di energia oscura olografica sul brane Randall-Sundrum e dati osservativi” da AV Astashenok e AS Tepliakov, il 2 dicembre 2019, International Journal of Modern Physics D .
DOI: 10.1142 / S0218271819501761

Bombardamento cosmico

0
Migliori casinò non AAMS in Italia

Ogni anno tra meteoriti, piccolissimi asteroidi e polvere interstellare cadono sulla Terra diverse migliaia di tonnellate di materiale.

Nel nostro paese sono caduti oggetti di una certa rilevanza come quello precipitato nel 2000 di circa 50 grammi a Tessera, frazione di Venezia sede dell’omonimo aeroporto. La più importante pioggia di meteoriti fu probabilmente quella del 1883 con la caduta del meteorite di Alfianello, piccolo comune Bresciano. Pare fosse di ben 75 centimetri e pesasse sui 200 chili. Il record Italiano pare ora spetti con i suoi 48 chili alla meteorite di Bagnone, in provincia di Massa e Carrara.

I meteoriti sono quei piccoli corpi celesti di natura ferrosa o rocciosa che sopravvivono all’ablazione atmosferica raggiungendo il suolo terrestre. Quelli ferrosi resistono meglio  alla pressione dinamica generata dalla fortissima compressione dell’aria di fronte al meteorite. La gran parte di essi cade negli oceani o in posti difficilissimi da raggiungere. Qualche volta capita che un piccolo pezzo di roccia spaziale colpisca un auto parcheggiata come avvenne nel 1992 nello Stato di New York.O una casa come accadde nel 2003 a New Orleans.

Prima di allarmarci senza un fondato motivo però è bene sapere che la possibilità che un essere umano muoia a causa dell’impatto con un piccolo meteorite è di circa una su 1.600.000. Se la paragoniamo con il rischio di morire a causa di un fulmine (una su 130.000) e quella di morire per una puntura di insetto (una su 60.000) possiamo stare ragionevolmente tranquilli.

Certamente il rischio meteorite è di una certa consistenza se invece lo confrontiamo con l’eventualità di fare un 6 al Superenalotto (circa 1 su 623.000.000) oppure quella di morire in un incidente aereo, una su 11.000.000.

Se parliamo di corpi celesti da un punto di vista meramente statistico è più probabile rimanere uccisi dall’impatto con un asteroide, circa una su 700.000. Non si hanno riscontri inoppugnabili che qualcuno sia mai morto per colpa di un meteorite. Alcune persone però sono rimaste ferite.

In Perù nel 2007 sei persone rimasero intossicate dai fumi di arsenico rilasciati dopo l’impatto con il suolo di un meteorite. Nel febbraio del 2013 un meteoroide di circa 15 metri di diametro  e una massa di 10.000 tonnellate  ha colpito l’atmosfera alla velocità di 54.000 km/h , circa 44 volte la velocità del suono, e si è frantumato sopra la città di Čeljabinsk, in Russia, mandando in frantumi 200.000 metri quadri di finestre e ferendo così circa 1.000 persone.

L’unica persona che risulti ad oggi direttamente colpita da un meteorite è l’americana Ann Hodges. Nel 1954, la donna aveva 34 anni, quando una roccia di poco meno di 4 chili sfondò il tetto della sua casa in Alabama. Il meteorite rimbalzò su un apparecchio radiofonico e colpì al fianco la giovane donna che dormiva sul divano.

Ann se la cavò con un brutto ematoma su un fianco e lei e il suo padrone di casa si azzuffarono legalmente per il possesso del piccolo corpo celeste. Alla fine la spuntò Ann che lo tenne come fermacarte prima di donarlo all’Alabama Museum of Natural History.

The Moon Hoax: alle origini della teoria complottista

0
Migliori casinò non AAMS in Italia

Una delle più ossessive e reiterate teorie complottiste riguarda la negazione dell’allunaggio della Missione Apollo 11 sulla superficie lunare. Probabilmente però non tutti sanno l’origine di questa fake news che infiamma le chat ed i siti web di migliaia di complottisti in tutto il mondo. The Moon Hoax (l’Imbroglio della Luna) nasce nel 1974, cinque anni dopo l’allunaggio avvenuto il 20 luglio del 1969.

Quell’anno esce un libro We never went to the Moon (Non siamo mai andati sulla Luna) scritto da un, fino allora, sconosciuto cinquantaduenne, tale William Charles Kaysing. 

La tesi del libro è che la tecnologia disponibile nel 1969 non fosse in grado di supportare una missione umana sulla superficie lunare. Ma chi è questo William C. Kaysing che fa scoppiare una così bella “bombetta puzzolente” sulla più straordinaria impresa scientifica ed esplorativa mai compiuta da esseri umani?

Kaysing ha una laurea breve in letteratura inglese. Egli afferma di aver raccolto prove ed indizi di questa colossale mistificazione, dalla sua precedente attività lavorativa presso la Rocketdyne, la ditta che ha progettato e realizzato i razzi che hanno portato le missioni Apollo sul nostro satellite. Il fatto è che il buon Kaysing alla Rocketdyne si occupava della stesura dei manuali tecnici sotto il profilo sintattico e organizzativo e per sua stessa ammissione non non aveva alcuna preparazione specifica in campo ingegneristico.

Come se non bastasse, il nostro aveva smesso di lavorare alla Rocketdyne nel 1963, ben sei anni prima dello sbarco sulla Luna e quindi non poteva neppure essere aggiornato sugli sviluppi tecnologici di quei sei anni che erano stati semplicemente tumultuosi. D’altra parte a Kaysing quest’aspetto interessa poco visto che in un passaggio del suo libro scrive che la sua “verità” si basa su: “una premonizione, un’intuizione; un’informazione da un poco compreso e misterioso canale di comunicazione… Un messaggio metafisico”.

Secondo il libro la NASA avrebbe assoldato il regista Stanley Kubrick obbligandolo a collaborare in questa impresa truffaldina attraverso un sordido ricatto: o ci aiuti ad inscenare questa messinscena oppure tuo fratello Raul, che ha forti simpatie per il partito comunista se la vedrà brutta.

Peccato che Kubrick non avesse alcun fratello minore ma una sorella.

Nonostante le farneticazioni e le assurdità scritte da un ex scribacchino di manuali tecnici la teoria del complotto, del grande imbroglio divampa e tutt’oggi vive e prospera in certi ambienti cospirazionisti del web. Non staremo in questa sede a smontare tutte le pseudo prove portate negli anni a sostegno della teoria della messinscena, ci hanno già pensato autorevoli scienziati e debunker come Paolo Attivissimo, inoltre, su questo sito l’argomento è già stato trattato varie volte, adf esempio, qui e qui; in questa sede ci limiteremo a due considerazioni.

Alla missione Apollo 11 parteciperanno con mansioni e gradi anche enormemente differenti circa 400.000 persone e pensare che un “esercito” del genere possa mantenere un segreto così delicato per oltre 50 anni è semplicemente e statisticamente un’assurdità. Se pensiamo che il super segreto “Progetto Manhattan”, la realizzazione della bomba atomica da parte degli statunitensi nel secondo conflitto mondiale che coinvolgeva circa 120.000 persone, resse soltanto per poche settimane visto che le spie sovietiche ne vennero a conoscenza quasi immediatamente, ci rendiamo conto dell’assurdità di questo assunto.

Infine un’altra banalissima considerazione, l’Unione Sovietica in quel periodo competitor in vantaggio nella sfida per la conquista dello spazio, non ha mai messo in discussione la veridicità dell’allunaggio statunitense e per una superpotenza che fino a quel momento deteneva tutti i record dell’esplorazione spaziale umiliando gli americani, una così clamorosa truffa sarebbe stata un’occasione irripetibile per delegittimare per decenni la credibilità scientifica e tecnologica dei rivali statunitensi.

Qual è la funzione delle impronte digitali?

0
Migliori casinò non AAMS in Italia

Nel 1910, Thomas Jennings fuggì dalla scena di un omicidio, ma lasciò dietro di sé un indizio che avrebbe segnato il suo destino: L’indizio era l’impronta perfetta dei suoi polpastrelli nella vernice asciutta di una ringhiera all’esterno dell’abitazione dove il fuggiasco aveva compiuto un crimine.

Quelle impronte digitali furono le prime a essere usate come prova in un’indagine criminale e portarono alla condanna di Jennings nel 1911.

Da allora è passato oltre un secolo e le impronte digitali continuano ad essere utilizzate come prove cruciali nelle indagini forensi. Sembra proprio che le impronte digitali, uniche per ognuno di noi siano nate proprio per mettere i bastoni tra le ruote ai malfattori. Certo, non è cosi, ci sono anche altri marcatori individuali che entrano in gioco, come il DNA, e questo ci porta a una domanda, qual è lo scopo biologico delle impronte digitali?

La risposta però non vede gli scienziati concordi.

Ci sono fondamentalmente due idee sulle impronte digitali: che aiutano a migliorare la presa e che aiutano a migliorare la percezione del tocco“, ha affermato Roland Ennos, ricercatore di biomeccanica e professore ospite di biologia all’Università di Hull nel Regno Unito.

Ennos ha trascorso parte della sua carriera studiando la prima idea: le impronte digitali ci aiutano nella presa.

Per molto tempo, questa è stata la teoria principale, secondo cui minuscole depressioni e picchi nelle impronte digitali creano attrito tra le nostre mani e le superfici che tocchiamo.

Una prova verrebbe studiando le punte delle dita che potrebbero funzionare come le gomme delle automobili, essendo flessibili riuscirebbero ad adattarsi alle superfici su cui vanno a contatto. Nei pneumatici oltre alla flessibilità ci sono dei gradini sulla superficie che ne aumentano la superficie, aumentando di conseguenza attrito e trazione.

Ennos ha studiato quanto bene questa idea avrebbe resistito in un esperimento di laboratorio.

Volevamo vedere se l’attrito con le dita aumenta con l’area di contatto come succede con le gomme“, ha detto Ennos a Live Science. Per scoprirlo, i ricercatori hanno trascinato una lastra di perspex sui polpastrelli di una persona, variando la forza su diversi tentativi e usando l’inchiostro per impronte digitali per determinare quanta area dei polpastrelli toccava il vetro.

Gli esperimenti di laboratorio hanno rivelato una sorpresa, “l’area di contatto effettiva è stata ridotta dalle impronte digitali, perché le valli non hanno preso contatto“, ha detto Ennos a Live Science. “le impronte digitali dovrebbero ridurre l’attrito, almeno su superfici lisce“.

Ciò non toglie che le impronte digitali aiutino la presa“, ha affermato Ennos. Si ritiene che le impronte digitali possano aiutarci a trattenere le superfici in condizioni di bagnato, ad esempio, i canali che assorbono l’acqua in modo molto simile ai gradini dei pneumatici delle auto, per impedire alle nostre mani di scivolare su una superficie.

Tuttavia, questa idea è più difficile da testare perché è difficile imitare perfettamente il comportamento delle impronte digitali umane in queste condizioni“, ha aggiunto Ennos.

Ma c’è un’altra teoria, che potrebbe contenere più acqua: il ruolo delle impronte digitali nel favorire il tocco.

Georges Debrégeas, un fisico trasformato in biologo che opera all’Università della Sorbona di Parigi, tempo fa rifletteva sulla mancanza di una teoria conclusiva sul perché abbiamo le impronte digitali, quando gli venne in mente il ruolo del tocco. Le nostre dita infatti contengono quattro tipi di meccanorecettori o cellule che rispondono alla stimolazione meccanica come il tocco.

A incuriosire Debrégeas fu un particolare tipo di meccanorecettore: i corpuscoli paciniani, che si trovano a circa 2 millimetri sotto la superficie della pelle nella punta delle dita. “Mi interessavano i corpuscoli paciniani perché sapevamo, da precedenti esperimenti, che questi recettori specifici mediano la percezione della trama fine“, ha detto Debrégeas a Live Science.

I corpuscoli paciniani sono particolarmente sensibili alle vibrazioni di una frequenza di 200 hertz, dando ai nostri polpastrelli la loro estrema sensibilità. Debrégeas si chiedeva se le impronte digitali potessero migliorare questa sensibilità.

Per scoprirlo, lui e i suoi colleghi hanno progettato un sensore tattile biomimetico che ricorda la struttura di un dito umano, con sensori che rileverebbero le vibrazioni in modo simile a quello dei corpuscoli paciniani. Il sensore è stato progettato in due versioni, una liscia e una con un motivo increspato simile alle impronte digitali umane.

Quando si spostava su una superficie, quella dotata di increspature produceva amplificava la frequenza esatta delle vibrazioni a cui i corpuscoli paciniani sono così sensibili.

Agendo da proxy per la punta delle dita umane, il congegno suggeriva che le nostre impronte digitali avrebbero similmente incanalato queste precise vibrazioni ai sensori sotto la pelle. La sensibilità tattile sarebbe quindi amplificata dalla presenza delle impronte digitali.

Il fatto di mettere impronte digitali sulla pelle cambia completamente la natura dei segnali“, ha detto Debrégeas.

Ma qual è il vantaggio di avere una punta delle dita così ipersensibile?

Per millenni, le nostre mani sono state strumenti cruciali per trovare e mangiare cibo e aiutarci a conoscere il mondo. Tali compiti sono mediati dal tocco. La sensibilità alle trame, in particolare, potrebbe essere evolutivamente benefica perché ci ha aiutato a rilevare il giusto tipo di cibo: “Il motivo per cui dobbiamo rilevare e separare le trame è che vogliamo separare il buon cibo da quello cattivo“, ha spiegato Debrégeas. Un buon senso del tatto potrebbe aiutarci a evitare oggetti marci o infetti.

Debrégeas pensa seriamente che le impronte digitali possano servire a due cose, il tocco e la presa. “Il motivo per cui siamo così bravi a manipolare e gestire le cose è perché abbiamo questo squisito senso del tatto – un circuito di feedback costante tra ciò che tocchiamo e ciò che sentiamo“, ha spiegato. “Ciò ci consente di correggere in tempo reale la forza con cui afferreremo l’oggetto“.

Se qualcosa scivola mentre lo teniamo in mano, dobbiamo essere capaci di rilevare il cambiamento nella sua superficie con punte delle dita sensibili cosi da mantenere salda la presa. Debrégeas pensa che sia possibile che il nostro raffinato senso del tatto e la presa precisa si siano evoluti contemporaneamente.

Ennos ritiene esista una spiegazione differente: le impronte digitali potrebbero prevenire le vesciche, crede. “Un’idea finale che favorisco è che le creste rinforzano la pelle in alcune direzioni e la aiutano a resistere alle vesciche, pur consentendole di allungarsi ad angolo retto, quindi la pelle mantiene il contatto“, ha detto. “Questo è un po ‘come i rinforzi nelle gomme“.

Sembra che nonostante le impronte digitali offrano prove forensi inconfutabili ai detective e alla polizia, per ora rimangono qualcosa di misterioso.

Debregéas ha osservato che l’abbinamento di impronte digitali e corpuscoli paciniani esiste anche in altri animali come gli scimpanzé e i koala, che si affidano in parte alla sensibilità tattile per trovare il loro cibo.

Debregéas ha sottolineato, tuttavia, che il suo esperimento non è la prova che le impronte digitali si siano evolute a questo scopo, è solo una tesi, certamente avvincente ed elegante.

Fonte: Live Science