sabato, Aprile 19, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1291

Einstein ha sempre ragione: l’esperimento Hafele-Keating

0
Migliori casinò non AAMS in Italia

E’ il 1971. Due astronomi americani Richard Keating e Joseph Hafele decidono di programmare un esperimento per indagare gli strani effetti sulla dilatazione del tempo previsti circa sessanta anni prima da Albert Einstein.

I due si procurano tre orologi atomici, che sincronizzano tra loro. Orologi cosi precisi da non sfasare più di un miliardesimo di secondo in milioni di anni.
Quando si dice orologi molto affidabili!

Hafele e Keating non hanno più molte risorse e quindi vanno in un aeroporto e ne lasciano uno in una sala d’attesa, poi comprano dei biglietti, due, uno per ciascuno degli orologi rimasti su voli commerciali.

Uno dei voli commerciali vola verso est e l’altro verso ovest e dopo aver circumnavigato il globo sarebbero tornati allo scalo di partenza ricongiungendosi con l’orologio sincronizzato rimasto sulla Terra.

Poiché la Terra ruota su se stessa in direzione est, volare verso est o verso ovest produce una lieve differenza nella velocità relativa dei diversi aerei.
Il senso comune avrebbe voluto che al ritorno del viaggio intorno al mondo i 3 orologi fossero ancora sincronizzati, d’altra parte un secondo è sempre un secondo, o no?

Einstein la pensava diversamente.

Ed i due astronomi diventati famosi per questo esperimento ne hanno la conferma appena gli aerei atterrano nell’aeroporto di partenza.

I tre orologi non sono più sincronizzati.

L’orologio che aveva viaggiato verso est era indietro di 59 miliardesimi di secondo rispetto all’orologio rimasto a terra, mentre quello che aveva viaggiato verso ovest era avanti di 273 miliardesimi di secondo.

Se i tre orologi fossero rimasti gli uni vicini agli altri per produrre un simile sfasamento ci sarebbero voluti più di 300 milioni di anni.

Hafele e Keating avevano dimostrato che le ragioni di un simile scarto erano due, entrambe dovute alle predizioni di Einstein.

La prima predizione legata alla relatività ristretta o speciale asseriva che le velocità relative dei tre orologi avrebbero dovuto produrre delle lievissime (ma misurabili) sfasature temporali.

La seconda ragione apparteneva invece agli effetti indotti dalla gravità (teoria della relatività generale), l’effetto della Terra sullo spaziotempo sarebbe stato più pronunciato sulla superficie terrestre che alle altitudini a cui avevano volato gli aerei.

Il combinato disposto di queste due predizioni di Einstein furono calcolati prima che Hafele e Keating effettuassero il loro esperimento. E poi sommati.

Il calcolo teorico fatto prima dell’esperimento prevedeva che l’orologio che volava verso est sarebbe dovuto risultare indietro per non più di 60 miliardesimi di secondo (e risultò al termine dell’esperimento di 59 miliardesimi) e quello che volava verso ovest sarebbe dovuto essere avanti di circa 275 miliardesimi di secondo (e risultò di 273 miliardesimi).

Einstein, ancora una volta, aveva avuto ragione.

La Russia e le armi ipersoniche

0
Migliori casinò non AAMS in Italia

La Russia ha una nuova arma con capacità intercontinentale che può volare a mach 27.

L’annuncio e arrivato dallo stesso Putin martedi 24 dicembre. Qualche giorno dopo, venerdi 27 dicembre l’arma è diventata operativa, a comunicarlo a Putin il ministro della difesa russo Sergei Shoigu. Putin ka dichiarato che la Russia ha rafforzato la sua capacità di dispiegare attacchi nucleari.

Il leader russo ha parlato per la prima volta di questa nuova arma chiamata Glide Avangard nel suo discorso sullo stato della nazione nel marzo 2018.

Putin ha descritto in nuovo sistema d’arma paragonando la svolta tecnologica al lancio dello Sputnik I avvenuta nel 1957.

Questo nuovo sistema avanzato, sviluppato in modo simile anche dalla Cina ha messo in allarme la difesa degli Stati Uniti D’America.

L’Avangard anche noto come Objekt 4202 Yu-71 e Yu-74 può essere trasportato come un carico utile da missili UR-100UTTKh, R-36M2 e RS-28 Sarmat ICBM pesanti . Può portare sia testate nucleari (fino a 2 megatoni), che convenzionali.

Una normale testata missilistica tuttavia segue un percorso prevedibile dopo che avviene la separazione, il sistema Avanguard può invece effettuare brusche manovre nell’atmosfera lungo il percorso che lo porta verso il bersaglio, rendendo problematica, se non impossibile l’intercettazione.

L’Avangard è entrato in servizio con un’unità nella regione di Orenburg nei Monti Urali meridionali.

Il leader russo Vladimir Putin ha spiegato che Avangard è stato progettato utilizzando nuovi materiali compositi per resistere a temperature fino a 2.000 gradi Celsius, temperature che vengono raggiunte in volo attraverso l’atmosfera a velocità ipersoniche.

Putin ha affermato che la Russia ha dovuto sviluppare l’Avangard e altri potenziali sistemi d’arma a causa degli sforzi degli Stati Uniti per sviluppare un sistema di difesa antimissile che, secondo lui, potrebbe minacciare il deterrente nucleare russo.

Da oggi, secondo quanto trapelato da Mosca lo scudo missilistico USA non è in grado di contrastare il nuovo arsenale russo. All’inizio di questa settimana, Putin ha fatto notare quanto sia cambiato il rapporto di forza con gli altri paesi, oggi la Russia è l’unica ad avere armi ipersoniche operative.

I test sull’Avangard sono stati effettuati dalla base missilistica Dombarovskiy negli Urali meridionali. L’arma di nuova concezione ha raggiunto con successo il suo obiettivo nel poligono di tiro Kura sulla Kamchatka, a 6.000 chilometri di distanza.

Il ministero della Difesa ha dichiarato il mese scorso di aver mostrato l’avangard a una squadra di ispettori statunitensi nell’ambito delle misure di trasparenza nell’ambito del trattato sulle armi nucleari New Start.

L’Avanguard ha un precedente in quanto ad armi ipersoniche, infatti in passato era stata commissionata un’altra arma denominata Kinzhal che può essere installata su un caccia Mig 31. Il Kinzhal, che tradotto significa “pugnale” può volare a mach 10 con un raggio superiore ai 2000 Km, colpire bersagli a terra o in mare e può essere dotato di testate nucleari o convenzionali.

Dall’altra parte del mondo anche il Pentagono e i militari statunitensi hanno lavorato allo sviluppo di armi ipersoniche, e il segretario alla Difesa Mark Esper ha dichiarato in agosto: “probabilmente è questione di un paio d’anni prima che gli Stati Uniti ne abbiano una operativa”. Questa per gli USA è una priorità secondo il segretario alla difesa, i militari lavorano per sviluppare nuove capacità di fuoco a lungo raggio.

Gli Stati Uniti hanno anche ripetutamente messo in guardia il Congresso circa i missili ipersonici sviluppati dalla Russia e dalla Cina che saranno più difficili da abbattere, tanto che alcuni Funzionari statunitensi hanno proposto di immettere uno strato di sensori nello spazio e di insediare degli intercettori per rilevare più rapidamente i missili nemici, in particolare le minacce ipersoniche più avanzate.

I Russi sono al lavoro su altre potenziali armi, tra cui il missile balistico intercontinentale Sarmat, il drone sottomarino a propulsione nucleare Poseidon e il missile da crociera a propulsione nucleare Burevestnik.

Il Burevestnik ha suscitato particolari polemiche.

Gli Stati Uniti e l’Unione Sovietica hanno lavorato sui motori a razzo a propulsione nucleare durante la Guerra Fredda, ma alla fine hanno chiuso i progetti ritenuti troppo pericolosi. Il Burevestnik ha subito un’esplosione nell’agosto scorso durante i test sul Mar Bianco, uccidendo cinque ingegneri nucleari e due militari e provocando un breve picco di radioattività che ha alimentato i timori delle radiazioni in una città vicina.

I funzionari russi non hanno mai nominato l’arma coinvolta nell’incidente, ma gli Stati Uniti hanno affermato che si trattava del Burevestnik.

Fonti: Time; APNews

Un “motore stellare” per salvare l’intero sistema solare

0
Migliori casinò non AAMS in Italia

Un fisico ha immaginato una gigantesca struttura spaziale dotata di un sistema di propulsione capace di trasportare un intero sistema solare in un’alto quartiere della galassia, semmai ce ne fosse la necessità.

Una nuova ricerca ha avanzato un’ipotesi di come potrebbe essere un motore stellare di questo tipo.

Guardando questo video, si può afferrare il concetto di “propulsore Caplan” in grado di utilizzare l’energia del Sole per spingere la nostra stella e il suo seguito di pianeti attraverso la Via Lattea. Il propulsore prende il nome dallo scienziato che ha ideato il progetto, l’astrofisico Matthew Caplan della Illinois State University.

Ma a quale scopo realizzare una macchina così grande?

Oggi il nostro sistema solare si trova in un angolo della nostra galassia piuttosto tranquillo ma potrebbe non essere sempre cosi, in futuro il nostro pianeta potrebbe incrociare sciami di asteroidi o essere troppo vicina a una stella che si prepara ad esplodere in una supernova.

Grazie alla tecnologia a nostra disposizione possiamo calcolare la portata di questi potenziali disastri da qui a qualche milione di anni, tempo sufficiente affinché il progresso ci porti a sviluppare un motore stellare.

Il video spiega come il “Caplan Thruster” si posizionerebbe vicino al Sole, usando campi elettromagnetici per raccogliere idrogeno ed elio dal vento solare da utilizzare come combustibile.

Con l’idrogeno e l’elio si alimenterebbero due getti di energia, l’elio spinto attraverso un reattore a fusione nucleare per generare un getto di ossigeno radioattivo che spingerebbe in avanti il propulsore Caplan e uno con l’idrogeno, per mantenere la distanza dal Sole e spingerlo in avanti. Il Propulsore Caplan agirebbe fondamentalmente come un vero e proprio gigantesco rimorchiatore spaziale.

Il vento solare non fornirebbe abbastanza combustibile, per questo si renderà necessario realizzare una struttura gigantesca simile a una sfera di Dyson. Questa struttura sarebbe utilizzata per concentrare la luce solare in un punto specifico del Sole per aumentare la temperatura e di conseguenza la potenza.

L’operazione sposterebbe il Sole e non solo, i pianeti, Terra compresa continuerebbero indisturbati a orbitargli attorno.

Il Propulsore Caplan se confrontato con un’altro “motore stellare” il propulsore Shkadov, ideato dallo scienziato Leonid Shkadov avrebbe un vantaggio, sarebbe molto più veloce.

Spinto alla massima potenza il propulsore Shakdov potrebbe spostare il sistema solare di 100 anni luce in 230 milioni di anni circa, mentre il propulsore Caplan potrebbe spostare il sistema solare di 50 anni luce in solo (si fa per dire) un milione di anni. Una velocità di crociera che ci permetterebbe di sfuggire a una supernova.

Lo Shkadov Thruster è essenzialmente uno gigantesco specchio curvo, progettato per riflettere abbastanza fotoni da farlo muovere attraverso lo spazio. Tuttavia, questo movimento potrebbe essere solo in una direzione, limitando ulteriormente l’utilità dell’idea.

Per il futuro l’idea del propulsore Caplan sembra essere molto più promettente, ma ci vorranno secoli se non millenni per realizzare una struttura del genere, oggi allo stato attuale possiamo ritenere il progetto solo “scientificamente plausibile“.

Fonte: https://www.sciencealert.com/what-is-a-stellar-engine-and-could-it-help-us-escape-a-supernova

Un piano per combattere il cambiamento climatico

0
Migliori casinò non AAMS in Italia

La via è a portata di mano e in pochi decenni è attuabile, almeno secondo i ricercatori. Grazie agli ultimi dati a disposizione hanno scoperto come 143 paesi possono passare ad utilizzare il 100% di energia prodotta da fonti pulite entro il 2050, tra soli 30 anni.

Il piano avrebbe un triplice effetto, quello di ridurre sensibilmente l’emissione di gas serra con una diminuzione delle temperature, quello di ridurre notevolmente il numero di decessi causati dall’inquinamento che oggi è di circa 7 milioni di morti e infine quello di creare nuovi posti di lavoro.

L’impegno economico sarebbe davvero enorme, 73 trilioni di dollari ma, secondo i calcoli, grazie a nuovi posti di lavoro e ai risparmi verrebbe ripagato in soli sette anni.

Sulla base dei calcoli precedenti che abbiamo eseguito, riteniamo che ciò eviterà il riscaldamento globale di 1,5 gradi“, ha dichiarato a ScienceAlert l’ingegnere ambientale e autore principale Mark Jacobson.

La cronologia è più aggressiva di qualsiasi scenario IPCC –abbiamo concluso nel 2009 che una transizione del 100 percento entro il 2030 era tecnicamente ed economicamente possibile – ma per ragioni sociali e politiche, il 2050 appare una data più pratica“.

Il piano dei ricercatori comporterebbe un drastico passaggio di tutti i nostri settori energetici, inclusi elettricità, trasporti, industria, agricoltura, pesca, silvicoltura e militari all’energia rinnovabile.

Jacobson afferma che siamo in possesso già oggi del 95 percento della tecnologia di cui abbiamo bisogno, con solo soluzioni per viaggi a lunga distanza e viaggi oceanici ancora da commercializzare.

Elettrificando tutto con energia pulita e rinnovabile, riduciamo la domanda di energia di circa il 57 percento“, ha spiegato Jacobson.

Jacobson e i suoi colleghi dimostrano che è possibile soddisfare la domanda e mantenere le reti elettriche stabili utilizzando solo vento, acqua, energia solare e stoccaggio in tutti i 143 paesi.

Queste tecnologie esistono già, sono affidabili e rispondono molto più rapidamente del gas naturale, quindi sono già più economiche. Non è inoltre necessario il nucleare che richiede 10-19 anni tra la pianificazione e il funzionamento, i biocarburanti che causano un maggiore inquinamento dell’aria o l’invenzione di nuove tecnologie.

Il carbone pulito “non esiste e non esisterà mai“, afferma Jacobson, “perché la tecnologia non funziona e aumenta solo l’estrazione e le emissioni di inquinanti atmosferici riducendo al contempo il carbonio ridotto, e non c’è nessuna garanzia che il carbonio catturato rimarrà catturato“.

Il team ha scoperto che l’elettrificazione di tutti i settori energetici rende la domanda di energia più flessibile e la combinazione di energia rinnovabile e stoccaggio è più adatta a soddisfare questa flessibilità rispetto al nostro sistema attuale.

Questo piano “crea 28,6 milioni di posti di lavoro a tempo pieno in più a lungo termine rispetto alle attività commerciali come al solito e richiede solo circa lo 0,17 percento e circa lo 0,48 percento di terra rispettivamente per nuova impronta e distanza“, scrivono i ricercatori nel loro rapporto.

Realizzare le infrastrutture necessarie per questa transizione porterebbe all’emissione di CO2. I ricercatori hanno calcolato che l’acciaio e il calcestruzzo necessari richiederebbero circa lo 0,914 percento delle attuali emissioni di CO2. Ma passare alle energie rinnovabili per produrre il calcestruzzo ridurrebbe questa emissione.

Ma piani così grandi comportano un certo numero di incertezze e alcune incoerenze tra i database. Il team ne tiene conto modellando diversi scenari con diversi livelli di costi e danni climatici.

Probabilmente non è possibile prevedere esattamente cosa succederà“, ha detto Jacobson. “Ma ci sono molte soluzioni e molti scenari che potrebbero funzionare“.

Lo scrittore di tecnologia Michael Barnard ritiene che le stime dello studio siano sbilanciate verso le tecnologie e gli scenari più costosi.

Lo stoccaggio è un problema risolto, scrive  per CleanTechnica. “Anche le proiezioni più costose e conservative utilizzate da Jacobson sono molto, molto più economiche del modo normalmente utilizzato, e ci sono molte altre soluzioni in gioco“.

Gli autori del rapporto sottolineano che, durante l’implementazione di tale transizione energetica, è fondamentale affrontare contemporaneamente le emissioni provenienti da fonti come i fertilizzanti e la deforestazione.

Questa proposta potrebbe non piacere ad alcune industrie e politici che avrebbero da perdere, in particolare quelli con una lunga esperienza nel buttare enormi risorse nel ritardare i nostri progressi verso un futuro più sostenibile. Le critiche al lavoro precedente del team sono già state ricollegate a questi gruppi.

Ma “i costi della transizione sono scesi così in basso, le transizioni si stanno verificando anche in luoghi senza politiche“, ha detto Jacobson. “Ad esempio, negli Stati Uniti, 9 dei 10 stati con la maggior quantità di energia eolica installata sono stati che votano i repubblicani con poche o nessuna politica che promuove l’energia eolica“.

Sono oltre 60 i paesi che hanno già approvato leggi per passare all’elettricità rinnovabile al 100% tra il 2020 e il 2050. Questa guida può fornire a loro e ad altri paesi un esempio di come ciò può essere praticamente realizzato.

Non c’è davvero alcun aspetto negativo nel fare questa transizione“, ha spiegato Jacobson a Bloomberg. “La maggior parte delle persone ha paura che sia troppo costoso. Speriamo che questo allevierà alcune di quelle paure“.

Altri 11 gruppi di ricerca indipendenti concordano che questo tipo di transizione è possibile, tra cui i ricercatori Mark Diesendorf e Ben Elliston dell’Università del New South Wales, Australia.

Hanno esaminato le principali critiche ai piani per una transizione al 100% delle energie rinnovabili e hanno concluso che “le principali barriere ai [sistemi al 100% di energia elettrica rinnovabile] non sono né tecnologiche né economiche, ma sono principalmente politiche, istituzionali e culturali“.

Quindi, in tanti insistono sul fatto che abbiamo la tecnologia, le risorse e le conoscenze per rendere possibile questo passaggio. L’unica domanda è: Possiamo mettere da parte le nostre paure e le ideologie per farlo accadere?

Il rischio maggiore è che i piani non vengano attuati abbastanza rapidamente“, ha detto Jacobson. “Spero che le persone porteranno questi piani ai loro politici nel loro paese per aiutare a risolvere questi problemi“.

Fonte: Science Alert 

Raggiunta la conduzione di elettricità per la trasmissione dei dati a una velocità nell’ordine del femtosecondo

0
Migliori casinò non AAMS in Italia

Quando si tratta di trasferimento e calcolo dei dati, più velocemente possiamo spostare gli elettroni e condurre l’elettricità, meglio è, e gli scienziati sono appena stati in grado di trasportare elettroni a velocità inferiori al femtosecondo (meno di un quadrilionesimo di secondo) in una configurazione sperimentale.

Il trucco sta nel manipolare gli elettroni con onde luminose appositamente realizzate e prodotte da un laser ultraveloce. Potrebbe passare molto tempo prima che questo tipo di tecnologia arrivi sul tuo laptop, ma il fatto che l’abbiano fatto promette un significativo passo avanti in termini di ciò che possiamo aspettarci in futuro dai nostri dispositivi.

Al momento, i componenti elettronici più veloci possono essere accesi o spenti in picosecondi (trilioni di secondo), circa 1.000 volte più lenti di un femtosecondo.

Con il loro nuovo metodo, i fisici sono stati in grado di commutare correnti elettriche a circa 600 attosecondi (un femtosecondo corrisponde 1.000 attosecondi).

Questo potrebbe essere il lontano futuro dell’elettronica“, afferma il fisico Alfred Leitenstorfer dell’Università di Costanza in Germania. “I nostri esperimenti con impulsi di luce a ciclo singolo ci hanno portato benissimo nel raggio di attosecondi del trasporto di elettroni“.

Leitenstorfer e i suoi colleghi sono stati in grado di costruire una configurazione precisa presso il Center for Applied Photonics di Costanza. I loro macchinari potevano sia manipolare accuratamente gli impulsi luminosi ultracorti, sia costruire le nanostrutture necessarie.

Il laser utilizzato dal team è stato in grado di emettere cento milioni di impulsi di luce a ciclo singolo ogni singolo secondo al fine di generare una corrente misurabile. Utilizzando antenne d’oro su scala nanometrica a forma di papillon, il campo elettrico dell’impulso è stato concentrato in uno spazio largo appena sei nanometri (seimila milionesimi di metro).

Come risultato della loro configurazione specialistica, del tunneling elettronico e dell’accelerazione prodotta, i ricercatori hanno potuto commutare correnti elettriche ben al di sotto di un femtosecondo – meno di mezzo periodo di oscillazione del campo elettrico degli impulsi luminosi.

Andare oltre le restrizioni della convenzionale tecnologia dei semiconduttori al silicio si è dimostrata una sfida per gli scienziati, ma l’uso delle oscillazioni follemente veloci della luce per aiutare gli elettroni a guadagnare velocità potrebbe aprire nuove strade per spingere i limiti dell’elettronica.

E questo è qualcosa che potrebbe essere molto vantaggioso nella prossima generazione di computer: gli scienziati stanno attualmente sperimentando il modo in cui luce ed elettronica potrebbero lavorare insieme in varie modalità.

Alla fine, Leitenstorfer e il suo team ritengono che i limiti dei sistemi informatici di oggi potrebbero essere superati usando nanoparticelle plasmoniche e dispositivi optoelettronici, utilizzando le caratteristiche degli impulsi luminosi per manipolare gli elettroni su scale super-piccole.

Questa è la ricerca di base di cui stiamo parlando qui e potrebbe richiedere decenni per essere implementata“,  afferma Leitenstorfer.

Il prossimo passo è sperimentare una varietà di configurazioni diverse usando lo stesso principio. Questo approccio potrebbe anche offrire approfondimenti sull’informatica quantistica, affermano i ricercatori, anche se c’è ancora molto lavoro da fare.

La ricerca è stata pubblicata su Nature Physics.

Dove sono tutti quanti #6 Capitolo Finale

0
Migliori casinò non AAMS in Italia

Questo articolo è il capitolo conclusivo della serie dedicata al paradosso di Fermi e fornisce un ulteriore spiegazione al quesito posto dal grande scienziato italiano.

Nel corso dei precedenti post abbiamo potuto constatare come le condizioni che hanno fatto della Terra un habitat ideale per lo sviluppo della vita biologica e della sua conseguente evoluzione verso almeno una specie senziente siano, per quanto ne sappiamo, del tutto particolari.

Dalla posizione del Sistema Solare all’interno della nostra galassia, alle caratteristiche del Sole, dalle speciali “proprietà” della Terra stessa, alla sua meravigliosa atmosfera.

Potremmo continuare approfondendo altri aspetti legati all’evoluzione della vita sul nostro pianeta che farebbero pensare, sommati a quanti sommariamente citati poc’anzi, che la nascita della vita sia cosi legata ad una serie di fattori e di coincidenze del tutto particolari, se non uniche, da rendere estremamente improbabile il suo sviluppo in altri pianeti, anche a livello semplicemente multicellulare, figuriamoci in forma di una specie complessa ed intelligente.

Siamo allora davvero soli nell’universo?

Probabilmente no. Anche per limitarci alla Via Lattea, l’enorme spazio, popolato da qualcosa come 300 o 400 miliardi di stelle e da innumerevoli pianeti fa pensare che sia difficile che la vita si sia sviluppata soltanto sulla Terra. Sarebbe uno spreco di spazio intollerabile ed ingiustificato.

Ma allora se non siamo l’unica specie intelligente della nostra galassia e sicuramente dell’Universo perchè non è stato captato alcun segnale e tantomeno nessuno è venuto a visitarci?

Qui il paradosso di Fermi ha numerose, solide e ragionevoli risposte. Proviamo ad elencarne alcune:

Le leggi della fisica sono uguali in qualunque punto dell’universo, questo è un assioma al momento incontrovertibile.
La prima risposta sta proprio, quindi, nell’enorme distanza che potrebbe separarci da un’altra razza senziente e dal tempo che una civiltà impiega a sviluppare quelle conoscenze scientifiche e tecnologiche in grado di affrontare comunicazioni e viaggi interstellari.

La civiltà umana è partita dalla comparsa di Homo sapiens, il cosiddetto “uomo moderno”, circa 200 000 anni fa, ma se consideriamo soltanto quella parte di essa nei quali i progressi culturali, scientifici e tecnologici sono stati apprezzabili, essa non ha più di 5-6000 anni, un periodo di tempo che su base cosmologica è insignificante.

E questi 5 o 6000 anni non sono stati sufficienti a condurci verso un’effettiva esplorazione spaziale. Siamo stati sulla Luna, forse tra venti o trent’anni saremo su Marte, abbiamo spedito nel 1977 due sonde Voyager che si stanno apprestando soltanto ora a imboccare i confini del Sistema Solare.

Immaginiamo adesso una razza aliena, più evoluta di noi, che si è sviluppata sulla parte opposta della nostra galassia, diciamo a circa 40.000 anni luce dalla Terra. Immaginiamo ancora che questa civiltà padroneggi una qualche forma di ibernazione e che un pugno di coraggiosi “pionieri alieni” si appresti ad un viaggio di esplorazione. Immaginiamo infine, che questa formidabile razza aliena padroneggi la ragguardevole velocità di propulsione delle loro astronavi pari ad un quarto della velocità della luce (ricordiamo che nessun corpo dotato di massa può andare alla velocità della luce).

Ebbene questi alieni impiegherebbero qualcosa come 160.000 anni per giungere fino a noi. Un tempo lunghissimo durante il quale la nostra specie e la nostra civiltà potrebbe già essere estinta da tempo.

Non molto meglio andrebbe se si limitassero ad inviarci un messaggio alla velocità della luce, 40.000 anni è un bel “pacchetto” di tempo.

Ma le cose potrebbero andare ancora peggio, se la razza aliena intelligente, ad esempio, popolasse uno dei pianeti, della più vicina galassia alla Via Lattea: Andromeda. Qui la distanza si misura in 2,538 milioni di anni luce dalla Terra.

Bastano questi grossolani esempi per capire quanto spazio e quanto tempo ci separano da un’altra intelligenza aliena. Troppo per sperare in qualsiasi contatto, almeno di non riuscire in un lontano futuro a padroneggiare un ponte di Einstein-Rosen, scorciatoie al momento previste soltanto dalla teoria e senza obiettive conferme sperimentali.

Ma c’è di più.

Un’altra possibile risposta al paradosso di Fermi è nella teoria del “Grande Filtro”.

Elaborata nel 1998 dall’economista statunitense Robin Hanson come una sorta di barriera che inibisce lo sviluppo di civiltà extraterrestri durevoli nel tempo, l’ipotesi del Grande Filtro può essere applicata anche alla civiltà umana.
Secondo questa teoria il percorso evolutivo di una specie senziente prevede nove “passaggi”:

1) Il giusto sistema stellare ed un pianeta abitabile
2) Qualcosa di riproduttivo (ad esempio l’RNA)
3) Semplici forme di vita unicellulare (procarioti)
4) Complesse forme di vita unicellulare (archei ed eucarioti)
5) La riproduzione sessuale
6) Forme di vita pluricellulari
7) Forme di vita complesse con grandi cervelli (sviluppo dell’intelligenza)
8) Attuale livello dell’umanità
9) Colonizzazione al di fuori del proprio pianeta di origine di tipo esponenziale

Secondo Hanson nello sviluppo di una civiltà evoluta esiste all’interno di questa scala una sorta di Grande Filtro che di fatto darebbe la risposta più convincente al paradosso del grande fisico italiano. Nel nostro caso certamente il punto nove, che è quello che l’economista americano ritiene il più invalicabile di tutti.

La colonizzazione dell’Universo viene vista come passaggio finale ineluttabile a causa dell’avanzamento tecnologico di qualunque civiltà intelligente. Se una specie intelligente non è arrivata a quest’ultimo passaggio, significa che essa si è estinta durante uno degli otto passaggi precedenti.

E qui tornano ancora in ballo le immense distanze spazio temporali che abbiamo brevemente affrontato precedentemente.

Se vogliamo essere ottimisti, quindi, altre forme di vita intelligenti esistono senz’altro in un’universo cosi sterminato (la natura non fa niente per caso) ma la sua immensità ci induce a pensare che non verremo mai in contatto con loro.

Il rebus dell’intelligenza umana

0
Migliori casinò non AAMS in Italia

E’ la caratteristica più importante dell’Homo Sapiens Sapiens anche se la nostra non è l’unica specie che la possiede. Quel misterioso impasto tra memoria del passato, plasticità del presente ed anticipazione del futuro è ancora da decifrare compiutamente. Già definirla è un’avventura piuttosto complicata.

Se la sintetizziamo come la capacità di percepire sensorialmente l’ambiente, di processarne le informazioni e mantenerle in serbo per future evenienze, l’intelligenza non è una prerogativa esclusivamente umana. Primati e mammiferi (e non soltanto loro) la possiedono.

L’evoluzione umana, dal genere Homo (2 milioni e mezzo di anni fa) alla specie sapiens (200mila), fino alla sottospecie sapiens sapiens (50mila), ha progressivamente incrementato l’intelligenza permettendoci di sviluppare il linguaggio e la scrittura, la creatività e le capacità tecnologiche ma anche lo sviluppo di forme associative e relazioni complesse e sofisticate.

C’è chi teorizza l’esistenza di più categorie di intelligenza come ad esempio Daniel Goleman ed il suo concetto di intelligenza emotiva” teorizzata nell’omonimo libro del 1995, nel quale Goleman afferma, tra l’altro, che la conoscenza di sé, la persistenza e l’empatia sono elementi che nascono dall’intelligenza umana, e sono quelli che probabilmente influenzano maggiormente la vita dell’uomo. Spesso queste capacità, che vanno a costituire l’intelligenza emozionale, erano sottovalutate, ignorate o non considerate come elemento rilevante nel computo del noto ma adesso fortemente messo in discussione  quoziente d’intelligenza (QI).

Howard Gardner, psicologo e docente statunitense, afferma che ci sono almeno nove diverse tipologie di intelligenza: naturalista, musicale, logico-matematica, interpersonale (che corrisponde a quella emotiva), intrapersonale (il rapporto con se stessi), linguistica, esistenziale, corporea e spaziale.

Nonostante che questa incredibile capacità ha permesso all’Homo Sapiens Sapiens di affermarsi come specie dominante del pianeta l’intelligenza inserita nel nostro genoma è rimasta pressocché invariata nel corso degli ultimi 50.000 anni. Tuttavia è sotto gli occhi di tutti come da raccoglitori-cacciatori che utilizzavano utensili di selce agli uomini di oggi che volano nello spazio, progettano l’Intelligenza Artificiale ed elaborano una cultura complessa e ramificata ci sia un vero e proprio abisso.

Il rebus sulla vera natura dell’intelligenza è stato ben ingarbugliato da decenni di aspri dibattiti scientifici ed ideologici. Per molto tempo si è associato il concetto di intelligenza esclusivamente al talento che per definizione è un “dono” che si ha oppure no. Un’idea di intelligenza statica che si è rafforzata all’inizio dello scorso secolo con l’avvento del test per misurare il quoziente intellettivo (QI).

In realtà le intenzioni dello psicologo italo-francese Alfred Binet, nato Alfredo Binetti (1857-1911) che lo mise a punto era diametralmente opposto all’interpretazione che successivamente fu data a questo strumento. Quando Binet nel 1904 sperimentò per primo il test QI nelle scuole francesi, la sua intenzione era quella di insegnare agli insegnanti come aiutare i giovani cervelli in difficoltà a imparare di più e meglio.

Ad un secolo di quel primo esperimento sociale abbiamo la certezza che l’intelligenza non è affatto una qualità statica. Una riprova ci perviene dagli studi che James R. Flynn (1934), uno scienziato neozelandese, pubblicò nel 1998. Flynn constatò a seguito della valutazione delle serie storiche di paesi (più di una ventina) per i quali si disponeva di dati affidabili come, nel corso degli anni, il valore del quoziente intellettivo fosse aumentato in modo progressivo, con una crescita media di circa 3 punti per ogni decennio. La popolazione statunitense, ad esempio, ha guadagnato più di 13 punti dal 1938 al 1984. Siccome il patrimonio genetico cambia soltanto attraverso periodi lunghissimi di tempo è evidente che questo incremento è strettamente legato allo sviluppo culturale dell’essere umano.

Se una volta si considerava l’intelligenza come una qualità statica ed immutabile oggi sappiamo invece che non soltanto non lo è ma che se una persona ritiene che l’intelligenza sia un prodotto monolitico del destino, può diventare vittima della “minaccia dello stereotipo”, ovvero confermare involontariamente leggende sull’inferiorità intellettuale di una razza, di una classe sociale o di un genere.

Gli studi di Carol Dweck, psicologa americana, hanno dimostrato che se i bambini vengono incoraggiati verso una transizione ad una mentalità orientata alla crescita” (growth mindset), i risultati educativi possono essere sorprendenti. Utilizzando una serie di strumenti psicologici fra i quali una sistema di valutazione che non si basa sul paradigma insufficiente/sufficiente bensì su ce l’hai fatta”/“ non ancora”, si favorisce un approccio dinamico all’apprendimento. Così il cervello diventa più intelligente e soprattutto crede di poterlo diventare.

Quali sono i limiti dell’intelligenza, se mai esistono? Alcuni studiosi teorizzano che la prossima frontiera sia una combinazione tra l’intelligenza biologica e quella digitale. Anche la data di questo possibile passaggio epocale è prevista: il 2050.

Non ci resta che attendere fiduciosi…

Visitare i musei e le gallerie d’arte, secondo uno studio, aumenterebbe la longevità

0
Fermi, consapevole che il suo esperimento avrebbe potuto essere pericoloso, realizzò la pila atomica a tappe, costruendo e fermandosi di volta in volta per monitorare che il livello delle radiazioni corrispondesse ai suoi calcoli
Migliori casinò non AAMS in Italia
I ricercatori dell’University College di Londra (UCL), hanno scoperto che le persone che si occupano d’arte frequentemente, hanno un rischio del 31% in meno di morire rispetto a coloro che non lo fanno. Le persone che vanno a teatro o al museo una o due volte l’anno hanno un rischio inferiore del 14%.
Gli studi sono stati effettuati sui dati forniti da oltre 6.000 adulti in Inghilterra, su individui di età pari o superiore ai 50 anni, che stavano già partecipando ad uno studio sull’invecchiamento. Daisy Fancourt, professore associato presso il dipartimento di ricerca della scienza comportamentale e della salute della UCL, e uno degli autori dello studio, pubblicato sulla rivista BMJ afferma che “Mentre i comportamenti non salutari come il fumo e l’alcol sono sicuramente una causa di mortalità, le attività per il tempo libero e il piacere, che le persone non ritengono sia correlate alla salute, aiutano ad aumentare la longevità e migliorare il benessere”.
I partecipanti allo studio sono stati monitorati per una media di 12 anni, durante i quali i decessi sono stati registrati utilizzando i dati del National Health Service (NHS), del Regno Unito.

Perché?

Lo studio ha preso in esame fattori economici, sanitari, e sociali per trovare una spiegazione al “perché” possa esistere un legame tra le attività artistiche e la longevità. Lo studio non è in grado, grazie alle osservazioni, di stabilire le cause, ma afferma che una parte del motivo deriva dalle differenze sociali ed economiche tra le persone che vanno e non vanno nei musei, nelle mostre e nelle gallerie d’arte. Lo studio, ha scoperto che la ricchezza spiega il 9% dell’associazione, mentre gli altri fattori presi in esame sono le differenze cognitive, l’impegno sociale e civile, la salute mentale, la mobilità, la disabilità e la privazione.
Fancourt, afferma che il tempo libero e la professione svolta non hanno alcun tipo di influenza. Lo studio, spiega che “Una parte dell’associazione è attribuibile alle differenze dovute allo status socioeconomico, tra coloro che praticano le arti e non, allineandosi cosi alla ricerca”.
Tuttavia, Fancourt, afferma che “La metà dei fattori che abbiamo identificato, e che potrebbero spiegare il collegamento, sono indipendenti dall’associazione”. Fancourt, dichiara che “impegnarsi nelle arti aiuta a diminuire lo stress, aumenta la creatività e migliora le attività sociali, creando un supporto emotivo, aiutando cosi le persone ad invecchiare in maniera migliore. Abbiamo pensato anche che avere uno scopo potesse svolgere un ruolo. Se allo studio venissero aggiunte tutte le prove raccolte, si potrebbe ottenere un quadro sempre più completo, su come le arti riescano ad apportare benefici alla salute, non solo come singolo caso”.
Questo studio ha esaminato una revisione dell’Organizzazione mondiale della sanità utilizzando le prove disponibili, pubblicata all’inizio di quest’anno, scoprendo così che sia la partecipazione ricettiva, come visitare un museo, sia la partecipazione attiva, come cantare in un coro, ha apportato benefici per la salute.
L’editoriale, che ha curato la documentazione, afferma che “tutti dovrebbero avere la possibilità di partecipare ad attività culturali”. Inoltre lo studio dimostra le preoccupazioni verso il crescente declino di materie artistiche nelle scuole.
L’editoriale dichiara che “Coloro che leggono il documento potrebbero riconoscere il valore delle arti, chiedendosi anche come il coinvolgimento con la cultura e le arti possano influenzare la longevità. Esistono molti studi pubblicati su come le attività artistiche, possa indurre cambiamenti neurofisiologici positivi. Tuttavia, sono necessarie ulteriori ricerche sui possibili meccanismi che collegano gli impegni culturali alla longevità”.

La nascita che da speranza al mondo

0
Migliori casinò non AAMS in Italia

Erano le 5.40 del 24 dicembre e no, non è accaduto in una mangiatoia ma la sua nascita è stata salutata con entusiasmo. Non c’erano i magi, né incenso o mirra. Ma un sacco di gente sta accorrendo per vederlo.

Il miracolo della vita che si rinnova è avvenuto alla vigilia di Natale presso lo zoo di Potter Park, dove è nato un cucciolo di rinoceronte nero, nella cittadina di Lansing, nel Michigan.

È un maschio!” ha annunciato lo zoo sui suoi account social. Il piccoletto non ha ancora un nome, ma colleziona fan da prima che nascesse.

Un feed video di sua madre, la dodicenne Doppsee, ha ritrasmesso le immagini della sua nascita sulla pagina Facebook dello zoo.

Il rinoceronte si trovava a meno di un’ora e mezza dall’apparizione nel mondo, allattato per la prima volta a metà mattina e da allora è stato il protagonista delle pagine dei social media dello zoo.

Questa è la prima progenie di Doppsee – e la prima volta nell’esistenza centenaria dello zoo di Potter Park che un rinoceronte nero è nato lì.

La specie è in pericolo di estinzione, il risultato del bracconaggio in natura e della perdita di habitat. Circa 5.000 rinoceronti neri esistono nella natura africana, un miglioramento rispetto al loro numero storicamente basso di 20 anni fa, quando la popolazione era inferiore a 2.500 e sull’orlo dell’estinzione, secondo il World Wildlife Fund .

La nascita di questo cucciolo è stata programmata nell’ambito del programma dell’Associazione degli zoo e delle specie acquatiche, che favorisce la gestione e la conservazione della popolazione all’interno delle istituzioni appartenenti ad AZA.

Ci sono più di 50 rinoceronti neri negli zoo di AZA e uno di loro – Phineus – è arrivato allo Zoo di Potter Park nel 2017 dal Texas per riprodursi con Doppsee.

La riproduzione del rinoceronte nero in cattività è particolarmente rara, ha riferito lo zoo in un comunicato su facebook, e questo rende ogni neonato “vitale per questa popolazione in via di estinzione“.

Questo è un momento monumentale per lo zoo di Potter Park che ha richiesto al nostro staff anni di pianificazione e duro lavoro“, ha dichiarato Cynthia Wagner, direttrice dello zoo di Potter Park.

Siamo impegnati a conservare i rinoceronti e non potremmo essere più entusiasti di questa nascita“.

Fonte: pagina facebook dello zoo di Potter Park

Tempo e gravità

0
Migliori casinò non AAMS in Italia

Nel 1912 Einstein ebbe l’intuizione che poi sfociò nella teoria della relatività generale ovvero che le masse pesanti incurvano il tempo e che questa curvatura è responsabile della gravità. E calcolò una formula molto precisa per descrivere questo fenomeno.

Tanto più forte è il rallentamento del tempo tanto più marcata è l’attrazione gravitazionale. Sul nostro pianeta il tempo rallenta solo di qualche microsecondo (milionesimo di secondo) al giorno, l’attrazione gravitazionale è modesta. Sulla superficie di una stella di neutroni, dove il tempo rallenta di qualche ora al giorno, l’attrazione gravitazionale è enorme. E sulla superficie di un buco nero, dove il tempo rallenta fino a fermarsi, la gravità è talmente gigantesca che nulla può sfuggirle, neppure la luce.

La cosa straordinaria è che Einstein predisse questo fenomeno in un’epoca dove la tecnologia umana non era in grado di produrre una verifica sperimentale di questa teoria. Ci vollero quasi 50 anni per il primo esperimento che dimostrò l’esattezza delle predizioni del geniale fisico tedesco.

La prima verifica affidabile venne, infatti, effettuata nel 1959, quando Bob Pound e Glen Rebca usarono una nuova tecnica chiamata effetto Mössbauer per confrontare la velocità dello scorrere del tempo alla base di una torre dell’Università di Harvard alta 22,3 metri con quella della sua sommità. La differenza temporale rilevata ad una distanza di poco più di 22 metri era pari a 0,0000000000016 secondi (1,6 picosecondi, ossia millesimi di miliardesimi di secondo). La differenza da loro riscontrata superava di 130 volte questa accuratezza ed era in totale accordo con la legge di Einstein: il tempo scorre più lentamente alla base della torre, rispetto a quanto avvenga in cima, di 210 picosecondi al giorno.

La precisione di questa misurazione progredì nel 1976 quando Robert Vessot di Harvard posizionò un orologio atomico su un razzo della NASA che salì a 10.000 chilometri di altitudine, e usò i segnali radio per confrontare la velocità del suo ticchettio con quella degli orologi a terra. Vessot osservò così che il tempo a terra scorre più lentamente che a 10.000 chilometri di altitudine di circa 30 microsecondi (0,00003 secondi) al giorno. Ovviamente anche questa misurazione confortava la predizione di Einstein.

La consapevolezza scientifica del diverso scorrere del tempo in base alla vicinanza di un oggetto massivo ha avuto influenze concrete nella vita quotidiana di tutti noi. L’esempio più classico che si fa a questo proposito è il sistema GPS che permette ai nostri smartphone di informarci su dove ci troviamo con un margine di errore di soli 10 metri.

Il sistema si basa sui segnali radio di 27 satelliti che orbitano ad un’altitudine di circa 20.000 km. L’insieme dei satelliti visibili contemporaneamente da un punto specifico della Terra varia da un minimo di quattro ad un massimo di dodici. Ogni segnale radio proveniente da un satellite visibile comunica al nostro smartphone la posizione del satellite stesso e l’orario in cui il segnale è stato trasmesso. Lo smartphone misura l’orario di arrivo del segnale e lo confronta con quello della sua trasmissione, calcolando così la distanza da esso percorsa (ossia, la propria distanza dal satellite); quindi, conoscendo le posizioni e le distanze di diversi satelliti, può ricavare tramite triangolazione la propria posizione.

E qui entra in ballo la teoria della relatività generale di Einstein. Infatti all’altitudine di 20.000 km nel quale orbitano i 27 satelliti del sistema GPS il tempo scorre più rapidamente rispetto alla Terra di 40 microsecondi al giorno, e i satelliti devono pertanto apportare le necessarie correzioni: misurano l’orario con i propri orologi e, prima di trasmetterlo ai nostri smartphone, lo correggono tenendo conto del rallentamento del tempo sulla Terra.

Questa però non è l’unica applicazione tecnologica della teoria della relatività generale i suoi postulati sono entrati anche nel laser, nell’energia nucleare e nella crittografia quantistica.