È in corso un dibattito di lunga data tra tecnici e ricercatori sull’intelligenza artificiale: l’AI sarà mai cosciente o già lo è?
Il principale ricercatore di OpenAI, Ilya Sutskever, qualche tempo ha espresso su X (ex Twitter) la sua opinione sulla questione sctenando un vespaio con le reazioni di tecnici e ricercatori del settore.
Ora, dopo molti mesi di discussioni la domanda resta ancora senza risposta. Quindi, chi ha ragione?
Sutskever sostiene che l’intelligenza artificiale sia già cosciente
Tutto è iniziato nel 2022, quando Sutskever ha twittato: “può darsi che le grandi reti neurali di oggi siano leggermente consapevoli”. Potrebbe sembrare un’affermazione abbastanza innocua, ma in realtà una siffata dichiarazione è clamorosa e, infatti, ha provocato una marea di reazioni.
Come mai? Secondo il ricercatore IA dell’UNSW di Sidney Toby Walsh è perché l’argomento fa deragliare la conversazione e può portare a pensare che l’evoluzione dell’intelligenza artificiale sia fuori controllo. “Ogni volta che commenti speculativi come questo vengono diffusi, ci vogliono mesi di sforzi per riportare la conversazione sulle opportunità e sulle minacce più realistiche poste dall’IA”, ha twittatoWalsh.
Il sociotecnologo indipendente Jürgen Geuter ha, inoltre, definito la visione irrealistica. Ha twittato che “potrebbe anche darsi che questa interpretazione non abbia basi nella realtà ed è solo un passo di vendita per rivendicare capacità tecnologiche magiche per una startup che esegue statistiche molto semplici”, insomma, potrebbe essere una dichiarazioni mirata soprattutto a fare pubblicità all’azienda.
Qualcuno ha reagito sostenendo il pernsiero di Geuter. “Può darsi che ci sia una teiera in orbita attorno al Sole da qualche parte tra la Terra e Marte”, ha scherzato . “Questo sembra più ragionevole delle riflessioni di Ilya, in effetti”.
È solo clamore?
L’esperto di deep learning Valentino Zocca ha aggiunto che l’intelligenza artificiale “NON è cosciente, ma a quanto pare l’hype è più importante di qualsiasi altra cosa”. Insomma, un’altra opinione che sembra spingere verso l’idea che Sutskever abbia solo cercato laluce dei riflettori.
Tanto clamore, alla fine, è giustificato? Certo, le affermazioni secondo cui l’IA potrebbe essere o diventare cosciente suscitano nell’opinione pubblica l’idea che un’Intelligenza Artificiale consapevole potrebbe finire per prendere il sopravvento e potrebbe essere inutile provocare inutilmente paura nella gente, specie in un’epoca come questa in cui si è diffusa un’ingiustificata diffidenza verso la scienza e la tecnologia; A leggere i commenti sui social sembra che siamo ad un passo da un nuova forma di luddismo estesa a tutta la scienza e non solo alla tecnologia.
Eppure, se i fatti dimostrano che la tecnologia potrebbe davvero avanzare a quella fase ed acquistare consapevolezza non vale la pena di dibatterne?
Il problema, tuttavia, sembra risiedere nel fatto che, secondo tutte le valutazioni, l’IA non è sul punto di diventare cosciente e non sono pochi gli esperti del settore che ritengono che potrebbe non diventarlo mai. Un simile dibattito potrebbe, quindi, allarmare l’opinione pubblica e scatenare nei non esperti paure che non hanno ragione di essere.
Questo, ovviamente, potrebbe essere uno di quei casi in cui il tempo rivelerà chi aveva ragione e chi aveva torto.
Samsung è pronta a rivoluzionare nuovamente il mondo degli smartphone pieghevoli. Secondo le ultime indiscrezioni, l’azienda sudcoreana sta lavorando alacremente per rinnovare le sue serie Samsung Galaxy Z Fold e Z Flip, con l’obiettivo di lanciare sul mercato nuovi modelli all’avanguardia nel corso del 2025.
Un futuro pieghevole
La scoperta più recente arriva dalla beta di One UI 7.0, l’ultima interfaccia utente di Samsung. Al suo interno sono stati rinvenuti i seguenti numeri di modello:
SM-F751: Probabilmente il Galaxy Z Flip 7, il successore del popolare smartphone a conchiglia.
SM-F966 e SM-F968: Si ritiene che si tratti dei Galaxy Z Fold 7, successori del modello di punta pieghevole di Samsung. Il terzo modello potrebbe indicare una variante o una versione specifica per un determinato mercato.
SM-F958: Potrebbe riferirsi al successore del Galaxy Z Fold Special Edition, una versione più economica del Fold.
Sebbene si tratti ancora di indiscrezioni, è possibile ipotizzare alcune delle novità che potrebbero caratterizzare i nuovi dispositivi. Samsung potrebbe introdurre nuovi materiali e finiture per rendere i suoi dispositivi pieghevoli ancora più eleganti e resistenti. È probabile che gli schermi interni ed esterni dei nuovi modelli siano più grandi e offrano una qualità visiva superiore.
I nuovi processori Qualcomm Snapdragon di ultima generazione garantiranno prestazioni ancora più fluide e potenti. Samsung potrebbe integrare sensori fotografici di nuova generazione per migliorare la qualità delle immagini e dei video. Si vocifera dell’introduzione di nuove funzionalità software, come una migliore integrazione con l’ecosistema Samsung e funzionalità avanzate per la multi-tasking.
È interessante notare che la beta di One UI 7.0 non menziona il Galaxy S25 Slim e il Galaxy Z Flip FE. Ciò non significa che questi dispositivi siano stati cancellati, ma semplicemente che potrebbero essere presentati in un secondo momento. Il Galaxy Z Flip FE, in particolare, potrebbe rappresentare un’opzione più economica per gli utenti che desiderano un dispositivo pieghevole senza spendere una fortuna.
Samsung Galaxy Z Fold: specifiche tecniche da top di gamma
Il Samsung Galaxy Z Fold ha rivoluzionato il modo di concepire gli smartphone, introducendo un fattore di forma completamente nuovo: quello pieghevole. Con ogni nuova generazione, Samsung affina questa tecnologia, offrendo ai consumatori dispositivi sempre più performanti e innovativi. Il design del Galaxy Z Fold è un capolavoro di ingegneria. Lo schermo interno, ampio e luminoso, si piega perfettamente a metà, trasformando lo smartphone in un compatto tablet. Il display esterno, più piccolo e sottile, permette di utilizzare il dispositivo in modalità telefono senza dover aprire lo schermo principale. Con ogni nuova generazione, Samsung affina le cerniere, rendendole più resistenti e discrete, e riduce le pieghe visibili sullo schermo.
Sotto la scocca, il Galaxy Z Fold monta i processori più potenti sul mercato, garantendo prestazioni fluide e reattive in qualsiasi situazione. La memoria RAM e la capacità di storage sono generose, permettendo di eseguire multitasking senza problemi e di archiviare una grande quantità di dati. Il comparto fotografico è all’avanguardia, con sensori di alta qualità e funzionalità avanzate per scattare foto e video di qualità professionale.
Il software del Galaxy Z Fold è ottimizzato per sfruttare al meglio le potenzialità dello schermo pieghevole. È possibile utilizzare più app contemporaneamente, trascinandole da uno schermo all’altro con un semplice gesto. Inoltre, Samsung offre una serie di app esclusive, progettate specificamente per l’esperienza multitasking.
Il Samsung Galaxy Z Foldrappresenta il futuro della telefonia mobile. Unendo le funzionalità di uno smartphone e di un tablet, questo dispositivo offre un’esperienza utente unica e innovativa. Con ogni nuova generazione, Samsung si avvicina sempre di più alla realizzazione di un dispositivo pieghevole perfetto, capace di soddisfare anche gli utenti più esigenti.
Conclusioni
Il futuro dei dispositivi pieghevoli Samsung si presenta ricco di novità e sorprese. L’azienda sudcoreana continua a investire in questa tecnologia, dimostrando una forte determinazione a rendere i dispositivi pieghevoli accessibili e attraenti per un pubblico sempre più vasto. Non resta che attendere ulteriori conferme e dettagli ufficiali da parte di Samsung.
L’intelligenza artificiale generale (AGI) è da tempo un obiettivo ambizioso per i ricercatori e le aziende tecnologiche come OpenAI e Microsoft.
La promessa di creare macchine in grado di superare l’intelligenza umana in praticamente ogni compito ha affascinato e inquietato allo stesso tempo. Tuttavia, la definizione stessa di AGI e le implicazioni etiche della sua realizzazione sono state a lungo oggetto di dibattito.
Un accordo segreto per definire l’AGI
Un recente rapporto di The Information ha svelato un aspetto sorprendente della collaborazione tra OpenAI e Microsoft: le due aziende avrebbero concordato una definizione molto particolare di AGI, strettamente legata al profitto economico. Secondo questo accordo, l’AGI sarebbe raggiunta nel momento in cui i sistemi di intelligenza artificiale sviluppati da OpenAI genereranno almeno 100 miliardi di dollari di ricavi.
Questa definizione, che potrebbe sembrare in contrasto con la visione tradizionale di AGI come una forma di intelligenza paragonabile a quella umana, è in realtà una conseguenza diretta degli interessi economici in gioco. Microsoft, con il suo massiccio investimento in OpenAI, ha un interesse evidente nel commercializzare le tecnologie sviluppate dalla startup e nel generare profitti.
La definizione di AGI come un obiettivo economico solleva importanti questioni etiche. Se lo sviluppo dell’AGI è guidato principalmente dalla prospettiva del profitto, quali saranno le conseguenze per la società? Esiste il rischio che le tecnologie più avanzate siano utilizzate per consolidare il potere di poche grandi aziende, a discapito degli interessi della maggior parte delle persone?
Inoltre, la definizione di AGI come un sistema in grado di generare profitti potrebbe portare a sviluppare sistemi di intelligenza artificiale che, pur essendo molto potenti, non sono necessariamente allineati con i valori umani. Ad esempio, un sistema di intelligenza artificiale potrebbe essere ottimizzato per massimizzare i profitti a breve termine, anche a costo di causare danni a lungo termine all’ambiente o alla società.
La decisione di OpenAI di trasformarsi da organizzazione no-profit a società a scopo di lucro è un chiaro segnale che l’azienda sta dando priorità alla crescita economica. Questa scelta è comprensibile, dato l’enorme investimento richiesto per sviluppare tecnologie all’avanguardia. Tuttavia, solleva interrogativi sulla capacità di OpenAI di mantenere la sua missione originaria di sviluppare l’intelligenza artificiale a beneficio di tutta l’umanità.
L’allontanamento strategico tra Microsoft e OpenAI
La decisione di OpenAI di sviluppare internamente modelli di intelligenza artificiale per integrare nel suo prodotto 365 Copilot rappresenta un punto di svolta significativo nella relazione con Microsoft. Questa mossa, seppur comprensibile dal punto di vista strategico, solleva interrogativi sul futuro della partnership tra le due aziende. Microsoft, ambendo a una leadership nel settore dell’intelligenza artificiale, ha compreso l’importanza di sviluppare tecnologie proprietarie. Dipendere esclusivamente da un’azienda esterna, per quanto innovativa, potrebbe limitare la flessibilità e la velocità di implementazione delle nuove soluzioni.
Sviluppando internamente i modelli di intelligenza artificiale, Microsoft può personalizzare maggiormente le funzionalità e integrarle in modo più seamless con l’ecosistema Microsoft 365. A lungo termine, investire nello sviluppo interno potrebbe rivelarsi più conveniente rispetto a pagare licenze a terzi, soprattutto considerando l’ampia scala di utilizzo dei prodotti Microsoft.
La crescita di OpenAI come concorrente diretto potrebbe portare a una maggiore competizione nel mercato dell’intelligenza artificiale, con potenziali benefici per i consumatori in termini di innovazione e riduzione dei prezzi. La partnership potrebbe subire una rivisitazione, con una ridefinizione dei ruoli e degli obiettivi. È possibile che le due aziende mantengano una collaborazione, ma su termini diversi e con una maggiore focalizzazione su aree specifiche.
La competizione tra le due aziende potrebbe stimolare un’accelerazione dello sviluppo dell’intelligenza artificiale, portando a nuove e innovative applicazioni. La decisione di OpenAI di sviluppare internamente i propri modelli di intelligenza artificiale rappresenta un punto di svolta nella sua relazione con Microsoft. Questa mossa, se da un lato potrebbe portare a una maggiore competizione nel settore, dall’altro potrebbe rafforzare la posizione di entrambe le aziende. Sarà interessante osservare come si evolverà questa dinamica nei prossimi anni e quali saranno le conseguenze per il mercato dell’intelligenza artificiale nel suo complesso.
Microsoft potrebbe accelerare l’integrazione dell’intelligenza artificiale in tutti i suoi prodotti, dalla suite Office a Azure, creando un ecosistema coerente e potente. La competizione potrebbe portare alla definizione di nuovi standard e protocolli per lo sviluppo e l’utilizzo dell’intelligenza artificiale. Entrambe le aziende potrebbero cercare nuove partnership con altre aziende e istituzioni di ricerca per accelerare lo sviluppo delle proprie tecnologie.
Conclusioni
La definizione di AGI come un obiettivo economico è un punto di svolta importante nella storia dell’intelligenza artificiale. Questa scelta ha profonde implicazioni per lo sviluppo futuro di questa tecnologia e per il nostro modo di vivere. È fondamentale che la società nel suo complesso rifletta su queste implicazioni e lavori per garantire che l’intelligenza artificiale sia sviluppata e utilizzata in modo etico e responsabile.
I team operativi del controllo missione hanno confermato che la missione Parker Solar Probe della NASA volta a “toccare” il Sole ha superato il suo avvicinamento record alla superficie solare il 24 dicembre 2024.
La sonda Parker solar probe ha infranto il prcedente record volando a poco più di 8 milioni di chilometri sopra la superficie del Sole, attraversando l’atmosfera solare alla velocità incredibile un milione di chilometri orari, più veloce di qualsiasi altro oggetto creato dall’uomo. Un segnale acustico ricevuto nella tarda serata del 26 dicembre ha confermato che la navicella spaziale ha superato l’incontro indenne e sta funzionando normalmente.
Questo passaggio, il primo di una serie di altri a questa distanza, ha consentito alla sonda di effettuare misurazioni scientifiche senza pari, potenzialmente in grado di cambiare la nostra comprensione del Sole.
“Un passaggio così vicino al Sole è un momento storico nella prima missione dell’umanità verso una stella“, ha affermato Nicky Fox, che dirige lo Science Mission Directorate presso la sede centrale della NASA a Washington. “Studiando il Sole da vicino, possiamo comprendere meglio i suoi impatti in tutto il nostro sistema solare, inclusa la tecnologia che utilizziamo quotidianamente sulla Terra e nello spazio, oltre a scoprire il funzionamento delle stelle in tutto l’universo per aiutarci nella nostra ricerca di mondi abitabili oltre il nostro pianeta natale“.
La sonda solare Parker ha trascorso gli ultimi sei anni a prepararsi per questo momento. Lanciata nel 2018, la sonda spaziale ha utilizzato sette sorvoli di Venere per dirigersi gravitazionalmente sempre più vicino al Sole. Con il suo ultimo sorvolo di Venere il 6 novembre 2024, la sonda spaziale ha raggiunto la sua orbita ottimale. Questa orbita ovale porta la sonda spaziale a una distanza ideale dal Sole ogni tre mesi, abbastanza vicina per studiare i misteriosi processi del nostro Sole ma non troppo vicina per essere sopraffatta dal calore del Sole e dalle radiazioni dannose. La sonda spaziale rimarrà in questa orbita per il resto della sua missione principale.
“Parker Solar Probe sta sfidando uno degli ambienti più estremi nello spazio e sta superando tutte le aspettative“, ha affermato Nour Rawafi, scienziato del progetto Parker Solar Probe presso il Johns Hopkins Applied Physics Laboratory (APL), che ha progettato, costruito e gestisce la navicella spaziale dal suo campus a Laurel, nel Maryland. “Questa missione sta inaugurando una nuova era d’oro dell’esplorazione spaziale, avvicinandoci più che mai alla scoperta dei misteri più profondi e duraturi del Sole“.
Vicino al Sole, la navicella spaziale si affida a uno scudo di schiuma di carbonio per proteggersi dal calore estremo nell’atmosfera solare superiore chiamata corona, che può superare 1 milione di gradi Fahrenheit. Lo scudo è stato progettato per raggiungere temperature di 2.600 gradi Fahrenheit, abbastanza calde da fondere l’acciaio, mantenendo gli strumenti dietro di esso ombreggiati a una temperatura ambiente confortevole. Nella corona calda ma a bassa densità, si prevede che lo scudo della navicella spaziale si riscaldi fino a 1.800 gradi Fahrenheit.
“È monumentale riuscire a portare un veicolo spaziale così vicino al Sole“, ha affermato John Wirzburger, ingegnere dei sistemi di missione della sonda solare Parker presso APL. “Questa è una sfida che la comunità scientifica spaziale ha voluto affrontare sin dal 1958 e ha trascorso decenni a far progredire la tecnologia per renderla possibile“.
Volando attraverso la corona solare, la sonda solare Parker può effettuare misurazioni che aiuteranno gli scienziati a comprendere meglio come mai la regione diventi così tanto più calda rispetto alla superficie del Sole, a tracciare l’origine del vento solare (un flusso costante di materiale che fuoriesce dal Sole) e a scoprire come le particelle energetiche vengono accelerate fino a metà della velocità della luce.
“I dati sono così importanti per la comunità scientifica perché ci offrono un altro punto di osservazione“, ha affermato Kelly Korreck, scienziato del programma presso la sede centrale della NASA ed eliofisico che ha lavorato su uno degli strumenti della missione. “Ottenendo resoconti di prima mano su ciò che accade nell’atmosfera solare, Parker Solar Probe ha rivoluzionato la nostra comprensione del Sole“.
I passaggi precedenti hanno già aiutato gli scienziati a comprendere meglio il Sole. Quando la sonda spaziale è entrata per la prima volta nell’atmosfera solare nel 2021, ha scoperto che il confine esterno della corona è rugoso con punte e valli, contrariamente a quanto ci si aspettava. La sonda solare Parker ha anche individuato l’origine di importanti strutture a zig-zag nel vento solare, chiamate tornanti, sulla superficie visibile del Sole, la fotosfera.
Da quel primo passaggio nel Sole, la sonda ha trascorso molto tempo nella corona, dove si verificano la maggior parte dei processi fisici critici.
Questa immagine concettuale mostra la sonda solare Parker in procinto di entrare nella corona solare. – NASA/Johns Hopkins APL/Ben Smith
“Ora comprendiamo il vento solare e la sua accelerazione lontano dal Sole“, ha affermato Adam Szabo, scienziato della missione Parker Solar Probe presso il Goddard Space Flight Center della NASA a Greenbelt, nel Maryland. “Questo avvicinamento ravvicinato ci fornirà più dati per capire più da vicino come viene accelerato“.
La sonda solare Parker ha anche fatto delle scoperte nel sistema solare interno. Le osservazioni hanno mostrato come le gigantesche esplosioni solari chiamate espulsioni di massa coronale aspirano la polvere mentre attraversano il sistema solare, e altre osservazioni hanno rivelato delle scoperte inaspettate sulle particelle energetiche solari. I sorvoli di Venere hanno documentato le emissioni radio naturali del pianeta dalla sua atmosfera, così come la prima immagine completa del suo anello di polvere orbitale .
Finora la sonda ha solo comunicato di essere sicura, ma presto si troverà in una posizione che le consentirà di trasmettere in streaming i dati raccolti durante quest’ultimo passaggio solare.
“I dati che arriveranno dalla navicella spaziale saranno informazioni inedite su un luogo in cui noi, come umanità, non siamo mai stati“, ha affermato Joe Westlake, direttore della Heliophysics Division presso la sede centrale della NASA. “È un risultato incredibile“.
I prossimi passaggi ravvicinati al sole previsti dalla sonda saranno il 22 marzo 2025 e il 19 giugno 2025.
Il paracetamolo, un pilastro della nostra farmacopea domestica, potrebbe celare effetti collaterali inaspettati e di vasta portata. Questo analgesico, tra i più consumati al mondo, non solo allevierebbe il dolore fisico, ma influenzerebbe anche la nostra percezione del rischio, spingendoci a comportamenti più audaci e potenzialmente pericolosi.
Paracetamolo: un’influenza profonda sulla psiche
Uno studio recente, condotto dalla Ohio State University, ha sollevato allarmi significativi. I ricercatori hanno osservato come una singola dose di paracetamolo possa ridurre la percezione delle emozioni negative associate al rischio, spingendo le persone a intraprendere azioni più arrischiate. Questa scoperta è particolarmente preoccupante considerando l’ampia diffusione del farmaco: negli Stati Uniti, circa un quarto della popolazione lo assume regolarmente.
Gli effetti non si limitano alla sfera comportamentale. Numerose ricerche suggeriscono che questo farmaco interferisca con una vasta gamma di processi psicologici. Riducendo la sensibilità al dolore emotivo, indebolendo l’empatia e alterando le funzioni cognitive, il farmaco potrebbe innescare una cascata di conseguenze inattese.
Per comprendere meglio questi meccanismi, i ricercatori hanno condotto una serie di esperimenti su un ampio campione di studenti universitari. Divisi in due gruppi, uno trattato con paracetamolo e l’altro con un placebo, i partecipanti sono stati sottoposti a un gioco virtuale che simulava un’attività rischiosa: gonfiare un palloncino virtuale per guadagnare denaro, con il rischio di farlo scoppiare e perdere tutto.
I risultati sono stati inequivocabili. Gli studenti che avevano assunto paracetamolo si sono mostrati significativamente più propensi a gonfiare il palloncino oltre il limite, dimostrando una maggiore tolleranza al rischio rispetto al gruppo di controllo. Queste scoperte aprono scenari complessi e richiedono ulteriori approfondimenti. Se da un lato il paracetamolo rappresenta un alleato prezioso nella gestione del dolore, dall’altro solleva interrogativi sulla sua sicurezza e sull’uso a lungo termine.
È fondamentale che futuri studi approfondiscano i meccanismi neurobiologici alla base di questi effetti, valutandone l’impatto sulla popolazione generale e identificando eventuali sottogruppi particolarmente vulnerabili. Inoltre, è necessario rivalutare le indicazioni terapeutiche, considerando la possibilità di effetti collaterali psicologici e comportamentali.
Effetti inaspettati
Per confermare questi risultati, i ricercatori hanno sottoposto i partecipanti a diversi sondaggi, chiedendo loro di valutare il rischio percepito in varie situazioni, come scommettere o praticare sport estremi. Anche in questo caso, il paracetamolo sembrava ridurre la percezione del rischio, sebbene gli effetti non siano stati sempre consistenti.
Come spiegare questi risultati? I ricercatori ipotizzano che il paracetamolo possa agire riducendo l’ansia e le emozioni negative associate al rischio, spingendo le persone a prendere decisioni più audaci. In altre parole, il farmaco potrebbe attenuare la paura di fallire, incoraggiando comportamenti più rischiosi. Tuttavia, questa non è l’unica interpretazione possibile. Altri fattori psicologici potrebbero essere in gioco, come una maggiore fiducia nelle proprie capacità o una diversa valutazione dei benefici e dei costi associati al rischio.
Nonostante le incertezze, i risultati di questo studio sollevano importanti interrogativi sull’uso del paracetamolo. Questo farmaco, considerato essenziale dall’Organizzazione Mondiale della Sanità, potrebbe avere effetti collaterali inattesi e di vasta portata. È fondamentale sottolineare che si tratta di una ricerca iniziale e che sono necessari ulteriori studi per confermare questi risultati e chiarire i meccanismi psicologici sottostanti. Tuttavia, questa scoperta apre nuove prospettive sulla comprensione del comportamento umano e sulle potenziali implicazioni dell’uso di farmaci apparentemente innocui.
Conclusioni
Il paracetamolo, un farmaco onnipresente nella nostra vita, potrebbe nascondere un volto oscuro. La sua capacità di influenzare la nostra percezione del rischio e le nostre decisioni rappresenta una sfida per la ricerca medica e per la società nel suo complesso. È necessario un approccio multidisciplinare per comprendere appieno le implicazioni di questa scoperta e garantire un uso consapevole e sicuro di questo farmaco.
Il 25 dicembre 2021, il mondo assisteva con trepidazione al lancio del James Webb Space Telescope (JWST), un’impresa ingegneristica senza precedenti che prometteva di rivoluzionare la nostra comprensione dell’universo. E così è stato. In soli tre anni, questo potente osservatorio spaziale ha già superato ogni aspettativa, offrendoci una visione senza precedenti delle origini cosmiche.
James Webb Space Telescope: un viaggio nel tempo cosmico
Una delle principali missioni di JWST è quella di scrutare le profondità del cosmo per osservare le prime galassie formatesi dopo il Big Bang. Grazie alla sua capacità di rilevare la debole luce infrarossa, JWJames Webb Space Telescope è in grado di “vedere” attraverso le immense distanze cosmiche e di penetrare le polveri cosmiche che oscurano la vista degli oggetti più lontani.
Le immagini e i dati raccolti da James Webb Space Telescope hanno svelato un universo primordiale sorprendentemente attivo e ricco di galassie massicce e luminose. Queste galassie, formatesi quando l’universo aveva appena qualche centinaio di milioni di anni, sfidano le nostre attuali teorie sulla formazione stellare.
Una delle scoperte più sorprendenti è stata l’assenza di polvere in queste prime galassie. Normalmente, le galassie più mature sono avvolte in spesse nubi di polvere, prodotte dalle esplosioni delle stelle più massicce. Tuttavia, le galassie osservate da JWST appaiono sorprendentemente blu e prive di polvere, suggerendo che la formazione stellare in quell’epoca avveniva in modo molto diverso da quanto osserviamo oggi.
È possibile che le prime stelle fossero così massicce da collassare direttamente in buchi neri, senza passare attraverso la fase di supernova? Forse le supernove nelle prime galassie erano così potenti da espellere tutta la polvere, lasciando dietro di sé un nucleo stellare blu e privo di polveri. La intensa radiazione ultravioletta emessa dalle prime stelle potrebbe aver distrutto la polvere, impedendole di accumularsi.
Un viaggio nel cuore dell’Universo Primordiale
Le prime stelle, composte principalmente da idrogeno ed elio, hanno forgiato gli elementi più pesanti che costituiscono oggi i pianeti, le stelle e noi stessi. Il James Webb Space Telescope ha permesso di analizzare la composizione chimica di queste prime galassie, rivelando una sorprendente abbondanza di azoto e una carenza di altri metalli. Questo suggerisce che i processi di formazione stellare e di arricchimento chimico nell’universo primordiale erano molto diversi da quelli che osserviamo oggi.
Un’altra scoperta sorprendente è stata quella di galassie estremamente luminose e massicce, formatesi in un’epoca molto precoce dell’universo. Queste galassie presentano caratteristiche inattese, come l’assenza di polvere e una formazione stellare molto rapida. Queste osservazioni sfidano i nostri modelli cosmologici e suggeriscono che i processi di formazione delle prime galassie erano più efficienti di quanto si pensasse in precedenza.
Le immagini del James Webb Space Telescope hanno rivelato la presenza di numerosi “punti rossi“, oggetti compatti e luminosi di natura ancora sconosciuta. Inizialmente si pensava che fossero galassie massicce e superdense, ma osservazioni più dettagliate hanno mostrato che queste sorgenti presentano caratteristiche incoerenti con questa interpretazione.
I punti rossi emettono una forte radiazione ultravioletta e presentano segni di attività nucleare, suggerendo la presenza di buchi neri supermassicci. Tuttavia, non emettono raggi X, come ci si aspetterebbe da un quasar tipico. Questa combinazione di caratteristiche ha portato gli astronomi a ipotizzare che i punti rossi potrebbero rappresentare una fase intermedia dell’evoluzione dei buchi neri supermassicci e delle galassie.
Il James Webb Space Telescope ha anche scoperto numerose galassie “zombie“, ovvero galassie massicce che hanno cessato di formare nuove stelle in un’epoca relativamente precoce dell’Universo. Queste galassie sono delle vere e proprie “fossili cosmici” che ci permettono di studiare le prime fasi della formazione delle galassie.
Le scoperte di JWST stanno mettendo alla prova i nostri modelli cosmologici. La presenza di galassie massicce e luminose in un’epoca così precoce dell’Universo suggerisce che la formazione delle strutture cosmiche potrebbe essere avvenuta più rapidamente di quanto previsto. Inoltre, l’abbondanza di azoto nelle prime galassie e la natura dei punti rossi pongono nuove sfide alla nostra comprensione dei processi fisici che hanno governato l’evoluzione dell’Universo.
Conclusioni
Il James Webb Space Telescope continuerà a svelare i segreti dell’Universo Primordiale, fornendo nuovi dati che ci permetteranno di affinare i nostri modelli cosmologici e di comprendere meglio l’origine e l’evoluzione delle galassie. Le prossime osservazioni si concentreranno sull’analisi della composizione chimica delle prime galassie, sullo studio della formazione delle stelle e dei buchi neri supermassicci e sulla ricerca di eventuali segnali di vita extraterrestre.
Ha aperto una nuova finestra sull’universo, rivelando un cosmo ricco di sorprese e misteri. Le sue scoperte stanno rivoluzionando la nostra comprensione dell’origine e dell’evoluzione dell’Universo, e ci stanno spingendo a ripensare le nostre teorie più consolidate. Il futuro della cosmologia si presenta ricco di nuove e affascinanti sfide.
L'Universo viola il perfetto principio cosmologico
Generazioni fa, i cosmologi hanno affermato che l’Universo potrebbe non solo essere lo stesso in tutte le direzioni ma, anche in ogni momento. Ma è vero?
Una delle grandi rivoluzioni scientifiche iniziò con Copernico, il quale riteneva che non occupassimo un posto speciale nell’Universo.
Man mano che la nostra visione dell’Universo si espandeva, sviluppammo il principio cosmologico: la Terra, il Sole e persino la Via Lattea non occupavano un posto speciale nel cosmo.
Forse, come hanno suggerito Fred Hoyle, Hermann Bondi e Tommy Gold, anche noi non occupiamo un “tempo” speciale nell’Universo e l’Universo non cambia davvero mai. Ma può essere vero?
100 anni fa avvenne una rivoluzione scientifica senza precedenti.
La scoperta di Hubble di una variabile Cefeide nella galassia di Andromeda, M31, ci ha aperto l’Universo, fornendoci le prove osservative di cui avevamo bisogno per le galassie oltre la Via Lattea e portandoci all’espansione dell’Universo. ( Crediti : NASA, ESA e Hubble Heritage Team (STScI/AURA); Illustrazione tramite NASA, ESA e Z. Levay (STScI))
Le singole stelle sono state misurate in galassie al di fuori della Via Lattea.
La trama originale di Edwin Hubble delle distanze delle galassie rispetto al redshift (a sinistra), che stabilisce l’Universo in espansione, rispetto a una controparte più moderna di circa 70 anni dopo (a destra). In accordo sia con l’osservazione che con la teoria, l’Universo è in espansione, e la pendenza della retta che correla la distanza alla velocità di recessione è una costante. ( Crediti : E. Hubble; R. Kirshner, PNAS, 2004)
Combinando le distanze misurate con la velocità di recessione osservata, abbiamo determinato che l’Universo si stava espandendo.
Esiste un’ampia serie di prove scientifiche che supportano l’immagine dell’Universo in espansione e del Big Bang: dove le cose erano più calde, più dense e meno evolute in passato. Ma ci sono voluti molti decenni per raccogliere queste prove; nei primi giorni, le idee concorrenti erano ancora praticabili. ( Credito : NASA / GSFC)
Ma l’Universo si stava davvero evolvendo, come predice il Big Bang?
Questa immagine mostra una sezione della distribuzione della materia nell’Universo simulata dal complemento GiggleZ al sondaggio WiggleZ. Ci sono molte strutture cosmiche che sembrano ripetersi su scale progressivamente più piccole, ma questo implica che l’Universo sia veramente un frattale? E questo significa che è davvero immutabile nel tempo? ( Crediti : Greg Poole, Center for Astrophysics and Supercomputing, Swinburne)
Forse era dinamico ma immutabile: cosmicamente indistinguibile in tempi diversi.
Nel Big Bang, l’Universo in espansione fa sì che la materia si diluisca nel tempo, mentre nella Teoria dello Stato Stazionario, la continua creazione di materia assicura che la densità rimanga costante nel tempo. (Credito: E. Siegel)
L’Universo potrebbe obbedire al perfetto principio cosmologico: identico in tutti i luoghi e nel tempo.
Più guardi lontano, più lontano guardi nel passato. Se il numero di galassie, la densità e le proprietà di quelle galassie e altre proprietà cosmiche come la temperatura e il tasso di espansione dell’Universo non cambiasserocambiare, avresti la prova di un Universo che è costante nel tempo. ( Credito : NASA/ESA/A. Feild (STScI))
Sarebbe necessaria solo una piccola quantità costante di creazione di materia spontanea.
Man mano che l’Universo si espande, diventa meno denso. Tuttavia, se si verificasse una lenta e costante di creazione di una certa quantità di materia, potrebbe mantenere costante la densità, rendendo l’Universo “lo stesso” non solo in tutte le posizioni nello spazio, ma anche nel tempo. ( Credito : designua / Adobe Stock)
Galassie e stelle di tutte le età dovrebbero essere trovate ovunque, universalmente.
La maggior parte delle più grandi galassie conosciute nell’Universo si trovano nel cuore di massicci ammassi di galassie, come il vicino ammasso di galassie mostrato qui. Se le galassie si assemblano e crescono nel tempo cosmico, è molto probabile che le galassie più vicine, in media, siano le più grandi che osserviamo oggi, mentre, se il modello dello stato stazionario e il perfetto principio cosmologico sono corretti, galassie come queste saranno trovato a tutte le distanze, anche negli oggetti sullo sfondo più distanti visibili qui. ( Crediti : CTIO/NOIRLab/DOE/NSF/AURA; Elaborazione delle immagini: Travis Rector (University of Alaska, Anchorage/NOIRLab della NSF), Jen Miller (Gemini Observatory/NOIRLab della NSF), Mahdi Zamani e Davide de Martin (NOIRLab della NSF))
Il tasso di espansione e la densità non dovrebbero cambiare nel tempo cosmico.
Secondo il modello dello stato stazionario, le galassie dovrebbero avere densità numeriche uguali a tutte le distanze. Le galassie identificate nell’immagine eXtreme Deep Field possono essere suddivise in componenti vicine, distanti e ultra-distanti, con Hubble che rivela solo le galassie che è in grado di vedere nei suoi intervalli di lunghezza d’onda e ai suoi limiti ottici. Le mutevoli popolazioni e densità delle galassie rivelano un Universo che, di fatto, si evolve nel tempo. ( Credito : NASA/ESA)
E gli unici sfondi cosmici deriverebbero dalla luce stellare riflessa e dalla polvere riscaldata.
Questa piccola regione vicino al cuore di NGC 2014 mette in mostra una combinazione di globuli gassosi in evaporazione e globuli di Bok che fluttuano liberamente, mentre la polvere passa da filamenti caldi e tenui in cima a nubi più dense e più fredde dove si formano nuove stelle in basso. Il mix di colori riflette una differenza di temperature e linee di emissione da varie firme atomiche. Questa materia neutra riflette la luce delle stelle, ma si sa che questa luce riflessa è distinta dal fondo cosmico a microonde. ( Crediti : NASA, ESA e STScI)
Le prove, a partire dagli anni ’50 e ’60, demolirono rapidamente l’idea.
Le galassie paragonabili all’attuale Via Lattea sono numerose in tutto il tempo cosmico, essendo cresciute in massa e con una struttura più evoluta al momento. Le galassie più giovani sono intrinsecamente più piccole, più blu, più caotiche, più ricche di gas e hanno densità di elementi pesanti inferiori rispetto alle loro controparti moderne, e le loro storie di formazione stellare si evolvono nel tempo. Questo non è stato scoperto o ben noto fino agli anni ’60, quando abbiamo iniziato a vedere un gran numero di galassie da molto prima nella nostra storia cosmica. ( Crediti : NASA, ESA, P. van Dokkum (Yale U.), S. Patel (Leiden U.) e il team 3-D-HST)
Le galassie distanti sono più giovani, più blu, di massa inferiore e meno evolute morfologicamente (forma).
Guardare qualsiasi “fetta” dell’Universo ci permette di vedere stelle, galassie e il bagliore residuo del Big Bang che risale a ben 13,8 miliardi di anni fa. Come indicano chiaramente i dati, le galassie più lontane hanno stelle più giovani, sono meno massicce e meno evolute e appaiono con densità maggiori rispetto a quelle odierne. ( Credito : SDSS e la collaborazione Planck)
La densità degli oggetti, misurata dalla massa e dal numero di galassie, aumenta con la distanza.
Un grafico dell’apparente velocità di recessione dedotta (asse y) rispetto alla distanza (asse x) è coerente con un Universo che si è espanso più velocemente in passato, ma dove le galassie distanti stanno accelerando la loro recessione oggi. Questa è una versione moderna e si estende migliaia di volte più lontano del lavoro originale di Hubble. Si noti il fatto che i punti non formano una linea retta, indicando la variazione del tasso di espansione nel tempo. Ciò è necessario in un Universo in espansione con materia, radiazioni ed energia oscura. ( Credito : Ned Wright/Betoule et al. (2014))
Il tasso di espansione evolve nel tempo: la “costante di Hubble” non è realmente una costante.
La luce effettiva del Sole (curva gialla, a sinistra) rispetto a un corpo nero perfetto (in grigio), che mostra che il Sole è più una serie di corpi neri a causa dello spessore della sua fotosfera; a destra c’è l’effettivo corpo nero perfetto della CMB misurato dal satellite COBE. Si noti che le “barre di errore” sulla destra sono un incredibile 400 sigma; questo dimostra che la CMB non può essere dovuta alla luce stellare riflessa. ( Crediti : Sch/Wikimedia Commons (L); COBE/FIRAS, NASA/JPL-Caltech (R))
Ed esiste uno sfondo cosmico, con uno spettro incompatibile con la luce stellare riflessa o la polvere riscaldata.
Le prove osservative che sondano la temperatura del fondo cosmico a microonde in diverse epoche nell’Universo, inclusa quella attuale (stella rossa), nell’Universo relativamente vicino (punti blu) e nell’Universo distante (punti rossi) mostrano tutte che L’universo era più caldo in passato e si è raffreddato man mano che si espandeva esattamente come previsto dalla teoria del Big Bang. ( Credito : P. Noterdaeme et al., Astronomia e astrofisica, 2011)
L’Universo cambia davvero nel tempo, supportando il Big Bang ed escludendo il modello dello stato stazionario.
I lontani destini dell’Universo offrono una serie di possibilità, ma se l’energia oscura è davvero una costante, come indicano i dati, continuerà a seguire la curva rossa, portando allo scenario a lungo termine dell’eventuale morte termica dell’Universo. Se l’energia oscura si evolve nel tempo, un Big Rip o un Big Crunch sono ancora ammissibili, ma non abbiamo alcuna prova che indichi che questa evoluzione sia qualcosa di più di una speculazione oziosa. Il modello dello stato stazionario, come il perfetto principio cosmologico, è escluso. ( Crediti : NASA/CXC/M. Weiss)
La Northwestern University ha compiuto una scoperta rivoluzionaria nel campo delle comunicazioni quantistiche, aprendo nuove prospettive per il futuro delle reti globali. Un team di ingegneri, guidato dal professor Prem Kumar, è riuscito a dimostrare il teletrasporto quantistico attraverso un comune cavo in fibra ottica, lo stesso utilizzato per trasmettere i dati di Internet.
Questa innovazione rappresenta un passo avanti significativo verso la realizzazione di reti ibride, in cui la comunicazione quantistica e classica coesistono e si rafforzano a vicenda.
Teletrasporto quantistico su fibra ottica: verso le reti quantistiche ibride
Teletrasporto quantistico: una sfida superata
Il teletrasporto quantistico è un fenomeno controintuitivo in cui lo stato quantistico di una particella viene trasferito a un’altra particella distante, senza che alcuna informazione fisica venga trasmessa nello spazio tra le due. Questo processo, reso possibile dall’entanglement quantistico, un fenomeno descritto da Einstein come una “spettrale azione a distanza”, promette di rivoluzionare la comunicazione, offrendo livelli di sicurezza e capacità di elaborazione dati senza precedenti.
Fino ad ora, la realizzazione pratica è stata limitata a ambienti altamente controllati, come i laboratori. La sfida principale è stata quella di integrare la fragile natura dei qubit, le unità fondamentali dell’informazione quantistica, con le infrastrutture di comunicazione esistenti.
Il team della Northwestern University ha superato questo ostacolo, dimostrando che è possibile far coesistere segnali quantistici e classici all’interno della stessa fibra ottica senza interferenze significative. Questa scoperta apre la strada alla creazione di reti ibride, in cui le comunicazioni quantistiche possono sfruttare l’infrastruttura esistente, riducendo drasticamente i costi e accelerando la diffusione di questa tecnologia rivoluzionaria.
Le implicazioni di questa ricerca sono vaste e profonde. Le reti quantistiche offrono una sicurezza ineguagliabile, grazie alle proprietà intrinseche dell’entanglement quantistico. Qualsiasi tentativo di intercettare una comunicazione quantistica ne altera inevitabilmente lo stato, rendendo immediatamente evidente la presenza di un intruso.
Il teletrasporto quantistico è un elemento fondamentale per la realizzazione di computer quantistici, macchine in grado di risolvere problemi complessi che sono al di là delle capacità dei computer classici. Le tecnologie quantistiche promettono di rivoluzionare la scienza dei materiali, la metrologia e la sensoristica, aprendo la strada a nuovi sviluppi in settori come la medicina, l’energia e l’ambiente.
Nonostante questi progressi, ci sono ancora molte sfide da affrontare prima che le reti quantistiche diventino una realtà diffusa. La principale è quella di sviluppare tecnologie in grado di generare e manipolare qubit in modo affidabile e scalabile. Inoltre, è necessario affrontare le problematiche legate alla decoerenza quantistica, ovvero la perdita delle proprietà quantistiche a causa dell’interazione con l’ambiente.
Teletrasporto quantistico su fibra ottica: un’innovazione straordinaria
Il teletrasporto quantistico è un processo che permette di trasferire lo stato quantistico di una particella a un’altra, indipendentemente dalla distanza che le separa. Questo fenomeno, reso possibile dall’entanglement quantistico, offre la promessa di comunicazioni ultra-sicure e di nuove tecnologie come il calcolo quantistico.
I cavi in fibra ottica sono come autostrade trafficate, piene di segnali luminosi che trasportano enormi quantità di dati. Inserire in questo caos i delicati segnali quantistici è come cercare un ago in un pagliaio. Il problema principale risiede nel fatto che i fotoni quantistici sono estremamente sensibili alle interferenze e possono facilmente perdersi o essere danneggiati dal rumore di fondo.
Per superare questa sfida, i ricercatori hanno studiato attentamente il comportamento della luce all’interno delle fibre ottiche. Hanno scoperto che esiste una “finestra” specifica nello spettro luminoso, una lunghezza d’onda particolare, dove i fotoni quantistici sono meno soggetti a disturbi. Utilizzando filtri altamente specializzati, sono riusciti a isolare questa finestra e a far viaggiare i fotoni quantistici indisturbati attraverso il cavo.
Questa scoperta apre la porta a un futuro in cui le comunicazioni quantistiche saranno integrate nelle nostre infrastrutture esistenti. Le implicazioni sono profonde e vanno ben oltre la semplice trasmissione di dati. La crittografia quantistica, basata sul teletrasporto quantistico, offre un livello di sicurezza senza precedenti. Qualsiasi tentativo di intercettare un messaggio quantistico ne altererebbe inevitabilmente lo stato, rendendo l’intrusione immediatamente evidente.
Collegando più computer quantistici attraverso una rete quantistica, sarà possibile risolvere problemi complessi che sono attualmente fuori dalla portata dei computer classici, con applicazioni in settori come la scoperta di nuovi materiali, la progettazione di farmaci e l’ottimizzazione di sistemi complessi.
Le reti quantistiche potranno alimentare nuove tecnologie, come la sincronizzazione ultra precisa di orologi atomici, la realizzazione di sensori quantistici ad alta precisione e la creazione di reti di sensori quantistici distribuiti.
Conclusioni
La scoperta dei ricercatori della Northwestern University rappresenta un passo fondamentale verso la realizzazione di un internet quantistico. Questa tecnologia rivoluzionaria promette di trasformare radicalmente il modo in cui comunichiamo, calcoliamo e interagiamo con il mondo. Sebbene ci siano ancora molte sfide da superare, il futuro delle comunicazioni quantisticheappare sempre più luminoso.
Lo studio è stato pubblicato sulla rivista Optica.
L’area 51 è una della basi militari più segrete e del pianeta e, proprio a causa delle ipotesi e dei misteri che ne circondano l’esistenza, al pari di altre località simili, è fonte di dicerie, teorie e leggende metropolitane.
In particolare, il filone dell’ufologia complottista vedrebbe in questa base la centrale operativa di una presunta agenzia governativa, il Majestic 12, che, istituita nel 1947 dal presidente Truman, avrebbe ormai trasceso il suo scopo istituzionale e servirebbe un supposto governo ombra degli Stati Uniti, governo ombra impegnato in indicibili accordi con svariate razze aliene.
Questa base militare super segreta ha finito per colpire tanto la fantasia popolare da essere diventata protagonista di film hollywoodiani come, ad esempio, Indipendence day o di molte puntate di serie televisive come Stargate, finendo per fornire ulteriore materiale ad appassionati e complottisti che, speculando sulle vicende di questi films e telefilms, sono riusciti ad accrescere l’aura di mistero ed incertezza intorno alla base stessa.
Secondo tanti ufologi e appassionati di misteri, in questo luogo sarebbero nascosti i resti degli UFO recuperati nei vari incidenti che, secondo la narrazione complottista, sarebbero avvenuti in varie parti degli USA, a cominciare dall’UFO crash di Roswell, dove sono a disposizione degli scienziati impegnati in progetti di retroingegneria atti a comprenderne il funzionamento per riprodurne i sistemi di produzione di energia e propulsione.
Ufficialmente, l’Area 51 è una sezione del poligono nucleare ed aeronautico di Nellis, una vasta zona militare che si estende nel deserto del Nevada a circa 150 km da Las Vegas; è situata nel letto del Groom Lake, un lago asciutto da tempo, ed è conosciuta anche con altri nomi, Dreamland, Watertown, The Rach e Skunkworks.
Questo complesso viene utilizzato fin dal 1954, e l’aeronautica militare vi ha condiviso con la CIA diverse strutture sotterranee fino al 1972.
In realtà l’Area 51 è stata spesso utilizzata per sviluppare e realizzare progetti segreti, testandone poi i prototipi. In questo luogo, per esempio, hanno preso il volo, per la prima volta, i ricognitori strategici U-2 e SR-71 Blackbird, forse anche i primi prototipi dei cacciabombardieri STEALTH F-117A e, secondo alcune voci di corridoio, si starebbe ora lavorando al nuovo ricognitore chiamato “Aurora” che raggiungerebbe velocità dell’ordine di svariati Mach. Questi progetti vengono citati negli ambienti ufologici come il prodotto di ricadute tecnologiche dovute all’ingegneria inversa applicata a presunte macchine volanti extraterrestri nascoste e studiate in alcuni hangar del complesso.
l’Area 51 è raggiungibile percorrendo strade sterrate apparentemente abbandonate. Nel 1984, allo scopo di scoraggiare l’osservazione della base da parte di curiosi, i militari sequestrarono circa 89.600 acri di terreno pubblico attorno la base militare ma, nonostante l’espresso divieto di avvicinarsi, restano numerosi gli appassionati e i curiosi che si avventurano nella zona fino ad arrivare a pochi metri dalle barriere metalliche, costringendo i militari a presidiare l’area pattugliandola con gruppi armati a bordo di fuoristrada bianchi, cosa che ha colpito la fantasia dei complottisti che ne hanno attribuito l’appartenenza a qualche corpo speciale non ufficiale.
Tutta questa segretezza sarebbe la prova che l’Area 51 protegge segreti indicibili. Come al solito la realtà è ben diversa: provate ad avvicinarvi ad una qualsiasi zona militare ad accesso limitato senza averne l’autorità e poi raccontate cosa succede. Se è vero che in Area 51 vengono sviluppati e testati velivoli ultrasegretri, il minimo che può capitare è che le autorità ne scoraggino l’avvicinamento con ogni mezzo.
Se l’area 51 è un posto così segreto, come mai lo si può osservare in foto satellitari che ne mostrano l’estensione?Quando e perchè si iniziò ad attribuirgli questo mistero? Negli anni ’80, Dave L. Dobbs, giornalista ed ufologo di Cincinnati (Ohio), ricevette una lettera da un radiotecnico, tale Mike Hunt. Egli fu tra i primi che associarono le attività dell’Area 51 e gli UFO.
Hunt sosteneva di aver lavorato nel complesso nei primi anni ’60 per conto della Commissione Atomica Statunitense e di aver saputo che un UFO vi sarebbe stato trasportato dalla base aerea di Edwards, in California. Secondo le sue fonti il progetto era denominato “Project Red Light” e doveva occuparsi dello studio della propulsione di almeno tre UFO catturati, cercando di capirne il funzionamento partendo da un prodotto finito e cercando di capire in quale modo gli UFO venivano costruiti. Inoltre dovevano studiare l’anatomia e la fisiologia degli alieni, almeno due, in possesso del governo USA. Altri fecero dichiarazioni più o meno simili ma sempre poco o per nulla credibili.
Un altro personaggio che divenne noto negli anni seguenti era Bob Lazar, un presunto fisico nucleare che raccontò di aver lavorato in una sezione dell’area 51 che si occupava di capire il funzionamento dei propulsori dei dischi volanti.
Lazar nel 1989 raccontò la sua storia in una nota trasmissione televisiva americana, dicendo una serie di cose incredibili sulle reali attività dell’Area 51, dove avrebbe lavorato dal 1988.
Dichiarò di aver studiato il modo in cui gli alieni viaggiavano nello spazio: utilizzando reattori alimentati con un elemento detto “elemento 115” dotato di caratteristiche particolari, grazie alle quali riusciva a piegare lo spazio tempo generando una sorta di curvatura che spingeva la nave a velocità superiori a quelle della luce. Teorie e racconti, però, non provati in alcun modo e che non spiegano perché le forze armate americane continuino a usare mezzi e motori convenzionali.
A forza di rivelazioni da parte dei soliti bene informati, all’inizio degli anni novanta il mondo venne a sapere, grazie alla televisione, che gli alieni erano giunti sulla Terra decenni prima ma che il loro viaggio interstellare era finito in uno schianto che fece la fortuna di chi entrò in possesso dei filmati dove rottami e corpi mutilati facevano bella mostra di sé.
Guarda caso, la possibilità di vendere a peso d’oro alla TV e ai giornali filmati e fotografie che mostravano presunte autopsie di presunti alieni fece nascere una nuova professione: quella del ricercatore indipendente impegnato a battersi per ristabilire la verità di fronte alle menzogne dei governi, figura che, con l’avvento di internet, ha cominciato a proliferare nei campi più disparati del complottismo.
Questa figura è diventata particolarmente popolare quando si è capito che ra possibile guadagnare con poca fatica soldi grazie alla vendita di fantasiosi ebooks, click sui banner delle pagine web, visualizzazioni di filmati su you tube e, non ultima risorsa, raccolte di fondi per finanziare questa o quella pseudoricerca ai danni di creduloni ed ignoranti.
L’Area 51 è sempre là, potete visualizzarla su google maps e su google Earth, se vi capitasse di vedervi decollare o atterrare un UFO, fateci un fischio.
Sebastian Colnaghi, ambientalista militante siciliano con oltre cinque milioni di follower, è stato nominato l’anno scorso ambasciatore della campagna “Tartalove” promossa da Legambiente.
Ogni anno migliaia di anfibi rischiano la vita in Italia a causa delle infrastrutture artificiali. Questo è quanto emerso durante un recente intervento di salvataggio compiuto da Sebastian Colnaghi, noto ambientalista impegnato nella sensibilizzazione per la tutela del pianeta e della biodiversità.
Nella riserva naturale di Pantalica, in Sicilia, ha salvato sei rospi rimasti intrappolati in una presa d’acqua utilizzata per l’irrigazione dei campi. Questo episodio mette in luce una problematica diffusa in tutta Italia: gli impianti artificiali, come canali e grate, rappresentano un grave pericolo per la fauna selvatica, compromettendo la biodiversità.
Le considerazioni di Colnaghi
Il Rospo comune (nome scientifico Bufo bufo) è una specie fondamentale per l’equilibrio dell’ecosistema. Presente in tutto il territorio italiano, dalle pianure alle aree montuose, il rospo contribuisce al controllo della popolazione di insetti, molti dei quali nocivi per le colture e la salute umana. Tuttavia, la loro sopravvivenza è sempre più minacciata da strutture che non tengono conto delle esigenze della fauna selvatica ed è urgente attuare interventi mirati a proteggere questa specie.
“Episodi come quello avvenuto in Sicilia si verificano frequentemente lungo i fiumi – afferma Colnaghi -. Canali e prese d’acqua intrappolano anfibi e altri animali selvatici. Le nostre aree naturali richiedono maggiore attenzione e interventi concreti da parte delle autorità per garantire la salvaguardia di questa specie essenziale”.
Durante il salvataggio l’ambientalista ha utilizzato guanti in lattice per maneggiare i rospi senza danneggiare il delicato strato di muco che protegge la loro pelle, dimostrando quanto sia importante agire con consapevolezza.
L’episodio mette in evidenza l’importanza di piccoli gesti per la tutela della biodiversità. Proteggere gli anfibi e altre specie selvatiche è una responsabilità condivisa che richiede l’impegno congiunto di istituzioni e cittadini. Segnalare situazioni critiche, sostenere iniziative locali e adottare pratiche rispettose dell’ambiente sono azioni essenziali per garantire un futuro più sicuro alla fauna.
“La biodiversità italiana è un patrimonio inestimabile che va protetto – conclude Colnaghi -. Vedere questi piccoli animali intrappolati mi ha fatto riflettere su quanto possiamo fare per aiutarli, soprattutto in un momento così critico per la biodiversità. Ogni gesto, anche il più piccolo, può fare la differenza nel custodire la straordinaria ricchezza del nostro territorio”.
CONTATTI PER LA STAMPA:
Daniela Franzò
Giornalista professionista e responsabile della comunicazione.