Una collaborazione internazionale tra i ricercatori del Centre for Programmable Matter dell’Università di Durham (Regno Unito) e del Malopolska Centre of Biotechnology dell’Università Jagellonica (Polonia) ha portato alla creazione di una nuova gabbia proteica artificiale che promette grandi potenzialità come sistema avanzato di somministrazione di farmaci.
Il team ha creato una gabbia proteica artificiale altamente adattabile, basata su un’impalcatura a forma di anello realizzata con proteine TRAP. Queste straordinarie strutture in nanoscala presentano siti di legame al metallo posizionati strategicamente che consentono l’autoassemblaggio in strutture robuste e altamente organizzate in seguito all’esposizione a ioni di cobalto o zinco. Queste gabbie hanno il potenziale per trasportare carichi terapeutici nel loro nucleo cavo.
Ancora più importante, sebbene altamente stabili, le gabbie possono essere attivate per aprirsi e liberare i loro carichi in determinate condizioni specifiche di una malattia. Tra queste rientrano i cambiamenti di pH, come quelli associati ad alcuni tumori.
Il professor Jonathan Heddle della Durham University commenta: “Avere un contenitore di trasporto di dimensioni nanometriche altamente stabile che si apra per rilasciare un carico tossico solo quando raggiunge una cellula malata è una grande sfida e pensiamo che questo lavoro ci avvicini un po’ di più a questo obiettivo”.
I ricercatori immaginano che queste gabbie proteiche possano fungere da piattaforma versatile per applicazioni biomediche avanzate.
Le ossa di una donna di circa vent’anni, rinvenute in una fossa comune risalente a circa 5000 anni fa nella Svezia occidentale, hanno rivelato ai ricercatori che, probabilmente, la donna è morta di peste. La diagnosi è stata effettuata tramite l’analisi del DNA estratto dai dai suoi denti. Si tratterebbe del più antico caso di peste mai registrato.
Paleontologi ed archeologi concordano nell’attribuire a questa scoperta un valore determinante per la comprensione degli eventi occorsi in europa in quel periodo. Un’epidemia di peste potrebbe aver decimato la popolazione agricola dell’epoca neolitica in ampie aree dell’europa settentrionale e orientale, spingendo la popolazione a migrare verso occidente.
“Questi eventi hanno avuto conseguenze importanti per la storia dell’umanità“, ha detto Nicolas Rascovan, un bioinformatico dell’università francese di Aix Marseille, che ha guidato la nuova ricerca. “Le migrazioni di popoli da quelle che oggi sono la Russia e l’Ucraina verso l’europa occidentale nell’età del bronzo provocarono la scomparsa del pool genetico originale europeo“.
“Praticamente è il momento in cui nasce la composizione genetica dell’Europa moderna“, Aggiunge Simon Rasmussen, biologo evolutivo dell’Università di Copenaghen in Danimarca, coautore dello studio con Rascovan.
Queste migrazioni portarono anche significativi cambiamenti culturali, da cui nacquero i precursori della metà delle lingue parlate in tutto il mondo oggi.
Peste senza precedenti
Rascovan e Rasmussen hanno collaborato con gli archeologi per capire perché enormi villaggi agricoli neolitici da 10.000 a 20.000 persone sono stati improvvisamente abbandonati e bruciati. L’ampia densità di popolazione e il successivo crollo della popolazione costituiva già di per sé un indizio.
“Gli insediamenti sono i classici esempi da manuale di come un nuovo patogeno può emergere o evolvere“, ha detto Rasmussen. Migliaia di persone vivevano molto vicine tra loro, con scarse condizioni igieniche e in promiscuità con il bestiame d’allevamento e altri animali, per cui il team è andato alla ricerca di virus e batteri in grado di scatenare epidemie nei dataset di DNA umano antico disponibili pubblicamente.
Quello che hanno trovato è stata una sorpresa. Prove inequivocabili della presenza dei batteri, Y. pestis , che causano la peste. Quando hanno confrontato le sequenze di DNA della peste rinvenuto nella donna con altri ceppi noti, hanno scoperto di trovarsi davanti alla versione più evoluta del batterio identificata nell’antichità. Lo studio è stato pubblicato sulla rivista Cell.
La varietà di peste identificata dai ricercatori non è la peste bubbonica, il flagello ritenuto responsabile della Morte Nera, un’epidemia che portò via dal 30 al 60 per cento della popolazione europea verso la metà del 1300, ma è la versione chiamata peste polmonare. Al contrario della peste bubbonica, che si diffonde attraverso le pulci dei topi, la peste polmonare infetta i polmoni e può diffondersi da persona a persona attraverso goccioline di saliva. È la forma più mortale della piaga.
Secondo lo studio, è probabile che l’epidemia potè diffondersi attraverso i contatti commerciali che andavano costituendosi all’epoca grazie all’avvento della ruota e di altre tecnologie, che andavano diffondendosi. Questo fatto, se confermato, “avrà un grande impatto perché dimostrerà l’enorme impatto avuto da un singolo batterio sulla nostra storia“, ha concluso Rascovan.
Le ondate di gelo che nell’ultima settimana hanno travolto gli Stati Uniti attraverso alcune forti tempeste che in Texas, addirittura, hanno messo fuori uso la rete elettrica in Texas, hanno sepolto sotto la neve gran parte del paese che, peraltro, è stato avvolto da un freddo record.
Secondo gli scienziati, però, queste ondate di gelo non rappresentano una situazione anomala né, tanto meno, sono in contrasto con il riscaldamento globale.
Noah Diffenbaugh, scienziato esperto nello studio del cambiamento climatico presso la Stanford University, ha affermato che il clima non si è riscaldato a sufficienza da eliminare gli eventi freddi; tale condizione si verificherà anche nel futuro, pertanto non dovremmo aspettarci che gli eventi freddi alle medie latitudini vengano eliminati dall’innalzamento delle temperature medie globali.
Dalla rivoluzione industriale, le temperature mondiali si sono alzate di un grado Celsius, aumento non significativo per bloccare le ondate di gelo invernali, ma sufficiente per alterare gli eventi metereologici.
Diffenbaugh afferma che : “Sebbene le proiezioni relative al riscaldamento del clima evidenziano un aumento di tre gradi Celsius sopra i livelli preindustriali, alle medie latitudini possono ancora verificarsi fenomeni di freddo intenso”. Fondamentalmente, i fenomeni di freddo intenso non sono incompatibili con il grado di riscaldamento che abbiamo avuto, inoltre potranno verificarsi ancora nel prossimo futuro.
Coloro che pensano che i cambiamenti climatici non sono una minaccia portano spesso come prova il clima invernale e le sue rigide temperature, evidenziando come questo possa essere considerato una prova del fatto che non c’è nulla da temere.
In realtà i sei anni successivi al 2015, sono stati registrati come gli anni più caldi di sempre e 189 nazioni hanno firmato l’accordo di Parigi, che ha l’obiettivo di ridurre le emissioni di anidride carbonica e mantenere l’aumento delle temperature entro 1,5 gradi Celsius.
L’ex presidente Trump, ha ritirato gli Stati Uniti dall’accordo a novembre, mentre Biden a gennaio ha firmato un ordine per rientrarvi.
Gli scienziati evidenziano che il clima sta cambiando e che il riscaldamento globale è un pericolo reale, al quale è necessario porre rimedio: Diffenbaugh sostiene che già soltanto l’aumento di un grado Celsius è stato sufficiente per aumentare la frequenza e la gravità di eventi climatici estremi.
Le ondate di gelo avvengono nonostante l’aumento delle temperature globali
Le ricerche portate avanti da Diffenbaugh rilevano che eventi di caldo record si verificano con una probabilità superiore all’80 % su tutta la superficie globale. La probabilità che si verifichino invece eventi umidi o secchi, si riduce al 50%.
Le alte temperature inoltre, comportano una stagione degli incendi più lunga: tale condizione è un chiaro esempio del cambiamento climatico.
Negli Stati Uniti Occidentali, il rischio incendi è aumentato, e negli ultimi quattro anni, l’area bruciata è aumentata di un fattore pari a 10. Circa la metà dell’aumento della superficie bruciata è associata agli effetti a lungo termine dell’aumento delle temperature. Negli ultimi 40 anni la frequenza di giorni in cui si verificano eventi metereologici straordinari è più che raddoppiata.
Diffenbaugh porta, inoltre, come esempio altri eventi che si verificano sempre più spesso e in modo devastante, come ad esempio le mareggiate dovute all’innalzamento del livello del mare. L’innalzamento del livello del mare ha aumentato la gravità delle inondazioni da mareggiate di circa il 20%.
La super tempesta Sandy, che ha provocato danni gravissimi a New York, oppure l’uragano Harvey che ha inondato Huston con 60 pollici di pioggia, dimostrano che il cambiamento climatico, gioca un ruolo centrale.
Diffenbaugh ha portato prove evidenti che indicano come l’aumento del vapore acqueo nell’aria aumenta l’intensità dei cicloni, altre ricerche evidenziano come l’aumento dell’umidità nell’atmosfera provoca una quantità maggiore di nevicate.
I dati raccolti e le ricerche evidenziano chiaramente il cambiamento climatico, ma ciò che non è chiaro è se il cambiamento climatico stia rendendo più gravi le tempeste che si verificano. Tale difficoltà nel rilevare questi dati è legata al fatto che i sistemi climatici sono connessi a fattori complessi e variegati.
Diffenbaugh afferma che la ricerca sta ancora cercando di comprendere se il riscaldamento altera o meno l’atmosfera e gli oceani in modo tale da aumentare le probabilità di freddo estremo.
Se non ci sono dubbi che eventi di freddo record non sono in contrasto con il riscaldamento globale e che si verificheranno ancora per i prossimi decenni, saranno, però, necessarie ulteriori ricerche per stabilire un nesso tra la violenza delle tempeste invernali provocate dalle ondate di gelo e il riscaldamento globale.
Un nuovo studio, basato sull’analisi di migliaia di stelle simili al Sole, offre una risposta sorprendente. Gli scienziati hanno scoperto che i cosiddetti “superflare”, esplosioni di energia migliaia di volte più potenti delle più intense eruzioni solari mai osservate, sono eventi relativamente comuni nella vita di una stella.
Svelati i segreti dei superflare delle stelle simili al Sole
Le tempeste solari di quest’anno ci hanno ricordato la natura turbolenta della nostra stella. Aurore boreali spettacolari a latitudini inaspettate hanno catturato l’attenzione del mondo, sollevando interrogativi sulla potenziale violenza del Sole. Ma quanto può diventare intensa l’attività solare? E con quale frequenza si verificano eventi estremi?
Per comprendere appieno la natura violenta del Sole, gli scienziati hanno dovuto guardare al passato. Analizzando i dati dei telescopi spaziali, come Kepler, sono riusciti a “sfogliare” migliaia di anni di attività stellare. Osservando stelle simili al nostro Sole, i ricercatori hanno identificato oltre 2.800 superflare. Questo significa che, in media, una stella come il Sole sperimenta un superflare circa una volta al secolo.
Come fanno gli scienziati a essere così sicuri di questi dati? La chiave sta nella selezione accurata delle stelle da studiare. Solo le stelle con caratteristiche molto simili al Sole sono state incluse nell’analisi, escludendo così qualsiasi fonte di errore che potesse falsare i risultati. Un superflare sulla Terra avrebbe conseguenze catastrofiche. Le intense radiazioni e le particelle cariche emesse durante l’esplosione potrebbero danneggiare satelliti, interrompere le comunicazioni radio e causare blackout su larga scala. Inoltre, l’aumento dell’irraggiamento potrebbe avere un impatto significativo sul clima e sulla biodiversità del nostro pianeta.
Comprendere la frequenza e l’intensità dei superflare è fondamentale per valutare i rischi a cui è esposto il nostro pianeta. Grazie a questi studi, gli scienziati potranno sviluppare modelli più precisi per prevedere le tempeste solari e mettere in atto misure di protezione adeguate. Il Sole, la nostra stella, è un oggetto celeste molto più dinamico e violento di quanto si pensasse in passato. I superflare sono eventi estremi ma non rari, e la loro comprensione è essenziale per garantire la sicurezza della nostra società tecnologica e per proteggere il nostro pianeta.
Superflare e tempeste solari: un legame ancora da chiarire
Le nostre stelle potrebbero essere più pericolose di quanto pensiamo.
Lo studio ha rivelato che le stelle simili al Sole, compresa la nostra, sono soggette a potenti esplosioni di energia, chiamate superflare, molto più frequentemente di quanto si pensasse in precedenza.
“Siamo rimasti sorpresi dal fatto che stelle simili al sole siano inclini a superflare così frequenti“, ha affermato il dott. Valeriy Vasilyev, primo autore dello studio. Studi precedenti avevano stimato intervalli medi di migliaia di anni tra un superflare e l’altro, ma questa nuova ricerca, basata su dati più precisi e sensibili, suggerisce che questi eventi potrebbero essere molto più comuni.
Per ricostruire la storia delle eruzioni solari, gli scienziati hanno analizzato diversi archivi naturali, come gli anelli degli alberi e il ghiaccio glaciale. Questi archivi contengono tracce di isotopi radioattivi prodotti dalle particelle energetiche emesse durante le tempeste solari. Grazie a queste analisi, è stato possibile identificare diversi eventi estremi negli ultimi dodicimila anni, con una frequenza media stimata di uno ogni 1.500 anni.
Esaminare le prove terrestri potrebbe sottostimare la frequenza dei superflare, poiché non tutti questi eventi producono un flusso di particelle sufficientemente intenso da lasciare tracce evidenti sugli archivi naturali. Inoltre, non è ancora chiaro se tutti i superflare siano accompagnati da espulsioni di massa coronale, un altro fenomeno violento associato alle tempeste solari.
La scoperta di una maggiore frequenza di superflare ha importanti implicazioni per la Terra. Questi eventi estremi potrebbero causare gravi danni ai satelliti, interrompere le comunicazioni e provocare blackout su larga scala. La preparazione è quindi fondamentale. Per affrontare questa minaccia, gli scienziati stanno lavorando per sviluppare sistemi di previsione sempre più accurati. La sonda spaziale Vigil dell’ESA, che sarà lanciata nel 2031, giocherà un ruolo chiave in questo senso. Osservando il Sole da una posizione privilegiata, potrà rilevare i primi segnali di un’imminente tempesta solare, permettendo di prendere le necessarie misure di precauzione.
Conclusioni
La nostra stella, apparentemente così calma e costante, nasconde una natura violenta e imprevedibile. La scoperta di una maggiore frequenza di superflare ci ricorda l’importanza di studiare il Sole e di prepararsi a far fronte ai suoi “capricci”.
Per secoli, abbiamo considerato il cuore come una semplice pompa, un muscolo che batte in risposta ai comandi del cervello. Tuttavia, una recente scoperta sta ridefinendo radicalmente la nostra comprensione di questo organo vitale.
Un team internazionale di ricercatori, guidato da Konstantinos Ampatzis del Karolinska Institutet in Svezia, ha rivelato che il cuore possiede un proprio sistema nervoso intrinseco, un vero e proprio “mini-cervello” capace di regolare autonomamente il battito cardiaco.
Un sistema più complesso di quanto si pensasse
Fino a poco tempo fa, si credeva che il cuore fosse controllato esclusivamente dal sistema nervoso autonomo, che trasmette segnali dal cervello. Tuttavia, studi approfonditi hanno dimostrato che la rete neurale del cuore è molto più complessa e diversificata di quanto si pensasse in precedenza. Questa rete è immersa negli strati superficiali della parete cardiaca e, contrariamente a quanto si riteneva, non si limita a trasmettere passivamente i comandi del cervello, ma svolge un ruolo attivo nella regolazione del ritmo cardiaco.
I ricercatori hanno identificato diversi tipi di neuroni nel cuore, ognuno con funzioni specifiche. Tra questi, un piccolo gruppo di neuroni si è rivelato particolarmente interessante: questi neuroni possiedono proprietà simili a quelle dei pacemaker artificiali, ovvero la capacità di generare impulsi elettrici in modo spontaneo e ritmico. Questo significa che il cuore ha una sua capacità intrinseca di mantenere un ritmo cardiaco regolare, anche in assenza di segnali provenienti dal cervello.
Questa scoperta rivoluzionaria apre nuove prospettive nella ricerca sulle malattie cardiovascolari. Una migliore comprensione del “mini-cervello” cardiaco potrebbe portare a nuovi trattamenti per le aritmie, ovvero alterazioni del ritmo cardiaco, che sono spesso causate da disfunzioni del sistema di conduzione elettrico del cuore. Una conoscenza più approfondita del sistema nervoso intrinseco del cuore potrebbe consentire lo sviluppo di terapie mirate per correggere queste anomalie.
Lo studio del “mini-cervello” cardiaco potrebbe rivelarsi un nuovo strumento diagnostico per identificare precocemente le malattie cardiovascolari, permettendo interventi terapeutici più tempestivi ed efficaci. La scoperta di un sistema nervoso così complesso nel cuore rafforza l’idea che esista una profonda connessione tra mente e corpo. Questo potrebbe avere importanti implicazioni per la comprensione dei meccanismi alla base di disturbi come l’ansia e la depressione, che possono influenzare il ritmo cardiaco.
Il cuore, un secondo cervello
La scoperta del “mini-cervello” cardiaco rappresenta un punto di svolta nella ricerca cardiologica. Apre nuove e interessanti prospettive per la comprensione del cuore e delle sue malattie. In futuro, potremmo assistere allo sviluppo di terapie innovative basate sulla modulazione del sistema nervoso intrinseco del cuore, offrendo nuove speranze per milioni di pazienti affetti da malattie cardiovascolari.
Per comprendere meglio il funzionamento di questo “mini-cervello”, i ricercatori hanno utilizzato il pesce zebra come modello animale. Questo piccolo pesce, oltre ad avere un genoma simile a quello umano, presenta un cuore con caratteristiche fisiologiche molto simili al nostro. Grazie a tecniche all’avanguardia, come il sequenziamento dell’RNA a cellula singola, gli scienziati sono riusciti a mappare in dettaglio la composizione e l’organizzazione dei neuroni cardiaci del zebrafish.
“Siamo rimasti sorpresi nel vedere quanto sia complesso il sistema nervoso all’interno del cuore”, ha affermato Konstantinos Ampatzis: “Una migliore comprensione di questo sistema potrebbe portare a nuove intuizioni sulle malattie cardiache e aiutare a sviluppare nuovi trattamenti per patologie come le aritmie“. I ricercatori intendono ora approfondire lo studio dell’interazione tra il “mini-cervello” cardiaco e il cervello. Come comunicano tra loro questi due organi? In che modo lo stress, l’esercizio fisico e le malattie influenzano questa comunicazione? Le risposte a queste domande potrebbero aprire nuove strade per la comprensione di disturbi complessi come l’ansia e la depressione, che spesso presentano alterazioni del ritmo cardiaco.
La scoperta di un “mini-cervello” nel cuore rappresenta una rivoluzione nella cardiologia. Apre nuove e affascinanti prospettive per la comprensione del cuore e delle sue malattie. In futuro, potremmo assistere allo sviluppo di terapie innovative basate sulla modulazione del sistema nervoso intrinseco del cuore, offrendo nuove speranze per milioni di pazienti affetti da malattie cardiovascolari.
Conclusioni
Questa scoperta ci ricorda quanto ancora abbiamo da imparare sul nostro corpo. Il cuore, da sempre considerato il simbolo dell’amore e dell’affetto, si rivela essere un organo molto più complesso e interessante di quanto immaginassimo.
I fisici non sono ancora in grado di fare luce sul mistero di ciò che è accaduto nei momenti in cui un piccolo seme si è gonfiato per diventare l’universo che conosciamo. Uno scienziato pensa di sapere perché non si riescono a trovare una descrizione fisica di questo fenomeno chiamato inflazione: l’universo non ce lo permette.
Nello specifico, lo scienziato descrive una nuova congettura che afferma, per quanto riguarda l’universo giovane, “l’osservatore dovrebbe essere protetto dall’osservare direttamente le strutture più piccole nel cosmo“.
In altre parole, per definizione i fisici potrebbero non essere mai in grado di costruire un modello di inflazione usando i soliti strumenti e dovranno trovare un modo migliore.
Ma perchè no? Questa nuova congettura, che è un’opinione o un pensiero basato su informazioni incomplete, punta il dito contro una caratteristica particolare dei modelli di inflazione. Questi modelli assorbono fluttuazioni molto, molto piccole nello spaziotempo e le ingrandiscono. Ma non abbiamo una teoria fisica completa di quelle piccole fluttuazioni, e quindi i modelli di inflazione che hanno quella caratteristica (cioè quasi tutte) non funzioneranno mai.
La teoria delle stringhe potrebbe essere la chiave per chiarire i segreti dell’inflazione.
Inflazione dell’universo
Le osservazioni della struttura su larga scala dell’universo e la luce residua del Big Bang hanno rivelato che all’inizio dell’universo, il nostro cosmo probabilmente ha vissuto un periodo di espansione incredibilmente rapida. Questo evento straordinario, noto come inflazione, ha portato l’universo a diventare trilioni su trilioni di volte più grande nella più piccola frazione di secondo.
Nel processo di diventare enorme, l’inflazione ha anche reso il nostro cosmo un po’ irregolare.
Man mano che l’inflazione si dispiegava, le più piccole fluttuazioni quantistiche casuali – fluttuazioni costruite nel tessuto stesso dello spazio-tempo – sono diventate molto, molto più grandi, il che significa che alcune regioni erano più dense di materia di altre.
Alla fine, quelle differenze sub-microscopiche crebbero fino a diventare macroscopiche … e anche più grandi, in alcuni casi estendendosi da un’estremità all’altra dell’universo. Milioni e miliardi di anni dopo, quelle minuscole differenze di densità crebbero fino a diventare i semi di stelle, galassie e delle più grandi strutture del cosmo.
Gli astronomi sospettano fortemente che qualcosa di simile a questa storia dell’inflazione sia accaduta nei primi momenti dell’universo, a meno di un secondo dalla nascita; anche così, non sanno cosa ha innescato l’inflazione, cosa l’ha alimentata, quanto è durata o cosa l’ha spenta. In altre parole, ai fisici manca una descrizione fisica completa di questo evento epocale.
Al mix di misteri va aggiunto che nella maggior parte dei modelli di inflazione, le fluttuazioni a scale estremamente minuscole vengono gonfiate per diventare differenze macroscopiche. Quanto piccole? Più piccole della lunghezza di Planck, circa 1,6 x 10 ^ meno 35 metri (il numero 16 preceduto da 34 zeri e un punto decimale). Questa è la scala in cui la forza di gravità rivaleggia con quella delle altre forze fondamentali della natura. A quella scala, abbiamo bisogno di una teoria fisica unificata per descrivere la realtà.
Il problema è che non abbiamo una tale teoria.
La maggior parte (se non tutti) i modelli di inflazione richiedono che l’universo cresca così tanto che le differenze sub-planckiane diventino macroscopiche. Ma non capiamo la fisica sub-planckiana. Quindi come potremmo costruire un modello teorico di inflazione se non comprendiamo la fisica sottostante?
Oltre la scala di Planck
Forse la risposta è: non possiamo. Non potremo mai. Questo concetto è chiamato Congettura della censura trans-Planckiana, o TCC (in questo nome, “trans-Planckiano” significa qualsiasi cosa che raggiunga la lunghezza di Planck).
Robert Brandenberger, un cosmologo teorico svizzero-canadese e professore alla McGill University di Montreal, in Canada, ha recentemente scritto una recensione del TCC.
Secondo Brandenberger, “Il TCC è un nuovo principio che limita le cosmologie vitali“. A suo avviso, il TCC implica che qualsiasi osservatore nel nostro mondo su larga scala non potrà mai “vedere” ciò che accade alla piccola scala trans-planckiana.
Anche se avessimo una teoria della gravità quantistica, il TCC afferma che qualsiasi cosa che vive nel regime sub-planckiano non “passerà mai” nel mondo macroscopico. Quanto a cosa potrebbe significare il TCC per i modelli di inflazione, purtroppo non è una buona notizia.
La maggior parte delle teorie sull’inflazione si basa su una tecnica nota come “teoria del campo efficace“. Dal momento che non abbiamo una teoria che unisca la fisica ad alta energia e piccola scala (ovvero condizioni come l’inflazione), i fisici cercano di costruire versioni a bassa energia per fare progressi.
Ma sotto il TCC, quel tipo di strategia non funziona, perché quando la usiamo per costruire modelli di inflazione, il processo di inflazione avviene così rapidamente che “espone” il regime sub-planckiano all’osservazione macroscopica, come ha spiegato Brandenberger.
Alla luce di questo problema, alcuni fisici si chiedono se dovremmo adottare un approccio completamente diverso all’universo primordiale.
Fuori dalla palude
La cosmologia dei gas di stringa è un possibile approccio alla modellazione dell’universo primordiale in base alla teoria delle stringhe, che è essa stessa un candidato promettente per una teoria unificata della fisica che porti la fisica classica e quantistica sotto lo stesso tetto.
Nel modello dei gas di stringa, l’universo non subisce mai un periodo di rapida inflazione. Invece, il periodo di inflazione è molto più dolce e lento e le fluttuazioni al di sotto della lunghezza di Planck non vengono mai “esposte” all’universo macroscopico.
La fisica al di sotto della scala di Planck non cresce mai fino a diventare osservabile, quindi il TCC è soddisfatto. Tuttavia, i modelli di gas di stringa non hanno ancora dettagli sufficienti per testare le prove osservabili dell’inflazione nell’universo.
Il TCC è correlato a un altro punto critico tra l’inflazione e le teorie della fisica unificata come la teoria delle stringhe.
La teoria delle stringhe prevede un numero enorme di universi potenziali, di cui il nostro particolare cosmo (con il suo insieme di forze e particelle e il resto della fisica) ne rappresenta solo uno.
Sembra che la maggior parte (se non tutti) i modelli di inflazione siano incompatibili con la teoria delle stringhe a livello di base. Al contrario, appartengono a quella che i teorici delle stringhe chiamano la “palude“, la regione di possibili universi che semplicemente non sono fisicamente realistici.
Il TCC potrebbe essere un’espressione del rifiuto dell’inflazione nelle paludi.
Potrebbe essere ancora possibile costruire un modello tradizionale di inflazione che soddisfi il TCC (che viva al di fuori delle paludi della teoria delle stringhe); ma se il TCC è vero, questo limita fortemente i tipi di modelli che i fisici possono costruire.
Se l’inflazione riesce a procedere per un periodo di tempo abbastanza breve (immagina di far gonfiare un palloncino lentamente e fermarsi prima che scoppi), mentre continua a piantare i semi che un giorno cresceranno fino a diventare strutture massicce, la teoria dell’inflazione potrebbe funzionare.
In questo momento, il TCC non è stato dimostrato – è solo una congettura. Si allinea con altre linee di pensiero della teoria delle stringhe, ma anche la teoria delle stringhe non è provata (in effetti, la teoria non è completa e non è nemmeno in grado di fare previsioni).
Tuttavia, idee come questa sono utili, perché i fisici fondamentalmente non capiscono l’inflazione e tutto ciò che può aiutare ad affinare quel pensiero è il benvenuto.
Che gli Omega 3 abbiano un ruolo indispensabile per la nostra salute, lo sanno un po’ tutti, ma cosa sono di preciso, come introdurli nel nostro organismo, e quali migliorie apportino effettivamente, forse sono in pochi a saperlo, allora cerchiamo di scoprire qualcosa di più su questi grassi insaturi benefici.
Innanzi tutto va spiegato che gli Omega 3 sono grassi polinsaturi, detti anche “grassi buoni”, proprio per le loro svariate proprietà benefiche. Molti studi ne confermano infatti le qualità antiossidanti e antinfiammatorie, e pare che siano anche in grado di aumentare lo stato di salute nonché di diminuire il rischio di patologie croniche e degenerative.
In generale, i grassi insaturi “buoni” regolano il livello di colesterolo nel sangue (contribuendo ad abbassare il colesterolo “cattivo” LDL e ad alzare quello “buono” HDL.
Gli omega 3 fanno parte della Dieta Mediterranea
Gli omega 3 sono davvero essenziali per il nostro benessere e fanno parte dei principali composti bioattivi della Dieta Mediterranea.
Gli omega-3 (o PUFA n-3) sono una categoria di acidi grassi essenziali (come gli omega-6). Caratterizzati dalla posizione del primo doppio legame che, iniziando il conteggio dal carbonio terminale (carbonio ω ovvero carbonio n), occupa la terza posizione, da cui il termine Omega-3 (vedi figura).
Sono noti soprattutto per la loro presenza nelle membrane cellulari e per il mantenimento della loro integrità. Talvolta sono raggruppati come vitamina F (dall’inglese fatty acids)
Questo acido alfa linolenico è un grasso essenziale, e apporta un contributo nutrizionale importante, ma bisogna sapere che gli Omega 3 non possono essere sintetizzati dal nostro organismo e quindi dobbiamo introdurli tramite una sana dieta.
Se vogliamo trarre benefici da questi grassi dobbiamo necessariamente introdurli tramite l’assunzione di determinati alimenti. Vediamo dunque quali sono i cibi che ne sono più ricchi.
Li contengono in ottima quantità gli oli di pesce, come ad esempio l’olio di fegato di merluzzo e il pesce grasso, come sardine, salmone, sgombro, alici, tonno, trota e aringhe.
Possiamo trovare gli Omega 3 anche nella carne e nei vegetali come i semi, semi di lino, oli di semi, olio di colza e noci, ma pare che siano più benefici quelli contenuti nella carne e nel pesce.
I benefici degli Omega 3
Gli Omega 3 sono fondamentali nel determinare la fluidità delle membrane biologiche e la regolazione del colesterolo. La scienza infatti dimostra che una sana alimentazione che si basa su una forte percentuale di acidi grassi polinsaturi essenziali può essere in grado di aumentare la fluidità di membrana e ridurre i livelli di colesterolo nel sangue, e quindi di apportare benefici sulla salute cardiovascolare, e sulla vascolarizzazione cerebrale.
In sostanza gli Omega 3 sono importanti perché evitano l’accumulo di trigliceridi sulle pareti arteriose e contrastano l’indurimento dei vasi, allontanando il rischio di malattie coronariche, ipertensione, arteriosclerosi e trombosi.
Ma non finisce qui, i benefici degli Omega 3 stanno anche nel fatto che possono rafforzare il sistema immunitario, regolare l’aggregazione piastrinica e la vasocostrizione, e cosa non da poco riescono ad influenzare il metabolismo, inoltre migliorano il funzionamento dei neurotrasmettitori e quindi la trasmissione degli impulsi nervosi.
Gli Omega 3 sono prezioni perché garantiscono la struttura e la funzione del cervello, sono capaci di aumentare la concentrazione e prevengono disturbi comportamentali e neuropsichiatrici, come stress, depressione, nervosismo, e cosa non da poco anche il disturbo bipolare.
Una assunzione regolare, tramite l’alimentazione, di Omega 3, può apportare miglioramenti all’udito, alla vista e all’olfatto. Sono essenziali infatti per lo sviluppo dellaretina.
Cosa magari inaspettata sono importanti anche per la fertilità, essendo coinvolti nella sintesi degli ormoni, come le prostaglandine e si trovano nei testicoli e negli spermatozoi.
Insomma se mangiamo buon pesce, frutta secca, un po’ di carne, e se aggiungiamo a tutto ciò una alimentazione sana fatta anche di frutta e verdura, e facciamo regolarmente sport, o comunque movimento, potremmo davvero avere grandi benefici e saremo in grado di allontanare molte malattie.
La domanda “dove sono tutti?” È il punto cruciale del paradosso di Fermi. Se la vita sulla Terra non è particolarmente speciale e unica, dove sono le altre le civiltà aliene, visto che non ne troviamo traccia?
Sono state proposte molte ipotesi14 per spiegare perché sembriamo essere soli nel pur vastissimo universo, l’astronomo Frank Drake propose anche un’equazione per calcolare quante possibili civiltà potrebbero esserci nella galassia ma, finora, nessuna sembra essere pienamente convincente.
Il fisico russo Alexander Berezin, della National Research University of Electronic Technology (MIET), ha un’altra idea. La chiama la soluzione “First in, last out” del Paradosso di Fermi. Suggerisce che una volta che una civiltà raggiunge le capacità di diffondersi tra le stelle, finirà per spazzare via inevitabilmente tutte le altre civiltà.
Secondo lo scienziato russo, la sua soluzione non implica necessariamente che una razza che si espande nella galassia debba essere necessariamente malvagia ma, semplicemente, potrebbe, similarmente ad un bulldozer che distrugge un nido di formiche mentre spiana il terreno per costruire una strada, non notare civiltà inferiori e magari distruggerle senza nemmeno rendersene conto.
L’articolo in cui Berezin propone la sua ipotesi è disponibile su arxiv.org e ancora da sottoporre a peer-review .
Il fisico russo suggerisce anche che, se siamo ancora qui, è perché, probabilmente, siamo noi i futuri distruttori di innumerevoli civiltà.
“Supponendo che l’ipotesi sopra sia corretta, cosa significa per il nostro futuro? L’unica spiegazione è l’invocazione del principio antropico: siamo i primi ad arrivare allo stadio [interstellare] e, molto probabilmente, saremo gli ultimi a sparire” ha spiegato.
La soluzione di Berezin per il paradosso deriva dalla semplificazione di diverse ipotesi: Ad esempio, la nostra definizione di vita dipende da sette parametri, ma per Berezin ce n’è solo uno che conta: la crescita.
La crescita è la spinta per espandersi oltre il pianeta di origine, e se la spinta all’espansione diventa la forza dominante, nel suo slancio calpesterà ogni altra forma di vita esistente nell’universo. Colonialismo e capitalismo sono due esempi storici di tali forze.
Quindi, il nostro destino come razza è questo? Dovremo andare là fuori e conquistare tutto o essere distrutti? Possibile che non vi sia un’altra soluzione più moderata? In fondo, l’universo è talmente vasto che dovrebbe esserci spazio per tutti.
A mio avviso, questa è un’ulteriore ragione per continuare a cercare la vita vicino a noi: se trovassimo la vita, anche in forme semplicissime, su Marte o su uno dei satelliti del sistema solare saremmo, in questa fase storica, essere portati a proteggerla e preservarla.
Questo potrebbe contribuire a formare nell’umanità una cultura diversa da quella ipotizzata da Berezin. La consapevolezza di non essere soli potrebbe, alla fine, renderci migliori.
Scienziati di fama mondiale hanno lanciato un grido d’allarme, sollevando preoccupazioni profonde riguardo alla creazione di microrganismi specchio. Questo nuovo tipo di organismo sintetico, costruito a partire da molecole che sono l’immagine speculare di quelle presenti in natura, potrebbe rappresentare una minaccia senza precedenti per la vita sulla Terra.
Allarme globale: la minaccia dei microrganismi specchio
Un gruppo internazionale di esperti, tra cui premi Nobel e figure di spicco nel campo della biologia sintetica, ha espresso forti preoccupazioni circa le potenziali conseguenze della creazione di questi microrganismi. Secondo gli scienziati, i microrganismi specchio potrebbero eludere le difese immunitarie di organismi naturali, compresi esseri umani, animali e piante, causando infezioni letali che si diffonderebbero in modo incontrollabile.
La motivazione di questa preoccupazione risiede nella peculiarità dei microrganismi specchio. In natura, tutte le forme di vita utilizzano molecole con una specifica chiralità, ovvero una proprietà che le rende simili alla loro immagine speculare ma non sovrapponibili. Il DNA, ad esempio, è costituito da nucleotidi “destri”, mentre le proteine sono formate da amminoacidi “levogiri”.
Perché la natura abbia scelto questa configurazione molecolare rimane un mistero. Gli scienziati hanno già dimostrato la possibilità di creare grandi microrganismi specchio funzionali, aprendo la strada alla costruzione di organismi sintetici completamente nuovi. Sebbene la creazione di specchio completi sia ancora una sfida complessa, i progressi in questo campo sono rapidi e innescano interrogativi cruciali. Le potenziali applicazioni sono affascinanti: le molecole specchio potrebbero portare a nuove terapie per malattie resistenti, mentre i microbi specchio potrebbero rivoluzionare la produzione di sostanze chimiche.
I rischi potenziali superano di gran lunga i benefici a breve termine. Il gruppo di esperti ha quindi lanciato un appello urgente alla comunità scientifica e ai finanziatori, chiedendo una moratoria sulla ricerca in questo campo. La minaccia rappresentata dai microrganismi specchio è considerata senza precedenti. Questi organismi potrebbero diffondersi rapidamente nell’ambiente, contaminando ecosistemi e causando danni irreversibili alla biodiversità. Inoltre, la loro resistenza alle difese immunitarie esistenti li renderebbe estremamente difficili da contenere e eradicare.
La proposta di una moratoria ha innescato un intenso dibattito nella comunità scientifica. Alcuni esperti sottolineano l’importanza di continuare la ricerca, pur adottando misure di sicurezza rigorose. Altri, invece, sostengono che i rischi sono troppo elevati per procedere senza una comprensione più profonda delle potenziali conseguenze. La creazione di batteri specchio solleva questioni etiche profonde. La manipolazione della vita a livello molecolare ci pone di fronte a responsabilità immense. È fondamentale che la comunità scientifica, i governi e la società civile collaborino per trovare un equilibrio tra l’innovazione scientifica e la tutela della salute e dell’ambiente.
La creazione della vita speculare: un bivio etico e scientifico
I microrganismi specchio, secondo gli autori, presenterebbero rischi incontrollabili per la biosfera. Oltre a potenzialmente causare infezioni letali, si teme che questi organismi possano sfuggire al controllo umano, resistendo agli antibiotici esistenti e superando le difese immunitarie naturali. La loro natura “aliena” li renderebbe praticamente invulnerabili, minacciando la biodiversità e gli ecosistemi.
“A meno che non emergano prove convincenti che la vita specchio non rappresenti un pericolo straordinario, crediamo che i batteri specchio e altri organismi specchio non dovrebbero essere creati“, hanno spiegato gli studiosi. Il rapporto chiede un dibattito globale sulla ricerca in questo campo e invita i finanziatori a interrompere il sostegno a progetti volti alla creazione di molecole specchio. Gli autori hanno sottolineato l’importanza di una valutazione attenta e trasparente dei rischi potenziali prima di procedere con esperimenti di questo tipo.
La dottoressa Kate Adamala, coautrice del rapporto e precedentemente impegnata nella ricerca sulle cellule specchio, ha ammesso di aver cambiato idea dopo aver approfondito le implicazioni di questa tecnologia: “Non dovremmo creare una vita speculare”, ha dichiarato: “Abbiamo bisogno di un confronto aperto e costruttivo”.
Il professor Paul Freemont, non coinvolto nello studio, ha accolto con favore l’iniziativa degli autori, definendola un “eccellente esempio di ricerca e innovazione responsabili”. Ha tuttavia sottolineato l’importanza di non demonizzare completamente la ricerca sulla chimica specchio, che potrebbe portare a importanti scoperte in campo medico e industriale: “Mentre gli autori sottolineano chiaramente la necessità di un dibattito aperto e trasparente sullo sviluppo di organismi viventi speculari, c’è anche la necessità di identificare le promesse e gli usi positivi della chimica specchio nei sistemi biologici“, ha affermato.
Il dibattito sulla creazione di microrganismi specchio solleva importanti questioni etiche e sociali. La possibilità di manipolare la vita a livello molecolare apre scenari affascinanti ma anche inquietanti. La comunità scientifica, i governi e la società civile sono chiamati a confrontarsi su come bilanciare l’innovazione scientifica con la tutela della salute e dell’ambiente. La loro creazione rappresenta una delle sfide più complesse e controverse della biologia sintetica. La comunità scientifica deve affrontare con responsabilità e lungimiranza le implicazioni di questa tecnologia, adottando misure di sicurezza adeguate e garantendo un dibattito aperto e trasparente. La tutela della vita sulla Terra deve essere la nostra priorità assoluta.
Conclusioni
La prospettiva di creare organismi sintetici con proprietà radicalmente diverse da quelle degli esseri viventi apre scenari affascinanti ma anche inquietanti. La creazione di microrganismi specchio rappresenta una sfida scientifica senza precedenti e richiede una riflessione approfondita sulle implicazioni etiche e sociali.
È necessario un dialogo aperto e costruttivo tra scienziati, politici e cittadini per definire un quadro normativo adeguato e garantire che la ricerca in questo campo sia condotta in modo responsabile e trasparente. La tutela della vita sulla Terra deve essere la nostra priorità assoluta.
Il nostro Sole, stella apparentemente stabile e fonte di vita, potrebbe celare un pericolo inatteso: i superflare. Queste mega-tempeste solari, migliaia di volte più potenti delle normali eruzioni, rappresentano una minaccia concreta per la nostra civiltà tecnologicamente avanzata.
Il Sole ci riserva sorprese: il rischio dei superflare
Fino a poco tempo fa, si riteneva che i superflare fossero eventi rari, che si verificavano una volta ogni poche migliaia di anni. Tuttavia, recenti studi su oltre 56.000 stelle simili al Sole hanno rivelato una realtà ben più allarmante: stelle come la nostra potrebbero essere soggette a questi potenti eventi con una frequenza molto più elevata, stimata in circa una volta ogni secolo.
Un superflare avrebbe conseguenze catastrofiche a livello globale. Le intense radiazioni emesse durante l’eruzione danneggerebbero gravemente i sistemi elettronici, paralizzando le infrastrutture critiche come reti elettriche, comunicazioni e trasporti. I satelliti verrebbero distrutti, causando interruzioni nei servizi di navigazione, telecomunicazioni e osservazione della Terra. Inoltre, le aurore boreali e australi si estenderebbero a latitudini molto basse, potenzialmente innescando incendi e perturbazioni magnetiche.
Il Sole è una gigantesca sfera di plasma dove potenti campi magnetici si intrecciano e si riorganizzano continuamente. Quando queste linee di campo si spezzano e si riconnettono improvvisamente, si liberano enormi quantità di energia sotto forma di radiazioni e particelle cariche. Questo fenomeno, noto come brillamento solare, può essere accompagnato da un’espulsione di massa coronale, una gigantesca nube di plasma che si propaga nello Spazio.
Uno degli eventi solari più violenti mai registrati è stato l’evento di Carrington, avvenuto nel 1859. Questa tempesta solare provocò aurore visibili fino ai Caraibi e interruppe le comunicazioni telegrafiche in tutto il mondo. Sebbene la tecnologia dell’epoca fosse molto meno sofisticata rispetto a quella odierna, l’evento di Carrington ci offre un’idea delle potenziali conseguenze di una tempesta solare di grande intensità.
La previsione dei superflare è ancora una sfida scientifica, ma i ricercatori stanno lavorando intensamente per sviluppare modelli sempre più accurati. Inoltre, è fondamentale investire nella protezione delle infrastrutture critiche, rendendole più resilienti agli effetti delle tempeste solari. Non sappiamo se un superflare colpirà la Terra nel prossimo futuro, ma la possibilità non può essere esclusa. La consapevolezza di questo rischio è il primo passo per prepararsi ad affrontare le sfide che potrebbero presentarsi.
Nonostante i recenti progressi, molte domande rimangono senza risposta. Quali sono i meccanismi esatti che innescano i superflare? Quali sono le conseguenze a lungo termine di un evento di questo tipo? Come possiamo proteggere la nostra società da una minaccia così potente? La comunità scientifica internazionale è impegnata in una corsa contro il tempo per comprendere appieno i superflare e sviluppare strategie di mitigazione. Solo attraverso la ricerca e la collaborazione internazionale potremo essere pronti ad affrontare questa sfida globale.
Superflare solari: una minaccia sempre più concreta
Utilizzando il telescopio spaziale Kepler della NASA, i ricercatori hanno identificato ben 2.889 superflare provenienti da stelle simili al Sole. Questo risultato, ottenuto grazie a un nuovo metodo di rilevamento dei flare che tiene conto degli effetti strumentali, rappresenta un notevole avanzamento rispetto agli studi precedenti. Le ricerche passate sottostimavano la frequenza dei superflare a causa di diversi fattori. In primo luogo, si concentravano sull’analisi di stelle con periodi di rotazione simili al nostro Sole, escludendo così una vasta porzione di stelle potenzialmente attive. Inoltre, i metodi di rilevamento dei flare utilizzati in precedenza erano meno sensibili e precisi.
Il nuovo studio ha evidenziato un altro elemento interessante: circa il 30% delle stelle che hanno mostrato superflare fanno parte di sistemi binari. Le interazioni gravitazionali tra le due stelle potrebbero intensificare l’attività magnetica e favorire l’insorgenza di superflare. Nonostante questi risultati allarmanti, i ricercatori sottolineano che sono necessarie ulteriori indagini per comprendere appieno i meccanismi che innescano i superflare e per valutare con precisione il rischio per la Terra.
La missione Vigil dell’Agenzia Spaziale Europea, prevista per il 2031, giocherà un ruolo fondamentale in questo senso. Grazie ai suoi strumenti all’avanguardia, Vigil ci permetterà di monitorare l’attività solare con una precisione mai raggiunta prima, fornendo previsioni più accurate sui potenziali eventi estremi. Un superflare diretto verso la Terra potrebbe avere conseguenze catastrofiche.
Le intense radiazioni emesse durante un superflare potrebbero danneggiare le reti elettriche, causando blackout su vasta scala. I satelliti che orbitano intorno alla Terra sarebbero esposti a un elevato rischio di guasti o distruzione. Le comunicazioni radio e satellitari verrebbero gravemente compromesse. L’aumento delle radiazioni potrebbe rappresentare un rischio per la salute degli astronauti e delle persone che si trovano in volo ad alta quota.
Grazie a missioni spaziali come Vigil, possiamo migliorare la nostra capacità di prevedere gli eventi solari estremi e mettere in atto misure di protezione in anticipo. È necessario rendere le reti elettriche, le comunicazioni e altri sistemi essenziali più resistenti agli effetti delle tempeste solari. La ricerca di materiali e tecnologie in grado di proteggere i sistemi elettronici dalle radiazioni è un altro ambito di ricerca fondamentale.
Conclusioni
La scoperta di una maggiore frequenza di superflare solari ci impone di rivalutare il rischio associato a questi eventi estremi. La nostra società, sempre più dipendente dalle tecnologie, è vulnerabile agli effetti di una tempesta solare di grande intensità. È fondamentale investire in ricerca e sviluppo per affrontare questa sfida e proteggere il nostro pianeta.
Lo studio è stato pubblicato sulla rivista Science.