giovedì, Maggio 1, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 274

Come controllare l’efficienza energetica e quali sono i vantaggi dell’isolamento termico

2
Come controllare l’efficienza energetica e quali sono i vantaggi dell’isolamento termico
Migliori casinò non AAMS in Italia

L’isolamento termico è un’operazione che offre numerosi vantaggi, ma viene eseguita solamente quando vi sono le condizioni necessarie.

Per determinare se vi sia effettivamente la necessità di coibentare un edificio, è essenziale condurre un’accurata valutazione dell’efficienza energetica dell’abitazione e dello stato dell’isolamento interno.

Queste indagini sono cruciali poiché i risultati determineranno i materiali e le tecniche di isolamento più adatti. Procedere senza aver effettuato controlli preliminari può comportare costi maggiori e risultati inferiori rispetto alle prestazioni desiderate.

È pertanto consigliabile effettuare i controlli prima di procedere con l’isolamento e affidarsi a esperti. Isolflake, ad esempio, è un’impresa specializzata in interventi di coibentazione per tetti, sottotetti e pareti, utilizzando materiali isolanti come le fibre di cellulosa e la lana di vetro.

La decisione se realizzare un nuovo impianto di isolamento o migliorare quello esistente dipende da diversi fattori. Creare un impianto ex novo può essere più semplice, mentre intervenire su un impianto preesistente può essere più complesso, ma comunque realizzabile.

Come fare il controllo dell’efficienza energetica della casa

Per garantire una verifica accurata, è consigliabile affidarsi alla diagnosi energetica di un tecnico specializzato, il quale eseguirà una valutazione professionale. Tuttavia, è importante notare che il controllo può essere condotto autonomamente seguendo alcuni semplici passaggi.

Inizialmente, è fondamentale distinguere tra due situazioni: la presenza di un impianto di isolamento termico e l’assenza dello stesso in un edificio.

Se ci si trova in una situazione in cui non si è sicuri della presenza di materiale isolante nelle pareti, esiste un metodo di verifica semplice che consiste nel staccare la corrente elettrica, rimuovere una presa di un interruttore della corrente e ispezionare l’interno con l’ausilio di una luce per verificare la presenza di materiale isolante.

Nel caso in cui si sia certi dell’assenza di isolamento termico, è opportuno prestare attenzione a segnali quali umidità o muffa sui muri, bollette del riscaldamento eccessivamente alte, e differenze significative di temperatura tra le stanze invernali e estive nonostante l’utilizzo di riscaldamento e condizionatori.

Se è già stato eseguito un intervento di isolamento termico in precedenza, è importante verificare i punti in cui la casa è isolata, dove non lo è e dove potrebbe essere necessario un ulteriore intervento. È anche consigliabile esaminare il tipo di isolamento presente, in particolare il suo spessore e il materiale isolante utilizzato.

In alternativa alla verifica diretta, è possibile consultare la certificazione energetica (APE – Attestato di Prestazione Energetica). Questo documento fornisce una valutazione dell’efficienza energetica degli edifici, aiutando i proprietari e gli utilizzatori a comprendere i livelli di consumo energetico necessari per mantenere le condizioni ambientali interne stabili.

I vantaggi dell’isolamento termico

L’isolamento termico della casa offre molteplici vantaggi. Tra le soluzioni innovative, l’insufflaggio di lana di vetro o di cellulosa emerge come una tecnica particolarmente efficace.

Questi materiali, insufflati direttamente nelle pareti o nel sottotetto, permettono di creare uno strato isolante continuo, eliminando ponti termici e migliorando significativamente l’efficienza energetica dell’edificio.

Grazie all’elevata capacità isolante delle fibre di cellulosa o di lana di vetro, la dispersione di calore viene drasticamente ridotta, garantendo una temperatura interna confortevole in qualsiasi stagione.

Ciò si traduce in un minor consumo di energia per il riscaldamento e il raffreddamento dell’abitazione, con conseguenti risparmi significativi sulle bollette energetiche.

Il gruppo Kem Kem, il luogo più pericoloso in cui vivere nella storia della Terra

0
"Il luogo più pericoloso" nella storia della Terra
Migliori casinò non AAMS in Italia

Il gruppo Kem Kem, nel Marocco orientale, potrebbe essere il candidato principale per il luogo più pericolosi in cui essere stati vivi nel passato preistorico della Terra, sulla base della sua temibile preponderanza di carnivori di grandi dimensioni, come evidenziato dai reperti fossili.

 

 

impostazione geografica del gruppo kem kem
Questa prevalenza di carnivori, in contrasto con la relativa scarsità di resti di erbivori, costituisce una concentrazione di mangiatori di carne giganti che non può essere trovata in nessun ecosistema terrestre moderno comparabile, secondo i ricercatori.

Questo è stato senza dubbio il posto più pericoloso nella storia del pianeta Terra, un luogo in cui un viaggiatore nel tempo non sarebbe durato a lungo“, afferma il paleontologo Nizar Ibrahim dell’Università della Misericordia di Detroit.

010 kem kem group 4
Un Carcharodontosaurus osserva un gruppo di cacciatori simili a coccodrilli chiamati Elosuco. (Davide Bonadonna)

In un nuovo studio, Ibrahim e il suo team hanno esaminato l’abbondanza di prove fossili provenienti da quelli che in precedenza erano stati definiti i “letti Kem Kem”, un deposito di strati antichi ricco di fossili situato vicino al confine marocchino-algerino e risalente al tardo Periodo cretaceo.

L’esistenza del sito è nota da tempo, e non solo ai paleontologi, ma anche ai cacciatori di fossili commerciali, il che significa che i resti saccheggiati di molti di questi antichi dinosauri, rettili e altre creature sono ora sparsi in tutto il mondo in collezioni private.

La distribuzione di fossili isolati significa che abbiamo perduto una visione consolidata a causa della sottrazione di fossili del Gruppo Kem Kem; qualcosa che Ibrahim e colleghi ricercatori hanno tentato di correggere con la loro nuova analisi, che ha comportato visite a raccolte tenute in diversi continenti.

Questo è il lavoro più completo sui vertebrati fossili del Sahara in quasi un secolo, dal momento che il famoso paleontologo tedesco Ernst Freiherr Stromer von Reichenbach ha pubblicato la sua ultima grande opera nel 1936“, spiega il paleoobiologo David Martill dell’Università di Portsmouth, nel Regno Unito.

La recensione fornisce “una finestra sull’era africana dei dinosauri“, afferma Ibrahim, e suggerisce che il gruppo Kem Kem in realtà comprenda due distinti siti ricchi di fossili, chiamati  “bassa Gara Sbaa” e “formazioni superiori di Douira“.

Entrambe le formazioni esibiscono una gamma di dinosauri e pterosauri, oltre ad antichi crocodiformi, tartarughe, resti di pesci e vari fossili di invertebrati, piante e impronte.

Forse la caratteristica più notevole del paleoecosistema Kem Kem è quella che da allora è diventata nota come “indovinello di Stromer“: la sovrabbondanza di dinosauri predatori in confronto agli erbivori, confermata sia nel gruppo Kem Kem, sia nella formazione egiziana Bahariya.

Per quanto riguarda il gruppo Kem Kem, questo è indicato dalla presenza di quattro diversi tipi di teropodi (un abelisaurideSpinosaurus aegyptiacusCarcharodontosaurus saharicus e Deltadromeus agilis), mentre nella maggior parte delle formazioni mesozoiche come questa, di solito vengono trovati solo uno o due grandi predatori, dicono i ricercatori.

Ma, come ha scoperto il team, c’è di più che distingue Kem Kem.

Letti incrociati tabulari nella Formazione Gara Sbaa
(Ibrahim et al., ZooKeys, 2020)

Oltre alla sovrabbondanza di predatori di dinosauri di grande corporatura“, scrivono gli autori, “almeno tre dei quattro grandi predatori trovati in entrambi i depositi sono tra i più grandi dinosauri predatori conosciuti“.

Allo stesso tempo, gli erbivori nei reperti fossili non sono né grandi né particolari, riporta il team, “ma non sono così vari come in molte altre formazioni cretacee“.

Tuttavia, ai carnivori non doveva mancare da mangiare in quel posto.

All’epoca in cui questi dinosauri vagavano, circa 100 milioni di anni fa (ma alcuni dei fossili risalgono anche a 115 milioni di anni fa), l’area era il promontorio di un vasto sistema fluviale e vi era una ricca fauna costituita da pesci e altri animali marini che avrebbero potuto facilmente sostenere la popolazione dei teropodi.

Questo posto era pieno di pesci assolutamente enormi, tra cui molti celacanti giganti“, dice Martill.

C’era un enorme squalo d’acqua dolce chiamato Onchopristis con temibili denti rostrali, un specie di pugnali spinati, ma meravigliosamente lucenti“.

I risultati dello studio sono pubblicati in ZooKeys.

Come gli ominini sono sfuggiti all’estinzione climatica 900.000 anni fa

2
Come gli ominini sono sfuggiti all'estinzione climatica 900.000 anni fa
Migliori casinò non AAMS in Italia

Circa 900.000 anni fa, gli ominini nostri antenati si sono quasi estinti. Secondo i risultati di uno studio genomico pubblicato nel 2023, gli antenati dell’umanità moderna sono stati ridotti a una popolazione riproduttiva di appena 1.300 individui in un collo di bottiglia devastante che ci ha portato sull’orlo dell’annientamento.

Ominidi

La migrazione di massa degli ominini

Un nuovo studio ha scoperto che nello stesso periodo si è verificata una migrazione di massa di ominini dall’Africa. Si tratta di una scoperta che ha confermato la precedente datazione del declino demografico e ha indicato che i due siano legati ad un comune denominatore: un evento noto come transizione del Pleistocene medio, in cui il clima della Terraha subito un periodo di totale tumulto, eliminando diverse specie.

Ominidi

Il movimento dei primi esseri umani dall’Africa verso e attraverso l’Europa e l’Asia è difficile da ricostruire. La prova migliore che si ha a disposizione consiste in una scarsa documentazione di ossa e per lo più di manufatti in pietra, che può essere difficile datare.

Le prove hanno indicato tuttavia che non si è trattato di un unico evento, ma di molteplici ondate di primi ominini e antenati umani che hanno messo insieme le loro vite e hanno intrapreso lunghi viaggi in nuovi ambienti.

La perdita di diversità genetica

Due studi recenti hanno collegato la migrazione degli ominini a un collo di bottiglia della popolazione, sulla base di diversi tipi di analisi. Una lettura attenta del genoma umano ha scoperto che un collo di bottiglia nella popolazione ha causato una perdita di diversità genetica circa 900.000 anni fa. Un secondo studio, pubblicato poche settimane dopo, ha studiato i primi siti archeologici in Eurasia e ha datato il collo di bottiglia a 1,1 milioni di anni fa.

Questa discrepanza rende difficile identificare l’evento climatico che potrebbe aver causato o almeno contribuito al temporaneo calo numerico degli ominini, così i geologi Giovanni Muttoni dell’Università di Milano e Dennis Kent della Columbia University hanno intrapreso un lavoro per restringere il campo tempistica del collo di bottiglia.

In primo luogo, i ricercatori hanno rivalutato i registri dei siti dei primi insediamenti degli ominini in tutta l’Eurasia e hanno trovato un gruppo di siti datati in modo affidabile a 900.000 anni fa. In confronto, la datazione sui siti più antichi utilizzati come prova di un collo di bottiglia della popolazione era più ambigua e quindi discutibile.

Ominidi

Gli studiosi hanno confrontato i loro risultati con i registri dei sedimenti marini, che conservano prove di cambiamenti climatici sotto forma di isotopi di ossigeno. I rapporti di ossigeno intrappolato negli strati di sedimenti hanno indicato se il clima fosse più caldo o più freddo al momento in cui i minerali sono stati depositati.

I dati genomici e la datazione dei siti degli ominini insieme suggeriscono che il collo di bottiglia e la migrazione sono stati simultanei. Durante la transizione del Pleistocene medio, i livelli globali degli oceani sono crollati e l’Africa e l’Asia si sono prosciugate, con ampie zone di aridità.

La rapida migrazione degli ominidi

Gli ominini che vivevano in Africa avrebbero affrontato condizioni orribili esse do privi di cibo e acqua. Fortunatamente, con l’abbassamento del livello del mare, sono diventate disponibili le rotte terrestri verso l’Eurasia e gli animali hanno potuto spostarsi, secondo il modello dei ricercatori.

Questo non vuol dire, notano attentamente, che gli ominini non fossero migrati in precedenza. Piuttosto, il collo di bottiglia della popolazione nell’antenato del moderno Homo sapiens e la sua migrazione si sono verificati contemporaneamente a causa dello sconvolgimento climatico avvenuto circa 900.000 anni fa.

Ominidi

Suggeriamo che la maggiore aridità durante lo stadio 22 dell’isotopo marino, che ha causato la diffusione della savana e delle zone aride in gran parte dell‘Africa continentale, abbia spinto le prime popolazioni Homo Sapiens in Africa ad adattarsi o a migrare per evitare l’estinzione“, scrivono nel loro studio.

La rapida migrazione degli ominidi in risposta a un grave fattore scatenante climatico e i concomitanti mezzi di fuga sono ciò che può spiegare la migrazione fuori dall’Africa avvenuta 0,9 milioni di anni fa e contribuire alle moderne prove genomiche del collo di bottiglia nelle moderne popolazioni africane“.

Grande Lago Salato: quali animali ci vivono?

2
Grande Lago Salato
Migliori casinò non AAMS in Italia

Per decenni si è pensato che il Grande Lago Salato negli Stati Uniti ospitasse ufficialmente solo due animali più grandi di una cella: i gamberi e le mosche d’acqua salata. A parte questo, nelle acque ultrasaline del lago sono stati trovati solo batteri e alghe. Ora, gli scienziati hanno scoperto una terza forma di vita multicellulare che può anche sopportare una quantità sgradevole di sale.

Grande Lago Salato

 Rompendo grumi di fango di carbonato di calcio chiamati microbialiti, formati da microrganismi sul fondo del lago, i ricercatori dell’Università dello Utah hanno confermato quello che i biologi hanno sospettato da tempo: ci sono vermi di varie specie che si dimenano sotto la superficie del lago, lontano dalla nostra vista.

Grande Lago Salato: l’ambiente salino

Il Grande Lago Salato è l’ambiente più salino in cui siano mai stati trovati nematodi. E questo la dice lunga, dal momento che queste creature vivono in quasi tutti gli ambienti estremi del pianeta Terra. I biologi Julie Jung e Michael Werner hano guidato il team che ha i seguito scoperto i vermi. Nella primavera del 2021, hanno iniziato una rigorosa caccia alle creature in un punto del lago che è da tre a sei volte più salato dell’oceano.

Grande Lago Salato

Jung ha spiegato: “All’inizio si trattava semplicemente di raccogliere campioni di segmenti. Ma poi, una volta che abbiamo notato i microbialiti, ne abbiamo spalato piccoli pezzi, abbiamo cercato di preservarne gli strati e li abbiamo riportati in laboratorio”. Laddove altri biologi hanno fallito, Jung e Werner ce l’hanno fatta. Utilizzando una potente tecnica per separare macromolecole come DNA, RNA e proteine, i biologi hanno identificato nematodi vivi in ​​ogni sito in cui hanno raccolto campioni.

Il commento dello studioso

Byron Adams della Brigham Young University, consulente della scoperta, ha detto sui nematodi: “Li avevo cercati anch’io, ma non negli stessi posti. Ancora oggi stiamo scoprendo cose straordinarie su questo lago che si trova alle nostre porte da 170 anni”. I ricercatori hanno ipotizzato che questi vermi nascosti si nutrano dei batteri che vivono e creano questi tappetini.

Possono anche proteggere questi esemplari dal sole e dall’essiccarsi quando l’acqua del lago si ritira. I ricercatori non hanno potuto coltivare i nematodi in laboratorio, quindi per capire come riescono a sopravvivere, il team si è rivolto all’esemplare più studiato di tutti: il Caenorhabditis elegans.

Grande Lago Salato

In laboratorio, questa creatura è stata nutrita con batteri E. coli o con batteri che vivono nei tappeti microbici del Grande Lago Salato. I vermi sono stati poi esposti all’acqua del lago, che è 50 volte più salata dell’habitat abituale di C. elegans. Dopo cinque minuti, i vermi nutriti con E. coli erano morti. Quelli però sostenuti dai microbi locali sono sopravvissuti per più di 24 ore. I risultati hanno suggerito che c’è qualcosa in questa particolare dieta che consente ai nematodi del Grande Lago Salato di sopravvivere.

Curiosità sul Grande Lago Salato

Il Grande Lago Salato è uno dei più noti specchi d’acqua salata del mondo e si trova nello stato dello Utah (USA). Esso è situato nel nord-ovest dello Utah. Si estende per circa 1.700 miglia quadrate (circa 4.400 km²) e può raggiungere una profondità massima di circa 33 piedi (circa 10 metri).Si tratta di uno dei più grandi laghi salati del mondo e contiene un’elevata concentrazione di sali, che lo rende significativamente più salato dell’oceano.

Grande Lago Salato

Il Grande Lago Salato è il residuo di un suo analogo preistorico molto più esteso chiamato Bonneville, che si è formato circa 30.000 anni fa durante l’era glaciale. Dopo il ritiro dei ghiacciai, il Lago Bonneville si è diviso in una serie di laghi più piccoli, a causa dell’innalzamento e del ribasso delle terre circostanti. La concentrazione di sali qui è così elevata che le persone possono galleggiare facilmente sulla superficie dell’acqua, simile all’esperienza nel Mar Morto.

Nonostante le condizioni, il lago supporta una varietà di organismi adattati a vivere in ambienti salini, come brine shrimp (Artemia salina) e alcune specie di alghe. Il lago è punteggiato da numerose isole e penisole, tra cui Antelope Island, la più grande di esse, che è diventata una destinazione popolare per l’osservazione della fauna selvatica. Il Grande Lago Salato è una fonte importante di sali minerali, e diverse aziende estraggono il sale dalle sue acque per scopi commerciali.

Obesità della mezza età legata ad un’alterazione dei neuroni nell’ipotalamo

2
Obesità
Migliori casinò non AAMS in Italia

Ricercatori dell’Università di Nagoya e colleghi giapponesi hanno scoperto che l’obesità nella mezza età è dovuta ad alterazioni legate all’età sotto forma di neuroni nell’ipotalamo, la regione del cervello responsabile della regolazione del metabolismo e dell’appetito.

Obesità

Invecchiando diventiamo più inclini al sovrappeso e all’obesità

Una proteina chiamata recettore della melanocortina-4 (MC4R) rileva la sovranutrizione e regola il metabolismo e l’appetito per prevenire l’obesità. Secondo il loro studio sui ratti, gli MC4R erano concentrati nelle ciglia primarie (strutture simili ad antenne) che si estendono da un paio di gruppi di neuroni ipotalamici. Lo studio ha anche dimostrato che le ciglia primarie si accorciano con l’età, il che diminuisce di conseguenza gli MC4R, con conseguente aumento di peso.

Obesità

Crediamo che un meccanismo simile esista anche negli esseri umani“, ha affermato il Professor Kazuhiro Nakamura della Graduate School of Medicine dell’Università di Nagoya, autore principale dello studio: “Speriamo che la nostra scoperta porti a un trattamento fondamentale per l’obesità”. I ricercatori hanno pubblicato i risultati dello studio sulla rivista Cell Metabolism.

Invecchiando diventiamo più inclini al sovrappeso e all’obesità. Le persone obese sono più suscettibili al diabete, all’iperlipidemia e ad altre malattie croniche. Studi precedenti hanno indicato che l’aumento di peso nella mezza età sia causato da un declino del metabolismo generale dovuto all’invecchiamento, ma le dinamiche non sono ancora chiare.

Obesità nella mezza età: lo studio degli MC4R

Un gruppo di ricerca della Nagoya University Graduate School of Medicine, in collaborazione con ricercatori dell’Università di Osaka, dell’Università di Tokyo e dell’Istituto di ricerca di medicina ambientale dell’Università di Nagoya, ha condotto uno studio incentrato sugli MC4R.

Gli MC4R stimolano il metabolismo e sopprimono l’assunzione di cibo in risposta a un segnale di eccesso di cibo da parte della melanocortina. Inizialmente, il gruppo di ricerca ha esaminato la distribuzione degli MC4R nel cervello dei ratti utilizzando un anticorpo sviluppato appositamente per rendere visibili gli MC4R. Hanno scoperto che gli MC4R sono presenti esclusivamente nelle ciglia primarie di gruppi specifici di neuroni ipotalamici.

Il team ha successivamente analizzare la lunghezza delle ciglia primarie che avevano MC4R (MC4R + ciglia) nel cervello di ratti di 9 settimane (giovani) e di ratti di 6 mesi (di mezza età). Il team ha scoperto che le ciglia MC4R + nei ratti di mezza età erano significativamente più corte di quelle dei ratti giovani. Di conseguenza, il metabolismo e la capacità di bruciare i grassi dei ratti di mezza età erano molto inferiori a quelli dei ratti giovani.

Il team ha poi analizzato MC4R + ciglia nei ratti sottoposti a diverse condizioni dietetiche. I risultati hanno mostrato che le ciglia MC4R + nei ratti che hanno seguito una dieta normale si accorciavano gradualmente con l’età. D’altra parte, le ciglia MC4R + nei ratti che hanno seguito una dieta ricca di grassi si sono accorciate a un ritmo più veloce, mentre quelle nei ratti con una dieta ristretta si sono accorciate a un ritmo più lento.

Obesità

È interessante notare che il team ha anche scoperto che le ciglia MC4R + , che una volta scomparse con l’età, si sono rigenerate nei ratti allevati con due mesi di restrizione alimentare.

Nello studio, il team ha utilizzato anche tecnologie genetiche per rendere le ciglia MC4R + più corte nei ratti giovani. Questi ratti hanno mostrato un aumento dell’assunzione di cibo e una diminuzione del metabolismo, con conseguente aumento di peso.

Il team ha anche somministrato un ormone chiamato leptina al cervello di ratti con ciglia MC4R + accorciate artificialmente. Si ritiene che la leptina aiuti a ridurre l’assunzione di cibo. Sorprendentemente, tuttavia, il loro appetito non è stato ridotto, indicando che la leptina non poteva esercitare effetti anti-obesità.

La resistenza alla leptina

Questo fenomeno, chiamato resistenza alla leptina, è spesso osservato anche nei pazienti umani con obesità. Questo rappresenta un ostacolo al trattamento dell’obesità, ma la causa è rimasta sconosciuta per molto tempo”, ha spiegato la dottoressa Manami Oya, la prima autrice dello studio.

Obesità

Nei pazienti con obesità il tessuto adiposo secerne un’eccessiva leptina, che innesca l’azione cronica della melanocortina. Il nostro studio ha indicato che quello che potrebbe promuovere l’accorciamento correlato all’età delle ciglia MC4R + e mettere gli animali in una spirale discendente in cui la melanocortina diventa inefficace, aumentando il rischio di obesità”.

Lo studio ha concluso che l’accorciamento correlato all’età delle ciglia MC4R + provoca obesità di mezza età e resistenza alla leptina nei ratti. I ricercatori hanno dimostrato che la restrizione dietetica è un metodo per prevenire e curare il sovrappeso e l’obesità. Il Prof. Nakamura ha concluso: “Abitudini alimentari moderate potrebbero mantenere le ciglia MC4R + abbastanza a lungo da mantenere il sistema anti-obesità del cervello in buona forma anche con l’avanzare dell’età”.

Perché gli oggetti acquistano massa avvicinandosi alla velocità della luce?

0
Perché gli oggetti acquistano massa avvicinandosi alla velocità della luce?
Migliori casinò non AAMS in Italia

Non importa chi sei, dove ti trovi o quanto velocemente ti muovi, le leggi della fisica ti appariranno sempre esattamente le stesse che a qualsiasi altro osservatore nell’Universo. Questo concetto – che le leggi della fisica non cambiano mentre ci si sposta da un luogo a un altro o da un momento all’altro – è noto come principio di relatività e risale non solo a Einstein, ma anche prima.

Se eserciti una forza su un oggetto, questo accelera (cioè cambia la sua quantità di moto) e la quantità della sua accelerazione è direttamente correlata alla forza esercitata sull’oggetto divisa per la sua massa. In termini di equazione, questo è il famoso F = m a di Newton: la forza è uguale alla massa per l’accelerazione.

Quando abbiamo scoperto particelle che si muovevano vicino alla velocità della luce, però, improvvisamente è emersa una contraddizione: se si esercita con continuità una grande forza su una piccola massa, e l’applicazione di una forza provoca accelerazione, dovrebbe essere possibile accelerare un oggetto massiccio fino a raggiungere o addirittura superare la velocità della luce! Questo non è possibile, invece, ed è stata la relatività di Einstein a spiegarci perché

Si tratta di quella che chiamiamo “massa relativistica“, o l’idea che man mano che ci si avvicina alla velocità della luce, la massa di un oggetto aumenta, quindi la stessa forza provoca un’accelerazione minore, impedendogli di raggiungere la velocità della luce. 

Ma questa interpretazione della “massa relativistica” è corretta? Solo un po’. Ecco la scienza del perché.

La prima cosa che è fondamentale capire è che il principio di relatività, non importa quanto velocemente ti muovi o dove ti trovi, è sempre vero: le leggi della fisica sono davvero le stesse per tutti, indipendentemente da dove tu ti trovi o quando stai effettuando la misurazione. La cosa che Einstein sapeva (che sia Newton che Galileo non avevano modo di sapere) era questa: la velocità della luce nel vuoto è esattamente la stessa per tutti.

Immagina di avere un’auto che può viaggiare a 100 chilometri all’ora. Immagina, attaccato a quell’auto, di avere un cannone in grado di accelerare una palla di cannone da fermo alla stessa identica velocità: 100 chilometri all’ora. Ora, immagina che la tua macchina si muova e spari quella palla di cannone e puoi controllare in che direzione è puntato il cannone.

  • Se punti il ​​cannone nella stessa direzione in cui si muove l’auto, la palla di cannone si muoverà a 200 km / h: la velocità dell’auto più la velocità della palla di cannone.
  • Se punti il ​​cannone verso l’alto mentre l’auto si muove in avanti, la palla di cannone si muoverà a 141 km / h: una combinazione di avanti e in alto, con un angolo di 45 gradi.
  • Se punti il ​​cannone in retromarcia, sparando la palla di cannone all’indietro mentre l’auto si muove in avanti, la palla di cannone uscirà a 0 km / h (0 mph): le due velocità identiche si annulleranno a vicenda.

Questo è ciò che sperimentiamo comunemente, in linea con ciò che ci aspettiamo. E questo è vero anche sperimentalmente, almeno per il mondo non relativistico. Ma se invece sostituissimo quel cannone con una torcia, la storia sarebbe molto diversa. Puoi prendere una macchina, un treno, un aereo o un razzo, viaggiando a qualsiasi velocità tu voglia, e puntare una torcia in qualsiasi direzione tu voglia.

Quella torcia emetterà fotoni alla velocità della luce, ovvero 299.792.458 m / s, e quei fotoni viaggeranno sempre alla stessa esatta velocità.

  • Puoi sparare i fotoni nella stessa direzione in cui si muove il tuo veicolo e si muoveranno comunque a 299.792.458 m / s.
  • Puoi sparare i fotoni ad un angolo rispetto alla direzione in cui ti stai muovendo e, sebbene ciò possa cambiare la direzione del movimento dei fotoni, si muoveranno comunque alla stessa velocità: 299.792.458 m / s.
  • E puoi sparare i fotoni direttamente invertiti nella tua direzione di movimento, e comunque viaggeranno a 299.792.458 m / s.

La velocità a cui viaggiano i fotoni sarà sempre la stessa, la velocità della luce, non solo dal tuo punto di vista, ma dal punto di vista di chiunque stia guardando. L’unica differenza che chiunque vedrà, a seconda della velocità con cui ti muovi (l’emettitore) e loro (l’osservatore), è nella lunghezza d’onda di quella luce: più rossa (lunghezza d’onda maggiore) se vi allontanate reciprocamente da ciascuno altro, più blu (lunghezza d’onda più corta) se vi muovete l’uno verso l’altro.

Questa era la consapevolezza chiave che Einstein ebbe quando stava elaborando la sua teoria originale della Relatività Speciale. Cercò di immaginare che aspetto avrebbe avuto la luce – che sapeva essere un’onda elettromagnetica – a qualcuno che stava seguendo quell’onda a velocità vicine alla velocità della luce.

Anche se spesso non la pensiamo in questi termini, il fatto che la luce sia un’onda elettromagnetica significa:

  • che questa onda luminosa trasporta energia,
  • che crea campi elettrici e magnetici mentre si propaga nello spazio,
  • quei campi oscillano, in fase e ad angoli di 90 gradi l’uno rispetto all’altro,
  • e quando passano accanto ad altre particelle cariche, come gli elettroni, possono farle muovere periodicamente, perché le particelle cariche subiscono forze (e quindi accelerazioni) quando sono soggette a campi elettrici e / o magnetici.

Questo fu cementato negli anni 1860 e 1870, all’indomani del lavoro di James Clerk Maxwell, le cui equazioni sono ancora sufficienti per governare la totalità dell’elettromagnetismo classico. Utilizzate questa tecnologia quotidianamente: ogni volta che un’antenna “raccoglie” un segnale, quel segnale proviene dalle particelle cariche in quell’antenna che si muovono in risposta a quelle onde elettromagnetiche.

Einstein ha cercato di pensare a come sarebbe stato seguire questa onda da dietro, con un osservatore intento a guardare i campi elettrici e magnetici oscillare davanti a loro. Ma, ovviamente, questo non accade mai. Non importa chi sei, dove ti trovi, quando sei o quanto velocemente ti muovi, tu e tutti gli altri vedete sempre la luce muoversi esattamente alla stessa velocità: la velocità della luce.

Ma non tutto ciò che riguarda la luce è lo stesso per tutti gli osservatori. Il fatto che la lunghezza d’onda della luce osservata cambi in base a come la sorgente e l’osservatore si muovono l’una rispetto all’altra significa che anche alcune altre cose sulla luce devono cambiare.

  • La frequenza della luce deve cambiare, perché la frequenza moltiplicata per la lunghezza d’onda è sempre uguale alla velocità della luce, che è una costante.
  • L’energia di ogni quanto di luce deve cambiare, perché l’energia di ogni fotone è uguale alla costante di Planck (che è una costante) moltiplicata per la frequenza.
  • E anche la quantità di moto di ogni quanto di luce deve cambiare, perché la quantità di moto (per la luce) è uguale all’energia divisa per la velocità della luce.

Quest’ultima parte è fondamentale per la nostra comprensione, perché lo slancio è il collegamento chiave tra il nostro modo di pensare vecchia scuola, classico, galileiano e newtoniano e il nostro nuovo modo di pensare relativisticamente invariante che è venuto con Einstein.

La luce varia enormemente in energia, dai fotoni dei raggi gamma alle più alte energie fino ai raggi X, la luce ultravioletta, la luce visibile (dal viola al blu al verde al giallo all’arancio al rosso), la luce infrarossa, la luce a microonde e infine luce radio alle energie più basse. 

Maggiore è la tua energia per fotone, minore è la tua lunghezza d’onda, maggiore è la tua frequenza e maggiore è la quantità di quantità di moto che trasporta; minore è la tua energia per fotone, più lunga è la tua lunghezza d’onda, più bassa è la tua frequenza e minore è la tua quantità di moto.

La luce può anche, come lo stesso Einstein dimostrò con la sua ricerca del 1905 sull’effetto fotoelettrico, trasferire energia e quantità di moto nella materia: particelle massicce. 

Se l’unica legge che avessimo fosse la legge di Newton nel modo in cui siamo abituati a vederla – poiché la forza è uguale alla massa per l’accelerazione ( F = m a ) – la luce sarebbe nei guai. Senza massa inerente ai fotoni, questa equazione non avrebbe alcun senso. Ma lo stesso Newton non ha scritto ” F = m a ” come spesso supponiamo, ma piuttosto che “la forza è la velocità di variazione della quantità di moto” o che l’applicazione di una forza provoca una “variazione della quantità di moto” nel tempo.

Cosa significa? Sebbene molti fisici abbiano una propria definizione, quella che mi è sempre piaciuta è “è una misura della quantità del tuo movimento”. Se immagini un cantiere navale, puoi immaginare di eseguire una serie di cose.

  • Un gommone potrebbe essere in grado di muoversi in modo relativamente lento o veloce, ma con la sua massa ridotta, il suo slancio rimarrà basso. La forza che esercita sulla banchina, quando si scontra, sarà limitata, e solo le banchine più deboli subiranno danni strutturali se colpite da un gommone.
  • Qualcuno che spara con un’arma da fuoco a quel molo, tuttavia, sperimenterà qualcosa di diverso. Anche se i proiettili, che siano proiettili, palle di cannone o qualcosa di più dannoso come i proiettili di artiglieria, possono essere di massa ridotta, si muoveranno a velocità molto elevate (ma comunque non relativistiche). Con lo 0,01% della massa ma il 10000% della velocità, la loro quantità di moto può essere altrettanto alta, ma la forza verrà distribuita su un’area molto più piccola. Il danno strutturale sarà significativo, ma solo in luoghi molto localizzati.
  • Oppure potresti far correre un oggetto estremamente lento ma massiccio, come una nave da crociera o una corazzata, in quel molo a una velocità estremamente bassa. Con milioni di volte la massa di un gommone – possono arrivare a decine di migliaia di tonnellate – anche una velocità minima può portare a un molo completamente distrutto. Lo slancio, per oggetti di massa elevata, non scherza.

Il problema è, tornando indietro fino a Newton, che la forza che eserciti su qualcosa è uguale al cambiamento di quantità di moto nel tempo. Se eserciti una forza su un oggetto per un certo tempo, cambierà lo slancio di quell’oggetto di una quantità specifica. Questo cambiamento non dipende da quanto velocemente si muove un oggetto, ma solo dalla “quantità di movimento” che possiede: la sua quantità di moto.

Allora, cos’è che accade alla quantità di moto di un oggetto quando si avvicina alla velocità della luce? 

Questo è davvero quello che cerchiamo di capire quando parliamo di forza, quantità di moto, accelerazione e velocità quando ci avviciniamo alla velocità della luce. Se un oggetto si muove al 50% della velocità della luce e ha un cannone in grado di sparare un proiettile al 50% della velocità della luce, cosa succederà quando entrambe le velocità puntano nella stessa direzione?

Sai che non puoi raggiungere la velocità della luce per un oggetto massiccio, quindi si potrebbe pensare che “50% la velocità della luce + 50% la velocità della luce = 100% la velocità della luce” debba essere sbagliato. Ma la forza su quella palla di cannone cambierà il suo slancio esattamente della stessa quantità quando sparata da un quadro di riferimento in movimento relativistico come lo farà quando sparata da fermo. 

Se sparare la palla di cannone da fermo cambia il suo slancio di una certa quantità, lasciandola con una velocità pari al 50% della velocità della luce, quindi sparandola da una prospettiva in cui si sta già muovendo al 50% la velocità della luce deve cambiare la sua quantità di moto di quella la stessa quantità. 

Perché, allora, la sua velocità non raggiunge il 100% la velocità della luce?

Capire la risposta è la chiave per comprendere la relatività: è perché la formula “classica” per la quantità di moto – quella quantità di moto è uguale alla massa moltiplicata per la velocità – è solo un’approssimazione non relativistica. 

In realtà, devi usare la formula per la quantità di moto relativistica, che è un po’ diversa, e coinvolge un fattore che i fisici chiamano gamma (γ): il fattore di Lorentz, che aumenta man mano che ti avvicini alla velocità della luce. Per una particella in rapido movimento, la quantità di moto non è solo massa moltiplicata per la velocità, ma massa moltiplicata per la velocità moltiplicata per gamma.

Applicare la stessa forza che hai applicato a un oggetto a riposo a un oggetto in movimento, anche in moto relativistico, cambierà comunque il suo momento della stessa quantità, ma tutto quel momento non aumenterà la sua velocità; parte di essa andrà ad aumentare il valore di gamma, il fattore di Lorentz. 

Per l’esempio precedente, un razzo che si muove al 50% della velocità della luce che spara una palla di cannone al 50% della velocità della luce si tradurrà in una palla di cannone che viaggia all’80% della velocità della luce, con un fattore di Lorentz di 1,6667. 

L’idea di “massa relativistica” è molto antica ed è stata resa popolare da Arthur Eddington, l’astronomo il cui studio dell’eclissi solare del 1919 convalidò la teoria della relatività generale di Einstein, ma si prende una certa libertà: si assume che il fattore di Lorentz (γ) e il resto massa (m) si moltiplicano insieme,

Il punto centrale di tutto questo è capire che quando ti avvicini alla velocità della luce, ci sono molte quantità importanti che non obbediscono più alle nostre equazioni classiche. 

Non puoi semplicemente sommare le velocità insieme come facevano Galileo o Newton; devi aggiungerli in modo relativistico. Non puoi semplicemente considerare le distanze come fisse e assolute; devi capire che si contraggono lungo la direzione del movimento. E non puoi nemmeno trattare il tempo come se passasse per te come per qualcun altro; il passare del tempo è relativo e si dilata per gli osservatori che si muovono a velocità relative differenti.

È allettante, ma in definitiva errato, dare la colpa della discrepanza tra il mondo classico e il mondo relativistico all’idea di massa relativistica. 

Per particelle massicce che si muovono vicino alla velocità della luce, questo concetto può essere applicato correttamente per capire perché gli oggetti possono avvicinare, ma non raggiungere, la velocità della luce, ma cade a pezzi non appena si incorporano particelle prive di massa, come i fotoni.

È molto meglio capire le leggi della relatività come sono in realtà piuttosto che cercare di inserirle in una scatola più intuitiva le cui applicazioni sono fondamentalmente limitate e restrittive. 

Interfacce al grafene cambieranno le neuroscienze

2
Ossido di grafene
Migliori casinò non AAMS in Italia

La rivoluzionaria neurotecnologia del grafene sviluppata da ICN2 e collaboratori promette progressi trasformativi nelle neuroscienze e nelle applicazioni mediche, dimostrando interfacce neurali ad alta precisione e modulazione nervosa mirata.

Ossido di grafene

Una tecnologia innovativa basata sul grafene nanoporoso

Uno studio pubblicato su Nature Nanotechnology ha presentato un’innovativa neurotecnologia basata sul grafene con il potenziale per un impatto trasformativo nelle neuroscienze e nelle applicazioni mediche.

Questa ricerca, guidata dall’Istituto Catalano di Nanoscienza e Nanotecnologia (ICN2) insieme all’Universitat Autònoma de Barcelona (UAB) e altri partner nazionali e internazionali, è attualmente in fase di sviluppo per applicazioni terapeutiche attraverso lo spin-off INBRAIN Neuroelectronics.

Rivoluzionare l'elettronica: importanti progressi utilizzando la spintronica del grafene

Dopo anni di ricerca nell’ambito del progetto European Graphene Flagship, ICN2 ha guidato, in collaborazione con l’Università di Manchester, lo sviluppo di EGNITE (Engineered Graphene for Neural Interfaces), una nuova classe di neurotecnologie impiantabili flessibili, ad alta risoluzione e ad alta precisione basate sul grafene. I risultati dello studio mirano a contribuire con tecnologie innovative al panorama fiorente della neuroelettronica e delle interfacce cervello-computer.

EGNITE si basa sulla vasta esperienza dei suoi inventori nella fabbricazione e nella traduzione medica di nanomateriali di carbonio. Questa tecnologia innovativa basata sul grafene nanoporoso integra processi di fabbricazione standard nell’industria dei semiconduttori per assemblare microelettrodi di grafene di soli 25 µm di diametro. I microelettrodi di grafene presentano una bassa impedenza e un’elevata iniezione di carica, attributi essenziali per interfacce neurali flessibili ed efficienti.

L’importanza di collocare il grafene all’avanguardia tra i materiali neurotecnologici

Studi preclinici condotti da vari esperti di neuroscienze e biomedici che hanno collaborato con ICN2, utilizzando diversi modelli sia per il sistema nervoso centrale che per quello periferico, hanno dimostrato la capacità di EGNITE di registrare segnali neurali ad alta fedeltà con eccezionale chiarezza e precisione e, cosa più importante, di fornire segnali altamente mirati di modulazione nervosa.

La combinazione unica di registrazione del segnale ad alta fedeltà e stimolazione nervosa precisa offerta dalla tecnologia EGNITE rappresenta un progresso potenzialmente critico nelle terapie neuroelettroniche.

Questo approccio innovativo ha affrontato una lacuna critica nella neurotecnologia, che ha visto pochi progressi nei materiali negli ultimi due decenni. Lo sviluppo degli elettrodi EGNITE ha la capacità di collocare il grafene all’avanguardia tra i materiali neurotecnologici.

La tecnologia presentata si è basata sull’eredità della Graphene Flagship, un’iniziativa europea che negli ultimi dieci anni ha cercato di promuovere la leadership strategica europea nelle tecnologie che si basano sul grafene e altri materiali 2D.

Esposizione passiva, cervello, grafene

Dietro questa svolta scientifica c’è un lavoro di collaborazione guidato dai ricercatori dell’ICN2 Damià Viana (ora presso INBRAIN Neuroelectronics), Steven T. Walston (ora presso University of Southern California) e Eduard Masvidal-Codina, sotto la guida di ICREA Jose A. Garrido, leader del gruppo ICN2 Advanced Electronic Materials and Devices e ICREA Kostas Kostarelos, leader del laboratorio di nanomedicina ICN2 e della Facoltà di biologia, medicina e salute dell’Università di Manchester (Regno Unito).

Alla ricerca hanno partecipato Xavier Navarro, Natàlia de la Oliva, Bruno Rodríguez-Meana e Jaume del Valle, dell’Istituto di Neuroscienze e del Dipartimento di Biologia Cellulare, Fisiologia e Immunologia dell’Universitat Autònoma de Barcelona (UAB).

I passi successivi della ricerca

La tecnologia EGNITE è stata brevettata e concessa in licenza a INBRAIN Neuroelectronics, uno spin-off con sede a Barcellona di ICN2 e ICREA, con il supporto di IMB-CNM (CSIC). L’azienda, partner anche del progetto Graphene Flagship, sta guidando la traduzione della tecnologia in applicazioni e prodotti clinici.

Sotto la direzione del CEO Carolina Aguilar, INBRAIN Neuroelectronics si sta preparando per i primi studi clinici sull’uomo di questa innovativa tecnologia al grafene.

L'AI mostra un processo di memoria simile a quello umano, grafene

Il panorama industriale e dell’innovazione nel campo dell’ingegneria dei semiconduttori in Catalogna, dove ambiziose strategie nazionali prevedono di costruire strutture all’avanguardia per produrre tecnologie di semiconduttori basate su materiali emergenti, offre un’opportunità senza precedenti per accelerare la traduzione dei risultati presentati negli studi clinici.

Lo studio ha descritto un’innovativa neurotecnologia basata sul grafene che può essere potenziata utilizzando processi consolidati di fabbricazione di semiconduttori, con il potenziale per un impatto trasformativo. ICN2 e i suoi partner continuano a far avanzare e maturare la tecnologia sul grafene con l’obiettivo di tradurla in una neurotecnologia terapeutica realmente efficace e innovativa.

Come si produce energia elettrica e quanto costa

0
Come si produce energia elettrica e quanto costa
Migliori casinò non AAMS in Italia

La produzione di energia elettrica è un processo fondamentale per il funzionamento della società moderna. Ogni giorno, miliardi di persone in tutto il mondo fanno affidamento sull’energia elettrica per illuminare le loro case, alimentare dispositivi elettronici e sostenere le attività industriali. La domanda, dunque, sorge spontanea: come si produce questa energia e quali sono i costi associati? In questo articolo, proveremo a ricostruire e a spiegare i diversi metodi di produzione dell’elettricità e analizzeremo i fattori che influenzano maggiormente il suo costo.

Come viene prodotta l’energia elettrica?

La produzione di energia elettrica può essere ottenuta attraverso varie fonti, sia rinnovabili sia non rinnovabili. Tra le fonti non rinnovabili, il carbone, il petrolio e il gas naturale sono i più comuni, mentre quelle rinnovabili includono l’energia solare, eolica, idroelettrica e geotermica. Ogni metodo ha le sue caratteristiche; naturalmente differiscono anche gli impatti ambientali e i costi associati.

Energia da fonti fossili

La produzione di energia elettrica da fonti fossili avviene attraverso la combustione di carbone, petrolio o gas naturale. Questo processo rilascia una grande quantità di energia termica, che viene utilizzata per produrre vapore. Il vapore, a sua volta, aziona le turbine collegate a generatori che producono energia elettrica. Tuttavia, questo metodo è altamente inquinante e contribuisce in modo significativo all’emissione di gas serra e al riscaldamento globale.

Energia rinnovabile

I metodi di produzione di energia elettrica da fonti rinnovabili stanno diventando sempre più popolari, grazie alla loro sostenibilità e al minor impatto ambientale. Ad esempio, l’energia solare utilizza pannelli fotovoltaici per convertire la luce solare in elettricità, mentre le turbine eoliche trasformano l’energia cinetica del vento. L’energia idroelettrica, d’altra parte, sfrutta il flusso dell’acqua per generare energia, e l’energia geotermica utilizza il calore proveniente dal sottosuolo.

Costi di produzione

Il costo dell’energia elettrica varia notevolmente a seconda della fonte utilizzata e di altri fattori, come la localizzazione geografica, la tecnologia impiegata e le politiche energetiche del paese. Tradizionalmente, l’energia prodotta da fonti fossili è da sempre considerata più economica, ma i costi ambientali e sanitari associati ad essa la rendono sempre meno sostenibile a lungo termine.

L’energia rinnovabile, invece, sebbene richieda investimenti iniziali più elevati per l’installazione di infrastrutture come i pannelli solari o le turbine eoliche, ha costi operativi molto bassi e può portare a un risparmio significativo nel lungo termine. Inoltre, con il progresso tecnologico e l’aumento della scala di produzione, i costi delle energie rinnovabili stanno diminuendo rapidamente, rendendole sempre più competitive rispetto alle fonti fossili.

L’inflazione può condizionare la scelta dei metodi di produzione dell’energia elettrica?

L’inflazione rappresenta un altro fattore cruciale che può influenzare significativamente sia i costi di produzione dell’energia elettrica sia la scelta dei metodi di produzione. Con l’aumento dell’inflazione, i costi dei materiali, della manodopera e della manutenzione delle infrastrutture energetiche tendono a crescere. Questo incremento dei costi operativi può riflettersi nei prezzi finali dell’energia per i consumatori. Inoltre, l’inflazione può incidere sulla capacità di investimento in nuove tecnologie o nell’espansione delle infrastrutture esistenti, particolarmente quelle legate alle fonti rinnovabili, che richiedono investimenti iniziali significativi. Le aziende del settore energetico potrebbero trovarsi di fronte a scelte difficili, bilanciando tra il mantenimento dei costi operativi e l’investimento in soluzioni più sostenibili a lungo termine. In questo contesto, i governi e le politiche pubbliche giocano un ruolo essenziale nell’offrire incentivi o sussidi per promuovere l’adozione di tecnologie energetiche pulite e rinnovabili, mitigando così l’impatto dell’inflazione sui costi di produzione e favorendo la transizione verso un mix energetico più sostenibile.

Quanto è importante considerare il metodo di produzione?

In un mondo che cerca di ridurre l’impatto ambientale e di spostarsi verso un futuro più sostenibile, è fondamentale considerare attentamente i metodi di produzione di energia elettrica e i loro costi associati. Per i consumatori, è utile consultare un comparatore di offerte luce per scegliere il fornitore di energia che meglio si adatta alle proprie esigenze economiche e ambientali. Questi strumenti permettono di confrontare le tariffe e le opzioni di energia rinnovabile disponibili, facilitando una scelta informata verso un consumo più responsabile e sostenibile.

Come abbiamo visto, la produzione di energia elettrica e i relativi costi rappresentano una questione complessa, influenzata da numerosi fattori. Mentre il mondo continua a muoversi verso fonti di energia più pulite e rinnovabili, è essenziale che consumatori, aziende e governi lavorino insieme per promuovere pratiche energetiche sostenibili che possano sostenere le future generazioni senza compromettere la salute del nostro pianeta.

Innalzamento del livello del mare: tempo limite il 2050

2
Innalzamento del livello del mare
Migliori casinò non AAMS in Italia

La questione delle città costiere americane che affrontano il rischio di inondazioni sia a causa dell’innalzamento del livello del mare che della subsidenza del terreno, è un argomento di grande attualità e importanza.

Una nuova ricerca pubblicata sulla rivista Nature evidenzia la necessità di un approccio bilaterale per affrontare questi problemi interconnessi. Mentre la subsidenza può essere mitigata attraverso pratiche più sostenibili, come la cessazione del pompaggio eccessivo di risorse naturali dal sottosuolo, l’innalzamento del livello del mare richiede una risposta globale al cambiamento climatico.

Innalzamento del livello del mare

Il dottorando Leonard Ohenhen e i suoi colleghi hanno fornito una visione preziosa attraverso l’uso di dati satellitari radar, che permettono di mappare e prevedere i cambiamenti territoriali con una precisione senza precedenti; questo studio non solo mette in luce i rischi futuri ma offre anche una base per le comunità costiere per pianificare e implementare misure di adattamento per fronteggiare l’innalzamento del livello del mare.

Eric Lindsey e Manoochehr Shirzaei, esperti nel campo, sottolineano l’importanza di utilizzare queste informazioni per sviluppare strategie proattive per far fronte all’innalzamento del livello del mare, e mentre le difese fisiche come dighe e argini possono offrire una protezione immediata, è fondamentale anche affrontare le cause sottostanti del cambiamento climatico, come l’emissione di gas serra.

La ricerca suggerisce che, senza interventi adeguati, le inondazioni dovute all’innalzamento del livello del mare potrebbero diventare una realtà comune per molte comunità costiere entro il 2050, pertanto è essenziale che i cittadini e i politici collaborino per trovare soluzioni sostenibili che possano proteggere sia l’ambiente che le infrastrutture urbane.

Le città costiere Americane e i rischi dell’innalzamento del livello del mare e della subsidenza

Le città costiere americane sono intrinsecamente legate alla vasta rete di ecosistemi marini e fluviali che le circondano, questa interconnessione ha plasmato lo sviluppo economico, culturale e sociale di queste aree per secoli, tuttavia con il cambiamento climatico e l’antropizzazione, queste città si trovano ora di fronte a sfide senza precedenti.

La subsidenza del terreno è un fenomeno che ha accompagnato lo sviluppo urbano per molto tempo, ma solo recentemente è diventato un punto focale di preoccupazione a causa della sua interazione con l’innalzamento del livello del mare. La subsidenza è spesso il risultato di attività umane come l’estrazione di acqua, petrolio e gas, che destabilizzano il terreno sottostante, processo che può essere esacerbato da fattori naturali come la composizione geologica e i movimenti tettonici.

L’innalzamento del livello del mare, d’altra parte, è un effetto diretto del riscaldamento globale. Il riscaldamento delle acque oceaniche e lo scioglimento dei ghiacciai contribuiscono all’aumento del volume dell’acqua nei mari, minacciando di sommergere le aree costiere, fenomeno che è particolarmente preoccupante per le città con infrastrutture critiche e densità di popolazione elevate.

La combinazione di questi due fattori crea una situazione potenzialmente disastrosa. Le città costiere devono affrontare non solo l’erosione delle loro spiagge e la perdita di habitat naturali ma anche il rischio crescente di eventi di inondazione catastrofici dovuti all’innalzamento del livello del mare.

Questi eventi possono causare danni significativi alle proprietà, interrompere le economie locali e, nel peggiore dei casi, provocare perdite di vite umane, e non.

Innalzamento del livello del mare

Per affrontare queste sfide, è necessario un approccio olistico che consideri sia le cause locali che quelle globali. Le soluzioni possono includere la riduzione dell’estrazione di risorse naturali, il ripristino delle falde acquifere, la costruzione di barriere contro le inondazioni e la promozione di politiche energetiche sostenibili, del resto è fondamentale che le comunità costiere investano in sistemi di allerta precoce e piani di evacuazione per mitigare l’impatto degli eventi estremi.

La ricerca di Ohenhen e colleghi fornisce una base solida per comprendere e affrontare questi problemi, e con una maggiore consapevolezza e cooperazione tra scienziati, politici e cittadini, possiamo lavorare insieme per garantire la resilienza delle nostre città costiere e la sicurezza delle persone che le abitano.

La ricerca sulle città costiere americane e il rischio derivante dall’innalzamento del livello del mare e della subsidenza, ci ricorda l’importanza di agire ora per proteggere il nostro futuro. Mentre gli scienziati continuano a monitorare e modellare i cambiamenti climatici e i loro effetti, spetta a noi come società prendere decisioni informate e responsabili, riconoscendo la nostra interdipendenza con l’ambiente e lavorare insieme per creare un mondo più sostenibile e resiliente.

Con la giusta combinazione di scienza, politica e impegno comunitario, possiamo affrontare le sfide poste dall’innalzamento del livello del mare e dalla subsidenza del terreno, partendo con questo studio che è un passo avanti nella giusta direzione, fornendo conoscenze preziose che possono guidare le nostre azioni future.

È tempo di ascoltare gli avvertimenti degli esperti e di agire con determinazione per salvaguardare le nostre comunità costiere e l’ambiente che tutti condividiamo.

L’impatto socioeconomico delle inondazioni costiere

Le inondazioni costiere dovute all’innalzamento del livello del mare non sono solo un problema ambientale, ma hanno anche un impatto socioeconomico significativo sulle comunità colpite. Le città costiere sono spesso centri di attività economiche, con porti che servono come snodi per il commercio internazionale e le industrie turistiche che attirano visitatori da tutto il mondo, e quando queste aree vengono inondate, le conseguenze possono essere devastanti per l’economia locale e nazionale.

Le imprese subiscono danni diretti alle loro strutture e perdite di merci, il che può portare a una catena di interruzioni nella fornitura di servizi e beni, per di più le inondazioni possono danneggiare infrastrutture critiche come strade, ponti, reti di comunicazione e sistemi di energia, causando interruzioni prolungate che vanno ben oltre l’area immediatamente colpita.

Dal punto di vista sociale, le inondazioni costiere possono avere un impatto profondo sul tessuto delle comunità, con le persone che perdono le loro case, le famiglie vengono sfollate e le comunità possono essere divise. Questo può portare a problemi di salute mentale a lungo termine, come stress post-traumatico e ansia, soprattutto se gli eventi di inondazione diventano più frequenti.

Innalzamento del livello del mare

Per mitigare l’impatto delle inondazioni costiere dovute all’innalzamento del livello del mare, le città devono adottare strategie di adattamento e mitigazione. Queste possono includere la costruzione di barriere fisiche come muri di contenimento e dighe, la creazione di zone umide artificiali per assorbire l’acqua in eccesso e la rilocazione di strutture e comunità dalle aree più a rischio.

Un’altra strategia è l’urbanistica resiliente, che incorpora la progettazione di edifici e infrastrutture in grado di resistere agli eventi di inondazione, e ciò può includere l’innalzamento delle fondamenta degli edifici, l’uso di materiali resistenti all’acqua e la creazione di sistemi di drenaggio urbano migliorati.

Oltre a quanto già detto, le politiche di pianificazione territoriale possono limitare lo sviluppo in aree ad alto rischio e promuovere la conservazione delle barriere naturali come dune e mangrovie, che possono fungere da difese contro le maree alte e le tempeste.

La Scienza e la Tecnologia Come Alleati

La scienza e la tecnologia giocano un ruolo cruciale nell’affrontare il problema delle inondazioni costiere dovuto all’innalzamento del livello del mare, con i dati satellitari e i modelli climatici avanzati che permettono di prevedere con maggiore precisione quando e dove si verificheranno le inondazioni, dando alle comunità il tempo di prepararsi e rispondere.

La ricerca continua a fornire nuove soluzioni, come materiali da costruzione innovativi che possono resistere meglio all’acqua e sistemi di allarme precoce che utilizzano l’intelligenza artificiale per analizzare i dati e prevedere gli eventi estremi con maggiore precisione.

Il problema delle inondazioni costiere dovuto all’innalzamento del livello del mare richiede una risposta globale, con le nazioni che devono collaborare per ridurre le emissioni di gas serra e limitare il riscaldamento globale, e gli accordi internazionali come l’Accordo di Parigi sono passi fondamentali in questa direzione, ma è necessario un impegno ancora maggiore da parte di tutti i paesi.

La comunità internazionale può anche svolgere un ruolo nel fornire assistenza tecnica e finanziaria alle nazioni più vulnerabili, aiutandole a sviluppare e implementare strategie di adattamento e mitigazione.

Innalzamento del livello del mare

Le città costiere americane e le comunità di tutto il mondo si trovano di fronte alla crescente minaccia delle inondazioni costiere, e mentre la ricerca continua a svelare l’entità del problema, è chiaro che l’azione collettiva è necessaria per proteggere le nostre comunità e il nostro pianeta. Attraverso la collaborazione, l’innovazione e l’impegno, possiamo costruire un futuro più resiliente e sostenibile per tutti.

In conclusione, la ricerca di Ohenhen e colleghi è un campanello d’allarme per le città costiere e un invito all’azione, con una comprensione più profonda dei meccanismi di subsidenza e innalzamento del livello del mare, possiamo sperare di sviluppare strategie efficaci per mitigare questi rischi e proteggere le nostre comunità costiere per le generazioni future.

Se sei attratto dalla scienzadalla tecnologia, o vuoi essere aggiornato sulle ultime notiziecontinua a seguirci, così da non perderti le ultime novità e news da tutto il mondo!

Fusione nucleare: promettente nuova tecnologia laser per renderla fruibile

2
Fusione nucleare
Migliori casinò non AAMS in Italia

La fusione nucleare, il processo di generazione di energia combinando due nuclei atomici per formarne uno più pesante, è stata a lungo pubblicizzata come l’energia del futuro. Soprannominata il “potere delle stelle”, l’energia da fusione offre energia pulita, sicura e praticamente illimitata.

Fusione nucleare

Rendere la fusione nucleare commerciale una realtà

Ad oggi, realizzare la fusione sulla Terra è stato notoriamente difficile date le sfide legate al confinamento del plasma rovente. Secondo gli scienziati, i tokamak sono uno dei modi più promettenti per ottenere la fusione nucleare controllata. Questi dispositivi sfruttano i campi magnetici per confinare il plasma caldo a forma di ciambella.

Tokamak Energy, con sede a Oxford, ha rivelato che sta sviluppando una nuova tecnologia di misurazione laser. Secondo l’azienda, questa tecnologia trasformerà le future centrali elettriche a fusione nucleare e la fornitura di energia pulita alla rete controllando le condizioni estreme all’interno delle centrali elettriche.

All’interno delle camere a vuoto a forma di ciambella dei tokamak, dove avvengono le reazioni di fusione, la temperatura del plasma sale a oltre 100 milioni di gradi Celsius. Stabilizzare questo plasma in fiamme è vitale per mantenere le condizioni di fusione.

Il nuovo sistema interferometro a dispersione basato su laser di Tokamak Energy misurerà la densità del combustibile idrogeno all’interno del plasma. L’azienda ritiene che questa tecnologia all’avanguardia aiuterà a sostenere le reazioni di fusione e a fornire energia affidabile alla rete.

Fusione nucleare

Misurare la densità del plasma è fondamentale per comprendere e controllare il combustibile di fusione e l’efficienza delle future operazioni delle centrali elettriche“, ha affermato il dottor Tadas Pyragius di Tokamak Energy: “Un raggio laser sparato attraverso il plasma interagisce con gli elettroni e ci dice la densità del carburante”. Conoscere la densità è essenziale per sostenere le condizioni di fusione e fornire energia sicura e affidabile alla rete.

Le condizioni estreme create dal processo di fusione implicano che dobbiamo perfezionare ora la tecnologia diagnostica basata sul laser per portare avanti la nostra missione di fornire energia di fusione pulita, sicura e conveniente negli anni ’30”, ha aggiunto il fisico del plasma.

Nuove tecnologie a supporto della fusione nucleare

Tokamak Energy sta attualmente testando il nuovo sistema interferometro a dispersione laser presso la sua sede di Oxford. In una dichiarazione, la società ha rivelato che il sistema interferometro sarà installato sulla sua macchina di fusione nucleare ST40 entro la fine del 2024.

La ST40 ha battuto i record diventando la prima macchina di fusione nucleare di proprietà privata a raggiungere una temperatura degli ioni del plasma di 100 milioni di gradi Celsius. Inoltre, l’ST40 vanta anche il triplo prodotto più alto raggiunto da un’azienda privata.

Il triplo prodotto è una misura che dipende dalla densità del plasma, dalla temperatura e dal confinamento, parametri cruciali per la fattibilità della fusione nucleare su scala commerciale.

Fusione nucleare

Dopo i risultati da record raggiunti nel 2022, l’ST40 è stato sottoposto a una serie di aggiornamenti hardware, tra cui nuovi alimentatori e sistemi diagnostici. Nel 2023, la società ha spostato la sua attenzione verso il perfezionamento degli scenari del plasma in un tokamak sferico ad alto campo per comprendere meglio la loro comprensione del processo di fusione.

Tokamak Energy ha inoltre rivelato di aver commissionato un sistema diagnostico laser a diffusione Thomson sull’ST40 per fornire letture dettagliate della temperatura e della densità del plasma.

Anche se l’ST40 tornerà in funzione solo in attesa di ulteriori aggiornamenti e manutenzioni, la società spera di raggiungere la fornitura commerciale di energia da fusione negli anni ’30.

I reattori Tokamak e come influenzano la fusione nucleare

L’energia nucleare tradizionale funziona attraverso il processo di fissione nucleare, che comporta la scissione di un nucleo pesante e instabile in due nuclei più leggeri. L’energia rilasciata attraverso questo processo genera calore per far bollire l’acqua in vapore pressurizzato, che viene poi utilizzato per far girare le turbine che generano elettricità. Sebbene questo processo possa sembrare altamente inefficiente, in realtà è molto più efficiente di altre fonti di energia.

Oltre alla questione delle scorie nucleari, anche l’energia nucleare tradizionale ha ampi margini di miglioramento. Nello specifico, il processo di fissione lascia sul tavolo molta energia atomica. Se invece l’energia nucleare dovesse generare energia attraverso la fusione nucleare, si potrebbe produrre molta più energia.

Mentre la fissione funziona dividendo gli atomi, la fusione nucleare è il processo in cui due nuclei leggeri si combinano insieme. Questo rilascia grandi quantità di energia: questo è il processo che alimenta il sole. La fusione nucleare non solo crea meno materiale radioattivo della fissione, ma richiede molto meno materiale per cominciare e offre una fornitura di carburante quasi illimitata.

Allora perché non usiamo la fusione nucleare per alimentare il nostro mondo oggi? Perché gli scienziati hanno avuto davvero difficoltà a sostenere e controllare le reazioni di fusione nucleare.

Una delle tecnologie più importanti per la fusione nucleare è il reattore Tokamak, un dispositivo di contenimento magnetico a forma di ciambella progettato per sfruttare l’energia di fusione.

Sebbene il design del tokamak sia stato originariamente sviluppato negli anni ’60, ci sono voluti più di 50 anni perché la tecnologia si sviluppasse abbastanza da poter essere considerata per un uso pratico. Il fisico russo Oleg Lavrentiev ideò per primo il progetto, che fu successivamente sviluppato da Igor Tamm e Andrei Sakharov.

Oggi è uno dei diversi tipi di dispositivi di confinamento magnetico in fase di sviluppo per produrre energia da fusione termonucleare controllata e attualmente è il principale candidato per un pratico reattore a fusione.

Il cuore di un tokamak è la sua camera a vuoto a forma di ciambella. All’interno della camera, l’idrogeno gassoso viene posto sotto calore e pressione estremi, trasformandosi in un plasma, un gas caldo e carico elettricamente.

Le particelle cariche del plasma possono essere controllate da enormi bobine magnetiche posizionate attorno alla camera. “Tokamak” è un acronimo russo che sta per “camera toroidale con bobine magnetiche”. Il controllo è necessario per mantenere il plasma lontano dalle pareti della camera: il contatto tra il plasma caricato elettricamente e le pareti del reattore potrebbe provocare un crollo quasi istantaneo.

fusione nucleare

Una potente corrente elettrica viene fatta circolare attraverso il recipiente e l’idrogeno gassoso viene ionizzato (gli elettroni vengono strappati dai nuclei) e forma un plasma.

Quando le particelle del plasma si energizzano e si scontrano, iniziano anche a riscaldarsi. Ulteriori metodi di riscaldamento aiutano a portare il plasma alla temperatura di fusione (tra 150 e 300 milioni di °C). Le particelle si “energizzano” abbastanza da superare la loro naturale repulsione elettromagnetica in caso di collisione per fondersi, rilasciando enormi quantità di energia a fusione nucleare.

Al momento, il più grande reattore tokamak del mondo è l’ITER, o reattore sperimentale termonucleare internazionale. La macchina dovrebbe essere accesa nel 2025 ed è un programma congiunto tra UE, India, Cina, Russia, Giappone, Stati Uniti e Corea del Sud.