mercoledì, Maggio 14, 2025
Migliori casinò non AAMS in Italia
Home Blog

Ritrovate 2 spade con svastica pre-nazista in una necropoli celtica di 2300 anni fa

0
Ritrovate 2 spade con svastica pre-nazista in una necropoli celtica di 2300 anni fa
Ritrovate 2 spade con svastica pre-nazista in una necropoli celtica di 2300 anni fa
Migliori casinò non AAMS in Italia

Sebbene nel mondo occidentale contemporaneo la svastica sia indissolubilmente legata agli orrori perpetrati durante la Seconda Guerra Mondiale e al regime nazista, la sua esistenza precede di gran lunga la sua adozione come emblema di quell’aberrante ideologia.

Questo antico disegno è stato – e continua ad essere – un motivo ricorrente in svariate religioni e culture in tutto il globo, spesso intriso di significati positivi come la fortuna, la prosperità o la spiritualità.

Ritrovate 2 spade con svastica pre-nazista in una necropoli celtica di 2300 anni fa
Ritrovate 2 spade con svastica pre-nazista in una necropoli celtica di 2300 anni fa

La svastica pre-nazista: un simbolo di fortuna e spiritualità riscoperto in Francia

Recentemente, in Francia, una scoperta archeologica di notevole importanza ha riportato alla luce questa storia millenaria: gli archeologi hanno rinvenuto due spade deposte all’interno di una necropoli celtica risalente a circa 2.300 anni fa, una delle quali sfoggia piccole ma significative decorazioni a svastica incise sul suo fodero in rame.

Gli archeologi dell’Istituto nazionale francese di ricerca archeologica preventiva (INRAP) hanno espresso il loro stupore in una dichiarazione ufficiale, descrivendo gli ornamenti metallici e le armi recuperate dalla tomba, insolitamente priva di resti scheletrici, come manufatti di “fabbricazione eccezionale” e di cui si riscontrano “pochi equivalenti” in tutto il panorama europeo.

Entrambe le spade sono state ritrovate all’interno dei loro foderi originali, preservando così un contesto archeologico di grande valore. Una delle due è stata definita senza esitazione “l’oggetto più spettacolare dell’intera necropoli“. L’impugnatura e la placca frontale del fodero, concepito per essere elegantemente portato alla cintura, erano realizzate in rame e riccamente ornate con decorazioni a forma di occhio, un motivo artistico noto come ocelli. Pietre preziose impreziosivano ulteriormente l’esterno del fodero finemente lavorato, e tra queste decorazioni spiccano almeno due rappresentazioni del simbolo della svastica.

La spada stessa si presenta come una lama corta e sottile, caratterizzata da un’impugnatura in ferro dalla distintiva forma “a antenna“. Il team di ricerca ha impiegato la tecnologia dei raggi X per rivelare incisioni nascoste sulla parte superiore della lama, tra cui la probabile raffigurazione di un sole e di una falce di luna, originariamente separati da una linea incisa. Vincent Georges, archeologo dell’INRAP e responsabile dello scavo, ha spiegato che questi simboli cosmologici chiave rappresentavano collettivamente un “concetto sacro molto diffuso e profondamente radicato in questo particolare tipo di spada” all’inizio del IV secolo a.C., un periodo in cui tale simbolismo era particolarmente “di moda tra gli artigiani celtici”.

Una spada di Stato e un’arma funzionale dalla necropoli celtica

In virtù della sua elaborata ornamentazione, l’archeologo Vincent Georges ipotizza che la spada recante le svastiche fosse con ogni probabilità un oggetto cerimoniale, privo di una vera funzionalità bellica, destinato piuttosto a manifestare lo status sociale e militare del suo possessore. Sebbene non possa affermarlo con assoluta certezza, Georges suggerisce che la spada potrebbe essere stata forgiata all’epoca delle incursioni celtiche nell’Italia settentrionale, un periodo culminato con il famoso sacco di Roma nel 383 a.C.

La seconda spada rinvenuta nella necropoli presenta una foggia più lunga ed è dotata di anelli che ne avrebbero permesso il pratico trasporto alla cintura. Pur esibendo un apparato decorativo meno sfarzoso rispetto alla prima, anch’essa presenta gemme incastonate nella parte superiore del fodero e decorazioni a forma di ocelli. All’interno del fodero sono stati inoltre identificati resti di tessuto, che secondo la dichiarazione degli archeologi potrebbero provenire dalle vesti del defunto, da un sudario o da un qualche tipo di involucro protettivo. Il design più funzionale di questa seconda spada, unitamente al ritrovamento di tracce tessili, suggerisce che essa potrebbe essere stata effettivamente utilizzata per lo scopo per cui era stata concepita, ovvero il combattimento.

Gli esperti concordano nel datare entrambe le spade al IV secolo a.C. Secondo l’archeologo Georges, le svastiche erano un motivo ornamentale ampiamente diffuso nel bacino del Mediterraneo in quell’epoca, e la cultura celtica adottò questo simbolo nel suo espandersi nell’Europa continentale. Gli studiosi ritengono che il primo impiego celtico della svastica avesse lo scopo di evocare il movimento del sole attraverso il cielo, assumendo così un significato simbolico legato alla buona fortuna e al ciclo vitale.

Creuzier-le-Neuf: un’Importante necropoli celtica rivelata dagli scavi

Gli scavi condotti nella località francese di Creuzier-le-Neuf, un sito che in epoca antica rappresentava un crocevia di significative tribù celtiche, si sono estesi su un’area di 650 metri quadrati, portando alla luce un’estesa necropoli composta da oltre 100 sepolture risalenti alla Seconda Età del Ferro. La particolare acidità del terreno ha impedito la conservazione dei resti scheletrici, e il sito ha restituito un’unica sepoltura a cremazione, caratterizzata dalla presenza del vaso cinerario.

Un aspetto notevole emerso dagli scavi è la presenza di ornamenti metallici in circa la metà delle tombe esplorate. Tra questi, i bracciali rappresentavano la tipologia di manufatto più comune: molti si presentavano come semplici anelli in rame laminato, mentre altri sfoggiavano decorazioni più elaborate, anelli aggiuntivi o sistemi di chiusura. Il team archeologico ha inoltre rinvenuto un totale di 18 spille realizzate in rame o in ferro, tra le quali spicca un esemplare particolarmente impressionante, ornato con un motivo che includeva gemme e delicate foglie d’argento.

Nonostante la varietà e la pregevole fattura dei numerosi reperti metallici, nulla ha eguagliato la straordinarietà della spada risalente al IV secolo a.C., precedentemente descritta, la cui ricca decorazione comprendeva sia gemme preziose che il significativo simbolo della svastica. Questo manufatto unico si distingue come il reperto più notevole e di maggior valore scientifico rinvenuto nell’intera necropoli di Creuzier-le-Neuf.

Il ritrovamento è stato documentato sul sito academia.eu

Longevità, 115-125 o oltre: qual è il limite della vita umana?

0
Longevità, 115-125 o oltre: qual è il limite della vita umana?
Longevità, 115-125 o oltre: qual è il limite della vita umana?
Migliori casinò non AAMS in Italia

Jeanne Calment, la donna francese che detiene il record di longevità verificata, è morta nel 1997 a 122 anni.

Sono poche le persone che arrivano a diventare supercentenarie, superano cioè i 110 anni e ancora meno sono quelle che raggiungono e superano i 115. Sono pochissime le persone che sono riuscite a superare quell’età tanto che qualche tempo fa alcuni scienziati hanno pubblicato un’analisi sulla rivista Nature in cui si sostiene che il limite massimo naturale per la vita umana si aggira intorno ai 115 anni.

Ma un certo numero di scienziati hanno contestato quell’analisi con cinque distinti articoli pubblicati ancora su Nature. Gli autori di questi articoli sostengono che l’analisi originale si basava su statistiche incomplete o analizzate in modo da portare a una falsa conclusione. Le alternative suggerite sono due: non abbiamo abbastanza dati per sapere se la durata della vita umana abbia un limite o, se c’è, il limite è più vicino a 125 che a 115.

I dati disponibili sono limitati, non ci sono molti supercentenari“, ha dichiarato a The Scientist Maarten Pieter Rozing, professore presso l’Università di Copenhagen, co-autore di  uno degli articoli. “Credo che non ci siano forti argomenti che mostrano che vi sia un declino [nel tasso di aumento della longevità]“.

Perché alcuni pensano che il limite della vita umana sia di 115 anni?

L’aspettativa di vita è cresciuta abbastanza costantemente negli ultimi 150 anni. Ma Xiao Dong, Brandon Milholland e Jan Vijg, autori dell’analisi originale, sostengono che confrontare l’aspettativa di vita dei supercentenari all’età in cui sono morti può rivelare il limite naturale della durata della vita umana.

Gli scienziati hanno utilizzato i dati sull’età massima riportata alla morte divisa in due set basati su supercentenari provenienti dagli Stati Uniti, dal Regno Unito, dal Giappone e dalla Francia. La prima serie di decessi copriva il periodo dal 1968 al 1994 – un periodo in cui l’età massima stava aumentando. Ma per il periodo coperto nel successivo set di dati, dal 1995 al 2006, l’incremento della durata della vita sembrava essersi stabilizzato o addirittura in lieve declino (eccezioni come la Calment a parte).

L’aspettativa di vita, tuttavia, è aumentata in entrambi i periodi di tempo. Gli scienziati hanno pertanto concluso che, poiché l’età massima dell’uomo non continua a crescere con l’aspettativa di vita, sembra che il limite sia stato raggiunto.

Anche se dovessimo riuscire a curare varie malattie della tarda età come il cancro o il morbo di Alzheimer, i ricercatori hanno confermato che probabilmente alcuni esseri umani potrebbero superare il limite dei 115 anni e hanno calcolato che la probabilità per una persona di superare i 125 anni sia inferiore a 1 su 10.000.

Anziani coppie cinesi
David Gray / Reuters

Limite o illusione?

Gli autori degli articoli più recenti affermano che, poiché ci sono così pochi supercentenari, il numero di morti per questa fascia di età tra il 1995 e il 2006 è troppo piccolo per giungere a conclusioni affidabili. Non ci sono stati sufficienti supercentenari per individuare veramente l’età massima.

Poiché la gente oggi vive più a lungo, è probabile che in futuro saranno sempre più numerosi coloro che si spingeranno oltre quel limite presunto, ci vorrà solo il tempo necessario ad arrivarci.

D’altra parte, è vero che dall’inizio del secolo scorso le condizioni di vita sono sempre più migliorate così come la medicina e l’alimentazione ma è anche vero che il secolo scorso ha visto due grandi guerre mondiali e moltissimi sanguinosissimi conflitti locali che potrebbero aver alterato la lettura dei dati finali sulla longevità raggiungibile, è quindi logico che per avere un’idea precisa di quale sia e se esista un limite alla longevità umana dovremo aspettare almeno altri cinquant’anni per poter valutare cosa succederà agli esseri umani nati nella seconda metà del XX° secolo.

L’idea di un limite fissato alla longevità umana non è molto sostenuta da ciò che viene scoperto sulla biologia dell’invecchiamento“, hanno scritto Rozing e i co-autori nel loro articolo. “Il continuo aumento della speranza di vita umana che si è verificato negli ultimi decenni è stato imprevedibile e fornisce la prova di una maggiore malleabilità dell’invecchiamento umano rispetto a quanto si era originariamente pensato“.

Nel corso della storia umana, molti degli aumenti di vita che abbiamo visto sarebbero stati inimmaginabili fino ad un certo momento. Gli uomini e le donne  vissuti fino a 200 anni fa, per esempio, avrebbero pensato che fosse un’idea assurda quella che un giorno la gente potesse vivere regolarmente oltre gli 80. Eppure ci siamo e tanti ottantenni odierni non appaiono neanche decrepiti come apparivano 200 anni fa quei pochi che vi erano giunti.

Rozing ha sostenuto in una dichiarazione a The scientist che c’è un modo molto semplice per scoprire quale sia l’ipotesi corretta sulla durata massima della vita umana.
Basta solo aspettare e vedere chi ha ragione“.

Transistor 2D: Pechino svela il futuro più veloce ed efficiente dei chip

0
Transistor 2D: Pechino svela il futuro più veloce ed efficiente dei chip
Transistor 2D: Pechino svela il futuro più veloce ed efficiente dei chip
Migliori casinò non AAMS in Italia

I ricercatori dell’Università di Pechino hanno recentemente annunciato un’innovazione potenzialmente epocale nel campo della microelettronica, riguardante la progettazione dei transistor. Questa scoperta, qualora fosse commercializzata con successo, potrebbe imprimere una svolta radicale nella traiettoria di sviluppo dei microprocessori del futuro.

Transistor 2D: Pechino svela il futuro più veloce ed efficiente dei chip
Transistor 2D: Pechino svela il futuro più veloce ed efficiente dei chip

Svolta cinese nei transistor: addio silicio?

Il team cinese è riuscito a creare un transistor che abbandona il tradizionale silicio come materiale semiconduttore. La base di questa innovazione risiede nell’impiego di un materiale bidimensionale, precisamente l’ossiseleniuro di bismuto. L’elemento chiave di questa svolta tecnologica è l’adozione dell’architettura gate-all-around (GAAFET). In questa configurazione avanzata, il gate del transistor avvolge completamente il source, creando un’area di contatto significativamente maggiore rispetto ai tradizionali design FinFET, attualmente dominanti nei processori al silicio.

La tecnologia FinFET, pur rappresentando un significativo avanzamento rispetto alle precedenti architetture planari, presenta una limitazione intrinseca nella copertura del gate attorno al canale conduttore. Questa copertura parziale implica che il campo elettrico generato dal gate esercita un controllo sul flusso di corrente nel canale da un numero limitato di lati.

Al contrario, l’innovativa architettura gate-all-around (GAAFET) introduce un cambiamento radicale in questo paradigma progettuale. Avvolgendo completamente il source con il gate, la struttura GAAFET massimizza l’area di contatto tra questi due elementi cruciali del transistor. Questa estensione della superficie di interazione si traduce in un controllo elettrostatico notevolmente più efficace sul canale.

Un controllo elettrostatico superiore è direttamente correlato a una significativa riduzione della dispersione di energia, un problema sempre più critico man mano che le dimensioni dei transistor continuano a diminuire. La dispersione di energia, che si manifesta come corrente di “leakage” quando il transistor dovrebbe essere in stato di “off”, rappresenta una delle principali sfide nel progettare circuiti integrati ad alta densità e basso consumo. L’architettura GAAFET, grazie al suo controllo omnidirezionale sul canale, minimizza questa corrente di dispersione, contribuendo a una maggiore efficienza energetica complessiva del dispositivo.

La struttura “full-wrap” del gate nel GAAFET 2D consente una modulazione più precisa e rapida del flusso di corrente attraverso il canale. Questa capacità di controllo superiore si traduce in una maggiore velocità operativa del transistor. La rapidità con cui un transistor può commutare tra gli stati “on” e “off” è un fattore determinante per le prestazioni complessive di un microprocessore, influenzando direttamente la sua capacità di eseguire calcoli complessi in tempi brevi.

I promettenti risultati ottenuti nello studio condotto dai ricercatori cinesi suggeriscono che questa nuova implementazione del GAAFET, basata sull’ossiseleniuro di bismuto bidimensionale, possiede un potenziale considerevole per rivaleggiare con le prestazioni dei transistor al silicio, la tecnologia dominante nell’industria dei semiconduttori da decenni.

Anzi, in alcuni parametri critici come la velocità di commutazione e l’efficienza nel consumo energetico, il GAAFET 2D dimostra la capacità di superare le limitazioni intrinseche dei transistor al silicio di ultima generazione. Questa potenziale superiorità apre scenari futuri in cui i microprocessori potrebbero raggiungere livelli di performance e di efficienza energetica precedentemente inimmaginabili, con implicazioni profonde per l’informatica, l’intelligenza artificiale e l’elettronica di consumo in generale.

Le prestazioni rivoluzionarie del transistor 2D

I ricercatori dell’Università di Pechino dichiarano che il loro innovativo transistor bidimensionale raggiunge velocità operative superiori del 40% rispetto ai più recenti chip a 3 nanometri prodotti da Intel. Parallelamente a questo incremento di velocità, il nuovo dispositivo vanta un consumo energetico inferiore del 10%, prestazioni che, secondo il team, lo collocherebbero in una posizione di vantaggio rispetto agli attuali processori sviluppati da colossi del settore come TSMC e Samsung.

La limitata copertura del gate riscontrabile nei progetti di transistor convenzionali rappresenta un collo di bottiglia intrinseco, in quanto ostacola un controllo ottimale del flusso di corrente e incrementa le perdite di energia. La nuova architettura a gate completo, adottata nel transistor 2D cinese, affronta e risolve efficacemente queste problematiche. La struttura GAAFET (Gate-All-Around) garantisce un elevato guadagno di tensione unitamente a un consumo energetico estremamente contenuto. Il team di ricerca ha già dimostrato la fattibilità del design realizzando piccole unità logiche basate su questa nuova tecnologia.

Si tratta del transistor più veloce ed efficiente mai realizzato“, ha affermato con enfasi l’Università di Pechino in un comunicato ufficiale. Queste affermazioni non sono mere asserzioni teoriche, bensì sono supportate da rigorosi test condotti in condizioni operative identiche a quelle utilizzate per la valutazione dei principali chip commerciali attualmente sul mercato.

Il professor Peng Hailin, lo scienziato a capo del progetto, ha paragonato l’innovazione del suo team a un vero e proprio “cambio di corsia” nello sviluppo dei microprocessori, in netto contrasto con i miglioramenti incrementali apportati ai chip basati su materiali tradizionali, definiti come una “scorciatoia“.

A differenza delle strutture verticali tipiche dei transistor FinFET, il nuovo design del transistor 2D ricorda una serie di “ponti intrecciati“. Questo cambiamento architettonico radicale potrebbe rappresentare la chiave per superare le crescenti limitazioni di miniaturizzazione intrinseche alla tecnologia del silicio, specialmente ora che l’industria si spinge verso dimensioni inferiori alla soglia dei 3 nanometri. Tale miniaturizzazione avanzata potrebbe inoltre apportare benefici significativi nella progettazione di laptop più veloci e potenti, che richiedono chip estremamente compatti.

Il successo di questa innovazione si basa anche sullo sviluppo di due nuovi materiali a base di bismuto: il Bi₂O₂Se, utilizzato come semiconduttore attivo nel canale del transistor, e il Bi₂SeO₅, impiegato come dielettrico di gate. La scelta di questi materiali non è casuale, in quanto essi presentano una bassa energia di interfaccia, una proprietà fondamentale per minimizzare i difetti cristallini e la dispersione degli elettroni, contribuendo così all’efficienza e alle prestazioni superiori del dispositivo.

Flusso elettronico ottimizzato e validazione scientifica

Questa configurazione permette agli elettroni di muoversi con una resistenza quasi trascurabile, analogamente al flusso d’acqua all’interno di una condotta perfettamente liscia“, ha chiarito il professor Peng, sottolineando l’efficienza intrinseca del nuovo design del transistor.

Le eccezionali prestazioni rivendicate dal team di ricerca non si basano unicamente su osservazioni sperimentali. I risultati ottenuti sono solidamente supportati da sofisticati calcoli derivati dalla teoria funzionale della densità (DFT), un potente strumento computazionale utilizzato per studiare le proprietà elettroniche dei materiali. La validità di questi modelli teorici è stata successivamente confermata attraverso rigorosi test fisici condotti utilizzando una piattaforma di fabbricazione ad alta precisione situata presso la Peking University (PKU).

Un aspetto cruciale che potrebbe facilitare la futura adozione su larga scala di questa tecnologia è la compatibilità con l’attuale infrastruttura industriale dei semiconduttori. I ricercatori sostengono che i nuovi transistor basati sull’ossiseleniuro di bismuto possono essere fabbricati utilizzando le attrezzature e i processi già consolidati nel settore. Questa potenziale integrazione semplificata potrebbe accelerare significativamente il percorso verso la commercializzazione e la diffusione di questa promettente innovazione.

Lo studio è stato pubblicato su Nature Materials.

Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico

0
Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico
Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico
Migliori casinò non AAMS in Italia

Un recente studio propone un’ipotesi rivoluzionaria che potrebbe ridefinire la nostra comprensione dell’universo. La ricerca suggerisce che le informazioni quantistiche, intrinsecamente codificate nell’entropia dell’entanglement, modellano direttamente la struttura dello spaziotempo.

Questa idea innovativa apre un nuovo orizzonte verso l’ambiziosa unificazione della gravità, descritta dalla relatività generale di Einstein, e della meccanica quantistica, il regno dell’infinitamente piccolo.

Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico
Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico

Entanglement quantistico: la chiave per unificare gravità e meccanica quantistica?

Il cuore di questo studio risiede in una riformulazione delle celebri equazioni di campo di Einstein. La prospettiva convenzionale vede la gravità come una manifestazione della risposta dello spaziotempo alla presenza di massa ed energia. Tuttavia, la nuova ricerca introduce un concetto audace: la gravità non sarebbe determinata unicamente da questi fattori, ma anche dalla sottile struttura informativa intrinseca ai campi quantistici. Se questa ipotesi dovesse trovare conferma, rappresenterebbe un cambiamento paradigmatico nel modo in cui i fisici interpretano sia la forza di gravità che i principi fondamentali del calcolo quantistico.

Lo studio, pubblicato da Florian Neukart del Leiden Institute of Advanced Computer Science, Università di Leida, e Chief Product Officer di Terra Quantum, introduce la nozione di un inedito “tensore energia-stress informativo“. Questo tensore deriverebbe direttamente dall’entropia dell’entanglement quantistico. L’entropia dell’entanglement è una misura del grado di correlazione quantistica che intercorre tra diverse regioni dello spazio.

Essa gioca un ruolo cruciale sia nella teoria dell’informazione quantistica che nel campo del calcolo quantistico. Proprio perché l’entanglement cattura la maniera in cui l’informazione viene condivisa attraverso i confini spaziali, esso si configura come un ponte naturale che connette il mondo della teoria quantistica con il tessuto geometrico dello spaziotempo.

Nella relatività generale classica, la curvatura dello spaziotempo è univocamente determinata dalla distribuzione di energia e quantità di moto della materia e della radiazione presenti nell’universo. Il nuovo modello proposto aggiunge a questo quadro un ulteriore elemento fondamentale: l’informazione quantistica condivisa tra i campi. Questo termine aggiuntivo apporta una modifica significativa alle equazioni di Einstein, offrendo potenzialmente una spiegazione per alcuni dei comportamenti più sfuggenti e misteriosi della gravità, inclusa la possibilità di correzioni alla costante gravitazionale di Newton.

Per i ricercatori attivi nel campo del calcolo quantistico, questo studio rafforza un’idea già emergente: l’entanglement non è semplicemente una risorsa computazionale da sfruttare, ma potrebbe rappresentare un elemento strutturale fondamentale dell’universo stesso. La ricerca implica che, nel momento in cui i sistemi di calcolo quantistico manipolano l’entanglement, essi attingono agli stessi meccanismi che influenzano e plasmano la forma dello spaziotempo.

Questa profonda dualità tra la geometria dello spaziotempo e l’informazione quantistica, come sottolinea lo studio, ha implicazioni di vasta portata per la nostra comprensione del cosmo. In particolare, suggerisce con forza che la gravità potrebbe emergere dall’intricato fenomeno dell’entanglement a livello quantistico. Questa visione si allinea con le attuali ricerche in corso nel campo della gravità quantistica, che includono promettenti teorie come l’approccio olografico e la corrispondenza AdS/CFT.

Correzioni alla costante di Newton e campi quantistici

A sostegno della sua audace ipotesi, lo studio condotto da Neukart presenta calcoli dettagliati riguardanti le correzioni alla fondamentale costante gravitazionale di Newton. Questi calcoli si basano sull’entropia di entanglement derivante da diverse tipologie di campi quantistici, che includono campi scalari, spinoriali e bosoni di gauge.

Sebbene le correzioni numeriche risultanti siano estremamente piccole, esse rivelano una dipendenza cruciale: la loro entità è legata al contenuto quantistico dei campi che permeano l’universo e varia significativamente con la scala energetica considerata. Questa scoperta suggerisce un’implicazione profonda: l’intensità della forza di gravità potrebbe non essere una costante universale e immutabile, come tradizionalmente assunto.

Nel suo lavoro, Neukart impiega strumenti ben consolidati e potenti della teoria quantistica dei campi. Tra questi spiccano il “trucco della replica” e i sofisticati “metodi del kernel di calore“. Queste tecniche avanzate permettono di modellare con precisione il modo in cui regioni dello spazio intrinsecamente entangled influenzano la curvatura dello spaziotempo. In sostanza, questi metodi consentono ai fisici di calcolare la propagazione e l’interazione dell’informazione quantistica all’interno di uno spaziotempo curvo, analogamente a come si studierebbe la diffusione del calore attraverso sistemi complessi.

I risultati ottenuti dai meticolosi calcoli del ricercatore indicano che persino regioni infinitesime di correlazione quantistica possono esercitare un’influenza non trascurabile sulla dinamica gravitazionale. Questo effetto si manifesterebbe in modo particolarmente significativo in prossimità di oggetti celesti estremi come i buchi neri e nelle condizioni energetiche estreme che caratterizzavano l’universo primordiale.

Una delle implicazioni più sorprendenti di questa ricerca riguarda la termodinamica dei buchi neri, un campo di studio affascinante che fonde concetti di gravità, termodinamica e meccanica quantistica. Le equazioni tradizionali che descrivono l’entropia e la temperatura dei buchi neri si basano sull’assunzione che la costante di Newton sia un valore fisso. Tuttavia, se la forza di gravità dovesse “correre” con la scala energetica, come suggerito dallo studio, anche queste grandezze termodinamiche subirebbero delle modifiche. In particolare, l’entropia di un buco nero tenderebbe a diminuire leggermente alle alte energie, mentre la sua temperatura aumenterebbe, portando potenzialmente a tassi di evaporazione più lenti di quanto previsto.

Sebbene queste sottili correzioni siano al di là della portata della nostra attuale tecnologia di rilevamento, esse aprono una promettente finestra teorica sul celebre paradosso dell’informazione dei buchi neri. Questo paradosso rappresenta una delle tensioni irrisolte più profonde e stimolanti tra i pilastri fondamentali della fisica moderna: la meccanica quantistica e la teoria della relatività generale di Einstein.

Le implicazioni di questa ricerca potrebbero estendersi ben oltre il regno dei buchi neri. La dipendenza della gravità dalla scala energetica potrebbe aver influenzato in modo significativo fenomeni cosmologici cruciali come l’inflazione, la fase di rapida espansione dell’universo primordiale governata da equazioni che includono la costante di Newton. Se quest’ultima fosse stata leggermente inferiore alle energie estreme dell’universo neonato, la dinamica dell’inflazione potrebbe essere stata differente. Allo stesso modo, processi fondamentali come la nucleosintesi primordiale, la formazione degli elementi leggeri, e persino le caratteristiche della radiazione cosmica di fondo a microonde potrebbero conservare tracce di questa variazione della forza di gravità.

Inoltre, la ricerca suggerisce una connessione interessante: l’entanglement quantistico potrebbe addirittura fornire un contributo significativo alla costante cosmologica, il misterioso parametro spesso invocato per spiegare l’enigmatica energia oscura e l’accelerata espansione dell’universo che osserviamo oggi.

Rilevanza alla scala di Planck e limiti delle tecniche perturbative

Nonostante l’indubbia eleganza e la profonda portata concettuale della teoria proposta, essa si confronta con sfide significative, in particolare per quanto riguarda la verifica sperimentale delle sue previsioni. Le variazioni previste nella costante di Newton, elemento centrale della teoria, risultano essere straordinariamente piccole, collocandosi ben al di sotto della soglia di sensibilità degli strumenti di misurazione attualmente disponibili.

È importante sottolineare che la maggior parte delle correzioni derivate da questo studio acquisisce una rilevanza significativa unicamente in prossimità della cosiddetta scala di Planck. Questa scala energetica estrema è il punto in cui si prevede che gli effetti gravitazionali e quantistici si manifestino congiuntamente e in modo inestricabile.

Inoltre, i risultati presentati si basano sull’impiego di tecniche perturbative, la cui validità e accuratezza tendono a diminuire drasticamente in regimi di energia così elevati. Lo studio stesso riconosce apertamente questa intrinseca limitazione e sottolinea l’urgente necessità di sviluppare approcci teorici non perturbativi, come i potenti metodi del gruppo di rinormalizzazione esatta, al fine di estendere l’applicabilità e la solidità della teoria in questi contesti estremi.

Un altro aspetto cruciale da considerare è che il quadro teorico proposto si basa su specifiche ipotesi riguardanti il contenuto di particelle fondamentali che costituiscono l’universo. Prendendo come punto di partenza il Modello Standard della fisica delle particelle, le correzioni calcolate risultano essere minime.  Teorie che vanno oltre i confini del Modello Standard – come quelle che postulano l’esistenza di nuovi campi fondamentali o di dimensioni spaziali extra – potrebbero potenzialmente amplificare in modo significativo questi effetti previsti.

In definitiva, è fondamentale riconoscere che questo studio pionieristico non ambisce a fornire una soluzione completa e definitiva al complesso problema della gravità quantistica. Piuttosto, il suo valore risiede nella riformulazione radicale del problema stesso. Dimostrando come l’enigmatica entropia dell’entanglement possa essere integrata matematicamente all’interno delle consolidate equazioni di campo di Einstein, la ricerca apre una promettente e inedita via che connette intrinsecamente la struttura dello spaziotempo con il concetto di informazione – un’idea familiare e centrale sia per gli informatici quantistici che per i fisici teorici.

Le future direzioni di ricerca richiederanno un programma di indagine ampio e approfondito per consolidare e sviluppare ulteriormente le basi concettuali gettate da questo studio innovativo. L’autore stesso suggerisce che gli esperimenti quantistici emergenti, tra cui le misurazioni di precisione della forza di gravità a distanze estremamente brevi e le tecniche avanzate di imaging dei buchi neri, potrebbero in futuro fornire un supporto indiretto, ma cruciale, alla validità della teoria proposta.

Dati astrofisici sempre più precisi, segnali provenienti da onde gravitazionali e osservazioni condotte ad altissime energie potrebbero offrire ulteriori indizi e vincoli sperimentali, soprattutto con il continuo miglioramento della sensibilità e della risoluzione degli strumenti osservativi. La proposta incoraggia inoltre attivamente i ricercatori che lavorano nel campo dell’informazione quantistica a considerare il proprio lavoro all’interno di un contesto teorico più ampio, contribuendo potenzialmente a far luce su una delle questioni irrisolte più interessanti e profonde della fisica fondamentale.

Come alcuni ricercatori descrivono con suggestiva metafora, questi sforzi congiunti alludono all’esistenza di un vero e proprio “sistema operativo informativo” sottostante al cosmo, in cui la struttura fondamentale della realtà emergerebbe non solo dalla materia o dall’energia, ma dal dinamico flusso e dall’intricata struttura dell’informazione stessa.

Lo studio è stato pubblicato su Annals of Physics.

Campo magnetico terrestre: un ciclo lungo 200 milioni di anni

0
Campo magnetico terrestre: un ciclo lungo 200 milioni di anni
Campo magnetico terrestre: un ciclo lungo 200 milioni di anni
Migliori casinò non AAMS in Italia

I risultati di uno studio dell’Università di Liverpool forniscono ulteriori prove di un ciclo lungo circa 200 milioni di anni nella forza del campo magnetico terrestre. La ricerca fa parte del gruppo Determining Earth Evolution from Paleomagnetismo (DEEP) dell’Università, che riunisce competenze di ricerca in geofisica e geologia per sviluppare il paleomagnetismo come strumento per comprendere i processi profondi della Terra che si verificano su scale temporali da milioni a miliardi di anni.

I ricercatori hanno eseguito analisi paleomagnetiche termiche e a microonde (una tecnica esclusiva dell’Università di Liverpool), su campioni di roccia di antiche colate laviche nella Scozia orientale per misurare la forza del campo geomagnetico durante periodi di tempo chiave senza quasi nessun dato presente e affidabile. Lo studio ha anche analizzato l’affidabilità di tutte le misurazioni di campioni da 200 a 500 milioni di anni fa, raccolti negli ultimi 80 anni.

La forza del campo magnetico terrestre è ciclica e si indebolisce ogni 200 milioni di anni

Dallo studio è emerso che tra 332 e 416 milioni di anni fa, la forza del campo geomagnetico conservato in queste rocce, era inferiore a un quarto di quella che è oggi, e simile a un periodo precedentemente identificato di bassa intensità del campo magnetico iniziato circa 120 milioni di anni fa. I ricercatori hanno coniato questo periodo come “il dipolo medio paleozoico basso (MPDL).”

Pubblicato su Proceedings of the National Academy of Sciences, lo studio supporta la teoria secondo cui la forza del campo magnetico terrestre è ciclica e si indebolisce ogni 200 milioni di anni, idea è stata proposta in un precedente studio condotto da Liverpool nel 2012. Uno dei limiti all’epoca era la mancanza di dati affidabili sull’intensità del campo magnetico prima di 300 milioni di anni fa, quindi questo nuovo studio colma un’importante lacuna temporale.

Il campo magnetico terrestre protegge il pianeta da enormi esplosioni di micidiali radiazioni solari. Non è completamente stabile in forza e direzione, sia nel tempo che nello spazio, e ha anche la capacità di capovolgersi o invertirsi completamente con implicazioni sostanziali.

Decifrare le variazioni dell’intensità del campo geomagnetico del passato è importante in quanto indica cambiamenti nei processi profondi della Terra nel corso di centinaia di milioni di anni e potrebbe fornire indizi su come potrebbe fluttuare, capovolgersi o invertirsi in futuro.

Un campo debole ha anche implicazioni per la vita sul nostro pianeta. Uno studio recente ha suggerito che l’estinzione di massa del Devoniano-Carbonifero è collegata a livelli elevati di UV-B, circa gli stessi delle misurazioni di campo più deboli dell’MPDL.

La paleomagnetista di Liverpool e autrice principale dell’articolo, la dott.ssa Louise Hawkins, ha dichiarato: “Questa analisi magnetica completa dei flussi di lava di Strathmore e Kinghorn è stata fondamentale per riempire il periodo che ha preceduto il Kiman Superchron, un periodo in cui i poli geomagnetici erano stabili e non si sono capovolti per circa 50 milioni di anni”.

“Questo set di dati completa altri studi su cui abbiamo lavorato negli ultimi anni, insieme ai nostri colleghi a Mosca e in Alberta, che si adattano all’età di queste due località”.

“I nostri risultati, se considerati insieme ai set di dati esistenti, supportano l’esistenza di un ciclo lungo circa 200 milioni di anni nella forza del campo magnetico terrestre correlato ai processi profondi della Terra. Poiché quasi tutte le nostre prove per i processi all’interno della Terra vengono costantemente distrutte dalla tettonica a zolle, la conservazione di questo segnale per le profondità della Terra è estremamente preziosa in quanto è uno dei pochi vincoli che abbiamo”.

“I risultati ottenuti forniscono anche un ulteriore prova che un debole campo magnetico è associato alle inversioni dei poli, mentre il campo è generalmente forte durante un Superchron, il che è importante in quanto si è dimostrato quasi impossibile migliorare il record di inversione prima di 300 milioni di anni“.

Sapere chi chiamare per qualsiasi emergenza: una guida per tutti i cittadini

0
Sapere chi chiamare per qualsiasi emergenza: una guida per tutti i cittadini
Migliori casinò non AAMS in Italia

Ci sono momenti in cui tutto sembra andare storto: la porta di casa non si apre, la serratura è stata forzata o un guasto improvviso mette a rischio la sicurezza domestica.

In queste situazioni, il panico può prendere il sopravvento e impedire di agire con lucidità; ma è proprio in questi momenti che sapere esattamente chi chiamare diventa fondamentale.

Se ti trovi in una città grande come Torino, ad esempio, avere a disposizione il numero di un fabbro Torino 24h può salvarti da molte situazioni spiacevoli: un professionista disponibile giorno e notte, pronto a intervenire su porte bloccate, serrature danneggiate o tentativi di effrazione. La velocità, la competenza e la sicurezza non devono mai mancare quando si parla di emergenze.

Ma vediamo insieme cosa può fare un cittadino oggi, in ogni città italiana, per far fronte a eventuali emergenze improvvise; ma soprattutto, cerchiamo di capire insieme chi è necessario chiamare per la risoluzione di eventuali problemi nel minor tempo possibile.

Perché è importante avere numeri di emergenza a portata di mano

In caso di emergenza, la prima reazione è spesso cercare aiuto online o chiamare un familiare; ma ogni minuto conta, e perdere tempo può peggiorare la situazione.

Ecco perché è utile prepararsi in anticipo, tenendo sempre con sé un elenco aggiornato di numeri utili anche da reperire preventivamente online, suddivisi per tipologia di intervento.

  • Fabbro pronto intervento per serrature bloccate, porte danneggiate o effrazioni

  • Idraulico d’urgenza per perdite, tubi rotti o allagamenti

  • Elettricista di emergenza per blackout, prese in corto o impianti fuori uso

  • Pronto soccorso sanitario per emergenze mediche

  • Numero unico d’emergenza 112 per contattare forze dell’ordine, ambulanza o vigili del fuoco

Questa semplice accortezza può fare la differenza tra un disagio momentaneo e una situazione fuori controllo: ogni minuto conta, per questo ti consigliamo di non fare la ricerca proprio nei momenti più concitati; salva i numeri che ti servono prima, soprattutto (e a maggior ragione) quando si tratta di emergenze di tipo sanitario.

Emergenze legate alla sicurezza domestica: cosa fare subito

Una delle situazioni più comuni è trovarsi fuori casa con la porta bloccata, oppure accorgersi di un tentativo di effrazione.

In questi casi, è fondamentale non cercare soluzioni fai-da-te: rischi di peggiorare il danno e, soprattutto, di compromettere la sicurezza dell’abitazione.

Meglio agire con lucidità e chiamare un fabbro con comprovata esperienza (oltre alle forze dell’ordine). Questi professionisti intervengono in breve tempo con strumenti adatti, limitando i danni e ripristinando immediatamente la funzionalità della porta e la tua tranquillità.

Tra gli interventi più frequenti:

  • Apertura porte blindate o standard senza scasso

  • Riparazione e sostituzione serrature danneggiate o manomesse

  • Messa in sicurezza dopo tentativi di furto o vandalismo

  • Installazione di nuove serrature ad alta sicurezza

Emergenze in città: quando l’imprevisto colpisce anche gli spazi condivisi

Non solo casa: molte emergenze si verificano anche in contesti condominiali o nei luoghi di lavoro. Porte di cantine, garage bloccati, portoni automatici in tilt o serrature condominiali che non rispondono sono solo alcune delle problematiche che possono causare disagio anche a più persone contemporaneamente.

In questi casi, è ancora più importante agire in fretta: i tecnici specializzati nel garantire servizi di pronto intervento h24 sono abituati a gestire urgenze anche in ambienti condivisi, e collaborano spesso con amministratori condominiali, custodi o inquilini per risolvere rapidamente il guasto e ristabilire l’accesso.

Crea il tuo kit di emergenza personale

Oltre ai contatti telefonici, è buona norma preparare un piccolo “kit digitale” da tenere sempre con sé, magari salvato nelle note del telefono o stampato in casa in cui inserire:

  • Contatti utili (fabbro, idraulico, elettricista, vetraio)

  • Indirizzi di pronto soccorso e di farmacie che fanno orario notturno

  • Codici di accesso o backup delle serrature smart

  • Contatti dei vicini di casa o di fiducia

Questo piccolo gesto può ridurre notevolmente ansia e tempi di reazione nei momenti critici, facendoti sentire più tranquillo anche in situazioni più difficili da gestire.

Le emergenze possono colpire in qualsiasi momento, ma non devono trasformarsi in un trauma: sapere esattamente a chi rivolgersi ti permette di gestire ogni situazione con maggiore controllo e lucidità perché prevenire è importante, ma essere pronti è indispensabile. Salva oggi i contatti che potrebbero venire in tuo soccorso domani.

Home

La stevia, un sostituto dello zucchero privo di calorie

0
La stevia, un sostituto dello zucchero privo di calorie
Migliori casinò non AAMS in Italia
La Cooperativa Stevia Hellas, afferma che le sue vendite aumentano del 12% ogni anno.

Un gruppo di agricoltori, sette anni fa, smise di coltivare il tabacco per passare ad un alternativa di tendenza che sostituiva lo zucchero: La Stevia.

Il gruppo di agricoltori, ha deciso di cambiare la tipologia della coltivazione dopo esser stati convinti da un ingegnere meccanico, Christos Stamatis, emulando cosi il successo di sei coltivatori di tabacco in California, che avevano deciso di coltivare la pianta di Stevia.

L’estratto dalle foglie della pianta di Stevia, costituisce un sostituto allo zucchero ed è privo di calorie. La Stevia, si produce da secoli, ma è solo dall’ultimo decennio che ha cominciato ad affermarsi.

Christos Stamatis, ha cercato gli agricoltori, presenti nella sua regione di origine, la Fthiotida, mentre erano intenti a lavorare, per convincerli a piantare la Stevia, al posto delle piantagioni di tabacco meno redditizie.

Sono stati 150 gli agricoltori che si sono fatti coinvolgere, che a loro volta hanno contribuito con 500 €, per costituire la cooperativa Stevia Hellas. Stamatis, ha affermato che, “Abbiamo scoperto il crowdsourcing, molto prima che diventasse un mainstream nel mio villaggio, le persone possono realizzare quello cui ambiscono e noi lo abbiamo dimostrato”Pianta di stevia

Le foglie della pianta di Stevia, vengono lavorate per poter produrre l’estratto, che può essere sia liquido che in polvere.

La cooperativa Stevia Hellas, è stata la prima azienda in Europa, a produrre la stevia, ed ora conta ben 300 impiegati. L’azienda, creata nel 2012, è situata a poca distanza dal nord di Atene, e vende estratti di stevia, sia liquidi che in polvere con il proprio marchio, “La Mia Stevia”, ed esporta all’ingrosso in Europa occidentale, Canada, Stati Uniti e Emirati Arabi Uniti.

La cooperativa, è entrata in un settore che ha un enorme potenziale di crescita, e le vendite globali di Stevia,secondo uno studio della società di consulenza Ricerca e mercati, potrebbero quasi raddoppiare arrivando cosi a 818 milioni di dollari entro il 2024.

Nonostante il successo la Stevia, si trova ancora molto indietro rispetto alle vendite degli edulcoranti artificiali, come l’aspartame o il sucralosio, che hanno un valore nel mercato mondiale di 2,7 miliardi di dollari all’anno, mentre per lo zucchero si prevede nel mercato mondiale un fatturato annuo di 89 miliardi di dollari, con una crescita leggermente più lenta.

guardando le piante
Christos Stamatis, ha convinto gli agricoltori locali, a convertire le loro colture di tabacco in stevia.

Andrew Ohmes, presidente dell’ente internazionale Stevia Council, dichiara che la Stevia è un prodotto che deve ancora prendere piede nel mercato, e che il consumo aumenterà, visto la scelta dei consumatori di limitare le quantità di zucchero nelle diete. Dichiara inoltre che, “Gli altri dolcificanti come l’aspartame o il sucralosio sono in circolazione da molto più tempo, ma nonostante ciò il consumo di Stevia crescerà del 19-21% nei prossimi 5-10 anni”.

La Stevia, a prima vista potrebbe sembrare costosa. Il costo della Stevia in polvere, sugli scaffali del supermercato ha un costo di circa 120 € al chilo rispetto al prezzo dello zucchero, che è pari a 0,83 € al chilo. Ma Stamatis, afferma che la Stevia è in realtà più economica, essendo 200 volte più dolce dello zucchero. Inoltre, i sostenitori della Stevia affermano che è un prodotto molto ecologico, visto che necessità del 96% in meno di acqua rispetto allo zucchero di canna, e inferiore del 92% rispetto allo zucchero di barbabietola; inoltre, necessita di circa il 20% del terreno necessario per produrre la stessa quantità di dolcificante. 

La Stevia è originaria del Paraguay e del Brasile ed il nome completo della pianta è Stevia Rebaudiana. Le sue proprietà sono note da secoli ai gruppi indigeni, e nella lingua guarani è nota come “kaa he-he”, che tradotto significa erba dolce.

La Stevia in Giappone si iniziò a produrre, su scala commerciale, dal 1971. Negli Stati Uniti e in Europa, il lancio della Stevia fu molto più lento, poiché i regolatori non erano sicuri della sicurezza del prodotto. Infatti, nel 1987, la Food and Drug Administration (FDA) americana, vietò la commercializzazione della Stevia.

La situazione è cambiata dal 2008, da quando la FDA, ha dato la sua approvazione all’estratto di Stevia purificato. La UE, l’Australia e la Nuova Zelanda, dal 2011 hanno seguito l’esempio americano.

Ma nonostante l’approvazione ci sono ancora dibattiti a riguardo. Kimberly Snyder, nutrizionista certificato, afferma che “L’estratto di Stevia, a differenza delle controparti chimiche, come l’aspartame, non forma acido nel corpo, né aumenta le malattie cardiache e le carie, e non ha alcun impatto sui livelli di zucchero nel sangue. Purtroppo, il liquido di Stevia venduto nei negozi di alimentari viene lavorato con additivi, che potrebbero causare gonfiore, diarrea o mal di testa. Un altra problematica è sulla dolcezza, questa caratteristica potrebbe aumentare la voglia di gusti dolci, facendo più male che bene alle persone che sono tendenzialmente portate ad abusarne”.

Andrew Ohmes, afferma che l’uso della Stevia al posto dello zucchero, “consente una significativa diminuzione di apporto calorico”.

Membri della cooperativa Stevia Hellas
La cooperativa Stevia Hellas, beneficia del clima caldo della Grecia.

Tuttavia, la dietologa Rachel Fine, incoraggia l’utilizzo dello zucchero di canna, consigliando ai suoi clienti comunque un utilizzo limitato, ad eccezione delle persone diabetiche, che possono usare la Stevia come alternativa, diminuendo così l’impatto del livello dello zucchero nel sangue.

La Cooperativa Stevia Hellas, in Grecia, punta ad un ulteriore crescita, e Stamatis, dichiara che, “Il nostro prossimo passo è quello di formare una filiera per la produzione di Stevia nei paesi mediterranei, precisamente in Italia, Spagna, Francia e in Portogallo”.
Le piante di Stevia prodotte dalla cooperativa, attualmente sono inviate in Francia, per essere trasformate, e nei prossimi due anni è prevista l’apertura di un secondo impianto di trasformazione nei Balcani. Stamatis, aggiunge che “Noi abbiamo un clima unico per la coltivazione di Stevia”.

Michael Budziszek, esperto di riscaldamento globale e professore associato presso il Johnson and Wales University College of Arts and Sciences, afferma che “anche altri paesi potranno sviluppare un clima adatto per produrre la Stevia, man mano che avranno un clima sempre più tropicale”. 

Nonostante tutto, garantire la crescita della produzione di Stevia non sarà semplice. Ad esempio, nel 2014 la Coca Cola ha lanciato mercato britannico una versione della sua bevanda dolcificata con la Stevia che, però, non ha prodotto molti consensi, al punto da costringere l’azienda a sospenderne la produzione dopo solo tre anni.

La scoperta della civiltà minoica

0
La scoperta della civiltà minoica
Migliori casinò non AAMS in Italia

La ricerca della civiltà minoica, come fu chiamata, inizia con il solito Heinrich Schliemann (1822-1890), lo “scopritore” di Troia, che cercò di comprare un terreno in un sito dove pensava potesse essere la capitale del leggendario re Minosse. Il proprietario si rifiutò di venderglielo e Schliemann dovette arrendersi.

Il solco era però tracciato, infatti circa venti anni dopo, nel 1900, maggiore fortuna arrise ad Arthur Evans (1851-1941) che riuscì a portare alla luce l’altra grande civiltà dell’Età del Bronzo nel Mar Egeo, quella minoica.

La città che scavò a partire dal 1900, oggi è nota con il nome di Cnosso. Evans era il prototipo del gentiluomo vittoriano. Un’immagine lo ritrae durante gli scavi vestito di un abito di lino bianco e di un casco coloniale. Figlio di uno studioso e amministratore del British Museum fu anche un valente numismatico per la cui attività nel 1902 fu premiato con la medaglia della Royal Numismatic Society.

cnosso

Non sappiamo quasi nulla della civiltà minoica

Evans era alla ricerca della città di Cnosso fin da quando, alcuni anni prima, in un mercato di Atene, aveva acquistato dei piccoli oggetti chiamati galattiti che riportavano strane figure ed incisioni. Evans giunse alla conclusione che provenissero da Creta, dalla collina di Kefala, oggi nella periferia della città portuale di Candia (l’antica Iraklio), proprio dove si trovava il terreno che Schliemann aveva cercato inutilmente di comprare.

Evans ebbe maggiore fortuna del suo predecessore: riuscì ad acquistare la collinetta e cominciò a scavare. Sotto il leggero pendio coperto da sottobosco e alberi, la sua squadra ben presto si imbatté nelle rovine di quello che Evans identificò come il palazzo da lui cercato. Consacrò il resto della propria carriera, e quasi tutto il patrimonio di famiglia, a scavare nel sito, pubblicare i risultati e ricostruirne i resti.

La civiltà che aveva edificato quel palazzo era più antica di quella dei micenei ed Evans erroneamente ritenne che i “minoici” (così li definì l’archeologo britannico) avessero conquistato i micenei. Il nome di civiltà minoica fu attribuito da Evans, poiché ancora oggi non sappiamo come le persone che vi appartenevano si autodefinissero, né da dove provenissero.

La civiltà minoica prosperò tra la fine del III e l’inizio del II millennio a.e.v. poi un terribile terremoto colpì Cnosso verso il 1700 a.ev. quasi radendo al suolo la città ma i sopravvissuti si ripresero e ricostruirono il Palazzo.

A quanto pare intorno al 1350 a.e.v. i micenei della Grecia continentale invasero e assoggettarono questa regione, portando con sé un nuovo modo di vivere, una nuova scrittura e uno stile di vita più militarista che durò per circa un secolo e mezzo, finché tutto crollò, poco dopo il 1200 a.e.v., misteriosamente e la civiltà minoica scomparve dalla storia.

Tra i molti misteri rimasti insoluti in questa sensazionale scoperta, l’assenza di fortificazioni murarie è uno dei più importanti. La civiltà minoica era fondata essenzialmente sul mare e probabilmente una flotta poderosa (per l’epoca) assicurava la sua sicurezza. Questo fatto è considerato una possibile spiegazione all’assenza di mura intorno al Palazzo di Cnosso ed agli altri palazzi minori sparsi per l’isola di Creta. Anche considerando questa possibilità, però, non ci sono spiegazioni convincenti sull’assenza totale di opere difensive.

Qualcuno ha ipotizzato che Creta potesse essere governata dalla donne attraverso un matriarcato poco bellicoso che rendeva inutili la costruzione di mura.
E questo ci porta al secondo mistero. Non sappiamo se Cnosso fosse governato da un Re o da una Regina. Oppure da una casta sacerdotale. Nessuno dei ritrovamenti effettuati chiarisce questo aspetto.

Nel Palazzo di Cnosso sono state ritrovate numerose pitture raffiguranti tori o giochi effettuati con questi animali. Pare dunque che i minoici si dedicassero al salto dei tori nel cortile centrale del Palazzo oltre a qualche rituale sempre legato agli stessi animali nel palazzo o nei dintorni.

Queste pitture riportano alla mente il mito greco di Teseo e del Minotauro che tutti conosciamo per averlo studiato a scuola.

L’improvvisa e repentina scomparsa di questa civiltà ha alimentato per secoli la leggenda di Atlantide, il misterioso continente, sede di una civiltà mirabile, citato da Platone nei dialoghi Timeo e Crizia che sarebbe scomparso inghiottito dalle acque.

Oro dal piombo al CERN: l’alchimia nucleare diventa realtà

0
Oro dal piombo al CERN: l'alchimia nucleare diventa realtà
Oro dal piombo al CERN: l'alchimia nucleare diventa realtà
Migliori casinò non AAMS in Italia

Nel cuore pulsante della fisica delle alte energie, all’interno del complesso labirintico del Large Hadron Collider (LHC) del CERN, un risultato scientifico di portata epocale ha scosso le fondamenta della nostra comprensione della materia e delle sue trasformazioni.

Un’antica aspirazione alchemica, inseguita per secoli da menti curiose e avventurose, ha trovato una sua, seppur fugace, realizzazione non nei forni fumosi e tra gli alambicchi degli alchimisti, bensì negli acceleratori di particelle più potenti mai costruiti dall’umanità.

I fisici del CERN, attraverso esperimenti meticolosamente orchestrati e analisi sofisticate, sono riusciti a trasmutare, anche se per un istante infinitesimale, nuclei di piombo in atomi di oro.

Oro dal piombo al CERN: l'alchimia nucleare diventa realtà
Oro dal piombo al CERN: l’alchimia nucleare diventa realtà

La trasmutazione del piombo in oro: un miracolo della fisica moderna al CERN

Il segreto di questa moderna “pietra filosofale” risiede nelle collisioni ad altissima energia di nuclei di piombo, accelerate fino a velocità prossime a quella della luce all’interno dell’anello di 27 chilometri dell’LHC. Questi scontri, che generano una densità di energia e una temperatura inimmaginabili, paragonabili a quelle esistenti frazioni di secondo dopo il Big Bang, innescano processi nucleari di una complessità sbalorditiva.

In queste condizioni estreme, i nuclei di piombo, composti da 82 protoni e un numero variabile di neutroni, si frantumano in un mare di quark e gluoni, le particelle elementari che costituiscono la materia nucleare. Questo stato della materia, noto come plasma di quark e gluoni, è un ambiente primordiale in cui le forze fondamentali della natura si manifestano in modo diretto e intenso.

È proprio all’interno di questo calderone di particelle elementari che, attraverso una serie di interazioni complesse e fluttuazioni quantistiche, si verifica la trasmutazione alchemica. Alcuni dei frammenti nucleari risultanti dalle collisioni, riaggregandosi e riorganizzandosi sotto l’influenza delle forze nucleari, danno origine a nuclei atomici con un numero di protoni diverso da quello del piombo originario.

. In particolare, alcuni di questi nuclei neoformati acquisiscono esattamente 79 protoni nel loro nucleo. Questo numero magico definisce l’elemento oro. Sebbene questi nuclei di oro siano estremamente instabili e decadano in altri elementi in un lasso di tempo brevissimo, la loro formazione rappresenta una prova tangibile della possibilità di trasformare un elemento in un altro attraverso processi fisici ad altissima energia.

Questi esperimenti pionieristici sono condotti nell’ambito della collaborazione ALICE (A Large Ion Collider Experiment), uno dei quattro grandi esperimenti presso l’LHC specificamente progettato per studiare le collisioni di ioni pesanti come il piombo. L’obiettivo primario di ALICE non è certo la produzione di oro su scala industriale, ma piuttosto l’esplorazione delle proprietà fondamentali del plasma di quark e gluoni e la ricostruzione delle condizioni fisiche presenti nei primissimi istanti di vita dell’Universo.

La capacità di osservare la formazione, seppur transitoria, di elementi come l’oro in questi esperimenti fornisce informazioni cruciali sulla nucleosintesi primordiale, ovvero sui processi attraverso i quali i primi elementi chimici si sono formati dopo il Big Bang.

Comprendere come la materia si è organizzata a partire dal brodo primordiale di particelle elementari è una delle sfide più grandi della fisica moderna, e gli esperimenti ALICE al CERN stanno fornendo tasselli fondamentali per risolvere questo affascinante enigma cosmico. La trasmutazione del piombo in oro, quindi, non è solo un trionfo tecnologico, ma una finestra privilegiata sull’alba del nostro Cosmo.

Un’eco del Big Bang: ricreare le condizioni primordiali in laboratorio

Immagina di poter scrutare indietro nel tempo, fino a frazioni infinitesime di secondo dopo il Big Bang. l’Universo primordiale era un ambiente incredibilmente caldo e denso, un vero e proprio “brodo” di particelle elementari in costante interazione.

In questo scenario estremo, le forze fondamentali che oggi conosciamo, come la forza forte e la forza debole, giocavano un ruolo dominante nel plasmare la materia. La nucleosintesi primordiale, ovvero la formazione dei primi nuclei atomici leggeri come l’idrogeno, l’elio e tracce di litio, è avvenuta proprio in questo periodo caotico e dinamico.

Gli esperimenti ALICE, ricreando in miniatura le condizioni di temperatura e densità energetica simili a quelle dell’universo primordiale attraverso le collisioni ultra-relativistiche, ci offrono una sorta di “istantanea” di quel periodo cruciale.

Osservando la formazione di elementi più pesanti, seppur instabili, come l’oro, possiamo ottenere indizi preziosi sui meccanismi attraverso i quali i nuclei atomici si sono aggregati e trasformati nei primi istanti cosmici. È come analizzare le increspature lasciate da un sasso lanciato in uno stagno per dedurre le caratteristiche dell’impatto originario.

Sebbene la nucleosintesi primordiale si concentri principalmente sulla formazione degli elementi più leggeri, comprendere come, in condizioni estreme, nuclei pesanti come il piombo possano temporaneamente trasformarsi in oro ci fornisce informazioni fondamentali sulla stabilità e l’instabilità dei nuclei atomici, sulle forze che li tengono insieme e sui processi che possono indurre la loro trasformazione.

Questi dati sperimentali, raccolti con una precisione sbalorditiva, permettono ai fisici teorici di affinare i modelli che descrivono le interazioni nucleari e di estendere la nostra comprensione della formazione degli elementi ben oltre la fase primordiale dell’Universo.

Inoltre, lo studio del plasma di quark e gluoni, il substrato da cui emergono questi nuclei transitori, ci svela aspetti inediti del comportamento della materia in condizioni estreme, un regime fisico completamente diverso da quello a cui siamo abituati nel nostro mondo quotidiano. Comprendere le proprietà di questo stato primordiale della materia è essenziale per ricostruire la storia termica ed evolutiva del Cosmo.

Il cervello “incarna” la musica: un nuovo studio rivela una connessione fisica

0
Il cervello "incarna" la musica: un nuovo studio rivela una connessione fisica
Il cervello "incarna" la musica: un nuovo studio rivela una connessione fisica
Migliori casinò non AAMS in Italia

La musica ha la straordinaria capacità di indurci a muovere il piede per battere il ritmo, a provare gioia, tristezza o eccitazione, spesso senza una nostra deliberata intenzione cosciente. Questa risposta viscerale al suono organizzato ha a lungo interrogato scienziati e appassionati.

Una nuova e affascinante ricerca offre una prospettiva inedita su questo fenomeno, suggerendo che la nostra reazione alla musica non si limiti a una mera previsione cerebrale degli eventi sonori futuri, ma coinvolga la formazione di veri e propri schemi fisici all’interno dei nostri circuiti neurali.

Il cervello "incarna" la musica: un nuovo studio rivela una connessione fisica
Il cervello “incarna” la musica: un nuovo studio rivela una connessione fisica

Il ritmo inconscio: quando la musica entra nel corpo

Un team internazionale di scienziati, sotto la guida di Edward Large dell’Università del Connecticut, ha compiuto una scoperta fondamentale: le nostre cellule cerebrali si sincronizzano fisicamente con le onde sonore musicali, dando origine a configurazioni stabili che si riverberano in tutto il nostro corpo. Questa scoperta ha portato alla formulazione della teoria della risonanza neurale (NRT), un paradigma che ridefinisce il modo in cui comprendiamo l’elaborazione musicale nel cervello umano.

Contrariamente all’idea prevalente di un cervello che agisce principalmente come un sofisticato sistema predittivo, la NRT propone che l’anticipazione degli eventi musicali non derivi da modelli neurali predittivi astratti, bensì da una vera e propria incarnazione fisica della struttura musicale nelle dinamiche cervello-corpo. In altre parole, i nostri circuiti neurali non si limitano a “prevedere” la prossima nota o il prossimo battito, ma stabiliscono relazioni fisiche dirette con la musica attraverso oscillazioni ritmiche che si allineano in modo sincrono con ciò che percepiamo a livello uditivo.

L’atto apparentemente semplice di battere il piede a tempo di musica, un comportamento così comune e spontaneo, trova una nuova spiegazione alla luce della teoria della risonanza neurale. Questo movimento involontario non è una risposta secondaria a un’analisi cognitiva del ritmo, ma una diretta conseguenza della sincronizzazione delle oscillazioni neurali nel cervello con le frequenze ritmiche della musica. Questi schemi di sincronizzazione, una volta stabiliti a livello cerebrale, si propagano naturalmente e si estendono ai sistemi motori del corpo, manifestandosi in movimenti ritmici come il battere del piede o il canticchiare.

È interessante notare come questa sincronizzazione avvenga a diverse velocità all’interno del cervello, a seconda della caratteristica musicale elaborata. Per quanto riguarda il ritmo, l’elemento pulsante e cadenzato della musica, sono le onde cerebrali più lente a entrare in risonanza con le frequenze ritmiche percepite. Al contrario, l’elaborazione dell’altezza, ovvero delle singole note musicali, coinvolge processi più rapidi che hanno luogo nell’orecchio interno e nel tronco encefalico, evidenziando una complessa orchestrazione di risposte neurali che sottendono la nostra ricca esperienza musicale. La teoria della risonanza neurale ci offre quindi una visione più profonda e integrata di come la musica non sia solo ascoltata, ma sentita e incarnata dal nostro intero essere.

I ritmi fantasma e l’armonia della risonanza neurale

Un aspetto particolarmente affascinante rivelato dalla ricerca sulla risonanza neurale riguarda la nostra percezione dei cosiddetti ritmi “missing pulse“. Questi pattern musicali complessi presentano un’enigmatica assenza di un suono reale alla frequenza fondamentale del battimento. Nonostante questa lacuna sonora, gli ascoltatori non solo percepiscono chiaramente il ritmo sottostante, ma si muovono in sincronia con esso.

La teoria della risonanza neurale offre una spiegazione elegante per questo fenomeno controintuitivo attraverso il concetto di risonanza non lineare. In questo processo, gli oscillatori neurali presenti nel nostro cervello sono in grado di generare frequenze che non sono fisicamente presenti nel segnale musicale originale. In altre parole, il nostro cervello “colma” l’assenza, creando internamente la frequenza ritmica mancante attraverso le proprie dinamiche oscillatori.

La teoria della risonanza neurale non si limita a spiegare la nostra percezione del ritmo, ma offre anche una prospettiva innovativa sul perché alcune combinazioni musicali ci appaiano armoniose e piacevoli, mentre altre risultano dissonanti e sgradevoli. Secondo la NRT, la chiave risiede nella stabilità dei modelli di oscillazione neurale indotti dalle diverse relazioni di frequenza tra le note. Intervalli musicali caratterizzati da semplici rapporti di frequenza, come la quinta giusta, tendono a generare modelli di oscillazione neurale più stabili e coerenti. Questa stabilità interna si traduce nella nostra percezione soggettiva di consonanza e piacevolezza.

Questa stabilità interna si traduce nella nostra percezione soggettiva di consonanza e piacevolezza. Al contrario, combinazioni di frequenze complesse e incommensurabili tendono a indurre modelli di oscillazione neurale meno stabili e più caotici, che vengono percepiti come dissonanza e asprezza. L’armonia, quindi, non sarebbe solo una proprietà acustica, ma una manifestazione della risonanza stabile all’interno dei nostri circuiti neurali.

Se da un lato alcuni aspetti fondamentali della percezione musicale possono essere considerati universali, radicati nella fisica di base del nostro cervello e nella sua capacità di entrare in risonanza con le onde sonore, dall’altro il background culturale gioca un ruolo significativo nel plasmare le nostre preferenze musicali. L’esposizione ripetuta a specifici stili e strutture musicali all’interno di un determinato contesto culturale rafforza particolari connessioni neurali attraverso un processo dinamico denominato “sintonizzazione“.

Questo meccanismo di apprendimento neurale spiega perché persone provenienti da culture diverse sviluppano gusti musicali distinti, pur mantenendo la capacità di riconoscere e processare le strutture musicali di base. Il nostro cervello, in sostanza, si “sintonizza” sulle caratteristiche sonore della musica che ascoltiamo più frequentemente, creando delle vere e proprie impronte neurali che influenzano profondamente le nostre risposte emotive ed estetiche alla musica. La cultura, quindi, modella la nostra esperienza musicale, agendo come un filtro che sintonizza le nostre risposte neurali su specifici paesaggi sonori.

La sincronia anticipatoria tra musicisti

Il modello della risonanza neurale offre una prospettiva illuminante anche sul modo in cui i musicisti interagiscono e si anticipano reciprocamente durante un’esecuzione congiunta. I ricercatori hanno scoperto che i complessi circuiti di feedback presenti all’interno dei sistemi neurali possono innescare un fenomeno di sincronizzazione anticipatoria. Questo meccanismo spiega la sorprendente capacità dei musicisti di sembrare suonare “un istante prima” l’uno dell’altro, pur mantenendo una coordinazione impeccabile e fluida. Questa anticipazione non è una previsione conscia, ma emerge dalle dinamiche interne dei loro sistemi neurali che si sintonizzano reciprocamente in tempo reale.

Gli autori della ricerca sottolineano come l’interazione tra specifiche tipologie di suoni e le dinamiche intrinseche di formazione di pattern all’interno del nostro cervello dia origine a quei modelli di percezione, azione e coordinamento che collettivamente esperiamo come musica. Questo approccio teorico si rivela particolarmente potente in quanto riesce a integrare sia gli elementi universali della musica, presenti in tutte le culture umane, sia le affascinanti variazioni che si riscontrano tra i diversi sistemi musicali del mondo.

Diventa quindi evidente che condividere la musica, in contesti tanto diversi come una grigliata informale in giardino, una festa animata o un viaggio in automobile con l’autoradio a tutto volume, rappresenta un’esperienza profondamente significativa per la nostra specie. In questi momenti di ascolto condiviso, i nostri cervelli si sincronizzano letteralmente, creando schemi neurali condivisi che trascendono le barriere generazionali e le differenze culturali. Quando ci ritroviamo, quasi senza pensarci, a canticchiare lo stesso ritornello o a battere il tempo all’unisono, stiamo vivendo una delle connessioni umane più semplici ma al contempo più potenti e primordiali.

Gli stessi autori riconoscono che l’applicazione dei principi dei sistemi dinamici al complesso campo delle neuroscienze cognitive della musica è ancora un’area di ricerca in evoluzione e in fase di sviluppo. Per consolidare ulteriormente questa promettente teoria, si rende necessaria la raccolta di ulteriori prove empiriche che permettano di confrontare direttamente le previsioni comportamentali e le correlazioni neurali su diverse scale temporali. Inoltre, futuri studi dovranno concentrarsi sulla distinzione tra la teoria della risonanza neurale e altri approcci teorici esistenti, come i modelli di codifica predittiva, al fine di delineare con maggiore precisione i meccanismi sottostanti alla nostra esperienza musicale.

Un’ulteriore direzione di ricerca cruciale sarà l’analisi di corpora musicali interculturali, guidata dalle previsioni dinamiche della NRT, e l’indagine sulle significative variazioni individuali che si riscontrano nella percezione musicale e nelle capacità esecutive. Solo attraverso un’indagine multidisciplinare e rigorosa sarà possibile svelare appieno la complessa e affascinante relazione tra il nostro cervello e il linguaggio universale della musica.

La ricerca è stata pubblicata su Nature Reviews Neuroscience.