mercoledì, Maggio 14, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 2

Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico

0
Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico
Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico
Migliori casinò non AAMS in Italia

Un recente studio propone un’ipotesi rivoluzionaria che potrebbe ridefinire la nostra comprensione dell’universo. La ricerca suggerisce che le informazioni quantistiche, intrinsecamente codificate nell’entropia dell’entanglement, modellano direttamente la struttura dello spaziotempo.

Questa idea innovativa apre un nuovo orizzonte verso l’ambiziosa unificazione della gravità, descritta dalla relatività generale di Einstein, e della meccanica quantistica, il regno dell’infinitamente piccolo.

Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico
Entanglement quantistico: il filo conduttore tra gravità e mondo quantistico

Entanglement quantistico: la chiave per unificare gravità e meccanica quantistica?

Il cuore di questo studio risiede in una riformulazione delle celebri equazioni di campo di Einstein. La prospettiva convenzionale vede la gravità come una manifestazione della risposta dello spaziotempo alla presenza di massa ed energia. Tuttavia, la nuova ricerca introduce un concetto audace: la gravità non sarebbe determinata unicamente da questi fattori, ma anche dalla sottile struttura informativa intrinseca ai campi quantistici. Se questa ipotesi dovesse trovare conferma, rappresenterebbe un cambiamento paradigmatico nel modo in cui i fisici interpretano sia la forza di gravità che i principi fondamentali del calcolo quantistico.

Lo studio, pubblicato da Florian Neukart del Leiden Institute of Advanced Computer Science, Università di Leida, e Chief Product Officer di Terra Quantum, introduce la nozione di un inedito “tensore energia-stress informativo“. Questo tensore deriverebbe direttamente dall’entropia dell’entanglement quantistico. L’entropia dell’entanglement è una misura del grado di correlazione quantistica che intercorre tra diverse regioni dello spazio.

Essa gioca un ruolo cruciale sia nella teoria dell’informazione quantistica che nel campo del calcolo quantistico. Proprio perché l’entanglement cattura la maniera in cui l’informazione viene condivisa attraverso i confini spaziali, esso si configura come un ponte naturale che connette il mondo della teoria quantistica con il tessuto geometrico dello spaziotempo.

Nella relatività generale classica, la curvatura dello spaziotempo è univocamente determinata dalla distribuzione di energia e quantità di moto della materia e della radiazione presenti nell’universo. Il nuovo modello proposto aggiunge a questo quadro un ulteriore elemento fondamentale: l’informazione quantistica condivisa tra i campi. Questo termine aggiuntivo apporta una modifica significativa alle equazioni di Einstein, offrendo potenzialmente una spiegazione per alcuni dei comportamenti più sfuggenti e misteriosi della gravità, inclusa la possibilità di correzioni alla costante gravitazionale di Newton.

Per i ricercatori attivi nel campo del calcolo quantistico, questo studio rafforza un’idea già emergente: l’entanglement non è semplicemente una risorsa computazionale da sfruttare, ma potrebbe rappresentare un elemento strutturale fondamentale dell’universo stesso. La ricerca implica che, nel momento in cui i sistemi di calcolo quantistico manipolano l’entanglement, essi attingono agli stessi meccanismi che influenzano e plasmano la forma dello spaziotempo.

Questa profonda dualità tra la geometria dello spaziotempo e l’informazione quantistica, come sottolinea lo studio, ha implicazioni di vasta portata per la nostra comprensione del cosmo. In particolare, suggerisce con forza che la gravità potrebbe emergere dall’intricato fenomeno dell’entanglement a livello quantistico. Questa visione si allinea con le attuali ricerche in corso nel campo della gravità quantistica, che includono promettenti teorie come l’approccio olografico e la corrispondenza AdS/CFT.

Correzioni alla costante di Newton e campi quantistici

A sostegno della sua audace ipotesi, lo studio condotto da Neukart presenta calcoli dettagliati riguardanti le correzioni alla fondamentale costante gravitazionale di Newton. Questi calcoli si basano sull’entropia di entanglement derivante da diverse tipologie di campi quantistici, che includono campi scalari, spinoriali e bosoni di gauge.

Sebbene le correzioni numeriche risultanti siano estremamente piccole, esse rivelano una dipendenza cruciale: la loro entità è legata al contenuto quantistico dei campi che permeano l’universo e varia significativamente con la scala energetica considerata. Questa scoperta suggerisce un’implicazione profonda: l’intensità della forza di gravità potrebbe non essere una costante universale e immutabile, come tradizionalmente assunto.

Nel suo lavoro, Neukart impiega strumenti ben consolidati e potenti della teoria quantistica dei campi. Tra questi spiccano il “trucco della replica” e i sofisticati “metodi del kernel di calore“. Queste tecniche avanzate permettono di modellare con precisione il modo in cui regioni dello spazio intrinsecamente entangled influenzano la curvatura dello spaziotempo. In sostanza, questi metodi consentono ai fisici di calcolare la propagazione e l’interazione dell’informazione quantistica all’interno di uno spaziotempo curvo, analogamente a come si studierebbe la diffusione del calore attraverso sistemi complessi.

I risultati ottenuti dai meticolosi calcoli del ricercatore indicano che persino regioni infinitesime di correlazione quantistica possono esercitare un’influenza non trascurabile sulla dinamica gravitazionale. Questo effetto si manifesterebbe in modo particolarmente significativo in prossimità di oggetti celesti estremi come i buchi neri e nelle condizioni energetiche estreme che caratterizzavano l’universo primordiale.

Una delle implicazioni più sorprendenti di questa ricerca riguarda la termodinamica dei buchi neri, un campo di studio affascinante che fonde concetti di gravità, termodinamica e meccanica quantistica. Le equazioni tradizionali che descrivono l’entropia e la temperatura dei buchi neri si basano sull’assunzione che la costante di Newton sia un valore fisso. Tuttavia, se la forza di gravità dovesse “correre” con la scala energetica, come suggerito dallo studio, anche queste grandezze termodinamiche subirebbero delle modifiche. In particolare, l’entropia di un buco nero tenderebbe a diminuire leggermente alle alte energie, mentre la sua temperatura aumenterebbe, portando potenzialmente a tassi di evaporazione più lenti di quanto previsto.

Sebbene queste sottili correzioni siano al di là della portata della nostra attuale tecnologia di rilevamento, esse aprono una promettente finestra teorica sul celebre paradosso dell’informazione dei buchi neri. Questo paradosso rappresenta una delle tensioni irrisolte più profonde e stimolanti tra i pilastri fondamentali della fisica moderna: la meccanica quantistica e la teoria della relatività generale di Einstein.

Le implicazioni di questa ricerca potrebbero estendersi ben oltre il regno dei buchi neri. La dipendenza della gravità dalla scala energetica potrebbe aver influenzato in modo significativo fenomeni cosmologici cruciali come l’inflazione, la fase di rapida espansione dell’universo primordiale governata da equazioni che includono la costante di Newton. Se quest’ultima fosse stata leggermente inferiore alle energie estreme dell’universo neonato, la dinamica dell’inflazione potrebbe essere stata differente. Allo stesso modo, processi fondamentali come la nucleosintesi primordiale, la formazione degli elementi leggeri, e persino le caratteristiche della radiazione cosmica di fondo a microonde potrebbero conservare tracce di questa variazione della forza di gravità.

Inoltre, la ricerca suggerisce una connessione interessante: l’entanglement quantistico potrebbe addirittura fornire un contributo significativo alla costante cosmologica, il misterioso parametro spesso invocato per spiegare l’enigmatica energia oscura e l’accelerata espansione dell’universo che osserviamo oggi.

Rilevanza alla scala di Planck e limiti delle tecniche perturbative

Nonostante l’indubbia eleganza e la profonda portata concettuale della teoria proposta, essa si confronta con sfide significative, in particolare per quanto riguarda la verifica sperimentale delle sue previsioni. Le variazioni previste nella costante di Newton, elemento centrale della teoria, risultano essere straordinariamente piccole, collocandosi ben al di sotto della soglia di sensibilità degli strumenti di misurazione attualmente disponibili.

È importante sottolineare che la maggior parte delle correzioni derivate da questo studio acquisisce una rilevanza significativa unicamente in prossimità della cosiddetta scala di Planck. Questa scala energetica estrema è il punto in cui si prevede che gli effetti gravitazionali e quantistici si manifestino congiuntamente e in modo inestricabile.

Inoltre, i risultati presentati si basano sull’impiego di tecniche perturbative, la cui validità e accuratezza tendono a diminuire drasticamente in regimi di energia così elevati. Lo studio stesso riconosce apertamente questa intrinseca limitazione e sottolinea l’urgente necessità di sviluppare approcci teorici non perturbativi, come i potenti metodi del gruppo di rinormalizzazione esatta, al fine di estendere l’applicabilità e la solidità della teoria in questi contesti estremi.

Un altro aspetto cruciale da considerare è che il quadro teorico proposto si basa su specifiche ipotesi riguardanti il contenuto di particelle fondamentali che costituiscono l’universo. Prendendo come punto di partenza il Modello Standard della fisica delle particelle, le correzioni calcolate risultano essere minime.  Teorie che vanno oltre i confini del Modello Standard – come quelle che postulano l’esistenza di nuovi campi fondamentali o di dimensioni spaziali extra – potrebbero potenzialmente amplificare in modo significativo questi effetti previsti.

In definitiva, è fondamentale riconoscere che questo studio pionieristico non ambisce a fornire una soluzione completa e definitiva al complesso problema della gravità quantistica. Piuttosto, il suo valore risiede nella riformulazione radicale del problema stesso. Dimostrando come l’enigmatica entropia dell’entanglement possa essere integrata matematicamente all’interno delle consolidate equazioni di campo di Einstein, la ricerca apre una promettente e inedita via che connette intrinsecamente la struttura dello spaziotempo con il concetto di informazione – un’idea familiare e centrale sia per gli informatici quantistici che per i fisici teorici.

Le future direzioni di ricerca richiederanno un programma di indagine ampio e approfondito per consolidare e sviluppare ulteriormente le basi concettuali gettate da questo studio innovativo. L’autore stesso suggerisce che gli esperimenti quantistici emergenti, tra cui le misurazioni di precisione della forza di gravità a distanze estremamente brevi e le tecniche avanzate di imaging dei buchi neri, potrebbero in futuro fornire un supporto indiretto, ma cruciale, alla validità della teoria proposta.

Dati astrofisici sempre più precisi, segnali provenienti da onde gravitazionali e osservazioni condotte ad altissime energie potrebbero offrire ulteriori indizi e vincoli sperimentali, soprattutto con il continuo miglioramento della sensibilità e della risoluzione degli strumenti osservativi. La proposta incoraggia inoltre attivamente i ricercatori che lavorano nel campo dell’informazione quantistica a considerare il proprio lavoro all’interno di un contesto teorico più ampio, contribuendo potenzialmente a far luce su una delle questioni irrisolte più interessanti e profonde della fisica fondamentale.

Come alcuni ricercatori descrivono con suggestiva metafora, questi sforzi congiunti alludono all’esistenza di un vero e proprio “sistema operativo informativo” sottostante al cosmo, in cui la struttura fondamentale della realtà emergerebbe non solo dalla materia o dall’energia, ma dal dinamico flusso e dall’intricata struttura dell’informazione stessa.

Lo studio è stato pubblicato su Annals of Physics.

Campo magnetico terrestre: un ciclo lungo 200 milioni di anni

0
Campo magnetico terrestre: un ciclo lungo 200 milioni di anni
Campo magnetico terrestre: un ciclo lungo 200 milioni di anni
Migliori casinò non AAMS in Italia

I risultati di uno studio dell’Università di Liverpool forniscono ulteriori prove di un ciclo lungo circa 200 milioni di anni nella forza del campo magnetico terrestre. La ricerca fa parte del gruppo Determining Earth Evolution from Paleomagnetismo (DEEP) dell’Università, che riunisce competenze di ricerca in geofisica e geologia per sviluppare il paleomagnetismo come strumento per comprendere i processi profondi della Terra che si verificano su scale temporali da milioni a miliardi di anni.

I ricercatori hanno eseguito analisi paleomagnetiche termiche e a microonde (una tecnica esclusiva dell’Università di Liverpool), su campioni di roccia di antiche colate laviche nella Scozia orientale per misurare la forza del campo geomagnetico durante periodi di tempo chiave senza quasi nessun dato presente e affidabile. Lo studio ha anche analizzato l’affidabilità di tutte le misurazioni di campioni da 200 a 500 milioni di anni fa, raccolti negli ultimi 80 anni.

La forza del campo magnetico terrestre è ciclica e si indebolisce ogni 200 milioni di anni

Dallo studio è emerso che tra 332 e 416 milioni di anni fa, la forza del campo geomagnetico conservato in queste rocce, era inferiore a un quarto di quella che è oggi, e simile a un periodo precedentemente identificato di bassa intensità del campo magnetico iniziato circa 120 milioni di anni fa. I ricercatori hanno coniato questo periodo come “il dipolo medio paleozoico basso (MPDL).”

Pubblicato su Proceedings of the National Academy of Sciences, lo studio supporta la teoria secondo cui la forza del campo magnetico terrestre è ciclica e si indebolisce ogni 200 milioni di anni, idea è stata proposta in un precedente studio condotto da Liverpool nel 2012. Uno dei limiti all’epoca era la mancanza di dati affidabili sull’intensità del campo magnetico prima di 300 milioni di anni fa, quindi questo nuovo studio colma un’importante lacuna temporale.

Il campo magnetico terrestre protegge il pianeta da enormi esplosioni di micidiali radiazioni solari. Non è completamente stabile in forza e direzione, sia nel tempo che nello spazio, e ha anche la capacità di capovolgersi o invertirsi completamente con implicazioni sostanziali.

Decifrare le variazioni dell’intensità del campo geomagnetico del passato è importante in quanto indica cambiamenti nei processi profondi della Terra nel corso di centinaia di milioni di anni e potrebbe fornire indizi su come potrebbe fluttuare, capovolgersi o invertirsi in futuro.

Un campo debole ha anche implicazioni per la vita sul nostro pianeta. Uno studio recente ha suggerito che l’estinzione di massa del Devoniano-Carbonifero è collegata a livelli elevati di UV-B, circa gli stessi delle misurazioni di campo più deboli dell’MPDL.

La paleomagnetista di Liverpool e autrice principale dell’articolo, la dott.ssa Louise Hawkins, ha dichiarato: “Questa analisi magnetica completa dei flussi di lava di Strathmore e Kinghorn è stata fondamentale per riempire il periodo che ha preceduto il Kiman Superchron, un periodo in cui i poli geomagnetici erano stabili e non si sono capovolti per circa 50 milioni di anni”.

“Questo set di dati completa altri studi su cui abbiamo lavorato negli ultimi anni, insieme ai nostri colleghi a Mosca e in Alberta, che si adattano all’età di queste due località”.

“I nostri risultati, se considerati insieme ai set di dati esistenti, supportano l’esistenza di un ciclo lungo circa 200 milioni di anni nella forza del campo magnetico terrestre correlato ai processi profondi della Terra. Poiché quasi tutte le nostre prove per i processi all’interno della Terra vengono costantemente distrutte dalla tettonica a zolle, la conservazione di questo segnale per le profondità della Terra è estremamente preziosa in quanto è uno dei pochi vincoli che abbiamo”.

“I risultati ottenuti forniscono anche un ulteriore prova che un debole campo magnetico è associato alle inversioni dei poli, mentre il campo è generalmente forte durante un Superchron, il che è importante in quanto si è dimostrato quasi impossibile migliorare il record di inversione prima di 300 milioni di anni“.

Sapere chi chiamare per qualsiasi emergenza: una guida per tutti i cittadini

0
Sapere chi chiamare per qualsiasi emergenza: una guida per tutti i cittadini
Migliori casinò non AAMS in Italia

Ci sono momenti in cui tutto sembra andare storto: la porta di casa non si apre, la serratura è stata forzata o un guasto improvviso mette a rischio la sicurezza domestica.

In queste situazioni, il panico può prendere il sopravvento e impedire di agire con lucidità; ma è proprio in questi momenti che sapere esattamente chi chiamare diventa fondamentale.

Se ti trovi in una città grande come Torino, ad esempio, avere a disposizione il numero di un fabbro Torino 24h può salvarti da molte situazioni spiacevoli: un professionista disponibile giorno e notte, pronto a intervenire su porte bloccate, serrature danneggiate o tentativi di effrazione. La velocità, la competenza e la sicurezza non devono mai mancare quando si parla di emergenze.

Ma vediamo insieme cosa può fare un cittadino oggi, in ogni città italiana, per far fronte a eventuali emergenze improvvise; ma soprattutto, cerchiamo di capire insieme chi è necessario chiamare per la risoluzione di eventuali problemi nel minor tempo possibile.

Perché è importante avere numeri di emergenza a portata di mano

In caso di emergenza, la prima reazione è spesso cercare aiuto online o chiamare un familiare; ma ogni minuto conta, e perdere tempo può peggiorare la situazione.

Ecco perché è utile prepararsi in anticipo, tenendo sempre con sé un elenco aggiornato di numeri utili anche da reperire preventivamente online, suddivisi per tipologia di intervento.

  • Fabbro pronto intervento per serrature bloccate, porte danneggiate o effrazioni

  • Idraulico d’urgenza per perdite, tubi rotti o allagamenti

  • Elettricista di emergenza per blackout, prese in corto o impianti fuori uso

  • Pronto soccorso sanitario per emergenze mediche

  • Numero unico d’emergenza 112 per contattare forze dell’ordine, ambulanza o vigili del fuoco

Questa semplice accortezza può fare la differenza tra un disagio momentaneo e una situazione fuori controllo: ogni minuto conta, per questo ti consigliamo di non fare la ricerca proprio nei momenti più concitati; salva i numeri che ti servono prima, soprattutto (e a maggior ragione) quando si tratta di emergenze di tipo sanitario.

Emergenze legate alla sicurezza domestica: cosa fare subito

Una delle situazioni più comuni è trovarsi fuori casa con la porta bloccata, oppure accorgersi di un tentativo di effrazione.

In questi casi, è fondamentale non cercare soluzioni fai-da-te: rischi di peggiorare il danno e, soprattutto, di compromettere la sicurezza dell’abitazione.

Meglio agire con lucidità e chiamare un fabbro con comprovata esperienza (oltre alle forze dell’ordine). Questi professionisti intervengono in breve tempo con strumenti adatti, limitando i danni e ripristinando immediatamente la funzionalità della porta e la tua tranquillità.

Tra gli interventi più frequenti:

  • Apertura porte blindate o standard senza scasso

  • Riparazione e sostituzione serrature danneggiate o manomesse

  • Messa in sicurezza dopo tentativi di furto o vandalismo

  • Installazione di nuove serrature ad alta sicurezza

Emergenze in città: quando l’imprevisto colpisce anche gli spazi condivisi

Non solo casa: molte emergenze si verificano anche in contesti condominiali o nei luoghi di lavoro. Porte di cantine, garage bloccati, portoni automatici in tilt o serrature condominiali che non rispondono sono solo alcune delle problematiche che possono causare disagio anche a più persone contemporaneamente.

In questi casi, è ancora più importante agire in fretta: i tecnici specializzati nel garantire servizi di pronto intervento h24 sono abituati a gestire urgenze anche in ambienti condivisi, e collaborano spesso con amministratori condominiali, custodi o inquilini per risolvere rapidamente il guasto e ristabilire l’accesso.

Crea il tuo kit di emergenza personale

Oltre ai contatti telefonici, è buona norma preparare un piccolo “kit digitale” da tenere sempre con sé, magari salvato nelle note del telefono o stampato in casa in cui inserire:

  • Contatti utili (fabbro, idraulico, elettricista, vetraio)

  • Indirizzi di pronto soccorso e di farmacie che fanno orario notturno

  • Codici di accesso o backup delle serrature smart

  • Contatti dei vicini di casa o di fiducia

Questo piccolo gesto può ridurre notevolmente ansia e tempi di reazione nei momenti critici, facendoti sentire più tranquillo anche in situazioni più difficili da gestire.

Le emergenze possono colpire in qualsiasi momento, ma non devono trasformarsi in un trauma: sapere esattamente a chi rivolgersi ti permette di gestire ogni situazione con maggiore controllo e lucidità perché prevenire è importante, ma essere pronti è indispensabile. Salva oggi i contatti che potrebbero venire in tuo soccorso domani.

Home

La stevia, un sostituto dello zucchero privo di calorie

0
La stevia, un sostituto dello zucchero privo di calorie
Migliori casinò non AAMS in Italia
La Cooperativa Stevia Hellas, afferma che le sue vendite aumentano del 12% ogni anno.

Un gruppo di agricoltori, sette anni fa, smise di coltivare il tabacco per passare ad un alternativa di tendenza che sostituiva lo zucchero: La Stevia.

Il gruppo di agricoltori, ha deciso di cambiare la tipologia della coltivazione dopo esser stati convinti da un ingegnere meccanico, Christos Stamatis, emulando cosi il successo di sei coltivatori di tabacco in California, che avevano deciso di coltivare la pianta di Stevia.

L’estratto dalle foglie della pianta di Stevia, costituisce un sostituto allo zucchero ed è privo di calorie. La Stevia, si produce da secoli, ma è solo dall’ultimo decennio che ha cominciato ad affermarsi.

Christos Stamatis, ha cercato gli agricoltori, presenti nella sua regione di origine, la Fthiotida, mentre erano intenti a lavorare, per convincerli a piantare la Stevia, al posto delle piantagioni di tabacco meno redditizie.

Sono stati 150 gli agricoltori che si sono fatti coinvolgere, che a loro volta hanno contribuito con 500 €, per costituire la cooperativa Stevia Hellas. Stamatis, ha affermato che, “Abbiamo scoperto il crowdsourcing, molto prima che diventasse un mainstream nel mio villaggio, le persone possono realizzare quello cui ambiscono e noi lo abbiamo dimostrato”Pianta di stevia

Le foglie della pianta di Stevia, vengono lavorate per poter produrre l’estratto, che può essere sia liquido che in polvere.

La cooperativa Stevia Hellas, è stata la prima azienda in Europa, a produrre la stevia, ed ora conta ben 300 impiegati. L’azienda, creata nel 2012, è situata a poca distanza dal nord di Atene, e vende estratti di stevia, sia liquidi che in polvere con il proprio marchio, “La Mia Stevia”, ed esporta all’ingrosso in Europa occidentale, Canada, Stati Uniti e Emirati Arabi Uniti.

La cooperativa, è entrata in un settore che ha un enorme potenziale di crescita, e le vendite globali di Stevia,secondo uno studio della società di consulenza Ricerca e mercati, potrebbero quasi raddoppiare arrivando cosi a 818 milioni di dollari entro il 2024.

Nonostante il successo la Stevia, si trova ancora molto indietro rispetto alle vendite degli edulcoranti artificiali, come l’aspartame o il sucralosio, che hanno un valore nel mercato mondiale di 2,7 miliardi di dollari all’anno, mentre per lo zucchero si prevede nel mercato mondiale un fatturato annuo di 89 miliardi di dollari, con una crescita leggermente più lenta.

guardando le piante
Christos Stamatis, ha convinto gli agricoltori locali, a convertire le loro colture di tabacco in stevia.

Andrew Ohmes, presidente dell’ente internazionale Stevia Council, dichiara che la Stevia è un prodotto che deve ancora prendere piede nel mercato, e che il consumo aumenterà, visto la scelta dei consumatori di limitare le quantità di zucchero nelle diete. Dichiara inoltre che, “Gli altri dolcificanti come l’aspartame o il sucralosio sono in circolazione da molto più tempo, ma nonostante ciò il consumo di Stevia crescerà del 19-21% nei prossimi 5-10 anni”.

La Stevia, a prima vista potrebbe sembrare costosa. Il costo della Stevia in polvere, sugli scaffali del supermercato ha un costo di circa 120 € al chilo rispetto al prezzo dello zucchero, che è pari a 0,83 € al chilo. Ma Stamatis, afferma che la Stevia è in realtà più economica, essendo 200 volte più dolce dello zucchero. Inoltre, i sostenitori della Stevia affermano che è un prodotto molto ecologico, visto che necessità del 96% in meno di acqua rispetto allo zucchero di canna, e inferiore del 92% rispetto allo zucchero di barbabietola; inoltre, necessita di circa il 20% del terreno necessario per produrre la stessa quantità di dolcificante. 

La Stevia è originaria del Paraguay e del Brasile ed il nome completo della pianta è Stevia Rebaudiana. Le sue proprietà sono note da secoli ai gruppi indigeni, e nella lingua guarani è nota come “kaa he-he”, che tradotto significa erba dolce.

La Stevia in Giappone si iniziò a produrre, su scala commerciale, dal 1971. Negli Stati Uniti e in Europa, il lancio della Stevia fu molto più lento, poiché i regolatori non erano sicuri della sicurezza del prodotto. Infatti, nel 1987, la Food and Drug Administration (FDA) americana, vietò la commercializzazione della Stevia.

La situazione è cambiata dal 2008, da quando la FDA, ha dato la sua approvazione all’estratto di Stevia purificato. La UE, l’Australia e la Nuova Zelanda, dal 2011 hanno seguito l’esempio americano.

Ma nonostante l’approvazione ci sono ancora dibattiti a riguardo. Kimberly Snyder, nutrizionista certificato, afferma che “L’estratto di Stevia, a differenza delle controparti chimiche, come l’aspartame, non forma acido nel corpo, né aumenta le malattie cardiache e le carie, e non ha alcun impatto sui livelli di zucchero nel sangue. Purtroppo, il liquido di Stevia venduto nei negozi di alimentari viene lavorato con additivi, che potrebbero causare gonfiore, diarrea o mal di testa. Un altra problematica è sulla dolcezza, questa caratteristica potrebbe aumentare la voglia di gusti dolci, facendo più male che bene alle persone che sono tendenzialmente portate ad abusarne”.

Andrew Ohmes, afferma che l’uso della Stevia al posto dello zucchero, “consente una significativa diminuzione di apporto calorico”.

Membri della cooperativa Stevia Hellas
La cooperativa Stevia Hellas, beneficia del clima caldo della Grecia.

Tuttavia, la dietologa Rachel Fine, incoraggia l’utilizzo dello zucchero di canna, consigliando ai suoi clienti comunque un utilizzo limitato, ad eccezione delle persone diabetiche, che possono usare la Stevia come alternativa, diminuendo così l’impatto del livello dello zucchero nel sangue.

La Cooperativa Stevia Hellas, in Grecia, punta ad un ulteriore crescita, e Stamatis, dichiara che, “Il nostro prossimo passo è quello di formare una filiera per la produzione di Stevia nei paesi mediterranei, precisamente in Italia, Spagna, Francia e in Portogallo”.
Le piante di Stevia prodotte dalla cooperativa, attualmente sono inviate in Francia, per essere trasformate, e nei prossimi due anni è prevista l’apertura di un secondo impianto di trasformazione nei Balcani. Stamatis, aggiunge che “Noi abbiamo un clima unico per la coltivazione di Stevia”.

Michael Budziszek, esperto di riscaldamento globale e professore associato presso il Johnson and Wales University College of Arts and Sciences, afferma che “anche altri paesi potranno sviluppare un clima adatto per produrre la Stevia, man mano che avranno un clima sempre più tropicale”. 

Nonostante tutto, garantire la crescita della produzione di Stevia non sarà semplice. Ad esempio, nel 2014 la Coca Cola ha lanciato mercato britannico una versione della sua bevanda dolcificata con la Stevia che, però, non ha prodotto molti consensi, al punto da costringere l’azienda a sospenderne la produzione dopo solo tre anni.

La scoperta della civiltà minoica

0
La scoperta della civiltà minoica
Migliori casinò non AAMS in Italia

La ricerca della civiltà minoica, come fu chiamata, inizia con il solito Heinrich Schliemann (1822-1890), lo “scopritore” di Troia, che cercò di comprare un terreno in un sito dove pensava potesse essere la capitale del leggendario re Minosse. Il proprietario si rifiutò di venderglielo e Schliemann dovette arrendersi.

Il solco era però tracciato, infatti circa venti anni dopo, nel 1900, maggiore fortuna arrise ad Arthur Evans (1851-1941) che riuscì a portare alla luce l’altra grande civiltà dell’Età del Bronzo nel Mar Egeo, quella minoica.

La città che scavò a partire dal 1900, oggi è nota con il nome di Cnosso. Evans era il prototipo del gentiluomo vittoriano. Un’immagine lo ritrae durante gli scavi vestito di un abito di lino bianco e di un casco coloniale. Figlio di uno studioso e amministratore del British Museum fu anche un valente numismatico per la cui attività nel 1902 fu premiato con la medaglia della Royal Numismatic Society.

cnosso

Non sappiamo quasi nulla della civiltà minoica

Evans era alla ricerca della città di Cnosso fin da quando, alcuni anni prima, in un mercato di Atene, aveva acquistato dei piccoli oggetti chiamati galattiti che riportavano strane figure ed incisioni. Evans giunse alla conclusione che provenissero da Creta, dalla collina di Kefala, oggi nella periferia della città portuale di Candia (l’antica Iraklio), proprio dove si trovava il terreno che Schliemann aveva cercato inutilmente di comprare.

Evans ebbe maggiore fortuna del suo predecessore: riuscì ad acquistare la collinetta e cominciò a scavare. Sotto il leggero pendio coperto da sottobosco e alberi, la sua squadra ben presto si imbatté nelle rovine di quello che Evans identificò come il palazzo da lui cercato. Consacrò il resto della propria carriera, e quasi tutto il patrimonio di famiglia, a scavare nel sito, pubblicare i risultati e ricostruirne i resti.

La civiltà che aveva edificato quel palazzo era più antica di quella dei micenei ed Evans erroneamente ritenne che i “minoici” (così li definì l’archeologo britannico) avessero conquistato i micenei. Il nome di civiltà minoica fu attribuito da Evans, poiché ancora oggi non sappiamo come le persone che vi appartenevano si autodefinissero, né da dove provenissero.

La civiltà minoica prosperò tra la fine del III e l’inizio del II millennio a.e.v. poi un terribile terremoto colpì Cnosso verso il 1700 a.ev. quasi radendo al suolo la città ma i sopravvissuti si ripresero e ricostruirono il Palazzo.

A quanto pare intorno al 1350 a.e.v. i micenei della Grecia continentale invasero e assoggettarono questa regione, portando con sé un nuovo modo di vivere, una nuova scrittura e uno stile di vita più militarista che durò per circa un secolo e mezzo, finché tutto crollò, poco dopo il 1200 a.e.v., misteriosamente e la civiltà minoica scomparve dalla storia.

Tra i molti misteri rimasti insoluti in questa sensazionale scoperta, l’assenza di fortificazioni murarie è uno dei più importanti. La civiltà minoica era fondata essenzialmente sul mare e probabilmente una flotta poderosa (per l’epoca) assicurava la sua sicurezza. Questo fatto è considerato una possibile spiegazione all’assenza di mura intorno al Palazzo di Cnosso ed agli altri palazzi minori sparsi per l’isola di Creta. Anche considerando questa possibilità, però, non ci sono spiegazioni convincenti sull’assenza totale di opere difensive.

Qualcuno ha ipotizzato che Creta potesse essere governata dalla donne attraverso un matriarcato poco bellicoso che rendeva inutili la costruzione di mura.
E questo ci porta al secondo mistero. Non sappiamo se Cnosso fosse governato da un Re o da una Regina. Oppure da una casta sacerdotale. Nessuno dei ritrovamenti effettuati chiarisce questo aspetto.

Nel Palazzo di Cnosso sono state ritrovate numerose pitture raffiguranti tori o giochi effettuati con questi animali. Pare dunque che i minoici si dedicassero al salto dei tori nel cortile centrale del Palazzo oltre a qualche rituale sempre legato agli stessi animali nel palazzo o nei dintorni.

Queste pitture riportano alla mente il mito greco di Teseo e del Minotauro che tutti conosciamo per averlo studiato a scuola.

L’improvvisa e repentina scomparsa di questa civiltà ha alimentato per secoli la leggenda di Atlantide, il misterioso continente, sede di una civiltà mirabile, citato da Platone nei dialoghi Timeo e Crizia che sarebbe scomparso inghiottito dalle acque.

Oro dal piombo al CERN: l’alchimia nucleare diventa realtà

0
Oro dal piombo al CERN: l'alchimia nucleare diventa realtà
Oro dal piombo al CERN: l'alchimia nucleare diventa realtà
Migliori casinò non AAMS in Italia

Nel cuore pulsante della fisica delle alte energie, all’interno del complesso labirintico del Large Hadron Collider (LHC) del CERN, un risultato scientifico di portata epocale ha scosso le fondamenta della nostra comprensione della materia e delle sue trasformazioni.

Un’antica aspirazione alchemica, inseguita per secoli da menti curiose e avventurose, ha trovato una sua, seppur fugace, realizzazione non nei forni fumosi e tra gli alambicchi degli alchimisti, bensì negli acceleratori di particelle più potenti mai costruiti dall’umanità.

I fisici del CERN, attraverso esperimenti meticolosamente orchestrati e analisi sofisticate, sono riusciti a trasmutare, anche se per un istante infinitesimale, nuclei di piombo in atomi di oro.

Oro dal piombo al CERN: l'alchimia nucleare diventa realtà
Oro dal piombo al CERN: l’alchimia nucleare diventa realtà

La trasmutazione del piombo in oro: un miracolo della fisica moderna al CERN

Il segreto di questa moderna “pietra filosofale” risiede nelle collisioni ad altissima energia di nuclei di piombo, accelerate fino a velocità prossime a quella della luce all’interno dell’anello di 27 chilometri dell’LHC. Questi scontri, che generano una densità di energia e una temperatura inimmaginabili, paragonabili a quelle esistenti frazioni di secondo dopo il Big Bang, innescano processi nucleari di una complessità sbalorditiva.

In queste condizioni estreme, i nuclei di piombo, composti da 82 protoni e un numero variabile di neutroni, si frantumano in un mare di quark e gluoni, le particelle elementari che costituiscono la materia nucleare. Questo stato della materia, noto come plasma di quark e gluoni, è un ambiente primordiale in cui le forze fondamentali della natura si manifestano in modo diretto e intenso.

È proprio all’interno di questo calderone di particelle elementari che, attraverso una serie di interazioni complesse e fluttuazioni quantistiche, si verifica la trasmutazione alchemica. Alcuni dei frammenti nucleari risultanti dalle collisioni, riaggregandosi e riorganizzandosi sotto l’influenza delle forze nucleari, danno origine a nuclei atomici con un numero di protoni diverso da quello del piombo originario.

. In particolare, alcuni di questi nuclei neoformati acquisiscono esattamente 79 protoni nel loro nucleo. Questo numero magico definisce l’elemento oro. Sebbene questi nuclei di oro siano estremamente instabili e decadano in altri elementi in un lasso di tempo brevissimo, la loro formazione rappresenta una prova tangibile della possibilità di trasformare un elemento in un altro attraverso processi fisici ad altissima energia.

Questi esperimenti pionieristici sono condotti nell’ambito della collaborazione ALICE (A Large Ion Collider Experiment), uno dei quattro grandi esperimenti presso l’LHC specificamente progettato per studiare le collisioni di ioni pesanti come il piombo. L’obiettivo primario di ALICE non è certo la produzione di oro su scala industriale, ma piuttosto l’esplorazione delle proprietà fondamentali del plasma di quark e gluoni e la ricostruzione delle condizioni fisiche presenti nei primissimi istanti di vita dell’Universo.

La capacità di osservare la formazione, seppur transitoria, di elementi come l’oro in questi esperimenti fornisce informazioni cruciali sulla nucleosintesi primordiale, ovvero sui processi attraverso i quali i primi elementi chimici si sono formati dopo il Big Bang.

Comprendere come la materia si è organizzata a partire dal brodo primordiale di particelle elementari è una delle sfide più grandi della fisica moderna, e gli esperimenti ALICE al CERN stanno fornendo tasselli fondamentali per risolvere questo affascinante enigma cosmico. La trasmutazione del piombo in oro, quindi, non è solo un trionfo tecnologico, ma una finestra privilegiata sull’alba del nostro Cosmo.

Un’eco del Big Bang: ricreare le condizioni primordiali in laboratorio

Immagina di poter scrutare indietro nel tempo, fino a frazioni infinitesime di secondo dopo il Big Bang. l’Universo primordiale era un ambiente incredibilmente caldo e denso, un vero e proprio “brodo” di particelle elementari in costante interazione.

In questo scenario estremo, le forze fondamentali che oggi conosciamo, come la forza forte e la forza debole, giocavano un ruolo dominante nel plasmare la materia. La nucleosintesi primordiale, ovvero la formazione dei primi nuclei atomici leggeri come l’idrogeno, l’elio e tracce di litio, è avvenuta proprio in questo periodo caotico e dinamico.

Gli esperimenti ALICE, ricreando in miniatura le condizioni di temperatura e densità energetica simili a quelle dell’universo primordiale attraverso le collisioni ultra-relativistiche, ci offrono una sorta di “istantanea” di quel periodo cruciale.

Osservando la formazione di elementi più pesanti, seppur instabili, come l’oro, possiamo ottenere indizi preziosi sui meccanismi attraverso i quali i nuclei atomici si sono aggregati e trasformati nei primi istanti cosmici. È come analizzare le increspature lasciate da un sasso lanciato in uno stagno per dedurre le caratteristiche dell’impatto originario.

Sebbene la nucleosintesi primordiale si concentri principalmente sulla formazione degli elementi più leggeri, comprendere come, in condizioni estreme, nuclei pesanti come il piombo possano temporaneamente trasformarsi in oro ci fornisce informazioni fondamentali sulla stabilità e l’instabilità dei nuclei atomici, sulle forze che li tengono insieme e sui processi che possono indurre la loro trasformazione.

Questi dati sperimentali, raccolti con una precisione sbalorditiva, permettono ai fisici teorici di affinare i modelli che descrivono le interazioni nucleari e di estendere la nostra comprensione della formazione degli elementi ben oltre la fase primordiale dell’Universo.

Inoltre, lo studio del plasma di quark e gluoni, il substrato da cui emergono questi nuclei transitori, ci svela aspetti inediti del comportamento della materia in condizioni estreme, un regime fisico completamente diverso da quello a cui siamo abituati nel nostro mondo quotidiano. Comprendere le proprietà di questo stato primordiale della materia è essenziale per ricostruire la storia termica ed evolutiva del Cosmo.

Il cervello “incarna” la musica: un nuovo studio rivela una connessione fisica

0
Il cervello "incarna" la musica: un nuovo studio rivela una connessione fisica
Il cervello "incarna" la musica: un nuovo studio rivela una connessione fisica
Migliori casinò non AAMS in Italia

La musica ha la straordinaria capacità di indurci a muovere il piede per battere il ritmo, a provare gioia, tristezza o eccitazione, spesso senza una nostra deliberata intenzione cosciente. Questa risposta viscerale al suono organizzato ha a lungo interrogato scienziati e appassionati.

Una nuova e affascinante ricerca offre una prospettiva inedita su questo fenomeno, suggerendo che la nostra reazione alla musica non si limiti a una mera previsione cerebrale degli eventi sonori futuri, ma coinvolga la formazione di veri e propri schemi fisici all’interno dei nostri circuiti neurali.

Il cervello "incarna" la musica: un nuovo studio rivela una connessione fisica
Il cervello “incarna” la musica: un nuovo studio rivela una connessione fisica

Il ritmo inconscio: quando la musica entra nel corpo

Un team internazionale di scienziati, sotto la guida di Edward Large dell’Università del Connecticut, ha compiuto una scoperta fondamentale: le nostre cellule cerebrali si sincronizzano fisicamente con le onde sonore musicali, dando origine a configurazioni stabili che si riverberano in tutto il nostro corpo. Questa scoperta ha portato alla formulazione della teoria della risonanza neurale (NRT), un paradigma che ridefinisce il modo in cui comprendiamo l’elaborazione musicale nel cervello umano.

Contrariamente all’idea prevalente di un cervello che agisce principalmente come un sofisticato sistema predittivo, la NRT propone che l’anticipazione degli eventi musicali non derivi da modelli neurali predittivi astratti, bensì da una vera e propria incarnazione fisica della struttura musicale nelle dinamiche cervello-corpo. In altre parole, i nostri circuiti neurali non si limitano a “prevedere” la prossima nota o il prossimo battito, ma stabiliscono relazioni fisiche dirette con la musica attraverso oscillazioni ritmiche che si allineano in modo sincrono con ciò che percepiamo a livello uditivo.

L’atto apparentemente semplice di battere il piede a tempo di musica, un comportamento così comune e spontaneo, trova una nuova spiegazione alla luce della teoria della risonanza neurale. Questo movimento involontario non è una risposta secondaria a un’analisi cognitiva del ritmo, ma una diretta conseguenza della sincronizzazione delle oscillazioni neurali nel cervello con le frequenze ritmiche della musica. Questi schemi di sincronizzazione, una volta stabiliti a livello cerebrale, si propagano naturalmente e si estendono ai sistemi motori del corpo, manifestandosi in movimenti ritmici come il battere del piede o il canticchiare.

È interessante notare come questa sincronizzazione avvenga a diverse velocità all’interno del cervello, a seconda della caratteristica musicale elaborata. Per quanto riguarda il ritmo, l’elemento pulsante e cadenzato della musica, sono le onde cerebrali più lente a entrare in risonanza con le frequenze ritmiche percepite. Al contrario, l’elaborazione dell’altezza, ovvero delle singole note musicali, coinvolge processi più rapidi che hanno luogo nell’orecchio interno e nel tronco encefalico, evidenziando una complessa orchestrazione di risposte neurali che sottendono la nostra ricca esperienza musicale. La teoria della risonanza neurale ci offre quindi una visione più profonda e integrata di come la musica non sia solo ascoltata, ma sentita e incarnata dal nostro intero essere.

I ritmi fantasma e l’armonia della risonanza neurale

Un aspetto particolarmente affascinante rivelato dalla ricerca sulla risonanza neurale riguarda la nostra percezione dei cosiddetti ritmi “missing pulse“. Questi pattern musicali complessi presentano un’enigmatica assenza di un suono reale alla frequenza fondamentale del battimento. Nonostante questa lacuna sonora, gli ascoltatori non solo percepiscono chiaramente il ritmo sottostante, ma si muovono in sincronia con esso.

La teoria della risonanza neurale offre una spiegazione elegante per questo fenomeno controintuitivo attraverso il concetto di risonanza non lineare. In questo processo, gli oscillatori neurali presenti nel nostro cervello sono in grado di generare frequenze che non sono fisicamente presenti nel segnale musicale originale. In altre parole, il nostro cervello “colma” l’assenza, creando internamente la frequenza ritmica mancante attraverso le proprie dinamiche oscillatori.

La teoria della risonanza neurale non si limita a spiegare la nostra percezione del ritmo, ma offre anche una prospettiva innovativa sul perché alcune combinazioni musicali ci appaiano armoniose e piacevoli, mentre altre risultano dissonanti e sgradevoli. Secondo la NRT, la chiave risiede nella stabilità dei modelli di oscillazione neurale indotti dalle diverse relazioni di frequenza tra le note. Intervalli musicali caratterizzati da semplici rapporti di frequenza, come la quinta giusta, tendono a generare modelli di oscillazione neurale più stabili e coerenti. Questa stabilità interna si traduce nella nostra percezione soggettiva di consonanza e piacevolezza.

Questa stabilità interna si traduce nella nostra percezione soggettiva di consonanza e piacevolezza. Al contrario, combinazioni di frequenze complesse e incommensurabili tendono a indurre modelli di oscillazione neurale meno stabili e più caotici, che vengono percepiti come dissonanza e asprezza. L’armonia, quindi, non sarebbe solo una proprietà acustica, ma una manifestazione della risonanza stabile all’interno dei nostri circuiti neurali.

Se da un lato alcuni aspetti fondamentali della percezione musicale possono essere considerati universali, radicati nella fisica di base del nostro cervello e nella sua capacità di entrare in risonanza con le onde sonore, dall’altro il background culturale gioca un ruolo significativo nel plasmare le nostre preferenze musicali. L’esposizione ripetuta a specifici stili e strutture musicali all’interno di un determinato contesto culturale rafforza particolari connessioni neurali attraverso un processo dinamico denominato “sintonizzazione“.

Questo meccanismo di apprendimento neurale spiega perché persone provenienti da culture diverse sviluppano gusti musicali distinti, pur mantenendo la capacità di riconoscere e processare le strutture musicali di base. Il nostro cervello, in sostanza, si “sintonizza” sulle caratteristiche sonore della musica che ascoltiamo più frequentemente, creando delle vere e proprie impronte neurali che influenzano profondamente le nostre risposte emotive ed estetiche alla musica. La cultura, quindi, modella la nostra esperienza musicale, agendo come un filtro che sintonizza le nostre risposte neurali su specifici paesaggi sonori.

La sincronia anticipatoria tra musicisti

Il modello della risonanza neurale offre una prospettiva illuminante anche sul modo in cui i musicisti interagiscono e si anticipano reciprocamente durante un’esecuzione congiunta. I ricercatori hanno scoperto che i complessi circuiti di feedback presenti all’interno dei sistemi neurali possono innescare un fenomeno di sincronizzazione anticipatoria. Questo meccanismo spiega la sorprendente capacità dei musicisti di sembrare suonare “un istante prima” l’uno dell’altro, pur mantenendo una coordinazione impeccabile e fluida. Questa anticipazione non è una previsione conscia, ma emerge dalle dinamiche interne dei loro sistemi neurali che si sintonizzano reciprocamente in tempo reale.

Gli autori della ricerca sottolineano come l’interazione tra specifiche tipologie di suoni e le dinamiche intrinseche di formazione di pattern all’interno del nostro cervello dia origine a quei modelli di percezione, azione e coordinamento che collettivamente esperiamo come musica. Questo approccio teorico si rivela particolarmente potente in quanto riesce a integrare sia gli elementi universali della musica, presenti in tutte le culture umane, sia le affascinanti variazioni che si riscontrano tra i diversi sistemi musicali del mondo.

Diventa quindi evidente che condividere la musica, in contesti tanto diversi come una grigliata informale in giardino, una festa animata o un viaggio in automobile con l’autoradio a tutto volume, rappresenta un’esperienza profondamente significativa per la nostra specie. In questi momenti di ascolto condiviso, i nostri cervelli si sincronizzano letteralmente, creando schemi neurali condivisi che trascendono le barriere generazionali e le differenze culturali. Quando ci ritroviamo, quasi senza pensarci, a canticchiare lo stesso ritornello o a battere il tempo all’unisono, stiamo vivendo una delle connessioni umane più semplici ma al contempo più potenti e primordiali.

Gli stessi autori riconoscono che l’applicazione dei principi dei sistemi dinamici al complesso campo delle neuroscienze cognitive della musica è ancora un’area di ricerca in evoluzione e in fase di sviluppo. Per consolidare ulteriormente questa promettente teoria, si rende necessaria la raccolta di ulteriori prove empiriche che permettano di confrontare direttamente le previsioni comportamentali e le correlazioni neurali su diverse scale temporali. Inoltre, futuri studi dovranno concentrarsi sulla distinzione tra la teoria della risonanza neurale e altri approcci teorici esistenti, come i modelli di codifica predittiva, al fine di delineare con maggiore precisione i meccanismi sottostanti alla nostra esperienza musicale.

Un’ulteriore direzione di ricerca cruciale sarà l’analisi di corpora musicali interculturali, guidata dalle previsioni dinamiche della NRT, e l’indagine sulle significative variazioni individuali che si riscontrano nella percezione musicale e nelle capacità esecutive. Solo attraverso un’indagine multidisciplinare e rigorosa sarà possibile svelare appieno la complessa e affascinante relazione tra il nostro cervello e il linguaggio universale della musica.

La ricerca è stata pubblicata su Nature Reviews Neuroscience.

Masada, il suicidio di massa degli ebrei avvenne davvero?

0
Masada, il suicidio di massa degli ebrei avvenne davvero?
Masada, il suicidio di massa degli ebrei avvenne davvero?
Migliori casinò non AAMS in Italia

Masada è una spianata lunga quasi un chilometro e mezzo e alta circa 400 metri, all’epoca con mura di cinque metri d’altezza che la racchiudevano, rendendola pressoché inespugnabile, che fu testimone dell’ultima resistenza degli ebrei durante la conquista romana.

Tutto inizia nell’anno 66 dell’era volgare quando gli ebrei dell’odierno Israele insorsero contro l’occupazione romana. La rivolta andò avanti fino al 70 quando i romani conquistarono Gerusalemme radendola quasi completamente al suolo.

Un gruppo di ribelli riuscì a scampare alla distruzione di Gerusalemme fuggendo a Masada: erano i sicarii (da sica, arma simile al pugnale), guidati da un uomo chiamato Eleazar ben Ya’ir. Costoro presero possesso degli edifici fortificati e dei palazzi che Erode aveva fatto erigere come rifugio per sé e la sua famiglia in caso di bisogno.

A rendere ancor più difficile un assedio contribuiva la particolare conformazione geomorfologica della zona: l’unico punto d’accesso infatti era l’impervio sentiero del serpente, così chiamato per i numerosi tornanti che lo rendevano un gravissimo ostacolo per la fanteria.

I romani presero d’assedio questa rocca apparentemente inespugnabile e quello che sappiamo degli avvenimenti che seguirono ce lo racconta Giuseppe Flavio nato Yosef ben Matityahu storico e politico romano di origini ebraiche.

Grazie alla conformazione del territorio, alle opere di fortificazione ed alle enormi cisterne che raccoglievano l’acqua piovana permettendo agli assediati di sopravvivere in un territorio arido e caldissimo, il gruppo di ribelli tenne duro per tre anni, compiendo scorribande nelle aree circostanti per procurarsi il cibo, finché i romani non decisero di piegarne la resistenza e soffocare anche gli ultimi residui di ribellione.

Guidati dal generale Flavio Silla fabbricarono un enorme rampa di accesso, visibile ancora oggi, che permise loro di far avanzare le macchine d’assedio per attaccare le mura della fortezza: un ariete, catapulte per il lancio di pietre e baliste in grado di scagliare enormi frecce.

Scrive Giuseppe Flavio: «Venne fabbricata una torre di sessanta cubiti tutta ricoperta di ferro, dall’alto della quale i romani, tirando con un gran numero di catapulte e baliste, ben presto fecero piazza pulita dei difensori delle mura impedendo a chiunque di affacciarvisi».

Messi alle corde dall’ingegno e dalla potenza di fuoco romana, durante una breve tregua, i 966 giudei di Masada, secondo la cronaca di Giuseppe Flavio, decisero di commettere suicidio di massa per non cadere in mani romane ed essere giustiziati o resi schiavi dal nemico.

Sempre stando a Giuseppe Flavio, il loro leader Eleazar ben Ya’ir chiese a ciascun padre di famiglia di uccidere la propria moglie e i propri figli. Gli uomini poi estrassero a sorte dieci di loro con il compito di porre fine alla vita di tutti gli altri. I dieci rimasti infine ricorsero nuovamente al sorteggio per decidere chi avrebbe ucciso gli altri nove. L’ultimo rimasto si uccise con le proprie mani risultando quindi l’unico a commettere tecnicamente il peccato di suicidio proibito dalla religione ebraica.

Fu così che, quando i romani irruppero nella fortezza, trovarono 960 cadaveri e solamente due donne e cinque bambini vivi che si erano rifugiati in una cisterna sotterranea.

Ad alimentare la leggenda di Masada, così importante per il nazionalismo ebraico, fu Yigaël Yadin (Gerusalemme, 20 marzo1917 – Hadera, 28 giugno1984), archeologo, militare e uomo politico israeliano, e gli scavi che condusse a Masada.

I lavori condotti da Yadin a Masada nell’arco di due campagne sul campo, da ottobre 1963 a maggio 1964 e poi di nuovo da novembre 1964 ad aprile 1965, rappresentano sotto diversi aspetti una pietra miliare per l’archeologia. Ad esempio, Yadin fu il primo ad avvalersi della collaborazione di volontari internazionali. Reclutò aiutanti pubblicando annunci sui giornali, sia in Israele che in Inghilterra, e si ritrovò con volontari provenienti da ventotto paesi diversi.

Yadin con quello che noi oggi chiamiamo un instant book avvalorò la tesi del suicidio degli eroici sicarii, interpretando le centinaia di manufatti ritrovati durante gli scavi in modo da sostenere la versione fornita da Giuseppe Flavio.

Ed è proprio la storia personale di Flavio che avrebbe dovuto mettere sull’avviso Yadin se non fosse stato accecato da un eccessivo amor patrio. Alcuni anni prima degli avvenimenti di Masada, nel 67 e.v. durante le prime fasi dell’insurrezione contro Roma, Giuseppe Flavio o meglio Yosef ben Matityahu era un generale ebreo impegnato nella lotta contro i romani in un sito chiamato Iotapata.

I giudei arroccati a Masada riuscirono a opporre resistenza per quarantasette giorni, ma alla fine il generale e altri quaranta superstiti si rifugiarono in una grotta, dove decisero di darsi la morte uccidendosi l’un l’altro, pur di non cadere prigionieri. Quando ormai erano rimasti in vita solo lui e un altro uomo, convinse quest’ultimo a consegnarsi agli invasori insieme a lui.

E’ evidente quindi che Flavio ripropone una sua esperienza personale nella costruzione del mito di Masada, probabilmente per ordine degli stessi romani che vollero edulcorare quello che era verosimilmente successo, ovvero che infrante finalmente le mura grazie alla costruzione della rampa di accesso e penetrati nella fortezza, avevano sfogato la frustrazione di tre anni di resistenza massacrando tutti i difensori, donne e bambini compresi.

E se ci fosse più di un’energia oscura?

0
E se ci fosse più di un'energia oscura?
Migliori casinò non AAMS in Italia

Non sappiamo esattamente cosa sia l’energia oscura, una forza che sarebbe responsabile dell’espansione accelerata dell’universo.

Molti teorici preferiscono definirla come il risultato dell’azione di un misterioso campo quantistico che sarebbe responsabile di questa misteriosa energia, anche se è difficile conciliare queste idee con le intuizioni di un’altra teoria che cerca di spiegare l’universo, la teoria delle stringhe.

In ogni caso, non dobbiamo scoraggiarci, infatti una nuova ricerca propone una soluzione radicale: l’energia oscura potrebbe avere più di un agente cosmologico che ne spieghi la natura.

La miscela di questi agenti avrebbe strani effetti nel nostro universo, rendendola in futuro potenzialmente rilevabile.

Un centinaio di anni fa abbiamo capito di vivere in un universo in espansione. Grazie alle osservazioni di Edwin Hubble abbiamo appreso che tutte le galassie si allontanano dalla nostra e l’una dalle altre a velocità crescente tanto più sono lontane. Ma non basta, nuove misurazioni ci hanno mostrato qualcosa di straordinario, il nostro universo non solo si espande ma lo fa in maniera accelerata. Negli ultimi 5 miliardi di anni, il tasso di espansione del nostro universo è aumentato.

Non sappiamo cosa stia causando l’espansione accelerata. Lo abbiamo notato per la prima volta circa 20 anni fa quando studiando supernove distanti, e da allora un
crescente numero di misurazioni indipendenti basate sul fondo cosmico a microonde, le oscillazioni acustiche barioniche, i vuoti cosmici e altro ancora hanno confermato che il nostro universo si espande in maniera accelerata.

Non sappiamo spiegare l’espansione accelerata, e non sappiamo cosa sia l’energia oscura, quel qualcosa che apparentemente fa espandere sempre più velocemente il nostro universo. Nel corso degli anni i teorici hanno cercato di spiegare l’energia oscura cercando di capire quale processo fisico in natura la produce. Ci deve essere un qualche meccanismo che ne spiega la genesi, anche se le ricerche per ora non hanno ancora chiarito il mistero.

Una delle migliori spiegazioni è che nell’universo esiste un campo quantistico responsabile dell’energia oscura. I campi quantistici sono piuttosto utili: assorbono ogni pezzetto di spazio-tempo e sono responsabili della generazione delle forze e delle particelle che compongono tutto ciò che ci circonda, per questo non è così pazzesco immaginare che ci sia un nuovo campo quantistico che ha le proprietà giuste per innescare un’espansione accelerata.

Quindi, a produrre la misteriosa energia oscura potrebbe essere un qualche campo quantistico che permea completamente lo spaziotempo. Questa ipotesi sembra semplice, ma se si prende in considerazione la teoria delle stringhe si palesano all’evidenza alcuni aspetti negativi.

La teoria delle stringhe è uno dei tentativi di riunire sotto un’unica entità tutte le forze della natura. Nella teoria delle stringhe, ogni particella e ogni forza è una manifestazione di minuscole stringhe vibranti. Ma per spiegare tutto ciò che osserviamo dell’universo fisico, queste stringhe non possono semplicemente vibrare in tre dimensioni. Hanno bisogno di più dimensioni extra tutte minuscole e ripiegate su se stesse. Tutto questo accade a una scala microscopica, ecco perché non l’abbiamo ancora notato.

Non abbiamo idea di come queste dimensioni extra siano ripiegate su se stesse. Potrebbero esserci fino a 10 ^ 200 possibili configurazioni, e ogni configurazione di dimensioni raggomitolate fornisce un nuovo insieme di fisica. Poiché viviamo in un solo universo con un insieme di fisica, solo una di queste configurazioni può essere la nostra. Ma non sappiamo quale sia. Un problema: sembra che gli universi che consentono l’energia oscura causata da un campo quantistico non siano compatibili con alcune cose che sappiamo sulla teoria delle stringhe.

L’enigma si può risolvere, come? Se l’energia oscura esiste allora è la teoria delle stringhe a non avere consistenza nel nostro universo. Come risolvere questo dilemma? Forse non stiamo pensando all’energia oscura nel modo corretto, come affermato da un recente articolo apparso sul giornale di prestampa arVix. Forse non esiste solo un campo quantistico responsabile dell’energia oscura, ma diversi.

Consentendo a più campi quantistici di generare energia oscura, potrebbe essere possibile che la teoria delle stringhe sia ancora rilevante nel nostro universo, poiché questi modelli potrebbero non essere bloccati nella “palude”. Ma questo significa che dobbiamo trovare le prove che ci sia più di un agente responsabile dell’energia oscura.

Si scopre che in questi modelli che generano energia oscura, fanno si che la stessa energia oscura si accumuli su se stessa, il che significa che puoi viaggiare per l’universo e trovare “macchie” di energia oscura inferiore alla media o superiore alla media. In totale, in tutto il cosmo, l’effetto su larga scala è sempre lo stesso (vale a dire, espansione accelerata), ma un eccesso di energia oscura in un punto o un deficit in un altro potrebbero influenzare il modo in cui le strutture più grandi dell’universo, come ammassi di galassie e grandi vuoti cosmici, crescono ed evolvono.

Non abbiamo ancora la sensibilità per misurare queste differenze di energia oscura, ma esperimenti futuri come il Nancy Grace Roman Space Telescope della NASA potrebbero fornire alcune intuizioni, aiutandoci a determinare se viviamo davvero nella palude o no.

Il cervello umano rimodella la visione: il ruolo interessante del feedback

0
Il cervello umano rimodella la visione: il ruolo interessante del feedback
Il cervello umano rimodella la visione: il ruolo interessante del feedback
Migliori casinò non AAMS in Italia

Fin dal primo istante in cui i nostri occhi si aprono al mondo, il cervello inizia un’incessante attività di costruzione. Esso crea rappresentazioni interne dell’ambiente che ci circonda, assemblando attivamente i frammenti di una scena in oggetti che possiamo riconoscere. Questo straordinario processo di integrazione percettiva è orchestrato dai neuroni specializzati che risiedono nella corteccia visiva. In particolare, questo flusso di elaborazione si snoda lungo la via corticale visiva ventrale, un percorso che si estende dalla corteccia visiva primaria, situata nella parte posteriore del nostro cervello, fino ai lobi temporali.

Il cervello umano rimodella la visione: il ruolo interessante del feedback
Il cervello umano rimodella la visione: il ruolo interessante del feedback

Cervello: l’importanza cruciale del feedback

Per lungo tempo, la comprensione dominante del funzionamento di questa via visiva ha posto l’accento su un modello gerarchico e unidirezionale, il cosiddetto flusso “feedforward“. Secondo questa prospettiva, neuroni specifici, disposti lungo il percorso, sarebbero deputati all’elaborazione di particolari tipi di informazioni, in relazione alla loro posizione nella gerarchia corticale. Il flusso principale di informazioni visive era quindi concepito come ascendente, dalle aree corticali più “basse” a quelle più “alte“.

La ricerca attuale sta gettando nuova luce sul ruolo tutt’altro che secondario delle connessioni corticali che procedono in direzione opposta, un fenomeno noto come “feedback“. Le innovative indagini condotte nel laboratorio di Charles D. Gilbert presso la Rockefeller University stanno rivelando come questo flusso controcorrente svolga una funzione essenziale nel nostro modo di percepire il mondo.

Come dimostrato dal team di Gilbert in un recente studio, questo flusso di informazioni “dall’alto verso il basso” trasporta segnali attraverso le diverse aree corticali, segnali che sono profondamente influenzati dalle nostre esperienze passate con gli oggetti. Una delle conseguenze più significative di questo flusso bidirezionale è la rivelazione che i neuroni coinvolti in questo processo non possiedono una capacità di risposta fissa e immutabile.

Al contrario, essi dimostrano una notevole capacità di adattamento, modificando la loro risposta momento per momento in base alle informazioni che ricevono: “Già nelle prime fasi della percezione degli oggetti, i neuroni si dimostrano sensibili a stimoli visivi di una complessità ben maggiore di quanto si pensasse in precedenza, e questa sofisticata capacità è alimentata dal feedback proveniente dalle aree corticali superiori“, sottolinea Gilbert, direttore del Laboratorio di neurobiologia.

Il laboratorio di Gilbert si dedica da anni allo studio dei meccanismi fondamentali attraverso i quali le informazioni vengono rappresentate nel cervello, concentrandosi in particolare sui circuiti neurali che sottendono la percezione visiva e l’apprendimento percettivo all’interno della corteccia visiva. La visione tradizionale ipotizzava che i neuroni nelle prime fasi dell’elaborazione fossero in grado di percepire unicamente informazioni semplici, come un segmento di linea, e che la complessità delle informazioni elaborate aumentasse progressivamente salendo nella gerarchia corticale, fino a raggiungere neuroni che rispondevano esclusivamente a configurazioni molto specifiche.

I risultati precedenti ottenuti dal laboratorio di Gilbert suggeriscono che questa concezione potrebbe essere inadeguata. Il suo gruppo ha infatti scoperto che la corteccia visiva possiede una notevole capacità di modificare le proprie proprietà funzionali e i propri circuiti, una caratteristica nota come plasticità. Inoltre, nel corso della sua collaborazione con il collega (e premio Nobel) Torsten N. Wiesel, Gilbert ha identificato connessioni orizzontali a lungo raggio all’interno dei circuiti corticali, che permettono ai neuroni di collegare frammenti di informazione provenienti da aree del campo visivo molto più estese di quanto si ritenesse possibile.

Egli ha anche documentato la capacità dei neuroni di modulare i propri input, alternando tra quelli rilevanti per un determinato compito e quelli irrilevanti, evidenziando ulteriormente la flessibilità delle loro proprietà funzionali: “Per il nostro studio attuale, il nostro obiettivo primario era quello di accertare se queste notevoli capacità rappresentino una componente intrinseca del nostro normale processo di riconoscimento degli oggetti“, conclude Gilbert, aprendo nuove prospettive sulla dinamica e la complessità della percezione visiva.

Protocollo sperimentale e monitoraggio dell’attività cerebrale

Per approfondire i meccanismi neurali sottostanti al riconoscimento degli oggetti, il laboratorio di Gilbert ha condotto uno studio pluriennale su una coppia di macachi meticolosamente addestrati. L’addestramento consisteva nel riconoscere una vasta gamma di oggetti, alcuni familiari e altri nuovi per gli animali, tra cui frutta, verdura, utensili e macchinari. Durante la fase di apprendimento, i ricercatori hanno impiegato la risonanza magnetica funzionale (fMRI) per monitorare l’attività cerebrale dei primati.

Questa tecnica avanzata ha permesso di identificare con precisione le regioni cerebrali che mostravano una risposta significativa agli stimoli visivi presentati. È importante notare che questa metodologia era stata precedentemente sviluppata da Winrich Freiwald, un collaboratore di Gilbert presso la Rockefeller University, che l’aveva utilizzata con successo per localizzare le aree cerebrali specializzate nell’elaborazione dei volti.

Successivamente, i ricercatori hanno impiantato sofisticate serie di elettrodi, consentendo loro di registrare l’attività elettrica delle singole cellule nervose mentre agli animali venivano mostrate le immagini degli oggetti con cui avevano familiarizzato durante l’addestramento. In alcune prove sperimentali, veniva presentata l’immagine completa dell’oggetto, mentre in altre venivano mostrate versioni parziali o ritagliate. Dopo la presentazione dello stimolo target, agli animali venivano mostrati diversi stimoli visivi e il loro compito consisteva nell’indicare se avessero individuato una corrispondenza con l’oggetto originale precedentemente mostrato.

“Questi compiti sono definiti di abbinamento ritardato al campione poiché intercorre un intervallo di tempo tra la presentazione di un oggetto come indizio e la successiva presentazione di un secondo oggetto, o di una sua parte, rispetto al quale gli animali sono addestrati a segnalare se corrisponde all’indizio iniziale“, chiarisce Gilbert: “Durante l’analisi dei diversi stimoli visivi alla ricerca della corrispondenza, gli animali devono necessariamente utilizzare la loro memoria di lavoro per mantenere attiva nella mente l’immagine originale“.

Le osservazioni dei ricercatori hanno rivelato un’affascinante plasticità nella risposta neuronale. Essi hanno scoperto che, all’interno di una serie di bersagli visivi, un singolo neurone poteva mostrare una reattività maggiore a un determinato bersaglio, mentre in presenza di un altro stimolo, la sua reattività si spostava verso un bersaglio differente: “Abbiamo constatato che questi neuroni operano come processori adattivi, capaci di modificarsi continuamente e di assumere funzioni diverse, in modo appropriato al contesto comportamentale immediato“, afferma Gilbert.

Un’altra scoperta significativa ha riguardato i neuroni situati nelle fasi iniziali del percorso visivo, che tradizionalmente si riteneva fossero limitati alla risposta a informazioni visive elementari. Contrariamente a questa ipotesi, i risultati hanno dimostrato che “questi neuroni sono sensibili a stimoli visivi di una complessità ben maggiore di quanto si pensasse in precedenza“, precisa Gilbert: “Non sembra esserci una differenza così marcata in termini di grado di complessità rappresentata tra le aree corticali precoci e le aree corticali superiori come si ipotizzava in passato”.

Questi risultati convergono nel supportare quella che Gilbert descrive come una nuova prospettiva sull’elaborazione corticale: i neuroni adulti non possiedono proprietà funzionali fisse e immutabili, ma sono invece dinamicamente regolati, modificando le loro specificità in risposta alle continue variazioni dell’esperienza sensoriale.

L’analisi dell’attività corticale ha inoltre evidenziato un potenziale ruolo funzionale cruciale delle connessioni di feedback reciproco nel processo di riconoscimento degli oggetti. In questo modello, il flusso di informazioni dalle aree corticali superiori verso quelle inferiori contribuisce in modo significativo alle loro capacità dinamiche.

Abbiamo scoperto che queste cosiddette connessioni di feedback ‘dall’alto verso il basso’ trasmettono informazioni provenienti da aree della corteccia visiva che rappresentano conoscenze precedentemente acquisite sulla natura e l’identità degli oggetti, attraverso l’esperienza e il contesto comportamentale“, spiega Gilbert. In un certo senso, le aree corticali di ordine superiore inviano un’istruzione alle aree inferiori per eseguire un calcolo specifico, e il segnale di ritorno, il segnale feedforward, rappresenta il risultato di quel calcolo.

È probabile che queste intricate interazioni siano costantemente in atto mentre riconosciamo un oggetto e, in generale, mentre attribuiamo un significato visivo a ciò che ci circonda“, conclude Gilbert, sottolineando la natura dinamica e collaborativa dei processi neurali coinvolti nella nostra percezione del mondo.

Indagine sull’autismo attraverso modelli animali e neuroimaging avanzato

Le scoperte del laboratorio di Gilbert si inseriscono in un contesto di crescente consapevolezza riguardo all’importanza e alla diffusione del flusso di informazioni di feedback all’interno della corteccia visiva, con potenziali implicazioni che si estendono ben oltre questo sistema sensoriale. “Ritengo che le interazioni dall’alto verso il basso siano di importanza cruciale per l’intera gamma delle funzioni cerebrali, inclusi gli altri sensi, il controllo motorio e le funzioni cognitive di ordine superiore. Pertanto, una comprensione approfondita delle basi cellulari e circuitali di queste interazioni potrebbe ampliare significativamente la nostra conoscenza dei meccanismi che sottendono i disturbi cerebrali“, afferma con convinzione Gilbert.

In linea con questa prospettiva, il laboratorio di Gilbert sta intraprendendo nuove direzioni di ricerca, focalizzandosi sullo studio di modelli animali di autismo sia a livello comportamentale che di imaging cerebrale. Will Snyder, un ricercatore specializzato all’interno del laboratorio, condurrà approfondite analisi sulle differenze percettive che emergono tra topi modello di autismo e i loro omologhi selvatici.

Il laboratorio si avvarrà delle tecnologie di neuroimaging altamente avanzate dell’Elizabeth R. Miller Brain Observatory, un centro di ricerca interdisciplinare situato all’interno del campus del Rockefeller Center, per osservare vaste popolazioni neuronali nel cervello degli animali mentre sono impegnati in comportamenti naturali: “Il nostro obiettivo primario è quello di accertare se sia possibile identificare eventuali differenze percettive significative tra questi due gruppi e, parallelamente, di comprendere il funzionamento specifico dei circuiti corticali che potrebbero essere alla base di tali divergenze“, conclude Gilbert, delineando le ambiziose prospettive future della sua ricerca.

Lo studio è stato pubblicato su PNAS.