domenica, Aprile 27, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 13

Universo in espansione: potremmo essere in una grande bolla

0
Universo in espansione: potremmo essere in una grande bolla
Universo in espansione: potremmo essere in una grande bolla
Migliori casinò non AAMS in Italia

La Terra, il sistema solare, l’intera Via Lattea e le poche migliaia di galassie più vicine a noi, si muoverebbero, all’interno dell’universo in espansione, in una vasta “bolla” che ha un diametro di 250 milioni di anni luce, dove la densità media della materia è la metà più grande rispetto al resto dell’universo.

Questa è l’ipotesi avanzata da un fisico teorico dell’Università di Ginevra (UNIGE) per risolvere un enigma che divide la comunità scientifica da un decennio: a che velocità si muove l’espansione dell’universo?

L’universo si sta espandendo da quando il Big Bang si è verificato 13,8 miliardi di anni fa, teoria sviluppata per la prima volta dal canonico e fisico belga Georges Lemaître (1894-1966), e dimostrata per la prima volta da Edwin Hubble (1889-1953). Nel 1929 l’astronomo americano scoprì che ogni galassia si allontana da noi e che le galassie più distanti si stanno muovendo più rapidamente.

Ciò suggerisce che c’era un tempo, in passato, in cui tutte le galassie si trovavano nello stesso punto, un tempo che può corrispondere solo al Big Bang. Questa ricerca ha dato origine alla legge di Hubble-Lemaître, inclusa la costante di Hubble (H0), che indica il tasso di espansione dell’universo. Le migliori stime di H0 attualmente si aggirano intorno a 70 (km / s) / Mpc (il che significa che l’universo si sta espandendo di 70 chilometri al secondo più rapidamente ogni 3,26 milioni di anni luce).

Supernovae sporadiche

Per capire il tasso di espansione dell’universo si usano principalmente due metodi: il primo riguarda il fondo cosmico a microonde: questa è la radiazione a microonde che ci viene da ogni parte, emessa nel momento in cui l’universo è diventato abbastanza freddo da consentire alla luce di circolare liberamente (circa 370.000 anni dopo il Big Bang).

Utilizzando i dati precisi forniti dalla missione spaziale Planck e dato il fatto che l’universo è omogeneo e isotropico, si ottiene un valore di 67,4 per H0 usando la teoria della relatività generale di Einstein.

Il secondo metodo di calcolo si basa sulle supernovae che appaiono sporadicamente in galassie distanti. Questi eventi molto luminosi forniscono all’osservatore distanze molto precise, un approccio che ha permesso di determinare un valore per H0 di 74.

Lucas Lombriser, professore presso il Dipartimento di Fisica teorica della Facoltà di Scienze dell’UNIGE, spiega: “Questi due valori sono diventati sempre più precisi durante gli anni, pur rimanendo diversi l’uno dall’altro. Non ci è voluto molto per scatenare una controversia scientifica e persino per suscitare l’eccitante speranza che forse stessimo affrontando una “nuova fisica“.

Per ridurre il divario, il professor Lombriser ha abbracciato l’idea che l’universo non sia così omogeneo come si è sempre sostenuto, un’ipotesi che può sembrare ovvia su scale relativamente modeste. Non c’è dubbio che la materia sia distribuita diversamente all’interno di una galassia rispetto all’esterno. È più difficile, tuttavia, immaginare fluttuazioni della densità media della materia calcolata su volumi migliaia di volte più grandi di una galassia.

La “bolla di Hubble”

Se fossimo in una sorta di gigantesca bolla“, continua il professor Lombriser, “dove la densità della materia è significativamente inferiore alla densità nota per l’intero universo, questo avrebbe conseguenze sulle distanze delle supernovae e, in definitiva, sulla determinazione di H0“.

Sarebbe necessario che la “bolla di Hubble” fosse abbastanza grande da includere la galassia che serve da riferimento per misurare le distanze. Stabilendo un diametro di 250 milioni di anni luce per questa bolla, il fisico ha calcolato che se la densità della materia all’interno fosse inferiore del 50% rispetto al resto dell’universo, si otterrebbe un nuovo valore per la costante di Hubble, che sarebbe quindi d’accordo con quello ottenuto usando lo sfondo cosmico a microonde.

La probabilità che ci sia una tale fluttuazione su questa scala è 1 su 20 a 1 su 5“, afferma il professor Lombriser, “il che significa che non è una fantasia di un teorico. Ci sono molte regioni come la nostra nel vasto universo“.

Fonte: Physyc Letter B

Interfaccia cervello-computer: un nuovo orizzonte per la comunicazione dopo un ictus

0
Interfaccia cervello-computer: un nuovo orizzonte per la comunicazione dopo un ictus
Interfaccia cervello-computer: un nuovo orizzonte per la comunicazione dopo un ictus
Migliori casinò non AAMS in Italia

Un traguardo straordinario è stato raggiunto nel campo delle neuroscienze e della tecnologia assistiva: una donna, colpita da un ictus al tronco encefalico quasi vent’anni fa e privata della capacità di parlare, ha riacquistato la possibilità di esprimersi verbalmente in tempo reale. Questo risultato è stato ottenuto grazie a un innovativo sistema di interfaccia cervello-computer (BCI), sviluppato da ricercatori negli Stati Uniti, che analizza l’attività cerebrale della paziente e la traduce in parole sintetizzate.

Interfaccia cervello-computer: un nuovo orizzonte per la comunicazione dopo un ictus
Interfaccia cervello-computer: un nuovo orizzonte per la comunicazione dopo un ictus

Una svolta nella comunicazione grazie all’interfaccia cervello-computer

La capacità di comunicare attraverso la parola è una funzione fondamentale, spesso data per scontata. Tuttavia, per chi ha subito gravi danni neurologici, come ictus o sclerosi laterale amiotrofica (SLA), questa possibilità può essere irrimediabilmente compromessa. Le tecnologie di interfaccia cervello-computer rappresentano una speranza concreta per queste persone, offrendo loro la possibilità di comunicare nuovamente con il mondo esterno.

I precedenti sistemi di interfaccia cervello-computer presentavano un ritardo nella traduzione dei pensieri in parole, rendendo la comunicazione faticosa e poco naturale. Il nuovo sistema sviluppato dai ricercatori americani ha superato questo ostacolo, analizzando l’attività cerebrale in incrementi di soli 80 millisecondi e traducendola in una voce sintetizzata in tempo reale. Questo progresso rappresenta una svolta significativa, in quanto permette una comunicazione più fluida e naturale.

Il sistema si basa sull’impianto di elettrodi nel cervello della paziente, in grado di rilevare l’attività neurale associata alla produzione del linguaggio. I segnali elettrici vengono quindi elaborati da un software sofisticato, che li traduce in fonemi e parole. Infine, un sintetizzatore vocale riproduce le parole in forma udibile.

Il problema della latenza

I sistemi di interfaccia cervello-computer rappresentano una frontiera tecnologica promettente per restituire la capacità di comunicare a chi l’ha persa. Tuttavia, i metodi esistenti presentano ancora delle limitazioni significative che ostacolano una comunicazione fluida e naturale.

Uno dei principali ostacoli è la latenza, ovvero il ritardo tra il pensiero e la sua traduzione in parole. La maggior parte dei sistemi interfaccia cervello-computer richiede l’analisi di interi blocchi di testo prima di poter decifrare il significato, il che allunga notevolmente i tempi di risposta. Questo ritardo non solo rende la comunicazione innaturale, ma può anche generare frustrazione e disagio nell’utente. Come hanno sottolineato i ricercatori dell’Università della California di Berkeley e San Francisco: “Migliorare la latenza della sintesi vocale e la velocità di decodifica è essenziale per una conversazione dinamica e una comunicazione fluente”.

Oltre alla latenza nella decodifica, anche la sintesi vocale richiede tempo per essere riprodotta e compresa. Questo ulteriore ritardo contribuisce a rendere la comunicazione ancora più lenta e faticosa. Il team di ricerca guidato dall’ingegnere informatico Kaylo Littlejohn dell’Università della California, Berkeley, sta lavorando per ridurre al minimo questi ritardi, al fine di rendere la comunicazione tramite interfaccia cervello-computer più simile a una conversazione normale.

Un’altra sfida importante è rappresentata dalla necessità di addestrare il sistema interfaccia cervello-computer con i dati vocali dell’utente. La maggior parte dei metodi esistenti si basa sull’addestramento dell’interfaccia attraverso l’esecuzione di movimenti vocali espliciti. Tuttavia, per le persone che hanno perso la capacità di parlare da tempo o che hanno sempre avuto difficoltà, fornire dati sufficienti per l’addestramento può essere estremamente difficile. Questo problema richiede lo sviluppo di nuove tecniche di addestramento che non dipendano esclusivamente dall’esecuzione di movimenti vocali.

L’obiettivo è quello di sviluppare sistemi che consentano una comunicazione più naturale e intuitiva, con tempi di risposta minimi e una sintesi vocale di alta qualità. Per raggiungere questo obiettivo, è necessario superare gli ostacoli della latenza, della sintesi vocale e dell’addestramento personalizzato.

Superare gli ostacoli: un nuovo approccio di interfaccia cervello-computer

Per affrontare le sfide della latenza e della necessità di addestramento personalizzato, il team di ricerca ha adottato un approccio innovativo. Hanno addestrato una rete neurale flessibile e basata sull’apprendimento profondo sull’attività della corteccia sensomotoria di una partecipante di 47 anni, mentre lei “pronunciava” silenziosamente 100 frasi uniche da un vocabolario di poco più di 1.000 parole. Inoltre, hanno utilizzato una forma di comunicazione assistita basata su 50 frasi che utilizzano un insieme più ristretto di parole.

A differenza dei metodi precedenti, questo processo non richiedeva che la partecipante tentasse di vocalizzare, ma solo di pensare alle frasi nella sua mente. La decodifica da parte del sistema di entrambi i metodi di comunicazione è stata significativa, con un numero medio di parole al minuto tradotte quasi il doppio rispetto ai metodi precedenti. L’uso di un metodo predittivo in grado di interpretare continuamente al volo ha permesso al discorso della partecipante di fluire in modo molto più naturale, 8 volte più veloce rispetto ad altri metodi.

Grazie a un programma di sintesi vocale basato su registrazioni precedenti del suo discorso, la voce sintetizzata dal sistema sembrava persino la sua. Inoltre, eseguendo il processo offline, senza limitazioni di tempo, il team ha dimostrato che la sua strategia poteva persino interpretare segnali neurali che rappresentavano parole su cui non era stata deliberatamente addestrata.

Nonostante i risultati promettenti, i ricercatori hanno sottolineato che c’è ancora molto spazio per miglioramenti prima che il metodo possa essere considerato clinicamente valido. Sebbene il discorso fosse intelligibile, era ben al di sotto dei metodi che decodificano il testo. Considerando i progressi compiuti dalla tecnologia in pochi anni, c’è motivo di essere ottimisti sul fatto che anche chi non ha voce potrebbe presto comunicare liberamente grazie all’interfaccia cervello-computer.

La ricerca è stata pubblicata su Nature Neuroscience.

Marte: Curiosity l’ha immortalato come non l’hai mai visto – video

0
Marte: scoperte 2 strutture nascoste sotto il suo oceano
Migliori casinò non AAMS in Italia

L’immaginazione umana è da sempre catturata dal fascino di Marte, il Pianeta Rosso che brilla nel cielo notturno come un faro di mistero e promessa. Mentre l’ambizione di un viaggio umano verso questo mondo alieno si fa sempre più concreta, le immagini che giungono dai rover esplorativi ci offrono uno sguardo privilegiato sulla sua superficie, alimentando la nostra sete di conoscenza.

Marte: Curiosity l'ha immortalato come non l'hai mai visto - video
Marte: Curiosity l’ha immortalato come non l’hai mai visto – video

La magia di Marte: un viaggio visivo tra le dune rosse

Un recente video, che ritrae le sinuose forme delle dune marziane, ha scatenato un’ondata di stupore e ammirazione sui social media. Gli utenti di Reddit, in particolare, hanno espresso il loro incanto di fronte a queste immagini mozzafiato, catturate dal rover Curiosity della NASA nel dicembre 2015, nella regione delle dune di Namib, all’interno del campo di dune di Bagnold. La nitidezza e la precisione di queste immagini, pubblicate dalla rivista Cosmos, testimoniano l’eccezionale progresso tecnologico che ha permesso all’umanità di esplorare un mondo così distante.

Il commento di un utente, che ha osservato la sfilata dei pianeti nel cielo notturno, sottolinea il contrasto tra la vastità dell’Universo e la precisione delle immagini provenienti da Marte. Nonostante la sua apparente piccolezza nel firmamento, il Pianeta Rosso si rivela un mondo ricco di dettagli e meraviglie, grazie all’instancabile lavoro dei rover che ne esplorano la superficie.

Mentre le immagini di Marte ci svelano un paesaggio alieno di straordinaria bellezza, un interrogativo persiste sulla Terra: come possiamo comprendere appieno un mondo così diverso dal nostro? Le dune marziane, con le loro forme sinuose e la loro composizione misteriosa, ci invitano a riflettere sulla complessità dei processi geologici che hanno plasmato questo pianeta.

L’entusiasmo suscitato da queste immagini testimonia il desiderio innato dell’umanità di esplorare l’ignoto. Mentre ci avviciniamo all’obiettivo di un viaggio umano sul suolo marziano, le immagini e i dati raccolti dai rover ci offrono una base solida per comprendere questo mondo alieno e preparare il terreno per le future missioni.

La tecnologia spaziale: un occhio diverso sulle dune marziane

Mentre la meraviglia per le immagini marziane è condivisa da molti, un’osservazione importante emerge: le telecamere e le tecnologie utilizzate dalle agenzie spaziali per l’esplorazione non sono paragonabili a quelle delle aziende commerciali. Questa differenza è fondamentale per comprendere la qualità e la precisione delle immagini che ci giungono da Marte.

Le agenzie spaziali investono ingenti risorse nello sviluppo di tecnologie all’avanguardia, progettate per resistere alle condizioni estreme dello spazio e per catturare immagini di altissima qualità. Le telecamere dei rover marziani, ad esempio, sono progettate per funzionare in ambienti con temperature estreme, radiazioni elevate e polvere fine.

La tecnologia spaziale non si limita a catturare immagini spettacolari, ma rappresenta un vero e proprio laboratorio mobile inviato su Marte. I rover marziani sono equipaggiati con una suite di strumenti scientifici avanzati, progettati per compiere analisi dettagliate e approfondite del Pianeta Rosso

L’analisi della composizione del suolo marziano rappresenta un aspetto cruciale dell’esplorazione del Pianeta Rosso. Attraverso l’impiego di sofisticati spettrometri di massa e strumenti di analisi chimica, gli scienziati sono in grado di identificare gli elementi e i composti presenti nel suolo, svelando così la sua storia geologica e la presenza di minerali.

Per ottenere informazioni ancora più dettagliate, i rover sono dotati di trapani e strumenti di campionamento che raccolgono campioni di roccia e suolo. Questi campioni vengono poi sottoposti ad analisi approfondite, con l’obiettivo di individuare tracce di antiche forme di vita o di sostanze organiche, elementi fondamentali per comprendere il potenziale abitativo del pianeta.

La valutazione del potenziale abitativo di Marte si fonda su due pilastri fondamentali: la presenza di acqua e l’analisi dell’atmosfera. La rilevazione di acqua, anche allo stato di ghiaccio, costituisce un indicatore cruciale, poiché l’acqua è essenziale per la vita come la conosciamo. Parallelamente, l’analisi dell’atmosfera marziana fornisce informazioni preziose sulla presenza di gas vitali, come il metano, e sulla capacità dell’atmosfera di proteggere il pianeta dalle radiazioni solari nocive. Questi dati, combinati, permettono agli scienziati di formulare ipotesi sulla possibilità che la vita, passata o presente, possa esistere o essere esistita sul Pianeta Rosso.

La sfida della colonizzazione

Nonostante le immagini mozzafiato, Marte si rivela un ambiente estremamente inospitale per la vita umana. La rarefatta atmosfera marziana, composta principalmente da anidride carbonica, offre una protezione minima dalle radiazioni cosmiche, esponendo gli astronauti a rischi significativi per la salute. Le temperature estreme, le tempeste di polvere e la mancanza di acqua liquida sulla superficie rappresentano ulteriori ostacoli alla colonizzazione.

La colonizzazione richiederebbe lo sviluppo di tecnologie avanzate per la creazione di habitat autosufficienti, la produzione di risorse locali e la protezione dalle radiazioni. La costruzione di infrastrutture, il trasporto di materiali e la gestione dei rifiuti rappresentano sfide logistiche e tecniche di enorme complessità.

L’ipotesi di colonizzare Giove, menzionata in tono scherzoso, si rivela del tutto impraticabile. Giove è un gigante gassoso, privo di una superficie solida su cui atterrare. Le sue intense radiazioni e l’atmosfera turbolenta lo rendono un ambiente estremamente ostile per la vita. Le lune di Giove, come Europa, potrebbero offrire alcune possibilità di esplorazione, ma la colonizzazione umana rimane un obiettivo lontano.

L’esplorazione di Marte continua a rappresentare un obiettivo ambizioso per l’umanità. Le tecnologie sviluppate per l’esplorazione spaziale potrebbero avere applicazioni utili sulla Terra, contribuendo al progresso scientifico e tecnologico. La ricerca di forme di vita extraterrestri e la comprensione della sua storia geologica potrebbero fornire informazioni preziose sull’origine e l’evoluzione della vita nell’Universo.

Cervello umano: un nuovo studio riscrive la storia dell’evoluzione

0
Cervello umano: un nuovo studio riscrive la storia dell'evoluzione
Cervello umano: un nuovo studio riscrive la storia dell'evoluzione
Migliori casinò non AAMS in Italia

Da sempre, la scienza si è interrogata sulle peculiarità del cervello umano, cercando di tracciare un confine netto tra la nostra specie e i primati. Un recente studio, tuttavia, ha inaugurato una nuova prospettiva, abbandonando il tradizionale focus sulle dimensioni a favore di un’analisi approfondita delle connessioni interne del cervello.

Cervello umano: un nuovo studio riscrive la storia dell'evoluzione
Cervello umano: un nuovo studio riscrive la storia dell’evoluzione

Svelare i segreti del cervello umano: un nuovo approccio al confronto con i primati

Per lungo tempo, la ricerca si è concentrata sulle dimensioni del cervello, confrontando volumi e proporzioni tra specie diverse. Tuttavia, tali misurazioni non forniscono informazioni sull’organizzazione interna del cervello. L’esempio dell’elefante, il cui cervello è più grande del nostro ma con una diversa distribuzione dei neuroni, dimostra i limiti di questo approccio. Grazie alle moderne tecniche di imaging medico, è ora possibile esplorare le connessioni tra le diverse aree cerebrali in modo non invasivo e dettagliato.

Le fibre di materia bianca, che collegano le regioni cerebrali, sono fondamentali per la comunicazione tra le cellule nervose. L’analisi delle connessioni di ciascuna regione rivela un’impronta digitale di connettività unica, un vero e proprio “codice a barre” che ne identifica la funzione. Confrontando queste impronte digitali nel cervello umano, dello scimpanzé e del macaco, i ricercatori hanno potuto individuare le specificità del nostro cervello e le caratteristiche condivise con i nostri parenti primati.

La scelta dello scimpanzé, il nostro parente vivente più prossimo, e del macaco, il primate non umano più studiato, ha permesso di ottenere un quadro completo delle somiglianze e delle differenze tra le specie. I risultati dello studio hanno evidenziato come alcune aree del cervello umano presentino connessioni uniche, mentre altre condividano schemi di connettività con gli altri primati.

Questo nuovo approccio, basato sull’analisi delle connessioni interne del cervello, rappresenta un passo avanti significativo nella comprensione delle peculiarità del nostro cervello. Abbandonando il focus sulle dimensioni, i ricercatori hanno potuto svelare i segreti dell’organizzazione cerebrale, aprendo nuove prospettive sulla nostra evoluzione e sulle nostre capacità cognitive.

Il ruolo del lobo temporale nell’elaborazione sensoriale

La ricerca sulle peculiarità del cervello umano ha a lungo posto l’attenzione sulla corteccia prefrontale, l’area cerebrale coinvolta nel pensiero complesso e nel processo decisionale. Lo studio ha rivelato che le differenze più significative tra il nostro cervello e quello dei primati risiedono nel lobo temporale, un’area dedicata all’elaborazione sensoriale.

Il lobo temporale, situato dietro l’orecchio, svolge un ruolo cruciale nell’elaborazione delle informazioni visive e uditive. Confrontando le impronte digitali di connettività tra il nostro cervello, dello scimpanzé e del macaco, i ricercatori hanno scoperto che le differenze più marcate si trovano nella parte centrale della corteccia temporale.

Una delle scoperte più sorprendenti riguarda il fascicolo arcuato, un tratto di materia bianca che collega la corteccia frontale e temporale. Sebbene presente in tutti i primati, il fascicolo arcuato è significativamente più grande nel cervello umano, suggerendo un ruolo cruciale nell’elaborazione del linguaggio.

La maggiore dimensione del fascicolo arcuato nel nostro cervello potrebbe spiegare la nostra capacità unica di elaborare il linguaggio. Questo tratto di materia bianca facilita la comunicazione tra le aree cerebrali coinvolte nella produzione e nella comprensione del linguaggio, consentendoci di esprimere pensieri complessi e di comunicare in modo efficace.

Questo studio rappresenta un cambiamento di paradigma nella neuroscienza comparata, spostando l’attenzione dalla corteccia prefrontale al lobo temporale e al fascicolo arcuato. L’analisi delle connessioni interne del cervello, piuttosto che delle dimensioni, offre nuove prospettive sulla comprensione delle differenze tra il cervello umano e quello dei primati.

Il fascicolo arcuato: un ruolo multifunzionale

Le aree cerebrali connesse dal fascicolo arcuato sono coinvolte anche in altre funzioni cognitive cruciali, come l’integrazione sensoriale e l’elaborazione dei comportamenti sociali complessi. Questo studio ha dimostrato per la prima volta il suo coinvolgimento in funzioni diverse dal linguaggio, evidenziando la complessità dell’evoluzione cerebrale umana. Le nostre abilità cognitive avanzate, quindi, non sarebbero il risultato di un singolo cambiamento, ma di una serie di modifiche interconnesse nella connettività cerebrale.

Oltre al fascicolo arcuato, gli scienziati hanno individuato differenze significative tra le specie nella giunzione temporoparietale, un’area cerebrale fondamentale per l’elaborazione delle informazioni sugli altri. Questa regione, infatti, è coinvolta nella comprensione delle credenze e delle intenzioni altrui, un aspetto cruciale dell’interazione sociale umana.

Negli esseri umani, la giunzione temporoparietale presenta connessioni più estese con altre aree cerebrali coinvolte nell’elaborazione di informazioni visive complesse, come espressioni facciali e segnali comportamentali. Ciò suggerisce che il cervello umano è “cablato” per gestire interazioni sociali più intricate rispetto ai nostri parenti primati.

Questi risultati mettono in discussione l’idea di un singolo evento evolutivo che ha portato all’emergere dell’intelligenza umana. Lo studio, invece, indica che l’evoluzione del cervello è avvenuta per gradi, con cambiamenti nell’organizzazione della corteccia frontale nelle scimmie e successivi cambiamenti nella corteccia temporale nella linea evolutiva umana.

Richard Owen aveva ragione: il cervello umano è diverso da quello delle altre specie, almeno in parte. Abbiamo un cervello da primate, ma “cablato” per essere ancora più sociale, consentendoci di comunicare attraverso il linguaggio parlato. Queste scoperte aprono nuove prospettive sulla comprensione dell’evoluzione del cervello umano e delle nostre capacità cognitive uniche. Ulteriori ricerche potrebbero approfondire il ruolo delle connessioni cerebrali nell’interazione sociale e nel linguaggio, svelando i segreti della nostra intelligenza.

Lo studio è stato pubblicato sul The Journal of Neuroscience.

Gemini 2.5 Pro: Google spinge i confini dell’intelligenza artificiale

0
Gemini 2.5 Pro: Google spinge i confini dell'intelligenza artificiale
Gemini 2.5 Pro: Google spinge i confini dell'intelligenza artificiale
Migliori casinò non AAMS in Italia

Google ha annunciato un’importante novità che riguarda l’accessibilità della sua intelligenza artificiale più avanzata, Gemini 2.5 Pro. Questo modello, presentato come il più intelligente sviluppato finora dall’azienda, è ora disponibile in versione sperimentale anche per gli utenti non paganti. Tale decisione rappresenta un passo significativo verso la democratizzazione dell’accesso a tecnologie di intelligenza artificiale all’avanguardia.

Gemini 2.5 Pro: Google spinge i confini dell'intelligenza artificiale
Gemini 2.5 Pro: Google spinge i confini dell’intelligenza artificiale

Gemini 2.5 Pro: la nuova frontiera dell’intelligenza artificiale di Google

Gemini 2.5 Pro, caratterizzato da capacità di ragionamento avanzate, è in grado di analizzare informazioni, trarre conclusioni logiche e prendere decisioni informate. Gli utenti gratuiti possono ora sperimentare queste funzionalità attraverso Google AI Studio e l’app Gemini. È importante notare che l’accesso per i non abbonati prevede limiti di tariffazione più rigidi rispetto agli utenti Gemini Advanced, che godono di un accesso ampliato e di una finestra di contesto significativamente più ampia.

Parallelamente all’espansione dell’accesso a Gemini 2.5 Pro, Google ha annunciato un’importante modifica alla sua politica di fatturazione nel Regno Unito. In risposta a un’indagine della Competition and Markets Authority (CMA) del 2022, l’azienda ha deciso di includere il Regno Unito nell’elenco dei paesi in cui supporta la fatturazione basata sulla scelta dell’utente. A partire dal 29 marzo 2025, gli sviluppatori Android del Regno Unito potranno offrire agli utenti la possibilità di utilizzare sistemi di fatturazione alternativi per gli acquisti in-app.

L’introduzione di Gemini 2.5 Pro per gli utenti non paganti e la modifica delle politiche di fatturazione nel Regno Unito evidenziano l’impegno di Google nel rendere le sue tecnologie più accessibili e conformi alle normative. Mentre continua a evolversi, sarà interessante osservare come queste novità influenzeranno l’esperienza degli utenti e il panorama dell’intelligenza artificiale nel suo complesso.

Caratteristiche e limiti della versione gratuita

Il modello Gemini 2.5 Pro presentato come il più intelligente sviluppato finora dall’azienda, è ora disponibile in versione sperimentale anche per gli utenti non paganti. Tale decisione rappresenta un passo significativo verso la democratizzazione dell’accesso a tecnologie di intelligenza artificiale all’avanguardia.

Gli utenti Gemini Advanced godono di un accesso ampliato e di una finestra di contesto significativamente più ampia rispetto agli utenti gratuiti. Ciò significa che possono interagire con il modello in modo più approfondito e ottenere risultati più completi e dettagliati. La finestra di contesto ampliata consente al modello di elaborare una maggiore quantità di informazioni e di fornire risposte più pertinenti e accurate.

La decisione di Google di introdurre la fatturazione basata sulla scelta dell’utente nel Regno Unito è una risposta diretta alle preoccupazioni sollevate dalla CMA in merito alla concorrenza nel mercato delle app Android. Questa modifica consentirà agli sviluppatori di offrire agli utenti la possibilità di utilizzare sistemi di fatturazione alternativi, aumentando la concorrenza e offrendo agli utenti una maggiore scelta.

L’implementazione della fatturazione basata sulla scelta dell’utente nel Regno Unito avverrà in modo graduale, iniziando con le app non di gioco. Questa strategia è in linea con l’approccio adottato da Google in altre regioni, come Stati Uniti, Giappone, Brasile, Australia, Indonesia, Sudafrica e Spazio economico europeo (SEE), dove la fatturazione alternativa è già disponibile.

Gli sviluppatori avranno maggiore flessibilità nella gestione dei pagamenti in-app, mentre i consumatori avranno una maggiore scelta di sistemi di pagamento. Questa modifica potrebbe anche portare a una riduzione dei costi per i consumatori, poiché la concorrenza tra i sistemi di pagamento potrebbe portare a tariffe più basse.

Pagamenti alternativi e sconti per gli sviluppatori

Google ha recentemente introdotto una modifica significativa al suo programma di fatturazione, consentendo agli sviluppatori di offrire sistemi di pagamento alternativi all’interno delle loro app. Questa mossa, tuttavia, è accompagnata da una condizione importante: i pagamenti alternativi possono essere offerti solo in aggiunta alla fatturazione di Google Play, non in sostituzione. In cambio, gli sviluppatori che aderiscono al programma riceveranno uno sconto del quattro percento sulle commissioni di servizio di Google.

Questa decisione è strettamente legata alle normative del Regno Unito. Nel 2023, Google ha introdotto la fatturazione a scelta dell’utente come concessione per risolvere un’indagine antitrust della CMA (Competition and Markets Authority) del Regno Unito, iniziata l’anno precedente. Sebbene Google abbia riconosciuto l’influenza della CMA sulla sua decisione, l’azienda ha presentato questa mossa come un modo per soddisfare le esigenze degli sviluppatori, offrendo loro maggiore flessibilità nei metodi di pagamento.

L’azienda sta integrando funzionalità di intelligenza artificiale avanzata in vari suoi servizi. Ad esempio, una delle novità più recenti è l’integrazione di Gemini in Google Maps, che consente agli utenti di creare elenchi di luoghi di interesse a partire da screenshot. Questa funzione, che sfrutta le capacità di analisi e comprensione del contesto di Gemini 2.5 Pro, inizialmente disponibile su iOS in inglese negli Stati Uniti, arriverà presto anche su Android.

Google ha inoltre ampliato le sue funzionalità di monitoraggio dei prezzi, estendendole agli hotel. Gli utenti possono ora monitorare i prezzi degli hotel per date specifiche e ricevere notifiche quando i prezzi scendono. Inoltre, Google ha introdotto le Panoramiche AI in Ricerca, uno strumento che, grazie all’elaborazione avanzata del linguaggio naturale di modelli come Gemini 2.5 Pro, consente di pianificare itinerari di viaggio personalizzati. Gli utenti possono chiedere a Google di creare itinerari basati sui loro interessi, come itinerari gastronomici, e salvare i suggerimenti in Google Maps o esportarli in Documenti o Gmail.

Sta anche espandendo le Panoramiche AI in Lens e Circle in Search, rendendole disponibili in hindi, indonesiano, giapponese, coreano, portoghese e spagnolo. Questa espansione geografica consentirà a un numero maggiore di utenti di sfruttare le funzionalità di intelligenza artificiale di Google per la pianificazione dei viaggi.

Le recenti modifiche apportate da Google alle sue politiche di pagamento e l’introduzione di nuove funzionalità di intelligenza artificiale per la pianificazione dei viaggi evidenziano l’impegno dell’azienda nel fornire strumenti innovativi e conformi alle normative. Mentre Google continua a sviluppare e implementare nuove tecnologie, con modelli avanzati come Gemini 2.5 Pro, sarà interessante osservare come queste novità influenzeranno l’esperienza degli utenti e il panorama digitale nel suo complesso.

Come ricevere supporto nella stesura della tesi: strumenti e risorse per studenti sotto pressione

0
Come ricevere supporto nella stesura della tesi: strumenti e risorse per studenti sotto pressione
Migliori casinò non AAMS in Italia

La stesura della tesi di laurea è spesso vissuta come una maratona mentale. Non si tratta solo di scrivere: bisogna fare ricerca, strutturare capitoli coerenti, usare fonti accademiche attendibili e rispettare uno stile preciso. Il tutto mentre si affrontano esami, stage, o l’ansia pre-laurea. In questo scenario, avere un supporto qualificato può fare la differenza tra sopravvivere… o laurearsi con dignità (e magari con lode).

Perché chiedere aiuto nella tesi non è “barare”

Contrariamente a quanto pensano ancora in troppi, chiedere assistenza per la redazione della tesi non è sinonimo di plagio o scorciatoia disonesta. Significa:

  • Avere una guida esperta nella strutturazione e nella ricerca.

  • Evitare errori formali o bibliografici che possono costare caro.

  • Ottenere un confronto per migliorare contenuti e stile.

Proprio come un tutor o un docente ti aiuterebbero nel percorso, esistono oggi piattaforme e servizi professionali pensati per offrire assistenza nella stesura di tesi per istituti scolastici, aiutando gli studenti in modo etico e personalizzato.


Approccio metodologico: una questione di struttura e coerenza

Un’assistenza realmente utile non si limita a correggere testi, ma interviene sul modello logico-argomentativo della tesi, aiutando lo studente a costruire una narrazione coerente, con una sequenza chiara tra obiettivi, metodologia, analisi e conclusioni. Questo è particolarmente importante nei percorsi universitari in cui si richiede una struttura rigorosa, come le scienze sociali, economiche o giuridiche.

Inoltre, un buon servizio supporta l’uso di framework metodologici riconosciuti: analisi SWOT, modelli qualitativi-quantitativi, approcci comparativi e casi studio. Anche il corretto uso degli strumenti di analisi statistica (SPSS, R, Excel) può rientrare nell’assistenza offerta, evitando errori interpretativi che potrebbero compromettere la validità del lavoro.


Quali aspetti possono essere delegati (senza sensi di colpa)

  • Revisione ortografica e grammaticale: errori di forma sono penalizzanti, e spesso invisibili a chi ha scritto.

  • Formattazione: norme APA, MLA, Chicago? Se non sai nemmeno da dove iniziare, meglio affidarsi a chi lo fa ogni giorno.

  • Consulenze per ricerca e bibliografia: sapere dove trovare le fonti giuste, come citarle, come organizzare i capitoli.

  • Traduzioni o adattamenti: per chi scrive in lingua straniera o deve affrontare una tesi bilingue.

Il punto non è evitare la fatica, ma ottimizzare tempo e risultati.


A chi rivolgersi?

Esistono molti servizi online, ma è fondamentale scegliere chi lavora con metodologie trasparenti e rispetto per le norme accademiche. Un ottimo punto di riferimento è il sito tesiaccademica.it, che offre assistenza specializzata, consulenze su misura e un approccio etico alla scrittura universitaria.


In conclusione

Scrivere una tesi è un percorso formativo importante, ma non dev’essere un incubo. Con il giusto supporto, può diventare una grande occasione per imparare a comunicare, organizzare e gestire un progetto complesso.

Se sei alle prese con ansia, scadenze o semplicemente vuoi evitare errori banali, sappi che chiedere aiuto è intelligente, non un fallimento.

Home

Intelligenza artificiale: tra promesse e realtà, un divario preoccupante

0
Intelligenza artificiale: tra promesse e realtà, un divario preoccupante
Intelligenza artificiale: tra promesse e realtà, un divario preoccupante
Migliori casinò non AAMS in Italia

Un recente rapporto, frutto del lavoro di 24 esperti di intelligenza artificiale (IA), ha sollevato un velo di scetticismo sulle attuali direzioni di ricerca nel campo dell’Intelligenza Artificiale Generale (AGI).

Presentato al Presidential Panel 2025 dell’Association for the Advancement of Artificial Intelligence (AAAI), il documento mette in discussione la percezione pubblica delle capacità dell’IA, evidenziando una significativa discrepanza con la realtà della ricerca e dello sviluppo.

Intelligenza artificiale: tra promesse e realtà, un divario preoccupante
Intelligenza artificiale: tra promesse e realtà, un divario preoccupante

Il futuro dell’intelligenza artificiale: tra scetticismo e realtà

La sezione “AI Perception vs. Reality“, guidata dall’informatico del MIT Rodney Brooks, ha analizzato il fenomeno dell’hype tecnologico attraverso la lente del Gartner Hype Cycle. Secondo il rapporto, a novembre 2024, l’entusiasmo per l’IA generativa aveva già superato il suo picco, iniziando una fase di declino.

Questa osservazione è supportata dai risultati di un sondaggio condotto tra i ricercatori del settore, dove il 79% ha dichiarato che le attuali percezioni pubbliche delle capacità dell’intelligenza artificiale non corrispondono alla realtà. Tale discrepanza, secondo il 90% degli intervistati, ostacola la ricerca sull’IA, con il 74% che afferma che le direzioni di ricerca sono guidate dall’hype.

Il messaggio centrale del rapporto, condiviso dalla maggioranza dei ricercatori, è che l’industria sta perseguendo l’AGI nella direzione sbagliata. Questa critica si basa sulla convinzione che l’attuale enfasi sui modelli di linguaggio di grandi dimensioni (LLM) e sull’apprendimento profondo, pur avendo prodotto risultati impressionanti, non sia sufficiente per raggiungere un’intelligenza artificiale veramente generale. Gli esperti sottolineano la necessità di esplorare approcci alternativi, che tengano conto di aspetti come il ragionamento causale, la comprensione del senso comune e la capacità di apprendimento autonomo.

Oltre alle questioni tecniche, il rapporto affronta anche le implicazioni sociali dell’intelligenza artificiale. Gli esperti esprimono preoccupazione per il potenziale impatto dell’IA sul mercato del lavoro, sulla privacy e sulla sicurezza. Inoltre, sottolineano la necessità di sviluppare quadri etici solidi per guidare la ricerca e lo sviluppo dell’IA, al fine di garantire che questa tecnologia sia utilizzata in modo responsabile e a beneficio dell’umanità.

Il rapporto dell’AAAI lancia un chiaro appello alla comunità scientifica: è necessario un cambiamento di paradigma nella ricerca sull’IA. Gli esperti invitano a superare l’attuale fase di hype, a concentrarsi su approcci di ricerca più fondamentali e a considerare attentamente le implicazioni sociali ed etiche dell’IA. Solo così, secondo loro, sarà possibile realizzare il vero potenziale dell’intelligenza artificiale e costruire un futuro in cui questa tecnologia sia al servizio dell’umanità.

Il ciclo dell’hype e la realtà dell’AGI

Rodney Brooks, informatico del MIT, ha introdotto il concetto del Gartner Hype Cycle per illustrare la tendenza del settore dell’intelligenza artificiale a seguire un modello di eccessivo entusiasmo iniziale, seguito da una fase di disillusione.

Come ha spiegato Brooks, questo ciclo è una generalizzazione di quanto accaduto in molti altri campi tecnologici, e la sua applicazione all’IA serve a mettere in guardia contro l’accettazione acritica delle attuali narrazioni: “Penso che ampie fasce del dibattito pubblico sull’intelligenza artificiale siano troppo inclini ad accettare il livello di clamore che se ne ricava”, ha affermato, evidenziando la necessità di un approccio più critico.

L’AGI, l’obiettivo ultimo della ricerca sull’IA, rappresenta la capacità di una macchina di comprendere, apprendere e applicare la conoscenza come un essere umano. Le sue potenziali applicazioni sono vaste, dall’automazione di compiti ripetitivi alla catalizzazione del progresso in settori chiave come i trasporti, l’istruzione e la tecnologia. Il rapporto dell’AAAI rivela uno scetticismo diffuso tra i ricercatori riguardo alla possibilità di raggiungere l’AGI semplicemente ampliando gli attuali approcci all’intelligenza artificiale. Il 76% dei 475 intervistati ha espresso questa opinione, sottolineando la necessità di esplorare nuove strade.

Il rapporto dell’AAAI non è un invito al pessimismo, ma piuttosto un appello a un approccio più responsabile e collaborativo allo sviluppo dell’IA. I ricercatori intervistati hanno espresso una forte preferenza per un’innovazione graduale, che dia priorità alla sicurezza, alla governance etica e alla condivisione dei benefici. Questo approccio si contrappone alla “corsa all’AGI”, una competizione potenzialmente rischiosa che potrebbe portare a conseguenze indesiderate.

Progressi innegabili: dall’IA limitata ai chatbot rivoluzionari

Nonostante le distorsioni create dall’eccessivo clamore e le critiche agli attuali approcci all’Intelligenza Artificiale (IA) nel perseguimento dell’AGI, è innegabile che la tecnologia abbia compiuto passi da gigante. Il recente rapporto dell’Association for the Advancement of Artificial Intelligence (AAAI) ha evidenziato come, in un lasso di tempo relativamente breve, l’IA sia passata da applicazioni limitate a un ruolo centrale nel dibattito pubblico.

Henry Kautz, informatico dell’Università della Virginia, sottolinea come solo cinque anni fa l’intelligenza artificiale fosse confinata a compiti specifici, come la raccomandazione di prodotti o la classificazione di immagini scientifiche. L’avvento di chatbot come ChatGPT ha segnato una svolta, dimostrando le potenzialità dell’IA generale e catturando l’attenzione del grande pubblico. Tuttavia, Kautz avverte che la fattualità dell’IA è ancora lontana dall’essere risolta, con i modelli di linguaggio di grandi dimensioni (LLM) che faticano a fornire risposte accurate in contesti complessi.

Il rapporto dell’AAAI riconosce che la capacità dell’IA di fornire informazioni accurate e affidabili è una sfida cruciale. I migliori LLM, infatti, hanno dimostrato di rispondere correttamente solo a circa la metà delle domande in un test di riferimento del 2024. Gli esperti sono ottimisti riguardo alla possibilità di migliorare le prestazioni dell’IA attraverso nuovi metodi di addestramento e approcci innovativi. Kautz, ad esempio, propone di sostituire i singoli agenti di IA con team cooperanti, in grado di verificare reciprocamente i fatti e garantire l’affidabilità delle informazioni.

Kautz ha evidenziato un divario tra la percezione pubblica dell’IA e la realtà tecnologica, affermando che: “La maggior parte del pubblico in generale e della comunità scientifica, inclusa la comunità dei ricercatori di IA, sottovaluta la qualità dei migliori sistemi di intelligenza artificiale odierni. La percezione dell’IA è in ritardo di circa uno o due anni rispetto alla tecnologia“. Questo divario può portare a aspettative irrealistiche e a una valutazione distorta dei progressi compiuti.

Nonostante le sfide, il rapporto dell’AAAI non lascia spazio al pessimismo. Come sottolinea il Gartner Hype Cycle, l’IA non è destinata a svanire, ma a raggiungere un “altopiano della produttività”. La chiave per un futuro dell’IA positivo risiede nella capacità di affrontare le sfide attuali, promuovere un’innovazione responsabile e garantire che la tecnologia sia utilizzata a beneficio dell’umanità. L‘intelligenza artificiale è qui per restare, e la direzione da seguire è quella di un progresso consapevole e sostenibile.

Missione Fram2: la conquista polare dello Spazio inizia ora

0
Missione Fram2: la conquista polare dello Spazio inizia ora
Missione Fram2: la conquista polare dello Spazio inizia ora
Migliori casinò non AAMS in Italia

Un evento storico si appresta a segnare un punto di svolta nell’esplorazione spaziale: il lancio della missione Fram2. L’hardware che porterà in orbita un equipaggio di astronauti privati, rappresentanti quattro diverse nazioni, ha raggiunto la rampa di lancio del Kennedy Space Center della NASA in Florida. SpaceX, con le sue immagini pubblicate su X, ha confermato l’arrivo del razzo Falcon 9 e della capsula Crew Dragon al Launch Complex 39A, confermando la tabella di marcia per il decollo previsto per lunedì 31 marzo 2025.

Missione Fram2: la conquista polare dello Spazio inizia ora
Missione Fram2: la conquista polare dello Spazio inizia ora

Missione Fram2: verso una nuova era dell’esplorazione spaziale privata

La missione Fram2 si distingue per un obiettivo ambizioso: inviare quattro astronauti privati in orbita terrestre bassa, seguendo una traiettoria che li porterà a sorvolare entrambi i poli del pianeta. Questa rotta, mai tentata prima in una missione spaziale umana, apre nuove frontiere nell’esplorazione spaziale e nella ricerca scientifica.

L’equipaggio della missione Fram2, composto dal comandante Chun Wang di Malta, dal comandante del veicolo Jannicke Mikkelsen della Norvegia, dal pilota Rabea Rogge della Germania e dall’ufficiale medico e specialista di missione Eric Phillips dell’Australia, condurrà 22 esperimenti scientifici durante il loro soggiorno in orbita, previsto tra i tre e i cinque giorni.

La missione Fram2 non è solo un’impresa turistica, ma un’opportunità per avanzare la conoscenza scientifica. Gli esperimenti condotti dall’equipaggio spaziano in diversi campi, dalla biologia alla fisica, e mirano a sfruttare le condizioni uniche dell’orbita polare per ottenere risultati innovativi. La diversità dell’equipaggio, con rappresentanti di quattro nazioni, sottolinea la natura globale della ricerca scientifica e la collaborazione internazionale necessaria per progredire nell’esplorazione spaziale.

Missione Fram2: un passo avanti per il volo spaziale privato

L’equipaggio della missione Fram2, con la sua eterogeneità di competenze e background scientifici, incarna un modello di collaborazione internazionale fondamentale per il progresso dell’esplorazione spaziale. La presenza di rappresentanti di quattro nazioni diverse non solo arricchisce il bagaglio culturale della missione, ma favorisce anche lo scambio di conoscenze e la condivisione di risorse.

Gli esperimenti scientifici previsti durante la missione Fram2 spaziano in un’ampia gamma di discipline, dalla biologia alla fisica, e sono progettati per sfruttare le condizioni uniche dell’orbita polare. La microgravità, le radiazioni cosmiche e l’esposizione al campo magnetico terrestre offrono un laboratorio naturale per studiare gli effetti dello spazio sul corpo umano, sui materiali e sui processi biologici.

La ricerca in orbita polare assume un’importanza cruciale per comprendere meglio il nostro pianeta e il suo ambiente spaziale. L’osservazione della Terra dai poli consente di monitorare i cambiamenti climatici, studiare le aurore polari e analizzare la composizione dell’atmosfera. Inoltre, gli esperimenti condotti in microgravità possono fornire informazioni preziose per lo sviluppo di nuove tecnologie e materiali.

La missione Fram2 rappresenta un’evoluzione paradigmatica nel settore dell’esplorazione spaziale, segnando il passaggio da un modello di volo spaziale prevalentemente governativo a un’era di partecipazione privata. Questo evento non si limita a una semplice espansione dell’accesso all’orbita terrestre bassa, ma introduce un nuovo paradigma per la ricerca scientifica e la collaborazione internazionale.

La diversificazione del background e delle competenze degli astronauti privati, provenienti da diverse nazioni, apporta un valore aggiunto significativo alla missione Fram2. Questo approccio multidisciplinare facilita l’integrazione di diverse prospettive scientifiche e tecnologiche, ottimizzando la raccolta e l’analisi dei dati.

Innovazione e scienza rivoluzionaria in orbita polare

La missione Fram2 non si limita a rappresentare un’impresa di esplorazione spaziale senza precedenti, ma si configura come un vero e proprio laboratorio orbitale, dove verranno condotti esperimenti pionieristici destinati a rivoluzionare la nostra comprensione dello spazio e a gettare le basi per future missioni interplanetarie. Tra le attività più significative, spiccano la coltivazione di funghi in orbita e la realizzazione delle prime radiografie del corpo umano nello Spazio.

La coltivazione di funghi in ambiente orbitale trascende la semplice sperimentazione, configurandosi come un pilastro fondamentale per la concretizzazione di future missioni spaziali di lunga durata, inclusi i viaggi interplanetari. La dipendenza dalle risorse terrestri per il sostentamento degli astronauti rappresenta una limitazione critica per l’esplorazione spaziale prolungata. La coltivazione di funghi in orbita si propone come soluzione innovativa per mitigare tale dipendenza, fornendo una fonte alimentare autoprodotta e rigenerativa.

I funghi, con la loro composizione nutrizionale ricca di proteine, vitamine e minerali, si configurano come un alimento completo e sostenibile, capace di soddisfare le esigenze fisiologiche degli astronauti in ambienti confinati e a microgravità. La loro capacità di convertire materiali organici di scarto in biomassa commestibile li rende ideali per sistemi di agricoltura spaziale a ciclo chiuso, riducendo al minimo la necessità di rifornimenti esterni.

L’esperimento di coltivazione di funghi in orbita della missione Fram2 non si limita alla produzione di cibo, ma rappresenta anche un’opportunità per studiare l’adattamento di organismi viventi a condizioni ambientali estreme. La microgravità, le radiazioni cosmiche e le variazioni di temperatura offrono un laboratorio naturale per comprendere i meccanismi di crescita e sviluppo dei funghi in ambienti extraterrestri.

Le implicazioni di tale ricerca si estendono oltre l’ambito alimentare, abbracciando la possibilità di utilizzare i funghi per la produzione di biomateriali, la purificazione dell’aria e dell’acqua, e la creazione di ecosistemi rigenerativi a bordo di veicoli spaziali e habitat planetari. La coltivazione di funghi in orbita rappresenta quindi un passo cruciale verso la realizzazione di missioni spaziali autosufficienti e sostenibili, aprendo la strada all’esplorazione umana di mondi lontani.

Jared Isaacman, l’imprenditore visionario che ha finanziato e comandato le missioni Inspiration4 e Polaris Dawn, ha svolto un ruolo chiave nello sviluppo del volo spaziale privato. La sua passione per l’esplorazione spaziale e il suo impegno nel rendere lo Spazio accessibile a un pubblico più ampio hanno contribuito a democratizzare l’accesso all’orbita terrestre bassa. La candidatura di Isaacman a prossimo amministratore della NASA, avanzata dal presidente Trump, sottolinea il suo ruolo di pioniere nel settore spaziale.

La missione Fram2, con i suoi esperimenti innovativi e il suo equipaggio diversificato, rappresenta un passo avanti significativo nell’esplorazione spaziale. Questa missione non solo amplierà le nostre conoscenze scientifiche, ma aprirà anche nuove strade per le future missioni spaziali umane.

Campi Flegrei: che pericolo rappresenta oggi il supervulcano?

0
Sciame sismico nell'area di Pozzuoli: che pericolo rappresenta oggi il supervulcano dei Campi Flegrei?
Migliori casinò non AAMS in Italia

Dieci scosse di terremoto in poco più di trenta ore nell’area dei Campi Flegrei, dove nell’ultimo mese sono stati registrati 612 eventi sismici. La più intensa, in questo sciame compreso tra la mezzanotte del 13 aprile e l’alba del giorno successivo, è stata di magnitudo 1,5.

A caratterizzare i movimenti tellurici sono stati gli epicentri, molto distanti tra loro in qualche caso, a conferma di quanto sia estesa l’area del bradisismo. Varia, inoltre, la profondità del sisma: in una occasione anche oltre i 5 chilometri nel sottosuolo, quando in media è tra uno e 2,5 km. Tutto rientra nella normalità del fenomeno, come hanno confermato gli esperti. Ma comunque all’interno di una importante fase di rigonfiamento del sottosuolo. Provocata dalla contrazione ed espansione delle rocce porose sensibili ai fluidi che si trovano poco sopra la fascia magmatica.

Quasi tutte le scosse di questo sciame, ad eccezione delle ultime due, hanno epicentro differente. Ma comunque tutte molto vicino alla Solfatara di Pozzuoli o in mare vicino alla costa. Quella delle tre di notte, invece, ha come sorgente Bagnoli, quindi siamo già nel perimetro di Napoli. E la scossa delle 21.40 ha avuto come ipocentro l’area di Coroglio, ancora più all’interno della fascia occidentale della città capoluogo.

Non sembra ci sia un pericolo immediato ma stiamo parlando di qualcosa che potrebbe avere effetti non solo locali: l’area dei Campi Flegrei ha qualcosa in comune con il Parco di Yellostowne (negli USA) e il lago Toba in Indonesia.

Sono tutte aree che insistono sopra a quelli che vengoino definiti come supervulcani.

Un supervulcano è una di quella dozzina di caldere presenti sulla superficie terrestre che arrivano ad avere un diametro di qualche decina di chilometri.
Il termine supervulcano deriva da una trasmissione scientifica divulgativa della BBC e si riferisce al risveglio di queste grandi caldere, che producono gigantesche eruzioni vulcaniche, tali da modificare radicalmente il paesaggio locale e condizionare pesantemente il clima a livello mondiale per diversi anni, con effetti potenzialmente cataclismatici sulla vita stessa del pianeta.

La grande caldera dei Campi Flegrei si estende per buona parte del Golfo di Pozzuoli, coprendo un’area in cui si stima che vivano almeno 600.000 persone.
Con più di venti piccoli crateri, si tratta di uno dei supervulcani più pericolosi del mondo tanto che è costantemente monitorato dal “Campi Flegrei Deep Drilling Project”, coordinato dall’INGV (Istituto Nazionale di Geofisica e Vulcanologia).

Attualmente, la grande caldera dei Campi Flegrei è sotto osservazione per avere prodotto dal 2005 a oggi un innalzamento del suolo di circa 40 centimetri, mentre il magma è risalito fino a 3-4 chilometri dalla superficie. Il sollevamento del suolo è uno dei fenomeni che possono anticipare un’eruzione catastrofica dei super vulcani.

Già nel 1983 si registrarono due seri episodi di bradisismo che sollevarono il porto di Pozzuoli di quasi due metri. Tanto che si reputò prudente evacuare i 40.000 abitanti della città.

L’ultima eruzione della caldera dei Campi Flegrei conosciuta in epoca storica è quella avvenuta tra il 29 settembre e il 6 ottobre 1538 che distrusse il villaggio medievale di Tripergole e mise in fuga la popolazione locale, inoltre portò alla formazione del Monte Nuovo.

I programmi di monitoraggio e gli studi correlati sono indispensabili per riuscire a costruire modelli previsionali in grado di dare il tempo sufficiente per avviare i processi di evacuazione in una zona densamente abitata e con enormi problematiche logistiche ed infrastrutturali.

Purtroppo, ad oggi, la possibilità di allertare la popolazione in caso di eruzione del supervulcano è limitata a poche ore prima dell’evento e questo rende estremamente problematici l’esecuzione di piani di evacuazione in una zona a forte densità demografica.

Secondo studi riservati, uno dei quali risale al 31 dicembre del 2012,  le maggiori difficoltà derivano proprio dall’imprevedibilità del fenomeno di cui sappiamo soltanto con certezza una cosa ovvero che prima o poi si verificherà.

Gli scenari delineati sono quattro. Eruzione esplosiva, eruzione multipla, esplosione freatica, eruzione effusiva. Tutti potenzialmente catastrofici.

E come se non bastasse, la concreta previsione di un fenomeno altrettanto devastante, vista “la possibile generazione di un maremoto nel caso di attività in mare o in prossimità della costa”.

Uso corretto dell’olio d’oliva in cucina

0
Uso corretto dell'olio d'oliva in cucina
Migliori casinò non AAMS in Italia

L’uso del metodo di cottura sbagliato potrebbe compromettere la salute e il sapore dell’olio d’oliva.

Se stai friggendo un uovo o preparando un soffritto, potresti decidere di utilizzare l’olio d’oliva che, notoriamente, fa bene! Ma la salubrità dell’olio d’oliva dipende in realtà da come lo usi. Se lo stai usando per far saltare o friggere velocemente il cibo, probabilmente lo stai usando nel modo sbagliato.

Gli oli di tutti i tipi hanno qualcosa chiamato punto fumoIl punto di fumo di un olio è la temperatura alla quale fumerà (l’hai indovinato). Ma quello che succede quando l’olio raggiunge il punto di fumo è molto di più che il solo rilascio di vapore. Il fumo che sale dalla padella è la prova dei cambiamenti che si verificano nel tuo cibo a livello chimico.

Quando l’olio d’oliva viene riscaldato fino al punto di fumo, i composti che contribuiscono al suo sapore si disgregano e ne cambiano il gusto. A volte, questo può provocare un sapore di bruciato ai cibi cotti piuttosto che il gusto piacevole dell’olio di oliva al naturale. Anche alcuni metodi di cottura a temperatura moderata possono alterare il gusto di certi oli di oliva di alta qualità. In questi casi, il modo migliore per usarlo è come condimento per insalata, per insaporire cibi cotti e per cuocere a basse temperature.

Inoltre, esiste un potenziale (sebbene molto piccolo) problema di salute. I grassi contenuti naturalmente nell’olio possono rompersi a temperature elevate e formare composti potenzialmente dannosi. Questi possono includere i radicali liberi, che possono aumentare leggermente il rischio di malattie tumorali. Si tratta di un rischio relativamente minore, specialmente se paragonato al rischio aggiunto da altre attività come il fumo, ma, ancora, non è tutto ciò che accade quando l’olio raggiunge il punto di fumo. Altri composti nell’olio, tra cui vari nutrienti e antiossidanti che combattono il cancro, cominciano a disgregarsi se sottoposte ad alte temperature.

Uno studio ha dimostrato che riscaldare l’olio d’oliva a 185 gradi per 36 ore comporta una diminuzione degli antiossidanti e della vitamina E. Un altro studio ha dimostrato che il riscaldamento dell’olio di oliva a 240 gradi per 90 minuti riduce la quantità di oleocantale (un composto dell’olio d’oliva che ha effetti antinfiammatori) del 19%.

È difficile dire con esattezza a quale temperatura possa essere utilizzato l‘olio d’oliva, soprattutto perché ci sono così molti tipi di olio d’oliva tra cui scegliere. Ma la maggior parte concorda sul fatto che il punto di fumo di olio d’oliva si aggira tra 175 ed i 200 gradi.

Usate, quindi, l’olio d’oliva per la frittura ma ricordati di tenere il fuoco ad un livello medio.