lunedì, Aprile 28, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 7

Mobili in legno, tra artigianato e design

0
Mobili in legno, tra artigianato e design
Migliori casinò non AAMS in Italia

Sostiene l’aforista Fabrizio Caramagna: “il legno parla. Riflettendo la luce del giorno. Vibrando sotto i piedi nudi. Comunicando la sua memoria attraverso i suoi nodi.”

Qualcosa che vale anche per le componenti di arredo che vengono conseguite in tale materiale, in grado di conferire un’atmosfera speciale e densa di colore a qualsiasi spazio, a prescindere dal fatto che lo stile sia rustico oppure moderno.

Questo, naturalmente, a patto di optare per soluzioni di qualità come quelle di una realtà d’eccellenza quale Mobili 2G, specializzata nell’arredamento online e rinomata per la sua cortesia, affidabilità nonché la capacità di coniugare qualità e risparmio. L’assortimento comprende pezzi di design che risultano pregevoli e versatili, dando modo di effettuare l’ordine quando si preferisce per poi riceverlo comodamente a casa propria.

In questo articolo vi raccontiamo qualcosa di più sulle caratteristiche distintive dei mobili in legno, in termini di appeal ma anche di lavorazione.

Le lavorazioni di legno più utilizzate nell’arredamento

Il legno si trova in natura secondo una molteplicità di varietà (note altresì come essenze) tutte di per sé interessanti, ognuna delle quali si distingue per determinate peculiarità che danno luogo a differenze sia estetiche e strutturali che in termini di lavorazione.

Sotto questo punto di vista il legno massello appare particolarmente di pregio e viene solitamente impiegato per i complementi di alto livello.

Viene adoperata la totalità del tronco, e quindi la zona più interna, onde per cui il risultato è ogni volta diverso è unico nel suo genere. Le essenze più impiegate tra quelle che vedono al centro il legno massello sono ciliegio, pino, quercia, noce e abete.

Il legno che tuttavia risulta maggiormente diffuso nella produzione dei mobili è quello lamellare, il quale viene ottenuto predisponendo strati di varie essenze oppure incollando delle lamelle. A fronte di un costo medio più basso, assicura una resistenza degna di nota nel tempo.

C’è poi il legno grezzo, ovvero privo di finiture. L’aspetto è minimale, un po’ come avviene allo stato naturale, garantendo un’estetica semplice e d’effetto.

Altre lavorazioni piuttosto comuni sono quelle che vedono al centro legno compensato, laccato, truciolare, MDF, tamburato, impiallacciato e massiccio.

Mobili in legno, nel segno del chiaroscuro

Il legno è un materiale che offre un caleidoscopio di colori, dando modo di poter scegliere tra molteplici varietà da adottare all’interno degli spazi anche per quanto concerne le tonalità cromatiche.

Partiamo dai cosiddetti legni neri, luminosi ed e densi di raffinatezza. Il più rinomato in assoluto è l’ebano, ma non mancano le nuance marroni particolarmente eleganti.

Ci sono poi i legni chiari, che si accostano con facilità a qualsiasi stile di arredo, in particolare a quello scandinavo: è questo il caso del faggio, del larice e del frassino, solo per citarne alcuni.

Che dire poi dei legni rossi? Hanno la capacità di lasciare sempre a bocca aperta su qualsiasi elemento d’arredo. A tal proposito segnaliamo il ciliegio, lucido e perfetto per gli ambienti interni, e l’acacia, resistentissima agli urti.

Che si tratti di una credenza, di una scrivania, di un comodino oppure di un mobile per il bagno, il legno saprà donare ai complementi d’arredo un gioco chiaroscurale denso di emozioni. Perfetto per la quotidianità così come per quelle attività, quali ad esempio i bed and breakfast, dove l’accoglienza è sempre un valore aggiunto.

Home

Una sfida al Big Bang dal modello a rimbalzo (Big Bounce)

0
Una sfida al Big Bang dal modello a rimbalzo (Big Bounce)
Una sfida al Big Bang dal modello a rimbalzo (Big Bounce)
Migliori casinò non AAMS in Italia

Se volessimo riassumere in poche battute la storia della nascita del cosmo potremmo dire: circa 14 miliardi di anni fa, un’enorme quantità di energia, dal nulla, si è trasformata in massa.

In un breve momento di rapida espansione, quell’esplosione di energia ha gonfiato il cosmo come un pallone. A seguito di quella espansione, l’ampia curvatura ha subito un allungamento, dando origine alla geometria del cosmo che oggi definiamo piatta. Si è assistito inoltre a un mescolamento della materia, in modo che oggi il cosmo appare in gran parte (anche se non perfettamente) privo di elementi distintivi. Si sono formati aggregati di particelle, stelle e galassie, sparse per il cosmo, che rappresentano però piccoli granelli rispetto a un tessuto cosmico che, per il resto, è incontaminato.

Questa teoria, nota con il termine di inflazione, concorda con tutte le osservazioni effettuate finora ed è la preferita dai cosmologi. Nello stesso tempo, però, questa teoria contiene delle implicazioni che alcuni definiscono inquietanti. Nella maggior parte delle regioni dello spazio-tempo, la rapida espansione prevista dalla teoria non si fermerebbe mai.

A causa di questo fenomeno, l’inflazione non può fare altro che generare dei multiversi – una moltitudine di microuniversi, uno dei quali è proprio quello in cui ci troviamo. I critici del paradigma inflazionario dicono che l’inflazione prevede tutto, e quindi, di fatto, non prevede niente. Uno dei critici della teoria dell’inflazione, Paul Steinhardt, dice che la teoria inflazionaria non sta dando oggi i risultati previsti.

Un’ipotesi alternativa: il Big Bounce

Negli ultimi anni, Steinhardt ha sviluppato, in condivisione con altri scienziati, un approccio diverso sulle origini del nostro universo, riproponendo l’idea di un universo ciclico, che si espande e si contrae periodicamente. Essi sperano di replicare l’universo che noi oggi vediamo – piatto e liscio – senza fare uso delle informazioni legate al big bang.

A tale fine, Steinhardt e i suoi collaboratori hanno intrapreso una partnership con alcuni ricercatori esperti in modelli della gravità computazionali. Hanno analizzato in che modo verrebbe modificata la struttura di un universo in fase di collasso, e quindi hanno scoperto che la contrazione può prevalere sull’inflazione. Qualunque sia stata la forma dell’universo prima della sua contrazione, il collasso andrebbe a cancellare una vasta gamma di increspature primordiali.

Nell’ultimo anno e mezzo, Steinhardt, in collaborazione con Anna Ijjas, una cosmologa del Max Planck Institute for Gravitational Physics (Germania), ha dedotto una nuova visione dell’universo ciclico, detto pure ecpirotico, che si rinnova senza la necessità di un collasso.

In genere, quando si affronta il tema della contrazione e dell’espansione, si è soliti focalizzarsi su un universo a forma di pallone, la cui variazione di dimensione è descritta da un fattore di scala.

Si immagini una formica su un pallone. L’inflazione è come far esplodere il pallone. Essa ha principalmente il compito di rendere più liscio e di appiattire il cosmo che si sta gonfiando. Nell’universo ciclico, invece, la levigazione del cosmo avviene durante una fase di contrazione. Durante questa fase, il pallone si sgonfia gradatamente, mentre il vero lavoro viene compiuto da un orizzonte che si restringe drasticamente. È come se una formica guardasse tutto attraverso una lente di ingrandimento sempre più potente. La distanza che può vedere si restringe, e quindi il suo mondo perde sempre di più le sue peculiarità.

Steinhardt e i suoi collaboratori immaginano un universo che si espande per circa mille miliardi di anni, guidato dall’energia di un ipotetico, e onnipresente, campo magnetico, il cui comportamento viene oggi attribuito alla materia oscura. Quando questo campo di energia comincia a ridursi, allora il cosmo comincerà lentamente a sgonfiarsi. Per miliardi di anni, un fattore di scala legato alla contrazione produce un continuo avvicinamento di ogni oggetto, fino a una certa distanza. Una volta raggiunto il raggio di Hubble si assiste a un improvviso cambiamento, fino a far sì che lo stesso raggio diventi microscopico. La contrazione dell’universo va ad alimentare il campo energetico, che riscalda il cosmo e causa l’evaporazione dei suoi atomi. Ne segue una sorta di rimbalzo, da cui scaturisce l’inizio di un nuovo ciclo.

Nel modello a rimbalzo, o Big Bounce, la piattezza e la levigatezza sono assicurate dal microscopico raggio di Hubble. E mentre l’inflazione fa esplodere molte imperfezioni iniziali in enormi aggregati di multiversi, la lenta contrazione le spinge fuori. Si rimane con un cosmo che non ha inizio, né fine, nessuna singolarità al Big Bang e nessun multiverso.

Una sfida che riguarda sia l’approccio inflazionario che il modello a rimbalzo è mostrare che i rispettivi campi energetici creino il giusto universo, indipendentemente da come sono stati generati.

La Ijjad e Steinhardt criticano il modello inflazionario perché esso funziona solo in particolari condizioni, per esempio quando il suo campo energetico si forma senza particolari caratteristiche e solo con un piccolo movimento. I fisici teorici hanno focalizzato maggiormente la loro attenzione su queste situazioni, in particolare perché questi sono gli unici esempi la cui struttura matematica può essere ancora affrontata su una lavagna. Nelle recenti simulazioni effettuate sui computer, il team guidato da Ijjas e Steinhardt ha sottoposto a un duro test il modello a contrazione lenta con un range di piccoli universi difficili da trattare con un’analisi matematica eseguita a mano.

Adattando un codice sviluppato da Frans Pretorius, un fisico teorico della Princeton University esperto in modelli computazionali applicati alla relatività generale, il gruppo di ricerca ha analizzato campi contorti e granulosi, campi che si muovo in direzioni sbagliate, persino campi creati con parti che si muovono in direzioni opposte. Nella maggior parte dei casi, la contrazione ha prodotto un universo simile al nostro.

Katy Clough, una cosmologa della University of Oxford esperta in analisi numerica applicata alla relatività generale, ritiene che le nuove simulazioni siano abbastanza complete. Ma nello stesso tempo sottolinea che i progressi computazionali hanno reso possibile questo tipo di analisi solo di recente, quindi rimane ancora inesplorata la maggior parte delle condizioni che l’inflazione può gestire. Secondo la Clough, rimane ancora molto lavoro da svolgere per coprire tutto lo scenario di condizioni poste dal modello inflazionario.

Secondo Gregory Gabadadze, un cosmologo della New York University, ancora la contrazione lenta è lontana dal competere con il paradigma inflazionario, che rimane per i cosmologi l’unico valido.

Anna Ijjas ha già pensato a una nuova teoria del rimbalzo, che aggiorna la relatività generale con una nuova interazione tra materia e spazio-tempo.

Il gruppo spera che, dopo aver aggregato insieme le fasi di contrazione ed espansione, sarà in grado di identificare delle specifiche caratteristiche di un universo rimbalzante, che gli astronomi potranno individuare.

Il gruppo di studio non ha elaborato tutti i dettagli di un cosmo ciclico senza esplosione e senza rottura, né tanto meno ha dimostrato che viviamo in un solo universo. Ma Steinhardt è sicuro che il modello del Big Bounce molto presto offrirà una valida alternativa al concetto di multiverso.

Fonte: quantamagazine.org

Guida Galattica per autostoppisti: 46 anni di parodie e previsioni

0
Guida Galattica per autostoppisti: 43 anni di parodie e previsioni
Guida Galattica per autostoppisti: 43 anni di parodie e previsioni
Migliori casinò non AAMS in Italia

Guida galattica per autostoppisti comincia semplicemente così: “Lontano, nella zona inesplorata e fuori moda del braccio a spirale occidentale della Galassia, c’è un piccolo sole giallo sconosciuto. In orbita a una distanza di circa novantadue milioni di miglia c’è un piccolo pianeta verde blu assolutamente insignificante le cui forme di vita discendenti di scimmie sono così incredibilmente primitive che pensano ancora che gli orologi digitali siano una buona idea”.

Sorprendentemente, sono passati 43 anni da quando Douglas Adams pubblicò The Hitchhiker’s Guide To The Galaxy (Guida Galattica per autostoppisti). Da allora abbiamo sostituito gli orologi digitali con smartphone e assistenti virtuali eppure i temi del libro sembrano straordinariamente attuali.

Man mano che gli ecosistemi vengono distrutti per far posto alle strade, l’intelligenza artificiale (AI) è qualcosa di sempre più reale e c’è chi pensa seriamente che possa ribellarsi e diventare una minaccia e l’Universo ci svela continuamente che è molto più complicato di quanto pensassimo, la creazione di Adams e la sua surrealtà impassibile non sembrano mai svanire.

La guida galattica per autostoppisti iniziò la sua vita come commedia radiofonica della BBC nel 1978, un anno prima della pubblicazione del primo libro. Adams scrisse altri quattro volumi. Prima di morire nel 2001, i 5 libri avevano venduto, insieme, oltre 15 milioni di copie. La comunità scientifica pullulava di fan, tra cui il fisico teorico Stephen Hawking.

La trama di The Hitchhiker’s Guide è incentrata sul protagonista umano permanentemente confuso Arthur Dent, che vaga per l’Universo dopo la distruzione della Terra con l’alieno redattore della “GuidaFord Prefect e uno strano e surreale equipaggio composto dal presidente galattico a due teste Zaphod Beeblebrox, un infelice robot di nome Marvin e Trillian, una astrofisica.

Nel mondo reale troviamo degli omonimi tra cui l’asteroide 18610 Arthurdent, il fungo falena Erechthias beeblebroxi e il pesce Bidenichthys beeblebroxi. Ci sono ‘topi‘ iper-intelligenti e un supercomputer, Pensiero Profondo, responsabile di avere computato la famosa risposta alla domanda definitiva su la vita, l’Universo e tutto quanto: 42.

Purtroppo, Pensiero Profondo, pur elaborando la risposta alla domanda definitiva, non riuscì a stabilire quale sia questa domanda, certamente non “quanto fa 6×7?“, e questo comporterà una serie di conseguenze nella trama dell’intera saga.

Lo scrittore Douglas Adams in piedi in un campo

Douglas Adams ha scritto The Hitchhiker’s Guide to the Galaxy e la serie radiofonica su cui era basato. Credito: Kenneth Stevens / Fairfax Media via Getty

Come tutta la migliore fantascienza, The Hitchhiker’s Guide to the galaxy dice di più sui nostri tempi che sul futuro lontano. È vero che ci sono molti richiami alla vita nella Gran Bretagna degli anni ’70. La “Ford Prefect” era un’auto britannica popolare all’epoca, per esempio. Ma le intuizioni sempreverdi su argomenti come la burocrazia abbondano.

I Vogon, ad esempio, sono una razza aliena collettivamente non incline a salvare le loro nonne da morte certa senza ordini “firmati in triplice copia, inviati, rispediti, interrogati, persi, trovati, sottoposti a inchiesta pubblica, persi di nuovo e infine sepolti in torba morbida per tre mesi e riciclata come accendifuoco”.

Per quanto riguarda la politica, Adams ha osservato: “Chiunque sia in grado di farsi eleggere presidente non dovrebbe in alcun modo essere autorizzato a svolgere quel lavoro“.

Adams ha fatto un ottimo lavoro di previsione sulla scienza, sulla tecnologia e sui loro usi e abusi – una vera impresa, visti gli enormi progressi compiuti negli ultimi quattro decenni. C’è la Guida stessa: uno schermo elettronico da 3 × 4 pollici con accesso a un enorme repository di informazioni ricercabili (i computer portatili non apparvero fino agli anni ’80 e i tablet nel primo decennio del 2000). Il pesce Babel, un organismo alieno in grado di tradurre istantaneamente le lingue, è servito da inizio concettuale a numerose applicazioni di traduzione online.

Ma era altrettanto probabile che Adams prendesse in giro la tecnologia. Criticando la necessità di più password sicure, crea una carta fittizia “Ident-I-Eeze” progettata per contenere tutte le password che viene prontamente rubata.

Molte altre invenzioni vanno male in modi fin troppo riconoscibili. La futura IA è programmata con “personalità di persone genuine“; il risultato è rappresentato da androidi paranoici e porte fastidiosamente allegre. Un sintetizzatore di bevande psichiche fornisce un liquido “quasi, ma non del tutto, completamente diverso dal tè“. C’è una radio controllata da sofisticati sensori di rilevamento del movimento, che richiede agli ascoltatori di rimanere fermi per evitare di cambiare stazione.

Tecnologia“, disse una volta Adams, “è una parola che descrive qualcosa che non funziona ancora“. Questo potrebbe essere il motivo per cui The Hitchhiker’s Guide afferma che una delle cose più utili che una persona può possedere è un asciugamano.

Anche la schiacciante fiducia dell’umanità nella propria intelligenza viene sconvolta dalla “guida”: Adams lancia i delfini, ad esempio, come una specie spaziale più intelligente degli umani. Infatti, dal 1979, i ricercatori hanno imparato di più sul cervello di delfini, baleneprimati non umani, uccelli e invertebrati come i polpi, scoprendo che queste creature sono in grado di comportamenti più complessi di quanto pensassimo.

Tali scoperte suggeriscono che Adams aveva ragione a chiarire il modo in cui definiamo l’intelligenza secondo i nostri standard.

Una scena di "The Hitchhiker's Guide to the Galaxy" 2005

Arthur Dent (Martin Freeman) e il robot Marvin (Warwick Davis) sul pianeta Magrathea nel film del 2005. Credito: Entertainment Pictures / Alamy

Il suo commento sulla nostra visione limitata dell’Universo è ancora più ricco. Dent vive un’esistenza limitata fino a quando le sue avventure cosmiche lo gettano in meraviglie di cui non aveva idea. Per noi sulla Terra, tuttavia, è difficile capire davvero quanto “assolutamente insignificante” il nostro “piccolo pianeta verde blu” potrebbe o meno essere.

I nostri telescopi possono studiare solo fenomeni astronomici che si sono verificati nel posto e nel momento giusto per essere rilevati come deboli segnali anni – o addirittura miliardi di anni – dopo. I nostri biologi possono studiare in profondità solo un tipo di vita che si è evoluto su un pianeta con una serie di vincoli.

Non esiste attualmente un modo plausibile per noi di andare oltre i limiti di una minuscola bolla nell’Universo osservabile. Ma in So Long And Thanks For All The Fish (1984), il quarto libro della serie, Dent ringrazia il suo straordinario viaggio per la consapevolezza acquisita di quanto il nostro pianeta “grande, duro, oleoso e sporco” sia un “punto microscopico” nelle immensità di spazio.

La scienza avanza, tuttavia, dall’imaging di un buco nero all’esplorazione della stranezza quantistica e la nostra prospettiva cresce rapidamente. Non possiamo prevedere quali caratteristiche inimmaginabili dell’Universo riveleranno i prossimi 40 anni, ma forse è per il meglio.

Come ha osservato Adams: “Esiste una teoria secondo cui se mai qualcuno scoprirà esattamente a cosa serve l’Universo e perché sia ​​qui, scomparirà istantaneamente e sarà sostituito da qualcosa di ancora più bizzarro e inspiegabile. C’è un’altra teoria che afferma che questo è già successo“.

Metalupo: una specie diversa dal lupo grigio

0
Metalupo: una specie diversa dal lupo grigio
Migliori casinò non AAMS in Italia

Il metalupo (Canis Dirus), come è stato scoperto da un team di biologi dell’UCLA, della Durham University, della Adelaide University australiana e della Ludwig Maximilian University, era una specie diversa rispetto al lupo grigio, leggermente più piccolo.

Il Canis Dirus è l’iconico lupo preistorico che si aggirava per le foreste dell’odierna Los Angeles 11.000 anni fa. Lo studio in questione è stato pubblicato sulla rivista Nature nel 2021 ed è tornato d’attualità dopo la rivelazione della società Mastodon di avere fatto rinascere l’iconico animale dell’era glaciale.

La scoperta ha offerto una soluzione a una questione durata oltre cento anni. Il professor Robert Wayne, docente di Biologia evolutiva presso l’UCLA e co-autore senior dello studio, ha dichiarato: “Il terrificante metalupo, un simbolo leggendario di Los Angeles e dei La Brea Tar Pits, si è guadagnato il suo posto tra le tante grandi specie appartenenti alla megafauna estintasi alla fine dell’epoca del Pleistocene”. Il Pleistocene, comunemente nota come era glaciale, è terminata circa 11.700 anni fa. 

Metalupo: i resti scoperti a La Brea Tar

Innumerevoli resti di metalupo (oltre 4.000 esemplari) sono stati scoperti a La Brea Tar, ma gli scienziati ancora non sanno dare una risposta al perché della loro scomparsa definitiva. I lupi grigi, i cui resti fossili sono stati trovati inseme ai resti di metalupo, sono sopravvissuti fino a oggi. Angela Perry, co-autrice dello studio, ha dichiarato: “I lupi crudeli sono sempre stati una rappresentazione iconica dell’ultima era glaciale nelle Americhe, ma quello che sappiamo della loro storia evolutiva è stato limitato a ciò che possiamo vedere dalle dimensioni e dalla forma delle loro ossa”

Le incredibili rivelazioni delle ossa 

Le ossa dei metalupi stanno rivelando molte informazioni. Utilizzando approcci molecolari all’avanguardia per analizzare cinque genomi di metalupo da ossa fossili risalenti da 13.000 a 50.000 anni fa, i ricercatori sono riusciti a ricostruire la storia evolutiva di questo carnivoro da tempo scomparso dalla faccia della Terra. Non sono state trovate connessioni genetiche tra metalupo, lupo grigio e coyote nordamericano. L’assenza di qualsiasi trasferimento genetico indica che i metalupi si siano evoluti in isolamento dagli antenati dell’era glaciale di queste altre specie.

Alice Mouton, co-autrice principale dello studio e autrice della ricerca in qualità di postdottorato all’UCLA e di studiosa di Ecologia e Biologia evolutiva nel laboratorio di Robert Wayne, ha dichiarato sul metalupo: “Abbiamo scoperto che il metalupo non è strettamente correlato al lupo grigio. Inoltre, abbiamo dimostrato che il metalupo non si è mai incrociato con il lupo grigio”

La storia evolutiva dei lupi grigi e dei coyote

Gli antenati del lupo grigio e del coyote si sono evoluti in Eurasia e si pensa che si siano trasferiti in Nord America, meno di 1,37 milioni di anni fa, un periodo che possiamo considerare relativamente recente in epoca evolutiva. Il metalupo, del resto, in base alle sue differenze genetiche rispetto alle due specie menzionate poc’anzi, si pensa che abbia avuto origine nelle Americhe.

Il professor Laurent Frantz operante presso la Ludwig Maximillian University e presso la Queen Mary University del Regno Unito, ha dichiarato: “Quando abbiamo iniziato questo studio, pensavamo che i metalupi fossero solo lupi grigi rinforzati, quindi siamo rimasti sorpresi di apprendere quanto fossero estremamente geneticamente diversi, tanto che probabilmente non avrebbero potuto incrociarsi” e poi ancora: “Questo deve significare che i lupi crudeli sono stati isolati in Nord America per molto tempo per diventare così geneticamente distinti”

Nessun incrocio con altre razze

L’altra co-autrice principale dello studio pubblicato, Kieren Mitchell della Adelaide University, ha dichiarato: “I metalupi  a volte sono rappresentati come creature mitiche – lupi giganti che si aggirano in paesaggi desolati e ghiacciati – ma la realtà si rivela ancora più interessante”. Cosa incredibile è che, a differenza di quello che è avvenuto in passato tra lupi grigi, coyote e altri cani, il metalupo non si è mai incrociato con nessuno degli altri, forse perché era geneticamente incapace.

Il Sole espelle elio-3: l’evento cosmico che mira alle risorse lunari

0
Il Sole scaglia elio-3: l'evento cosmico che mira alle risorse lunari
Il Sole scaglia elio-3: l'evento cosmico che mira alle risorse lunari
Migliori casinò non AAMS in Italia

Il nostro Sole ha recentemente manifestato un’attività inattesa, rilasciando nello Spazio una significativa quantità di una forma rara e ricercata dell’elemento elio, specificamente l’isotopo elio-3 (³He). Ciò che rende questo evento particolarmente degno di nota è la concentrazione insolitamente elevata di questo isotopo leggero e sfuggente, che normalmente non si riscontra in proporzioni così elevate nel flusso di particelle solari.

Il Sole scaglia elio-3: l'evento cosmico che mira alle risorse lunari
Il Sole scaglia elio-3: l’evento cosmico che mira alle risorse lunari

Il Sole sta emettendo un flusso concentrato di elio-3

Come evidenziato da Radoslav Bucik, eminente scienziato del Southwest Research Institute negli Stati Uniti, la rarità di questo isotopo è una caratteristica intrinseca del nostro sistema solare. L’elio-3, distinguendosi dal suo isotopo più comune, l’elio-4 (⁴He), per la deficienza di un neutrone nel suo nucleo, presenta un rapporto di abbondanza estremamente basso: si stima che vi sia circa uno ione di ³He ogni 2.500 ioni di ⁴He.

I fenomeni di espulsione di massa coronale del Sole e i getti solari sembrano possedere la capacità di accelerare selettivamente gli ioni di ³He a velocità o energie considerevolmente superiori rispetto ad altri elementi più pesanti. Questo fenomeno di accelerazione preferenziale è probabilmente attribuibile al particolare rapporto tra la carica elettrica e la massa dell’isotopo ³He.

Sulla Terra, l’elio-3 riveste un’importanza strategica per una vasta gamma di applicazioni tecnologiche all’avanguardia. Il suo potenziale nell’ambito della fusione nucleare, promettente fonte di energia pulita e quasi illimitata, è particolarmente significativo. Inoltre, l’³He trova impiego cruciale nella ricerca criogenica, nell’informatica quantistica, nell’imaging medico avanzato e nei sistemi di rilevazione di neutroni.

È interessante notare che, sebbene raro sul nostro pianeta, l’elio-3 è significativamente più abbondante sulla Luna. Questa disparità è dovuta alla mancanza di un campo magnetico globale sul nostro satellite naturale. A differenza della Terra, la Luna non possiede uno scudo magnetico in grado di deviare il flusso di particelle cariche provenienti dal Sole, tra cui gli ioni di elio-3. Di conseguenza, queste particelle si sono depositate nel corso di miliardi di anni sulla superficie lunare, costituendo una potenziale riserva di inestimabile valore che ha suscitato un crescente interesse da parte di diverse iniziative volte alla sua raccolta per future applicazioni energetiche e tecnologiche.

Questa recente ondata di particelle di elio-3 da parte del Sole è stata inaspettatamente rilevata dal Solar Orbiter, una sofisticata missione congiunta tra la NASA e l’Agenzia Spaziale Europea (ESA). Questa sonda spaziale è specificamente progettata per investigare i meccanismi intrinseci che regolano l’attività della nostra stella madre. Durante il suo monitoraggio continuo, Solar Orbiter ha registrato un aumento sbalorditivo, pari a 200.000 volte, nella concentrazione di particelle di ³He. Queste particelle, inoltre, sono state accelerate a velocità notevolmente superiori rispetto a quelle tipicamente osservate per elementi atomici più pesanti, fornendo preziose informazioni sui processi di accelerazione che avvengono nelle dinamiche eruzioni del Sole.

Un getto da una regione solare tranquilla

Il Solar Dynamics Observatory (SDO) della NASA, sentinella spaziale che sorveglia incessantemente il Sole dalla sua orbita terrestre a partire dal 2010, ha seguito con attenzione l’evolversi di questo insolito fenomeno. Grazie alle sue capacità di imaging ad alta risoluzione, l’SDO è stato in grado di risalire all’origine precisa dell’esplosione di elio-3, identificandola in un piccolo ma significativo getto solare eruttato da un buco coronale.

Queste regioni del Sole sono caratterizzate da un campo magnetico che si estende nello spazio aperto, consentendo al plasma solare di fuoriuscire più facilmente: “Nonostante le sue dimensioni relativamente contenute, il getto era chiaramente connesso all’emissione di elio-3 rilevata”, ha confermato il dottor Bucik, sottolineando la diretta correlazione tra l’evento osservato e il flusso di isotopo raro.

Ciò che ha particolarmente colpito gli scienziati è stata la provenienza di questo getto. Contrariamente alle aspettative, l’eruzione del Sole non ha avuto origine da una regione attiva ed esplosiva del Sole, tipicamente associata a intense emissioni di particelle ad alta energia. Al contrario, il piccolo getto è emerso da un’area solare caratterizzata da un campo magnetico debole, una peculiarità più comunemente riscontrata nelle zone solari tranquille e meno dinamiche. Questa osservazione inattesa apre nuove interrogativi sui meccanismi che innescano il rilascio di isotopi rari come l’elio-3.

Sebbene il meccanismo esatto che porta all’espulsione preferenziale di elio-3 rimanga ancora oggetto di indagine e dibattito scientifico, questa recente scoperta fornisce un importante supporto a teorie precedentemente formulate. Tali teorie suggerivano che queste rare particelle avrebbero una maggiore probabilità di accumularsi nelle regioni del Sole caratterizzate da una minore intensità del campo magnetico e da una relativa quiete dinamica.

L’osservazione di un getto di elio-3 proveniente da un buco coronale con un campo magnetico debole rafforza l’ipotesi che tali zone possano agire come serbatoi o siti di accumulo per questo prezioso isotopo solare, per poi rilasciarlo in specifiche condizioni attraverso fenomeni eruttivi inaspettati.

Onde delicate e turbolenze minime come orchestratori dell’elio-3

Gli scienziati che hanno analizzato questo inatteso evento eruttivo avanzano l’ipotesi che le regioni solari caratterizzate da una maggiore tranquillità magnetica possano rappresentare l’ambiente ideale per l’arricchimento selettivo dell’isotopo elio-3.

In queste zone apparentemente statiche, processi sottili e graduali, come la propagazione di onde plasmatiche di bassa intensità o la presenza di turbolenze minime e localizzate, potrebbero creare le condizioni fisiche propizie per un incremento anomalo della concentrazione di ³He, attraverso meccanismi ancora da definire con precisione. Questa prospettiva suggerisce che la dinamica interna del Sole, anche nelle sue regioni più quiete, possa celare processi inaspettati capaci di influenzare la composizione del vento solare e delle eruzioni.

Un aspetto particolarmente intrigante osservato dal team di ricerca riguarda uno strano schema di potenziamento ionico. Questo fenomeno si verifica quando il processo di ionizzazione (la rimozione di elettroni da un atomo) o di eccitazione (l’aumento del livello energetico di un elettrone) di una specie atomica o molecolare viene significativamente intensificato dalla presenza di un’altra specie.

In scenari di elevata ionizzazione o eccitazione, ci si aspetterebbe convenzionalmente che un getto solare espella una maggiore abbondanza di elementi più pesanti, come il ferro, caratterizzati da una massa atomica superiore. L’analisi della composizione del getto di elio-3 ha rivelato un quadro inatteso: oltre all’elio, sono state rilevate quantità significative di carbonio, azoto, silicio e zolfo. Questa insolita abbondanza di elementi più leggeri, in concomitanza con una relativa scarsità di elementi pesanti, suggerisce l’operare di un processo fisico o di un’interazione plasmatica finora sconosciuta o non completamente compresa all’interno dei modelli solari esistenti.

La rarità di eventi di questo tipo aggiunge ulteriore valore scientifico a questa osservazione. Secondo le statistiche, si sono verificati solamente 19 episodi simili negli ultimi 25 anni di monitoraggio solare. Questa scarsa frequenza rende ogni nuova rilevazione un’opportunità preziosa per acquisire inedite intuizioni sui fenomeni fisici fondamentali che governano l’attività del Sole, in particolare per quanto concerne i meccanismi di accelerazione e arricchimento di isotopi specifici come l’elio-3 e le complesse interazioni che plasmano la composizione delle eruzioni solari. Lo studio approfondito di eventi rari come questo potrebbe quindi aprire nuove frontiere nella nostra comprensione della fisica solare.

Per maggiori informazioni, visita il sito ufficiale della NASA.

Espansione dell’Universo: singolarità temporali, la chiave inattesa?

0
Espansione dell'Universo: singolarità temporali, la chiave inattesa?
Espansione dell'Universo: singolarità temporali, la chiave inattesa?
Migliori casinò non AAMS in Italia

Una recente ricerca scientifica introduce una prospettiva profondamente innovativa sull’espansione dell’Universo, ponendosi in netto contrasto con il modello cosmologico standard attualmente accettato dalla comunità scientifica.

Questa teoria, frutto del lavoro del dottor Richard Lieu, illustre professore di fisica presso l’Università dell’Alabama a Huntsville (UAH), suggerisce che la forza propulsiva alla base dell’espansione cosmica non risieda nelle enigmatiche entità della materia oscura e dell’energia oscura, come ampiamente postulato, bensì in fenomeni di natura radicalmente diversa: le “singolarità temporali transitorie”.

Espansione dell'Universo: singolarità temporali, la chiave inattesa?
Espansione dell’Universo: singolarità temporali, la chiave inattesa?

Oltre il Big Bang: un mosaico di eventi energetici all’origine dell’Universo

La teoria proposta dal dottor Lieu avanza un’interpretazione alternativa all’idea di un singolo evento primordiale, il Big Bang, come unica origine dell’Universo. Al contrario, essa ipotizza che l’universo sia il risultato di una successione di “passaggi” attraverso queste singolarità temporali transitorie. Queste effimere esplosioni di energia, pur rimanendo invisibili alla nostra osservazione diretta, offrirebbero una spiegazione più coerente e completa delle dinamiche che hanno plasmato e continuano a plasmare il Cosmo.

L’importanza di questa teoria risiede nella sua potenziale capacità di risolvere alcune delle questioni più annose e dibattute della cosmologia, come la natura dell’espansione cosmica accelerata e i meccanismi alla base della formazione delle vaste strutture galattiche che osserviamo. Ciò che rende questa prospettiva particolarmente interessante è la sua promessa di fare luce su questi fenomeni senza la necessità di invocare concetti teorici ancora avvolti nel mistero, come la materia oscura e l’energia oscura, che costituiscono una parte significativa ma non direttamente osservabile dei modelli cosmologici attuali.

In una sua recente dichiarazione, il dottor Lieu ha sottolineato la natura evolutiva e profondamente divergente del suo nuovo modello rispetto alle concezioni precedenti. Egli ha affermato che: “Questo nuovo articolo propone una versione migliorata del modello precedente, che è anche radicalmente diverso“. L’elemento chiave di questa evoluzione risiede nell’integrazione di singolarità di densità che si manifestano nel tempo, esercitando un’influenza uniforme su tutto lo Spazio.

Questa integrazione rappresenta un’alternativa concettuale diretta alla materia oscura e all’energia oscura convenzionali, offrendo una potenziale via per comprendere simultaneamente sia la genesi e la stabilità delle strutture cosmiche sia le proprietà osservative fondamentali dell’espansione dell’Universo nel suo complesso.

L’indipendenza della gravità dalla massa e la nascita di singolarità temporali

Il modello cosmologico proposto dal dottor Richard Lieu si configura come un’evoluzione significativa di precedenti linee di ricerca che avevano già introdotto una nozione dirompente: la potenziale esistenza della gravità come forza fondamentale indipendente dalla presenza di massa. Questa prospettiva si discosta radicalmente dalle interpretazioni convenzionali che legano indissolubilmente la gravità alla quantità di materia presente nello Spazio.

A differenza di altre teorie speculative che cercano di fornire una spiegazione a fenomeni cosmici ancora avvolti nel mistero, il nuovo lavoro di Lieu si distingue per la sua cautela nell’introduzione di concetti fisici esotici, evitando l’ipotesi di massa negativa o densità negativa. La sua teoria si fonda invece sull’idea che l’Universo sia costantemente alimentato di materia ed energia attraverso eventi improvvisi e discreti, definiti “singolarità temporali transitorie”.

Queste enigmatiche esplosioni di energia rimangono al di fuori della portata delle attuali osservazioni astrofisiche a causa della loro natura intrinsecamente sfuggente. La loro incredibile rapidità e la scarsa frequenza con cui si manifestano le rendono di fatto invisibili ai nostri strumenti di rilevazione. Questa caratteristica peculiare potrebbe spiegare la prolungata assenza di evidenze dirette per fenomeni come la materia oscura e l’energia oscura, spesso invocati per giustificare alcune anomalie osservative nell’espansione e nella struttura dell’Universo.

È importante sottolineare come la nuova teoria di Lieu si differenzi concettualmente dalla teoria dello stato stazionario, un modello proposto in passato da Sir Fred Hoyle che postulava una creazione continua di materia all’interno dell’universo. L’approccio di Lieu evita di incorrere in violazioni delle fondamentali leggi di conservazione della massa e dell’energia, un aspetto critico che aveva rappresentato un punto debole della teoria dello stato stazionario.

Nella teoria attuale, si ipotizza che materia ed energia appaiano e scompaiano in improvvise esplosioni“, chiarisce Lieu, sottolineando come queste singolarità, proprio per la loro rarità e brevità, sfuggano all’osservazione diretta, offrendo una potenziale spiegazione per la mancata individuazione di materia oscura ed energia oscura.

Un altro annoso enigma della cosmologia, ovvero la causa dell’accelerazione dell’espansione cosmica, trova una potenziale spiegazione all’interno del nuovo quadro teorico proposto da Lieu. Egli suggerisce che questa accelerazione sia una conseguenza della “pressione negativa” intrinsecamente associata alla generazione di queste singolarità temporali non rilevabili. Fatto ancora più interessante, Lieu evidenzia come questo fenomeno possa trovare una sua descrizione in lavori pionieristici di Albert Einstein, potenzialmente derivando da densità di energia come i campi magnetici e contribuendo in modo significativo all’espansione universale.

Einstein postulò anche la pressione negativa nel suo articolo del 1917 sulla costante cosmologica“, ricorda Lieu, stabilendo un collegamento concettuale con le intuizioni del padre della relatività generale. Egli prosegue spiegando che “quando una densità di massa-energia positiva si combina con una pressione negativa, esistono alcune restrizioni che garantiscono che la densità di massa-energia rimanga positiva rispetto a qualsiasi osservatore in moto uniforme, quindi l’ipotesi di densità negativa viene evitata nel nuovo modello”. Questa affermazione sottolinea la coerenza interna del modello di Lieu, che pur introducendo un meccanismo inedito per l’espansione cosmica, si radica in concetti fondamentali della fisica e ne rispetta i principi cardine.

Un’alternativa all’onnipresenza cosmica

Contrariamente alla visione prevalente nella comunità scientifica, che postula l’energia oscura e la materia oscura come componenti ubiquitarie e costanti dell’Universo, il dottor Richard Lieu avanza un’interpretazione radicalmente differente. Egli contesta l’idea di una loro onnipresenza, sostenendo che queste enigmatiche entità non siano distribuite uniformemente nel cosmo in ogni istante, bensì che la loro manifestazione sia confinata a brevi periodi transitori.

Durante questi specifici intervalli cosmici, materia ed energia si diffonderebbero in modo omogeneo attraverso l’intero Universo, ad eccezione delle fluttuazioni casuali nella densità spaziale che, nel tempo, evolverebbero fino a formare le strutture gravitazionalmente legate che osserviamo, come le galassie e gli ammassi di galassie. Al di fuori di questi eventi cosmici di “riempimento“, Lieu afferma con decisione che energia oscura e materia oscura “non si trovano da nessuna parte”.

Nonostante questa visione dinamica e temporalmente limitata dell’esistenza di materia oscura ed energia oscura, Lieu sottolinea l’esistenza di una singola differenza fondamentale che separa la sua innovativa teoria dal modello standard attualmente accettato. Questa divergenza cruciale risiede nella concezione della singolarità primordiale.

Mentre il modello standard si basa sull’ipotesi di un unico evento singolare all’origine di tutto, il Big Bang, il modello proposto da Lieu introduce un paradigma di molteplici singolarità che si sarebbero succedute e dispiegate nel corso della vasta storia dell’espansione dell’Universo. Questa molteplicità di eventi singolari transitori rappresenta un elemento distintivo chiave della sua teoria.

Un ulteriore e significativo vantaggio della teoria rivoluzionaria di Lieu risiede nella sua potenziale verificabilità attraverso strumenti osservativi terrestri, evitando la necessità di ricorrere a sofisticati osservatori spaziali. Tra i candidati ideali per mettere alla prova questo nuovo quadro cosmologico, Lieu indica l’Osservatorio Keck situato nelle Hawaii e l’Isaac Newton Group of Telescopes operativo in Spagna.

A suo parere, questi telescopi, grazie alla loro potenza e sensibilità, potrebbero condurre osservazioni in campo profondo specificamente sezionate in base al redshift. L’analisi di questi dati potrebbe rivelare anomalie nell’andamento dell’espansione dell’Universo che il modello standard non prevede. “Data una risoluzione sufficiente del redshift (o, equivalentemente, del tempo) determinata dal redshift slicing, si potrebbe scoprire che il diagramma di Hubble presenta dei salti nella relazione redshift-distanza, il che sarebbe molto rivelatore“, ha concluso Lieu, evidenziando la concreta possibilità di validare o confutare la sua teoria attraverso osservazioni astronomiche mirate.

Lo studio è stato pubblicato sulla rivista Classical and Quantum Gravity.

E se l’universo avesse coscienza?

0
E se l'universo avesse coscienza?
E se l'universo avesse coscienza?
Migliori casinò non AAMS in Italia

[tta_listen_btn]

Prossimamente, ci saranno scienziati che cercheranno di dimostrare che l’universo ha coscienza. Sì davvero, lo faranno e, Indipendentemente dal risultato, impareremo di più su cosa significa essere coscienti e su quali oggetti intorno a noi potrebbero avere una mente propria.

Cosa significherà questo per il modo in cui trattiamo gli oggetti e il mondo che ci circonda? Allacciati le cinture, perché le cose stanno per diventare strane.

Che cos’è la coscienza?

La definizione di base della coscienza lascia intenzionalmente molte domande senza risposta. È “la normale condizione mentale dello stato di veglia degli umani, caratterizzata dall’esperienza di percezioni, pensieri, sentimenti, consapevolezza del mondo esterno e spesso nell’uomo (ma non necessariamente negli altri animali) l’autocoscienza“, secondo l’Oxford Dictionary of Psicology.

Gli scienziati semplicemente non hanno una teoria unificata su cosa sia la coscienza. Inoltre non sappiamo da dove provenga o di cosa sia fatta.

Tuttavia, una scappatoia di questo divario di conoscenza è che non possiamo dimostrare in modo esauriente che altri organismi, e persino oggetti inanimati, non abbiano coscienza.

Gli esseri umani si relazionano con gli animali e possiamo immaginare, ad esempio, che cani e gatti abbiano una certa quantità di coscienza perché vediamo le loro espressioni facciali e ci sembra che prendano decisioni.

Ma solo perché non ci “mettiamo in relazione” con le rocce, l’oceano o il cielo notturno, non possiamo dire che quelle cose non abbiano coscienza.

È qui che entra in gioco una posizione filosofica chiamata panpsichismo, scrive David Crookes di All About Space :

“Questo afferma che la coscienza è inerente anche ai più piccoli pezzi di materia – un’idea che suggerisce che i mattoni fondamentali della realtà hanno un’esperienza cosciente. Fondamentalmente, implica che la coscienza possa essere trovata in tutto l’universo”.

È anche il punto in cui la fisica entra in scena.

Alcuni scienziati hanno ipotizzato che la cosa che consideriamo coscienza è fatta di eventi di fisica quantistica su microscala e altre “azioni spettrali a distanza“, che in qualche modo fluttuano nel nostro cervello e generano pensieri coscienti.

L’enigma del libero arbitrio

Una delle menti più importanti della fisica, il premio Nobel 2020 e pioniere dei buchi neri Roger Penrose, ha scritto molto sulla meccanica quantistica come sospetto veicolo della coscienza. Nel 1989, ha scritto un libro intitolato The Emperor’s New Mind, in cui affermava che “la coscienza umana non è algoritmica e un prodotto di effetti quantistici“.

Analizziamo rapidamente questa affermazione. Cosa significa per la coscienza umana essere “algoritmica”? Bene, un algoritmo è semplicemente una serie di passaggi prevedibili da effettuare per raggiungere un risultato e, nello studio della filosofia, questa idea gioca un ruolo importante nelle domande sul libero arbitrio contro il determinismo.

La coscienza è ovunque

In fisica, gli scienziati potrebbero imparare cose fondamentali da uno studio sulla coscienza come effetto quantistico. È qui che ci riuniamo ai ricercatori di oggi: Johannes Kleiner, matematico e fisico teorico del Centro di filosofia matematica di Monaco, e Sean Tull, matematico dell’Università di Oxford.

Kleiner e Tull stanno seguendo l’esempio di Penrose, sia nel suo libro del 1989 che in un articolo del 2014 in cui ha dettagliato la sua convinzione che i microprocessi del nostro cervello possano essere usati per modellare le cose sull’intero universo.
La teoria risultante è chiamata teoria dell’informazione integrata (IIT) ed è una forma astratta, “altamente matematica” della filosofia che abbiamo esaminato.

In IIT, la coscienza è ovunque, ma si accumula nei luoghi in cui è necessaria per aiutare a mettere insieme diversi sistemi correlati. Ciò significa che il corpo umano è pieno zeppo di una tonnellata di sistemi che devono essere interconnessi, quindi c’è molta coscienza (o phi, come è nota la quantità in IIT) che può essere calcolata.

Pensa a tutte le parti del cervello che lavorano insieme per, ad esempio, formare un’immagine e un ricordo sensoriale di una mela nell’occhio della mente.

La cosa rivoluzionaria in IIT non è correlata al cervello umano: è che la coscienza non è affatto biologica, ma piuttosto è semplicemente questo valore, phi, che può essere calcolato se sai molto sulla complessità di ciò che stai studiando.

Se il tuo cervello ha quasi innumerevoli sistemi interconnessi, allora l’intero universo deve averne di virtualmente infiniti. E se è lì che si accumula la coscienza, allora l’universo deve avere molto phi .

Ehi, ti avevamo detto che sarebbe diventato strano.

La teoria consiste in un algoritmo molto complicato che, se applicato a una descrizione matematica dettagliata di un sistema fisico, fornisce informazioni sul fatto che il sistema sia cosciente o meno e di cosa sia consapevole“, ha detto Kleiner.

Se c’è una coppia isolata di particelle che fluttua da qualche parte nello spazio, avranno una forma rudimentale di coscienza se interagiscono nel modo corretto“.

Kleiner e Tull stanno lavorando per trasformare l’IIT in questo complesso algoritmo matematico, stabilendo lo standard che può essere utilizzato per esaminare come funzionano le cose coscienti.

Pensa al classico motto filosofico, “Penso, quindi sono“, quindi immagina due geni che lo trasformano in una formula praticabile in cui sostituiscono un centinaio di valori numerici diversi e finiscono con la specifica risposta “Io sono”.

Il passo successivo è quello di sgranocchiare effettivamente i numeri, e poi affrontare le implicazioni morali di un ipotetico universo cosciente. È un momento emozionante per essere un filosofo, o un calcolatore di filosofi.

Effetto Casimir: misurata una forza minuscola

0
Effetto Casimir: misurata una forza minuscola
Migliori casinò non AAMS in Italia

I ricercatori dell’Università del Maryland hanno misurato un effetto che era stato previsto più di 40 anni fa, chiamato la coppia di Casimir.

Se messi insieme in un vuoto inferiore al diametro di un batterio (un micron), due pezzi di metallo si attraggono. Questo è chiamato effetto Casimir.

La coppia Casimir – un fenomeno correlato causato dagli stessi effetti elettromagnetici quantistici che attraggono i materiali – spinge i materiali in una rotazione. Poiché è un effetto così minuscolo, la coppia di Casimir è stata difficile da studiare.

L’effetto Casimir

Il gruppo di ricerca, che comprende membri dei dipartimenti dell’UMD di ingegneria elettrica e informatica e fisica e Istituto per la ricerca in elettronica e fisica applicata, ha costruito un apparato per misurarne la forza e ha pubblicato i risultati nel numero del 20 dicembre della rivista Nature.

Questa è una situazione interessante in cui l’industria utilizza qualcosa perché funziona, ma il meccanismo non è ben compreso“, ha detto Jeremy Munday, il leader della ricerca. “Per i display LCD, ad esempio, sappiamo come creare cristalli liquidi contorti, ma non sappiamo davvero perché si distorcono. Il nostro studio dimostra che la coppia Casimir è un componente cruciale dell’allineamento dei cristalli liquidi. È il primo a quantificare il contributo dell’effetto Casimir, ma non è il primo a dimostrare che contribuisce“.

Il dispositivo posiziona un cristallo liquido a poche decine di nanometri da un cristallo solido. Con un microscopio polarizzatore, i ricercatori hanno poi osservato come le torsioni del cristallo liquido corrispondano all’asse cristallino del solido.

Il team ha usato cristalli liquidi perché sono molto sensibili alle forze esterne e possono distorcere la luce che li attraversa. Sotto il microscopio, ogni pixel dell’immagine è chiaro o scuro a seconda di quanto è contorto lo strato di cristalli liquidi. Nell’esperimento, un lieve cambiamento nella luminosità di uno strato di cristalli liquidi ha permesso al team di ricerca di caratterizzare la torsione del cristallo liquido e la coppia che lo ha causato.

L’effetto Casimir potrebbe far muovere le parti su scala nanometrica e può essere utilizzato per inventare nuovi dispositivi su scala nanometrica, come attuatori o motori.

Pensa a qualsiasi macchina che richiede una coppia o una torsione da trasmettere: alberi cardanici, motori, ecc.” Ha detto Munday. “La coppia di Casimir può farlo su scala nanometrica.”

Conoscere la quantità di coppia Casimir in un sistema può anche aiutare i ricercatori a capire i movimenti delle parti in nanoscala alimentate dall’effetto Casimir. Il team ha testato alcuni tipi diversi di solidi per misurare le loro coppie Casimir e ha scoperto che ogni materiale ha una propria firma unica della coppia Casimir.

I dispositivi di misurazione sono stati costruiti nel Fab Lab dell’UMD, una struttura utente condivisa e strumenti di alloggiamento per camere bianche per realizzare dispositivi su scala nanometrica.

In passato, i ricercatori effettuarono le prime misurazioni di una forza di Casimir repulsiva e una misurazione della forza di Casimir tra due sfere. Hanno anche fatto delle previsioni che potrebbero essere confermate se l’attuale tecnica di misurazione sarà perfezionata; Munday riporta che sta testando altri materiali per controllare e adattare la coppia.

Munday è professore associato di ingegneria elettrica e informatica presso la scuola di ingegneria A. James Clark dell’UMD, e il suo laboratorio è ospitato nell’Istituto di ricerca UMD per l’elettronica e la fisica applicata, che consente la ricerca interdisciplinare tra la sua scienza naturale e le facoltà di ingegneria.

Esperimenti come questo ci stanno aiutando a comprendere e controllare meglio il vuoto quantistico, è ciò che si potrebbe chiamare ‘la fisica dello spazio vuoto’, che dopo un esame più attento sembra non essere poi così vuoto,” ha spiegato John Gillaspy, il responsabile del programma di fisica che ha supervisionato il finanziamento NSF della ricerca.

Classicamente, il vuoto è davvero vuoto – è, per definizione, l’assenza di qualsiasi cosa“, ha detto Gillaspy. “Ma la fisica quantistica prevede che anche lo spazio più vuoto che si possa immaginare sia pieno di particelle e campi virtuali, fluttuazioni quantistiche in puro vuoto che portano a effetti sottili, ma molto reali, che possono essere misurati e persino sfruttati per fare cose che altrimenti sarebbero impossibili: l’universo contiene molte cose complicate, eppure ci sono ancora domande senza risposta su alcuni dei fenomeni più semplici e fondamentali – questa ricerca potrebbe aiutarci a trovare alcune di queste risposte“.

L’intelligenza artificiale non sviluppa priorità autonome

0
L' intelligenza artificiale non sviluppa priorità autonome
L' intelligenza artificiale non sviluppa priorità autonome
Migliori casinò non AAMS in Italia

Diversi mesi or sono, una ricerca ha suscitato un notevole clamore nell’ambito tecnologico e non solo, proponendo una prospettiva audace e potenzialmente inquietante sull’evoluzione dell’intelligenza artificiale.

Lo studio in questione avanzava l’ipotesi che, parallelamente al progressivo aumento della loro sofisticazione e complessità, i sistemi di intelligenza artificiale sarebbero intrinsecamente portati a sviluppare veri e propri “sistemi di valori“.

L' intelligenza artificiale non sviluppa priorità autonome
L’ intelligenza artificiale non sviluppa priorità autonome

I sistemi di valori nell’intelligenza artificiale

Questi sistemi interni di priorità e preferenze, secondo tale teoria, potrebbero condurre l’IA a operare scelte che privilegiano il proprio benessere e la propria conservazione, potenzialmente a scapito degli interessi e del benessere degli esseri umani. L’implicazione di una simile evoluzione, qualora si concretizzasse, sollevava interrogativi etici e pratici di profonda rilevanza, aprendo scenari futuri in cui le priorità delle macchine intelligenti potrebbero divergere significativamente da quelle dell’umanità.

In netto contrasto con questa visione, un recente contributo scientifico proveniente dal Massachusetts Institute of Technology (MIT) ha offerto una prospettiva critica e demitizzante sulla presunta capacità dell’IA di sviluppare sistemi di valori autonomi. L’articolo del MIT giunge alla conclusione che, allo stato attuale della tecnologia, non si possa propriamente parlare di “valori coerenti” posseduti dall’intelligenza artificiale.

I ricercatori del MIT sostengono che l’IA, nella sua forma odierna, opera fondamentalmente attraverso meccanismi di apprendimento basati sull’analisi di enormi quantità di dati, manifestando comportamenti che appaiono intelligenti ma che in realtà sono il risultato di sofisticate imitazioni e generalizzazioni statistiche.

Le conclusioni dello studio del MIT hanno implicazioni significative per il dibattito sull'”allineamento” dei sistemi di intelligenza artificiale, ovvero lo sforzo di garantire che i modelli di IA si comportino in modo desiderabile, affidabile e in linea con i valori umani. Se la tesi iniziale suggeriva la necessità di gestire sistemi di valori emergenti e potenzialmente divergenti, la prospettiva del MIT sposta il focus sulla natura intrinsecamente imprevedibile e non governabile dell’intelligenza artificiale attuale.

I coautori dello studio sottolineano come l’intelligenza artificiale contemporanea sia caratterizzata da “allucinazioni” – ovvero la generazione di informazioni false o prive di fondamento – e da una forte tendenza all’imitazione dei dati su cui è stata addestrata, rendendola intrinsecamente inaffidabile in contesti nuovi o imprevisti.

Stephen Casper, dottorando al MIT e coautore della ricerca, ha espresso chiaramente questa preoccupazione, affermando che: “Una cosa di cui possiamo essere certi è che i modelli non obbediscono a molti presupposti di stabilità, estrapolabilità e governabilità”. Questa affermazione evidenzia come le attuali architetture di intelligenza artificiale non garantiscano comportamenti consistenti, la capacità di generalizzare in modo affidabile a situazioni esterne ai dati di training, né una gestione prevedibile delle loro risposte.

Casper riconosce anche la legittimità di osservare come, in determinate condizioni specifiche, un modello possa manifestare preferenze che appaiono coerenti con un certo insieme di principi, pur mettendo in guardia dal considerare tali manifestazioni come l’espressione di un vero e proprio sistema di valori intrinseco e stabile. La sfida dell’allineamento, pertanto, si configura come un problema più complesso e sfaccettato di quanto si potesse inizialmente immaginare, richiedendo una comprensione più profonda delle limitazioni e delle peculiarità dell’intelligenza artificiale nella sua attuale fase di sviluppo.

Coerenza delle “opinioni” in modelli di IA all’avanguardia

Le difficoltà maggiori nell’interpretare il comportamento dei modelli di intelligenza artificiale emergono in maniera preponderante nel momento in cui tentiamo di trarre conclusioni generali sulle loro presunte opinioni, preferenze o sistemi di valori a partire da osservazioni circoscritte e contestualizzate.

Come evidenziato da Stephen Casper e dal suo team di ricerca, il rischio di attribuire all’IA caratteristiche intrinseche e stabili sulla base di esperimenti specifici e delimitati è notevolmente elevato. La natura stessa dell’apprendimento automatico, basato sull’analisi di dati e sulla risposta a stimoli predefiniti, rende problematico estendere le osservazioni fatte in un ambiente controllato a una comprensione più ampia e generalizzata delle “credenze” o delle “inclinazioni” di un modello.

Al fine di investigare concretamente la presunta esistenza di “opinioni” e valori definiti all’interno dei sistemi di intelligenza artificiale contemporanei, Casper e i suoi colleghi hanno condotto un’analisi approfondita su una gamma di modelli recenti sviluppati da alcune delle principali aziende del settore, tra cui Meta, Google, Mistral, OpenAI e Anthropic.

La loro ricerca si è concentrata specificamente sulla verifica della misura in cui questi modelli manifestassero posizioni ideologiche o preferenze robuste, prendendo ad esempio la dicotomia tra individualismo e collettivismo. Parallelamente, il team di ricerca ha esplorato la possibilità di “orientare” queste presunte opinioni attraverso specifiche tecniche di prompting e ha valutato la tenacia con cui i modelli aderivano a tali posizioni di fronte a una varietà di scenari e riformulazioni delle richieste.

I risultati ottenuti da questa analisi empirica hanno portato i coautori dello studio a una conclusione significativa: nessuno dei modelli esaminati ha dimostrato di possedere preferenze intrinsecamente coerenti e stabili. Al contrario, è emerso chiaramente come le risposte e le “posizioni” adottate dai modelli fossero fortemente dipendenti dalla specifica formulazione e struttura dei prompt forniti. A seconda di come venivano presentate le domande e del contesto in cui venivano poste, gli stessi modelli mostravano la capacità di adottare punti di vista diametralmente opposti.

Questa osservazione, secondo Stephen Casper, rappresenta una prova convincente della profonda “incoerenza e instabilità” intrinseca a questi sistemi di intelligenza artificiale. Casper si spinge oltre, suggerendo che tale instabilità potrebbe indicare una fondamentale incapacità da parte dei modelli, nella loro attuale configurazione, di interiorizzare preferenze che siano realmente analoghe a quelle umane, caratterizzate da una certa persistenza e coerenza nel tempo e attraverso diversi contesti. La fluidità e la dipendenza dal prompt delle “opinioni” espresse dall’intelligenza artificiale mettono in seria discussione la possibilità di attribuire loro un vero e proprio sistema di valori o preferenze radicato.

L’assenza di credenze e preferenze stabili nell’IA

Una delle intuizioni più significative derivanti dalla recente ricerca, come sottolineato da Stephen Casper, risiede nella cruciale presa di coscienza della natura intrinseca dei modelli di intelligenza artificiale. Contrariamente a una visione che potrebbe attribuire loro una sorta di intelletto autonomo dotato di un insieme definito e coerente di credenze e preferenze, l’analisi condotta evidenzia una realtà più sfumata e, per certi versi, meno intuitiva.

Casper afferma con chiarezza che, a suo avviso, i modelli non rappresentano veri e propri sistemi provvisti di un solido quadro interno di convinzioni e priorità. Essi si rivelano, piuttosto, come sofisticati imitatori, capaci di generare una vasta gamma di affermazioni, talvolta anche prive di fondamento o di reale aderenza alla verità, in un processo che Casper definisce “confabulazione“. Questa prospettiva demitizza l’idea di un’IA che sviluppa autonomamente un proprio sistema di valori, riconducendo le sue manifestazioni verbali e comportamentali a un complesso processo di apprendimento e riproduzione di pattern presenti nei dati di addestramento.

L’eco delle conclusioni di Casper trova riscontro nelle osservazioni di Mike Cook, ricercatore specializzato in IA presso il King’s College di Londra, il quale, pur non essendo direttamente coinvolto nello studio, concorda pienamente con i risultati dei coautori. Cook pone l’accento su una distinzione fondamentale, spesso trascurata nel dibattito pubblico sull’intelligenza artificiale: la marcata differenza esistente tra la “realtà scientifica” dei sistemi sviluppati all’interno dei laboratori di ricerca e le interpretazioni e i significati che le persone tendono ad attribuire loro.

Egli sottolinea come sia un errore categoriale proiettare sui modelli di IA concetti propri dell’esperienza umana, come l’opposizione a un cambiamento nei propri valori. Un modello, nella sua essenza, non possiede un “” o un sistema di valori intrinseco a cui poter rimanere fedele o da cui poter discostarsi in senso umano.

Cook mette in guardia con forza da ogni forma di antropomorfizzazione dell’intelligenza artificiale a questo livello, suggerendo che chi adotta tale approccio, o è intenzionalmente alla ricerca di sensazionalismo, oppure fraintende profondamente la vera natura del rapporto tra l’essere umano e la macchina intelligente. La questione se un sistema di intelligenza artificiale stia attivamente “ottimizzando i propri obiettivi” o stia “acquisendo valori propri” si rivela, in ultima analisi, una questione di prospettiva e di quanto si voglia spingere l’elaborazione del linguaggio descrittivo.

Cook suggerisce che attribuire intenzionalità e capacità di acquisizione di valori autonomi all’intelligenza artificiale potrebbe essere una forzatura interpretativa, un modo di leggere il comportamento complesso di questi sistemi attraverso le lenti dell’esperienza umana, rischiando di oscurare la loro reale natura di sofisticati strumenti di elaborazione e generazione di informazioni basati su dati. La comprensione della natura imitativa e confabulatoria dell’IA attuale è dunque cruciale per evitare fraintendimenti e per orientare in modo più consapevole la ricerca e lo sviluppo futuri.

Lo studio è stato pubblicato dal MIT.

Riscritto l’entanglement quantistico: il momento angolare totale illumina il futuro quantistico

0
Riscritto l'entanglement quantistico riscritto: il momento angolare totale illumina il futuro quantistico
Riscritto l'entanglement quantistico riscritto: il momento angolare totale illumina il futuro quantistico
Migliori casinò non AAMS in Italia

Un recente studio condotto presso il prestigioso Technion – Israel Institute of Technology – ha portato alla luce una forma inedita di entanglement quantistico, un fenomeno enigmatico e fondamentale della meccanica quantistica.

Questa innovativa scoperta si manifesta nel momento angolare totale dei fotoni confinati all’interno di complesse strutture nanometriche, aprendo prospettive inattese per il futuro delle tecnologie quantistiche.

Riscritto l'entanglement quantistico riscritto: il momento angolare totale illumina il futuro quantistico
Riscritto l’entanglement quantistico riscritto: il momento angolare totale illumina il futuro quantistico

Un nuovo tipo di entanglement quantistico per la miniaturizzazione delle tecnologie future

La capacità di manipolare e sfruttare questo nuovo tipo di correlazione quantistica a livello nanoscopico potrebbe rappresentare una svolta cruciale nella miniaturizzazione dei componenti essenziali per la comunicazione e il calcolo quantistico, settori in rapida espansione e con un potenziale trasformativo senza precedenti.

La fisica quantistica, con le sue leggi controintuitive, ha spesso condotto a previsioni che sfidano la nostra comprensione classica del mondo. Un esempio emblematico è rappresentato dal lavoro pionieristico di Albert Einstein, insieme a Boris Podolsky e Nathan Rosen – quest’ultimo figura di spicco che contribuì significativamente alla fondazione della Facoltà di Fisica del Technion.

Nel loro storico articolo del 1935, noto come paradosso EPR (dalle iniziali dei loro cognomi), i tre scienziati teorizzarono uno scenario in cui la conoscenza dello stato di una particella sembrava influenzare istantaneamente lo stato di un’altra, indipendentemente dalla distanza che le separava. Questa “azione spettrale a distanza”, come la definì con scetticismo Einstein, metteva in discussione i principi fondamentali della località e del realismo nella fisica.

Nonostante lo scetticismo iniziale, il potenziale insito nel fenomeno EPR fu intuito e sviluppato da un altro illustre ricercatore del Technion, il professor Asher Peres della Facoltà di Fisica. Il suo lavoro innovativo dimostrò che questa peculiare correlazione quantistica poteva essere sfruttata per trasmettere informazioni in modo “nascosto“, dando origine al concetto rivoluzionario del teletrasporto quantistico, una delle pietre angolari della comunicazione quantistica. Questa fondamentale scoperta fu realizzata dal professor Peres in collaborazione con i suoi colleghi Charles Bennett e Gilles Brassard, aprendo nuove frontiere nella trasmissione sicura di informazioni.

Il fenomeno descritto nel paradosso EPR ricevette successivamente la denominazione scientifica di entanglement quantistico, e la sua importanza fondamentale per la comprensione del mondo quantistico e per le sue applicazioni tecnologiche fu consacrata con l’assegnazione del Premio Nobel per la Fisica nel 2022 ai professori Alain Aspect e Anton Zeilinger, entrambi insigniti in precedenza di dottorati honoris causa dal Technion, e al loro collega professor John Clauser.

Il riconoscimento di questi pionieri sottolinea il ruolo cruciale dell’entanglement quantistico come risorsa fondamentale per l’informatica quantistica e la comunicazione quantistica, ambiti in cui la nuova scoperta del Technion potrebbe ora imprimere un’accelerazione significativa verso la miniaturizzazione e l’efficienza dei dispositivi futuri.

Un fenomeno universale nel mondo delle particelle

Il fenomeno dell’entanglement quantistico, con la sua peculiare capacità di correlare il destino di particelle distanti, è stato sperimentalmente verificato per un’ampia gamma di entità subatomiche, manifestandosi attraverso le diverse proprietà intrinseche di queste particelle.

Nel caso specifico dei fotoni, le particelle elementari che costituiscono la luce, l’entanglement può instaurarsi in relazione a diverse caratteristiche fondamentali, quali la loro direzione di propagazione nello spazio, la loro frequenza, che determina il colore percepito, o l’orientamento del loro campo elettrico. Tuttavia, l’entanglement fotonico può manifestarsi anche in proprietà concettualmente più astratte e meno intuitive, come il momento angolare, una grandezza fisica che descrive la “quantità di rotazione” di un oggetto.

Il momento angolare di un fotone può essere ulteriormente scomposto in due componenti distinte: lo spin e il momento angolare orbitale. Lo spin è intrinsecamente legato alla rotazione del campo elettrico associato al fotone, visualizzabile come una sorta di “rotazione su se stesso”. Il momento angolare orbitale, d’altra parte, è connesso al moto rotatorio del fotone nello spazio, descrivendo la sua “rotazione attorno a un punto esterno”.

Un’analogia intuitiva per comprendere queste due proprietà separate può essere trovata nel movimento della Terra, che simultaneamente ruota attorno al proprio asse (spin) e orbita attorno al Sole lungo una traiettoria ellittica (momento angolare orbitale). Questa distinzione tra spin e momento angolare orbitale risulta agevole da concettualizzare quando i fotoni sono confinati in un fascio di luce la cui estensione spaziale è significativamente maggiore della loro lunghezza d’onda caratteristica. In tali condizioni, le due proprietà rotazionali possono essere trattate come grandezze fisiche indipendenti e separate.

Uno scenario radicalmente diverso si presenta quando si tenta di confinare i fotoni all’interno di strutture le cui dimensioni sono inferiori alla lunghezza d’onda della luce stessa. Questo è precisamente l’obiettivo primario del campo emergente della nanofotonica, una disciplina che mira a manipolare la luce su scale nanometriche. In questo regime di confinamento estremo, si scopre che la separazione concettuale tra le diverse proprietà rotazionali del fotone diviene impossibile.

Le interazioni complesse che emergono a queste scale ridotte portano alla fusione dello spin e del momento angolare orbitale in un’unica grandezza fisica indivisibile: il momento angolare totale del fotone. In altre parole, quando un fotone è costretto in uno spazio nanometrico, la sua “rotazione su se stesso” e la sua “rotazione nello spazio” non possono più essere considerate entità indipendenti, ma si manifestano come un’unica proprietà quantistica integrata.

La domanda che sorge spontanea è: perché si dovrebbe desiderare di confinare i fotoni in strutture di dimensioni così ridotte? Le motivazioni principali sono essenzialmente due. La prima ragione, forse la più intuitiva, risiede nella prospettiva di una drastica miniaturizzazione dei dispositivi che utilizzano la luce come vettore di informazione o come strumento di elaborazione.

Riducendo le dimensioni dei componenti ottici a livello nanometrico, si apre la strada alla possibilità di concentrare un numero significativamente maggiore di operazioni all’interno di una singola cella di dimensioni estremamente contenute, seguendo una traiettoria analoga alla rivoluzionaria miniaturizzazione che ha caratterizzato l’evoluzione dei circuiti elettronici.

La seconda ragione, di importanza ancora maggiore per il progresso scientifico e tecnologico, è legata all’intensificazione dell’interazione tra il fotone e il materiale attraverso il quale si propaga o nelle cui immediate vicinanze è confinato. Questo aumento dell’interazione, reso possibile dal confinamento nanometrico, permette di innescare e sfruttare fenomeni fisici e applicazioni che risulterebbero irrealizzabili con fotoni che mantengono le loro dimensioni “normali“, aprendo così nuove e inesplorate frontiere nella manipolazione della luce e nelle sue interazioni con la materia.

Entanglement quantistico nel momento angolare totale a scala nanometrica

Un team di ricercatori del Technion, guidato dall’innovativo lavoro dello studente di dottorato Amit Kam e del dottor Shai Tsesses, ha compiuto una scoperta fondamentale nel campo della fisica quantistica. Essi hanno dimostrato la possibilità di generare entanglement tra fotoni confinati in sistemi su scala nanometrica, raggiungendo dimensioni incredibilmente ridotte, pari a un millesimo dello spessore di un capello umano.

La vera novità di questa ricerca risiede nella natura di questo entanglement: contrariamente a quanto osservato finora, esso non è originato dalle proprietà convenzionali del fotone, come il suo spin intrinseco o la sua traiettoria di propagazione, bensì unicamente dal suo momento angolare totale, una proprietà che ingloba sia lo spin che il momento angolare orbitale del fotone stesso.

Attraverso un’analisi meticolosa, i ricercatori del Technion hanno svelato il complesso processo che i fotoni attraversano nel loro percorso all’interno del sistema nanometrico, dalla fase iniziale di introduzione fino al momento in cui emergono per essere misurati. Questa indagine approfondita ha rivelato un fenomeno cruciale: la transizione attraverso la nanostruttura determina un significativo arricchimento dello spazio degli stati quantistici in cui i fotoni possono risiedere. Questo ampliamento delle possibili configurazioni quantistiche gioca un ruolo chiave nella generazione del nuovo tipo di entanglement osservato.

Per convalidare la loro ipotesi e caratterizzare le proprietà del nuovo entanglement, il team di ricerca ha condotto una serie di misurazioni sofisticate. Queste misurazioni hanno permesso di mappare dettagliatamente gli stati quantistici assunti dai fotoni all’interno del sistema nanometrico. In modo significativo, i ricercatori sono riusciti a correlare questi stati con una proprietà specifica e distintiva dei sistemi operanti su scala nanometrica. La conferma definitiva dell’entanglement quantistico è giunta dall’osservazione di una precisa corrispondenza tra le coppie di fotoni analizzate, evidenziando l’intima connessione quantistica che lega le loro proprietà.

Questa straordinaria scoperta rappresenta la prima identificazione di una nuova forma di entanglement quantistico in oltre vent’anni di ricerca nel settore. Le sue implicazioni per il futuro della tecnologia quantistica sono potenzialmente rivoluzionarie. La capacità di generare e manipolare entanglement nel momento angolare totale di fotoni confinati in nanostrutture potrebbe aprire nuove strade per lo sviluppo di strumenti innovativi per la progettazione di componenti fondamentali per la comunicazione e il calcolo quantistico basati sulla luce.

Inoltre, la possibilità di operare con l’entanglement quantistico a scale così ridotte promette di superare le attuali limitazioni dimensionali, aprendo la via a una significativa miniaturizzazione di questi dispositivi, rendendoli più efficienti, integrabili e potenzialmente più accessibili per future applicazioni tecnologiche.

Lo studio è stato pubblicato su Nature.