lunedì, Aprile 28, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 11

Mandorle: tutte le proprietà di un frutto che allunga la vita

0
Mandorle: tutte le proprietà di un frutto che allunga la vita
Migliori casinò non AAMS in Italia

Le mandorle, tra i vari tipi di frutta secca, sono un’incredibile scorta di energia e benefici per la salute. Tra i tanti principi nutritivi contengono rame, calcio, manganese, zinco, magnesio, fosforo, vitamina E, tiamina, inacina, fibre e altre sostanze preziose per la nostra salute.

Inoltre sono un valido aiuto per chi desidera mantenere il peso forma (se consumate come spuntino) perchè aiutano a ridurre la fame. Sono adatte anche ai celiaci perchè prive di glutine.

Le mandorle, origini e miti

Le mandorle provengono dall’Asia, infatti è un frutto molto diffuso in Russia, Giappone e Cina. Fu portato per la prima volta in Sicilia dagli Antichi Greci, che commerciavano con le popolazioni dell’Oriente. Una vera e propria icona nel Sud Italia, in particolare in Puglia e Sicilia.

La parola deriva dal latino amygdalus che si riferisce all’antico nome della dea Cibale e significa Grande Madre.

L’origine del mandorlo, tuttavia, potrebbe riferirsi al mito greco su Phyllis e Acama. Phyllis, principessa di Tracia, si innamorò di Acamas (o Demophone come dicono altre fonti) che partì per andare a Troia a combattere in guerra.

La principessa promise di aspettarlo fino alla fine del conflitto. Tuttavia, dopo più di dieci anni non era ancora tornato e così, stanca di aspettare, decise di togliersi la vita.

La dea Atena, commossa da questa triste storia, trasformò Phyllis in un mandorlo. Acamas invece era ancora vivo. Quando gli fu detto che la sua amante era morta, sulla via del ritorno in Tracia abbracciò con tutto il suo amore il Mandorlo-Phyllis.

Fu allora che sbocciarono i suoi fiori delicati dall’intenso profumo, e succede come sempre all’inizio di ogni primavera.

Questo mito ricorda la tradizione pugliese. Poiché i mandorli sono i primi a fiorire, i contadini dicono che la vera primavera inizia quando i mandorli sbocciano.

La produzione in Italia

Oggi la produzione di mandorle in Puglia e Sicilia rappresenta il 90% dell’intera Italia. Le tipologie di mandorle in Puglia sono Filippo Cea, Falsa Barese, Genco, Tuono, Fra Giulio. Tra le tipologie di mandorle siciliane troviamo l’ Avola, il Fascionello e la Romana .

Al naturale, tostate, ridotte a scaglie o tritate, sono squisite insieme ai cereali e per arricchire diverse pietanze, sia dolci che salate. Ridotte in polvere, infine, sono l’ingrediente principale di un dolce famoso in tutto il mondo: la torta caprese.

Un albero generoso, il mandorlo, che a fine inverno è tra i primi ad annunciare il ritorno della bella stagione.

I suoi gustosi frutti sono indicati anche per ripieni, gelati, panature di pesce e carne, prodotti caseari e da forno. E non dimentichiamo il latte, ideale a colazione insieme al caffè o mescolato nei frullati, delizioso per dissetarsi in estate.

Dalle mandorle viene ricavata anche una pasta simile al burro, valida alternativa ad altri prodotti spalmabili, come ripieno di dolciumi, cioccolatini e barrette di cereali.

Per preservare tutte le loro benefiche proprietà, i frutti secchi vanno conservati in luogo fresco e asciutto, mai insieme ad altri alimenti (ne altererebbero l’odore), protetti dalla luce diretta del sole e dagli insetti, sottovuoto o in un contenitore a chiusura ermetica.

Un frutto che allunga la vita

La porzione ideale è di 20 – 23 mandorle al giorno, da distribuire come volete: ad esempio insieme allo yogurt, con i cereali oppure da sgranocchiare così come sono al naturale, magari a metà mattinata in ufficio o mentre ci si reca al lavoro.

Secondo alcune ricerche mangiarle aumenta il metabolismo, allunga la vita tenendo lontane malattie come il diabete, il colesterolo elevato e patologie cardiovascolari.

Inoltre, grazie alle loro proprietà sazianti, in aggiunta ad una dieta dimagrante aiutano a perdere peso. Insomma, sono ricchissime di proprietà benefiche: conviene tenerne sempre una piccola scorta a portata di mano!

Esperienze extracorporee: ecco il loro effetto in chi le vive

2
Esperienze extracorporee
È noto che le esperienze extracorporee si verificano in molti scenari, anche quando le persone sono vicine alla morte o ipnotizzate. Uno studio del 1982 ha riportato che fino al 15% dei partecipanti aveva vissuto almeno un’esperienza extracorporea in un dato momento della sua vita.
Migliori casinò non AAMS in Italia

Secondo un nuovo studio, le esperienze extracorporee (OBE) possono lasciare un’impressione significativa e duratura in coloro che le vivono e possono anche aumentare i sentimenti di empatia verso gli altri.

Esperienze extracorporee
Mentre le esperienze extracorporee sono state collegate in precedenza a una maggiore empatia, un team dell’Università della Virginia ha esaminato più da vicino la relazione tra i due e i meccanismi cerebrali che potrebbero esserci dietro

Esperienze extracorporee: connettersi con l’Universo

È noto che le esperienze extracorporee si verificano in molti scenari, anche quando le persone sono vicine alla morte o ipnotizzate. Uno studio del 1982 ha riportato che fino al 15% dei partecipanti aveva vissuto almeno un’esperienza extracorporea in un dato momento della sua vita.

Mentre le esperienze extracorporee sono state collegate in precedenza a una maggiore empatia, in questo caso un team dell’Università della Virginia ha esaminato più da vicino la relazione tra i due e i meccanismi cerebrali che potrebbero esserci dietro.

Esperienze extracorporee
È noto che le esperienze extracorporee si verificano in molti scenari, anche quando le persone sono vicine alla morte o ipnotizzate. Uno studio del 1982 ha riportato che fino al 15% dei partecipanti aveva vissuto almeno un’esperienza extracorporea in un dato momento della sua vita.

In particolare, i ricercatori hanno esaminato la dissoluzione dell’ego o la morte dell’ego, in cui il senso di sé di qualcuno evapora e ci si sente molto più connessi a tutto ciò che lo circonda e al resto dell’Universo.

Lo studio

Esploriamo l’idea che le esperienze extracorporee possano generare questi cambiamenti attraverso la dissoluzione dell’ego, che favorisce un profondo senso di unità e interconnessione con gli altri“, ha dichiarato il team guidato dalla neuroscienziata Marine Weiler.

Sappiamo che le OBE possono avere un effetto trasformativo: il 55% di coloro che le sperimentano riferiscono di essere stati profondamente cambiati in seguito, mentre il 40% considera l’OBE che hanno vissuto come l’esperienza più importante della loro vita.

Dopo le esperienze extracorporee, le persone spesso diventano più consapevoli dei bisogni degli altri e mostrano maggiore pazienza con gli altri, ed è qui che entra in gioco l’empatia: la capacità di comprendere e condividere i sentimenti degli altri.

La sensazione di disincarnazione e rimozione dal regno fisico che caratterizza le esperienze extracorporee porta alla dissoluzione dell’ego. Questo poi si sviluppa in un rafforzamento dei rapporti con le altre persone.

Esperienze extracorporee

Il senso di sé non è più centrato sul ‘me’ ed è percepito più come un processo che come un’entità separata“, hanno aggiunto i ricercatori.

Le OBE sono simili all’effetto di una droga psichedelica, hanno indicato i ricercatori, e alcuni dei risultati sono gli stessi, nel senso che queste sostanze che alterano la mente possono farci sentire più connessi con tutti coloro che ci circondano.

Per quanto riguarda i meccanismi alla base di questo fenomeno, lo studio ha indicato la giunzione temporoparietale (TPJ) come una regione del cervello che potrebbe essere coinvolta. Il TPJ gestisce la nostra percezione di dove siamo nello spazio fisico e gestisce gli input dai sensi, e i malfunzionamenti in questa regione sono stati precedentemente collegati alle OBE.

Secondo i ricercatori, potrebbe essere coinvolta l’intera rete della modalità predefinita (di cui fa parte il TPJ): gestisce l’autoriflessione e le narrazioni interne su noi stessi, quindi è legata al nostro ego e può essere interrotta durante e dopo le esperienze extracorporee.

Conclusioni

Questo studio si basa sull’unione dei punti tra ricerche precedenti e non ha comportato alcun esperimento autonomo. Studi futuri potrebbero avvalersi dell’aiuto della realtà virtuale, o di individui che possono autoindurre OBE su richiesta, per esplorarle sperimentalmente.

Esperienze extracorporee

L’esplorazione, il perfezionamento e l’applicazione di metodi per migliorare l’empatia negli individui, sia attraverso la dissoluzione dell’ego correlata all’OBE o altri approcci, è una strada interessante con implicazioni potenzialmente profonde per gli individui e la società in generale“, hanno concluso i ricercatori.

Questa ricerca è stata pubblicata su Neuroscience & Behavioral Reviews.

La Darpa Interroga il futuro dell’informatica quantistica: 15 aziende rispondono

0
La Darpa Interroga il futuro quantistico: 15 aziende rispondono
La Darpa Interroga il futuro quantistico: 15 aziende rispondono
Migliori casinò non AAMS in Italia

La natura intrinsecamente probabilistica e la molteplicità degli approcci teorici caratterizzano l’attuale panorama dell’informatica quantistica, rendendo ardua la previsione delle sue future configurazioni. Al fine di fare luce su questo scenario in evoluzione, la DARPA (Defense Advanced Projects Research Agency) ha annunciato la selezione di quindici aziende operanti nel settore.

Questa iniziativa strategica mira a ottenere una dettagliata disamina delle diverse metodologie proposte, rappresentando un passo significativo verso la comprensione delle reali potenzialità e delle sfide intrinseche al calcolo quantistico.

La Darpa Interroga il futuro quantistico: 15 aziende rispondono
La Darpa Interroga il futuro quantistico: 15 aziende rispondono

La DARPA alla ricerca della chiarezza tra promesse e realtà

Questa effervescenza, se da un lato testimonia la fervente attività di ricerca e sviluppo, dall’altro rende arduo discernere quali strade condurranno a reali progressi e quali si riveleranno vicoli ciechi. In questo scenario di vibrante incertezza, un recente intervento della DARPA si configura come un tentativo cruciale di gettare luce sulle reali potenzialità delle diverse tecnologie quantistiche emergenti.

La peculiarità del calcolo quantistico risiede nella sua capacità di sfruttare i principi della meccanica quantistica, come la sovrapposizione e l’entanglement, per eseguire calcoli che risultano inaccessibili ai computer classici. Tuttavia, la traduzione di questi concetti teorici in macchine funzionanti ha generato un’ampia varietà di approcci, spesso radicalmente differenti tra loro. Si spazia dai qubit superconduttori agli ioni intrappolati, dai qubit fotonici ai punti quantici, ognuno con i propri vantaggi e sfide intrinseche in termini di coerenza, scalabilità e fedeltà delle operazioni.

In questo contesto di fervente innovazione, numerose aziende si fanno avanti con proclami audaci riguardo alle capacità dei propri sistemi, alimentando un clima di grande aspettativa ma anche di potenziale confusione. La mancanza di standard di riferimento e di metriche universalmente accettate rende difficile confrontare direttamente le prestazioni dichiarate e valutare il reale potenziale di ciascuna tecnologia.

Consapevole di questa situazione di incertezza e della necessità di orientare gli investimenti futuri, la DARPA ha recentemente lanciato una nuova iniziativa volta a distinguere gli approcci promettenti dalle chimere teoriche. Attraverso l’assegnazione di contratti a ben 15 aziende, l’agenzia mira a promuovere una valutazione comparativa rigorosa delle diverse tecnologie quantistiche. L’obiettivo è quello di sottoporre i vari approcci a sfide concrete, misurando le loro prestazioni nella risoluzione di problemi reali e identificando i punti di forza e le debolezze di ciascuno.

Come sottolineato da Joe Altepeter, responsabile del programma per il DARPA Microsystems Technology Office, allo stato attuale delle conoscenze è impossibile prevedere quale forma assumerà un computer quantistico realmente “utile“. Le incognite riguardano non solo l’architettura e i materiali necessari, ma anche i costi e le modalità operative di tali future macchine. La situazione attuale è paragonabile, secondo Altepeter, al confronto tra le prime tecnologie di calcolo come i tubi a vuoto, i transistor e gli abachi: modelli concettualmente distanti tra loro.

La situazione attuale è paragonabile, secondo Altepeter, al confronto tra le prime tecnologie di calcolo come i tubi a vuoto, i transistor e gli abachi: modelli concettualmente distanti tra loro. L’iniziativa della DARPA si propone quindi di accelerare la comprensione di quali di questi “modelli” quantistici abbiano il potenziale per affrontare sfide significative.

Altepeter ha inoltre evidenziato come la maggior parte degli attuali utilizzatori di computer quantistici stia conducendo principalmente attività di ricerca esplorativa, senza ancora focalizzarsi su applicazioni pratiche concrete. L’agenzia americana intende superare questa fase, sviluppando un quadro di riferimento per misurare oggettivamente le prestazioni dei diversi approcci quantistici, specialmente quando applicati a problemi reali e di rilevanza industriale.

La mancanza di metriche consolidate rappresenta un ostacolo significativo alla valutazione del progresso nel campo. Come affermato da Altepeter, allo stato attuale, nessun computer quantistico esistente sembra in grado di svolgere compiti utili a livello industriale, con molti sistemi che appaiono più come “tour scientifici” che come strumenti di calcolo pratici.

L’iniziativa della DARPA rappresenta quindi un passo fondamentale verso la definizione di criteri di valutazione chiari e la conseguente identificazione delle tecnologie quantistiche con il maggiore potenziale per trasformare settori chiave dell’economia e della società. Solo attraverso un confronto diretto e la misurazione delle prestazioni su problemi concreti sarà possibile dissipare l’attuale indeterminatezza e tracciare una rotta chiara verso il futuro del calcolo quantistico.

Il potenziale trasformativo del calcolo quantistico per l’industria

L’avvento del calcolo quantistico apre orizzonti inediti per affrontare sfide computazionali che ad oggi rimangono al di là delle capacità dei più potenti computer classici. L’interesse del mondo industriale verso questa tecnologia emergente è alimentato dalla promessa di sbloccare nuove scoperte e ottimizzazioni in settori cruciali, dalla scienza dei materiali alla sicurezza delle comunicazioni. Comprendere appieno il “cosa sarebbe utile a livello industriale” nel contesto del calcolo quantistico implica un’analisi approfondita dei problemi complessi che le aziende si trovano ad affrontare e per i quali le risorse computazionali attuali si rivelano insufficienti.

Comprendere appieno il “cosa sarebbe utile a livello industriale” nel contesto del calcolo quantistico implica un’analisi approfondita dei problemi complessi che le aziende si trovano ad affrontare e per i quali le risorse computazionali attuali si rivelano insufficienti, una prospettiva attentamente considerata dalla DARPA.

Uno degli ambiti in cui il calcolo quantistico potrebbe esercitare un impatto rivoluzionario è la simulazione di sistemi chimici altamente complessi. La comprensione dettagliata delle reazioni chimiche a livello quantistico permetterebbe di progettare e sviluppare materiali con proprietà innovative. Pensiamo, ad esempio, alla creazione di rivestimenti per razzi e navi capaci di resistere a condizioni estreme e prevenire efficacemente la corrosione.

La complessità delle interazioni molecolari rende queste simulazioni proibitive per i computer classici, richiedendo tempi di calcolo esorbitanti e approssimazioni significative. Un computer quantistico, sfruttando i principi della sovrapposizione e dell’entanglement, potrebbe invece modellare con precisione queste interazioni, aprendo la strada alla scoperta di materiali dalle prestazioni superiori, con implicazioni significative per settori come l’aerospazio e la cantieristica navale.

Per comprendere appieno le esigenze industriali in questo campo, è fondamentale un dialogo diretto con le aziende attive nella ricerca e sviluppo di nuovi materiali, al fine di identificare le sfide più pressanti che potrebbero beneficiare delle capacità del calcolo quantistico, un aspetto centrale per la DARPA.

Un’ulteriore area di rilevante interesse industriale, seppur con implicazioni diverse, è rappresentata dalla potenziale capacità dei computer quantistici di decifrare i protocolli di crittografia attualmente utilizzati per proteggere le comunicazioni digitali. Sebbene, come sottolineato da Joe Altepeter, le aziende e le istituzioni non stiano attualmente subendo attacchi di crittoanalisi quantistica, la prospettiva futura evidenzia la necessità di comprendere a fondo le implicazioni di questa tecnologia.

La sicurezza delle comunicazioni, sia tra unità militari e i loro comandi, sia tra clienti e istituti finanziari, si basa su algoritmi crittografici la cui robustezza potrebbe essere compromessa dall’avvento di computer quantistici sufficientemente potenti. Questa minaccia potenziale sottolinea l’importanza strategica di investire nella ricerca e nello sviluppo del calcolo quantistico, non solo per sfruttarne le potenzialità positive, ma anche per prepararsi alle sfide che potrebbe comportare in termini di sicurezza informatica, un aspetto di primaria importanza per la DARPA.

L’iniziativa della DARPA, con il coinvolgimento di numerosi laboratori nazionali di eccellenza come Oak Ridge, Sandia e Los Alamos, rappresenta un’azione concreta per accelerare la comprensione e lo sviluppo del calcolo quantistico. L’assegnazione di finanziamenti e la creazione di una rete collaborativa tra aziende e istituti di ricerca mirano a costruire una solida base per il futuro di questa tecnologia. La fase iniziale del programma prevede che ciascuna delle 15 aziende beneficiarie riceva un finanziamento per definire in dettaglio il proprio approccio e il suo potenziale per la realizzazione di un computer quantistico utile.

Successivamente, alcune di queste aziende riceveranno ulteriori finanziamenti per testare le proprie idee all’interno dei laboratori governativi. Questo lavoro congiunto, che coinvolge circa 300 ricercatori, rappresenta un’iniziativa senza precedenti nel campo del calcolo quantistico, con la promessa di fornire risposte cruciali sulla fattibilità e sul potenziale delle diverse tecnologie in competizione e di delineare più chiaramente quali saranno le applicazioni industriali realmente trasformative di questa affascinante e ancora in gran parte inesplorata frontiera della scienza e dell’ingegneria, un ambizioso progetto guidato dalla DARPA.

Verso prototipi e la definizione del futuro industriale

L’ambizioso programma della DARPA nel campo del calcolo quantistico entra nella sua fase cruciale, segnata dal passaggio dalla valutazione concettuale alla realizzazione concreta di prototipi. La terza fase dell’iniziativa, con un potenziale investimento di 300 milioni di dollari, rappresenta un impegno significativo volto a trasformare le promettenti teorie quantistiche in macchine funzionanti e a delineare i contorni futuri di un’industria ancora in fase di definizione. Il successo di questa fase non solo validerebbe specifici approcci tecnologici, ma fornirebbe anche risposte fondamentali sulle sfide e le opportunità che attendono il settore del calcolo quantistico nel prossimo futuro.

Dopo le prime fasi dedicate alla comprensione e al confronto delle diverse architetture quantistiche proposte dalle 15 aziende selezionate, la DARPA si appresta a investire nella progettazione e nella convalida di prototipi funzionanti. Questo passaggio rappresenta un momento di svolta, in cui le promesse teoriche dovranno tradursi in risultati tangibili.

I finanziamenti potenziali fino a 300 milioni di dollari testimoniano la determinazione dell’agenzia nel voler accelerare lo sviluppo di computer quantistici capaci di affrontare problemi reali e di interesse strategico. La realizzazione di prototipi consentirà di superare le limitazioni delle simulazioni e delle dimostrazioni di laboratorio, fornendo una valutazione più accurata delle prestazioni, della scalabilità e dell’affidabilità delle diverse tecnologie in lizza.

Il successo del programma della DARPA non si misurerà unicamente in termini di realizzazione di prototipi funzionanti. Un obiettivo altrettanto importante è quello di fornire risposte concrete alle numerose incognite che ancora avvolgono il futuro dell’industria del calcolo quantistico. Tra le questioni cruciali che il programma mira a chiarire vi sono le potenziali sfide nella catena di fornitura, un aspetto fondamentale per garantire una produzione scalabile e sostenibile di sistemi quantistici.

Sarà inoltre necessario comprendere la composizione e le competenze della forza lavoro che dovrà operare e sviluppare questa tecnologia emergente. Il costo dei sistemi quantistici rappresenta un altro elemento determinante per la loro diffusione e adozione su larga scala, sia in ambito governativo che industriale. Infine, il programma della DARPA si propone di identificare chiaramente le applicazioni utili del calcolo quantistico nel breve e nel lungo termine, fornendo una roadmap per la sua integrazione in diversi settori.

L’elenco delle aziende che partecipano a questa fase cruciale riflette la diversità e la vivacità del panorama del calcolo quantistico. Tra i destinatari figurano nomi di spicco nel settore come IBM, che vanta una lunga storia di innovazione nel campo dell’informatica, accanto a realtà più piccole e innovative come Photonic e Alice and Bob, con sedi negli Stati Uniti, in Canada e in Australia. Questa eterogeneità di approcci e competenze è considerata un punto di forza del programma, in quanto permette di esplorare un ampio spettro di soluzioni tecnologiche.

È inoltre previsto che altri tre destinatari possano essere nominati in seguito a trattative, ampliando ulteriormente il ventaglio di competenze coinvolte in questa ambiziosa iniziativa della DARPA. La collaborazione tra queste diverse entità, pur non essendo in competizione diretta come sottolineato nelle fasi precedenti, contribuirà a creare un ecosistema di innovazione fondamentale per il progresso del calcolo quantistico.

L’ingente investimento nella progettazione e validazione di prototipi, unito all’obiettivo di rispondere a domande fondamentali sull’industria emergente, sottolinea l’importanza strategica attribuita a questa tecnologia. Il successo di questa iniziativa non solo avvicinerà la realizzazione di computer quantistici utili, ma fornirà anche una visione più chiara delle sfide e delle opportunità che attendono questo campo rivoluzionario, plasmando il suo sviluppo nei prossimi anni sotto l’attenta guida della DARPA.

Ritrovata la tomba di un faraone sconosciuto: nuovo indizio su una dinastia perduta risalente a oltre 3.600 anni fa

0
Ritrovata tomba di un faraone sconosciuto: nuova luce su una dinastia perduta risalente a oltre 3.600 anni fa
Ritrovata tomba di un faraone sconosciuto: nuova luce su una dinastia perduta risalente a oltre 3.600 anni fa
Migliori casinò non AAMS in Italia

Una recente scoperta archeologica ad Abydos, in Egitto, sta aprendo nuove prospettive sulla dinastia reale che governò la regione oltre 3.600 anni fa, durante un periodo storico avvolto nel mistero.

Gli archeologi hanno riportato alla luce una monumentale camera funeraria in pietra calcarea, caratterizzata da diverse stanze e un ingresso riccamente decorato, nel gennaio 2025. Tuttavia, l’identità del faraone sconosciuto di questa sontuosa sepoltura rimane ancora sconosciuta, un enigma complicato dai danni arrecati dai ladri di tombe alle iscrizioni geroglifiche poste all’ingresso, rendendo illeggibile il nome del defunto, come annunciato dal Penn Museum dell’Università della Pennsylvania.

Ritrovata tomba di un faraone sconosciuto: nuova luce su una dinastia perduta risalente a oltre 3.600 anni fa
Ritrovata tomba di un faraone sconosciuto: nuova luce su una dinastia perduta risalente a oltre 3.600 anni fa

L’imponente tomba di un faraone sconosciuto

Nonostante le dimensioni imponenti della tomba, al suo interno non sono stati rinvenuti resti scheletrici che potessero fornire un’identificazione diretta del faraone sconosciuto. Ciononostante, il team di ricerca responsabile dello scavo ritiene altamente probabile che la camera funeraria fosse destinata a un faraone sconosciuto che regnò sull’Alto Egitto durante il Secondo Periodo Intermedio (circa 1640-1540 a.C.). Questo periodo storico fu caratterizzato da instabilità politica e dalla frammentazione del potere, e vide l’emergere di diverse dinastie regionali, tra cui quella di Abido, una delle meno comprese dell’antico Egitto. Il sovrano anonimo di questa tomba potrebbe essere uno dei numerosi monarchi di cui si è persa traccia nei registri storici tradizionali.

Come sottolineato da Josef Wegner, egittologo e professore di archeologia egizia presso l’Università della Pennsylvania, che ha guidato la spedizione, la dinastia di Abido rappresenta un periodo particolarmente enigmatico della storia egizia, apparentemente “dimenticata dagli antichi documenti dell’Egitto” a causa della sua collocazione in un’epoca di declino politico e frammentazione territoriale.

La scoperta di questa maestosa tomba del faraone sconosciuto offre quindi un inedito “percorso di indagine” per approfondire la conoscenza di questa dinastia finora poco nota. La camera funeraria appena scoperta è la più grande mai rinvenuta appartenente a un faraone sconosciuto della dinastia di Abido, e la sua esistenza getta nuova luce su un periodo storico che, secondo gli esperti, può essere compreso appieno solo attraverso l’analisi dei resti materiali.

Gli archeologi hanno localizzato la tomba del faraone sconosciuto a circa sette metri di profondità all’interno di un’antica necropoli, una vera e propria “città dei morti“. Questo sito è situato sul monte Anubi di Abydos, una formazione naturale dalla forma piramidale che era venerata dagli antichi egizi e considerata sacra. La sua particolare conformazione offriva un luogo ideale per la costruzione di tombe nascoste. Abydos era storicamente definita una città sacra, ritenuta l’ultima dimora di Osiride, il dio dell’oltretomba, e un luogo di sepoltura privilegiato per i primi faraoni. La necropoli si sviluppò nel corso dei secoli, con successive dinastie che edificarono le proprie tombe e seppellirono i loro re in questo cimitero reale.

Oltre un decennio fa, lo stesso team guidato da Wegner scoprì all’interno della stessa necropoli la prima tomba che confermò l’esistenza della dinastia di Abido, un’ipotesi inizialmente formulata nel 1997 dall’egittologo Kim Ryholt. Ryholt ipotizzò che questa dinastia minore avesse governato la regione di Abydos durante un periodo in cui l’antico Egitto era diviso in regni rivali. Il proprietario di quella prima tomba era il re Seneb-Kay, un faraone sconosciuto e non menzionato nei documenti storici.

Tra le otto tombe della dinastia scoperte finora, quella di Seneb-Kay rimane l’unica in cui è stato ritrovato un nome conservato all’interno della camera funeraria. La tomba appena scoperta presenta similitudini architettoniche e decorative con quella di Seneb-Kay, ma si distingue per dimensioni significativamente maggiori: il compartimento principale della cripta a tre camere misura circa 1,9 metri di larghezza e 6 metri di lunghezza. Poiché la tomba è stata edificata in una sezione della necropoli che i ricercatori ritengono sia stata fondata in precedenza, si ipotizza che il ricco re ivi sepolto fosse probabilmente un predecessore di Seneb-Kay.

Gli studiosi sospettano che la tomba possa essere appartenuta al re Senaiib o al re Paentjeni, due monarchi rappresentati nei rari reperti archeologici della dinastia, parte di un monumento dedicato ad Abydos. Tuttavia, come conclude Wegner: “È ugualmente possibile che ci possa essere un faraone sconosciuto”, poiché “non pensiamo di avere tutti i nomi (dei re di Abydos) – le prove non sono sopravvissute in modo coerente per loro“, lasciando aperta la possibilità di ulteriori sorprendenti rivelazioni sulla storia di questa enigmatica dinastia.

Nuove indagini per svelare la dinastia perduta

Sebbene la camera funeraria appena scoperta ad Abydos non abbia restituito elementi inequivocabili per identificare il suo faraone sconosciuto, la tomba conserva preziose testimonianze artistiche e alimenta nuove speranze per la comprensione di una dinastia regale dimenticata. Tra le decorazioni superstiti spiccano due immagini dipinte delle dee Iside e Nefti, figure frequentemente rappresentate nei contesti funerari dell’antico Egitto nell’atto di compiangere il defunto, offrendo un indizio sul rituale e sulle credenze che accompagnavano la sepoltura.

Spinti dall’importanza della scoperta, i ricercatori guidati da Josef Wegner hanno in programma un’ambiziosa estensione delle indagini archeologiche, prevedendo di esplorare ulteriori 10.000 metri quadrati di terreno desertico nell’area circostante. L’obiettivo primario è quello di portare alla luce altre sepolture che possano fornire ulteriori informazioni sulla dinastia di Abido e sui suoi sovrani: “Potrebbero esserci facilmente 12 o 15 re che compongono questo gruppo di re“, ha affermato Wegner, sottolineando il potenziale ancora inesplorato del sito.

Oltre agli scavi tradizionali, il team impiegherà tecnologie avanzate come il georadar, che utilizza onde sonore per mappare le strutture presenti nel sottosuolo, e la magnetometria, in grado di rilevare anomalie magnetiche indicative di resti archeologici sepolti. L’integrazione di queste metodologie non invasive aumenterà significativamente le probabilità di individuare nuove aree di interesse e di comprendere meglio l’organizzazione della necropoli e dell’identità del faraone sconosciuto.

L’importanza della scoperta è stata sottolineata anche da Salima Ikram, illustre professoressa universitaria di egittologia presso l’American University del Cairo, non coinvolta direttamente nello scavo. In una sua comunicazione, Ikram ha espresso il suo entusiasmo per il ritrovamento, definendolo “molto emozionante“.

A suo parere, la scoperta stabilisce inequivocabilmente l’esistenza di un “importante cimitero reale” risalente a quel periodo storico, fornendo dettagli preziosi sull’architettura delle tombe reali, offrendo un “indizio sul faraone sconosciuto di questa dinastia e l’ordine in cui governava“. Ikram ha inoltre espresso la sua speranza che le future indagini archeologiche portino alla luce ulteriori tombe, contribuendo in modo significativo a “migliorare la nostra comprensione di questo periodo un tempo oscuro della storia egizia”.

Un aspetto particolarmente interessante della dinastia di Abido, come evidenziato dalla scoperta del re Seneb-Kay e ora da questa nuova tomba anonima, è la loro assenza dagli elenchi reali tramandati dagli antichi Egizi. Laurel Bestock, egittologa e professoressa associata di archeologia alla Brown University, anch’essa non coinvolta nella scoperta, offre una chiave di lettura di questa omissione. Secondo Bestock, “i re egizi amavano presentare la loro storia in modo semplice e lineare e registravano i nomi (dei re) in ordine. Questi re non ci sono”.

Questa esclusione non sarebbe casuale, ma rifletterebbe una precisa strategia politica dei sovrani successivi, intenti a “supportare un particolare punto di vista dei re successivi che andarono a riunificare l’Egitto“. Tali resoconti storici, lungi dall’essere una cronaca accurata, si presentavano come narrazioni di “grandi vincitori” che avevano trionfato su “guerre etniche“, ignorando deliberatamente “tutti i piccoli attori” come il faraone sconosciuto della dinastia di Abido.

Bestock sottolinea come scoperte come quest’ultima tomba di Abido siano “incredibilmente emozionanti” proprio perché forniscono il contesto per una narrazione storica più ricca e complessa, indipendentemente dalla definitiva identificazione del re sepolto. Al momento, l’identità del proprietario della camera funeraria rimane un mistero, ma l’obiettivo di Wegner è quello di riuscire un giorno a identificare il sovrano per poterlo ancorare in modo più preciso alla cronologia storica.

Come Wegner stesso afferma, “con l’archeologia speri di trovare delle prove“. Tuttavia, riconosce anche la natura imprevedibile della ricerca archeologica: “I registri archeologici, sai, ti regalano sorprese e colpi di scena lungo il percorso, quindi non sai mai cosa puoi trovare“, lasciando aperta la porta a future, inaspettate rivelazioni che potrebbero riscrivere la nostra comprensione di questo affascinante periodo della storia egizia e del suo faraone sconosciuto.

Per maggiori informazioni consulta il comunicato stampa rilasciato dal Penn Museum presso l’Università della Pennsylvania.

Il fascino dell’astronomia

2
Astronomia: scienza affascinante da oltre 3 millenni
Migliori casinò non AAMS in Italia

Nel campo in continua evoluzione dell’astronomia e dell’astrofisica, gli studi e le ricerche si spingono sempre più in profondità nell’universo, cercando di svelare i misteri che si celano nelle profondità dello spazio.

In un recente studio pubblicato nel mese di giugno sulla rivista Astronomy & Astrophysics, ci si concentra su una delle tante aree di ricerca che continuano a catturare l’immaginazione di scienziati e appassionati: l’analisi delle variazioni luminose di corpi celesti distanti.

Astronomia

Questo studio particolare si addentra nell’osservazione e nell’interpretazione dei dati raccolti da telescopi avanzati, che scrutano il cielo notturno alla ricerca di segnali e modelli che possono rivelare nuove informazioni su stelle, pianeti e altri fenomeni astronomici, dopodiché con l’uso di tecniche sofisticate e modelli matematici, gli astronomi sono in grado di tradurre queste osservazioni in comprensioni più profonde della composizione, della struttura e dell’evoluzione dell’universo.

L’articolo esamina in particolare le tecniche di misurazione delle variazioni di luminosità e come queste possono essere utilizzate per dedurre proprietà fisiche importanti, come la massa, la composizione e la distanza di un corpo celeste, ed attraverso l’analisi di curve di luce e spettri, gli scienziati possono persino identificare nuovi pianeti extrasolari, studiare le atmosfere planetarie e comprendere meglio le dinamiche stellari.

L’astronomia nella sua interezza con difficoltà e prospettive future

L’astronomia osservativa si basa fortemente sull’analisi dei dati raccolti attraverso strumenti sempre più sofisticati, nel caso dello studio presentato, l’attenzione è rivolta alle variazioni di luminosità di corpi celesti distanti, un fenomeno noto come variabilità stellare; queste variazioni possono essere causate da diversi fattori, tra cui rotazione stellare, attività magnetica, pulsazioni, eclissi da parte di corpi orbitanti e persino lenti gravitazionali.

Per misurare queste variazioni, gli astronomi utilizzano tecniche fotometriche e spettroscopiche, con la prima che si concentra sulla misurazione dell’intensità della luce di una stella in funzione del tempo, producendo ciò che è noto come curva di luce, curve che possono rivelare pattern regolari o irregolari che indicano i processi fisici alla base della variabilità osservata.

D’altra parte, la spettroscopia fornisce informazioni sulla composizione chimica, la temperatura, la densità e il movimento radiale di una stella attraverso lo studio del suo spettro di luce. Combinando queste due tecniche, gli astronomi possono ottenere un quadro dettagliato delle proprietà fisiche di una stella e dei suoi eventuali compagni planetari.

Astronomia

L’analisi dei dati raccolti richiede l’uso di software avanzati e modelli matematici, come avevamo già accennato poc’anzi, con gli astronomi che applicano algoritmi di riduzione del rumore per filtrare le interferenze e migliorare la qualità dei segnali. Utilizzano inoltre modelli di simulazione per confrontare i dati osservativi con le previsioni teoriche, permettendo di testare e affinare le teorie esistenti.

Le scoperte fatte attraverso queste metodologie sono molteplici e di grande rilevanza nel campo dell’astronomia, per esempio, l’identificazione di nuovi esopianeti attraverso il metodo del transito, dove un pianeta passa davanti alla sua stella ospite causando una diminuzione temporanea della luminosità, ha permesso di ampliare il nostro catalogo di mondi alieni.

Oltre a quanto precedentemente detto, lo studio delle pulsazioni stellari ha portato a una migliore comprensione delle fasi evolutive delle stelle, mentre l’analisi delle binarie a eclisse ha fornito dati preziosi sulla massa e sul raggio di stelle e pianeti.

Queste tecniche e scoperte rappresentano solo la punta dell’iceberg nel vasto campo dell’astrofisica e dell’astronomia, con ogni nuova osservazione e analisi ci avviciniamo sempre di più a rispondere ad alcune delle domande più fondamentali sull’universo e il nostro posto in esso.

Implicazioni future e importanza per la scienza e la società dell’astronomia

Le ricerche derivate dall’astronomia non sono solo un mezzo per soddisfare la nostra curiosità sul cosmo, ma hanno anche implicazioni pratiche significative. La comprensione dell’universo e dei suoi meccanismi fondamentali può avere un impatto diretto sul progresso tecnologico, sulla navigazione spaziale e persino sulla nostra sopravvivenza a lungo termine come specie.

Le sfide poste dall’astronomia hanno spesso portato allo sviluppo di nuove tecnologie, per esempio, la necessità di osservare oggetti celesti con maggiore chiarezza ha stimolato l’innovazione nel campo dell’ottica e dell’elettronica, con questi progressi che non solo migliorano i telescopi, ma trovano applicazioni anche in settori come la medicina, con la creazione di strumenti di imaging più avanzati.

Astronomia

La conoscenza acquisita attraverso lo studio delle stelle e dei pianeti è fondamentale per la navigazione spaziale, per dirne una, le missioni interplanetarie si affidano a mappe celesti dettagliate per pianificare i percorsi e per evitare collisioni con asteroidi o altri corpi celesti, per di più la comprensione delle dinamiche stellari e planetarie è essenziale per la progettazione di veicoli spaziali capaci di affrontare le condizioni estreme dello spazio.

Forse l’aspetto più intrigante dell’astronomia è il suo potenziale di aiutarci a prevenire o mitigare catastrofi cosmiche, la capacità di rilevare asteroidi potenzialmente pericolosi o di comprendere meglio i cicli solari può fornire informazioni vitali per proteggere la Terra da eventi distruttivi.

L’astronomia ha anche un ruolo importante nell’educazione e nell’ispirare le nuove generazioni, la bellezza e il mistero dell’universo possono stimolare l’interesse per la scienza e la ricerca, incoraggiando i giovani a perseguire carriere nel campo STEM (Scienza, Tecnologia, Ingegneria e Matematica).

In conclusione, lo studio delle variazioni luminose e di altri fenomeni di astronomia non è solo una ricerca accademica, ma una chiave per sbloccare nuove frontiere della conoscenza e del progresso umano. Ogni nuova scoperta ci avvicina a una comprensione più completa del nostro posto nell’universo e apre la strada a nuove possibilità per il futuro.

Se sei attratto dalla scienzadalla tecnologia, o vuoi essere aggiornato sulle ultime notiziecontinua a seguirci, così da non perderti le ultime novità e news da tutto il mondo!

Bill Gates rende pubblico il codice di sorgente di Microsoft: Altair BASIC del 1975

0
Bill Gates rende pubblico il codice di sorgente di Microsoft: Altair BASIC del 1975
Bill Gates rende pubblico il codice di sorgente di Microsoft: Altair BASIC del 1975
Migliori casinò non AAMS in Italia

Un evento di notevole significato storico per il mondo dell’informatica si è recentemente concretizzato: Bill Gates, il visionario co-fondatore di Microsoft, ha condiviso pubblicamente il codice sorgente originale di Altair BASIC risalente al lontano 1975. Questo gesto, apparentemente semplice, dischiude una finestra sul momento genetico di quella che sarebbe diventata una delle aziende tecnologiche più influenti del pianeta.

Prima dell’avvento di sistemi operativi rivoluzionari come Windows e della suite di produttività Office, il cuore pulsante della neonata Microsoft era un interprete BASIC meticolosamente sviluppato per adattarsi alle stringenti limitazioni hardware dell’Altair 8800.

Bill Gates rende pubblico il codice di sorgente di Microsoft: Altair BASIC del 1975
Bill Gates rende pubblico il codice di sorgente di Microsoft: Altair BASIC del 1975

Bill Gates rende pubblico il codice sorgente di Altair BASIC del 1975

La scintilla che diede il via a questa monumentale impresa fu l’inattesa scoperta dell’Altair 8800 sulla copertina del numero di gennaio 1975 della rivista Popular Electronics. Bill Gates e il suo partner, l’altrettanto brillante Paul Allen, intuirono con lungimiranza che quell’oggetto, apparentemente modesto, rappresentava l’alba imminente della rivoluzione del Personal Computer. Animati da un desiderio inequivocabile di essere protagonisti fin dall’inizio di questa trasformazione epocale, i due giovani intrapresero un’audace sfida: creare un linguaggio di programmazione che potesse far dialogare l’uomo con questa nuova macchina.

In un’epoca in cui le risorse computazionali erano esigue, la decisione di sviluppare un interprete BASIC anziché un compilatore rappresentò una scelta pragmatica e lungimirante. Come spiegato dallo stesso Bill Gates, l’approccio riga per riga tipico di un interprete offriva un vantaggio cruciale per i programmatori alle prime armi.

La possibilità di ottenere un feedback immediato sull’esecuzione del codice consentiva di individuare e correggere gli errori in tempo reale, facilitando l’apprendimento e la sperimentazione. Sebbene la compilazione del codice e la sua esecuzione in un unico blocco fossero teoricamente possibili, l’interprete si rivelò lo strumento ideale per democratizzare l’accesso alla programmazione in un contesto in cui la curva di apprendimento doveva essere il più agevole possibile.

L’impresa di Bill Gates e Allen fu tutt’altro che semplice. In soli due mesi, un lasso di tempo incredibilmente breve considerando la complessità del compito, riuscirono a dare forma al software che avrebbero audacemente presentato al fondatore di MITS, Ed Roberts, come già esistente. Questa audacia era motivata dalla fervente convinzione nel potenziale della loro creazione e dalla necessità di agire rapidamente in un mercato nascente.

Un’ulteriore sfida, non meno ardua, fu rappresentata dalla necessità di comprimere l’intero interprete in soli quattro Kilobyte di memoria. Questa limitazione era dettata dalla configurazione standard dell’Altair 8800, e l’acquisto di memoria aggiuntiva rappresentava un costo significativo, spesso superiore al prezzo del computer stesso, come ha ricordato Bill Gates. Questa costrizione tecnica richiese un’ingegneria del software estremamente efficiente e una profonda comprensione delle architetture hardware dell’epoca.

La sfida di creare Altair BASIC senza l’hardware dedicato

La genesi di Altair BASIC, il linguaggio interpretato che segnò l’alba di Microsoft, fu un’impresa tutt’altro che convenzionale, intrisa di ingegno, collaborazione e una buona dose di audacia. In un contesto in cui il personal computer era ancora un’idea embrionale, Bill Gates e Paul Allen si trovarono di fronte a una sfida non trascurabile: sviluppare un software rivoluzionario per una macchina che non possedevano nemmeno fisicamente.

L’Altair 8800, il computer destinato a eseguire il loro interprete BASIC, era basato sul chip Intel 8080. Tuttavia, la giovane coppia non aveva accesso a questo componente fondamentale, rendendo impossibile lo sviluppo e il test del software direttamente sulla piattaforma di destinazione.

Di fronte a questo ostacolo apparentemente insormontabile, Paul Allen diede prova di notevole acume tecnico. Invece di arrendersi all’assenza dell’Intel 8080, concepì e realizzò un programma in grado di simulare il funzionamento del chip su un mainframe PDP-10, un sistema informatico significativamente più potente e disponibile all’epoca. Questa brillante soluzione permise a Bill Gates e Allen di iniziare a scrivere e testare il codice di Altair BASIC in un ambiente virtuale che emulava le caratteristiche e il comportamento dell’hardware dell’Altair 8800. Questa fase di sviluppo “incrociato“, resa possibile dalla simulazione, fu cruciale per avanzare nel progetto senza la necessità di possedere fisicamente il computer di destinazione.

Un altro elemento fondamentale nella creazione di Altair BASIC fu il contributo di Monte Davidoff, un amico di Bill Gates e Allen con una solida preparazione matematica. Consapevoli dell’importanza di fornire funzionalità di calcolo di base agli utenti dell’Altair, Gates e Allen si affidarono all’expertise di Davidoff per sviluppare il pacchetto matematico integrato nell’interprete.

Questo componente era essenziale per consentire agli utenti di eseguire operazioni numeriche all’interno dei loro programmi BASIC, ampliando significativamente le potenzialità del linguaggio e dell’Altair stesso. La collaborazione di Davidoff dimostra come, nelle prime fasi della rivoluzione informatica, la condivisione di competenze e la cooperazione tra individui fossero spesso determinanti per superare le limitazioni tecnologiche e portare a termine progetti ambiziosi.

La prima versione di Altair BASIC, in seguito nota come 4K BASIC a causa delle sue dimensioni contenute in soli quattro kilobyte di memoria, rappresentava un notevole risultato ingegneristico, considerando le risorse limitate a disposizione. Tuttavia, per gli standard odierni, questa iterazione iniziale del linguaggio presentava delle limitazioni significative. Ad esempio, le funzionalità di manipolazione delle stringhe di testo erano piuttosto basilari, rendendo complesse alcune operazioni comuni nella programmazione.

Consapevoli di queste mancanze e desiderosi di offrire agli utenti un’esperienza più completa, Bill Gates e Allen continuarono a lavorare sul loro interprete. Questo sforzo portò alla successiva creazione di 8K BASIC, una versione più avanzata che aggiunse una serie di funzioni familiari agli utenti dei successivi computer domestici, ampliando notevolmente le capacità del linguaggio e aprendo la strada a un’era di maggiore accessibilità all’informatica personale. La storia della creazione di Altair BASIC è quindi un racconto di sfide superate con creatività, di collaborazioni cruciali e di una continua evoluzione verso un prodotto sempre più potente e versatile.

Altair BASIC come pietra miliare per la nascita di Microsoft

Nonostante le sue limitazioni iniziali, la versione 4K BASIC sviluppata da Bill Gates e Paul Allen possedeva una qualità intrinseca tale da convincere la MITS (Micro Instrumentation and Telemetry Systems), produttrice dell’Altair 8800, a concedere in licenza il software. Questo momento rappresentò una svolta cruciale non solo per i due giovani informatici, ma per l’intera storia dell’informatica personale.

Come ricordato da Gates, l’ottenimento di questa licenza sancì la nascita del loro progetto imprenditoriale: “Questo è stato un momento cruciale per Paul e me. Altair BASIC è diventato il primo prodotto della nostra nuova azienda, che abbiamo deciso di chiamare Micro-Soft“. Questa denominazione, una combinazione di “microcomputer” e “software“, incarnava perfettamente la visione dei due fondatori: fornire software per la nascente era dei microcomputer.

A testimonianza delle origini pionieristiche del software, il codice sorgente di Altair BASIC non è stato rilasciato nel formato digitale e strutturato a cui siamo abituati oggi, come un comodo repository di file di testo. Invece, è stato reso disponibile come un documento PDF contenente ben 157 pagine di carta piegata a ventaglio scansionata. Questo formato insolito offre uno sguardo autentico sull’epoca in cui il codice veniva spesso stampato su carta perforata e conservato fisicamente.

La sua pubblicazione in forma di scansione sottolinea il valore storico del documento, quasi come un reperto archeologico del mondo digitale. Tuttavia, per coloro interessati a studiare il codice in un formato più accessibile, esiste un’iniziativa della comunità open source: uno smontaggio annotato di Altair BASIC 3.2 è disponibile sulla piattaforma GitHub, facilitando l’analisi e la comprensione del lavoro originale di Bill Gates e Allen.

A distanza di cinquant’anni dalla sua creazione, Altair BASIC continua a suscitare emozioni nel suo creatore. “Mi fa ancora emozionare vederlo, anche dopo tutti questi anni“, ha affermato Bill Gates, riflettendo sull’impatto del suo primo prodotto. Questa affermazione sottolinea il profondo legame personale e professionale che lega Gates a questo pezzo di storia dell’informatica.

Nonostante gli enormi progressi compiuti nel campo della programmazione informatica negli ultimi decenni, con linguaggi e paradigmi di sviluppo sempre più sofisticati, Bill Gates nutre ancora un forte orgoglio per l’eleganza e l’efficacia con cui Altair BASIC fu concepito e realizzato, specialmente considerando le limitate risorse e le sfide tecniche dell’epoca.

La sua testimonianza è un promemoria di come le prime innovazioni, pur nella loro semplicità relativa, abbiano gettato le basi per il mondo digitale in cui viviamo oggi. Altair BASIC non fu solo il primo prodotto di Microsoft, ma un motore propulsore per l’intera rivoluzione del personal computer, dimostrando il potenziale del software nel rendere l’informatica accessibile a un pubblico sempre più vasto.

Per maggiori informazioni vai sul sito ufficiale Gates Notes.

La Russia viola l’orbita con un satellite misterioso: intenzioni militari nascoste?

0
La Russia viola l'orbita con un satellite misterioso: intenzioni militari nascoste?
La Russia viola l'orbita con un satellite misterioso: intenzioni militari nascoste?
Migliori casinò non AAMS in Italia

Un velo di incertezza avvolge l’ultimo lancio spaziale della Russia, un evento che ha destato preoccupazione nella comunità internazionale e alimentato speculazioni sulle possibili implicazioni militari o sperimentali.

La missione, la prima del Cremlino per l’anno in corso, ha portato in orbita terrestre un oggetto dalla natura enigmatica, descritto in una laconica dichiarazione ufficiale come eseguita “nell’interesse del Ministero della Difesa”. La scarsità di informazioni riguardo allo scopo e alle caratteristiche di questo oggetto ha inevitabilmente innescato un dibattito sulle reali intenzioni di Mosca nello Spazio.

La Russia viola l'orbita con un satellite misterioso: intenzioni militari nascoste?
La Russia viola l’orbita con un satellite misterioso: intenzioni militari nascoste?

La Russia lancia un oggetto spaziale che suscita allarme

Il lancio, avvenuto nelle prime ore del 2 febbraio (GMT) dal cosmodromo di Plesetsk, ha impiegato un razzo Soyuz-2.1V per immettere in orbita tre satelliti, denominati Kosmos 2581, 2582 e 2583. Sebbene la presenza di tre satelliti della Russia sia stata confermata, è la natura e il comportamento di uno specifico “oggetto” rilasciato durante la missione a destare particolare attenzione. Le autorità russe non hanno fornito dettagli specifici su questo elemento aggiuntivo, limitandosi a sottolineare la sua connessione con gli interessi della difesa nazionale. Questa reticenza ha inevitabilmente alimentato congetture su possibili test di nuove tecnologie militari spaziali, manovre di intelligence orbitale o esperimenti di natura sconosciuta.

I satelliti Kosmos 2581, 2582 e 2583 della Russia, insieme al misterioso oggetto, hanno raggiunto un’orbita quasi polare situata a circa 585 chilometri sopra la superficie terrestre. Questa particolare traiettoria orbitale consente una copertura quasi globale del pianeta, passando sopra le regioni polari ad ogni rotazione. Sebbene le orbite polari siano comuni per satelliti di osservazione terrestre e meteorologici, la combinazione con la natura riservata della missione e il rilascio di un oggetto non identificato ha sollevato interrogativi sulla reale destinazione e funzione di questi elementi spaziali.

Ulteriori elementi di preoccupazione derivano dal “comportamento interessante” che i satelliti avrebbero manifestato in orbita, sebbene i dettagli specifici di tali manovre non siano stati resi pubblici. Questo alone di segretezza e le segnalazioni di attività inusuali non fanno che intensificare le preoccupazioni della comunità internazionale riguardo alle possibili implicazioni militari di questa missione spaziale russa. La necessità di trasparenza e di una chiara comunicazione sulle attività spaziali diventa sempre più impellente per preservare la stabilità e la sicurezza nell’orbita terrestre.

I satelliti Kosmos al centro di preoccupazioni per operazioni di prossimità

Le osservazioni condotte da Jonathan McDowell, un rinomato astrofisico specializzato nel monitoraggio dei voli spaziali, suggeriscono che i satelliti potrebbero aver intrapreso potenziali operazioni di prossimità nel corso del mese di marzo 2025. Queste manovre, consistenti nell’avvicinamento controllato ad altri oggetti presenti nello Spazio, hanno acuito le preoccupazioni riguardo alla natura e allo scopo reale della missione russa, soprattutto in considerazione della persistente mancanza di dettagli ufficiali da parte della Russia.

Secondo le analisi di McDowell, i satelliti Kosmos avrebbero mostrato un comportamento orbitale compatibile con l’esecuzione di manovre di avvicinamento ad altri corpi spaziali. Le operazioni di prossimità sono una capacità critica per diverse applicazioni spaziali, che spaziano dal rifornimento in orbita e dalla manutenzione dei satelliti fino a potenziali impieghi militari, come l’ispezione ravvicinata o la neutralizzazione di asset spaziali avversari.

Proprio la sensibilità di queste possibili applicazioni militari è alla base della crescente preoccupazione suscitata dalle osservazioni di McDowell, soprattutto nel contesto geopolitico attuale. La Russia, da parte sua, mantiene un rigoroso silenzio sulla natura specifica della missione Kosmos, alimentando ulteriormente le speculazioni e rendendo difficile discernere tra possibili attività sperimentali a scopo scientifico o tecnologico e manovre con finalità strategiche militari.

Come sottolineato dalla rivista scientifica, la maggior parte delle missioni designate con la nomenclatura “Kosmos” sono tradizionalmente classificate, il che rende ancora più arduo ottenere informazioni affidabili sulle loro reali finalità. Questa opacità informativa, combinata con le osservazioni di potenziali manovre di prossimità, ha inevitabilmente generato un’ondata di reazioni da parte di scienziati e appassionati dello spazio sui social media.

Lo stesso Jonathan McDowell ha condiviso le sue analisi sulla piattaforma X, evidenziando come la Space Force statunitense abbia catalogato un nuovo oggetto collegato al lancio dei satelliti Kosmos-2581/2582/2583, suggerendo una possibile separazione da Kosmos-2583 avvenuta intorno al 18 marzo 2025. Questa ulteriore frammentazione degli oggetti in orbita non fa che complicare ulteriormente la comprensione della missione della Russia e accrescere l’incertezza sulle sue vere intenzioni nello Spazio, sottolineando la necessità di maggiore trasparenza e di meccanismi di controllo più efficaci per le attività spaziali di tutte le nazioni.

Un nuovo elemento nel mistero orbitale

Un’immagine enigmatica, presumibilmente condivisa dalla Russia, ha iniziato a circolare sui social media, alimentando ulteriormente la curiosità e le speculazioni riguardo alle recenti attività spaziali del paese. L’utente X Birol ALKAN ha diffuso un video accompagnato da un commento in russo che, tradotto, recita: “Un’immagine misteriosa è stata condivisa dalla Russia”. La descrizione fornita dall’utente aggiunge un ulteriore velo di mistero all’oggetto ritratto.

Secondo la descrizione di Birol ALKAN, l’immagine mostra un oggetto sferico di apparenza trasparente, la cui superficie è caratterizzata dalla presenza di luci e colori non meglio specificati. Questa descrizione ha immediatamente evocato nella mente dell’utente un’analogia con le iconiche sfere di vetro presenti nel celebre film di fantascienza “Ultimatum alla Terra” (“The Day the Earth Stood Still”).

Il riferimento cinematografico, puramente suggestivo, sottolinea la natura inusuale e quasi eterea dell’oggetto ritratto, distante dall’immagine tipica dei satelliti artificiali convenzionali. La trasparenza apparente e le emissioni luminose superficiali pongono interrogativi sulla composizione e sulla possibile funzione di tale manufatto spaziale.

Al momento, l’origine precisa dell’immagine e la sua autenticità rimangono incerte. La condivisione da parte di un utente sui social media, sebbene indicativa di una potenziale diffusione virale, non costituisce una conferma ufficiale da parte di agenzie spaziali o autorità governative della Russia. Tuttavia, la sua comparsa in concomitanza con le crescenti preoccupazioni riguardo alle attività in orbita dei satelliti Kosmos e del misterioso oggetto rilasciato durante la stessa missione, aggiunge un nuovo e intrigante elemento al quadro complessivo.

Sebbene sia impossibile trarre conclusioni definitive sulla base di un’immagine isolata e non verificata, essa contribuisce ad alimentare il dibattito pubblico e le congetture sulla natura delle operazioni spaziali russe in corso. La somiglianza evocata con oggetti di finzione spaziale non fa che intensificare il desiderio di risposte concrete e trasparenti riguardo a questo nuovo enigma orbitale.

Forza di corpo nero

0
Forza di corpo nero
Forza di corpo nero
Migliori casinò non AAMS in Italia

Un corpo nero è, in fisica, un oggetto ideale che assorbe tutta la radiazione elettromagnetica incidente senza rifletterla, ed è perciò detto “nero” secondo l’interpretazione classica del colore dei corpi.

Assorbendo tutta l’energia incidente, per la legge di conservazione dell’energia il corpo nero re-irradia tutta l’energia assorbita (coefficiente di emissione uguale a quello di assorbimento e pari a uno). Si tratta di una idealizzazione fisica, dal momento che in natura non esistono corpi che soddisfano perfettamente tale caratteristica.

La radiazione emessa da un corpo nero viene detta radiazione del corpo nero e la densità di energia irradiata spettro di corpo nero. Lo spettro (intensità o densità della radiazione emessa in funzione della lunghezza d’onda o della frequenza) di un corpo nero è uno spettro dalla caratteristica forma a campana (più o meno asimmetrica e più o meno schiacciata) dipendente unicamente dalla sua temperatura T e non dalla materia che lo compone. La differenza tra lo spettro di un oggetto reale (per esempio il sole) e quello di un corpo nero ideale permette di individuare la composizione chimica di tale oggetto (nel caso del sole, idrogeno ed elio). Tale analisi viene realizzata nell’ambito della spettroscopia.

Quindi, oggetti perfettamente non riflettenti, detti corpi neri, producono radiazione di corpo nero quando sono ad una temperatura uniforme. Sebbene le proprietà di radiazione di corpo nero dipendono dalla temperatura del corpo nero, questa radiazione è sempre stata pensata avere un effetto repulsivo netto.

Nel 2013 gli scienziati, M. Sonnleitner, dell’Università di Innsbruck e Innsbruck Medical University in Austria, M. Ritsch-Marte, dell’Innsbruck Medical University, e H. Ritsch dell’Università di Innsbruck, in una pubblicazione su Physical Review Letters, hanno dimostrato teoricamente che la radiazione di corpo nero induce una seconda forza su atomi e molecole vicine che di solito è attrattiva, e, sorprendentemente, anche più forte della pressione di radiazione respingente. Di conseguenza, gli atomi e le molecole sono attratti verso la superficie del corpo nero con una forza attrattiva  che può essere ancora più forte della gravità. La nuova forza, che gli scienziati hanno chiamato “forza di corpo nero“, suggerisce che una varietà di scenari astrofisici dovrebbero essere rivisitati.

La base teorica sottostante alla nuova forza è effettivamente conosciuta da almeno mezzo secolo: la radiazione di corpo nero sposta i livelli energetici atomici di atomi e molecole nelle vicinanze. In questi “spostamenti Stark,” lo stato fondamentale dell’atomo o molecola viene spostato ad un’energia inferiore di una quantità che è approssimativamente proporzionale alla quarta potenza della temperatura del corpo nero.

In sostanza, più è caldo il corpo nero, più è grande il lavoro. Anche se questo era già noto, le potenziali ripercussioni di questi cambiamenti energetici sono stati trascurati fino ad ora. Nello studio del 2013, gli scienziati hanno per la prima volta dimostrato che gli spostamenti Stark indotti dalla radiazione di corpo nero possono combinarsi per generare una forza ottica attraente che domina la propria pressione di radiazione repulsiva del corpo nero. Ciò significa che, nonostante l’uscita radiativa del flusso di energia, una sfera calda di dimensioni finite, attira piuttosto che respingere atomi e molecole neutre, sotto la maggior parte delle condizioni.

Gli scienziati hanno poi calcolato la forza della forza attrattiva, e hanno scoperto alcune cose interessanti. In primo luogo, la forza decresce con la terza potenza della distanza dal corpo nero. Inoltre, la forza è più forte per gli oggetti più piccoli e la forza è più forte per gli oggetti più caldi, fino a un certo punto. Al di sopra di un qualche migliaio di gradi Kelvin, la forza si modifica da attrattiva a repulsiva.

Ora, in un nuovo studio pubblicato su EPL, una squadra diversa di fisici, CR Muniz et al., della Ceará State University e l’Università Federale del Ceará, in Brasile, hanno teoricamente dimostrato che la forza di corpo nero non dipende solo dalla geometria dei corpi stessi, ma anche dalla geometria dello spazio-tempo circostante e dalla topologia. In alcuni casi, i valori di questi ultimi fattori aumentano significativamente la forza della forza di corpo nero.

I risultati hanno implicazioni per una varietà di scenari di astrofisica, come pianeti e formazione stellare, e per gli esperimenti basati in laboratorio. “Questo lavoro mette la scoperta della forza di corpo nero, nel 2013,  in un contesto più ampio, che coinvolge forti sorgenti gravitazionali e oggetti esotici come  stringhe cosmiche e quelle più prosaiche trovate nella materia condensata“, ha detto Muniz.

Nel nuovo studio, i fisici hanno studiato corpi neri sferici e cilindrici, e mostrano come la topologia e la curvatura locale dello spazio-tempo influenzino le forze sul corpo nero. Essi hanno dimostrato che corpi neri sferici ultradensi, come una stella di neutroni (attorno alla quale lo spazio-tempo è molto curvo), generino una forza di corpo nero più forte dovuta alla curvatura, rispetto ai corpi neri in uno spazio-tempo piatto.

I ricercatori hanno spiegato che questo succede perché la gravità modifica sia la temperatura del corpo nero che l’angolo solido in cui gli atomi e molecole vicine “vedono” il corpo nero. D’altra parte, un corpo nero meno denso come il nostro Sole (dove lo spazio-tempo è meno curvo) genera una forza di corpo nero che è molto simile a quella del caso dello spazio-tempo piatto.

I ricercatori hanno poi considerato il caso di un monopolo globale, un oggetto sferico che modifica le proprietà globali dello spazio, e hanno riscontrato un diverso tipo di influenza. Mentre per altri corpi neri sferici, l’influenza dello spazio-tempo è gravitazionale e diminuisce con la distanza dal corpo nero, per il monopolo globale l’influenza è di natura topologica, decrescente con la distanza, ma fino a raggiungere un valore costante.

Infine, nell’esaminare la forza di corpo nero nei corpi neri cilindrici attorno ai quali lo spazio-tempo è localmente piano, gli scienziati non hanno trovato alcuna correzione gravitazionale alla temperatura, ma, sorprendentemente, un effetto sugli angoli con oggetti vicini. E quando un corpo nero cilindrico diventa infinitamente sottile, trasformandosi in una stringa cosmica ipotetica, la forza di corpo nero svanisce completamente. Nel complesso, gli scienziati si aspettano che queste influenze geometriche e topologiche di recente scoperta sulla forza di corpo nero contribuiscano a chiarire il ruolo di questa forza insolita su oggetti in tutto l’universo.

Riteniamo che l’intensificazione della forza di corpo nero dovuta alle sorgenti ultradense può influenzare in modo rilevabile fenomeni associati con esse, come l’emissione di particelle molto energetiche, e la formazione di dischi di accrescimento attorno ai buchi neri“, ha detto Muniz.

Questa forza può anche aiutare a rivelare la radiazione di Hawking emessa da questi ultimi, poiché sappiamo che tali radiazioni obbediscono allo spettro del corpo nero. In futuro, vorremmo studiare il comportamento di questa forza in altri tipi di spazio-tempo, così come l’influenza delle dimensioni extra su di esso.”

Il “Liberation Day” di Trump scatena il panico in borsa: miliardari si buttano dalle crypto

0
Il “Liberation Day” di Trump scatena il panico in borsa: miliardari si buttano dalle crypto
Migliori casinò non AAMS in Italia

Wall Street (o quel che ne resta) – “Diventeremo tutti ricchissimi!” aveva promesso un Trump raggiante dal palco del “Liberation Day”, il suo nuovo evento elettorale a metà tra un comizio e un’asta di fondi pensione svenduti a caso. E aveva ragione. Solo che a diventare ricchissimi, stavolta, sono stati i venditori allo scoperto.

Mentre il Tycoon col cappellino MAGA tuonava contro la Cina, annunciava dazi su tutto – dalle auto elettriche ai ravioli surgelati – e ridefiniva il concetto di diplomazia con un rutto, le borse mondiali hanno reagito con la grazia di un gattino preso a calci: crollo verticale, panico generalizzato e una scena che sembrava tratta da Il Lupo di Wall Street, ma girata da Mel Brooks.

I miliardari? In tilt

vignetta1 trump e1743851882704
Il “Liberation Day” di Trump scatena il panico in borsa: miliardari si buttano dalle crypto
  • Elon Musk ha lanciato un laptop contro un muro urlando “Dovevo investire in piccioni viaggiatori!”

  • Jeff Bezos ha chiesto di essere teletrasportato su Marte, ma Blue Origin non risponde più al telefono.

  • Mark Zuckerberg, sudato come se stesse per parlare con un essere umano vero, ha aggiornato lo status di Meta a: It’s complicated (and broke).

  • Bill Gates è stato visto in bilico su un cornicione, ma pare stesse solo cercando campo per il WiFi.

I mercati hanno definito il discorso di Trump “una dichiarazione di guerra… all’economia globale”, mentre i sismografi della California hanno registrato uno strano tremolio proveniente da sotto il Nasdaq: era la risata di Karl Marx.

Intanto, dopo il Liberation Day Trump esulta:

“I grafici rossi? Segno che stiamo vincendo! È tutto parte del piano.”

Un piano che, a quanto pare, prevede la completa sostituzione dell’economia USA con meme su Truth Social e banane come moneta di scambio.

Nel frattempo, si moltiplicano le richieste di asilo economico in… Venezuela.

Home

Batteri ancestrali: l’ossigeno come risorsa metabolica prima della Grande Ossidazione

0
Batteri ancestrali: l'ossigeno come risorsa metabolica prima della Grande Ossidazione
Batteri ancestrali: l'ossigeno come risorsa metabolica prima della Grande Ossidazione
Migliori casinò non AAMS in Italia

L’ossigeno, oggi elemento imprescindibile per la maggior parte delle forme di vita, non ha sempre caratterizzato l’atmosfera terrestre. La tradizionale narrazione scientifica colloca l’emergere della respirazione aerobica in un contesto di significativa presenza di ossigeno.

Tuttavia, nuove evidenze basate sull’analisi di dati multidisciplinari prospettano uno scenario in cui alcuni batteri primordiali avrebbero potuto sviluppare la capacità di metabolizzare l’ossigeno ben prima della sua diffusione su vasta scala.

Batteri ancestrali: l'ossigeno come risorsa metabolica prima della Grande Ossidazione
Batteri ancestrali: l’ossigeno come risorsa metabolica prima della Grande Ossidazione

Batteri antichi respiravano prima che l’ossigeno abbondasse

L’atmosfera terrestre, oggi caratterizzata da una generosa presenza di ossigeno che sostiene la complessa trama della vita come la conosciamo, non ha sempre goduto di questa composizione vitale. Per miliardi di anni, il nostro pianeta è stato avvolto da un’aria rarefatta di ossigeno libero, un ambiente radicalmente diverso da quello attuale, dove questo elemento costituisce circa il 21% del volume atmosferico.

La svolta cruciale in questa storia planetaria è tradizionalmente attribuita all’evoluzione dei cianobatteri, microrganismi acquatici pionieri che, grazie all’avvento della fotosintesi ossigenica circa 2,7 miliardi di anni fa, iniziarono a rilasciare ossigeno come sottoprodotto metabolico negli oceani primordiali. Questo ossigeno, inizialmente assorbito da minerali e materia organica disciolta, iniziò gradualmente ad accumularsi nell’atmosfera in un evento epocale noto come la Grande Ossidazione (Great Oxidation Event, GOE), un periodo di profonda trasformazione geochimica e biologica che si estese approssimativamente tra 2,4 e 2,1 miliardi di anni fa.

La GOE è stata a lungo considerata una cesura fondamentale nella storia della vita, segnando il passaggio da un mondo dominato da organismi anaerobici, capaci di prosperare in assenza di ossigeno, a un ambiente progressivamente ossigenato che aprì la strada all’evoluzione di forme di vita più complesse e metabolicamente dispendiose, come gli eucarioti.

il racconto consolidato dell’evoluzione della vita primordiale e del ruolo dell’ossigeno sta subendo una revisione alla luce di recenti e innovative ricerche scientifiche. Un team internazionale di scienziati, attraverso un approccio multidisciplinare che intreccia l’analisi di antichi registri geologici, la scarsa ma preziosa documentazione fossile e la vasta mole di dati genomici di oltre mille specie batteriche moderne, ha ricostruito l’albero evolutivo di alcune delle prime forme di vita comparse sulla Terra.

I risultati di questo ambizioso lavoro suggeriscono una sorprendente anticipazione nell’adattamento dei batteri alla presenza di ossigeno, collocando l’emergere di batteri aerobici, ovvero organismi che utilizzano l’ossigeno per la produzione di energia, molto prima dell’avvento della Grande Ossidazione. Questa scoperta sfida l’ipotesi precedentemente dominante secondo cui la vita prima del GOE fosse prevalentemente anaerobica, costringendo a riconsiderare le dinamiche evolutive e il ruolo che tracce di ossigeno, anche minime, potrebbero aver giocato negli albori della biosfera terrestre.

Svelare le linee temporali evolutive primordiali

La chiave per questa nuova interpretazione della storia della vita risiede nell’approccio metodologico sofisticato adottato dal team di ricerca. Consapevoli delle limitazioni intrinseche della documentazione fossile per i microrganismi, soprattutto per le epoche più remote, i ricercatori hanno integrato diverse linee di evidenza per ricostruire un albero evolutivo robusto per i batteri e per tracciare il momento in cui si sono verificati gli adattamenti metabolici legati all’ossigeno.

Questo approccio ha incluso un’analisi dettagliata dei registri geologici, alla ricerca di indizi indiretti sulla presenza di ossigeno in epoche antiche, l’esame delle rare testimonianze fossili di microrganismi primordiali e, soprattutto, un’analisi comparativa su larga scala dei genomi di oltre mille specie batteriche contemporanee. Un elemento centrale della loro metodologia è stata l’applicazione della riconciliazione filogenetica, una tecnica che confronta la storia evolutiva di due gruppi di organismi strettamente interconnessi per inferire tempi di divergenza e adattamenti.

Inoltre, i ricercatori hanno impiegato sofisticate tecniche di modellazione al computer per analizzare i dati e ricostruire gli scenari evolutivi più probabili. Come ha sottolineato Gergely Szöllősi, biologo evoluzionista dell’Okinawa Institute of Science and Technology Graduate University e coautore dello studio: “Questo approccio combinato di utilizzo di dati genomici, fossili e storia geochimica della Terra porta nuova chiarezza alle linee temporali evolutive, soprattutto per i gruppi microbici che non hanno una documentazione fossile”.

Secondo l’albero evolutivo ricostruito dal team di ricerca, l’ultimo antenato comune di tutti i batteri moderni è probabilmente esistito in un’epoca compresa tra 4,4 e 3,9 miliardi di anni fa, un periodo che precede di centinaia di milioni di anni le prime evidenze geologiche inequivocabili di una produzione significativa di ossigeno.

Implicazioni per l’evoluzione della fotosintesi ossigenica

Ancora più sorprendente è la loro stima dell’emergere di alcune linee batteriche aerobiche, datata a un periodo compreso tra 3,22 e 3,25 miliardi di anni fa, ben prima della Grande Ossidazione. Questa scoperta implica che alcuni batteri avevano già sviluppato la capacità di utilizzare l’ossigeno per il metabolismo energetico in un’epoca in cui la sua presenza nell’ambiente era probabilmente scarsa e localizzata.

Un’implicazione particolarmente affascinante di questa ricerca è che queste prime linee batteriche aerobiche potrebbero essere state gli antenati diretti dei cianobatteri. Ciò suggerisce che la capacità di metabolizzare piccole quantità di ossigeno potrebbe aver preceduto lo sviluppo della fotosintesi ossigenica, il processo che ha poi portato alla massiccia liberazione di ossigeno nell’atmosfera.

Infatti, la ricerca propone un modello evolutivo in cui l’adattamento a un ambiente con tracce di ossigeno potrebbe aver giocato un ruolo cruciale nello sviluppo, e successivamente nell’affinamento, delle complesse vie metaboliche fotosintetiche dei cianobatteri.

In questo scenario, l’esposizione a piccole quantità di ossigeno potrebbe aver esercitato una pressione selettiva che ha favorito l’evoluzione di meccanismi di difesa contro la sua tossicità e, parallelamente, lo sviluppo di enzimi capaci di sfruttare l’energia derivante dalle reazioni ossidative, preparando in qualche modo il terreno per l’avvento della fotosintesi ossigenica su larga scala e per la conseguente trasformazione dell’atmosfera terrestre durante la Grande Ossidazione.

Questa nuova prospettiva ribalta la visione tradizionale, suggerendo che l’ossigeno, lungi dall’essere unicamente un prodotto della fotosintesi cianobatterica, potrebbe aver anche agito come un motore evolutivo, plasmando le capacità metaboliche di questi stessi batteri pionieri e, di conseguenza, il destino dell’atmosfera del nostro pianeta.

Lo studio è stato pubblicato su Science.