mercoledì, Aprile 2, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 1299

Polemica Cosmica

0
Migliori casinò non AAMS in Italia

Un paio d’anni fa sulle riviste scientifiche scoppiò un dibattito molto acceso sulla teoria dell’inflazione cosmica. Iniziò Scientific American, che pubblicò un articolo in cui i fisici teorici Anna Ijjas e Paul Steinhardt di Princeton e  Abraham Loeb di Harvard, sostenevano che la teoria dell’inflazione non è verificabile e quindi non veramente scientifica. Sottolineiamo il fatto che i tre fisici teorici sopra menzionati non rappresentano ‘tutta‘ la comunità scientifica, ma solo una piccola parte.

In breve nel loro articolo i tre teorici affermano che:

  • Le ultime misure della radiazione cosmica di fondo (CMB), la luce più antica dell’universo, sollevano preoccupazioni circa la teoria inflazionaria del cosmo – l’idea per cui lo spazio si è espanso in modo esponenziale nei primi momenti dopo il Big Bang
  • L’inflazione produce tipicamente un diverso modello di variazione di temperatura nella CMB (anche se può essere fatto per prevedere quasi qualsiasi risultato). Genererebbe anche onde gravitazionali primordiali, che non sono mai state rivelate
  • la cosmologia inflazionistica, come noi oggi la intendiamo, non può essere valutata con il metodo scientifico. Il risultato atteso di inflazione può facilmente cambiare se variamo le condizioni iniziali, modificare la forma della curva di densità di energia inflazionistica, o semplicemente notare che conduce alla inflazione eterna e multimess (l’inflazione produce genericamente un multiverso “multimess” dei risultati – letteralmente un numero infinito di patch con una varietà infinita di possibilità (e non v’è attualmente alcun criterio per preferire una possibilità piuttosto che un’ altra). Individualmente e collettivamente, queste caratteristiche rendono l’inflazione così flessibile, che nessun esperimento potrà mai confutarla.
  • I dati suggeriscono che i  cosmologi dovrebbero rivalutare questo paradigma e prendere in considerazione nuove idee su come l’universo abbia avuto inizio

Questo articolo ha indotto 33 fisici, fra cui Stephen Hawking, 4 premi Nobel e una Medaglia Fields, a mettere i loro nomi nella risposta per difendere il rigore empirico dei modelli inflazionari. Nomi eccellenti fra i quali Alan Guth, Andrei Linde, Sean Carroll, Juan Maldacena, Martin Rees, Leonard Susskind, Steven Weinberg, Rainer Weiss, Franck Wilczek, per dirne alcuni. In breve qualche punto essenziale dell’articolo in risposta ad Ijjas, Steinhardt e Loeb (IS&L):

Non v’è alcun dubbio sul fatto che l’inflazione è diventata il paradigma dominante in cosmologia. Molti scienziati provenienti da tutto il mondo hanno lavorato sodo per anni studiando modelli di inflazione cosmica e confrontando queste previsioni con osservazioni empiriche. Secondo la banca dati fisica delle alte energie INSPIRE, oggi ci sono più di 14.000 carte nella letteratura scientifica, scritte da oltre 9.000 scienziati distinti, che utilizzano la parola “inflazione” o “inflazionistica” nei loro titoli o abstract.

Sostenendo che la cosmologia inflazionistica si trova al di fuori del metodo scientifico, IS & L stanno respingendo non solo la ricerca di  tutti gli autori di questa lettera ma anche quella di un contingente consistente della comunità scientifica. Inoltre, come il lavoro di alcune importanti collaborazioni internazionali ha chiarito, l’inflazione non è solo verificabile, ma è stata sottoposta ad un numero significativo di prove e finora le ha superate tutte. (../)

I modelli inflazionistici standard prevedono che l’universo dovrebbe avere una densità di massa critica (cioè, dovrebbe essere geometricamente piatto), e prevede anche le proprietà statistiche delle increspature deboli che noi rileviamo nella radiazione cosmica di fondo (CMB). In primo luogo, le increspature dovrebbero essere quasi “scala-invariante”, nel senso che esse hanno quasi la stessa intensità a tutte le scale angolari. In secondo luogo, le increspature dovrebbero essere “adiabatiche”, il che significa che le perturbazioni sono le stesse in tutti i componenti: la materia ordinaria, le radiazioni e materia oscura, tutte fluttuano insieme. In terzo luogo, essi dovrebbero essere “gaussiani”, che è una dimostrazione sui modelli statistici di regioni relativamente chiare e scure. Quarto ed ultimo, i modelli fanno anche  previsioni per gli schemi di polarizzazione della CMB, che possono essere suddivisi in due classi, chiamate E-mode e B-mode. Le previsioni per E-mode sono molto simili per tutti i modelli inflazionistici standard, mentre i livelli di B-mode, che sono una misura della radiazione gravitazionale nell’universo primordiale, variano in modo significativo all’interno della classe di modelli standard.

Il fatto notevole è che, a partire dai risultati del satellite Cobe (COBE) nel 1992, numerosi esperimenti hanno confermato che queste previsioni (insieme a molti altri troppo tecnici per discutere qui) descrivono con precisione il nostro universo. La  densità della massa dell’universo è stata ora misurata con una precisione di circa la metà di un per cento, e concorda perfettamente con la previsione di inflazione. (Quando l’inflazione è stata proposto per la prima, la densità di massa era incerta di almeno un fattore tre, quindi questo è un successo impressionante.) Le increspature della CMB sono state misurate con cura anche da due esperimenti satellitari , il Wilkinson Microwave Anisotropy Probe ( WMAP) e il satellite Planck, così come molti altri esperimenti e tutti confermando infatti che le fluttuazioni primordiali sono quasi scala-invariante,  accuratamente adiabatiche e gaussiane, proprio come predetto (in anticipo) da modelli standard di inflazione. I B-mode di polarizzazione non sono ancora stati visti, coerentemente con molti, se non tutti, i modelli standard, e le polarizzazioni E-mode si trovano d’accordo con le previsioni. Nel 2016 il team satellite Planck (una collaborazione di circa 260 autori) ha riassunto le sue conclusioni dicendo che “i risultati di Planck offrono una prova potente a favore di semplici modelli inflazionistici.” Quindi, se l’inflazione non è verificabile, come IS & L vorrebbero farci credere, perché  ci sono stati così tanti test su di essa e con tali notevoli successi? (../)

Mentre i successi di modelli inflazionistiche sono certi, IS & L continuano ad affermare che l’inflazione non  è verificabile. (Siamo sconcertati dalla asserzione di IS & L’s nonostante i successi osservativi di inflazione che dovrebbero essere scontati, mentre accusano i sostenitori dell’ inflazione di abbandonare la scienza empirica!) Essi sostengono, ad esempio, che l’inflazione non sia verificabile perché le sue previsioni possono essere modificate variando la forma della curva di densità di energia inflazionaria o le condizioni iniziali. Ma la verificabilità di una teoria non richiede in nessun modo che tutte le sue predizioni siano indipendenti dalla scelta dei parametri. Se sono richieste tali indipendenze di parametro, allora dovremmo mettere anche in discussione lo status del Modello Standard, con il suo contenuto di particelle empiricamente determinate e 19 o più parametri empiricamente  determinati.

Un punto importante sarebbe se i modelli inflazionistici standard avessero fallito uno dei test empirici sopra descritti, ma non lo hanno fatto. IS & L scrivono di come “in mancanza di una teoria viene sempre più immunizzata contro esperimenti dai tentativi di patch”, insinuando che questo abbia qualcosa a che fare con l’inflazione. Ma nonostante la retorica di IS & L’s, è una pratica standard nel campo della scienza empirica  modificare una teoria quando nuovi dati vengono alla luce, come, ad esempio, il modello standard delle particelle è stato modificato per tenere conto dei quark e leptoni di recente scoperta. Per la cosmologia inflazionistica, nel frattempo, non v’è stato finora nessun bisogno di andare al di là della classe di modelli inflazionistici standard. (../)

Durante gli oltre 35 anni della sua esistenza, la teoria inflazionistica è progressivamente diventata il principale paradigma cosmologico che descrive le prime fasi dell’ evoluzione dell’universo e la formazione della sua struttura su larga scala. Nessuno sostiene che l’inflazione sia diventata certa; le teorie scientifiche non vengono dimostrate come i teoremi matematici, ma col passare del tempo, quelle di successo diventano sempre meglio stabilite dal miglioramento delle prove sperimentali e dai progressi teorici. Questo è successo con l’inflazione. Il progresso continua, sostenuto dagli sforzi entusiastici di molti scienziati che hanno scelto di partecipare a questo vibrante ramo della cosmologia.

La prima idea di inflazione fu concepita nei primi anni 1980, poi diventò rapidamente popolare, perché sembrava  tener conto delle incomprensibili caratteristiche dell’universo osservabile. L’inflazione spiega perché l’universo sembra abbastanza simile in tutte le direzioni e tuttavia non del tutto omogeneo, in quanto contiene le galassie e altri grumi di materia. Dai primi anni ’90 alcuni cosmologi cominciarono a dubitare di questa teoria,  preoccupati che l’inflazione non potesse offrire previsioni definitive e uniche, che non possono essere spiegate in altro modo. La paternità di  Steinhardt della critica alla teoria è particolarmente significativa, dal momento che è considerato l’inventore dell’ inflazione insieme a Alan Guth e Andrei Linde. Steinhardt ha espresso il suo scrupolo sull’inflazione per anni.

David Kaiser, un fisico e storico della scienza al MIT, ha dichiarato che le affermazioni fatte da IS&L erano già state “esplicitamente sfatate diversi anni fa”, e ha messo in discussione il giudizio dei redattori di Scientific American – tra le più antiche riviste pubblicate negli Stati Uniti – per consentire all’autore dell’articolo di caratterizzare la stragrande maggioranza dei ricercatori nel campo “come se fossero membri di un culto.”

E’ bene ricordare che IS&L sono sostenitori di un modello cosmologico alternativo, chiamato “Big Bounce” (grande rimbalzo)  In questa teoria, l’universo funziona su base ciclica di espansione e contrazione. Al momento, si sta espandendo. Tuttavia, quando si esaurisce l’energia (o qualunque cosa possa fermare la sua espansione), inizierà a contrarsi, fino ad un certo punto, e poi si ritrarrà in uno stato simile a quello del Big Bang (sostituito appunto dal Big Bounce), quindi si verificherà una nuova nascita con la ripetizione del processo per l’eternità). Per Alan Guth, fisico del MIT che per primo ha proposto il concetto di inflazione, è scandalosa e senza fondamento l’insinuazione fatta da IS&L per cui alcuni scienziati che aderiscono alla teoria credano che non sia verificabile. 

E’ la terza volta in sei anni che Scientific American pubblica una ‘sfida‘ alla cosmologia inflazionistica, anche se rimane negli articoli marginali. Clara Moskovitz, giornalista di SA, dice “E’ ovvio che la stragrande maggioranza dei ricercatori preferiscano l’idea dell’inflazione, piuttosto che le alternative; non per questo chiunque sia in disaccordo non possa esprimere il proprio pensiero, nelle nostre o in altre pagine di riviste specializzate“.

IS&L hanno preparato la loro risposta alle critiche del loro articolo da questa pagina web. In poche parole, i tre fisici hanno mantenuto il punto, indicando come i critici stiano interpretando male il loro lavoro. Riportiamo una breve sintesi:

Abbiamo un grande rispetto per gli scienziati che hanno firmato la contestazione al nostro articolo, ma siamo delusi dalla loro risposta, che tralascia il nostro punto chiave: le differenze tra la teoria inflazionistica una volta pensata per essere possibile e la teoria come intesa oggi. L’affermazione che l’inflazione è stata confermata si riferisce alla teoria obsoleta,  cioè prima di comprendere i suoi problemi fondamentali. Crediamo fermamente che in una sana comunità scientifica sia possibile un disaccordo rispettoso e quindi rifiutare il suggerimento che, evidenziando problemi, stiamo scartando l’opera di tutti coloro che hanno sviluppato la teoria dell’inflazione e hanno permesso di misurare con precisione l’universo.

Storicamente, il pensiero sull’inflazione era basato su una serie di incomprensioni. Non è stato capito che il risultato dell’inflazione è altamente sensibile alle condizioni iniziali. E non è stato capito che l’inflazione genera l’inflazione eterna e, di conseguenza, un multiverso – una diversità infinita di risultati. Gli studi sostengono che l’inflazione predice questo o che ignorano questi problemi. 

Il nostro punto è che dovremmo parlare della versione contemporanea dell’inflazione, nel bene e nel male, non di una reliquia defunta. Logicamente, se il risultato dell’inflazione è altamente sensibile a condizioni iniziali non ancora comprese, come gli intervistati riconoscono, il risultato non può essere determinato. E se l’inflazione produce un multiverso in cui, citando una dichiarazione precedente di uno degli autori rispondenti (Guth), “tutto ciò che può succedere accadrà” – non ha alcun senso parlare di previsioni. A differenza del modello standard, anche dopo aver fissato tutti i parametri, qualsiasi modello inflazionistico dà una diversità infinita di risultati con nessuno preferito rispetto ad altri. Ciò rende l’inflazione immune da qualsiasi test osservazionale.

Siamo tre pensatori indipendenti che rappresentano diverse generazioni di scienziati. Il nostro articolo non ha lo scopo di rivisitare vecchi dibattiti, ma discutere le implicazioni delle recenti osservazioni e  sottolineare i problemi irrisolti. Ci auguriamo che i lettori potranno tornare indietro e rivedere paragrafi conclusivi del nostro articolo. Noi siamo per il riconoscimento aperto delle carenze di concetti attuali, e per uno sforzo rinvigorito per risolvere questi problemi e un’esplorazione di mentalità aperta di idee diverse.

Per non smentirsi, SA il 12 maggio successivo, ha pubblicato un articolo di John Horgan titolato Is a Popular Theory of Cosmic Creation Pseudoscience? dove conclude dicendo : “Quasi 40 anni dopo la loro nascita, l’inflazione e la teoria delle stringhe sono in condizioni peggiori che mai. La persistenza di tali teorie non falsificabili e quindi non scientifiche, è una vergogna che rischia di danneggiare la reputazione della scienza  in un momento in cui la scienza non può permetterselo. Non è tempo di staccare la spina?“.

Fonti: Scientific American

Stefania de Luca è owner del gruppo facebook Astrofisica, cosmologia e fisica particellare

Nibiru, il leggendario pianeta di Zecharia Sitchin

0
Migliori casinò non AAMS in Italia

È ormai diventata quasi una tradizione, ad agosto escono fuori le profezie sull’arrivo di Nibiru e se quest’anno David Meade, il numerologo esperto (dice lui) della Bibbia quest’anno non ha pubblicato un libro nuovo sulla fine del mondo causata da Nibiru, ci pensano i suoi fans a ripescare articoli e post dell’anno passato pieni di richiami all’apocalisse.

Come abbiamo potuto ormai constatare, Nibiru ha perso la strada e non arriva oppure i sedicenti esperti sbagliano sistematicamente i loro conti e di Nibiru si sono perse le tracce, tranne che nella fantasia dei sostenitori più incalliti.

Ma cos’è Nibiru? Da dove esce fuori questa idea e come nasce?

Nibiru è un leggendario pianeta descritto da Zecharia Sitchin, un archeologo dilettante che interpretò le antiche scritture sumere in modo molto personale. Sitchin, che però di archeologia aveva solo un’infarinatura essendo invece specializzato in economia inventò una sua teoria in cui sostiene che l’origine dell’uomo sia da attribuire alla presenza sulla Terra di un’antica civiltà extraterrestre proveniente proprio dal fantomatico pianeta Nibiru. La tesi è stata abbracciata da una parte della comunità ufologica e da gran parte dei cospirazionisti che hanno collocato le ricerche di Sitchin nell’ampio quadro che vede l’umanità controllata da oscure forze di varia natura.

1 1

Sitchin, studiando gli antichi testi, si convinse dell’esistenza di Nibiru ch,e secondo la sua ricostruzione, attraversò il sistema solare in un’epoca compresa tra i 65 milioni e i 4 miliardi di anni fa. Il grande pianeta Nibiru attraversò il piano dell’eclittica del nostro sistema solare assieme a una piccola stella, Nemesis, destabilizzando durante il passaggio un altro pianeta, Tiamat, che, secondo Sitchin, era un piabeta ricco di vegetazione e ricoperto di oceani. Il passaggio del pianeta Nibiru e di Nemesis portò Tiamat stesso a collidere con Nibiru. I resti di Tiamat diedero vita alla fascia asteroidale e alla coppia Terra – Luna.

Questa tesi non è mai stata confermata dalla comunità scientifica e mai nessun archeologo è arrivato alle stesse conclusioni di Sitchin.

2 1

Il nome Nibiru deriva dalla lingua accadica e significa punto di attraversamento. Nibiru, per gli antichi popoli mesopotamici era il corpo celeste associato al dio Marduk. L’assiriologo Immanuel Freedman, fa notare che i testi cuneiformi a noi pervenuti mostrano che il nome Nebiru poteva essere assegnato ad ogni oggetto astronomico visibile che contrassegnasse la posizione dell’equinozio.

Nella maggior parte dei testi babilonesi il pianeta Nibiru è associato al pianeta Giove (tranne nella tavoletta n. 5 dell’Enûma Eliš in cui potrebbe essere la Stella Polare), la cui posizione apparente dalla Terra a quel tempo non era quella di oggi a causa della precessione degli equinozi e degli altri movimenti come la nutazione dell’asse terrestre.

Per misurare la precessione degli equinozi, tra gli antichi Sumeri e in Babilonia, la volta celeste sarebbe stata divisa in 7 spicchi, ciascuno dedicato a uno dei 7 maggiori Anunnaki, le sette divinità maggiori che dispongono dei destini dei vivi e dei morti. Ogni spicchio misura misura circa 50 gradi sull’equatore celeste. Con la precessione, l’equinozio di primavera si sposta nel corso dei secoli lungo l’eclittica, attraversando via via i vari spicchi in cui era suddiviso il cielo. Il passaggio del punto equinoziale da uno spicchio all’altro determinava l’attraversamento di una fascia di confine di circa 1,5 gradi, corrispondente a circa 3 volte il diametro apparente della Terra proiettata sulla Luna durante un’eclissi. Tale fascia di attraversamento era Nibiru, nella quale la sovranità del cielo non apparteneva ad alcun Anunnaki particolare, e dunque gli dei potevano scendere sulla Terra. Ogni 3600 anni si ripete il passaggio tra uno spicchio di cielo e l’altro, e si ha quindi il ritorno di Nibiru.

3

Come detto, le teorie di Sitchin sono state smentite sia dal punto di vista filologico che interpretativo della lingua sumera, sia per ciò che concerne la totale mancanza di basi scientifiche della sua teoria, un pianeta delle dimensioni descritte da Sitchin non sarebbe passato certamente inosservato, nemmeno se fosse stato composto da materia oscura, ma sarebbe stato visibile a occhio nudo come lo sono i giganti del sistema solare Giove e Saturno e con la sua massa avrebbe influenzato le orbite degli altri pianeti. Per alcuni, Lieder in testa, Nibiru potrebbe essere il Pianeta X cercato inutilmente da tantissimi astronomi nel tentativo di spiegare le presunte discrepanze tra le orbite di Urano e Nettuno, discrepanze inesistenti come poi dimostrò nel 1992 Myles Standish.

Altri identificano Nibiru come la stella Nemesis, un’ipotetica compagna oscura del nostro Sole. Tale ipotesi, proposta da Richard A. Muller, voleva spiegare le cicliche estinzioni di massa avvenute sulla Terra. Per Muller, la piccola stella oscura perturberebbe la nube di Oort con cadenza regolare causando l’ingresso nel sistema solare interno di sciami di comete che porterebbero morte e distruzione. L’esistenza di Nemesis però non viene accettata dalla comunità scientifica, la stella, ammesso esistesse, dovrebbe, infatti, avere un’orbita molto più ampia di quella proposta per Nibiru, tanto da non essere in grado di influenzare il sistema solare interno.

Intanto, l’ipotesi delle estinzioni di massa cicliche è stata smentita. Il nostro pianeta ha si conosciuto almeno cinque estinzioni di massa durante la sua esistenza ma questi episodi sono tutt’altro che ciclici, essendosi verificati con intervalli di tempo molto diversi tra loro. C’è anche da aggiungere che, con le ultime scoperte in campo geologico e paleontologico, va prendendo piede l’ipotesi che non siano stati unicamente gli asteroidi a provocare le principali estinzioni ma un insieme di cause, tra le quali sembra avere sempre più importanza il vulcanismo, come nel caso dell’estinzione dei grandi sauri 76 milioni di anni fa.

Insomma, Nibiru, se esistesse, dovremmo averlo già individuato, tanto più se stesse scorazzando nel sistema solare perturbando le orbite dei pianeti. Nibiru è solo una leggenda della mitologia complottista e ufologica moderna, utile solo a chi ci scrive sopra libri con previsioni apocalittiche e pubblica articoli o tiene conferenze su antichi astronauti guadagnandoci denaro alle spalle dei creduloni.

Una nuova determinazione della velocità di espansione dell’Universo

0
Migliori casinò non AAMS in Italia

In un articolo pubblicato su The Astrophysical Journal, gli scienziati di Clemson Marco Ajello, Abhishek Desai, Lea Marcotulli e Dieter Hartmann hanno collaborato con altri sei scienziati in tutto il mondo per ideare una nuova misurazione della costante di Hubble, che descrive il tasso di espansione dell’universo.

In un documento intitolato “Una nuova misurazione della costante di Hubble e del contenuto di materia dell’Universo usando l’attenuazione del background extragalattico nei raggi gamma“, il team ha confrontato gli ultimi dati di attenuazione dei raggi gamma del telescopio spaziale a raggi gamma Fermi e l’imaging atmosferico Telescopi Cherenkov per elaborare le stime da modelli di luce di sfondo extragalattici.

Questa nuova strategia ha portato a una misurazione di circa 67,5 chilometri al secondo per megaparsec.

I raggi gamma sono la forma più energetica di luce.

La luce di sfondo extragalattica (EBL) è una nebbia cosmica composta da tutta la luce ultravioletta, visibile e infrarossa emessa dalle stelle o dalla polvere nelle vicinanze. Quando i raggi gamma e EBL interagiscono, lasciano un’impronta osservabile – una graduale perdita di flusso – che gli scienziati sono stati in grado di analizzare nel formulare la loro ipotesi.

Quello che sappiamo è che i fotoni a raggi gamma provenienti da fonti extragalattiche viaggiano nell’universo verso la Terra, dove possono essere assorbiti interagendo con i fotoni dalla luce delle stelle“, ha detto Ajello. “Il tasso di interazione dipende dalla lunghezza del percorso lungo il quale viaggiano nell’universo. E la lunghezza del percorso dipende dall’espansione. Se l’espansione è bassa, percorrono una piccola distanza. Se l’espansione è grande, percorrono una distanza molto grande, quindi la quantità di assorbimento che abbiamo misurato dipendeva fortemente dal valore della costante di Hubble. Ciò che abbiamo fatto è stato capovolgerlo e usarlo per determinare il tasso di espansione dell’universo”.

La cosmologia riguarda la comprensione dell’evoluzione del nostro universo: come si è evoluto in passato, cosa sta facendo ora e cosa accadrà in futuro“, ha dichiarato Ajello, professore associato presso il dipartimento di fisica e astronomia del College of Science. “La nostra conoscenza si basa su una serie di parametri, tra cui la costante di Hubble, che ci sforziamo di misurare nel modo più preciso possibile. In questo documento, il nostro team ha analizzato i dati ottenuti da entrambi i telescopi orbitanti e terrestri per trovare uno dei più recenti misurazioni della velocità con cui l’universo si sta espandendo“.

Il concetto di un universo in espansione fu avanzato dall’astronomo americano Edwin Hubble (1889-1953). 

La stima iniziale di Hubble del espansione fu di 500 chilometri al secondo per megaparsec, con un megaparsec equivalente a circa 3,26 milioni di anni luce. Hubble concluse che una galassia a due megaparsec di distanza dalla nostra galassia si stava allontanando due volte più velocemente di una galassia a un solo megaparsec di distanza. Questa stima divenne nota come Costante di Hubble, che dimostrò che l’universo si stava espandendo. 

D allora, gli astronomi hanno effettuato diverse verifiche del valore della costante di Hubble utilizzando metodi diversi e con risultati contrastanti.

Un’analogia comune dell’espansione dell’universo è un palloncino punteggiato di macchie, con ogni macchia che rappresenta una galassia. Quando il palloncino viene gonfiato, le macchie si allargano e si allontanano le une dalle altre.

“Alcuni teorizzano che il palloncino si espanderà fino d un certo punto e poi inizierà a collassare”, ha dichiarato Desai, un assistente di ricerca laureato nel dipartimento di fisica e astronomia. “Ma la convinzione più comune è che l’universo continuerà ad espandersi fino a quando tutto sarà così lontano da non esserci più luce osservabile. A questo punto, l’universo subirà una morte fredda. Ma non c’è nulla di cui preoccuparsi. Se dovesse accadere, sarà tra molti miliardi di anni“.

Ma se l’analogia del palloncino è accurata, che cosa fa espandere il palloncino?

La materia – le stelle, i pianeti, persino noi – è solo una piccola parte della composizione complessiva dell’universo“, ha spiegato Ajello. “La grande maggioranza dell’universo è formata da energia oscura e materia oscura. E crediamo che sia l’energia oscura che sta facendo espandere il pallone“. L’energia oscura sta allontanando le cose l’una dall’altra.

La gravità, che attira gli oggetti gli uni verso gli altri, è la forza più forte a livello locale, motivo per cui alcune galassie continuano a scontrarsi. Ma a distanze cosmiche, l’energia oscura è la forza dominante.

È straordinario che stiamo usando i raggi gamma per studiare la cosmologia. La nostra tecnica ci consente di utilizzare una strategia indipendente – una nuova metodologia indipendente da quelle esistenti – per misurare le proprietà cruciali dell’universo“, ha detto Dominguez. “I nostri risultati mostrano la maturità raggiunta nell’ultimo decennio dal campo relativamente recente dell’astrofisica ad alta energia. L’analisi che abbiamo sviluppato apre la strada a misurazioni migliori in futuro utilizzando l’array di telescopi Cherenkov, che è ancora in fase di sviluppo e volontà essere la gamma più ambiziosa di telescopi ad alta energia da terra di sempre.

Fonte: Phys.org

I “tesori nascosti” di Amazon, offerte speciali valide fino al 12 novembre

0
Migliori casinò non AAMS in Italia

In attesa del Black Friday, che avverrà il 29 novembre, Amazon e molti dei vendor che operano attraverso la sua rete hanno avviato una speciale promozione chiamata “Tesori Nascosti” in cui vengono indicate tutte quelle promozioni in corso a prezzi super scontati.

Si va dai prodotti di elettronica quali smartphone e computer, passando per gli  elettrodomestici, oggetti per l’igiene e la cura personale, elettrodomestici ed accessoristica varia, fino a prodotti come il caffè, tutto in promozione o con sconti che arrivano fino al 50%.

Vi segnaliamo, tra le altre proposte, le offerte in promozioni sugli Smartwatch Ticwatch con sconti che vanno dal 30 al 35%.

smartwatch

Assolutamente da segnalare poi sono gli sconti fino al 25% su una selezione di giocattoli che vanno dai droni alle auto telecomandate, passando per bambole, set giocabili per le bambine e veicoli cavalcabili per bambini.

Giochi per bambini in promozione

Anche su PC ed accessori sono in corso alcune proposte che arrivano fino al 25 % di sconto.

Pc ed accessori

Ancora più interessanti e vantaggiose sono le promozioni in corso su cuffie ed auricolari bluetooth dove troviamo sconti incredibili che vanno dal 15 all’80%.

cuffie ed auricolari bluetooth

Vi segnaliamo anche la possibilità di fare buoni affari con gli accessori per la casa di AmazonBasics e altre marche sui quali vi sono sconti fino al 25%.

organiser

Infine, vi segnaliamo l’ottima selezione dei tesori nascosti sui prodotti per la sicurezza personale e della casa cons conti che vanno dal 15 al 65%.

kit sorveglianza

Ricordate che restano 4 giorni per approfittare di queste superofferte contenute nei “Tesori Nascosti” di Amazon.

Potrebbe essere utile e vantaggioso sottoscrivere un mese gratuito di Amazon Prime (annullabile prima del rinnovo a pagamento) che vi permetterà non solo di ottenere la consegna in 24 ore su moltissimi prodotti e l’accesso anticipato alle promozioni, ma vi garantirà anche di poter usufruire del servizio Amazon video, con film e serie televisive, Amazon Music con 40 ore al mese di ascolto gratuito della vostra musica preferita, Amazon Audible con migliaia di audio book da portare sempre con sè e tante altre opportunità.

 

 

La Casa Bianca esorta il Congresso sul finanziamento della missione Artemide

0
Migliori casinò non AAMS in Italia

La Casa Bianca ha avvertito il Congresso che, senza aumenti di finanziamento per i suoi programmi di esplorazione, la NASA non sarà in grado di raggiungere l’obiettivo di far sbarcare gli umani sulla luna nel 2024.

Una lettera del 23 ottobre di Russell Vought, direttore ad interim dell’Office of Management and Budget (OMB), al senatore Richard Shelby (R-Ala.), Presidente della commissione per gli stanziamenti del Senato, affrontava questioni generali con le fatture di stanziamenti che la commissione di Shelby aveva approvato nelle ultime settimane, incluso il disegno di legge su Commercio, Giustizia e Scienza (CJS) che finanzia la NASA.

L’Amministrazione apprezza il continuo supporto del Comitato per l’esplorazione dello spazio, che si riflette nei 22,8 miliardi di dollari forniti alla NASA“, ha scritto Vought nella lettera, riportata da Ars Technica.

Ha contestato, tuttavia, i finanziamenti previsti per la ricerca e lo sviluppo dell’esplorazione, che comprende il lavoro sui lander lunari e il Gateway lunare. “I $ 1,6 miliardi previsti per la ricerca e lo sviluppo esplorativo (R&S) non sono sufficienti per finanziare completamente il sistema di lander che gli astronauti userebbero per tornare sulla Luna nel 2024“, ha scritto. “È necessario finanziare ricerca e sviluppo per l’esplorazione al livello di $ 2,3 miliardi richiesto nel bilancio FY 2020 per sostenere l’obiettivo dell’Amministrazione di tornare sulla Luna entro il 2024“.

I 1,64 miliardi di dollari inclusi nel disegno di legge del Senato per l’esplorazione di ricerca e sviluppo sono leggermente superiori alla richiesta dell’amministrazione originale di 1,58 miliardi di dollari rilasciata all’inizio di quest’anno. Tuttavia, a maggio, la Casa Bianca ha richiesto un finanziamento aggiuntivo di $ 1,6 miliardi per la NASA per raggiungere l’obiettivo di riportare gli umani sulla luna entro il 2024. Ciò comprendeva $ 1 miliardo per i lander lunari e $ 132 milioni per la tecnologia di esplorazione, ma un taglio nel finanziamento del Lunar Gateway di $ 321 milioni. Tali modifiche aumentano la richiesta di ricerca e sviluppo di esplorazione totale a oltre $ 2,3 miliardi.

L’Assemblea, che aveva già sviluppato la sua proposta di legge CJS al momento della pubblicazione dell’emendamento di bilancio, non ha dato seguito alla richiesta e ha fornito solo $ 962 milioni per ricerca e sviluppo in esplorazione, approssimativamente la stessa del 2019.

Tra i programmi interessati dalla carenza di finanziamenti per l’esplorazione della R&S vi è un programma di sviluppo del lander lunare. Il disegno di legge del Senato prevede 744 milioni di dollari per quell’opera, 1 miliardo di dollari in meno di quanto richiesto.

Altri programmi di esplorazione, tuttavia, hanno ricevuto aumenti di gran lunga superiori a quelli richiesti. L’emendamento di bilancio di maggio ha cercato di aumentare i finanziamenti per il sistema di lancio spaziale e Orion di $ 651 milioni dalla richiesta originale. Il disegno di legge del Senato, tuttavia, ha fornito un aumento combinato di $ 951 milioni per i due programmi, incluso un aumento di $ 810 milioni per il solo SLS.

Vought ha contestato un’altra disposizione relativa alla SLS nel disegno di legge del Senato che dirige la NASA a lanciare la missione Europa Clipper con l’SLS. “L’amministrazione è profondamente preoccupata che questo mandato rallenti il ​​programma di esplorazione lunare, che richiede ogni razzo SLS disponibile“, ha scritto. “A differenza del programma di esplorazione umana, che richiede l’uso del SLS, la missione Europa potrebbe essere lanciata da un razzo commerciale“.

La lettera offriva anche una stima dei costi inaspettatamente alta di un singolo lancio SLS. “A un costo stimato di oltre $ 2 miliardi per lancio per SLS una volta completato lo sviluppo, l’uso di un veicolo commerciale di lancio fornirebbe un risparmio di oltre $ 1,5 miliardi“, ha scritto Vought.

La NASA è stata reticente a fornire stime dei costi per un singolo lancio di SLS, sebbene le stime siano state di circa $ 1 miliardo. La NASA, nella sua richiesta di bilancio per l’anno fiscale 2020, ha affermato che il lancio della missione su un razzo commerciale, come un Delta 4 Heavy o Falcon Heavy, “è stimato in un risparmio di oltre $ 700 milioni rispetto all’uso di un missile SLS“.

Un rapporto dell’OIG dell’ispettore generale (OIG) della NASA a maggio ha minimizzato i risparmi sui costi tra SLS e le alternative commerciali in gran parte perché offriva una stima dei costi molto più bassa per SLS. Tale rapporto stimava un lancio di SLS a $ 876 milioni, rispetto a $ 450 milioni per le alternative commerciali.

Tuttavia, in una lettera di follow-up di agosto, OIG ha dichiarato che la NASA potrebbe risparmiare fino a $ 1 miliardo lanciando Europa Clipper con un veicolo commerciale rispetto allo SLS, aggiungendo che la NASA doveva decidere come avviare la missione nei prossimi mesi per procurarsi un veicolo di lancio in tempo per sostenere un potenziale lancio nel 2023.

Sebbene vi sia disaccordo sul differenziale dei costi, sia la NASA che il suo ispettore generale concordano sul fatto che un SLS non sarebbe disponibile per il lancio di Europa Clipper nel 2023, una data obbligatoria nella legge sugli stanziamenti della Camera.

Dato il nostro attuale tasso di produzione, avremo a disposizione tre SLS, e il terzo sarebbe per Artemis 3 che ci porterà sulla luna nel 2024“, ha dichiarato l’amministratore della NASA Jim Bridenstine in occasione degli stanziamenti della Camera all’udienza del 16 ottobre quando gli è stato chiesto di accelerare produzione del razzo. Dubitava che un quarto SLS possa essere prodotto in tempo il lancio di lander lunari commerciali. “Aggiunta di un ulteriore SLS nel mix? Non sono sicuro che ciò possa accadere“.

Osservato un picco record di raggi X causato da una esplosione termonucleare su una pulsar – video

0
Migliori casinò non AAMS in Italia

Il telescopio Interior Composition Explorer (NICER) della NASA sulla Stazione Spaziale Internazionale ha rilevato un improvviso picco di raggi X alle 22:04 EDT del 20 agosto 2019. L’esplosione è stata causata da un enorme lampo termonucleare sulla superficie di un pulsar, i resti compressi di una stella che molto tempo fa è esplosa come una supernova.

L’esplosione di raggi X, la più brillante vista finora da NICER, proveniva da un oggetto chiamato SAX J1808.4-3658, o J1808. Le osservazioni rivelano molti fenomeni che non sono mai stati visti insieme in una singola esplosione. Inoltre, dopo l’esplosione c’è stato un nuovo lampo di cui gli astronomi non hanno ancora capito la causa.

Questo scoppio è stato eccezionale“, ha detto il ricercatore capo Peter Bult, astrofisico del Goddard Space Flight Center della NASA. “Abbiamo visto un cambiamento nella luminosità avvenuto in due fasi, che riteniamo sia causato dall’espulsione di strati separati dalla superficie pulsar e da altre caratteristiche che ci aiuteranno a decodificare la fisica di questi potenti eventi“.

L’esplosione, che gli astronomi classificano come un’esplosione di raggi X di tipo I, ha rilasciato in 20 secondi la stessa energia che rilascia il Sole 10 giorni. Il dettaglio acquisito da NICER su questa eruzione da record aiuterà gli astronomi a perfezionare la loro comprensione dei processi fisici che guidano le riacutizzazioni termonucleari di questa e altre pulsar.

Una pulsar è una specie di stella di neutroni, il nucleo compatto rimasto quando una stella massiccia si esaurisce e collassa sotto il suo stesso peso ed esplode. Le pulsar possono ruotare rapidamente e ospitare punti caldi che emettono raggi X dai loro poli magnetici. Mentre l’oggetto ruota, spazza i punti caldi attraverso la nostra linea di vista, producendo impulsi regolari di radiazione ad alta energia.

J1808 si trova a circa 11.000 anni luce di distanza nella costellazione del Sagittario. Effettua 401 rotazioni al secondo, ed è membro di un sistema binario. Il suo compagno è una nana bruna, un oggetto più grande di un pianeta gigante ma troppo piccolo per essere una stella. Un flusso costante di gas idrogeno fluisce dal compagno verso la stella di neutroni e si accumula in una vasta struttura chiamata disco di accrescimento.

Il gas nei dischi di accrescimento non si sposta facilmente verso l’interno. Ma ogni pochi anni, i dischi attorno alle pulsar come J1808 diventano così densi che una grande quantità di gas viene ionizzata o spogliata dei suoi elettroni. Ciò rende più difficile lo spostamento della luce attraverso il disco. L’energia intrappolata avvia un processo in fuga di riscaldamento e ionizzazione che intrappola ancora più energia. Il gas diventa più resistente al flusso e inizia a scendere in una spirale verso l’interno e, alla fine, cade nella pulsar.

L’idrogeno che piove sulla superficie forma un “mare” globale caldo e sempre più profondo. Alla base di questo strato, le temperature e le pressioni aumentano fino a quando i nuclei di idrogeno si fondono per formare nuclei di elio, che producono energia – un processo in atto nel cuore del nostro Sole.

L’elio si deposita e crea uno strato tutto suo“, ha detto Zaven Arzoumanian del Goddard, vice ricercatore principale di NICER e coautore del documento. “Una volta che lo strato di elio è profondo pochi metri, le condizioni consentono ai nuclei di elio di fondersi nel carbonio. Quindi l’elio esplode e scatena una palla di fuoco termonucleare su tutta la superficie della pulsar”.

Gli astronomi utilizzano un concetto chiamato limite di Eddington – dall’astrofisico inglese Sir Arthur Eddington – per descrivere la massima intensità di radiazione che una stella può avere prima che tale radiazione la faccia espandere. Questo punto dipende fortemente dalla composizione del materiale che si trova sopra la fonte di emissione.

Il nostro studio sfrutta questo concetto acquisito in un modo nuovo“, ha affermato il coautore Deepto Chakrabarty, professore di fisica presso il Massachusetts Institute of Technology di Cambridge. “Apparentemente stiamo vedendo il limite di Eddington per due diverse composizioni nella stessa radiografia. Questo è un modo molto efficace e diretto per seguire le reazioni di combustione nucleare che sono alla base dell’evento“.

All’inizio dello scoppio, i dati NICER mostrano che la sua luminosità a raggi X si è stabilizzata per quasi un secondo prima di aumentare di nuovo a un ritmo più lento. I ricercatori interpretano questo “stallo” come il momento in cui l’energia dell’esplosione si è accumulata abbastanza da far esplodere lo strato di idrogeno della pulsar nello spazio.

La palla di fuoco continuò a crescere per altri due secondi e poi raggiunse il suo picco, soffiando via lo strato di elio più massiccio. L’elio si espanse più velocemente, raggiunse lo strato di idrogeno prima che potesse dissiparsi, quindi rallentò, si fermò e si posò di nuovo sulla superficie della pulsar. Dopo questa fase, la pulsar si illuminò di nuovo brevemente di circa il 20 percento per ragioni che il tema non ha ancora capito.

Durante il recente ciclo di attività di J1808, NICER ha rilevato un’altra esplosione di raggi X molto più debole che non mostrava nessuna delle caratteristiche chiave osservate nell’evento del 20 agosto.

Oltre a rilevare l’espansione di diversi strati, le osservazioni NICER dell’esplosione rivelano i raggi X che si riflettono sul disco di accrescimento e registrano lo sfarfallio delle “oscillazioni di scoppio” – segnali a raggi X che salgono e scendono alla frequenza di spin della pulsar ma che si verificano in posizioni di superficie diverse rispetto ai punti caldi responsabili dei suoi normali impulsi a raggi X.

Un articolo che descrive i risultati è stato pubblicato da The Astrophysical Journal Letters.

Riferimento: “A NICER Thermonuclear Burst from the Millisecond X-Ray Pulsar SAX J1808.4–3658 ″ di Peter Bult, Gaurava K. Jaisawal, Tolga Güver, Tod E. Strohmayer, Diego Altamirano, Zaven Arzoumanian, David R. Ballantyne, Deepto Chakrabarty, Jérôme Chenevez, Keith C. Gendreau, Sebastien Guillot e Renee M. Ludlam, 23 ottobre 2019, The Astrophysical Journal Letters .
DOI: 10.3847 / 2041-8213 / ab4ae1

Videosorveglianza: il quadro normativo in Italia (parte I)

0
Migliori casinò non AAMS in Italia

Nell’anno accademico 2016-2017 ho frequentato, presso il dipartimento di Giurisprudenza dell’Università di Roma Tre, il master di II livello per “Responsabile della protezione dei dati personali: data protection officer privacy expert”; un corso di formazione specialistica multi-settoriale patrocinato dall’Autorità Garante per la protezione dei dati personali, dove si è approfondito il mutato quadro generale nella protezione dei dati personali, tanto in ambito pubblico quanto in quello privato, alla luce del nuovo Regolamento europeo GDPR 2016/679.

La parte conclusiva del master prevedeva la discussione di un elaborato che prendesse in considerazione, integrandoli, diversi insegnamenti qualificanti del corso. Il mio lavoro di tesi ha tentato di analizzare una problematica oggi molto sentita: l’impatto privacy dei sistemi di videosorveglianza nelle attività di pubblica sicurezza, sicurezza urbana, sicurezza privata, argomento studiato minuziosamente sotto la fondamentale guida della relatrice dott.ssa Ferola, funzionaria dell’Autorità Garante, dal risultato decisamente interessante, discusso poi nella commissione presieduta dalla Prof.ssa Califano, componente del collegio del Garante.

Sappiamo, ad esempio, come all’interno della cd. società tecnocratica determinate scelte politiche vengano prese anche utilizzando la sommatoria di analisi provenienti da esperti qualificati, da strumenti scientifici e da tecnologie che acquisiscono ed elaborano dati personali. Ebbene, la videosorveglianza è una tematica che influenza fortemente certi indirizzi politici, perché rappresenta due componenti fondamentali di certe scelte, per qualità e quantità: una componente fa capo alle politiche sociali sulla sicurezza urbana e controllo del territorio, mentre l’altra tenta di realizzare, nel concreto, la fusione tra le smart city e le smart technology.

Il mio breve lavoro di ricerca ha messo in risalto come la richiesta da parte degli enti locali per il controllo del territorio, del traffico e la sicurezza dei cittadini, mediante l’utilizzo dei sistemi di videosorveglianza, sia cresciuta considerevolmente nel nostro Paese proprio negli ultimi venti anni; difatti, già nella newsletter del 28 febbraio 2000, il Garante espliciterà la necessità, per le amministrazioni interessate, di adeguare la ripresa delle immagini alle norme sulla privacy adottando le necessarie cautele – già sancite dal DPR n.318/1999 Privacy misure minime di sicurezza-, quali informare gli interessati, limitare la possibilità di ingrandimento delle immagini e il livello di dettaglio sui tratti somatici.

In buona sostanza l’Autorità ribadisce come il cittadino interessato al trattamento, debba sempre essere informato quando si trovi oggetto di un trattamento dati, dunque in prossimità di aree video controllate: l’amministrazione dovrà farlo attraverso l’affissione di appositi cartelli/avvisi, ma soprattutto, dovrà rispettare il principio di non eccedenza dei dati raccolti in relazione agli scopi perseguiti.

Ho scritto più volte sui sistemi di videosorveglianza, pubblica o privata, e sul perché costituiscono uno dei sistemi di sicurezza fisica più innovativi utilizzati in questi ultimi anni; abbinati alla registrazione, alla visione live o real time da remoto, diventano un’interessante quanto importante fonte di dati personali e informazioni (metadati) utili per le analisi di sicurezza (safety e security), investigative e di intelligence.

Rileggendo oggi il mio elaborato e trovandoci a due anni di distanza, ma soprattutto a vent’anni dalla nascita definitiva del videocontrollo – fino a quel momento praticamente e tecnicamente in uno stato embrionale -, possiamo ragionevolmente considerare l’anno 2019 quale primo step temporaleil primo gradino di una scala di riferimento necessario per misurare l’impatto che i sistemi di videosorveglianza hanno prodotto, in questo intervallo, sulla sfera privacy e nell’ambito del trattamento dei dati personali.

Venti anni di evoluzione tecnologica e normativa credo che rappresentino la pietra miliare del settore; un arco temporale che impone oggi una riflessione attenta sulla reale efficacia del binomio sicurezza=tecnologie e sull’impatto creato nella società, giacché i device tecnologici sono diventati ormai una centralità quotidiana dei giuristi, chiamati costantemente a formulare risposte tangibili ai quesiti posti sul rischio del trattamento dati con dispositivi elettronici per l’acquisizione e registrazione dei file video, perché le attività di sorveglianza elettronica rappresentano realmente un trattamento di dati personali, operazioni che vanno condotte sempre con le dovute garanzie.

Peraltro, deontologia e buona condotta ce la ricordava l’art. 134 del Codice della Privacy (D.Lgs 196/2003 novellato dal D.Lgs 101/2018), definendo la videosorveglianza come il trattamento effettuato con strumenti elettronici di rilevamento immagini.

Appare chiaro fin qui come la videosorveglianza, dal punto di vista normativo, sia un’attività licitus; una legittimità confermata anche in ambito penale, estrapolandola a contrario proprio dal codice penale, che all’art. 615 bis  punisce l’indebita acquisizione d’immagini mediante l’uso di strumenti di ripresa visiva nell’abitazione altrui o in altro luogo di privata dimora; da qui l’ovvia estrapolazione, che la videosorveglianza è consentita in luogo pubblico o aperto al pubblico.

Orbene, nel marzo 1999 l’Autorità garante guidata dal Prof. Rodotà, all’interno di una sua newsletter, affrontava il tema del trattamento dati per mezzo di strumenti elettronici in ambito videosorveglianza pubblica, pronunciandosi così: “La videosorveglianza è un tema di grande rilievo e interesse per l’opinione pubblica: non esiste ancora una normativa specifica in materia, ma la legge sulla privacy, nel recepire i principi sanciti in sede europea, definisce dato personale qualsiasi informazione che permette l’identificazione della persona compresi i suoni e le immagini.
Anche una semplice installazione di videocamera, o una registrazione sonora per esempio, deve essere conforme alle disposizioni sulla privacy: a quale tipo di funzione o per quale finalità viene realizzata, la sicurezza e la conservazione delle immagini e delle riproduzioni, l’uso appropriato rispetto alla finalità, l’informazione agli interessati.
L’Autorità ha avviato in collaborazione con il Dipartimento di Sociologia dell’Università di Roma “La Sapienza” un’indagine sulle diverse forme di videosorveglianza, che ne monitorizzi l’uso valutandone anche l’impatto sociale.
L’utilizzo delle telecamere si sta sempre più diffondendo a scopi di sicurezza sociale, di accesso ai centri storici,  di controllo in luoghi pubblici, esercizi commerciali, o di vigilanza all’interno delle strutture sanitarie per un’assistenza continua ai pazienti.
Per quest’ultimo caso, trattandosi di dati sensibili relativi a persone che necessitano di cure e controlli, rientra nelle finalità degli organismi sanitari raccogliere informazioni anche in modo non tradizionale e sempre nel contesto delle regole di base in materia: informazione agli interessati e individuazione del personale autorizzato in esclusiva all’uso dei dati, che devono essere strettamente necessari e conservati per un periodo determinato”.

Una riflessione interessante a supporto dei potenziali rischi che tali sistemi generano per la privacy e che poggia le sue fondamenta sulla fattiva collaborazione del dipartimento di Sociologia della Sapienza, che analizzando le diverse forme di videosorveglianza ne misurerà contemporaneamente l’impatto sociale, determinando così un approccio nei confronti della tematica di studio impostato ab origine, e in modalità non esclusivamente giuridica, ma con una particolare considerazione sulle potenziali ricadute sociali.

Un Garante illuminato che ben capì, sin da subito, come le dimensioni assunte dal fenomeno – sommate e/o sottratte alle sue positive e/o negative potenzialità – di li a pochi anni si trasformasse da mero strumento tecnico a vera arma socialel’illusione che la talcosa tecnologica fosse la risoluzione di tutti i mali, e dai poteri taumaturgici!

Ma comprese ancor meglio un altro aspetto importante della questione, sul come questa tecnologia, sommata ad un utilizzo sconsiderato, potesse andare ben oltre il solo ambito giuridico, ingenerando allarmanti problematiche sociali con ricadute negative in termini di costi e impatto sulla sfera privacy.

Un’analisi perfetta che lo spingerà successivamente, nel quinquennio 1999/2004, a regolamentare il settore con diversi atti di indirizzo ben specifici.

Una sorta di anno zero nell’ambito del trattamento dei dati video, che dimostrerà nel contempo due cose: una, l’attenzione da parte dell’istituzione al crescente fenomeno degli impianti di videocontrollo, del loro impatto privacy e soprattutto le vulnerabilità che questo processo di acquisizione dati comporterà; l’altra, invece, equivale ad uno Zero-Day – passatemi il forzato concetto – che tali sistemi rappresenteranno per il Titolare del trattamento e lo stesso Garante che, sollecitato negli anni a continui richiami in materia, adotterà nel novembre 2000 un Decalogo delle regole per non violare la privacy, documento in dieci punti contenente adempimenti, garanzie e tutele in merito, che va letto alla luce delle numerose note inviate – soprattutto dagli enti pubblici – all’Autorità per l’accertamento della conformità degli impianti alle disposizione normative contenute all’interno della Legge n° 675/1996 (legge di recepimento della direttiva 95/46/CE, cd. direttiva madre).

Ci troviamo di fronte a un decalogo innovativo, senza eguali nel resto dell’unione, antesignano del primo vero e proprio Provvedimento generale sulla videosorveglianza – pubblicato poi nell’aprile 2004 -, illuminante per le considerazioni generali sul tema, contenente una disciplina più compiuta ed organica che conforma, sostanzialmente, i trattamenti dei dati personali al nuovo D.Lgs n° 196/2003 (Codice in materia di protezione dei dati personalicd. CdP) entrato nel frattempo in vigore il 1 gennaio 2004.

Nei prossimi articoli approfondiremo le dimensioni applicative della normativa esaminata e i conseguenti profili di criticità.

Articolo originariamente pubblicato su safetysecuritymagazine.com e ripubblicato con il permesso dell’autore.

Seggiolini anti-abbandono in auto: da oggi obbligatori

0
Migliori casinò non AAMS in Italia
Diventano obbligatori, da oggi, i seggiolini anti-abbandono in auto. Chi non avrà un seggiolino in regola a bordo, rischia una multa fino a 328 euro e la sospensione della patente.

L’obbligo scatta oggi anche se la legge doveva entrare in vigore il prossimo 6 marzo. Dunque, tutte le auto che trasportano bambini fino a 4 anni dovranno avere un seggiolino capace di segnalare la presenza del bambino sul veicolo, altrimenti si rischia di essere colpiti dalla sanzione prevista.

Caratteristiche del seggiolino

In realtà, sarà necessario avere installato sul seggiolino un dispositivo che potrà o essere integrato già dalla fabbrica o essere un accessorio del veicolo oppure un sistema indipendente. Il dispositivo dovrà essere in grado di attivarsi automaticamente ed essere dotati di un allarme in grado di avvisare il conducente della presenza del bambino sul seggiolino, attraverso appositi segnali visivi e acustici, percepibili all’interno o all’esterno del veicolo.

In caso il dispositivo non sia già integrato nel veicolo e riportato nel fascicolo di omologazione della vettura, sarà importante chiedere al venditore la dichiarazione di conformità.

Si tratta della prova da fornire alle forze dell’ordine per evitare la multa e mostrarsi in regola.

Le sanzioni sul seggiolino anti-abbandono

Chi trasporta un bambino fino a 4 anni e non è dotato del seggiolino anti-abbandono rischia una sanzione amministrativa compresa tra 81 e 326 euro e la decurtazione di cinque punti dalla patente.

Inoltre, se l’infrazione viene commessa più di una volta nel giro di due anni, è prevista anche la sospensione della patente da 15 giorni a due mesi.

Non sei ancora in regola con la nuova legge per la sicurezza dei bambini in auto? Prendi in considerazione questo dispositivo Steelmate Baby Bell Dispositivo Anti Abbandono Bambino per Seggiolini Auto che funziona con sistemi acustici interni ed esterni dell’auto ti invia anche fino a 3 sms sullo smartphone, è in vendita su Amazon a 67,80 euro.

Facile da installare e configurare, questo dispositivo ti mette in regola con la nuova legge e ti mette al riparo dal pericolo di dimenticare un bimbo troppo tranquillo in auto.

Gli scienziati studiano i livelli del mare di 125.000 anni fa ed è uno sguardo terrificante sul nostro futuro

0
Migliori casinò non AAMS in Italia

I livelli del mare erano 10 metri più alti dei livelli attuali durante l’ultimo periodo caldo della Terra, avvenuto 125.000 anni fa.

Questo risultato emerge in un articolo pubblicato su Nature Communications, che dimostra che lo scioglimento dei ghiacci dall’Antartide è stato il principale motore dell’innalzamento del livello del mare nell’ultimo periodo interglaciale, che è durato circa 10.000 anni.

L’innalzamento del livello del mare è una delle maggiori sfide che i cambiamenti climatici stanno ponendo all’umanità. Disporre di previsioni affidabili su quanto avverrà nelle prossime decadi sarà fondamentale per prevenire i danni provocati dall’innalzamento dei livelli marini.

La ricerca mostra che l’Antartide, a lungo considerato un “gigante addormentato” è un attore chiave in materia di livello dei mari. Le sue calotte glaciali possono cambiare rapidamente e in modi che potrebbero avere enormi implicazioni per le comunità e le infrastrutture costiere in futuro.

Un avvertimento dal passato

I cicli climatici della Terra comprendono periodi glaciali freddi, o ere glaciali, che avvengono quando grandi parti del mondo sono coperte da grandi calotte glaciali, ma anche periodi interglaciali più caldi quando il ghiaccio si scioglie e il livello del mare si alza.

La Terra è attualmente in un periodo interglaciale iniziato circa 10.000 anni fa. Ma le emissioni di gas serra negli ultimi 200 anni hanno causato cambiamenti climatici più rapidi ed estremi di quelli avvenuti durante l’ultimo interglaciale.

Ciò significa che i tassi noti di innalzamento del livello del mare forniscono solo previsioni di fascia bassa di ciò che potrebbe accadere in futuro.

Nell’articolo vengono esaminati i dati dell’ultimo periodo interglaciale, verificatosi tra 125.000 e 118.000 anni fa. Le temperature erano fino a 1℃ più alte di oggi, simili a quelle previste per il prossimo futuro.

La ricerca rivela che lo scioglimento dei ghiacci nell’ultimo periodo interglaciale ha causato un innalzamento globale dei livelli dei mari fino a circa 10 metri sopra l’attuale livello. Il ghiaccio si sciolse prima in Antartide, poi alcune migliaia di anni dopo in Groenlandia.

In quel periodo, livello del mare è salito fino a 3 metri al secolo, superando di gran lunga il dislivello di circa 0,3 metri osservato negli ultimi 150 anni.

Lo scioglimento di ghiaccio in Antartide ha iniziato a verificarsi quando l’Oceano Antartico si è riscaldato all’inizio del periodo interglaciale. Quest’acqua di fusione ha cambiato la circolazione delle correnti oceaniche della Terra, causando il riscaldamento nella regione polare settentrionale e innescando lo scioglimento del ghiaccio in Groenlandia.

Comprensione dei dati

Si stima che il livello medio globale del mare stia aumentando di oltre 3 millimetri all’anno. Si prevede che questo tasso aumenterà e che l’innalzamento totale del livello del mare entro il 2100 (rispetto al 2000) dovrebbe raggiungere i 70-100 centimetri, a seconda di come ci regoleremo con le emissioni di gas serra.

Tali proiezioni di solito si basano su dati raccolti in questo secolo da calibri di marea e dagli anni ’90 da dati satellitari.

La maggior parte di queste proiezioni non tiene conto di un processo naturale chiave, l’instabilità della scogliera di ghiaccio, che non è stata osservata nella breve documentazione strumentale. Ecco perché le osservazioni geologiche sono vitali.

Quando il ghiaccio raggiunge l’oceano, diventa una piattaforma galleggiante galleggiante che termina in una scogliera di ghiaccio. Quando queste scogliere diventano molto grandi, diventano instabili e possono rapidamente collassare.

Questo collasso aumenta lo scarico del ghiaccio terrestre nell’oceano. Il risultato finale è l’innalzamento globale del livello del mare. Alcuni modelli hanno tentato di includere l’instabilità della scogliera di ghiaccio, ma i risultati sono controversi.

I risultati di questi modelli prevedono tuttavia tassi di innalzamento del livello del mare sorprendentemente simili a quanto osservato di recente nello studio dell’ultimo periodo interglaciale.

Lo studio esamina le registrazioni del cambiamento totale del livello del mare, che per definizione include tutti i processi naturali pertinenti.

Sono stati effettuati studi sui cambiamenti chimici nei gusci di plancton fossili presenti nei sedimenti marini del Mar Rosso, che si riferiscono in modo affidabile ai cambiamenti del livello del mare. Unitamente alle prove del rilascio di acqua di fusione nell’Antartide e nella Groenlandia, queste registrazioni rivelano la rapidità con cui il livello del mare è aumentato e distingue tra i diversi contributi della calotta glaciale.

Guardando al futuro

Ciò che colpisce nelle registrazioni dell’ultimo periodo interglaciale è quanto rapidamente il livello del mare sia salito al di sopra dei livelli attuali.

Le temperature durante l’ultimo interglaciale erano simili a quelle previste per il prossimo futuro, il che significa che lo scioglimento delle calotte polari influirà probabilmente sui futuri livelli del mare in modo molto più drammatico di quanto finora previsto.

L’ultimo interglaciale, ovviamente, non è uno scenario perfetto per il futuro. La radiazione solare in arrivo era più alta di oggi a causa delle differenze nella posizione della Terra rispetto al Sole.

I livelli di anidride carbonica erano solo 280 parti per milione, rispetto a oltre 410 parti per milione di oggi.

Fondamentalmente, il riscaldamento tra i due poli nell’ultimo interglaciale non è avvenuto contemporaneamente. Ma sotto l’attuale cambiamento climatico provocato in buona parte dai gas a effetto serra, il riscaldamento e la perdita di ghiaccio stanno avvenendo contemporaneamente in entrambe le regioni.

Ciò significa che se i cambiamenti climatici continuano senza sosta, il drammatico aumento del livello del mare nel passato potrebbe essere un piccolo assaggio di ciò che verrà.La conversazione

Fiona Hibbert , ricercatrice post-dottorato, Australian National University ; Eelco Rohling , professore di Oceano e cambiamenti climatici, Australian National University e Katharine Grant , ARC DECRA Postdoctoral Research fellow, Australian National University .

Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l’articolo originale .

La “foglia artificiale” che converte l’anidride carbonica in combustibile

0
Migliori casinò non AAMS in Italia

Gli scienziati hanno creato una “foglia artificiale” per combattere i cambiamenti climatici convertendo in modo economico anidride carbonica (CO2) dannosa in un utile combustibile alternativo.

La nuova tecnologia, descritta in un articolo pubblicato sulla rivista Nature Energy, è stata ispirata dal modo in cui le piante usano l’energia della luce solare per trasformare l’anidride carbonica in cibo.

La chiamiamo foglia artificiale perché imita le foglie vere e il processo di fotosintesi“, ha dichiarato Yimin Wu, professore di ingegneria all’Università di Waterloo che ha guidato la ricerca. “Una foglia produce glucosio e ossigeno. Noi produciamo metanolo e ossigeno“.

La produzione di metanolo dall’anidride carbonica, un gas serra tra i principali responsabili del riscaldamento globale, ridurrebbe sia le emissioni di gas serra producendo, al contempo, un sostituto per i combustibili fossili che le creano.

La chiave del processo è una polvere rossa ottimizzata a basso costo chiamata ossido rameoso.

Nuovo biossido di carbonio nella tecnologia del carburante

Una reazione chimica di un’ora crea la polvere rossa ingegnerizzata che è la chiave della nuova tecnologia per trasformare l’anidride carbonica in combustibile. Credito: Università di Waterloo

Progettata per avere il maggior numero possibile di particelle a otto facce, la polvere viene creata da una reazione chimica quando quattro sostanze – glucosio, acetato di rame, idrossido di sodio e dodecil solfato di sodio – vengono aggiunte all’acqua riscaldata a una particolare temperatura.

La polvere funge quindi da catalizzatore per un’altra reazione chimica quando viene miscelata con acqua in cui viene soffiata anidride carbonica. A questo punto, un simulatore di luce solare bianca illumina la soluzione.

Questa è la reazione chimica che abbiamo scoperto“, ha detto Wu, che ha lavorato al progetto dal 2015. “Nessuno lo ha mai fatto prima“.

Yimin Wu, Università di Waterloo

Yimin Wu, professore di ingegneria dell’Università di Waterloo. Credito: Brian Caldwell

La reazione produce ossigeno, come nella fotosintesi, convertendo, inoltre, l’anidride carbonica presente nella soluzione acqua-polvere in metanolo.

Il metanolo viene raccolto mentre evapora quando la soluzione viene riscaldata.

I prossimi passi della ricerca saranno mirati ad ottenere un incremento della resa del metanolo e la commercializzazione del processo brevettato per convertire l’anidride carbonica raccolta dalle principali fonti di gas serra come centrali elettriche, veicoli e trivellazioni petrolifere.

Sono estremamente entusiasta del potenziale di questa scoperta“, ha affermato Wu, professore di ingegneria meccanica e meccatronica e membro del Waterloo Institute for Nanotechnology. “Il cambiamento climatico è un problema urgente e possiamo contribuire a ridurre le emissioni di CO2 creando al contempo un combustibile alternativo“.

Wu ha collaborato alla pubblicazione di siti attivi dipendenti dalle sfaccettature di un singolo fotocatalizzatore di particelle Cu2O per la riduzione di CO2 al metanolo, con Tijana Rajh e altri ricercatori dell’Argonne National Laboratory in Illinois, nonché scienziati della California State University, Northridge e City University di Hong Kong.

Fonte: scitechdaily