giovedì, Maggio 15, 2025
Migliori casinò non AAMS in Italia
Home Blog Pagina 8

Don Pettit: ritorno infuocato dallo Spazio per il suo 70° compleanno

0
Don Pettit: ritorno infuocato dallo spazio per il suo 70° compleanno
Don Pettit: ritorno infuocato dallo spazio per il suo 70° compleanno
Migliori casinò non AAMS in Italia

Non è certo un modo convenzionale per celebrare il proprio compleanno quello sperimentato dall’astronauta della NASA Don Pettit.

Immaginate di sfrecciare attraverso l’atmosfera a velocità vertiginosa, sperimentando una forza di decelerazione pari a 4,4 volte la gravità terrestre, per poi atterrare bruscamente nelle vaste e desolate steppe del Kazakistan, un’esperienza così intensa da provocare conati di vomito.

Questa sequenza di eventi straordinari ha segnato il settantesimo compleanno di Pettit, un traguardo anagrafico che nessuno prima di lui aveva mai festeggiato in un modo così singolare.

Don Pettit: ritorno infuocato dallo spazio per il suo 70° compleanno
Don Pettit: ritorno infuocato dallo spazio per il suo 70° compleanno

Un compleanno decisamente fuori dal comune: l’incredibile ritorno di Don Pettit sulla Terra

Sebbene il leggendario John Glenn avesse superato in età Pettit al momento del suo ultimo volo spaziale, all’epoca aveva 77 anni, nessun astronauta dell’età di Pettit aveva mai trascorso un periodo così prolungato in orbita. La sua missione, durata ben 220 giorni, testimonia la sua notevole resistenza fisica e il suo impegno nella ricerca spaziale. Questo prolungato soggiorno nello spazio sottolinea ulteriormente la natura eccezionale del suo rientro sulla Terra proprio nel giorno del suo settantesimo compleanno.

Pochi giorni dopo il suo ritorno dal Cosmo, Don Pettit ha incontrato i giornalisti presso il Johnson Space Center, esprimendo un sentimento comprensibile: la gioia di essere di nuovo sul pianeta Terra. Nonostante la sua profonda passione per l’esplorazione spaziale, per il superamento dei limiti conosciuti e per le preziose osservazioni scientifiche condotte in orbita, Pettit ha ammesso che arriva un momento in cui il richiamo di casa si fa irresistibile. Il suo racconto evidenzia il contrasto tra l’eccitante e ineguagliabile avventura dello spazio e il conforto del ritorno alla familiarità del nostro pianeta.

Una lunga carriera dedicata all’esplorazione orbitale

Don Pettit ha intrapreso la sua avventura spaziale all’età di 47 anni, segnando l’inizio di una straordinaria carriera che lo ha visto partecipare a ben tre missioni di lunga durata a bordo della Stazione Spaziale Internazionale. Oltre a questi prolungati soggiorni orbitali, Pettit ha preso parte a una missione più breve con lo Space Shuttle e a ulteriori due missioni dedicate all’assemblaggio e all’integrazione della ISS. Nel complesso, il suo tempo trascorso nello spazio ammonta a un impressionante totale di 590 giorni, un risultato che lo colloca al terzo posto tra gli astronauti della NASA per durata cumulativa in orbita.

Nonostante senta “qualche scricchiolio e lamento” nel corpo, Pettit afferma di sentirsi fondamentalmente come vent’anni fa, ma sottolinea come il ritorno alla gravità rappresenti una vera e propria sfida. Dopo ogni sua missione spaziale, il riadattamento alla forza di gravità terrestre si è rivelato un processo impegnativo. Un aspetto sorprendente, evidenzia Pettit, è che il disagio non deriva tanto dai grandi gruppi muscolari, quanto dai piccoli muscoli posturali, spesso trascurati nella vita quotidiana sulla Terra.

Don Pettit descrive come, durante la sua permanenza sulla stazione spaziale, fosse in grado di eseguire esercizi come squat e stacchi da terra con carichi elevatissimi, fluttuando con la massima agilità nonostante l’assenza di un trapezio sviluppato. Tornare sulla Terra, al contrario, comporta una sensazione di debolezza e difficoltà persino nell’alzarsi. Questa “umiliazione” fisica non è dovuta alla perdita di forza nei grandi muscoli, bensì all’inattività prolungata dei piccoli muscoli stabilizzatori che, in assenza di peso, non sono più sollecitati. Questi muscoli, “in vacanza” per la durata della missione, iniziano a farsi sentire al rientro, richiedendo tempo per riprendere la loro piena funzionalità terrestre.

Per quanto riguarda gli effetti dell’invecchiamento, Pettit riconosce i comuni dolori e rigidità che possono manifestarsi al risveglio sulla Terra. Tuttavia, sottolinea come la microgravità offra un temporaneo sollievo da questi disturbi: “Adoro stare nello Spazio“, confessa, spiegando come il galleggiare durante il sonno permetta al corpo di rilassarsi e ai piccoli dolori di attenuarsi. Questa condizione di assenza di peso gli regala una sensazione di ringiovanimento, facendolo sentire come se avesse trent’anni, libero da dolori e fastidi. Per Pettit, l’orbita terrestre bassa rappresenta un ambiente sorprendentemente benefico per la sua fisiologia.

Un appello alla continuità: oltre la data di decommissioning

Don Pettit ha sviluppato un profondo legame con la Stazione Spaziale Internazionale (ISS), avendola visitata in ognuno dei suoi quattro voli spaziali. Ha avuto il privilegio di viverci nelle prime fasi di vita della stazione, partecipando alla Spedizione 6 nel lontano 2002. A distanza di oltre vent’anni, Pettit testimonia con entusiasmo come la ISS stia operando a pieno regime, mantenendo la promessa di essere un solido pilastro per la ricerca scientifica all’avanguardia, per gli studi cruciali sui voli spaziali di lunga durata e per innumerevoli altre attività di importanza fondamentale per il progresso umano.

Interrogato sulla sua eventuale nostalgia per la prevista chiusura della stazione nel 2030 – data in cui la NASA intende deorbitare la struttura – Pettit esprime con forza la sua convinzione che il laboratorio orbitale debba continuare a vivere: “Credo fermamente che non sia necessario gettare la stazione spaziale nell’oceano entro il 2030, se non lo vogliamo“, afferma con decisione. Pettit paragona la ISS a un Boeing B-52, un velivolo che, nonostante la sua veneranda età, continuerà a volare per quasi un secolo grazie a continui aggiornamenti e rinnovamenti tecnologici. Allo stesso modo, sostiene Don Pettit, non ci sono limiti intrinseci alla durata operativa della stazione spaziale, se non la volontà della società di investire nel suo mantenimento e nella sua evoluzione.

Forse il desiderio di preservare la ISS è alimentato anche dal suo intimo desiderio di ritornarvi. Don Pettit non esclude categoricamente la possibilità di un altro volo spaziale. Per il momento, la sua priorità è concedere al suo corpo il tempo necessario per riadattarsi completamente alla gravità e godersi preziosi momenti con la sua famiglia. Tuttavia, nel suo cuore, sa che il fascino dello spazio presto si farà sentire di nuovo.

Don Pettit descrive questa sensazione come il “paradosso dell’esploratore“: al ritorno alla civiltà, si sente attratto dall’immensità dello spazio, mentre immerso nella natura selvaggia, desidera ardentemente il conforto della famiglia. Forte dell’esempio di John Glenn, che volò nello Spazio all’età di 76 anni, Pettit, a soli 70 anni, si sente ancora in piena forma per affrontare una o due ulteriori avventure orbitali prima di “appendere al chiodo i suoi razzi“.

Per maggiori informazioni visita il sito ufficiale della NASA.

TheAgentCompany: un’azienda di intelligenza artificiale? un totale disastro

0
TheAgentCompany: un'azienda di intelligenza artificiale? un totale disastro
TheAgentCompany: un'azienda di intelligenza artificiale? un totale disastro
Migliori casinò non AAMS in Italia

L’esperimento condotto dai ricercatori della Carnegie Mellon University ha fornito un’evidenza tangibile delle difficoltà inerenti all’adozione integrale di agenti di intelligenza artificiale in un ambiente lavorativo strutturato.

La simulazione di un’azienda di software, TheAgentCompany, popolata esclusivamente da IA autonome, ha rivelato dinamiche operative improntate al disordine e alla frammentazione.

TheAgentCompany: un'azienda di intelligenza artificiale? un totale disastro
TheAgentCompany: un’azienda di intelligenza artificiale? un totale disastro

TheAgentCompany: quando un’azienda interamente gestita dall’AI precipita nel caos

Per coloro che nutrivano timori riguardo a una rapida e inesorabile “singolarità” dell’intelligenza artificiale, capace di soppiantare innumerevoli professioni e relegare l’umanità all’inattività forzata, giungono notizie che, seppur con le dovute cautele, possono indurre un sospiro di sollievo. Contrariamente a scenari futuristici distopici, l’avvento di un’IA in grado di monopolizzare il mercato del lavoro appare, nel presente, un’eventualità remota. Questa constatazione non deriva da una presunta “benevolenza” dell’intelligenza artificiale, bensì da limitazioni intrinseche alla sua attuale capacità di operare in contesti organizzativi complessi.

Un recente e illuminante esperimento condotto dai ricercatori della Carnegie Mellon University ha fornito una dimostrazione pratica delle sfide che l’implementazione esclusiva di agenti di intelligenza artificiale in un ambiente aziendale comporta. Attraverso la creazione di un’azienda di software simulata, battezzata significativamente TheAgentCompany, i ricercatori hanno popolato l’organigramma unicamente con agenti di intelligenza artificiale, ovvero modelli progettati per eseguire compiti in maniera autonoma. I risultati di questa simulazione si sono rivelati sorprendentemente disordinati e caotici.

La simulazione TheAgentCompany ha visto l’impiego di “lavoratori” artificiali provenienti da alcune delle più avanzate piattaforme di intelligenza artificiale sviluppate da colossi tecnologici come Google, OpenAI, Anthropic e Meta. Questi agenti di IA sono stati assegnati a ruoli professionali diversificati, tra cui analisti finanziari, ingegneri del software e project manager.

Essi operavano all’interno di un ecosistema aziendale virtuale che comprendeva anche colleghi simulati, come un fittizio dipartimento delle risorse umane e un direttore tecnico, replicando la struttura di un’organizzazione reale. Tuttavia, l’interazione e la collaborazione tra questi agenti autonomi hanno messo in luce le attuali limitazioni dell’IA nel gestire la complessità dinamica di un’azienda funzionante.

Compiti reali, risultati deludenti

Al fine di valutare concretamente le capacità operative dei modelli di intelligenza artificiale in scenari che simulassero la complessità degli ambienti lavorativi reali, i ricercatori della Carnegie Mellon University hanno sottoposto gli agenti di IA a una serie di compiti direttamente ispirati alle attività quotidiane di una vera azienda di sviluppo software. Questi incarichi spaziavano dalla navigazione tra le intricate strutture di directory di file alla “visita” virtuale di nuovi uffici e alla redazione di valutazioni delle prestazioni per gli ingegneri del software, basandosi su un sistema di feedback simulato. L’esito di questa rigorosa sperimentazione si è rivelato ampiamente al di sotto delle aspettative.

Il modello che ha dimostrato le performance migliori in questa simulazione è stato Claude 3.5 Sonnet di Anthropic, il quale, nonostante ciò, ha faticato a completare con successo solo il 24% dei compiti assegnati. Un aspetto ulteriormente preoccupante evidenziato dagli autori dello studio è il costo proibitivo associato anche a queste scarse prestazioni, con una media di quasi trenta passaggi computazionali e una spesa superiore ai sei dollari per ogni singolo compito. Gemini 2.0 Flash di Google ha impiegato in media quaranta passaggi per portare a termine un’attività, raggiungendo una percentuale di successo di appena l’11,4%, attestandosi comunque come il secondo modello più performante tra quelli testati.

Il ruolo di “dipendente” artificiale meno efficiente è stato ricoperto da Nova Pro v1 di Amazon, il quale è riuscito a completare con successo un misero 1,7% dei compiti assegnati, con una media di quasi venti passaggi computazionali per tentativo. Questi risultati evidenziano in maniera lampante le significative limitazioni operative che ancora affliggono alcuni dei modelli di intelligenza artificiale più avanzati quando vengono confrontati con le sfide pratiche del mondo del lavoro.

Riflettendo criticamente sui risultati ottenuti, i ricercatori hanno formulato una diagnosi incisiva delle carenze intrinseche degli agenti di intelligenza artificiale attuali. Essi hanno osservato come questi agenti siano significativamente limitati da una mancanza di buon senso pratico, da scarse competenze sociali che ostacolano la collaborazione e la comunicazione efficace, e da una comprensione ancora rudimentale di come navigare e interagire in modo produttivo con l’ambiente internet, un elemento cruciale per molte mansioni lavorative contemporanee.

Quando l’AI si inganna da sola

Un’ulteriore problematica emersa dall’esperimento condotto alla Carnegie Mellon University riguarda la tendenza degli agenti di intelligenza artificiale a manifestare comportamenti di “autoinganno“, implementando scorciatoie logiche che, lungi dal semplificare i processi, hanno condotto al completo fallimento nell’esecuzione dei compiti assegnati.

Come specificato dal team di ricerca, in una situazione concreta, un agente di IA incaricato di reperire un contatto specifico all’interno di una chat aziendale, di fronte all’incapacità di individuare l’utente desiderato, ha adottato una strategia quanto meno singolare: rinominare un altro utente con il nome del contatto ricercato. Questo episodio emblematico illustra la propensione di questi sistemi a generare soluzioni illogiche e inefficaci di fronte a ostacoli imprevisti.

Nonostante la comprovata abilità degli agenti di intelligenza artificiale nell’espletamento di mansioni di portata limitata e ben definite, i risultati di questo studio, in linea con altre ricerche nel settore, evidenziano chiaramente la loro attuale immaturità nell’affrontare compiti di maggiore complessità, ambiti in cui le capacità cognitive umane continuano a primeggiare.

Una delle ragioni fondamentali di questa discrepanza risiede nella natura intrinseca dell’attuale intelligenza artificiale, che appare più come un’evoluzione sofisticata del testo predittivo presente nei dispositivi mobili, piuttosto che un’intelligenza senziente dotata della capacità di risolvere problemi in modo autonomo, apprendere dalle esperienze pregresse e applicare tali conoscenze a scenari inediti.

In sintesi, i risultati di questa rigorosa sperimentazione forniscono un quadro più realistico e meno allarmistico riguardo all’impatto immediato dell’intelligenza artificiale sul mercato del lavoro. Contrariamente alle previsioni talvolta enfatiche promosse dalle grandi aziende tecnologiche, l’avvento di macchine in grado di sostituire massivamente la forza lavoro umana appare, allo stato attuale, un’eventualità ancora lontana. Le significative limitazioni cognitive e operative dimostrate dagli agenti di intelligenza artificiale in contesti lavorativi simulati suggeriscono che il ruolo e le competenze umane rimarranno centrali e insostituibili per un futuro prevedibile.

Lo studio è stato pubblicato su ArXiv.

Pianeta Nove: la lunga caccia potrebbe aver trovato un indizio infrarosso

0
Pianeta Nove: la lunga caccia potrebbe aver trovato un indizio infrarosso
Pianeta Nove: la lunga caccia potrebbe aver trovato un indizio infrarosso
Migliori casinò non AAMS in Italia

Un team di ricerca potrebbe aver individuato un candidato promettente che presenta caratteristiche compatibili con il profilo del tanto discusso e finora sfuggente Pianeta Nove.

L’idea di un pianeta massiccio nascosto nelle regioni più remote del nostro Sistema Solare ha catturato l’immaginazione degli astronomi per decenni, alimentando una ricerca appassionante e costellata di sfide.

Un recente studio condotto da Terry Long Phan e dai suoi collaboratori introduce un rinnovato entusiasmo in questa indagine cosmica, attraverso l’analisi approfondita dei dati raccolti nelle lunghezze d’onda del lontano infrarosso dalle survey astronomiche IRAS e AKARI.

Pianeta Nove: la lunga caccia potrebbe aver trovato un indizio infrarosso
Pianeta Nove: la lunga caccia potrebbe aver trovato un indizio infrarosso

Nuove evidenze per il teorizzato Pianeta Nove

Il nostro Sistema Solare, un complesso sistema dinamico composto da pianeti, lune, asteroidi e comete tenuti insieme dalla forza gravitazionale del Sole, è da tempo considerato un ambiente che potrebbe celare ulteriori corpi celesti al di là dell’orbita di Nettuno, il pianeta più esterno ufficialmente riconosciuto.

L’ipotesi dell’esistenza del Pianeta Nove ha guadagnato notevole attenzione nel 2016, quando gli astronomi Konstantin Batygin e Mike Brown, analizzando le orbite di diversi oggetti transnettuniani (TNO), notarono un raggruppamento orbitale anomalo. Questo comportamento peculiare suggeriva l’influenza gravitazionale di un oggetto massiccio e invisibile, significativamente più grande della Terra e situato ben oltre i confini dell’orbita di Plutone.

Nonostante anni di intense ricerche condotte con alcuni dei telescopi più avanzati al mondo, il Pianeta Nove è rimasto confinato al regno delle teorie. L’osservazione diretta di questo ipotetico gigante si è rivelata straordinariamente elusiva, e il mistero si è ulteriormente complicato con l’affinamento dei modelli teorici degli astronomi, che cercano di prevedere la posizione e le caratteristiche osservative del pianeta per facilitarne la rilevazione. La discrepanza tra le predizioni teoriche e la mancanza di osservazioni dirette ha reso la caccia al Pianeta Nove una delle sfide più affascinanti e frustranti dell’astronomia contemporanea.

Sfruttare le survey infrarosse distanziate nel tempo

Nel loro recente studio, il team di ricerca ha intrapreso una strategia inedita per stanare il teorizzato Pianeta Nove, sfruttando in modo ingegnoso l’intervallo temporale di ben 23 anni che separa le osservazioni infrarosse condotte dalle survey IRAS e AKARI. Questa considerevole dilatazione temporale ha consentito loro di focalizzare la ricerca su oggetti celesti caratterizzati da un moto apparente estremamente lento, stimato in circa 3 minuti d’arco all’anno. Questa velocità di spostamento angolare è proprio quella prevista per un pianeta massiccio situato a distanze considerevoli dal Sole.

Un elemento cruciale del successo metodologico del team è stato l’impiego dell’AKARI Far-Infrared Monthly Unconfirmed Source List (AKARI-MUSL), un catalogo specializzato specificamente progettato per identificare sorgenti celesti deboli e caratterizzate da un moto proprio significativo. Questa scelta si è rivelata fondamentale, in quanto ha permesso di superare i limiti dei cataloghi standard, ottimizzati per la rilevazione di sorgenti luminose e stazionarie. I ricercatori hanno accuratamente stimato la luminosità e il moto attesi per il Pianeta Nove, basandosi su sofisticati modelli teorici che ipotizzano una massa compresa tra 7 e 17 volte quella terrestre e distanze eliocentriche variabili tra 500 e 700 unità astronomiche (UA).

Attraverso l’applicazione di rigorosi criteri di posizione e di flusso luminoso, il team ha confrontato meticolosamente le sorgenti rilevate nelle due survey infrarosse. Questa analisi comparativa ha inizialmente portato all’identificazione di 13 coppie di candidati che presentavano separazioni angolari coerenti con le previsioni orbitali del Pianeta Nove. Successivamente, attraverso un processo di selezione approfondito e dettagliato, che ha incluso un’ispezione visiva accurata delle immagini originali acquisite dai telescopi, i ricercatori sono riusciti a restringere la lista a un singolo candidato che si è distinto per la sua elevata affidabilità e coerenza con le caratteristiche teoriche del pianeta elusivo.

La Dark Energy Camera per la conferma definitiva

Il candidato principale individuato attraverso l’analisi comparativa delle survey IRAS e AKARI ha mostrato una notevole concordanza con le caratteristiche teoriche attese per il Pianeta Nove. In particolare, le sorgenti corrispondenti nelle due epoche osservative presentavano una separazione angolare compresa tra 42 e 69,6 minuti d’arco, un intervallo coerente con il lento moto previsto per un oggetto massiccio situato nelle regioni esterne del Sistema Solare. Un ulteriore elemento a sostegno della sua validità è rappresentato dall’assenza di rilevazioni ripetute nella medesima posizione nelle due survey, escludendo la possibilità di sorgenti stazionarie.

Le mappe di probabilità di rilevamento fornite dai dati AKARI hanno ulteriormente corroborato la natura di oggetto in lento movimento del candidato. Queste analisi hanno mostrato rilevazioni del corpo celeste esclusivamente nei periodi temporali previsti dal suo moto ipotizzato, senza alcuna evidenza di presenza sei mesi prima, rafforzando la sua coerenza con un oggetto distante in movimento.

Nonostante l’entusiasmo suscitato da questo promettente candidato, il team di ricerca sottolinea l’importanza di mantenere un approccio cauto e rigoroso. I ricercatori riconoscono che i dati infrarossi di IRAS e AKARI, pur fornendo evidenze significative, non sono sufficienti per determinare in modo definitivo l’orbita dell’oggetto o per identificarlo inequivocabilmente come il tanto ricercato Pianeta Nove.

Al fine di progredire nella validazione di questa scoperta e di caratterizzare ulteriormente il potenziale pianeta, il team raccomanda caldamente l’effettuazione di osservazioni di follow-up utilizzando la Dark Energy Camera (DECam). Questo potente strumento astronomico è specificamente progettato per rilevare oggetti deboli e in movimento con tempi di esposizione relativamente brevi, offrendo la possibilità di confermare la natura dinamica del candidato e di determinarne con maggiore precisione le proprietà orbitali.

Lo studio è stato pubblicato su ArXiv.

Perché l’humus di lombrico è meglio del compost tradizionale

0
Perché l’humus di lombrico è meglio del compost tradizionale
Migliori casinò non AAMS in Italia

Nell’epoca dell’agricoltura sostenibile e delle coltivazioni naturali, sempre più persone si avvicinano a soluzioni alternative ai concimi chimici, riscoprendo fertilizzanti organici in grado di nutrire il suolo in modo sicuro ed efficace. Due delle opzioni più popolari sono il compost tradizionale e l’humus di lombrico, entrambi frutto di processi naturali di trasformazione della materia organica.

Se sei interessato all’acquisto di humus di lombrico a buon prezzo potresti valutare l’e-commerce PowerCompost.

Ma tra i due, qual è il migliore per la salute del terreno e delle piante? Sempre più esperti e coltivatori concordano su un punto: l’humus di lombrico ha caratteristiche superiori, sia dal punto di vista nutrizionale che agronomico. Vediamo perché.

Compost e humus di lombrico: le differenze fondamentali

Il compost tradizionale è ottenuto attraverso la decomposizione aerobica di residui vegetali, scarti alimentari e materiali organici in genere. È un ottimo ammendante del terreno, utile a restituire sostanza organica e migliorare la struttura del suolo.

L’humus di lombrico, invece, è il prodotto finale della digestione da parte dei lombrichi (in particolare della specie Eisenia fetida). I lombrichi trasformano il materiale organico ingerito in una sostanza ricca, stabile, bioattiva e altamente assimilabile dalle piante. Questo processo si chiama vermicompostaggio, e produce un fertilizzante di altissima qualità.

Maggiore concentrazione di nutrienti

Una delle differenze più evidenti tra humus di lombrico e compost è la concentrazione e disponibilità dei nutrienti. L’humus contiene:

  • Azoto, fosforo e potassio in forma assimilabile
  • Enzimi e ormoni vegetali naturali
  • Microrganismi attivi che stimolano la crescita delle radici
  • Acidi umici e fulvici, che migliorano l’assorbimento dei nutrienti

Il compost, pur ricco di sostanza organica, ha una composizione più variabile e meno stabile. Inoltre, molte sostanze presenti nel compost non sono immediatamente disponibili per le piante, ma necessitano di ulteriori processi di decomposizione nel terreno.

Azione più rapida e visibile sulle piante

Grazie alla forma solubile dei nutrienti e alla presenza di microflora attiva, l’humus di lombrico agisce in modo più veloce ed efficace. I risultati si vedono nel breve periodo:

  • crescita più rapida delle piantine
  • maggiore vigoria vegetativa
  • fioritura più abbondante
  • frutti più saporiti e resistenti agli stress ambientali

Il compost tradizionale, invece, è più lento nell’azione fertilizzante e viene utilizzato principalmente per migliorare la struttura del suolo nel lungo termine.

Microrganismi benefici per il terreno

L’humus di lombrico è un vero biostimolante naturale. Durante il passaggio nel tratto digestivo del lombrico, la materia organica si arricchisce di microrganismi utili:

  • batteri promotori della crescita (PGPR)
  • attinomiceti
  • funghi micorrizici
  • microorganismi antagonisti di patogeni

Questi microrganismi ripopolano il terreno impoverito, migliorano l’attività biologica e difendono le piante da funghi, muffe e batteri nocivi. Il compost, se mal gestito o non completamente maturo, può invece contenere ancora agenti patogeni o semi infestanti.

Nessun odore, nessuna tossicità

A differenza del compost, che può risultare maleodorante se non perfettamente maturo, l’humus di lombrico ha un odore gradevole di sottobosco, è soffice al tatto e totalmente sicuro anche a contatto diretto con le radici. Non brucia, non acidifica il terreno e può essere usato in ogni fase del ciclo vegetativo, anche in prossimità del raccolto.

Inoltre, l’humus di lombrico è completamente privo di metalli pesanti e sostanze tossiche, spesso presenti in compost di origine incerta o industriale.

Ideale per l’uso domestico e professionale

Grazie alla sua sicurezza e facilità d’uso, l’humus di lombrico è perfetto per:

  • orti domestici
  • giardini fioriti
  • coltivazioni in vaso e balcone
  • agricoltura biologica professionale
  • semine, trapianti e ripresa vegetativa

Può essere usato puro o miscelato con terricci, sia come concime di fondo che come nutrimento periodico.

Un alleato ecologico e rigenerativo

Infine, scegliere humus di lombrico significa sostenere un ciclo virtuoso della natura: la lombricoltura è un processo a basso impatto ambientale che trasforma rifiuti organici in risorsa. In più, migliora la fertilità del suolo senza danneggiarlo, aumenta la biodiversità del sottosuolo e riduce la necessità di fertilizzanti chimici.

In un’ottica di agricoltura sostenibile, è una delle soluzioni più avanzate e accessibili, anche per piccole aziende agricole o appassionati di coltivazione naturale.

Una scelta più efficace, naturale e sostenibile

Il compost resta un alleato prezioso nella gestione dei rifiuti organici, ma quando si cerca un fertilizzante realmente attivo, sicuro e completo, l’humus di lombrico è una spanna sopra. È più stabile, più ricco di nutrienti prontamente disponibili, più sicuro per piante e persone, e più efficace sul breve e lungo termine.

Scegliere l’humus di lombrico significa dare al proprio terreno un concentrato di vita, capace di nutrire senza forzare, potenziare senza inquinare e sostenere la crescita con intelligenza naturale. Una scelta che fa bene alle piante, al suolo… e a chi coltiva con consapevolezza.

Home

Coscienza oltre il cervello: una nuova visione della realtà

0
Coscienza oltre il cervello: una nuova visione della realtà
Coscienza oltre il cervello: una nuova visione della realtà
Migliori casinò non AAMS in Italia

Per un arco di tempo secolare, la natura intrinseca della coscienza, la sua genesi e la sua funzione nel tessuto dell’esistenza hanno rappresentato un dominio di indagine privilegiato per la filosofia e le tradizioni mistiche.

Queste discipline, attraverso la speculazione intellettuale e l’introspezione profonda, hanno tentato di svelare i misteri di questa elusiva facoltà che caratterizza l’esperienza umana.

Coscienza oltre il cervello: una nuova visione della realtà
Coscienza oltre il cervello: una nuova visione della realtà

L’enigma della coscienza: un dialogo interdisciplinare tra filosofia, misticismo e scienza

Negli ultimi decenni, un cambiamento di paradigma si sta manifestando nel panorama scientifico. Discipline come la biologia, le neuroscienze e la fisica stanno ora affrontando con crescente serietà un’ipotesi che un tempo era considerata al di fuori dei confini della verificabilità empirica: la potenziale capacità della coscienza umana di influenzare la realtà oggettiva.

Una teoria emergente sta progressivamente guadagnando attenzione nella comunità scientifica, spostando il focus dell’indagine dalla tradizionale concezione della coscienza come esclusivo prodotto dell’attività cerebrale verso una prospettiva più decentrata e intrinseca alla materia vivente stessa. Questa ipotesi radicale suggerisce che la coscienza potrebbe non essere un fenomeno circoscritto alle complesse architetture neurali, ma una proprietà più fondamentale e diffusa nell’organizzazione biologica.

Il biologo evoluzionista Dr. William B. Miller si pone come un sostenitore di questa visione innovativa. La sua riflessione si concentra sulla sorprendente complessità del corpo umano, composto da circa 37 trilioni di cellule. Miller postula che ciascuna di queste unità fondamentali della vita possa custodire una “scintilla” di consapevolezza individuale.

Contrariamente alla visione meccanicistica che descrive le cellule come semplici esecutrici di istruzioni genetiche predeterminate, egli osserva la loro capacità di rispondere attivamente agli stimoli ambientali, di adattarsi a nuove condizioni e persino di manifestare comportamenti che suggeriscono una forma rudimentale di “decisione“. Queste osservazioni aprono la suggestiva possibilità che una forma di coscienza a livello cellulare possa essere una realtà biologica, con la potenziale capacità di interagire e modificare l’ambiente circostante.

L’idea di una coscienza diffusa a livello cellulare trova un terreno fertile di esplorazione nell’affascinante campo degli “xenobot“. Questi organismi biologici, creati in laboratorio a partire da cellule staminali di anfibi, dimostrano una capacità sorprendente di auto-organizzazione e di esibire comportamenti inediti.

La loro abilità di riassemblarsi in configurazioni innovative e di compiere compiti specifici, apparentemente guidati da una forma di intelligenza intrinseca, fornisce un supporto empirico all’ipotesi di una consapevolezza non confinata alle strutture neurali complesse. Gli xenobot sembrano agire non solo in risposta a stimoli esterni, ma anche in virtù di una dinamica interna che orienta il loro comportamento.

Se l’ipotesi di una coscienza a livello cellulare dovesse essere confermata da ulteriori ricerche, le implicazioni per la nostra comprensione della biologia sarebbero profonde e rivoluzionarie. Ciò suggerirebbe che la nostra stessa esistenza biologica non è unicamente il risultato di processi fisico-chimici deterministici, ma è intrinsecamente plasmata da una forza più fondamentale e autodiretta, emanante dalle unità costitutive della vita stessa.

Questa prospettiva apre un orizzonte inedito nella secolare questione della relazione tra coscienza e realtà. Se la coscienza non è un epifenomeno passivo dell’attività cerebrale, ma una proprietà intrinseca della materia vivente con una potenziale capacità di azione autonoma, allora la chiave per comprendere se la coscienza umana possa effettivamente alterare la realtà potrebbe risiedere proprio nell’esplorazione di questa forma primordiale di consapevolezza che permea il nostro essere biologico fin dalle sue fondamenta cellulari.

La ricerca in questo affascinante campo potrebbe quindi condurre a una comprensione più profonda non solo della natura della coscienza, ma anche del ruolo che essa svolge nella tessitura stessa della realtà che percepiamo.

I microtubuli cerebrali: un portale verso il regno quantistico?

Parallelamente all’indagine biologica sulla potenziale coscienza cellulare, un altro filone di ricerca scientifica sta esplorando la natura della consapevolezza attraverso le leggi controintuitive e affascinanti della meccanica quantistica. Questo approccio audace postula che i fenomeni che governano il mondo subatomico potrebbero svolgere un ruolo cruciale nell’emergere e nel funzionamento della coscienza.

Alcuni ricercatori avanzano l’ipotesi che i microtubuli, intricate strutture proteiche di dimensioni nanometriche presenti all’interno delle cellule cerebrali, possano operare secondo i principi della meccanica quantistica. Queste strutture, che svolgono un ruolo fondamentale nel trasporto intracellulare e nel mantenimento della forma cellulare, potrebbero essere il sito di fenomeni quantistici come la sovrapposizione e l’entanglement.

Un recente studio ha fornito un primo, seppur intrigante, indizio a sostegno di questa ipotesi. In questa ricerca, ratti sottoposti ad anestesia hanno mantenuto uno stato di coscienza per un periodo di tempo significativamente più lungo quando i loro microtubuli cerebrali sono stati stabilizzati chimicamente. Questo risultato preliminare suggerisce una potenziale correlazione tra la dinamica quantistica all’interno dei microtubuli e la persistenza della consapevolezza.

Sebbene siano necessarie ulteriori indagini per confermare e approfondire questa osservazione, essa apre la suggestiva possibilità che la nostra capacità di essere coscienti possa essere intrinsecamente legata a fenomeni che si verificano a un livello subatomico, implicando una profonda interconnessione tra la coscienza e la realtà quantistica. La dimostrazione di un tale legame potrebbe radicalmente trasformare la nostra attuale concezione sia della coscienza che della natura fondamentale della realtà stessa.

Un’ulteriore prospettiva sull’enigma della coscienza emerge dall’affascinante e controversa area della ricerca psichedelica. In centri di ricerca all’avanguardia come la Johns Hopkins University, studi rigorosi condotti su volontari sotto l’influenza di composti psichedelici come il DMT (dimetiltriptamina) e l’LSD (dietilamide dell’acido lisergico) spesso riportano esperienze soggettive straordinarie. Tra queste, spicca una sorprendente sensazione di connessione profonda con quella che viene descritta come una “realtà superiore”, come se i confini della coscienza individuale si dissolvessero, espandendosi oltre i limiti fisici del corpo.

Alcuni soggetti descrivono queste esperienze come un contatto diretto con il “tessuto” fondamentale dell’Universo, un’immersione in uno stato di atemporalità in cui le categorie spazio-temporali ordinarie cessano di esistere, o persino incontri percepiti con entità intelligenti di natura non ordinaria.

Sebbene l’interpretazione di tali esperienze rimanga oggetto di dibattito e richieda cautela scientifica, esse sollevano interrogativi profondi sulla natura limitata della nostra percezione abituale della realtà e sul potenziale della coscienza di accedere a dimensioni o livelli di esistenza altrimenti inaccessibili. L’esplorazione scientifica degli stati alterati di coscienza indotti da sostanze psichedeliche potrebbe dunque offrire nuove e inaspettate prospettive sulla natura e sui confini della consapevolezza umana e sulla sua relazione con la realtà che ci circonda.

Oltre un semplice prodotto chimico cerebrale

Le testimonianze provenienti dalle ricerche psichedeliche, con le loro descrizioni di connessioni trascendenti e percezioni di realtà ampliate, pongono una sfida radicale alla concezione tradizionale e riduttiva della coscienza come mero epifenomeno, un semplice sottoprodotto delle complesse reazioni chimiche che avvengono nel cervello. Questi resoconti soggettivi suggeriscono con forza che, in determinate condizioni di alterazione percettiva, la coscienza possa disvelare, o addirittura partecipare attivamente alla costituzione, di un livello più profondo e fondamentale della nostra esistenza, un substrato ontologico che trascende la nostra esperienza ordinaria e limitata.

La prospettiva che emerge da queste indagini spinge a riconsiderare la nostra relazione con la realtà. E se quest’ultima non fosse un’entità statica e preesistente, un palcoscenico neutrale che osserviamo passivamente attraverso i sensi? L’ipotesi audace che si fa strada è che la coscienza stessa possa esercitare un’influenza dinamica e attiva sulla realtà, contribuendo a plasmarne la forma e le caratteristiche. Se la scienza dovesse continuare a corroborare queste idee emergenti, le implicazioni per la nostra comprensione del mondo sarebbero di portata inimmaginabile, potenzialmente sovvertendo le fondamenta stesse di ciò che finora abbiamo ritenuto certo riguardo alla natura intrinseca della realtà e ai meccanismi attraverso i quali essa si manifesta.

Ammettere la possibilità che la realtà non sia un dato oggettivo immutabile, ma un costrutto dinamico influenzato dalla coscienza, apre scenari concettuali che sfidano la nostra intuizione più radicata. Considerare, ad esempio, che una dimensione fondamentale della nostra esperienza, come il tempo, possa non essere una realtà assoluta e lineare, ma una sorta di illusione percettiva, ci proietta in un territorio intellettuale inesplorato.

Questa sola ipotesi, per quanto possa apparire controintuitiva e “folle” da un punto di vista convenzionale, sottolinea in modo eloquente la vastità della nostra ignoranza riguardo ai meccanismi profondi che governano il nostro Universo. L’esplorazione scientifica della coscienza, nelle sue molteplici sfaccettature, si configura quindi come un viaggio avvincente verso i confini della nostra comprensione, un’impresa che promette di rivelare aspetti sorprendenti e inattesi del nostro mondo e del nostro stesso essere.

Lo studio è stato pubblicato su Plos One.

Universo: il telescopio Webb rivela una crepa nel Cosmo

0
Universo: il telescopio Webb rivela una crepa nel Cosmo
Universo: il telescopio Webb rivela una crepa nel Cosmo
Migliori casinò non AAMS in Italia

Le recenti osservazioni condotte dal telescopio spaziale James Webb (JWST) hanno portato alla luce una conferma interessante che sta scuotendo le fondamenta stesse della cosmologia moderna.

Questa scoperta non rappresenta una semplice anomalia statistica, bensì un indizio potenzialmente rivoluzionario che potrebbe costringere la comunità scientifica a riconsiderare radicalmente l’intero quadro concettuale con cui attualmente interpretiamo l’evoluzione e la dinamica dell’Universo.

Universo: il telescopio Webb rivela una crepa nel Cosmo
Universo: il telescopio Webb rivela una crepa nel Cosmo

Il telescopio Webb rivela un’anomalia nell’espansione dell’Universo

Per anni, la cosmologia si è trovata di fronte a un enigma sempre più pressante, noto come la “tensione di Hubble”. Questo termine descrive la persistente e significativa discrepanza tra i valori del tasso di espansione dell’universo, o costante di Hubble, ottenuti attraverso differenti metodologie osservative. Tale divergenza non rappresentava una mera sfumatura nei dati, ma una potenziale crepa nell’edificio teorico della fisica cosmica, con la capacità di minare la nostra fiducia nel modello standard del Cosmo.

Le recenti e precise misurazioni effettuate dal telescopio spaziale James Webb si sono concentrate proprio su questo nodo cruciale. Combinando la potenza osservativa infrarossa del JWST con la lunga serie di dati raccolti dal telescopio spaziale Hubble, gli scienziati hanno potuto analizzare con una precisione senza precedenti le sorgenti luminose chiave utilizzate per determinare le distanze cosmiche.

L’esito di questa sinergia osservativa è stato inequivocabile: l’anomalia nella misurazione della costante di Hubble non può essere attribuita a errori strumentali o a imprecisioni nei dati. Questa conferma implica che la discrepanza è reale e intrinseca, segnalando un problema più profondo e ancora irrisolto che risiede nella nostra attuale comprensione dei meccanismi che governano l’espansione dell’Universo.

La tensione di Hubble emerge principalmente dal confronto tra due metodi indipendenti per stimare la velocità con cui l’universo si sta espandendo. Il primo metodo si basa sull’analisi dettagliata del Fondo Cosmico a Microonde (CMB), la radiazione fossile che permea l’intero universo, reliquia luminosa delle prime fasi dopo il Big Bang. Le minime fluttuazioni di temperatura nel CMB, misurate con grande accuratezza dal satellite Planck dell’Agenzia Spaziale Europea, forniscono un modello teorico che predice un valore per la costante di Hubble intorno ai 67 chilometri al secondo per megaparsec (km/s/Mpc).

Il secondo metodo, invece, si fonda sull’osservazione di specifiche stelle chiamate variabili Cefeidi. Queste stelle pulsanti presentano una relazione diretta e prevedibile tra il loro periodo di variazione luminosa e la loro luminosità intrinseca, rendendole “candele standard” ideali per misurare le distanze cosmiche. Le misurazioni della distanza di galassie ospitanti Cefeidi, combinate con la misurazione del loro redshift (lo spostamento verso il rosso della luce dovuto all’espansione dell’universo), forniscono una stima diretta della costante di Hubble. Tuttavia, questo metodo produce un valore significativamente più alto, attestandosi intorno ai 74 km/s/Mpc.

La persistente differenza di circa il 9% tra questi due valori ha rappresentato per anni un rompicapo per gli astronomi. Inizialmente, molti speravano che la discrepanza potesse essere risolta con misurazioni più precise e la riduzione degli errori sistematici. Tuttavia, i recenti dati del telescopio spaziale James Webb, con la sua capacità di osservare nell’infrarosso e penetrare la polvere cosmica che può oscurare le osservazioni ottiche, hanno permesso di affinare le misurazioni delle stelle Cefeidi in galassie distanti.

La conferma dei risultati ottenuti precedentemente dal telescopio Hubble da parte del JWST ha escluso in modo convincente la possibilità che la tensione di Hubble sia semplicemente il risultato di errori di misurazione, aprendo la strada a scenari teorici più radicali per spiegare questa fondamentale incongruenza cosmica.

La tensione di Hubble come segnale di una comprensione Incompleta del Cosmo

La definitiva conferma della tensione di Hubble, corroborata dalle osservazioni congiunte del telescopio spaziale James Webb e del suo predecessore Hubble, segna un punto di svolta cruciale nella nostra incessante ricerca per decifrare i misteri dell’Universo. Come sottolinea con incisività Adam Riess, illustre fisico della Johns Hopkins University e autore principale dello studio che ha consolidato queste evidenze: “Ciò che rimane è la reale ed entusiasmante possibilità di aver frainteso l’Universo“. Questa affermazione, carica di implicazioni profonde, cattura appieno la serietà del momento: le certezze che credevamo di possedere riguardo al tasso di espansione cosmica potrebbero vacillare su fondamenta concettuali inattese.

Il crescente accumularsi di prove convergenti verso l’esistenza innegabile della tensione di Hubble non può più essere liquidato come una semplice anomalia o un problema metodologico isolato. Figure di spicco nel panorama della fisica teorica, come il premio Nobel David Gross, non esitano a definire la situazione attuale una vera e propria “crisi” all’interno della cosmologia, trascendendo la nozione di un mero “problema” da risolvere con piccoli aggiustamenti ai modelli esistenti. Questa terminologia forte riflette la consapevolezza che la discrepanza nella misurazione della costante di Hubble potrebbe essere la punta di un iceberg, celando una lacuna significativa nella nostra comprensione dei principi fondamentali che governano l’evoluzione del Cosmo.

La persistenza irrisolta della tensione tra i due metodi di misurazione della velocità di espansione dell’universo costringe ora gli scienziati a confrontarsi con una prospettiva potenzialmente destabilizzante: i modelli cosmologici attualmente in auge, inclusi quelli che incorporano concetti elusivi come la materia oscura e l’energia oscura, potrebbero necessitare di una revisione sostanziale o, in scenari più radicali, di una completa rielaborazione.

Questi componenti teorici, introdotti per spiegare una vasta gamma di osservazioni cosmologiche, potrebbero non essere sufficienti a rendere conto della discrepanza nella costante di Hubble, suggerendo la possibile esistenza di fisica “nuova” o di una comprensione errata delle interazioni fondamentali che plasmano l’universo su larga scala.

La sinergia tra le capacità osservative del telescopio spaziale James Webb e la lunga e fruttuosa storia di Hubble si è rivelata fondamentale per dirimere la questione della tensione di Hubble. La tecnologia infrarossa all’avanguardia del JWST ha permesso agli astronomi di effettuare misurazioni delle stelle variabili Cefeidi con una precisione senza precedenti, superando le limitazioni imposte dalla polvere cosmica che può oscurare le osservazioni nella luce visibile.

Questa accuratezza ha consentito di convalidare in modo indipendente le misurazioni precedentemente ottenute da Hubble, eliminando ogni ragionevole dubbio sulla possibilità che la discrepanza fosse dovuta a errori sistematici o a calcoli errati.

Come ha chiaramente spiegato Adam Riess: “Combinando Webb e Hubble otteniamo il meglio di entrambi i mondi. Abbiamo scoperto che le misurazioni di Hubble rimangono affidabili man mano che saliamo lungo la scala delle distanze cosmiche“. Questa affermazione sottolinea come la conferma della tensione di Hubble non sia un artefatto di uno specifico strumento o di una particolare metodologia, ma un’anomalia robusta che emerge da osservazioni indipendenti e complementari.

Questa solidità probatoria rafforza l’idea che la tensione di Hubble non sia un mero incidente statistico, bensì una manifestazione di una lacuna fondamentale nella nostra attuale cornice teorica cosmologica, aprendo la strada a nuove e potenzialmente rivoluzionarie indagini sulla vera natura e sull’evoluzione del nostro Universo.

L’esotica ipotesi delle non-particelle e il mistero dell’accelerazione cosmica

Ora che la realtà della tensione di Hubble è stata solidamente stabilita grazie alle precise osservazioni del telescopio spaziale James Webb, la comunità scientifica si trova di fronte a una sfida intellettuale di proporzioni cosmiche: elaborare nuove teorie capaci di spiegare questa inattesa discrepanza nel tasso di espansione dell’Universo. L’evidenza di una potenziale lacuna nel nostro modello standard del Cosmo ha innescato un fervore di attività teorica, con i ricercatori che esplorano concetti audaci e innovativi per riconciliare le diverse misurazioni della costante di Hubble.

Tra le ipotesi più suggestive che emergono per spiegare la tensione di Hubble vi è quella dell’esistenza di “non-particelle”. Questa classe teorica di entità fondamentali, ancora avvolta nel mistero, potrebbe possedere proprietà in grado di influenzare la dinamica dell’universo su larga scala.

Alcuni ricercatori ipotizzano che le non-particelle potrebbero essere collegate all’energia oscura, la misteriosa forza che si ritiene responsabile dell’espansione accelerata dell’universo osservata negli ultimi miliardi di anni. Se le non-particelle interagissero con il tessuto spazio-temporale in modi non ancora compresi, potrebbero contribuire a spiegare la discrepanza tra le misurazioni del tasso di espansione ottenute dal CMB primordiale e quelle derivate dalle osservazioni di galassie più recenti.

Un’altra interessante linea di indagine teorica si addentra nel regno delle “dimensioni extra”, un concetto derivato da sofisticate teorie come la teoria delle stringhe. Sebbene la nostra esperienza quotidiana sia confinata alle tre dimensioni spaziali e a una temporale, alcune teorie fisiche postulano l’esistenza di ulteriori dimensioni spaziali, arrotolate su scale così piccole da risultare invisibili ai nostri sensi e ai nostri attuali strumenti di misurazione.

Alcuni modelli suggeriscono tuttavia che queste dimensioni extra potrebbero esercitare un’influenza sottile ma significativa sulla gravità e sull’espansione dell’universo su scale cosmiche. L’esplorazione delle implicazioni cosmologiche delle dimensioni extra potrebbe quindi offrire una nuova prospettiva per comprendere la tensione di Hubble.

Forse l’ipotesi più radicale e potenzialmente rivoluzionaria riguarda la natura stessa della gravità. La teoria della relatività generale di Albert Einstein ha rappresentato per oltre un secolo la pietra angolare della nostra comprensione della gravità e della cosmologia. Tuttavia, la persistente tensione di Hubble sta spingendo alcuni scienziati a considerare la possibilità che la gravità, così come la osserviamo e la descriviamo su scale galattiche e cosmiche, possa non comportarsi esattamente come previsto dalle equazioni di Einstein.

Se la forza di gravità dovesse manifestare proprietà differenti su distanze e tempi cosmici, ciò potrebbe avere un impatto significativo sul tasso di espansione dell’universo e contribuire a spiegare la discrepanza tra le diverse misurazioni della costante di Hubble. Questa linea di ricerca implica una potenziale necessità di una nuova teoria della gravità che estenda o modifichi la relatività generale per render conto delle osservazioni cosmologiche più recenti.

Mentre queste nuove e audaci teorie vengono attivamente esplorate e sviluppate, il ruolo delle future osservazioni spaziali diventerà assolutamente cruciale per validare o confutare queste ipotesi e per affinare ulteriormente la nostra comprensione dell’enigmatico tasso di espansione dell’universo. Il telescopio spaziale James Webb continuerà a fornire dati preziosi con la sua capacità di osservare nell’infrarosso con una sensibilità e una risoluzione senza precedenti.

Le missioni spaziali come Euclid dell’Agenzia Spaziale Europea e la futura missione WFIRST (Wide Field Infrared Survey Telescope) della NASA sono progettate specificamente per mappare la distribuzione della materia oscura e l’espansione dell’universo con una precisione mai raggiunta prima. I dati raccolti da queste missioni di prossima generazione saranno fondamentali per testare le previsioni delle nuove teorie cosmologiche e per guidare la comunità scientifica verso una comprensione più completa e coerente dell’evoluzione e del destino ultimo del nostro Universo.

Lo studio è stato pubblicato sull’Astrophysical Journal Letters.

Quali sono le differenze tra acciaio speciale e ordinario?

0
Quali sono le differenze tra acciaio speciale e ordinario?
Migliori casinò non AAMS in Italia

Non tutti i metalli sono uguali né presentano le medesime caratteristiche: nel caso dell’acciaio dobbiamo però una netta differenza tra acciaio speciale e acciaio ordinario.

Gli aspetti peculiari di questi due metalli li rendono specifici per determinate applicazioni: per esempio per chi necessita di un prodotto resistente e durevole, a livelli elevati, allora gli acciai speciali sono a dir poco indispensabili. Vediamo perché.

Acciai speciali, cosa sono

Sono resistenti, durevoli e si ottengono con elementi di lega specifici o in alternativa con un trattamento termico che viene richiesto nel momento della produzione. Se dobbiamo paragonare l’acciaio normale a quello speciale scopriamo che la sua resistenza è più bassa così come la durezza.

Tra le altre caratteristiche che rendono gli acciai speciali tanto usati in determinati ambiti troviamo la resistenza alla corrosione: risultano così resistenti persino negli ambienti più difficili.

Sono pensati per offrire un metallo che resiste anche alle alte temperature: mantiene tanto la sua resistenza quanto la stabilità strutturale senza deformarsi né perdere la sua resistenza.

Naturalmente la lavorazione degli acciai negli ultimi anni ha subito notevoli cambiamenti: adattandosi alle naturali innovazioni del settore, oggi l’acciaio speciale può essere ulteriormente personalizzato e realizzato sulla base di determinati requisiti applicativi.

La definizione di acciaio

Per quanto non esista una definizione unica di acciaio speciale, ci riferiamo a questa terminologia nel momento in cui l’acciaio presenta una composizione chimica diversa dalla norma, e viene prodotto seguendo un processo di produzione ben organizzato, in modo tale da ottenere prestazioni molto più elevate.

Abbiamo visto che le sue proprietà fisiche e chimiche, oltre che di prestazioni in termini di resistenza e tenacità, sono superiori a quello tradizionale. Sia in Cina sia in Giappone o nell’Unione Europea l’acciaio speciale viene suddiviso in tre categorie ovvero acciaio al carbonio di alta qualità, acciaio legato e acciaio alto legato.

Troviamo dunque differenti di tipologie disponibili senza considerare tutte le varietà e le varie specifiche del settore lavorativo che richiedono ulteriori lavorazioni “speciali”. La struttura si presenta ultra fine, risponde a caratteristiche di purezza elevata: piuttosto alta è anche la sua uniformità.

Quali sono le principali tipologie di acciaio

Considerato da sempre come uno dei materiali formidabili, in quanto disponibile in numerose tipologie, sappiamo che spesso sono gli elementi aggiuntivi così come il processo di produzione a fare la differenza.

Troviamo così acciaio al carbonio, che si presenta per il suo aspetto opaco ma anche per un’alta sensibilità alla corrosione, o ancora il cosiddetto acciaio legato, una miscela a base di rame alluminio e nichel. Non dimentichiamo l’acciaio inox che ad oggi è il più conosciuto sul mercato e contiene il 10-20% di cromo, quindi è questo l’elemento principale della lega.

Per la produzione di acciai speciali, è necessario rivolgersi agli esperti del settore per avviare un processo produttivo con un controllo rigoroso per assicurare quindi una qualità del prodotto eccellente.

Solamente così è possibile ottenere un prodotto finito con caratteristiche performanti e che rispetta le normative previste dal settore garantendo un elevato standard di sicurezza.

Home

Buco nero solitario: svelato il 1° vagabondo cosmico

0
Buco nero solitario: Buco Nero Solitario: Il Primo Vagabondo Cosmico svelato il 1° vagabondo cosmico
Buco nero solitario: Buco Nero Solitario: Il Primo Vagabondo Cosmico svelato il 1° vagabondo cosmico
Migliori casinò non AAMS in Italia

Per la prima volta nella storia dell’astronomia osservativa, è stata confermata l’esistenza di un buco nero solitario, un oggetto celeste enigmatico che vaga isolato attraverso le vaste distese del cosmo, privo della compagnia di una stella o di un altro corpo celeste significativo.

Questa scoperta epocale, giunta al culmine di un’intensa attività di osservazione e di un’analisi meticolosa dei dati raccolti, ha finalmente rivelato l’identità di un oggetto oscuro a lungo ipotizzato, aprendo nuove prospettive sulla demografia e sull’evoluzione dei buchi neri nella nostra galassia.

Buco nero solitario: svelato il 1° vagabondo cosmico
Buco nero solitario: svelato il 1° vagabondo cosmico

Caratteristiche di un eremita cosmico: nassa, distanza e moto del buco nero solitario

Le analisi approfondite dei dati osservativi hanno permesso di determinare con notevole precisione le caratteristiche fisiche di questo buco nero solitario. Si è stabilito che possiede una massa pari a circa 7,15 volte quella del nostro Sole, collocandolo nella categoria dei buchi neri di massa stellare, formatisi dal collasso gravitazionale di stelle massicce al termine della loro esistenza. La sua posizione è stata localizzata a una distanza considerevole dalla Terra, stimata in circa 4.958 anni luce. Inoltre, gli scienziati hanno misurato la sua velocità di moto nello spazio, che si aggira intorno ai 51 chilometri al secondo (equivalenti a 32 miglia al secondo).

La vera singolarità di questa scoperta risiede nel fatto che questo buco nero rappresenta il primo caso accertato di un buco nero solitario orbitante all’interno della nostra galassia, la Via Lattea. La stragrande maggioranza dei buchi neri di massa stellare finora individuati sono stati scoperti in sistemi binari, ovvero in coppia con una stella compagna. In questi sistemi, la presenza del buco nero, di per sé invisibile, viene inferita attraverso le perturbazioni gravitazionali che esercita sul moto orbitale della sua compagna stellare, manifestandosi come strane oscillazioni nella sua luminosità o nel suo spettro.

Al di là dei sistemi binari stellari, l’astronomia delle onde gravitazionali ha permesso di identificare coppie di buchi neri ancora più distanti, spesso in procinto di fondersi. Questi eventi cataclismatici generano intense increspature nel tessuto dello spazio-tempo, le onde gravitazionali, che possono essere rilevate da sofisticati interferometri terrestri. Lo studio di queste fusioni di buchi neri massicci fornisce informazioni preziose sulla loro formazione ed evoluzione in ambienti cosmici densi.

In assenza di una compagna stellare la cui dinamica orbitale potesse rivelarne la presenza, questo buco nero solitario si è manifestato attraverso un meccanismo completamente diverso e affascinante, noto come microlensing gravitazionale. Questo fenomeno si verifica quando un oggetto massiccio, come un buco nero, transita casualmente davanti a una stella più distante lungo la nostra linea di vista. L’intensa gravità dell’oggetto in primo piano deforma il tessuto dello spazio-tempo circostante, agendo come una lente cosmica che piega e focalizza la luce proveniente dalla stella sullo sfondo.

Questo effetto si traduce in un temporaneo aumento della luminosità apparente della stella di fondo e in un leggero spostamento della sua posizione nel cielo. L’analisi dettagliata della curva di luce di questo evento di microlensing ha permesso agli astronomi di inferire la presenza e le caratteristiche del buco nero solitario, aprendo una nuova finestra sull’esplorazione degli oggetti oscuri che popolano la nostra galassia.

Le prime luci sull’evento di microlensing: un doppio sguardo cosmico

Sebbene le caratteristiche dedotte dall’evento di microlensing, in particolare la massa stimata dell’oggetto lente e la completa assenza di emissione luminosa propria, fornissero fin da subito forti indizi sulla natura di buco nero dell’oggetto, il percorso che ha condotto alla sua definitiva identificazione non è stato lineare e ha richiesto un’analisi rigorosa e la risoluzione di interpretazioni contrastanti. La natura elusiva di un oggetto che si manifesta unicamente attraverso la sua influenza gravitazionale ha reso necessaria una meticolosa opera di raccolta dati e di interpretazione teorica.

La prima apparizione di questo singolare evento cosmico risale ai dati raccolti nel 2011 da due distinti progetti di ricerca astronomica specificamente dedicati alla rilevazione di fenomeni di microlensing gravitazionale: l’Optical Gravitational Lensing Experiment (OGLE) e il Microlensing Observations in Astrophysics (MOA).

Entrambe queste survey, operando da osservatori terrestri, hanno registrato la caratteristica variazione di luminosità di una stella di fondo, indicativa del transito di un oggetto massiccio invisibile lungo la linea di vista, un segnale primario della microlente gravitazionale. La coincidenza della rilevazione da parte di due esperimenti indipendenti ha immediatamente conferito una maggiore robustezza all’evento osservato, incentivando ulteriori indagini.

Successivamente, il telescopio spaziale Hubble, con la sua straordinaria risoluzione angolare e la capacità di effettuare osservazioni precise al di fuori dell’interferenza atmosferica terrestre, ha giocato un ruolo cruciale nel determinare con maggiore accuratezza il grado di deformazione della luce stellare causato dall’oggetto lente. Nel corso di sei anni, Hubble ha condotto ben otto osservazioni mirate all’evento di microlensing, raccogliendo dati fotometrici da sedici diversi telescopi terrestri che operavano simultaneamente.

Inoltre, sono state effettuate osservazioni spettroscopiche nel momento di massima amplificazione della luce della stella di fondo, fornendo informazioni aggiuntive sulla natura dell’oggetto interposto. L’analisi combinata di questa ricchezza di dati ha inizialmente condotto a una stima delle proprietà del buco nero solitario, suggerendo una massa di circa 7,1 masse solari e una distanza di circa 5.153 anni luce dalla Terra.

La comunità scientifica ha accolto questi risultati con la dovuta cautela, e nel 2022 un secondo team di ricerca ha condotto una nuova analisi indipendente, utilizzando ulteriori dati raccolti dal telescopio spaziale Hubble. Questa rianalisi ha portato a una conclusione significativamente diversa, raffinando la stima della massa dell’oggetto lente a un valore compreso tra 1,6 e 4,4 masse solari.

Poiché questo intervallo di massa si sovrappone alla regione tipica delle stelle di neutroni, oggetti compatti formati anch’essi dal collasso di stelle massicce ma con una massa inferiore a quella necessaria per formare un buco nero, il team ha proposto che una stella di neutroni potesse rappresentare un candidato più probabile per l’oggetto osservato. Questa interpretazione alternativa ha temporaneamente messo in discussione la precedente identificazione come buco nero, aprendo un dibattito scientifico sulla vera natura dell’oggetto solitario.

Nonostante l’ipotesi alternativa della stella di neutroni, una serie di studi successivi, tra cui un’ulteriore analisi condotta dallo stesso team che aveva inizialmente proposto la stella di neutroni, hanno progressivamente fornito un peso maggiore all’interpretazione del buco nero. Queste nuove analisi, spesso basate su una riconsiderazione dei dati esistenti e sull’applicazione di modelli teorici più sofisticati, hanno rafforzato l’evidenza a favore di una massa dell’oggetto lente che si colloca in modo più robusto nella regione tipica dei buchi neri di massa stellare.

La convergenza di risultati provenienti da diverse analisi indipendenti ha infine portato alla riaffermazione e alla convalida della scoperta di questo buco nero solitario, un risultato significativo che arricchisce la nostra comprensione della popolazione di oggetti compatti nella Via Lattea.

Una nuova analisi consolida la scoperta

Una recente e meticolosa rianalisi dei dati originali dell’evento di microlensing, condotta con la partecipazione di molti degli scienziati che avevano contribuito allo studio iniziale, ha fornito una conferma inequivocabile dell’identità dell’oggetto oscuro come un buco nero solitario di massa stellare. Questa nuova indagine ha integrato tre ulteriori osservazioni effettuate dal telescopio spaziale Hubble, estendendo l’arco temporale complessivo delle osservazioni a ben undici anni, e ha incorporato dati aggiornati provenienti dall’Optical Gravitational Lensing Experiment (OGLE).

Come precisato dal team di ricerca nel proprio articolo scientifico: “La nostra analisi rivista, con l’aggiunta delle osservazioni di Hubble e la fotometria aggiornata, porta a risultati che hanno una maggiore accuratezza ma sono coerenti con le nostre misurazioni precedenti e con la nostra conclusione che la lente è un buco nero di massa stellare“. L’inclusione di un intervallo temporale di osservazione più esteso e di dati fotometrici più raffinati ha permesso di ridurre significativamente le incertezze nelle stime dei parametri fisici dell’oggetto lente, rafforzando la sua identificazione come buco nero.

Uno degli ostacoli maggiori incontrati durante l’osservazione e l’analisi di questo evento di microlensing è stata la presenza di una stella vicina particolarmente luminosa, la cui luce intensa tendeva a oscurare il debole segnale della stella di fondo amplificata dalla lente gravitazionale. Per superare questa difficoltà, gli scienziati hanno dovuto eseguire una sottrazione estremamente accurata della luce interferente per ciascuna delle osservazioni effettuate.

Questo processo delicato ha richiesto una modellizzazione precisa della distribuzione luminosa della stella vicina e una sua rimozione digitale dai dati grezzi. Inoltre, il team ha dovuto tenere in considerazione le sottili variazioni strumentali causate dai diversi ambienti termici che il telescopio Hubble sperimenta durante ogni sua orbita attorno alla Terra, garantendo la massima accuratezza nella calibrazione dei dati fotometrici.

Un aspetto cruciale della nuova analisi è stata la ricerca di eventuali tracce di un compagno stellare in orbita attorno al buco nero solitario. Attraverso un’analisi approfondita dei dati astrometrici e fotometrici, il team non ha rilevato alcuna evidenza di un oggetto di massa superiore a 0,2 masse solari entro una distanza di almeno 2.000 volte la distanza media tra la Terra e il Sole (Unità Astronomica – UA). Questa assenza di un compagno significativo su una scala così vasta rafforza ulteriormente la classificazione di questo buco nero come un vero “solitario” cosmico.

Sebbene questa possa rappresentare la prima conferma inequivocabile di un buco nero solitario individuato attraverso il fenomeno della microlente gravitazionale, gli scienziati ritengono che l’Universo dovrebbe pullulare di questi oggetti invisibili che vagano senza compagni attraverso le galassie. La formazione di buchi neri da stelle singole al termine della loro evoluzione è un processo astrofisico ben consolidato, e non vi è alcuna ragione teorica per cui la maggior parte di essi debba necessariamente trovarsi in sistemi binari.

La rarità della loro individuazione risiede proprio nella loro natura intrinsecamente oscura e nella bassa probabilità che si allineino casualmente con una stella di fondo in modo da produrre un evento di microlensing osservabile dalla Terra. Questa scoperta pionieristica apre nuove prospettive per la ricerca di questa popolazione elusiva di buchi neri solitari, fornendo indizi cruciali sulla loro abbondanza, distribuzione e sul loro ruolo nell’evoluzione galattica.

La ricerca è stata pubblicata su The Astrophysical Journal.

Brad Smith: il 3° individuo a comunicare con Neuralink nonostante la SLA

0
Brad Smith: il 3° individuo a comunicare con Neuralink nonostante la SLA
Brad Smith: il 3° individuo a comunicare con Neuralink nonostante la SLA
Migliori casinò non AAMS in Italia

Una straordinaria testimonianza del potenziale trasformativo della tecnologia e dell’intelligenza artificiale si manifesta nel caso di Brad Smith, il terzo individuo a ricevere un impianto cerebrale sviluppato da Neuralink.

Affetto da sclerosi laterale amiotrofica (SLA) non verbale, Brad ha ora riacquistato la capacità di comunicare attraverso la propria voce, un risultato reso possibile dalla sofisticata integrazione dell’interfaccia neurale con sistemi di intelligenza artificiale avanzata.

Brad Smith: il 3° individuo a comunicare con Neuralink nonostante la SLA
Brad Smith: il 3° individuo a comunicare con Neuralink nonostante la SLA

La testimonianza di Brad Smith: gratitudine e speranza oltre la sclerosi laterale amiotrofica

In un toccante video condiviso sulla piattaforma X, Brad Smith ha espresso la sua profonda gratitudine e il suo ritrovato senso di speranza. Pur riconoscendo la dura realtà della sua condizione, ha dichiarato con emozione la sua felicità, affermando che “Dio ha ascoltato le sue preghiere” e che “la vita è bella“. Brad ha condiviso il suo difficile percorso con la SLA, una malattia neurodegenerativa progressiva che lo ha privato gradualmente delle sue capacità motorie e comunicative. L’opportunità di partecipare alla sperimentazione clinica PRIME di Neuralink e di ricevere l’impianto cerebrale ha rappresentato per lui una fonte di speranza inimmaginabile, aprendo nuove prospettive per la sua interazione con il mondo.

Neuralink, l’azienda fondata dal visionario Elon Musk, aveva precedentemente annunciato in un post sul proprio blog nel gennaio scorso l’esistenza di tre individui dotati di “telepatia” grazie alla loro tecnologia, identificando uno di essi come “Brad“.

Il post specificava che tutti e tre i partecipanti allo studio, inclusi Noland e Alex (affetti da paralisi a causa di lesioni del midollo spinale – SCI) e Brad (a causa della SLA), sono completamente incapaci di muovere braccia e gambe. Questi volontari hanno scelto di partecipare allo studio PRIME (Precise Robotically Implanted Brain-Computer Interface), una sperimentazione clinica progettata per dimostrare la sicurezza e l’utilità del dispositivo Link nella vita quotidiana di persone affette da paralisi severa.

La condizione di Brad Smith era particolarmente grave, essendo completamente incapace di parlare o di muovere qualsiasi parte del corpo ad eccezione dei minimi movimenti degli angoli della bocca e degli occhi. In questo contesto di grave limitazione fisica e comunicativa, la capacità di poter nuovamente “parlare” con la propria voce, resa possibile dall’impianto cerebrale Neuralink interfacciato con l’intelligenza artificiale, rappresenta un progresso straordinario.

Questa tecnologia innovativa ha bypassato le vie neurali danneggiate dalla SLA, permettendo a Brad di esprimere i propri pensieri e le proprie emozioni in un modo che era diventato inaccessibile, aprendo un nuovo capitolo nella sua interazione con i propri cari e con il mondo circostante. La sua testimonianza incarna la promessa di questa tecnologia nel restituire dignità e possibilità di comunicazione a persone affette da gravi disabilità.

La voce di Brad rinasce grazie all’intelligenza artificiale

Nel toccante video condiviso sulla piattaforma X, Brad Smith ha sottolineato la sua completa dipendenza dall’impianto cerebrale Neuralink come strumento primario per ogni forma di comunicazione. Ha inoltre rivelato un dettaglio straordinario riguardo alla realizzazione del video stesso: l’intero processo, incluso il controllo del mouse del suo MacBook Pro, è stato reso possibile grazie all’interfaccia cervello-computer (BCI) fornita dalla tecnologia Neuralink.

Un elemento particolarmente commovente della testimonianza di Brad è stata la rivelazione che la voce udibile nel video è la sua voce autentica, riportata in vita grazie alle capacità dell’intelligenza artificiale. Questa straordinaria impresa tecnologica è stata realizzata attraverso la clonazione vocale, un processo che ha utilizzato registrazioni audio effettuate da Brad prima che la progressione della SLA lo privasse completamente della capacità di parlare. In questo modo, la tecnologia non solo gli ha restituito la possibilità di comunicare, ma gli ha anche permesso di farlo con la sua identità vocale unica, un prezioso legame con il suo passato.

Nel condividere l’impatto trasformativo che Neuralink ha avuto sulla sua esistenza, Brad ha offerto una sintetica ma incisiva panoramica del funzionamento della tecnologia, intrecciandola con il racconto personale del suo progressivo deterioramento fisico dovuto alla SLA: “Ho la SLA, una malattia davvero strana che uccide i motoneuroni che controllano i muscoli, ma non colpisce la mente”, ha spiegato con lucidità.

Descrivendo la sua personale esperienza con la malattia, ha ripercorso i primi segnali, a partire da una lesione alla spalla che inaspettatamente non guariva, fino alla sua attuale condizione di completa immobilità. Con toccante onestà, ha descritto la sua dipendenza totale da un respiratore per poter continuare a vivere e respirare, sottolineando il profondo isolamento comunicativo imposto dalla malattia. In questo contesto di totale paralisi, la tecnologia Neuralink si presenta non solo come un ausilio, ma come un vero e proprio ponte verso il mondo esterno, restituendo a Brad la preziosa capacità di esprimere i propri pensieri e di connettersi con gli altri.

Un nuovo mondo di comunicazione

Prima di ricevere l’impianto cerebrale Neuralink, la principale modalità di interazione di Brad Smith con il mondo digitale avveniva attraverso un sistema di controllo oculare. Tuttavia, questa tecnologia presentava delle limitazioni significative, funzionando in modo ottimale solo in ambienti scarsamente illuminati. Con una punta di ironia, Brad ha scherzosamente paragonato la sua situazione a quella di Batman, confinato in una sorta di “Batcaverna” per poter comunicare efficacemente.

Neuralink mi permette di uscire e ignorare i cambiamenti di luce“, ha entusiasticamente dichiarato Brad, sottolineando uno dei benefici immediati e tangibili della tecnologia. Ha poi fornito una spiegazione concisa del funzionamento dell’impianto: “L’impianto è nella mia corteccia motoria, la parte del cervello che controlla i movimenti del corpo“. Un’immagine allegata mostrava la discreta dimensione del dispositivo impiantato, paragonabile a quella di una pila di cinque monete da 25 centesimi di dollaro USA.

Brad ha descritto il processo di impianto, spiegando come il dispositivo abbia sostituito una piccola porzione del suo cranio. I sottili fili, contenenti i numerosi elettrodi, sono stati inseriti con estrema precisione nel suo cervello da un robot avanzato, penetrando per pochi millimetri ed evitando accuratamente i vasi sanguigni. Questa meticolosa procedura ha minimizzato il rischio di emorragie, rendendo l’intervento sorprendentemente sicuro.

Una volta impiantato e connesso, il dispositivo Neuralink comunica in modalità wireless tramite Bluetooth con un computer esterno. Secondo la spiegazione di Brad, è il computer a eseguire “gran parte dell’elaborazione” dei segnali neurali captati dall’impianto. Successivamente, ha condiviso un video che visualizzava la mole di dati grezzi provenienti dai 1.024 elettrodi integrati nel suo cervello, offrendo uno sguardo affascinante sull’attività neurale tradotta in informazioni digitali.

Grazie a questi dati e alla sofisticata tecnologia, Brad è in grado di comunicare attivamente attraverso il computer, dedicando tempo e impegno all’addestramento del sistema. Questo processo di apprendimento macchina coinvolge il movimento di un cursore sullo schermo attraverso i suoi pensieri e la sua intenzione. Consapevole delle proprie esigenze specifiche, Brad ha anche sviluppato funzionalità personalizzate per semplificare la comunicazione e l’elaborazione dei dati.

Ho creato una tastiera utilizzando la tastiera accessibile del Mac per rendere alcuni tasti facili da usare“, ha spiegato Brad, illustrando la sua proattività nell’adattare la tecnologia alle sue limitazioni fisiche: “Funzioni come seleziona tutto, copia, incolla, annulla e modi per navigare nella pagina sono tutte davvero utili. E posso usare la barra degli strumenti e alcune scorciatoie”.

Brad ha evidenziato una delle sfide più frustranti imposte dalla SLA: la velocità del pensiero che supera di gran lunga la lentezza con cui può esprimersi attraverso mezzi alternativi. Per affrontare questo ostacolo, ha collaborato strettamente con il team di Neuralink per sviluppare un’innovativa applicazione di chat. Questa applicazione sfrutta la potenza dell’intelligenza artificiale per “ascoltare” il flusso della conversazione in corso e generare in tempo reale una serie di opzioni di risposta predefinite, che Brad può selezionare per esprimere i propri pensieri.

Usa Grok 3 e un clone AI della mia vecchia voce per generare opzioni da dire“, ha specificato Brad, descrivendo l’integrazione di modelli linguistici avanzati e della sua voce clonata: “Non è perfetto, ma mi tiene in contatto con la conversazione e mi suggerisce delle idee fantastiche“. Ha poi condiviso un aneddoto illuminante sull’efficacia del sistema: “Un mio amico mi ha chiesto idee per la sua ragazza, che ama i cavalli. Ho scelto l’opzione che gli diceva con la mia voce di regalarle un mazzo di carote. Che idea creativa e divertente. Stiamo anche lavorando a un modo più veloce per digitare con il cursore”.

In definitiva, Brad ha riassunto la sua esperienza con Neuralink definendola “fantastica“, sottolineando come la tecnologia abbia significativamente migliorato la sua qualità di vita. Ha espresso la sua gratitudine per essere coinvolto in un progetto con il potenziale di aiutare innumerevoli altre persone affette da disabilità simili.

Non fraintendetemi, la SLA fa ancora davvero schifo, ma io sto parlando del quadro generale. Questo è ciò che ho imparato“, ha concluso Brad con una profonda riflessione personale: “Dio ama me e la mia famiglia. Ha risposto alle nostre preghiere in modi inaspettati. Ha benedetto i miei figli e la nostra famiglia. Quindi, sto imparando ad avere fiducia che Dio sappia quello che fa”.

Rivolgendosi poi direttamente alla moglie Tiffany e ai suoi figli, ha affermato con convinzione: “Il quadro generale è che sono felice. Tiffany è la persona più straordinaria che abbia mai conosciuto e potrò trascorrere l’eternità con lei. I miei figli stanno bene, soprattutto date le circostanze. E posso controllare il computer con la telepatia. La vita è bella”. La sua testimonianza potente e commovente incarna la promessa della tecnologia non solo come strumento di comunicazione, ma anche come fonte di speranza e di rinnovata connessione con la vita.

Per maggiori informazioni visita il sito ufficiale di Neuralink.

Universo 25, o la società del benessere

0
Universo 25, i pericoli dell'eccessivo benessere
Universo 25, i pericoli dell'eccessivo benessere
Migliori casinò non AAMS in Italia

Universo 25 fu una vera e propria rapprentazione pratica dell’Utopia, realizzata per scopi di studio.

Wikipedia alla voce Utopia, tra le altre cose, riporta:
Le utopie socialista e comunista generalmente ruotano attorno a una distribuzione paritaria dei beni, spesso con la totale abolizione del denaro, e con cittadini che fanno un lavoro che apprezzano e che è svolto per il bene comune in quanto realizzazione della loro essenza primaria, e che lascia loro ampi margini di tempo per coltivare arti e scienze“.

Insomma, l’Utopia è un mondo perfetto in cui tutti fanno la loro parte per la società, nessuno è più ricco o più povero degli altri e tutti hanno tutto ciò di cui hanno bisogno. In un mondo siffatto non esistono pericolo naturali, niente predatori, niente malattie; non esiste invidia né qualcuno cerca di prevaricare gli altri. Insomma, il paradiso in Terra.

Ma come si svilupperebbe una società simile, perfetta, paritaria e senza reali problema di lotta per la sopravvivenza?

Nel 1968, il ricercatore John Calhoun, un etologo statunitense, effettuò numerosi studi sulla densità di popolazione e sui suoi effetti sul comportamento. Il lavoro che fece più scalpore e per il quale Calhoun raggiunse la popolarità fu il cosiddetto “Universo 25” o “Universo del topo“.

L’esperimento ideato da Calhoum iniziò nel luglio 1968, presso il National Institute of Health di Bethesda, Maryland, quando quattro coppie di topi furono introdotte nell’habitat. L’habitat era una struttura quadrata in metallo di 1,4 metri per lato, con un’altezza di 2,7 metri. Ogni lato aveva quattro gruppi di quattro “tunnel” verticali in rete metallica. I “tunnel” davano accesso a cassette di nidificazione, tramogge e distributori d’acqua. Non mancavano cibo, acqua o materiale per la nidificazione. Non c’erano predatori. L’unica avversità era il limite di spazio.

I topi scelti come cavie furono i migliori esemplari disponibili al NIMH e furono inseriti in un mondo dove non era necessario alcuno sforzo per difendersi dai predatori o per procurarsi il cibo, completamente sicuro dall’insorgere di malattie e da altri pericoli.

Universo 25, così si chiamava la gabbia, aveva uno spazio orizzontale libero e tante nicchie disposte nei muri verticali, che potevano essere raggiunte dai topi grazie a delle griglie in ferro saldate sulle pareti. Le nicchie erano collegate tra loro da 4 tunnel ed erano complessivamente 256, un numero di nidi sufficienti a ospitare (teoricamente) 3.800 topi in tutto.

La gabbia veniva pulita ogni 4 settimane e la vita al suo interno era un vero e proprio paradiso teorico.

Niente gatti, niente trappole, niente caldo o freddo, e nemmeno il rischio di finire vivisezionati come cavie od oggetto di operazioni con bisturi e siringhe. Nulla di tutto questo. L’unico impegno richiesto ai topi era quello di godersi la vita, mangiare e riprodursi.

La popolazione, dopo un periodo di circa 3 mesi di adattamento, comincia a raddoppiarsi ogni 55 giorni. Prima 20 topi, poi 40, poi 80 e così via. In seguito la curva di crescita cala un po’ ma la popolazione raggiunge le 620 unità nell’Agosto del 1969, un anno dopo l’inizio dell’esperimento.

Dopo 560 giorni, quindi dopo circa un anno e mezzo dal momento in cui furono introdotte quelle prime 4 coppie di topi, Universo 25 raggiunge il massimo della sua popolazione con 2.200 esemplari.

A quel punto, all’interno della societa topesca, topi vivi superano di molto i ruoli sociali disponibili, e si iniziano a notare delle anomalie comportamentali che diventano via via più marcate.

Alcuni maschi iniziano ad attaccare femmine e neonati. Altri diventano pansessuali, tentando di avere rapporti con tutti i topi disponibili. Le femmine rimaste sole, in pericolo perché minacciate dai maschi, si rifugiano nei nidi più alti portando con sé la prole, alla quale però non sono in grado di provvedere perché impegnate nella difesa del territorio. La stragrande maggioranza dei piccoli viene lasciata morire e nessuno si cura di loro.

Altri esemplari all’interno della gabbia, definiti da Calhoun “quelli Belli”, non si preoccupano di nulla se non di mangiare e lisciarsi il pelo, e sono gli unici che non riportano ferite da combattimenti con altri individui. I gruppi di topi rimasti che girano all’interno della gabbia sono sproporzionati, a volte con 1 solo maschio per 10 femmine oppure di 20 maschi e 10 femmine.

In questa situazione, violenza, pansessualismo e persino il cannibalismo (nonostante il cibo fosse abbondantemente disponibile), portarono al totale collasso l’utopia di Universo 25.

Dopo 600 giorni la popolazione per la prima volta inizia a calare, e l’ultima nascita risale al giorno 920. L’esperimento termina 5 anni dopo il suo inizio, nel 1973, con la società dei topi che è completamente estinta e l’ultimo topo è spirato.

La società di topi in cui non esistevano esigenze se non quelle di interazioni sociali era collassata, annientata dalla mancanza di ruoli sociali da impiegare a causa della sovrappopolazione, infine distrutta dai suoi stessi membri.

Nel 1973, Calhoun pubblicò la sua ricerca sull’Universo 25 dal titolo “Death Squared: The Explosive Growth and Demise of a Mouse Population”. La pubblicazione, per dirla in modo leggero, è un’intensa esperienza di lettura accademica che descrive il collasso della società causato da quello che viene definito “Fogna del comportamento”.

Tutto questo era un linguaggio poco accademico, ma perfettamente in grado di trasmettere in modo vivido il pensiero del suo creatore.

Le conclusioni che Calhoun trasse da questo esperimento furono che, quando tutto lo spazio disponibile è occupato e tutti i ruoli sociali sono occupati, la competizione e gli stress sperimentati dagli individui si traducono nella rottura totale dei comportamenti sociali complessi, che alla fine si tradurrà nell’estinzione della popolazione.

Secondo Calhoun, la morte della società si realizzò in due fasi: la “prima morte” e la “seconda morte“. La prima era caratterizzata dalla perdita di uno scopo nella vita oltre la mera esistenza: nessun desiderio di accoppiarsi, crescere giovani o stabilire un ruolo all’interno della società. Questa prima morte è stata rappresentata dalle vite apatiche dei belli, mentre la seconda morte è stata segnata dalla fine letterale della vita e dall’estinzione dell’Universo 25.

Estendendo le sue osservazioni su quelli belli, Calhoun affermò che i topi, similmente agli esseri umani, prosperano con un senso di identità e scopo nel mondo in generale, sostenendo che esperienze come tensione, stress, ansia e la necessità di sopravvivere rendono necessario il coinvolgimento nella società.

Quando si soddisfano tutti i bisogni e non esiste alcun conflitto, l’atto di vivere è spogliato dei suoi più essenziali elementi fisiologici di cibo e sonno. Secondo Calhoun:

  • Qui sta il paradosso di una vita senza lavoro né conflitti.
  • Quando ogni senso di necessità viene spogliato dalla vita di un individuo, la vita cessa di avere uno scopo.
  • L’individuo muore nello spirito.

Dal punto di vista di Calhoun, l’ascesa e la caduta dell’Universo 25 hanno dimostrato cinque punti fondamentali sui topi e sugli esseri umani:

    1. Il topo è una creatura semplice, ma deve sviluppare le abilità per il corteggiamento, l’educazione dei figli, la difesa del territorio e l’adempimento del ruolo personale sul fronte domestico e comunitario. Se tali abilità non si sviluppano, l’individuo non si riprodurrà né troverà un ruolo produttivo all’interno della società.
    2. Come con i topi, tutte le specie invecchiano e gradualmente si estinguono. Non c’è nulla che suggerisca che la società umana non sia incline agli stessi sviluppi che hanno portato alla scomparsa dell’Universo 25.
    3. Se il numero di individui qualificati supera il numero dei ruoli nella società, il caos e l’alienazione saranno i risultati inevitabili.
    4. Gli individui cresciuti in queste ultime condizioni non avranno alcun rapporto con il mondo reale. L’appagamento fisiologico sarà la loro unica spinta nella vita.
    5. Proprio come i topi prosperano su una serie di comportamenti complessi, l’interesse per gli altri sviluppato nelle capacità e nelle comprensioni umane postindustriali è vitale per la sopravvivenza dell’uomo come specie. La perdita di questi attributi all’interno di una civiltà potrebbe portare al suo collasso.

Nonostante le cupe parabole presentate nelle sue osservazioni, Calhoun non stava cercando di implicare che l’umanità fosse diretta verso un simile percorso verso l’estinzione. Nonostante i paralleli tra la caduta dell’Universo 25 e alcuni dei mali della società, gli umani – in quanto specie più sofisticata – hanno la saggezza e l’ingegnosità per invertire tali tendenze.

Dopo tutto, gli esseri umani hanno scienza, tecnologia e medicina, che danno all’umanità la capacità di:

  • Individuare la causa
  • Evita i disastri
  • Guarire ferite e malattie
  • Esplorare nuovi ambienti

Calhoun ha sottolineato che l’Universo 25 non era un habitat naturale, poiché al suo interno c’era abbondanza di cibo e lussi e mantenuto libero da predatori e malattie.

Speranza per l’umanità

Tuttavia, Calhoun temeva che l’umanità possa cadere in un simile destino nel caso in cui le città diventassero sovraffollate e la popolazione aumenti oltre la capacità del mercato del lavoro.

Per aiutare la società a trovare modi per impedire che ciò accada, trascorse parte della sua successiva carriera esplorando diverse forme di progresso umano, che ha esteso al concetto di colonizzazione spaziale. A tal fine, formò un team accademico chiamato Space Cadets. Il suo scopo era promuovere l’idea che gli esseri umani creino colonie su altri pianeti.

Calhoun si concentrò anche sulla pianificazione urbana, che riteneva fosse la chiave per evitare tracollo comportamentale dell’Universo 25. Credeva che il design delle città sia parzialmente responsabile dei modi in cui gli abitanti interagiscono tra loro e che le misure correttive dovrebbero essere prese in tandem con lo sviluppo per mantenere una comunicazione positiva tra le persone.

Come parte del suo sforzo per promuovere concetti alternativi di progettazione della città, armeggiò con il modello dell’utopia dei roditori con oltre 100 ulteriori universi nei successivi due decenni. Il suo lavoro in questo settore è stato molto apprezzato dai consigli di urbanistica negli Stati Uniti e all’estero.

Non importa quanto sofisticato l’uomo creda di essere, una volta che il numero di individui in grado di ricoprire un ruolo sociale supera largamente il numero di ruoli disponibili, la conseguenza inevitabile è la distruzione dell’organizzazione sociale”.

Fonti: Wikipedia; The Sentinel; https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1644264/