L’importanza della rinormalizzazione nella fisica moderna

La tecnica della rinormalizzazione rappresenta oggi uno strumento essenziale per lo studio di molti fenomeni fisici.

0
6894
Indice

Negli anni Quaranta, i fisici si trovarono ad affrontare delle situazioni che andavano al di là della realtà, almeno com’era fino ad allora conosciuta. Il concetto di particella cominciava a essere sostituito da quello di campo – un’entità in espansione e ondulante che riempie tutti gli spazi come un oceano. Un’increspatura di un campo poteva essere determinata ora da un elettrone, ora da un fotone, e tutti gli eventi elettromagnetici sembravano poter essere spiegati dall’interazione tra queste particelle.

Sorgeva però il problema della consistenza della teoria, sulla cui affidabilità gli stessi scienziati mostravano forti perplessità. Per evitare delle previsioni fasulle, gli scienziati hanno dovuto fare ricorso a una particolare tecnica, chiamata rinormalizzazione, attraverso la quale si procede a un oculato occultamento di quantità infinite. Questo artificio sembrava funzionare, ma gli stessi ideatori della teoria sospettavano che si trattasse di un vero e proprio castello di carta, poggiato su una base matematica alquanto azzardata.

Lo stesso Richard Feynmann, definendo stupido questo processo, affermò che essersi affidati a questo trucco aveva tolto ogni possibilità di dimostrare che la teoria dell’elettrodinamica quantistica fosse autoconsistente.

Una sorta di giustificazione all’utilizzo di questo meccanismo arrivò qualche decennio dopo, da una branca della fisica non correlata al fenomeno in questione. I fisici impegnati nello studio della magnetizzazione scoprirono che, di fatto, la rinormalizzazione non riguardava solo gli infiniti. Essa si riferisce invece alla separazione dell’universo in sezioni di dimensioni indipendenti, una prospettiva che oggi afferisce a molte sfaccettature della fisica.

Secondo David Tong, un teorico dell’Università di Cambridge, la rinormalizzazione rappresenta senza dubbio il più importante progresso della fisica degli ultimi cinquanta anni.

Sulla base delle misure, è possibile affermare che le teorie dei campi sono le teorie di maggiore successo in tutto lo scenario scientifico. La teoria dell’elettrodinamica quantistica (Quantum ElectroDynamics – QED), uno dei pilastri del Modello Standard della fisica delle particelle, ha ipotizzato delle previsioni teoriche, che poi sono state verificate sperimentalmente, con una precisione di una parte su un miliardo.

C’è da dire che tra gli anni 30 e 40 del secolo scorso, il futuro della teoria non era abbastanza certo. Spesso l’approssimazione del comportamento complesso dei campi forniva delle risposte prive di senso, che portavano i teorici a non attribuire nessun futuro certo per quel tipo di teorie.

Feynmann, e altri scienziati, cercavano delle nuove prospettive – forse qualcuna che mettesse le particelle al centro del discorso – ma si ritrovavano sempre con lo stesso risultato. Fu trovato che le equazioni della QED fornivano delle buone previsioni, solo se messe a posto con l’imperscrutabile procedura della rinormalizzazione.

Si verifica più o meno una situazione del genere: quando un calcolo di QED conduce a una somma infinita, la si taglia! La parte che riguarda l’infinito diventa un coefficiente – un numero fisso posto davanti la somma. Questo coefficiente viene quindi sostituito da una misura finita, effettuata in laboratorio. E quindi, si lascia che la somma, aggiustata, vada all’infinito.

Questo artificio ebbe, naturalmente, diversi oppositori, tra i quali, forse il più famoso è Paul Dirac, il quale affermò che non si trattava sicuramente di matematica sensata.

Il nocciolo del problema – e probabilmente anche una parte della sua soluzione – può ricercarsi nel modo in cui i fisici hanno trattato la carica dell’elettrone.

Nello schema descritto sopra, la carica elettrica proviene dal coefficiente – quel valore che ingloba tutta la parte infinita nella fase di mescolamento matematico. Ai fisici che si interrogano sul significato fisico della rinormalizzazione, la QED suggerisce l’esistenza, per l’elettrone, di due cariche: una carica teorica, di valore infinito, e una carica misurata sperimentalmente, con un valore finito. È quindi probabile che l’interno dell’elettrone avesse una carica infinita. Ma in pratica, gli effetti quantistici di campo (che si possono vedere come una nuvola virtuale di particelle positive) hanno ricoperto l’elettrone, in modo che gli osservatori misurassero solo una porzione di carica totale.

Nel 1954, due fisici, Murray Gell-Mann e Francis Low, hanno concretizzato questa idea. Hanno collegato le due cariche degli elettroni con una carica efficace, che variava con la distanza. Man mano che ci si avvicina, ovvero più ci si addentra all’interno del manto elettronico positivo, si vede sempre una maggiore quantità di carica.

Il loro lavoro è stato il primo a legare il meccanismo della rinormalizzazione con l’idea di scala. In altre parole, i fisici quantistici avevano trovato la risposta giusta alla domanda sbagliata. Piuttosto che concentrarsi sugli infiniti, bisognava focalizzarsi di più sulla connessione tra la scala microscopica e quella macroscopica.

Astrid Eichhorn, una fisica della University of Southern Denmark, che utilizza la rinormalizzazione per svolgere ricerche sulle teorie relative alla gravità quantistica, la definisce come la versione matematica del microscopio. Viceversa, si può iniziare da un sistema microscopico e andare sempre verso dimensioni più piccole. È come una combinazione di un microscopio e di un telescopio.

Un secondo indizio è emerso dal mondo della materia condensata, dove i fisici si stavano chiedendo come un modello magnetico grezzo riuscisse a individuare i dettagli di certe trasformazioni. Il modello di Ising, costituito da poco più di una griglia di frecce di atomi, che possono puntare o verso il basso o verso l’alto, è tuttavia in grado di prevedere i comportamenti di magneti reali, con una precisione elevatissima.

A basse temperature, la maggior parte degli atomi si allinea, creando quindi una magnetizzazione del materiale. Con l’aumentare della temperatura, si ha una crescita del disordine atomico e, di conseguenza, una smagnetizzazione del reticolo. Esiste però un punto di transizione critico, in cui coesistono delle aree di atomi allineati di tutte le dimensioni. Fondamentalmente, le modalità con cui alcune quantità variano attorno a questo punto critico sono apparse identiche nel modello di Ising, nei magneti reali di materiali variabili, e persino in sistemi non direttamente correlati, come per esempio la transizione ad alta pressione, dove l’acqua non si distingue dal vapore. La scoperta di questo fenomeno, che i teorici hanno definito universalità, è stata considerata un evento alquanto bizzarro.

Solitamente, i fisici non trattano contemporaneamente oggetti di dimensioni molto diverse fra loro. Ma il comportamento universale attorno ai punti critici li ha costretti a considerare contemporaneamente tutte le scale di lunghezza.

Nel 1966, un ricercatore impegnato nel campo della materia condensata, Leo Kadanoff, ha capito come agire. Ha sviluppato una tecnica di blocco di spin, rompendo una griglia di Ising, troppo complessa per affrontare frontalmente i piccoli blocchi con poche frecce per ogni lato. Dopo aver calcolato l’orientazione media di un gruppo di frecce, ha sostituito l’intero blocco con quel valore. Ripetendo questo processo, ha affinato i dettagli fini del reticolo, con uno zoom sempre più ridotto, per controllare il comportamento generale del sistema.

Per finire, Ken Wilson – uno degli studenti di Gell-Mann, impegnato sia nel campo della fisica delle particelle che in quello della materia condensata – ha unificato le idee di Gell-Mann e Low con quelle di Kadanoff. Ha prodotto così il gruppo di rinormalizzazione, descritto per la prima volta nel 1971, con il quale trova una giustificazione ai calcoli torturati della QED e fornisce un valido ausilio per guardare a scale più grandi, tipo quelle dei sistemi universali. Il lavoro ha permesso a Wilson di vincere il Premio Nobel, e inoltre ha cambiato per sempre la fisica.

Secondo Paul Fendley, un teorico della materia condensata presso la University of Oxford, il modo migliore per concettualizzare il gruppo di rinormalizzazione di Wilson, è quello di pensarlo come una teoria delle teorie, che connette il mondo microscopico con quello macroscopico.

Si consideri una griglia magnetica. A livello microscopico, è facile scrivere un’equazione che colleghi due frecce adiacenti. Ma se si vuole estrapolare questa semplice equazione su un sistema che contiene miliardi di particelle, allora il compito diventa più arduo, anzi praticamente impossibile. Vuol dire che si sta pensando su scala sbagliata.

Il gruppo di rinormalizzazione di Wilson descrive una trasformazione da una teoria dei mattoni a una teoria delle strutture. Si parte da una teoria di piccoli elementi, supponiamo gli atomi di una palla da biliardo. Attivando il meccanismo matematico di Wilson, si ottiene una teoria correlata che descrive gruppi di quegli elementi – forse molecole delle palle da biliardo. Continuando con il processo di Wilson, si riduce lo zoom su raggruppamenti sempre più grandi – aggregati di molecole di palle da biliardo, settori di palle da biliardo e così via. Alla fine, sarà possibile calcolare qualcosa di interessante, come il percorso di una palla da biliardo.

L’effetto strabiliante del gruppo di rinormalizzazione è proprio questo: aiuta a identificare quali sono le quantità macroscopiche che conviene misurare e quali sono i dettagli microscopici che si possono ignorare. Adattando questo approccio alla fisica subatomica, la rinormalizzazione indica ai fisici quando possono trattare con un protone relativamente semplice, invece di preoccuparsi del groviglio di quark che lo compongono.

Il gruppo di rinormalizzazione di Wilson ha anche fornito una spiegazione alle difficoltà incontrate da Feynmann, ipotizzando che esse derivassero dal tentativo di capire il comportamento dell’elettrone da una distanza infinitamente piccola.

Un filosofo della fisica della Durham University, James Fraser, afferma che non ci si aspetta che tutte le teorie siano valide al di sotto di una certa scala. Ora i fisici sono consapevoli che tagliare matematicamente le somme e mescolare l’infinito, è il modo opportuno per fare un calcolo quando la teoria ha una dimensione inferiore alla griglia che la incorpora.

Il filosofo dice che il taglio si traduce in un’accettazione della nostra ignoranza su come procede un fenomeno.

In altre parole, la QED e il Modello Standard non sono in grado di dire, con esattezza, quale sia la vera carica dell’elettrone a partire da una distanza infinitamente piccola! Queste sono quelle che i fisici chiamano teorie efficaci, che funzionano bene al di sopra di range di distanze ben definiti. Scoprire cosa succede esattamente quando ci si può avvicinare ancora di più alle particelle, rappresenta uno dei principali obiettivi della fisica delle alte energie.

Oggi, lo stupido processo di Feynmann riveste in fisica la stessa importanza del calcolo, e il suo meccanismo rivela le ragioni per alcuni dei più grandi successi della disciplina, oltre che le sue attuali sfide. Nel corso della rinormalizzazione, alcuni complicati processi submicroscopici tendono a scomparire, senza comunque interferire sull’insieme generale del sistema.

Questi aspetto matematico mette in luce la tendenza della natura a suddividersi in mondi essenzialmente indipendenti. Quando gli ingegneri progettano un grattacielo, ignorano le molecole che costituiscono l’acciaio. I chimici analizzano i legami molecolari, ma non manifestano alcun interesse nei confronti dei quark e dei gluoni. La separazione dei fenomeni a seconda della lunghezza, così come quantificato dal gruppo di rinormalizzazione, ha permesso agli scienziati, nel corso dei secoli, di muoversi gradualmente da scale superiori a quelle inferiori, piuttosto che saltare tutte le scale contemporaneamente.

Fonte: quantamagazine.org