I ricercatori dell’Università statale di San Paolo hanno sviluppato un nuovo metodo, denominato Entanglement di Fisher, per quantificare l’entanglement quantistico, sfidando le teorie tradizionali e facendo potenzialmente avanzare l’informatica quantistica. Questo studio ha sottolineato l’importanza dell’entanglement nel miglioramento della potenza di elaborazione e ha offerto approfondimenti sui limiti dell’informatica classica, evidenziando il rapido progresso della tecnologia quantistica guidata da aziende come Google e IBM.
Entanglement di Fisher
Il metodo, denominato “entanglement di Fisher”, si basa sul concetto di informazione quantistica di Fisher, una misura della quantità di informazioni che possono essere estratte da un sistema quantistico.
L’entanglement di Fisher è in grado di quantificare l’entanglement in modo più preciso e versatile rispetto ai metodi esistenti, e si applica a un’ampia gamma di sistemi quantistici, inclusi quelli con molti qubit.
Il nuovo metodo potrebbe avere importanti applicazioni in diversi campi della fisica, tra cui la computazione quantistica, la simulazione di sistemi quantistici complessi e la comunicazione quantistica.
Entanglement di Fisher: i vantaggi del nuovo metodo
- Più preciso: L‘entanglement di Fisher è in grado di catturare sfumature dell’entanglement che i metodi esistenti non possono.
- Più versatile: Può essere applicato a un’ampia gamma di sistemi quantistici.
- Più efficiente: L’entanglement di Fisher può essere calcolato più facilmente rispetto ad altri metodi.
Lo sviluppo del nuovo metodo è un passo avanti significativo nella fisica quantistica e potrebbe portare a nuove scoperte e applicazioni in questo campo affascinante.
L’entanglement è un fenomeno della fisica in cui due o più sistemi vengono interconnessi in modo tale da rendere impossibile descrivere separatamente i loro stati quantistici. Quando i sistemi interagiscono e si intrecciano, mostrano forti correlazioni. Questo concetto è cruciale per l’informatica quantistica, poiché il grado di entanglement influenza direttamente l’ottimizzazione e l’efficienza di un supercomputer. Più i sistemi sono intrecciati, migliori saranno le prestazioni dei computer quantistici.
Uno studio condotto da ricercatori affiliati al Dipartimento di Fisica dell’Istituto di Geoscienze e Scienze Esatte dell’Università Statale di San Paolo (IGCE-UNESP) a Rio Claro, in Brasile, ha testato un nuovo metodo per quantificare l’entanglement e le condizioni per la sua massimizzazione. Le applicazioni includono l’ottimizzazione della costruzione di un computer quantistico. Lo studio è pubblicato su Physical Review B.
Entanglement di Fisher e scomposizione del teorema di Hellmann-Feynman
Lo studio ha mostrato come il teorema di Hellmann-Feynman venga meno in condizioni specifiche. Il teorema descrive la dipendenza dell’energia del sistema da un parametro di controllo ed è una parte fondamentale della meccanica quantistica utilizzata in tutte le discipline, dalla chimica quantistica alla fisica delle particelle.
Valdeci Mariano de Souza, professore dell’IGCE-UNESP, ha spiegato: “In poche parole, proponiamo un analogo quantistico del parametro di Grüneisen ampiamente utilizzato in termodinamica per esplorare la temperatura finita e i punti critici quantistici. Nel nuovo metodo, il parametro quantistico di Grüneisen quantifica l’entanglement, o entropia di von Neumann, in relazione a un parametro di controllo, che può essere un campo magnetico o un certo livello di pressione, per esempio. Utilizzando questo metodo, abbiamo dimostrato che l’entanglement sarà massimizzato in prossimità dei punti critici quantistici e che il teorema di Hellmann-Feynman crolla in un punto critico”.
Per Souza, i risultati contribuiscono alla ricerca di base in fisica e potrebbero anche avere un impatto diretto sull’informatica quantistica. Ricordando la previsione del 1965 del cofondatore di Intel Gordon Moore secondo cui il numero di transistor utilizzati nei computer convenzionali sarebbe raddoppiato ogni due anni. Souza ha affermato che questa rapida crescita nella potenza dei computer classici non può durare, mentre i recenti progressi tecnologici stanno consentendo all’informatica quantistica di progredire a passi da gigante con Google e IBM in testa.
Nell’informatica convenzionale, per elaborare le informazioni viene utilizzato il linguaggio binario in termini di zero e uno. La meccanica quantistica, invece, sovrappone gli stati e aumenta enormemente la capacità di elaborazione. Da qui il crescente interesse per la ricerca sull’entanglement quantistico.
Lo studio è stato proposto e progettato da Souza, e importanti contributi sono stati apportati da Lucas Squillante, un ricercatore post-dottorato da lui supervisionato. Gli altri collaboratori sono stati Antonio Seridonio (UNESP Ilha Solteira), Roberto Lagos-Monaco (UNESP Rio Claro), Luciano Ricco (Università dell’Islanda) e Aniekan Magnus Ukpong (Università di KwaZulu-Natal, Sud Africa).