AntiFake: lo strumento che ti difende dalle truffe vocali deepfake

Un nuovo strumento, AntiFake, potrebbe aiutare a prevenire le truffe vocali deepfake sviluppate attraverso l’intelligenza artificiale. I truffatori possono utilizzare l’AI per creare imitazioni deepfake delle voci dei familiari o quelle di personaggi famosi che promettono di regalare l’ultimo iphone o dei soldi.

Antifake

AntiFake: la risposta alle truffe vocali deepfake

La maggior parte delle difese deepfake si limita a scansionare i file video o audio esistenti per cercare di vedere se sono reali. AntiFake è diverso. Ha lo scopo di proteggere le registrazioni delle nostre voci in modo che i modelli di intelligenza artificiale deepfake abbiano più difficoltà a imparare a imitarle.

Questo potrebbe rendere più difficile per l’intelligenza artificiale creare voci per i video deepfake. Potrebbe anche rendere più difficile la creazione di voci deepfake per le truffe telefoniche. In alcune di queste truffe, i truffatori hanno utilizzato voci deepfake per chiamare i familiari di qualcuno chiedendo soldi. In altri, i truffatori hanno utilizzato la stessa tecnica per entrare nei conti bancari a protezione vocale delle persone.

Antifake

Abbiamo visto che gli aggressori utilizzano strumenti di intelligenza artificiale per condurre frodi finanziarie o ingannare la nostra famiglia e i nostri amici”, ha affermato Zhiyuan Yu: “Questo è un rischio reale:” Yu è ingegnere informatico presso la Washington University di St. Louis, Missouri. Ha lavorato con Ning Zhang dell’università per costruire AntiFake.

Gli scienziati informatici hanno descritto la loro ricerca alla Conferenza ACM del 2023 sulla sicurezza informatica e delle comunicazioni, che si è tenuta a Copenhagen, in Danimarca, lo scorso novembre.

Usare l’AI in modo responsabile

AntiFake integra il lavoro passato di altri gruppi che proteggono le immagini dalle imitazioni deepfake dell’intelligenza artificiale: “Come possiamo garantire che la società utilizzi l’intelligenza artificiale in modo responsabile?”, si è chiesto Zhang: “Questo è l’obiettivo finale del nostro lavoro”.

All’inizio dell’aprile 2024, questo strumento ha vinto un concorso. Il gruppo di Ning Zhang è stato uno dei quattro a condividere il primo premio di 35.000 dollari in un lavoro di clonazione vocale gestito dalla Federal Trade Commission degli Stati Uniti. Questo concorso ha chiesto ai ricercatori modi creativi per aiutare a proteggere le persone dalle truffe che utilizzano voci deepfake.

Tutto quello che serve per creare una voce deepfake è l’audio o il video reale di qualcuno che parla. Spesso, un modello di intelligenza artificiale può imparare a imitare la voce di qualcuno basandosi su soli 30 secondi circa di discorso. Lo fa creando qualcosa chiamato incorporamento.

Antifake

Questa è fondamentalmente una “serie di numeri”, ha spiegato Yu. I numeri sono come un indirizzo all’identità di chi parla in una vasta mappa matematica di tutte le voci. Le voci che sembrano simili si trovano più vicine tra loro in questa mappa.

Le persone, ovviamente, non usano questo tipo di mappa per riconoscere le voci. Prestiamo più attenzione ad alcune frequenze delle onde sonore e meno attenzione ad altre frequenze. Il modello AI utilizza tutte queste frequenze per creare buoni incorporamenti.

Come funziona AntiFake

AntiFake protegge le registrazioni vocali aggiungendo rumore alle frequenze a cui le persone prestano meno attenzione. Gli ascoltatori possono ancora capire il discorso. Quel rumore, tuttavia, può compromettere la capacità di un modello di intelligenza artificiale di creare un buon radicamento della voce. Quell’intelligenza artificiale finisce per creare un indirizzo nella parte sbagliata della mappa. Pertanto, qualsiasi deepfake generato con questo incorporamento non suonerà come la voce originale.

Le persone possono sentire il rumore di fondo in un file protetto con AntiFake. Non è l’ideale. Ma l’aggiunta di questo livello di rumore consente allo strumento di proteggersi da un’ampia varietà di diversi attacchi deepfake. Se sapessero quale modello di intelligenza artificiale utilizzerà un truffatore per imitare la voce di qualcuno, il suo team potrebbe progettare una protezione dal rumore più specifica e più sottile: suoni che le persone non possono sentire.

Per testare AntiFake, il team di Yu si ha simulato un deepfake. Gli scienziati hanno utilizzato cinque diversi modelli di intelligenza artificiale deepfake per creare 60.000 file vocali che imitavano persone diverse.

Successivamente, hanno verificato quali deepfake potrebbero ingannare gli ascoltatori umani e i sistemi di autenticazione vocale (come quelli per alcuni conti bancari). I ricercatori hanno selezionato 600 clip deepfake che hanno ingannato sia le persone che le macchine.

Il team ha aggiunto la protezione AntiFake ai 600 clip vocali su cui si basavano i deepfake. Gli scienziati hanno poi rispedito i file protetti attraverso i cinque modelli di intelligenza artificiale deepfake. Questa volta, quei modelli non hanno fatto un buon lavoro. Oltre il 95% dei nuovi campioni di deepfake non inganneranno più le persone o i sistemi di autenticazione vocale.

Antifake

Le banche e altre società stanno effettivamente utilizzando i sistemi di autenticazione vocale utilizzati per testare i file protetti da AntiFake, osserva Shimaa Ahmed: “È stato molto bello“. Ahmed è un esperto di sicurezza informatica presso l’Università del Wisconsin-Madison e non ha preso parte alla creazione di AntiFake.

È importante applicare AntiFake a un file vocale per proteggerlo. Quindi la tecnica non può proteggere l’audio che qualcuno ha già pubblicato o condiviso. Inoltre, non può impedire a un truffatore di registrare segretamente qualcuno mentre parla. Ma è un nuovo strumento interessante per difendersi dai deepfake, il che è un compito “molto impegnativo”. Le persone hanno bisogno di tutto l’aiuto possibile per proteggere la propria identità online.

Più letti nella settimana

Perché l’Homo sapiens è sopravvissuto a tutte le altre specie umane?

Gli Homo sapiens sono gli unici rappresentanti sopravvissuti dell'albero...

Siamo davvero andati sulla Luna? Il complotto lunare

Sono trascorsi oltre 50 anni dal giorno in cui la missione Apollo 11 sbarcò sulla Luna. Sono stati realizzati film, documentari, scritti libri ed esaminate le rocce

Ossigeno oscuro: straordinario ritrovamento a 4000 metri

La recente scoperta di un “ossigeno oscuro” prodotto da...

New Horizons: lo spazio profondo è davvero completamente buio

Quattro anni fa, gli astronomi hanno avuto una spettacolare...

Rinvenuta grotta lunare che potrebbe ospitare gli astronauti – video

Mentre la NASA e altre agenzie spaziali pianificano una...

In Tendenza

Paradosso di Fermi: la realtà non è quella che ci appare

Tra i tentativi più fantasiosi di rispondere al paradosso di Fermi l'ipotesi del planetario vorrebbe che tutti noi fossimo immersi in una simulazione perfetta di una realtà virtuale.

Deserto di Atacama: miracoloso evento dopo ben 10 anni

Il deserto di Atacama, situato nel nord del Cile,...

Voyager 2, l’eliopausa e, oltre, l’infinito

La Voyager 2 opera attualmente a temperature di circa 3,6 gradi Celsius, e ogni anno che passa la navicella produce 4 watt in meno di energia

Scimpanzé: inaspettato come il 14% delle interazioni siano gesti

La comunicazione è una delle caratteristiche più distintive degli...

Reattore nucleare a prova di fusione: incredibile da 105 MW

La Cina ha recentemente raggiunto un traguardo significativo nel...

Cheyava Falls: la roccia marziana con potenziali segni di vita

Una roccia caratterizata da diverse venature ha catturato l'attenzione...

Blazar S5 1803+78: scoperta affascinante variabilità ottica

I blazar sono tra gli oggetti più enigmatici e...

Articoli correlati

Popular Categories