AntiFake: lo strumento che ti difende dalle truffe vocali deepfake

Un nuovo strumento, AntiFake, potrebbe aiutare a prevenire le truffe vocali deepfake sviluppate attraverso l'intelligenza artificiale. I truffatori possono utilizzare l'AI per creare imitazioni deepfake delle voci dei familiari o quelle di personaggi famosi che promettono di regalare l'ultimo iphone o dei soldi

2
97
Antifake
xr:d:DAFfFKYG4iE:2,j:44548432174,t:23040320

Un nuovo strumento, AntiFake, potrebbe aiutare a prevenire le truffe vocali deepfake sviluppate attraverso l’intelligenza artificiale. I truffatori possono utilizzare l’AI per creare imitazioni deepfake delle voci dei familiari o quelle di personaggi famosi che promettono di regalare l’ultimo iphone o dei soldi.

Antifake

AntiFake: la risposta alle truffe vocali deepfake

La maggior parte delle difese deepfake si limita a scansionare i file video o audio esistenti per cercare di vedere se sono reali. AntiFake è diverso. Ha lo scopo di proteggere le registrazioni delle nostre voci in modo che i modelli di intelligenza artificiale deepfake abbiano più difficoltà a imparare a imitarle.

Questo potrebbe rendere più difficile per l’intelligenza artificiale creare voci per i video deepfake. Potrebbe anche rendere più difficile la creazione di voci deepfake per le truffe telefoniche. In alcune di queste truffe, i truffatori hanno utilizzato voci deepfake per chiamare i familiari di qualcuno chiedendo soldi. In altri, i truffatori hanno utilizzato la stessa tecnica per entrare nei conti bancari a protezione vocale delle persone.

Antifake



Abbiamo visto che gli aggressori utilizzano strumenti di intelligenza artificiale per condurre frodi finanziarie o ingannare la nostra famiglia e i nostri amici”, ha affermato Zhiyuan Yu: “Questo è un rischio reale:” Yu è ingegnere informatico presso la Washington University di St. Louis, Missouri. Ha lavorato con Ning Zhang dell’università per costruire AntiFake.

Gli scienziati informatici hanno descritto la loro ricerca alla Conferenza ACM del 2023 sulla sicurezza informatica e delle comunicazioni, che si è tenuta a Copenhagen, in Danimarca, lo scorso novembre.

Usare l’AI in modo responsabile

AntiFake integra il lavoro passato di altri gruppi che proteggono le immagini dalle imitazioni deepfake dell’intelligenza artificiale: “Come possiamo garantire che la società utilizzi l’intelligenza artificiale in modo responsabile?”, si è chiesto Zhang: “Questo è l’obiettivo finale del nostro lavoro”.

All’inizio dell’aprile 2024, questo strumento ha vinto un concorso. Il gruppo di Ning Zhang è stato uno dei quattro a condividere il primo premio di 35.000 dollari in un lavoro di clonazione vocale gestito dalla Federal Trade Commission degli Stati Uniti. Questo concorso ha chiesto ai ricercatori modi creativi per aiutare a proteggere le persone dalle truffe che utilizzano voci deepfake.

Tutto quello che serve per creare una voce deepfake è l’audio o il video reale di qualcuno che parla. Spesso, un modello di intelligenza artificiale può imparare a imitare la voce di qualcuno basandosi su soli 30 secondi circa di discorso. Lo fa creando qualcosa chiamato incorporamento.

Antifake

Questa è fondamentalmente una “serie di numeri”, ha spiegato Yu. I numeri sono come un indirizzo all’identità di chi parla in una vasta mappa matematica di tutte le voci. Le voci che sembrano simili si trovano più vicine tra loro in questa mappa.

Le persone, ovviamente, non usano questo tipo di mappa per riconoscere le voci. Prestiamo più attenzione ad alcune frequenze delle onde sonore e meno attenzione ad altre frequenze. Il modello AI utilizza tutte queste frequenze per creare buoni incorporamenti.

Come funziona AntiFake

AntiFake protegge le registrazioni vocali aggiungendo rumore alle frequenze a cui le persone prestano meno attenzione. Gli ascoltatori possono ancora capire il discorso. Quel rumore, tuttavia, può compromettere la capacità di un modello di intelligenza artificiale di creare un buon radicamento della voce. Quell’intelligenza artificiale finisce per creare un indirizzo nella parte sbagliata della mappa. Pertanto, qualsiasi deepfake generato con questo incorporamento non suonerà come la voce originale.

Le persone possono sentire il rumore di fondo in un file protetto con AntiFake. Non è l’ideale. Ma l’aggiunta di questo livello di rumore consente allo strumento di proteggersi da un’ampia varietà di diversi attacchi deepfake. Se sapessero quale modello di intelligenza artificiale utilizzerà un truffatore per imitare la voce di qualcuno, il suo team potrebbe progettare una protezione dal rumore più specifica e più sottile: suoni che le persone non possono sentire.

Per testare AntiFake, il team di Yu si ha simulato un deepfake. Gli scienziati hanno utilizzato cinque diversi modelli di intelligenza artificiale deepfake per creare 60.000 file vocali che imitavano persone diverse.

Successivamente, hanno verificato quali deepfake potrebbero ingannare gli ascoltatori umani e i sistemi di autenticazione vocale (come quelli per alcuni conti bancari). I ricercatori hanno selezionato 600 clip deepfake che hanno ingannato sia le persone che le macchine.

Il team ha aggiunto la protezione AntiFake ai 600 clip vocali su cui si basavano i deepfake. Gli scienziati hanno poi rispedito i file protetti attraverso i cinque modelli di intelligenza artificiale deepfake. Questa volta, quei modelli non hanno fatto un buon lavoro. Oltre il 95% dei nuovi campioni di deepfake non inganneranno più le persone o i sistemi di autenticazione vocale.

Antifake

Le banche e altre società stanno effettivamente utilizzando i sistemi di autenticazione vocale utilizzati per testare i file protetti da AntiFake, osserva Shimaa Ahmed: “È stato molto bello“. Ahmed è un esperto di sicurezza informatica presso l’Università del Wisconsin-Madison e non ha preso parte alla creazione di AntiFake.

È importante applicare AntiFake a un file vocale per proteggerlo. Quindi la tecnica non può proteggere l’audio che qualcuno ha già pubblicato o condiviso. Inoltre, non può impedire a un truffatore di registrare segretamente qualcuno mentre parla. Ma è un nuovo strumento interessante per difendersi dai deepfake, il che è un compito “molto impegnativo”. Le persone hanno bisogno di tutto l’aiuto possibile per proteggere la propria identità online.

2