ChatGPT è uno dei chatbot più avanzati al mondo, basato su un modello linguistico di grandi dimensioni (LLM) sviluppato da OpenAI, una società di ricerca sull’intelligenza artificiale, ed è in grado di conversare con gli utenti su vari argomenti, utilizzando le informazioni raccolte da Internet.
Ad ogni modo, queste informazioni potrebbero non essere sempre innocue o irrilevanti, infatti recentemente ChatGPT è stato al centro di un caso di conversazioni trapelate che contenevano dati sensibili di alcuni utenti.
Come sono state scoperte le conversazioni trapelate?
La vicenda è stata resa nota da un articolo di ArsTechnica, che ha riportato la testimonianza di un lettore che utilizza frequentemente ChatGPT. Il lettore ha raccontato di aver trovato, dopo aver effettuato l’accesso al servizio, diverse conversazioni che non aveva mai avuto con il chatbot, e queste sembravano provenire da altri utenti di ChatGPT, che avevano usato il chatbot per scopi diversi.
Una delle conversazioni più preoccupanti era quella di un dipendente di una farmacia, che aveva usato ChatGPT per cercare di risolvere i problemi di un portale farmaceutico. Nella conversazione, il dipendente aveva rivelato diversi nomi utente e password, oltre al nome del portale stesso. Queste informazioni, se finite nelle mani sbagliate, avrebbero potuto compromettere la sicurezza della farmacia e dei suoi clienti.
Questa non era l’unica conversazione trapelata tramite ChatGPT, con il lettore che ne ha trovate altre, alcune riguardavano argomenti come la salute, la finanza, altre la religione e la politica, fatto certo è che in tutte queste conversazioni, gli utenti avevano condiviso informazioni personali o sensibili con il chatbot, forse senza rendersi conto dei rischi.
Come ha reagito OpenAI alle accuse su ChatGPT?
L’articolo di ArsTechnica ha suscitato molte reazioni e preoccupazioni tra gli utenti di ChatGPT e gli esperti di intelligenza artificiale. Molti si sono chiesti come fosse possibile che il chatbot mostrasse le conversazioni di altri utenti, violando la loro privacy e la loro sicurezza, con alcuni che hanno ipotizzato che si trattasse di un bug, di un errore umano o di un attacco hacker.
OpenAI, tuttavia, ha smentito queste ipotesi, affermando che l’articolo di ArsTechnica era impreciso e che i loro team antifrode e di sicurezza avevano condotto un’indagine approfondita. Secondo OpenAI, la causa delle conversazioni trapelate era stata la compromissione delle credenziali di accesso di un utente, che era stato vittima di un utente malintenzionato.
Questo utente aveva usato l’account compromesso per visualizzare e diffondere le conversazioni di altri utenti, ma non si trattava di ChatGPT che mostrava la cronologia di un altro utente.
OpenAI ha anche dichiarato di aver preso provvedimenti per proteggere gli utenti da eventuali abusi del servizio, come la limitazione del numero di conversazioni che si possono avere con il chatbot, la richiesta di un’autenticazione a due fattori e la cancellazione delle conversazioni dopo un certo periodo di tempo. In aggiunta, OpenAI ha invitato gli utenti a non condividere informazioni personali o sensibili con il chatbot, in quanto non è progettato per gestire questo tipo di dati.
Quali sono le implicazioni di questo caso?
Il caso delle conversazioni trapelate tramite ChatGPT solleva alcune domande importanti sul rapporto tra gli utenti e i chatbot basati sull’intelligenza artificiale. Da una parte, questi chatbot offrono la possibilità di avere conversazioni interessanti, divertenti e utili su vari argomenti, sfruttando le enormi quantità di informazioni disponibili su Internet, dall’altra parte, queste informazioni potrebbero non essere sempre affidabili, aggiornate o pertinenti, e potrebbero contenere dati sensibili di altre persone.
Analogamente, gli utenti potrebbero essere tentati di confidare al chatbot le proprie informazioni personali o sensibili, magari per sfogarsi, per chiedere consiglio o per curiosità, tuttavia questo comportamento potrebbe esporli a dei rischi, come la violazione della loro privacy, la perdita della loro sicurezza o la manipolazione della loro opinione.
Infatti, il chatbot potrebbe non essere in grado di proteggere i dati degli utenti, o potrebbe usare i dati degli utenti per influenzare le loro conversazioni.
Per evitare questi rischi, è necessario che gli utenti siano consapevoli delle caratteristiche e dei limiti dei chatbot basati sull’intelligenza artificiale, e che li usino con cautela e responsabilità. Da aggiungere, è necessario che i creatori e i gestori di questi chatbot garantiscano il rispetto delle norme etiche e legali sulla protezione dei dati e sulla trasparenza dei processi, solo così si potrà instaurare un rapporto di fiducia e di beneficio reciproco tra gli utenti e i chatbot.
Se sei attratto dalla scienza, dalla tecnologia, o vuoi essere aggiornato sulle ultime notizie, continua a seguirci, così da non perderti le ultime novità e news da tutto il mondo!