[tta_listen_btn]
ChatGPT si sta rivelando un assistente piuttosto utile in molte professioni, ma non è privo di rischi e alcune aziende hanno vietato il chatbot sul posto di lavoro.
Può sembrare ovvio che il caricamento di informazioni relative al lavoro su una piattaforma di intelligenza artificiale online di proprietà di un’altra azienda sia una potenziale violazione della sicurezza e della privacy. Tuttavia, ChatGPT può essere un vero vantaggio per alcuni che devono lavorare in fretta. In particolare, gli ingegneri del software trovano ChatGPT utile per scrivere, testare o eseguire il debug del codice, anche se la tecnologia è soggetta a errori.
Secondo un sondaggio condotto su circa 12.000 professionisti, circa il 43% dei dipendenti utilizza un’intelligenza artificiale come ChatGPT al lavoro, per lo più senza dirlo al proprio capo.
Samsung Electronics ha recentemente represso l’uso dell’IA generativa dopo che un programmatore ha realizzato il peggior incubo per un’azienda tecnologica copiando e incollando il codice sorgente sensibile in ChatGPT.
Come molte aziende, Samsung è preoccupata che qualsiasi cosa caricata su piattaforme AI come ChatGPT di OpenAI o Bard di Google venga archiviata sui server di quelle aziende, senza che sia possibile eliminare le informazioni.
OpenAI può utilizzare qualsiasi cosa digitata in sistemi AI come ChatGPT per migliorare il sistema. Il timore è che informazioni aziendali proprietarie o sensibili fornite a ChatGPT possano essere condivise involontariamente con altri utenti.
E OpenAI sta ancora risolvendo diversi problemi di sicurezza: per esempio, ha temporaneamente chiuso ChatGPT a marzo per correggere un bug grazie al quale gli utenti potevano vedere i titoli delle cronologie chat di altri utenti. Quindi, ad aprile, OpenAI ha consentito agli utenti di disattivare la cronologia delle chat, cosa che secondo la società impedirà a ChatGPT di utilizzare i dati per addestrare il proprio modello di intelligenza artificiale.
A seguito di vari problemi di sicurezza relativi al chatbot, circa la metà dei responsabili delle risorse umane delle aziende che si occupano di tecnologia sta emanando linee guida ChatGPT per il personale, mentre il 3% ha vietato ChatGPT a titolo definitivo, secondo un sondaggio della società di consulenza Gartner.
Tuttavia, alcune aziende hanno riconosciuto che il gatto AI è già fuori dal sacco e hanno sviluppato – o stanno creando – le proprie piattaforme AI come alternative più sicure al ChatGPT liberamente accessibile.
Amazon ha vietato ChatGPT a gennaio e ha esortato i suoi sviluppatori a utilizzare la sua intelligenza artificiale interna chiamata CodeWhisperer se desiderano consigli sulla codifica o scorciatoie. A maggio, Apple ha limitato l’uso di ChatGPT per alcuni dipendenti per impedire l’esposizione di informazioni riservate. Apple sta sviluppando la propria piattaforma AI in concorrenza con ChatGPT, che è a sua volta sostenuta da un investimento multimiliardario da parte di Microsoft .
La Commonwealth Bank of Australia ha limitato l’uso di ChatGPT a giugno e ha ordinato allo staff tecnico di utilizzare uno strumento simile chiamato CommBank Gen.ai Studio, sviluppato in collaborazione con la società tecnologica della Silicon Valley H2O.ai. Altre banche, tra cui Bank of America, Citigroup, Deutsche Bank, Goldman Sachs, Wells Fargo & Co e JP Morgan, hanno emesso divieti assoluti sull’utilizzo di ChatGPT.
La società di contabilità PwC ha incoraggiato il personale a giocare con ChatGPT, ma li ha avvertiti di non utilizzare il programma per il lavoro dei clienti. “Le nostre politiche non consentono al nostro personale di utilizzare ChatGPT con dati dei dei clienti in attesa degli standard di qualità che applichiamo a tutte le innovazioni tecnologiche per garantire la salvaguardia“, ha dichiarato a Financial Review Jacqui Visch, chief digital information officer di PwC.
Circa il 15% degli studi legali ha emesso avvisi su ChatGPT, secondo un sondaggio condotto su oltre 400 professionisti legali di Stati Uniti, Regno Unito e Canada. Mishcon de Reya, uno studio legale con sede nel Regno Unito con circa 600 avvocati, ha vietato l’utilizzo della piattaforma AI a causa dei rischi per i dati sensibili.
A maggio, al personale di cinque ospedali dell’Australia occidentale è stato detto di smettere di usare ChatGPT dopo che alcuni avevano utilizzato la piattaforma per scrivere note mediche private. “Fondamentalmente, in questa fase, non vi è alcuna garanzia della riservatezza sui dati dei pazienti quando si utilizza la tecnologia dei bot AI, come ChatGPT, né comprendiamo appieno i rischi per la sicurezza“, ha affermato Paul Forden, a capo del South Metropolitan Health Service di Perth.
“Per questo motivo, l’uso della tecnologia AI, incluso ChatGPT, per attività legate al lavoro che includono informazioni su pazienti o servizi sanitari potenzialmente sensibili deve cessare immediatamente“.
Le aziende che abbracciano apertamente ChatGPT lo vedono come un modo per risparmiare sui costi di generazione dei contenuti. The Coca-Cola Company prevede di utilizzare ChatGPT e il generatore di immagini AI DALL·E per il branding e i contenuti. A gennaio, BuzzFeed ha annunciato una partnership per creare quiz e altri contenuti per Meta utilizzando l’API pubblicamente disponibile di OpenAI.
Il sito web del blog Medium ha “accolto con favore l’uso responsabile della tecnologia assistiva AI” ma richiede agli autori di rivelarne l’uso. CNET, che aveva sperimentato lo sviluppo di storie scritte dall’intelligenza artificiale, ha annunciato una pausa su questa operazione a gennaio.
Indubbiamente, l’IA generativa alla fine avrà un posto in ufficio e potrebbe persino sostituire parte del personale ma, per ora, molte aziende vedono più rischi che benefici.