Dei medici del Regno Unito,1 su 5 usa uno strumento di intelligenza artificiale generativa (GenAI), come ChatGPT di OpenAI o Gemini di Google, per assistere i pazienti nella pratica clinica. Questo secondo un recente sondaggio condotto su circa 1.000 medici di base.
L’intelligenza artificiale generativa è la nuova frontiera dei medici di base
I medici hanno riferito di utilizzare GenAI per generare documentazione dopo gli appuntamenti, aiutare a prendere decisioni cliniche e fornire informazioni ai pazienti, come riepiloghi di dimissioni comprensibili e piani di trattamento.
Considerando il clamore suscitato dall’intelligenza artificiale generativa, unito alle problematiche che i sistemi sanitari devono affrontare, non sorprende che medici e politici considerino l’intelligenza artificiale come un elemento fondamentale per modernizzare e trasformare i servizi sanitari.
L’intelligenza artificiale generativa però è un’innovazione recente che mette in discussione fondamentalmente il nostro modo di pensare alla sicurezza dei pazienti. C’è ancora molto che dobbiamo sapere su GenAI prima che possa essere utilizzata in modo sicuro nella pratica clinica quotidiana.
L’intelligenza artificiale generativa al servizio della Sanità
Tradizionalmente, le applicazioni AI sono state sviluppate per svolgere un compito molto specifico. Ad esempio, le reti neurali di apprendimento profondo sono state utilizzate per la classificazione nell’imaging e nella diagnostica.Tali sistemi si dimostrano efficaci nell’analisi delle mammografie per aiutare nello screening del cancro al seno.
L’intelligenza artificiale generativa però non è addestrata per svolgere un compito definito in modo ristretto. Queste tecnologie si basano sui cosiddetti modelli di fondazione, che hanno capacità generiche. Questo significa che possono generare testo, pixel, audio o persino una combinazione di questi.
Queste capacità vengono poi perfezionate per diverse applicazioni, come rispondere alle query degli utenti, produrre codice o creare immagini. Le possibilità di interazione con questo tipo di AI sembrano essere limitate solo dall’immaginazione dell’utente.
Fondamentalmente, poiché la tecnologia non è stata sviluppata per l’uso in un contesto specifico o per essere utilizzata per uno scopo specifico, non sappiamo effettivamente come i dottori possano usarla in modo sicuro. Questo è solo uno dei motivi per cui GenAI non è ancora adatta per un uso diffuso nell’assistenza sanitaria.
Un altro problema nell’uso dell’intelligenza artificiale generativa in ambito sanitario è il fenomeno ben documentato delle “allucinazioni“. Le allucinazioni sono output insensati o non veritieri basati sugli input forniti.
Le allucinazioni sono state studiate nel contesto della creazione di riassunti di testo da parte di GenAI. Uno studio ha scoperto che vari strumenti GenAI producevano output che creavano collegamenti errati in base a quanto detto nel testo, oppure i riassunti includevano informazioni a cui non si faceva nemmeno riferimento nel testo.
Le allucinazioni si verificano perché l’intelligenza artificiale generativa funziona sul principio di verosimiglianza, come prevedere quale parola seguirà in un dato contesto, piuttosto che basarsi sulla “comprensione” in senso umano. Questo significa che gli output prodotti da GenAI sono plausibili piuttosto che necessariamente veritieri.
Questa plausibilità è un’altra ragione per cui è ancora troppo presto per utilizzare in modo sicuro la GenAI nella pratica medica di routine.Immagina uno strumento GenAI che ascolta la visita di un paziente e poi produce una nota di riepilogo elettronica. Da un lato, questo libera il medico di base o l’infermiere per interagire meglio con il paziente. Dall’altro lato, la GenAI potrebbe potenzialmente produrre informazioni basate su quello che ritiene plausibile.
Ad esempio, il riepilogo dell’intelligenza artificiale generativa potrebbe modificare la frequenza o la gravità dei sintomi del paziente, aggiungere sintomi di cui il paziente non si è mai lamentato o includere informazioni che il paziente o il medico non hanno mai menzionato.
Conclusioni
Il punto qui è che tali rischi con GenAI sono molto più difficili da prevedere in anticipo tramite i tradizionali approcci di analisi della sicurezza. Questi riguardano la comprensione di come un guasto nella tecnologia potrebbe causare danni in contesti specifici. L’assistenza sanitaria potrebbe trarre enormi benefici dall’adozione di GenAI e di altri strumenti di intelligenza artificiale.
Prima che queste tecnologie possano essere utilizzate in ambito sanitario in modo più ampio, la garanzia della sicurezza e la regolamentazione dovranno rispondere meglio agli sviluppi riguardanti dove e come queste tecnologie vengono utilizzate.
È inoltre necessario che gli sviluppatori di strumenti dell’intelligenza artificiale generativa e gli enti regolatori collaborino con le comunità che utilizzano queste tecnologie per sviluppare strumenti che possano essere utilizzati regolarmente e in modo sicuro nella pratica clinica.
I risultati del sondaggio sono stati pubblicati su BMJ Healt&Care Informatics.