Intelligenza artificiale generativa

ChatGPT Salute: nuovo strumento, vecchi bisogni

Farà informazione, non diagnosi. Ma il nuovo chatbot, per arrivare in Italia, dovrebbe sottostare alla rigida normativa europea in tema di trattamento dei dati e di dispositivi medici. Ne abbiamo parlato con Chiara Sgarbossa, Direttrice dell’Osservatorio Sanità Digitale del Politecnico di Milano

di Nicla Panciera

Puntando a superare la frammentazione esistente nei dati di natura sanitaria, tra portali, app, dispositivi indossabili e note mediche, che «rende difficile avere una visione completa e costringe le persone a orientarsi da sole in un sistema sanitario complesso», OpenAI ha annunciato il lancio di ChatGPT Salute. Sono oltre 230 milioni di persone nel mondo che pongono ogni settimana domande su salute e benessere su ChatGPT. Il nuovo strumento che, assicurano da OpenAI, garantisce privacy e attenzione ai dati, è stato sviluppato in collaborazione con circa 250 medici di tutto il mondo.

ChatGTP Salute

«Oggi lanciamo ChatGPT Health, uno spazio privato dedicato alle conversazioni sulla salute, dove puoi connettere facilmente e in sicurezza le tue cartelle cliniche e le app per il benessere, come Apple Health, Function Health e Peloton. Questo permette a ChatGPT di offrire un supporto più pertinente e personalizzato, ad esempio quando ti stai preparando per una visita medica o stai cercando una guida su un piano alimentare o una routine di allenamento adatta alle tue esigenze» ha scritto Fidji Simo, la responsabile delle applicazioni di OpenAI, in un post su Substack. «ChatGPT Health è un ulteriore passo verso l’obiettivo di trasformare ChatGPT in un super-assistente personale, capace di supportarti con informazioni e strumenti per raggiungere i tuoi obiettivi in ogni ambito della tua vita».

Non solo errato, ma nocivo

Per molto utenti non è così ovvio dove terminano le informazioni generali e iniziano le raccomandazioni mediche specialmente. Ma a preoccupare è soprattutto il rischio che qualcuno possa basarsi su consigli parziali o errati, che tralasciano riferimenti a effetti collaterali, allergie o altre problematiche legate a determinate pratiche. È stato ad esempio il caso, pubblicato sui casi clinici degli Annals of Internal Medicine, del sessantenne arrivato in pronto soccorso accusando i vicini di volerlo avvelenare. L’origine dei gravi sintomi psichiatrici è stata presto chiarita: alla ricerca di un sostituto del cloruro di sodio, aveva ricevuto da ChatGTP come consiglio il bromuro di sodio, finendo in ospedale per bromismo, intossicazione cronica da bromuri.

Dipenda dal contesto

Di chatbot basati sull’intelligenza artificiale in ambito sanitario si parla molto. Negli Stati Uniti il sistema è diverso, mentre in Italia e in Europa esistono normative molto stringenti su privacy e dispositivi medici. Per un software che non sia solo database ma fornisca altri supporti in quest’ambito, il quadro normativo europeo prevede infatti che debba essere riconosciuto come dispositivo medico. «Come più volte sottolineato dall’Osservatorio Sanità Digitale, per fornire supporto o indicazioni in ambito sanitario è fondamentale disporre di soluzioni AI dedicate e specifiche in grado di gestire la sensibilità dei dati sanitari e che si basino su dati e informazioni certificate. Quando dovesse arrivare anche in Europa, ChatGPT Salute dovrebbe sottostare alle regole europei del trattamento dei dati e rispettare i criteri del dispositivo medico. Al momento è testato da un piccolo gruppo di utenti e non è detto possa essere introdotto qui e in che versione» commenta Chiara Sgarbossa, Direttrice dell’Osservatorio Sanità Digitale del Politecnico di Milano. Quindi ciò che viene annunciato a livello internazionale non può essere automaticamente trasferito nel nostro contesto. «Quanto ai rischi di salute determinati dall’incompletezza delle informazioni ricevute, ricordo a tutti che questi strumenti possono sbagliare e andare del tutto fuori strada, fornendo risposte su base statistica. In altre parole, questi sistemi possono commettere errori, le cosiddette “allucinazioni”, fornendo risposte plausibili ma false. Le persone possono restare ammaliate dalla risposta gentile e colloquiale, i sistemi essendo molto abili nel simulare empatia».

Qui cambia lo strumento, non il bisogno

I dati dell’Osservatorio Sanità Digitale evidenziano che l’11% dei cittadini italiani ha già utilizzato strumenti di AI generativa in ambito salute, soprattutto per cercare informazioni su problemi di salute e malattie (nel 47% dei casi) e su farmaci e terapie (39%). I principali motivi all’utilizzo sono la rapidità di accesso alle informazioni (50%) e la facilità d’uso (44%). «I nostri dati indicano anche che le domande sono le stesse che gli utenti ponevano prima e dopo la visita medica al motore di ricerca, per prepararsi o in caso di nuovi dubbi» chiarisce Scarbossa. Interrogare ChatGPT invece di un motore di ricerca significa solo cambiare strumento per uno stesso uso. Per le applicazioni che si avvicinano all’ambito clinico e alla diagnosi, resta imprescindibile il coinvolgimento diretto del medico».

Una miniera di dati (e di rischi)

L’idea di rispondere alla frammentazione dei dati che ci riguardano e che provengono da cartelle cliniche ma anche dai numerosi dispositivi indossabili e app varie è interessante, anche al fine di interpretare la mole di dati attualmente inutilizzati a scopo di ricerca. Ma andrebbe ricordato che OpenAI non è una piccola organizzazione senza scopo di lucro. È una delle più grandi aziende tecnologiche al mondo. I timori sono numerosi. OpenAI ha usato lo strumento HealthBench che valuta le risposte fornite dall’intelligenza artificiale in scenari sanitari realistici, valutando qualità, chiarezza ed equilibrio, in stretta collaborazione con medici di tutto il mondo, come spiegano da OpenAI: «Oltre 260 medici attivi in 60 Paesi e in decine di specialità per comprendere cosa renda una risposta a una domanda sulla salute utile o potenzialmente dannosa per offrire informazioni sanitarie chiare e utili».

Superare la frammentazione

Ci si prova da tanto tempo, anche per ragioni economiche. «Il fascicolo sanitario elettronico è in via di applicazione nelle Regioni, la realizzazione della sua versione 2.0 ha ricevuto una spinta di 1,38 miliardi di euro, con un progetto strategico del PNRR per unificare e potenziare i servizi sanitari digitali in Italia, garantendo l’interoperabilità tra Regioni e che dovrebbe essere operativo entro il giugno 2026» ricorda Sgarbossa. La possibilità di integrare dati di sorgenti diverse esiste già. È il caso della Regione Toscana, spiega Sgarbossa, che ha integrato all’interno del fascicolo elettronico, che rimane lo strumento con la storia del paziente, con ricette, referti, verbali del pronto soccorso e lettere di dimissione, l’applicazione del sensore del diabete, caricando lì tutti i dati del monitoraggio. «Si tratta di sensori che sono veri dispositivi medici e raccolgono dati di qualità, al contrario dei vari dati provenienti dalle app consumer dei dispositivi indossabili e degli smartwatch che tutti noi ormai indossiamo e che non userei mai per scopi clinici» puntualizza la ricercatrice.


Foto di Saradasish Pradhan su Unsplash

Nessuno ti regala niente, noi sì

Hai letto questo articolo liberamente, senza essere bloccato dopo le prime righe. Ti è piaciuto? L’hai trovato interessante e utile? Gli articoli online di VITA sono in larga parte accessibili gratuitamente. Ci teniamo sia così per sempre, perché l’informazione è un diritto di tutti. E possiamo farlo grazie al supporto di chi si abbona.