3 minute read

In PRONTO sono meglio io

ChatGPT ha recentemente superato l’esame di abilitazione alla professione medica negli Stati Uniti, ma usarlo per fare diagnosi nel mondo reale si rivelerebbe un disastro. Ecco cosa è successo quando un medico di pronto soccorso ha chiesto a ChatGPT di formulare una diagnosi ai suoi pazienti.

Alla notizia che ChatGPT aveva superato con successo l’esame di abilitazione alla professione medica negli Stati Uniti, ero curioso di sapere come si sarebbe comportato in una situazione clinica reale. Essendo un sostenitore dell’uso dell’intelligenza artificiale per migliorare la qualità e l’efficienza dell’assistenza sanitaria, volevo vedere come quest’ultima versione di ChatGPT potesse essere uno strumento per la mia pratica clinica.

ChatGPT fornisce risposte rapide sulla base della conoscenza recuperata con un processo simile a quello di Google. Ma nel mondo reale la maggior parte dei casi di pazienti non rientra tra i classici casi clinici.

Così, la scorsa settimana, alla fine dei miei abituali turni al pronto soccorso, ho reso anonime le mie note sulle anamnesi di 35-40 pazienti – in pratica, la descrizione medica dettagliata della storia clinica di ogni persona e dei sintomi che l’hanno portata al pronto soccorso – e le ho inserite in ChatGPT.

La domanda specifica che ho fatto a ChatGPT è stata: “Quali sono le diagnosi differenziali per questo paziente che si è presentato al dipartimento d’emergenza [inserire qui le informazioni sulla anamnesi della malattia attuale del paziente]?”.

I risultati sono stati interessanti, ma anche piuttosto inquietanti.

Il chatbot di OpenAI ha fatto un discreto lavoro nel far emergere diagnosi comuni che non avrei voluto perdere, a patto che tutto ciò che gli avevo detto fosse preciso e altamente dettagliato. Ad esempio, per diagnosticare correttamente a un paziente il “gomito della balia” (pronazione dolorosa del gomito, ndr) sono state necessarie circa 200 parole; per identificare la frattura blow-up della parete orbitaria di un altro paziente sono servite tutte le 600 parole della mia anamnesi.

nito una diagnosi differenziale di appendicite o cisti ovarica, tra le altre possibilità. Ma il ChatGPT ha mancato una diagnosi piuttosto importante per questa donna.

Si trattava di una gravidanza ectopica, in cui un feto malformato si sviluppa nelle tube di Falloppio e non nell’utero. Se diagnosticata troppo tardi, può essere fatale, con conseguente morte per emorragia interna. Fortunatamente per la mia paziente, siamo riusciti a portarla subito in sala operatoria per un intervento.

In particolare, quando era venuta al pronto soccorso, questa paziente non sapeva nemmeno di essere incinta. Non si tratta di uno scenario atipico, e spesso emerge solo dopo aver chiesto gentilmente informazioni: “È possibile che sia incinta?”. A volte la paziente risponde con qualcosa del tipo: “Non è possibile”. “Ma come fa a saperlo?”. Se con questa risposta alla nostra domanda esplorativa la paziente non sottintende che ha la spirale o una specifica condizione medica, è più probabile che ci stia dicendo che per una serie di motivi non vuole pensare di poter essere incinta. (Anche in questo caso, non si tratta di uno scenario raro: circa l’8 per cento delle gravidanze scoperte al pronto soccorso sono di donne che dichiarano di non essere sessualmente attive).

Ma esaminando le ipotesi diagnostiche di ChatGPT, ho verificato che niente poteva suggerire che la mia paziente fosse incinta. ChatGPT non sapeva nemmeno di doverlo chiedere.

Josh Tamayo-Sarver Emergency department Good Samaritan hospital, San Jose (California) Vicepresidente In ect Health

Per circa la metà dei miei pazienti, ChatGPT ha suggerito sei possibili diagnosi. E la diagnosi “giusta” – o almeno quella che ritenevo giusta dopo una valutazione e un’indagine complete – era una delle sei proposte da ChatGPT. Non male. D’altra parte, nel contesto di un pronto soccorso anche una percentuale di successo del 50 per cento non è ammissibile.

La performance peggiore di ChatGPT si è verificata con una paziente di 21 anni arrivata al pronto soccorso con un dolore addominale al quadrante inferiore destro. Ho inserito la sua anamnesi in ChatGPT che ha subito for-

Il mio timore è che innumerevoli persone stiano già usando ChatGPT per autodiagnosticarsi una malattia piuttosto che rivolgersi a un medico. Se la mia paziente in questo caso lo avesse fatto, la risposta di ChatGPT avrebbe potuto causare la sua morte.

ChatGPT ha anche sbagliato la diagnosi in diversi altri pazienti in condizioni pericolose per la vita. Ha suggerito correttamente che uno di loro aveva un tumore al cervello, ma non ha individuato altri due pazienti che avevano anch’essi un tumore. A un altro paziente con dolore addominale ha diagnosticato un calcolo renale, ma non ha previsto che in realtà il paziente aveva una rottura dell’aorta (e successivamente è deceduto sul tavolo operatorio).

This article is from: