Intelligenza Artificiale
ChatGPT Chat with AI, Artificial Intelligence. Adult man chatting with a smart AI or artificial intelligence using an artificial intelligence chatbot developed, Futuristic technology transformation. See Less By ParinPIX

L’IA in medicina: ChatGPT trova la diagnosi corretta per un bambino che soffriva di dolore cronico da tre anni.

Grazie a ChatGPT, una madre ha finalmente ottenuto la diagnosi corretta per il suo bambino che soffriva di dolore cronico da tre anni.

Nonostante avesse consultato ben 17 specialisti diversi nel corso del tempo, nessuno era riuscito a identificare la causa dei sintomi. La madre si è dunque rivolta a ChatGPT, un chatbot basato sull’intelligenza artificiale, e ha descritto dettagliatamente tutti i risultati delle risonanze magnetiche a cui il bambino era stato sottoposto.

L’intelligenza artificiale ha suggerito la possibile diagnosi, poi confermata da un chirurgo in carne e ossa.

I sintomi e le 17 visite specialistiche

La storia inizia nel 2020, durante il lockdown del Covid-19 e vede come protagonisti una madre, Courtney e il suo bambino, Alex, all’epoca di 4 anni.

In quel periodo, racconta Courtney, Alex ha iniziato a soffrire di un dolore cronico e di una serie di sintomi vaghi. Seguono tre anni di ricerca della causa del dolore crescente e numerose visite con vari specialisti:

  • Un dentista, consultato perché il bambino digrignava i denti, “ha escluso tutto” e indirizzato i genitori verso una visita con un ortodontista specializzato in ostruzione delle vie aree. L’ostruzione delle vie aeree, infatti, influisce sul sonno del bambino e poteva spiegare come mai sembrasse così esausto e lunatico.
  • L’ortodontista ha scoperto che il palato di Alex era troppo piccolo per la sua bocca e i suoi denti e che questo portava a problematiche legate alla respirazione notturna. L’inserimento di un espansore nel palato del bambino sembrò migliorare la situazione.
  • Il pediatra, durante una visita di controllo, ha evidenziato ritardi di crescita del bambino e uno squilibrio tra il lato destro e quello sinistro: Alex tendeva a muoversi con il piede destro e a trascinare il sinistro.
  • Un neurologo, coinvolto in quanto Alex soffriva di forti mal di testa, gli ha diagnosticato l’emicrania.
  • Un otorinolaringoiatra ha indagato sui disturbi del sonno, verificando se potessero dipendere dalle cavità sinusali o da problemi alle vie respiratorie.
  • Un fisioterapista ha avanzato l’ipotesi di una “malformazione di Chiari”, una condizione congenita che causa anomalie nel cervello nel punto in cui il cranio incontra la colonna vertebrale.

Courtney fece visitare Alex anche da altri medici: un nuovo pediatra, un internista pediatrico, un internista per adulti e un medico muscoloscheletrico, ma nessuno seppe identificare la causa principale dei sintomi del bambino.

“Ciascun specialista si occupava soltanto della propria area di competenza. – dice Courtney – Nessuno è disposto a risolvere il problema più grande. Nessuno ti dà un’idea di quale potrebbe essere la diagnosi”.

L’IA e il quesito diagnostico

In tre anni, Alex è stato visitato da ben 17 medici diversi, senza ottenere alcuna diagnosi che spiegasse tutti i suoi sintomi. Così, Courtney, esausta e frustrata, decise di cercare le risposte da una fonte improbabile: ChatGPT.

E le ottenne!

La mamma, presa dalla disperazione, ha creato un account e condiviso con la piattaforma di Intelligenza Artificiale (IA) tutto ciò che sapeva sui sintomi del figlio e tutte le informazioni che è riuscita a raccogliere dalle risonanze magnetiche.

“Ho scritto riga per riga tutto quello che c’era nelle note della risonanza magnetica e l’ho inserito in ChatGPT”, racconta. “Ho inserito la nota relativa al fatto che… non si sedeva a gambe incrociate sul pavimento con le mani appoggiate sulle ginocchia. Per me era un’enorme indicazione che una cosa strutturale poteva essere sbagliata”.

L’intelligenza artificiale ha suggerito la possibilità che soffrisse di Sindrome del Midollo Ancorato, che provoca dolori alla schiena e alle gambe, nonché alterazioni scheletriche.

La conferma della diagnosi

Courtney, animata da una nuova speranza e finalmente con in mano una diagnosi, ha iniziato a fare delle ricerche, si è unita a un gruppo Facebook di famiglie di bambini affetti da questa sindrome, ha letto altre storie di bambini che sembravano simili a quella di Alex.

E ha deciso di fissare un altro appuntamento con un nuovo neurochirurgo, per sottoporre i suoi sospetti. La dottoressa, vedendo le immagini della risonanza magnetica, capì esattamente cosa non andasse in Alex: il bambino soffriva di spina bifida occulta e aveva la spina dorsale legata in un punto.

E la diagnosi era proprio quella suggerita da ChatGPT.

Magnetic Resonance images of Lumbar spine sagittal T2-weighted images (MRI Lumbar spine) showing mild disc disease.
By Mohamed
Risonanza magnetica spina dorsale. AdobeStock @By Mohamed

Secondo l’Associazione americana dei chirurghi neurologici, la sindrome del midollo ancorato si verifica quando il tessuto del midollo spinale forma dei legami che ne limitano il movimento, facendolo allungare in modo anomalo. Questa condizione è strettamente associata alla spina bifida, un difetto alla nascita in cui una parte del midollo spinale non si sviluppa completamente e una parte del midollo spinale e dei nervi sono esposti.

Con la sindrome del midollo ancorato, “il midollo spinale è attaccato a qualcosa: potrebbe essere un tumore nel canale spinale, una protuberanza su un picco di ossa, o semplicemente troppo grasso alla fine del midollo spinale”, spiega a TODAY.com la dottoressa Holly Gilmer, neurochirurgo pediatrico del Michigan Head & Spine Institute, che ha curato Alex.

Confermata la diagnosi, il bambino è stato sottoposto a un intervento chirurgico ed è attualmente in fase di recupero.

ChatGPT in Medicina

ChatGPT è un tipo di intelligenza artificiale che risponde in base agli input inseriti da una persona, ma non è in grado di sostenere una conversazione o di fornire risposte nel modo in cui molte persone potrebbero aspettarsi.

Questo perché ChatGPT funziona “prevedendo la parola successiva” in una frase o in una serie di parole sulla base di dati di testo esistenti su Internet, spiega a TODAY.com Andrew Beam, Ph.D., assistente professore di epidemiologia ad Harvard che studia i modelli di apprendimento automatico e la medicina. “Ogni volta che si pone una domanda a ChatGPT, quest’ultimo richiama dalla memoria cose che ha già letto in precedenza e cerca di prevedere il testo”.

Quando si usa ChatGPT per fare una diagnosi, una persona potrebbe dire al programma: “Ho febbre, brividi e dolori al corpo”, e il programma inserisce “influenza” come possibile diagnosi, spiega Beam.

“Farà del suo meglio per darvi un pezzo di testo che assomigli a un… passaggio che ha letto”, aggiunge.

Esistono versioni gratuite e a pagamento di ChatGPT, e quest’ultima funziona molto meglio della versione gratuita, dice Beam. Ma entrambe sembrano funzionare meglio della media dei programmi di controllo dei sintomi o di Google come strumento diagnostico. “È un motore di ricerca medica super potente”, afferma Beam.

Può essere particolarmente utile per i pazienti con patologie complicate che hanno difficoltà a ottenere una diagnosi, dice Beam.

Questi pazienti “cercano informazioni a tentoni”, aggiunge. “Penso che ChatGPT possa essere un buon partner in questa odissea diagnostica. Ha letto letteralmente tutto Internet. Potrebbe non avere gli stessi punti ciechi del medico umano”.

L’IA sostituirà i medici in carne e ossa?

Ma non è detto che sostituisca presto l’esperienza di un medico.

Ad esempio, ChatGPT a volte crea informazioni quando non riesce a trovare la risposta. Poniamo che gli si chieda degli studi sull’influenza. Lo strumento potrebbe rispondere con diversi titoli che sembrano reali e gli autori elencati potrebbero aver già scritto sull’influenza in passato, ma i documenti potrebbero non esistere. Questo fenomeno si chiama “allucinazione” e “diventa davvero problematico quando iniziamo a parlare di applicazioni mediche, perché non vogliamo che si inventi le cose”, spiega Beam.

Il dottor Jesse M. Ehrenfeld, presidente del principale gruppo di medici statunitensi, l’American Medical Association, ha dichiarato a TODAY.com che l’AMA “sostiene l’impiego di IA di alta qualità, clinicamente validata e impiegata in modo responsabile, etico e trasparente, con la sicurezza del paziente come prima e principale preoccupazione”. Sebbene i prodotti di IA siano estremamente promettenti nell’alleviare gli oneri amministrativi dei medici e possano essere utilizzati con successo nell’assistenza diretta ai pazienti, ChatGPT di OpenAI e altri prodotti di IA generativa presentano attualmente problemi noti e non sono esenti da errori”.

Aggiunge che “le attuali limitazioni creano rischi potenziali per medici e pazienti e dovrebbero essere utilizzate con la dovuta cautela in questo momento. Le falsificazioni, gli errori o le imprecisioni generate dall’IA possono danneggiare i pazienti e i medici devono essere consapevoli di questi rischi e delle responsabilità aggiuntive prima di affidarsi ad algoritmi e strumenti di apprendimento automatico non regolamentati”.

“Così come chiediamo la prova della sicurezza e dell’efficacia dei nuovi farmaci e delle nuove sostanze biologiche, dobbiamo insistere sulla prova clinica della sicurezza e dell’efficacia delle nuove applicazioni sanitarie basate sull’IA”, conclude Ehrenfeld.

Fonti e approfondimenti