Mentre varie tecnologie sviluppate con OpenAi competono con Google, nuovi linguaggi stanno gradualmente guadagnando terreno in vari ambiti professionali, tradizionalmente riservati “agli esseri umani”.
Caso emblematico è quello di ChatGPT, protagonista di una storia che coinvolge un bambino di quattro anni e una diagnosi sfuggita a ben 17 medici. La madre di Alex, Courtney, ha condiviso la sua esperienza con la rivista TODAY e ha raccontato di come, durante il lockdown dovuto al COVID-19, sia stato proprio ChatGPT a fornire la soluzione e a far tirare un sospiro di sollievo all’intera famiglia.
La donna ha creato un account e ha condiviso con la piattaforma di Intelligenza Artificiale tutto ciò che sapeva: dai sintomi alle cartelle mediche e i referti delle consultazioni con 17 medici esperti. Attraverso l’Intelligenza Artificiale e una rete di genitori incontrati su Facebook, Courtney è riuscita ad arrivare alla soluzione dell’enigma: la diagnosi era spina bifida occulta, conosciuta anche come sindrome del midollo ancorato, ovvero un disturbo neurologico che limita il movimento del midollo spinale.
La diagnosi elaborata da ChatGPT è stata confermata da un neurochirurgo specializzato nel disturbo che, senza indugio, ha preso in cura il piccolo Alex. Questo è, forse, uno dei casi più significativi di come il modo di fare medicina stia cambiando con l’introduzione crescente dei sistemi basati sull’Intelligenza Artificiale.
Qual è il parere dei medici e della medicina “tradizionale”?
Tuttavia, la situazione è ancora molto delicata e, come spesso accade, ha bisogno di più indagini e studi approfonditi. La ricerca pubblicata sulla rivista Annals of Emergency Medicine ha dimostrato come le diagnosi fornite da ChatGPT erano in linea con quelle degli specialisti.
“ChatGPT ha ottenuto buoni risultati nel generare un elenco di probabili diagnosi e nel suggerire la più probabile” ha dichiarato Hidde ten Berg, del dipartimento di medicina d’urgenza dell’ospedale Jeroen Bosch. “Abbiamo anche riscontrato molte sovrapposizioni tra le diagnosi di ChatGPT e quelle dei nostri medici. In poche parole, ciò indica che ChatGPT era perfettamente in grado di sostituirsi a un medico umano”. In merito ai dati statistici riferiti a questo stesso studio, ChatGPT ha registrato una correttezza nella diagnosi l’87% delle volte, dato salito al 97% per la versione 4.0 dell’applicazione.
È chiaro che le regolamentazioni sono ancora molto complesse da identificare, e si può dire che si tratti di un terreno nuovo e in via di sviluppo. Robert Pearl, professore alla Stanford Medical School, ritiene che tutti i medici dovrebbero cominciare a utilizzare ChatGPT. Secondo Pearl, infatti, “In futuro, nessun medico esperto praticherà la sua professione senza accedere a ChatGPT o ad altre forme di Intelligenza Artificiale Generativa.“
Microsoft Research ha condotto diversi esperimenti sui software OpenAI, utilizzando i test delle università di medicina come requisito minimo per giudicare idonei i consigli di ChatGPT all’interno dell’ecosistema sanitario. In questo caso specifico, Microsoft ha introdotto BioGPT, un modello linguistico che ha ottenuto punteggi elevati in una serie di attività mediche. Parallelamente, il Massachusetts General Hospital ha concluso le sue ricerche sottolineando che ChatGPT può superare il punteggio del 60% durante lo svolgimento dei test di medicina previsti dall’U.S. Medical.
Secondo i ricercatori di Google, che hanno ottenuto per lo stesso test un’accuratezza del 67%, tuttavia, i risultati non sarebbero abbastanza convincenti e comunque “inferiori a quelli dei medici umani”.
Il più recente studio “The moral authority of ChatGPT” ha, inoltre, portato alla luce anche delle divergenze etiche di cui ChatGPT sarebbe stata protagonista. Attraverso la somministrazione di “test etici”, l’IA avrebbe dato risposte non ottimali e moralmente discutibili, e questo in qualche modo avrebbe potuto influenzare (in peggio) le decisioni prese dall’uomo.
In linea di massima, sembra che, tranne in rare eccezioni come quella di Courtney e del piccolo Alex, l’uso di ChatGPT debba essere limitato ad un ruolo di consulenza, e focalizzato sulla raccolta di dati o sull’elaborazione di analisi di laboratorio.