di , 05/01/2023

Lo ammetto, ci sono cascata anche io. Mi sono registrata al sito di ChatGPT, un modello di intelligenza artificiale conversazionale sviluppato da OpenAI, e l’ho interrogato sui temi più disparati. Ho anche chiesto quali fossero i trend per il 2023 per la salute digitale. E ho ricevuto questa risposta:

I’m sorry, but I am not able to browse the internet, so I am unable to provide you with information on current trends in digital health. However, I can tell you about some trends that have been occurring in the field of digital health in recent years.

Insomma, non è stato proprio un successo. Quali sono, allora, i possibili casi d’uso di questi modelli di Intelligenza Artificiale conversazionale?

Cosa sono i chatbot? E come funziona ChatGPT?

Un chatbot altro non è che un programma informatico progettato per simulare conversazioni con gli utenti umani. Spesso utilizzati per rispondere alle domande dei clienti, fornire loro assistenza o completare transazioni, i chatbot sono progettati per essere intelligenti dal punto di vista della conversazione, utilizzando algoritmi di elaborazione del linguaggio naturale (NLP) e di apprendimento automatico per comprendere e rispondere agli input degli utenti.
Alcuni chatbot sono più semplici e possono semplicemente fornire risposte pre-scritte a determinate parole chiave o frasi.

A febbraio 2020 è stato proprio un chatbot ad andare in soccorso ai medici e alle strutture di pronto soccorso, per la gestione delle richieste di informazioni in tempo reale e arginare la diffusione di notizie errate o false sul coronavirus.

I chatbot sono sempre più diffusi nelle soluzioni sanitarie, dal controllo dei sintomi alle piattaforme di terapia digitale. Tuttavia, numerose sono le critiche rispetto all’inadeguata capacità di interpretare i messaggi, la mancanza di contesto nelle loro risposte e uno stile conversazionale stentato.
ChatGPT sembra aver superato gran parte di questi problemi. Il formato di dialogo di questo strumento consente al tool, infatti, di rispondere a varie domande sullo stesso argomento, di ammettere i propri errori, di contestare premesse errate e di rifiutare richieste inappropriate.

Considerato la forma più avanzata di intelligenza artificiale conversazionale, ChatGPT ha suscitato sentimenti sia positivi che negativi, di gioia e preoccupazione, eccitazione e diffidenza, da parte di coloro che lo hanno provato.

ChatGPT è un trasformatore e l’acronimo GPT sta per Generative Pretrained Transformer.
Un trasformatore generativo preaddestrato (GPT) è un tipo di modello di apprendimento automatico addestrato a generare testo coerente e simile alla scrittura umana. Il modello si basa su un tipo di rete neurale chiamata trasformatore, particolarmente adatta a gestire dati sequenziali come il linguaggio naturale. Il modello viene pre-addestrato su un ampio insieme di testi, come una raccolta di libri o articoli, per apprendere i modelli statistici e le relazioni esistenti nei dati.
Una delle caratteristiche principali dei modelli GPT è che sono generativi, cioè possono generare nuovo testo sulla base di un prompt o di un testo di partenza. Ciò consente di utilizzarli per compiti quali la traduzione linguistica, il completamento del testo e il riassunto.

Quale uso si può fare di ChatGPT in medicina?

Chi può dare una risposta migliore del chatbot stesso?

It is possible that ChatGPT, or a similar chatbot based on the GPT (Generative Pre-trained Transformer) model, could be used in the field of medicine in a number of ways.

Fornire informazioni e supporto ai pazienti: ChatGPT potrebbe essere utilizzato per fornire ai pazienti informazioni sulle loro condizioni di salute, sulle opzioni di trattamento e su altri argomenti correlati. Potrebbe anche essere utilizzato per rispondere alle domande dei pazienti e fornire loro un supporto emotivo.

Interessante la possibilità di chiedere informazioni generali su una specifica patologia, ma rispetto al supporto emotivo, ho i miei dubbi che una Intelligenza Artificiale, seppure ben addestrata, possa prendere il posto di un medico o un amico in carne ed ossa.

Assistenza nella diagnosi e nel trattamento: Il ChatGPT o modelli simili potrebbero essere addestrati su dati medici e utilizzati per assistere nella diagnosi in base ai sintomi e nella pianificazione del trattamento.

Indubbiamente sconsigliato l’uso del chatbot per una diagnosi, perché il minimo errore potrebbe avere conseguenze disastrose. Ma questo lo sa bene chi ha programmato il chatbot, perché a domanda su che medicinale assumere per il mal di testa risponde: Solo un medico sarà in grado di determinare la causa del tuo mal di testa e raccomandare il trattamento più appropriato.

Ma una persona con conoscenze limitate, potrebbe accettare una risposta non veritiera (perché non in grado di accertarne la correttezza) e procedere autonomamente con autodiagnosi e/o trattamento fai-da-te.

Fornire informazioni sui farmaci: ChatGPT o modelli simili potrebbero essere utilizzati per fornire informazioni sui farmaci, compresi dosaggio, somministrazione e potenziali effetti collaterali.

E ancora, anche qui la risposta del chatbot è in linea con le preoccupazioni generali rispetto a quello che potremmo definire il nuovo Dottor Google: È importante seguire attentamente le istruzioni sull’etichetta del medicinale e assumere il farmaco solo come indicato. Se hai dubbi o domande sull’assunzione di un particolare medicinale, dovresti consultare un medico o un farmacista.

A tendere, il programma potrebbe essere utilizzato per la generazione di note cliniche e rapporti, sulla base dei dati forniti dagli operatori sanitari. Ciò potrebbe contribuire a ridurre il tempo e gli sforzi necessari per documentare la cura del paziente, consentendo agli operatori di concentrarsi su altre attività importanti.

Ma, va sottolineato, è tutta una questione di dati di addestramento dell’Intelligenza Artificiale che fa da motore a questo modello. Senza questi dati specifici, si rischia davvero tanto. Soprattutto la salute degli utenti che si rivolgono al chatbot.