Il clamore che negli ultimi mesi ha suscitato la straordinaria evoluzione tecnologica dell’AI ha indotto l’Organizzazione Mondiale della Sanità a richiedere cautela nell’utilizzo di strumenti di modelli linguistici di grandi dimensioni (Large Language Model, LLM), generati proprio dall’intelligenza artificiale. Attraverso questo appello l’OMS intende proteggere e promuovere il benessere umano, la sicurezza umana e l’autonomia e preservare la salute pubblica.
Gli LLM includono alcune delle piattaforme in più rapida espansione come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l’elaborazione e la produzione della comunicazione umana. La loro rapida diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute sta generando un notevole entusiasmo per le loro potenzialità nel supportare i bisogni di salute delle persone.
Tuttavia, l’utilizzo di queste tecnologie comporta dei rischi che occorre esaminare attentamente, soprattutto quando si utilizzano i LLM in ambito sanitario. Ciò non solo quando questi ultimi vengono impiegati per migliorare l’accesso alle informazioni sulla salute, ma anche quando si fà ricorso ad essi come strumento di supporto decisionale o per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze.
Detto ciò, l’OMS ha dichiarato tutto il suo entusiasmo per queste tecnologie, laddove però esse siano usate in modo appropriato a supporto delle attività di operatori sanitari, i pazienti, i ricercatori e gli scienziati. Tale “apertura”, però, genera il timore che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia, non venga adottata in modo coerente con i LLM. Includendo l’adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa.
Infatti, l’adozione precipitosa di sistemi non testati potrebbe portare a errori da parte degli operatori sanitari, causare danni (anche gravi) ai pazienti, erodendo così la fiducia nell’IA e quindi minando (o ritardando) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo.
Quali i rischi di utilizzo?
Questi rischi rilevanti sui quali l’Oms invita tutti gli attori ad esercitare una rigorosa supervisione affinché le tecnologie vengano utilizzate in modo sicuro, efficace ed etico, sono:
- i dati utilizzati per addestrare l’IA possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione;
- gli LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
- gli LLM possono essere addestrati su dati per i quali il consenso potrebbe non essere stato fornito in precedenza per tale utilizzo e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta;
- gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione altamente convincente sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico da contenuti sanitari affidabili.
In più, l’OMS ha rivolto un invito alle istituzioni politiche, affinché all’impegno assunto dall’Organizzazione a sfruttare le nuove tecnologie, tra cui l’intelligenza artificiale e la salute digitale per migliorare la salute umana, si affianchi anche un’azione di garanzia sulla sicurezza e sulla protezione dei pazienti che deve essere condotta dai responsabili politici.
Principi etici
Infine, l’OMS ha ribadito l’importanza di applicare dei principi etici e di modellare una governance appropriata, come indicato nella guida dell’Organizzazione sull’etica e la governance dell’IA per la salute, durante la progettazione, lo sviluppo e l’utilizzo dell’IA per la salute.
I sei principi fondamentali individuati dall’OMS sono: (1) proteggere l’autonomia; (2) promuovere il benessere umano, la sicurezza umana e l’interesse pubblico; (3) garantire trasparenza, spiegabilità e intelligibilità; (4) promuovere la responsabilità e la responsabilità; (5) garantire inclusività ed equità; (6) promuovere un’IA reattiva e sostenibile.