L’Organizzazione Mondiale della Sanità ha pubblicato delle nuove linee guida sull’etica e sulla governance dell’intelligenza artificiale generativa, in particolare sui large multi-modal models (LMM), una tecnologia in rapida crescita che è presente in un numero sempre maggiore di applicazioni dedicate all’assistenza sanitaria.
La guida dell’OMS delinea oltre 40 raccomandazioni che devono essere prese in considerazione da governi, aziende tecnologiche e operatori sanitari, così da garantire l’uso appropriato degli LMM per promuovere e proteggere la salute delle popolazioni.
Gli LMM possono accettare uno o più tipi di input di dati, come testo, video e immagini, e generare output diversi, non limitati al tipo di dati immessi. Gli LMM sono unici nella loro imitazione della comunicazione umana e nella capacità di svolgere compiti per cui non sono stati esplicitamente programmati.
Nonostante già da tempo si sta lavorando allo sviluppo di questo tipo di tecnologia, il 2023 verà ricordato come l’anno nel quale gli LMM sono diventati argomento di dibattito presso il grande pubblico. Infatti, durante quest’ultimo, sono state presentate e messe a disposizione degli utenti alcune piattaforme, come ChatGPT, Google Bard e Bert, che adottano delle versioni aggiornate e maggiormente sofisticate di algoritmi di intelligenza artificiale generativa.
Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati. Abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso degli LMM per ottenere risultati sanitari migliori e superare le persistenti disuguaglianze sanitarie”. – Jeremy Farrar, Chief Scientist dell’OMS.
I benefici potenziali e i rischi possibili
Nella nuova guida sono cinque le aree di applicazione che l’OMS ha delineato per l’impiego delle applicazioni degli LMM in ambito salute:
- Diagnosi e assistenza clinica, in particolare su come rispondere alle domande scritte dei pazienti;
- Utilizzo guidato da parte del paziente, ad esempio per analizzare i sintomi e il trattamento;
- Attività amministrative, come la documentazione e la sistematizzazione delle visite dei pazienti all’interno delle cartelle cliniche elettroniche;
- Formazione medica e infermieristica, inclusa la fornitura ai tirocinanti di incontri simulati con i pazienti;
- Ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti.
Sebbene gli LMM stiano iniziando ad essere utilizzati per scopi specifici legati alla salute, esistono anche rischi documentati che essi producano dichiarazioni false, imprecise, distorte o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sanitarie. Inoltre, gli LMM possono essere addestrati attraverso dati di scarsa qualità o contenere pregiudizi, sia per quanto riguarda l’etnia, la discendenza, il sesso, l’identità di genere, l’orientamento sessuale o l’età.
La guida descrive in dettaglio i rischi più ampi per i sistemi sanitari, come l’accessibilità e l’economicità degli LMM con le migliori prestazioni. Da non sottovalutare anche che gli LMM possono incoraggiare il “bias dell’automazione” da parte degli operatori sanitari e dei pazienti, con il quale si rischia di trascurare errori che altrimenti sarebbero stati identificati o delegare, in modo improprio, della scelte difficili a un LMM. Inoltre, gli LMM, come altre forme di intelligenza artificiale, sono vulnerabili ai rischi di sicurezza informatica che potrebbero mettere a repentaglio le informazioni sui pazienti o l’affidabilità di questi algoritmi e la fornitura di assistenza sanitaria in generale.
Tenendo conto di queste possibili criticità, allo scopo di creare LMM sicuri ed efficaci l’OMS sottolinea la necessità che nella loro implementazione vengano coinvolte, in tutte le fasi di sviluppo (comprese quelle della loro supervisione e regolamentazione), varie parti interessate: governi, aziende tecnologiche, operatori sanitari, pazienti e società civile.
I governi di tutti i paesi devono guidare in modo cooperativo gli sforzi per regolamentare in modo efficace lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come gli LMM” – Alain Labrique, WHO Director for Digital Health and Innovation in the Science Division.
Le Raccomandazioni della guida
Nella nuova guida dell’OMS sono incluse alcune raccomandazioni per i governi, i quali hanno la responsabilità primaria di stabilire standard per lo sviluppo e l’implementazione degli LMM, e la loro integrazione e utilizzo per scopi medici e di sanità pubblica. In particolare, nel documento si sottolinea che i governi dovrebbero:
- fornire infrastrutture pubbliche o no-profit (o comunque investire su di esse), compresa la potenza di calcolo e i set di dati pubblici, accessibili agli sviluppatori nei settori pubblico, privato e no-profit, i quali richiedano agli utenti di aderire a principi e valori etici in cambio di accesso;
- adottare leggi, politiche e regolamenti per garantire che gli LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, indipendentemente dal rischio o dal beneficio associato alla tecnologia dell’intelligenza artificiale, soddisfino gli obblighi etici e gli standard dei diritti umani che incidono, ad esempio, sulla dignità, sull’autonomia o sulla privacy di una persona;
- assegnare ad un’agenzia di regolatoria, già esistente o di nuova costituzione, la valutazione e l’approvazione degli LMM e delle applicazioni destinate all’uso in ambito sanitario o medico, se le risorse lo consentono;
- introdurre audit post-rilascio obbligatori e valutazioni d’impatto, anche per la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene implementato su larga scala. Gli audit e le valutazioni d’impatto dovrebbero essere pubblicati e dovrebbero includere risultati e impatti disaggregati per tipologia di utente, ad esempio per età, razza o disabilità.
Infine, la guida include anche dell raccomandazioni per gli sviluppatori di LMM, che dovrebbero garantire che:
- gli LMM siano progettati non solo da scienziati e ingegneri. Infatti, i potenziali utenti e tutte le parti interessate dirette e indirette, compresi gli operatori sanitari, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e dovrebbero avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione AI in esame;
- gli LMM siano progettati per svolgere compiti ben definiti con la precisione e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari.