di , 19/10/2023

Il Garante della Privacy ha pubblicato un decalogo per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale. Tra i principi fondamentali racchiusi nell’elenco possiamo trovare, in ordine, la trasparenza dei processi decisionali, alcune indicazioni sulle decisioni automatizzate supervisionate dall’uomo, e la non discriminazione algoritmica. Oltre a questi punti, nel decalogo vengono presi in considerazione altri aspetti che è necessario esaminare per poter identificare l’utilizzo dell’intelligenza artificiale nell’ambito della sanità pubblica.

Basi giuridiche, principi di accountability, ruoli, valutazione di impatto sulla protezione dei dati, qualità dei dati, e integrità e riservatezza: tutti elementi che concorrono all’impostazione di un quadro di riferimento che possa definire le opportunità e i limiti di utilizzo dei dati sanitari nell’ambito dell’intelligenza artificiale.

In particolare, in base alle indicazioni dell’Autorità, il paziente deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, tutti i processi decisionali (ad esempio, in ambito clinico o di politica sanitaria) basati su trattamenti automatizzati effettuati attraverso strumenti di IA. Inoltre, deve poter ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle stesse decisioni.

Il processo decisionale dovrà essere supervisionato da un essere umano per consentire al personale sanitario di controllare, validare o smentire l’elaborazione effettuata dagli strumenti di IA. È opportuno, avverte il Garante, che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l’efficacia, mettendo in atto misure tecniche e organizzative adeguate. Questo anche allo scopo di mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona.

Un sistema nazionale centralizzato per il controllo e lo sviluppo dell’IA

Nel documento viene richiamato un caso americano riguardante un sistema di IA utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani. Gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, a causa della metrica utilizzata basata sulla spesa sanitaria media individuale che risultava meno elevata per la popolazione afroamericana, negando a quest’ultima l’accesso a cure adeguate.

Nel documento si sottolinea anche che dati non aggiornati o inesatti potrebbero influenzare anche l’efficacia e la correttezza dei servizi che i sistemi di IA intendono realizzare.

Riguardo la base giuridica per l’uso dell’intelligenza artificiale, il trattamento di dati sulla salute attraverso tecniche di IA effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo statale, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi delle persone coinvolte.

Inoltre, nel rispetto del quadro normativo di settore, il Garante ha sottolineato la necessità di dover svolgere una valutazione d’impatto allo scopo di individuare le misure idonee a tutelare i diritti e le libertà dei pazienti, garantendo il rispetto dei principi del Regolamento Ue.

Un sistema centralizzato nazionale che utilizzi l’IA determina, infatti, un trattamento sistematico su larga scala di dati sanitari che rientra tra quelli ad “alto rischio”, per i quali la valutazione d’impatto è obbligatoria e deve essere svolta a livello centrale per consentire un esame complessivo sull’adeguatezza e omogeneità degli accorgimenti adottati.

Nella descrizione dei trattamenti è necessario che siano puntualmente indicate, in particolare, le logiche algoritmiche utilizzate al fine di generare i dati e i servizi, le metriche impiegate per addestrare il modello, i controlli svolti per verificare la presenza di eventuali bias e la possibilità di una loro correzione.