L’intelligenza artificiale (IA) supporta il medico nella diagnostica, svolge ruoli predittivi, personalizza terapie, interagisce direttamente col paziente. La sua sempre maggiore influenza solleva una questione cruciale: possiamo fidarci delle macchine come ci fidiamo delle persone? E soprattutto, quale tipo di fiducia devono guadagnarsi queste tecnologie?
Un recente opinion paper di J. Beger[1] affronta il problema e inizia descrivendo la fiducia in ambito sanitario come un’esperienza tradizionalmente relazionale: un medico deve ispirare e meritare fiducia. E’ un processo che si costruisce nella vita professionale. Si basa sull’empatia, sull’ascolto, sull’esperienza condivisa. Il medico non è solo un tecnico, ma un custode della vulnerabilità del paziente. Affidarsi significa delegare: confidare che l’altro agirà nel nostro interesse.
Con l’IA, questa delega si fa più incerta: non c’è relazione, vera empatia, né consapevolezza dell’altro. L’IA, per quanto efficace, non sente, non comprende, non condivide. La fiducia in un sistema artificiale, dunque, non può essere un semplice trasferimento da umano a macchina, ma un processo di costruzione, basato sulla percezione di competenza, appropriatezza, trasparenza e allineamento etico del sistema. Si tratta, come afferma J. Beger, di una fiducia calcolata, fondata sulla progettazione e sull’integrazione del sistema.
Studi recenti dimostrano che i clinici tendono a fidarsi dell’IA, a volte seguendola anche quando sbaglia (bias dell’automazione). Ciò comporta il rischio di criticità correlate all’IA quali l’over-reliance (ingiustificato ed eccessivo affidamento nelle capacità dell’automazione, prescindendo dalla variabilità e dall’incertezza del contesto), l’overdependence (sovra-affidamento, vera e propria dipendenza da questi sistemi), il deskilling (dequalificazione, quando tutte o alcune delle componenti dei compiti sono state automatizzate). Peraltro, il pregiudizio dei medici nei confronti dell’intelligenza artificiale può andare in entrambe le direzioni. Un recente studio randomizzato che ha coinvolto 180 radiologi[2], con o senza il supporto dell’IA, ha valutato l’accuratezza dell’interpretazione delle radiografie del torace. Sebbene i sistemi di IA abbiano superato i radiologi nell’analisi complessiva, è stata riscontrata una marcata eterogeneità, con alcuni radiologi che mostravano il fenomeno della “negligenza nell’automazione”: altamente fiduciosi nella propria lettura, ignoravano le interpretazioni dell’intelligenza artificiale.
Uno degli elementi che storicamente sostiene la fiducia nella medicina è la responsabilità personale: l’attribuzione delle scelte decisionali, pur condivise con il paziente, è prerogativa del medico. Ma se un’IA suggerisce una diagnosi errata e il medico l’accetta, di chi è la colpa? Ovviamente l’algoritmo non è una persona; non può essere ritenuto moralmente o legalmente responsabile. Eppure le sue indicazioni influenzano le decisioni. Il risultato è una responsabilità diffusa, poco chiara, che può minare la fiducia nell’intero sistema. Per questo si invoca una governance solida: non solo strumenti affidabili, ma anche strutture che garantiscano supervisione, trasparenza e tracciabilità delle decisioni.
L’importanza della trasparenza
In sanità il paziente non ha bisogno di conoscere ogni dettaglio tecnico, ma di poter porre domande, esprimere il proprio vissuto nei confronti di una condizione di rischio o di malattia e ricevere risposte comprensibili. Paradossalmente, anche le spiegazioni troppo dettagliate non sempre aumentano la fiducia: alcuni clinici preferiscono segnali di affidabilità, come il riconoscimento dell’incertezza. Come affermava ironicamente Niels Bohr, premio Nobel per la fisica: «È difficile fare previsioni, soprattutto sul futuro». L’errore più comune è quello di essere troppo ottimisti e di sbagliare la prognosi per eccesso. I clinici adottano spesso la formula della risposta sincera, per esempio alla fatidica domanda: “Dottore… cosa succederà?”, dicendo che purtroppo è molto difficile fare previsioni poiché possono rivelarsi sbagliate[3]. È essenziale una condivisione positiva dell’incertezza, variabile inevitabile, che non va negletta o combattuta ma accettata e affrontata, come occasione di confronto con il paziente, reso partecipe dei molti “non so”, per arrivare a una condivisione delle scelte.
Uno dei temi più dibattuti nel coinvolgimento dell’IA nei processi decisionali è infatti relativo all’explainability, che riguarda la possibilità di comprendere il percorso che conduce la tecnologia a formulare una determinata conclusione. L’IA spesso funziona come una “scatola nera”: può dare risultati accurati, ma non spiegabili al paziente, facendo venir meno il “diritto alla spiegazione” valido anche per i medici e tutti gli altri possibili utenti[4]. L’opacità dei sistemi di IA solleva l’interrogativo di come garantire il rispetto per i diritti delle persone coinvolte, soprattutto quando una decisione presa dall’algoritmo ha un impatto significativo sulla loro vita. E questo mina la fiducia. La medicina evolve lentamente. L’IA no: apprende, si aggiorna, cambia. I sistemi che apprendono continuamente sono potenti ma anche instabili. Se l’algoritmo muta senza che l’utente lo sappia, la fiducia può rapidamente dissolversi. Occorre perciò monitorare costantemente le modifiche, fornire feedback e costruire una fiducia dinamica, capace di aggiornarsi insieme al sistema. Non bastano strumenti precisi: serve un’infrastruttura che sostenga la fiducia nel tempo, evitando il rischio di affidarsi a tecnologie che si trasformano in silenzio.
Conclusioni
Un aspetto centrale nella cultura digitale è quello di costruire la fiducia di medici e pazienti verso l’AI. Le tecnologie devono essere affidabili e percepite come tali, perché qualsiasi evento, anche se isolato, potrebbe minare la credibilità dell’intero apparato tecnologico, rischiando di rallentare il progresso a causa di una più o meno giustificata sfiducia. La fiducia nell’IA non può essere imposta a priori, né ereditata/trasferita dagli umani alle macchine. Deve essere guadagnata, costruita nel tempo, attraverso progettazione responsabile, trasparenza, chiarezza delle responsabilità e rispetto dei valori della cura. Ciò è possibile solo attraverso lo sviluppo e la validazione scientifica di modelli di AI ed una corretta comunicazione rivolta al personale sanitario e alla popolazione generale. Non si tratta di replicare l’intuito umano… o di sostituire il rapporto umano, ma di facilitarlo. L’IA sarà davvero utile nella sanità solo se riuscirà a potenziare il nostro modo di prenderci cura l’uno dell’altro, non al posto nostro, ma insieme a noi. I medici devono utilizzare la propria intelligenza e le capacità che li rendono superiori alle macchine, in particolare le cosiddette soft skills, l’astrazione, l’intuizione, la flessibilità e l’empatia, aspetti della professione che un algoritmo non saprà mai riprodurre[5].
Bibliografia
[1] Beger J. Not someone, but something: Rethinking trust in the age of medical AI https://www.linkedin.com/in/janbeger/
[2] Agarwal N et al. Combining Human Expertise with Artificial Intelligence Experimental Evidence from Radiology 2023 https://www.nber.org/papers/w31422)
[3] Rossi LR. Zona d’ombra. Roma: Il Pensiero Scientifico Editore, 2022
[4] Mannelli C. Etica e intelligenza artificiale. Il caso sanitario. Roma: Donzelli editore, 2022
[5] Collecchia G, De Gobbi R. Intelligenza artificiale e medicina digitale. Una guida critica. Roma: Il Pensiero Scientifico Editore, 2020