La tecnologia può apportare enormi benefici sulla società: sta già facilitando interi processi produttivi, rispondendo a necessità prima lasciate irrisolte, accorciando le distanze e, soprattutto, infondendo speranze nel futuro.
Per essere realmente benefica e d’impatto, però, la tecnologia deve tenere conto di tutte le soggettività e corrispettivi bisogni, rispondendo quanto più alle esigenze del singolo anziché focalizzarsi su maggioranze predefinite. Dovrebbe, in poche parole, mettere al centro le persone, i loro diritti, i loro bisogni.
Questa premessa è doverosa perché ci ricorda un aspetto molto importante della tecnologia e delle sue applicazioni: la mancata neutralità. A prescindere dal fine e settore di utilizzo, la tecnologia è ancora parziale, con un valore che dipende da chi, come, dove e quando la sviluppa e applica.
Sempre più settori stanno però studiando, progettando e implementando tecnologie quanto più diverse e neutrali possibile, promuovendo una tecnologia che parte dalla domanda chi lasciamo indietro? anziché da risposte che soddisfano una maggioranza aleatoria.
Uno degli esempi di specifica declinazione tecnologica, in cui troviamo sempre più protagonisti che si stanno attivando per raggiungere un’etica all’insegna dell’equità, è l’Intelligenza Artificiale.
Cos’è l’Intelligenza Artificiale?
Spesso considerata come il presente e futuro della tecnologia, l’Intelligenza Artificiale è l’abilità di una macchina di mostrare capacità convenzionalmente considerate umane come il ragionamento, l’apprendimento, la pianificazione e persino la creatività.
L’intelligenza Artificiale permette ai sistemi di relazionarsi con gli ambienti circostanti muovendosi verso obiettivi specifici: i computer, ricevuti i dati richiesti, processano e rispondono di conseguenza, arrivando ad agire in autonomia attraverso l’analisi di risultati e azioni precedenti, già verificatesi in passato.
Ed è qui, tra le maglie di questi processi, che si insinua il potenziale discriminatorio.
Seppur autonoma nell’elaborazione finale, l’Intelligenza artificiale riceve un’istruzione algoritmica umana, un input iniziale, che riflette inevitabilmente i preconcetti e pregiudizi (bias) umani di chi l’ha progettata.
Intelligenza Artificiale e Bias
Uno degli esempi più noti (e razzisti) dei bias dell’Intelligenza Artificiale è forse quello del riconoscimento facciale di Google Photo (il sistema di catalogazione che divide i nostri “rullini digitali” in raccolte di paesaggi, feste, cibo, e così via).
Nel 2015 era diventato virale su Twitter lo screenshot di un utente, il web developer statunitense Jacky Alciné, che mostrava come Google Photo avesse catalogato sotto il termine “gorilla” l’immagine di due persone nere, più precisamente quella di Alciné stesso e di una sua amica (per un approfondimento, qui l’articolo di Slate, una delle prime testate che ne aveva parlato).
Sebbene l’azienda fosse intervenuta prontamente con le scuse dell’ormai ex Chief Architect di Google+ Yonatan Zunger (nonché con la rimozione del tag razzista), l’evento rivela magistralmente il problema a monte: l’assenza di una forza lavoro umana diverse in grado di insegnare all’intelligenza artificiale qualcosa che vada oltre la visione del mondo bianca (in questo specifico caso, a Google Photo che per “persone” non si intendono solo “esseri umani bianchi”).
Un altro esempio di come i bias negli algoritmi siano frutto dei pregiudizi umani ci viene fornito direttamente da Amazon. Tra il 2014 e il 2017 un team Amazon di esperti in Intelligenza Artificiale aveva lavorato a un software in grado di esaminare e scremare i curricula che arrivavano in risposta alle posizioni lavorative promosse dall’azienda sui vari canali di recruiting.
La ricerca automatizzata di talenti penalizzava, però, le donne.
Questo perché gli algoritmi del software erano stati “allenati” attraverso i curricula ricevuti dalla società nell’arco dei 10 anni precedenti: curricula prettamente maschili, data la maggiore presenza di uomini nel settore tecnologico (anche e soprattutto nel ramo dell’Intelligenza Artificiale: si stima che solo il 22% di persone professioniste di questo settore siano donne).
A rendere noto il bias era stata l’agenzia stampa Reuters nel 2018 e, sebbene Amazon abbia poi dichiarato di non aver mai usato il software come unico sistema di recruiting, la vicenda racconta bene come i pregiudizi della società si riversino automaticamente tra i sistemi di apprendimento dell’Intelligenza Artificiale (nel caso dei software di recruiting è opportuno menzionare come questi, oltre a essere sessisti, si rivelino anche razzisti).
La domanda, quindi, è: come o perché è potuto succedere?
Al momento attuale le tecnologie non ci consentono di capire nel dettaglio cosa avvenga nei processi di elaborazione e lavorazione dei dati. Sappiamo però certamente che, dato un determinato input umano, l’Intelligenza Artificiale ci restituirà un output conseguente, coerente con l’apporto dato in partenza.
Per questo, chiedersi come un dato atto discriminatorio sia potuto capitare, anziché perché sia successo, rischia di allontanarci da una soluzione tangibile e soprattutto necessaria.
Se infatti il come, a livello tecnico, sia ancora di difficile spiegazione, il perché è più facilmente rintracciabile, poiché riflette i lasciti di una società discriminante e poco incline alla promozione di ambienti inclusivi.
Continuare a chiedersi come, anziché perché, sposta il focus alla base della problematicità, circoscrivendolo ai tecnicismi propri delle tecnologie. Sapere come sia stato possibile ricevere un dato output non blocca gli input discriminanti né i bias di chi li immette.
Ci allontana anzi da quello che è uno degli obiettivi primari dell’innovazione tecnologica: fornire strumenti etici, affidabili e antropocentrici che possano migliorare la vita di tutte le persone, senza esclusioni di sorta.