Leggere “Intelligenza Artificiale” a molte persone evocherà probabilmente scene da film ormai divenuti classici della fantascienza come 2001: Odissea nello spazio oppure Blade Runner o ancora Lei. E invece solo nell’ultimo decennio la rivoluzione digitale ha subito un’accelerazione con conseguenze che ritroviamo ovunque nella nostra vita quotidiana. Una pietra miliare è stata l’irruzione sulla scena del deep learning, ovvero la possibilità di creare un’Intelligenza Artificiale in grado di apprendere come un essere umano ma in modo molto più veloce ed efficace. L’uso di IA si è diffuso in quasi tutte le nostre attività e in gran parte delle agenzie governative e delle società private.
Tuttavia, varie ricerche sui rischi legati all’uso dei sistemi di IA rivelano sempre più spesso discriminazioni a danno di gruppi sociali in situazioni di vulnerabilità, comprese le donne e chi fa parte della comunità LGBT+. Nonostante gli algoritmi siano stati inizialmente creati per essere neutrali ed equi, evitando pregiudizi tipicamente umani, molti degli algoritmi utilizzati oggi, dal mercato assicurativo al sistema giudiziario, hanno incorporato i pregiudizi di chi li ha progettati.
Un esempio abbastanza inquietante è riportato nel documentario Coded Bias di Joy Buolamwini (ricercatrice presso il MIT Media Lab) che indaga sulla presenza di pregiudizi negli algoritmi e sui clamorosi difetti della tecnologia di riconoscimento facciale, dopo che l’autrice li ha provati anche sulla propria pelle. Nella sua attività di ricerca infatti, Buolamwini ha sottoposto 1000 volti ad alcuni sistemi di riconoscimento facciale chiedendo loro di identificare se i volti fossero maschili o femminili. Ha così scoperto che per il software era molto difficile identificare soprattutto le donne dalla pelle scura (anche se erano persone famose come Michelle Obama). L’autrice, di origine ghanese naturalizzata statunitense, ha anche fondato la Algorithmic Justice League, un’organizzazione che mira a identificare e combattere il pregiudizio nel software.
Questo strano comportamento dell’IA avviene perché i dati con cui è stato addestrato il sistema e le conseguenti probabilità che ha appreso riportano un bias. Un altro esempio, legato questa volta all’ambito del linguaggio, è che se il sistema ha visto aggettivi negativi più spesso riferiti a un certo gruppo etnico o sociale, tenderà a riprodurre la stessa associazione. Un po’ come un/a bambino/a che impara osservando il comportamento dei genitori.
Sempre riguardo al linguaggio, un altro aspetto critico è quello evidenziato anche da Marzia Camarda (imprenditrice ed esperta in questioni di genere) che sottolinea come «Le aziende che producono tecnologie sono ancora immerse in una subcultura maschilista, e gli effetti di questo approccio rischiano di generare una società più iniqua; questo è evidente per esempio nel caso degli algoritmi che lavorano sul linguaggio naturale, per cui se l’algoritmo viene addestrato senza correttivi tende a diventare misogino (e razzista), per via dell’abbondanza di questo tipo di materiali circolanti su internet» (intervista completa qui; di questo e molto altro si parla su «La ricerca» #21 STEM. Roba da ragazze).
Per andare più a fondo nell’analisi di questo problema, abbiamo fatto qualche domanda ad Andrea Zaninello, dottorando in Natural Language Processing (NLP, o in italiano Trattamento Automatico delle Lingue – TAL) alla Fondazione Bruno Kessler / Università di Bolzano e redattore del vocabolario Zingarelli per Zanichelli editore. Da anni Zaninello si occupa di linguistica computazionale: una disciplina a cavallo tra le scienze del linguaggio, che vogliono capire e spiegare come funzionano le lingue e la facoltà del linguaggio umano, e l’informatica, che si occupa dell’elaborazione dei dati e del trattamento automatico dell’informazione.
Parlando delle applicazioni dell’intelligenza artificiale nel campo della linguistica computazionale ci ha spiegato che «recentemente, in particolare con l’applicazione diffusa delle reti neurali, quindi di tecniche di deep learning, anche in questo campo, la linguistica computazionale (LC) è stata assimilata al Natural Language Processing che è una branca dell’intelligenza artificiale che si occupa appunto di elaborare, analizzare o generare dati linguistici. Per esempio, le tecniche di NLP sono alla base della traduzione automatica, che oggi è integrata in molti sistemi che utilizziamo (per esempio nelle sezioni commenti dei social network), dei sistemi di sottotitolazione automatica (integrati su Youtube e nelle piattaforme come Zoom), del riconoscimento del parlato, degli agenti conversazionali come Siri e Alexa, o più semplicemente nel suggeritore automatico (il “T9”) integrato nei nostri smartphone o più di recente nelle nostre email. Queste sono le applicazioni che vediamo e con cui interagiamo direttamente.
C’è poi una serie di altre applicazioni del NLP che sono alla base dei sistemi di analisi delle nostre preferenze e dei nostri comportamenti. Per esempio, la sentiment analysis, che consiste nel determinare automaticamente qual è il sentimento o l’emozione veicolata da un testo, è spesso utilizzata nella pubblicità o nel marketing e indirizza le scelte strategiche di aziende e istituzioni, anche politiche, quando applicata su intere fasce di popolazione o incrociata con sistemi di profilazione, anche questi applicazioni della linguistica computazionale, quando si basano su dati linguistici».
Vista la pervasività che queste applicazioni ormai hanno nella nostra vita quotidiana, abbiamo chiesto a Zaninello se esistono stereotipi (di genere e non solo) che dal mondo analogico si riverberano anche in quello digitale.
«Il settore dell’NLP, come tutta l’IA in generale, ha fatto un vero balzo in avanti successivamente all’applicazione diffusa delle reti neurali nella maggior parte dei task (come quelli descritti prima), favorita dal miglioramento delle prestazioni hardware dei dispositivi di calcolo. Se da un lato questo ha fatto sì che i sistemi siano in grado di elaborare enormi quantità di dati e imparare da essi in modo non supervisionato, questo ha comportato anche una minore possibilità di controllare come e che cosa questi modelli imparano, e di spiegare a posteriori perché hanno fatto una certa previsione piuttosto che un’altra.
Per fare un esempio, prendiamo la traduzione automatica. Nella sua versione “classica” per tradurre una frase dall’italiano all’inglese, la traduzione automatica avrebbe dovuto analizzare la frase di partenza dal punto di vista morfologico, sintattico e lessicale, trasferire questa analisi in una rappresentazione lessicale intermedia, e poi trasformare, secondo regole prestabilite, questa rappresentazione nella lingua di arrivo. Le regole e le rappresentazioni lessicali in questo caso sono indicate esplicitamente da chi programma il sistema.
Nella traduzione basata su reti neurali, invece, queste regole rimangono implicite, perché l’apprendimento avviene fornendo al sistema una grandissima quantità di testi in italiano allineati alla loro traduzione inglese, cioè molti “esempi”, da cui il sistema induce delle regolarità e impara, in modo automatico, la probabilità con cui una sequenza italiana corrisponde a una sequenza inglese, e contemporaneamente una probabilità che a una sequenza inglese segua una certa parola nella medesima lingua (quindi un modello linguistico interno dell’inglese). Tutto questo, “solo” vedendo molti esempi di traduzione.
Poiché questo avviene implicitamente e su una enorme quantità di testi, che spesso non vengono controllati a priori, se nei dati di training sono presenti degli stereotipi di genere, razziali, sociali ecc. il sistema li riproporrà nel momento in cui viene utilizzato. Per esempio, se il sistema di traduzione neurale al momento dell’addestramento ha visto quasi sempre che doctor è collegato a soggetti maschili mentre nurse è collegato a soggetti di genere femminile, se si troverà a dover “decidere”, traducendo da una lingua che non distingue per genere alla terza persona, come il turco, a una lingua come l’inglese, se generare he o she, molto probabilmente produrrà una frase come “he is a doctor, she is a nurse” e non viceversa, perpetuando lo stereotipo che i dottori siano uomini e le infermiere donne».
Di fronte a questo scenario piuttosto deprimente viene spontaneo domandarsi: che cosa possiamo fare per evitare che tutti questi stereotipi prettamente umani inquinino anche i sistemi di IA?
Per Zaninello la soluzione a questo problema è complessa soprattutto perché non è semplice prevedere quali e dove possono essere questi stereotipi: «alcuni sistemi propongono dei moduli di filtraggio dei risultati, per esempio bloccando la generazione di certe parole offensive o di alcune combinazioni di termini, quindi applicando un filtro a posteriori. Altre proposte cercano di eliminare i bias dai dati di training, per esempio selezionando in modo equo gli esempi maschili e femminili o, per alcuni task, eliminando il riferimento al genere nei dati di addestramento. Altre soluzioni invece cercando di addestrare altri modelli “intelligenti” in grado di individuare contenuti offensivi o stereotipi, e propongono di integrare questi modelli nell’algoritmo di apprendimento, in modo che già nella fase di training il contenuto stereotipato sia penalizzato e che quindi questo venga collegato a una probabilità più bassa.
Ciò che accomuna tutte queste proposte è la necessità di conoscere e riconoscere gli stereotipi sia dei dati che produciamo, sia dei sistemi che utilizziamo, e la capacità di analizzare questo aspetto ha, a mio avviso, molto più a che fare con l’abilità umana di ragionare, empatizzare ed elaborare informazione implicita che con la capacità di una macchina di fare calcoli, e quindi richiede un intervento umano cruciale nel design di questi sistemi.» Insomma, per evitare che l’Intelligenza Artificiale riproponga gli stessi stereotipi di cui è ancora intrisa la nostra società, le possibili soluzioni hanno molto più a che fare con la linguistica che con l’informatica.