La quintessenza dell’Intelligenza Artificiale è l’abilità di «apprendere grazie all’esperienza», un’idea introdotta dal matematico Alan Turing nel 1947. Un sistema di IA viene progettato per svolgere un preciso compito, ma non viene istruito su come raggiungere l’obiettivo assegnato da chi lo ha programmato: impara dagli esempi da noi forniti, siano essi generati per mano umana o dalla macchina stessa. Ciò significa che i modelli ereditano qualsiasi nostro pregiudizio, come ad esempio quelli razzisti o di genere, rafforzandolo e moltiplicandolo nel tempo.

Negli ultimi anni lo sviluppo delle intelligenze artificiali ha raggiunto traguardi considerevoli, e non solo in termini di investimenti economici. Sono stati, infatti, progettati modelli che replicano in maniera sempre più fedele i meccanismi del nostro cervello, ed è aumentato l’interesse per il loro utilizzo nella realizzazione di testi e immagini, ma anche per quanto riguarda lo sviluppo di farmaci. Modelli che un tempo occupavano grandi dimensioni oggi sono diventati alla portata di tutti, amplificando sia l’interesse collettivo nei loro confronti, che il confronto sulle loro possibili implicazioni.

Ciò che distingue il cosiddetto machine learning dalla semplice nozione di algoritmo o di programmazione è la possibilità di apprendimento autonomo e non supervisionato da parte delle macchine. Il programmatore non ha più bisogno di impostare le funzioni e i codici utili alla risoluzione di un problema, ma viceversa è il computer che, attraverso procedimenti iterativi, trova potenziali relazioni partendo dai soli dati iniziali. Significa, in sintesi, che per evitare discriminazioni è necessario imporre regole, ma anche migliorare gli input iniziali – o meglio, l’educazione di chi li seleziona – affinché non contengano pregiudizi intrinsechi. Insomma, per cambiare le AI dovremmo prima cambiare noi stessi.

Le AI amplificano i nostri pregiudizi

Le macchine imparano dai dati, dagli errori e dall’interazione con la realtà, ma anche dai pregiudizi dell’essere umano che le usa e, soprattutto, le progetta e le mette sul mercato. Come scrive il filosofo Andrew Feenberg, pensare la tecnologia come inevitabile l’ha progressivamente allontanata dalle condizioni empiriche dell’esistenza. Gran parte delle informazioni su cui gli algoritmi di IA basano il loro apprendimento e contengono al loro interno pregiudizi – di genere, di classe e razziali, per citarne solo alcuni – di cui la società è ancora impregnata. I dati non sono, infatti, altro che il suo specchio. Nel momento in cui simili disparità vengono incorporate dalle AI, l’algoritmo, apparentemente “oggettivo”, non farà che rafforzarle e anzi moltiplicarle nel tempo, seguendo la preferenza risultante dalle progressive modifiche del sistema – e quindi, di fatto, dalle interazioni umane.

Secondo uno studio condotto dalla piattaforma Oberlo, il numero di aziende che adottano tecniche di Intelligenza Artificiale negli ultimi 4 anni è cresciuto del 270%. L’applicazione principale avviene nell’analisi dei curricula dei candidati, per automatizzare la procedura di selezione.

Tuttavia, in diversi casi è emerso un errore comune: il sistema – proprio come la società – penalizza le donne, soprattutto per le posizioni legate a ruoli più tecnologici o apicali. Il bias è dovuto ai dati con cui il modello viene addestrato, che guardando al passato, lo portano a delineare un trend prettamente maschile, essendo gli ambiti STEM un settore dove i pregiudizi di genere hanno a lungo penalizzato scienziate, ricercatrici, ingegnere e informatiche.

Da uno studio condotto nel 2018 da due ricercatori del MIT e della Stanford University è emerso invece che alcuni programmi di riconoscimento facciale incorporavano pregiudizi razziali e di genere. Negli esperimenti condotti, è stato rilevato che nel determinare il sesso degli uomini bianchi i tassi d’errore delle intelligenze artificiali non abbiano mai superato lo 0,8%, mentre per le donne con la pelle scura le percentuali salivano al 20% in un programma e a oltre il 34% negli altri. Ciò significa che nell’impiego di questi sistemi per strategie di riduzione del crimine, 1 persona su 5 e 1 persona su 3 potrebbero essere ritenute colpevoli dalle AI per sbaglio. 

Responsabilità umane, usi tecnologici

Come spesso accade, ciò di cui abbiamo bisogno è una posizione intermedia, uno spazio di discussione che ci permetta non solo di confrontarci con i pro e i contro delle innovazioni, ma anche con le modalità con cui usiamo la tecnologia e le possibilità che questa, a sua volta, ha di cambiarci. I pregiudizi e le discriminazioni che potrebbero essere alimentate dalle intelligenze artificiali riportano l’attenzione sui temi del potere, della responsabilità e della trasparenza, ricordandoci quanto sia nostra la scelta tra una tecnologia che può aiutarci a creare una società più equa e prospera o invece uno strumento che può amplificare le attuali diseguaglianze in termini di benessere e potere. Viviamo in un mondo di connessioni ed è importante decidere quali vengano create e sostenute e quali criticate e disfatte – nel digitale, ma prima ancora nella società.