Le intelligenze artificiali (IA) pre-installate nei nostri computer/cellulari non hanno ancora la precisione dell’essere umano ma non è detto che ciò sia disdicevole se la precisione significa mettere all’opera il Bias algoritmico di cui sono affetti i vari sistemi di riconoscimento facciale e se vengono utilizzati da dispositivi di potere di genere umano insensibili ai diritti umani.

I milioni, miliardi di immagini che carichiamo continuamente nelle nuvole cloud[1] dei dispositivi connessi a Internet costituiscono gli enormi set di dati di addestramento delle intelligenze artificiali utilizzate per il riconoscimento facciale (in nota i principali software che ne fanno un massiccio utilizzo[2]. Tutte si avvalgono di set di immagini caricati attraverso le query ai motori di ricerca, le piattaforme social e mediante le fotocamere sempre più performanti dei nostri cellulari, dei dispositivi di video-sorveglianza e di tutto ciò che l’ioT[3] connette alla Rete. Gli enormi set di dati di addestramento sono i vocabolari e servono a costituire le tassonomie necessarie all’individuazione. Nel 90% dei casi sembra che sia possibile identificare un individuo in una foto ma … a condizione che sia occidentale e bianco il colore della sua pelle!

La capacità  di una IA di classificare autonomamente le immagini deriva dal machine learnig, in altre parole allenamento. Un algoritmo prende in ingresso una serie di input li riduce ad un singolo valore che verrà confrontato con ciò che il sistema ha stabilito avvicinarsi al riconoscimento. Il parametro di valutazione, sempre presente dentro gli algoritmi, è ciò che permette alla macchina di classificare.
Vediamo un esempio, ripreso da una delle tante ricerche effettuate[4] nelle università americane, il cui titolo è estremamente significativo  “Ridurre l’amplificazione del bias di genere degli algoritmi”. La quarta foto nella figura qui riportata è associata al verbo “cucinando”, il sistema in automatico ha inserito donna quale agente del verbo nonostante la foto mostri un signore che cucina. L’allenamento avviene dalla comparazione con foto simili e se nella maggior parte delle immagini trova donna in corrispondenza dell’agente classificherà anche questa con quel genere di agente.

In un set di allenamento riguardante il riconoscimento dell’agente dell’attività di cucina ha più probabilità di coinvolgere le donne rispetto ai maschi e questo non stupisce (…) ma ciò che preoccupa è il fatto che un modello addestrato amplifica ulteriormente la disparità fino a raddoppiarla perchè lungo andare l’IA impara che certe parole sono associate a certi ruoli di genere. E i modelli neurali, la tipologia di algoritmi utilizzati nel machine learnig, non solo riflettono le asimmetrie sociali controverse ma le “esagerano” rafforzando la presenza di tratti esistenti in un ruolo.
Di manifestazioni del bias di genere di tipo algoritmico ne possiamo trovare tantissime: quando traduce dall’inglese all’italiano per esempio Google Taslate  associa un pronome maschile alla parola “dottore” e alla parola “infermiere” è sempre riferito un pronome femminile.

Di grande interesse l’esperienza di Joy Buolamwini, un informatica che sviluppa software e donna dalla pelle di colore nero, quando era studentessa al MIT nel preparare il software che doveva permettere a un computer di analizzare una serie di volti umani l’algoritmo non è riuscito a riconoscere il suo viso. Ha cambiato espressione, ha acceso una lampada, si è tolta gli occhiali … ma niente. Solo quando Joy ha indossato una maschera di plastica di colore bianco il computer è stato finalmente in grado di riconoscerla come “faccia umana”. Era il 2015 e da allora il suo impegno per contrastare la discriminazione algoritmica non si è più fermato. Nelle sue conferenze parla di uno sguardo codificato [5]: “riflesso delle priorità, delle preferenze e talvolta anche dei pregiudizi di coloro che hanno il potere di plasmare la tecnologia”. Invitata al meeting annuale del World Economic Forum del 2019 a Davos, in Svizzera ha detto “una cosa è che Facebook confonda le persone quando analizza una foto, ma un’altra quando le forze dell’ordine o un potenziale datore di lavoro utilizzano tale software”. Per combattere lo sguardo codificato e per sostenere un mondo con un’IA più inclusiva ed etica ci invita a unirci all’Algorithmic Justice League, un collettivo di cittadin*, artist*, ricercator* e attivist* politici.

Oltremodo significativa la ricerca del 2016 della NIST[6] che ha sottoposto oltre 18 milioni di immagini raffiguranti 8 milioni di persone a 200 algoritmi realizzati da 99 sviluppatori differenti per valutarne l’efficacia e la correttezza di funzionamento. Il colore della pelle, il sesso e l’età sono risultati gli elementi comuni alle errate interpretazioni. E nel loro insieme le IA sono risultate essere più precise con gli uomini bianchi e di mezza età. I sistemi hanno mostrato il peggior tasso di falsi positivi per le donne afroamericane sottoponendole maggiormente al rischio di essere falsamente accusate di un crimine. Per le polizie delle città americane ogni volta che fermano qualcuno è prassi  eseguire la scansione facciale  per comparare il suo volto con una lista di sospetti e se vi è un esito positivo l’arresto è assicurato. Alle donne di colore può accadere e la trafila giudiziaria per essere scagionate comporta sforzi e mortificazioni a non finire se il sistema compie un errore nel riconoscimento (falso positivo).

Negli Stati Uniti la storia di questi errori è molto lunga e da alcuni mesi questa pratica è stata talmente contestata che in alcuni stati non potrà più essere utilizzata. L’ACLU (American Civil Liberties Union) e il vasto movimento di protesta seguito all’uccisione di George Floyd da parte della polizia insieme all’attivismo della società civile americana – come l’iniziativa di Joy Buolamwini – hanno costretto colossi come IBM, Microsoft e di recente anche Amazon, il cui sistema era largamente e malamente impiegato, a ritirare il software dal mercato. Più defilate Google e Apple per il fatto che le loro applicazioni non erano in dotazione alle forze polizia. E’ comunque di questi giorni l’annuncio di Google di non dotare la produzione dei suoi nuovi cellulari (Google Pixel) del chip di intelligenza artificiale Visual Pixel e il sistema di autenticazione biometrica sui precedenti modelli (Face Unlocknon) non sarà più aggiornat [7]. Anche l’Europa è coinvolta nella regolamentazione, Amnesty International ha chiesto all’UE una moratoria sull’uso della tecnologia di riconoscimento facciale a fini di identificazione e di proibire lo sviluppo, la vendita e l’uso dell’intelligenza artificiale (IA) con un rischio elevato e inaccettabile per i diritti umani [8].

Infine sempre dalla ricerca dell’agenzia NIST [9] si apprende che gli algoritmi sviluppati in Asia non mostrano differenze sostanziali tra il riconoscimento dei volti di persone provenienti da diverse aree geografiche e allora siamo andati a guardare più nel dettaglio. Nel Celeste Impero la face detection è la normalità [10] e ormai tantissime attività sono precedute dal riconoscimento facciale. Addirittura a Shanghai le onnipresenti video-camere scannerizzano il volto di chi attraversa la strada senza rispettare le strisce ed oltre ad essere riconosciuto per la contravvenzione è esposto al pubblico giudizio su schermi giganti. I poliziotti cinesi utilizzano degli occhiali dotati di un’unità mobile per il riconoscimento facciale e l’identificazione di individui sospetti è assicurata da un sistema che non conosce falsi positivi.

L’aspirazione della Cina di essere driver economico fondamentale in Africa driva proprio dalle  possibilità di  business dell’IA. Molte delle relazioni commerciali cinesi con i paesi africani comprendono l’adozione di piattaforme di  face detection legate all’intelligenza artificiale. Lo Zimbabwe che intende perfezionare il suo livello tecnologico ha sottoscritto una partnership con una società cinese con sede a Guangzhou: “il riconoscimento facciale applicato su una popolazione a maggioranza nera, secondo gli scienziati cinesi, consentirà infatti di classificare e identificare più chiaramente altre etnie”. Non è un mistero che la Cina intende esportare i sistemi basati sulla tecnologia che sta perfezionando per il controllo della popolazione agli stati desiderosi di applicarla.

L’intelligenza artificiale cinese è all’opera grazie all’immane lavoro dell’editore di tag, i metadati che classificano gli enormi set di dati per l’allenamento delle IA, come riferisce dettagliatamente Giada Messetti nel recente saggio Nella testa del Dragone ” Mi accompagna da Xiao Jun, un ragazzo di ventiquattro anni che parla un inglese perfetto e si offre di farmi vedere in cosa consiste il suo lavoro. Lui è «l’addetto alle sopracciglia», ovvero trascorre la sua giornata a monitorare immagini, zoomare sulle persone che vi compaiono e contornare le loro sopracciglia. La collega accanto a lui compie lo stesso gesto, però il centro del suo interesse sono soltanto i nasi di chi compare sullo schermo. L’operatore della postazione a fianco, invece, si focalizza sugli alberi ai lati delle strade e via dicendo. Insieme raccolgono questi dati per etichettarli e insegnare alle macchine a essere infallibili nel riconoscere i volti umani e i luoghi. In altri uffici compiono gesti simili per classificare le voci (isolano la traccia audio, specificano se è maschile o femminile, se ha uno sfondo sonoro o no, se possiede un accento eccetera), o mappare le strade e il traffico (in questo caso si tratta di dati che servono alle auto a guida autonoma). Insomma, censiscono, taggano l’esistente, tutto. «Etichettiamo dati e informazioni che trasmettiamo ai computer perché vengano elaborati dall’algoritmo» mi dice Wang Fei. «Tutto è funzionale all’Internet delle cose, alle self-driving car, alle smart e ai loro quartieri sicurissimi, in cui sarà possibile identificare i criminali grazie a un’immagine.»[11]

E se per la cultura cinese il concetto di privacy è quasi sconosciuto ha sconcertato, durante la pandemia, il fatto che la Cina era l’unico paese dove non vi erano nuovi casi di Covid 19 per il regime di controllo e sorveglianza reso possibile dal largo impiego dell’internet degli oggetti (iOT) del proprio governo. Come fare a contrastare l’idea che futuri scenari come quelli dell’epidemia globale potranno essere contenute da tecnologie come quelle cinesi.

L’automatizzazione di tutto ciò che può trasmettere dati e informazioni è opera di migliaia di programmatori e programmatrici di software e di analisti di dati; sono loro quindi, che potranno cambiare il mondo se riusciranno a negoziare i differenziali di potere instaurati dal capitalismo delle piattaforme e promuovere forme algoritmiche migliori.

È interessante l’emergere del movimento Google Activisme che ha portato alla luce, e contestato, l’intento di Google di costruire un motore di ricerca “censurato” per la Cina e la partnership dell’azienda, con la Difesa statunitense, per sviluppare una AI utile per la ricerca dei droni avversari in territori nemici.
Rebecca Rivers e Laurence Berland e poi Meredith Whittaker e Claire Stapleton, dipendenti di Google che animano questo movimento, sono state peraltro licenziate per aver criticato e organizzato proteste per come Google ha gestito accuse di molestie sessuali a suoi alti dirigenti.
Il progetto del motore è stato ritirato ma tanto altro è in ballo.
In Italia, la mancanza di consapevolezza e di dibattito soprattutto sui media mainstream, riguardo l’App di tracciamento Covid 19 Immuni ha mostrato l’indifferenza riguardo i sistemi informatici applicati su larga scala nel nostro paese; ci è sembrato che l’interesse dei politici si sia limitato a mero consenso risolto attraverso l’uso su base volontaria e la garanzia che non sarebbero stati stoccati i dati.
… “Pensare dobbiamo” dice Haraway, pensare ai sistemi che sistematizzano sistemi per dis-automatizzare processi e relazioni; credo, a tal fine, che la critica allo sguardo codificato di Joy Buolamwini potrebbe far parte di una nuova pedagogia nelle scuole, soprattutto quelle ad indirizzo tecnico-scientifico che formano programmatorƏ e analistƏ di dati.

 

___________________

 

[1] Contrazione della loc. ingl. cloud computing – elaborazione nella nuvola (la Rete). L’esecuzione delle applicazioni e l’archiviazione dei dati che vengono eseguite a livello di rete. I computer locali non devono più fare tutto il lavoro e con l’avvento del mobile è il nostro profilo nella cloud che ha accesso agli innumerevoli servizi attivati dalle App.

[2] In ambiente Apple Face ID, in ambiente Google (Android) Google Foto, attraverso la piattaforma Facebook l’app FindFace, Facebook Moments e Deep Face ma anche Twins Or Not di Microsoft, FaceTec, Name Tag oppure Kuznech Link vedi anche https://blog.linkem.com/migliori-app-riconoscimento-facciale/

[3] iOT – acronimo dell’inglese Internet of things – Internet delle cose, usando un insieme di tecnologie qualsiasi oggetto può diventare connesso e comunicante.

[4] Jieyu Zhao et altri, Reducing Gender Bias Amplification using Corpus-level Constraints, University of Virginia e University of Washington 2017.

[5] Articolo di Richard Feloni, Una ricercatrice del Mit ha scoperto che eliminare i pregiudizi nell’intelligenza artificiale è una priorità;  al magazine

[6] National Institute of Standards and Technology, un ente federale statunitense,

[7] Articolo di DA, Riconoscimento facciale, algoritmi ancora troppo “discriminatori” del 20 dicembre 2019 da Corcom.

[8] Articolo Google al risparmio: Pixel 5 non ha il Neural Core dal sito Hdblog del 2 ottobre 2020.

[9] Raccomandazioni di Amnesty International alla Presidenza tedesca del Consiglio dell’Unione Europea, 1 luglio 2020.

[10]  Cina: videosorveglianza con mappa facciale – estratto della trasmissione Codice, La vita è digitale del 04/08/2017.

[11] Giada Messetti, Il sogno del Dragone, Mondadori 2020.