Le intelligenze artificiali (IA) pre-installate nei nostri computer/cellulari non hanno ancora la precisione dell’essere umano ma non è detto che ciò sia disdicevole se la precisione significa mettere all’opera il Bias algoritmico di cui sono affetti i vari sistemi di riconoscimento facciale e se vengono utilizzati da dispositivi di potere, questa volta di genere umano, insensibili ai diritti umani.

I milioni, miliardi di immagini che carichiamo continuamente nelle nuvole cloud[1] dei dispositivi connessi a Internet costituiscono gli enormi set di dati di addestramento delle intelligenze artificiali utilizzate per il riconoscimento facciale (in nota i principali software che ne fanno un massiccio utilizzo[2]. Tutte si avvalgono dei set di immagini caricate attraverso le query ai motori di ricerca, le piattaforme social e mediante le fotocamere sempre più performanti dei nostri cellulari, dei dispositivi di video-sorveglianza e di tutto ciò che l’ioT[3] connette alla Rete. Gli enormi set di dati di addestramento sono i vocabolari e servono a costituire le tassonomie necessarie all’individuazione. Per un momento è sembrato  che fosse possibile identificare un individuo in una foto fino al 90% dei casi.  

Il machine learnig, in altre parole allenamento, è la capacità autonoma di una IA di classificare. Un algoritmo che prende in ingresso una serie di input li riduce ad un singolo valore che verrà confrontato con ciò che il sistema ha stabilito avvicinarsi al riconoscimento. Il parametro di valutazione è sempre presente dentro gli algoritmi ed è ciò che permette alla macchina di classificare. Vediamo un esempio ripreso da una delle tante ricerche effettuate[4] nelle università americane, significativo il titolo “Ridurre l’amplificazione del bias di genere degli algoritmi”. La quarta foto nella figura qui riportata è associata al verbo “cucinando”, il sistema in automatico ha inserito donna quale agente del verbo nonostante la foto mostri un signore che cucina. L’allenamento avviene dalla comparazione con foto simili e se nella maggior parte delle immagini trova donna in corrispondenza dell’agente classificherà anche questa con quel genere di agente. 

 In un set di allenamento dell’attività di cucina ha più probabilità di coinvolgere le donne rispetto ai maschi e questo non stupisce (…) ma ciò che preoccupa è quanto emerge da recenti studi del settore è il fatto che un modello addestrato amplifica ulteriormente la disparità fino a raddoppiarla. A lungo andare l’IA impara che certe parole sono associate a certi ruoli di genere e i modelli neurali non solo riflettono le asimmetrie sociali controverse, ma le “esagerano” rafforzando la presenza di tratti esistenti in un ruolo piuttosto che correggerli. Di manifestazioni del bias di genere di tipo algoritmico se ne possono trovare tantissime, per esempio Google Taslate quando traduce dall’inglese all’italiano associa un pronome maschile alla parola “dottore”  e alla parola “infermiere” è sempre riferito un pronome femminile.

Di grande interesse l’esperienza di Joy Buolamwini, un informatica che sviluppa software e donna dalla pelle di colore scuro, quando era studentessa al MIT e preparava del software che prevedeva di mostrare a un computer una serie di volti umani da analizzare l’algoritmo non è riuscito a riconoscere il suo viso. Ha cambiato espressione, ha acceso una lampada, si è tolta gli occhiali … ma niente. Solo quando Joy ha indossato una maschera di plastica di colore bianco il computer è stato finalmente in grado di riconoscerla come “umana”. Era il 2015 e da allora il suo impegno per contrastare la discriminazione algoritmica non si è più fermato. Nelle sue conferenze parla di uno sguardo codificato [5]: “riflesso delle priorità, delle preferenze e talvolta anche dei pregiudizi di coloro che hanno il potere di plasmare la tecnologia”. Invitata al meeting annuale del World Economic Forum del 2019 a Davos, in Svizzera ha detto “una cosa è che Facebook confonda le persone quando analizza una foto, ma un’altra quando le forze dell’ordine o un potenziale datore di lavoro utilizzano tale software”. Per combattere lo sguardo codificato e per sostenere un mondo con un’IA più inclusiva ed etica ci invita a unirci all’Algorithmic Justice League, un collettivo di cittadin*, artist*, ricercator* e attivist* politici.

Nel 2016 la NIST[6] ha sottoposto oltre 18 milioni di immagini raffiguranti 8 milioni di persone a 200 algoritmi realizzati da 99 sviluppatori differenti per valutarne l’efficacia e la correttezza di funzionamento. Il colore della pelle, il sesso e l’età sono risultati gli elementi comuni alle errate interpretazioni. E nel loro insieme le IA sono risultate essere più precise con gli uomini bianchi e di mezza età. I sistemi hanno mostrato il peggior tasso di falsi positivi per le donne afroamericane sottoponendole al maggior rischio di essere falsamente accusate di un crimine. Per le polizie delle città americane ogni volta che fermano qualcuno è prassi  eseguire la scansione facciale  per comparare il suo volto con una lista di sospetti e se vi è un esito positivo l’arresto è assicurato. La trafila giudiziaria per essere scagionate comporta sforzi e mortificazioni a non finire se il sistema compie un errore nel riconoscimento (falso positivo) come spesso può accadere per le donne di colore.

La storia di questi errori è molto più lunga e da alcuni mesi questa pratica non potrà più essere utilizzata. L’ACLU (American Civil Liberties Union) e il vasto movimento di protesta seguito all’uccisione di George Floyd da parte della polizia insieme all’attivismo della società civile americana – come l’iniziativa di Joy Buolamwini – hanno costretto colossi come IBM, Microsoft e di recente anche Amazon, il cui sistema era largamente e malamente impiegato, a ritirare il software dal mercato. Più defilate Google e Apple per il fatto che le loro applicazioni non erano in dotazione alle forze polizia. E’ comunque di questi giorni l’annuncio di Google di non dotare la produzione dei suoi nuovi cellulari (Google Pixel) del chip di intelligenza artificiale Visual Pixel e il sistema di autenticazione biometrica sui precedenti modelli (Face Unlocknon) non sarà più aggiornato [7]. Anche l’Europa è coinvolta nella regolamentazione, Amnesty International ha chiesto all’UE una moratoria sull’uso della tecnologia di riconoscimento facciale a fini di identificazione e di proibire lo sviluppo, la vendita e l’uso dell’intelligenza artificiale (IA) con un rischio elevato e inaccettabile per i diritti umani [8].

Infine sempre dalla ricerca dell’agenzia NIST [9] si apprende che gli algoritmi sviluppati in Asia non mostrano differenze sostanziali tra il riconoscimento dei volti di persone provenienti da diverse aree geografiche e allora siamo andati a guardare più nel dettaglio. Nel Celeste Impero la face detection è la normalità [10] e ormai tantissime attività sono precedute dal riconoscimento facciale. Addirittura a Shanghai le onnipresenti video-camere scannerizzano il volto di chi attraversa la strada senza rispettare le strisce ed oltre ad essere riconosciuto per la contravvenzione è esposto al pubblico giudizio su schermi giganti. I poliziotti cinesi utilizzano degli occhiali dotati di un’unità mobile per il riconoscimento facciale e l’identificazione di individui sospetti è assicurata da un sistema che non conosce falsi positivi.

L’aspirazione della Cina di essere driver economico fondamentale in Africa driva proprio dalle  possibilità di  business dell’IA. Molte delle relazioni commerciali cinesi con i paesi africani comprendono l’adozione di piattaforme di  face detection legate all’intelligenza artificiale. Lo Zimbabwe che intende perfezionare il suo livello tecnologico ha sottoscritto una partnership con una società cinese con sede a Guangzhou: “il riconoscimento facciale applicato su una popolazione a maggioranza nera, secondo gli scienziati cinesi, consentirà infatti di classificare e identificare più chiaramente altre etnie”. Non è un mistero che la Cina intende esportare i sistemi basati sulla tecnologia che sta perfezionando per il controllo della popolazione agli stati desiderosi di applicarla.

L’intelligenza artificiale cinese è all’opera grazie all’immane lavoro dell’editore di tag, i metadati che classificano gli enormi set di dati per l’allenamento delle IA, come riferisce dettagliatamente Giada Messetti nel recente saggio Nella testa del Dragone ” Mi accompagna da Xiao Jun, un ragazzo di ventiquattro anni che parla un inglese perfetto e si offre di farmi vedere in cosa consiste il suo lavoro. Lui è «l’addetto alle sopracciglia», ovvero trascorre la sua giornata a monitorare immagini, zoomare sulle persone che vi compaiono e contornare le loro sopracciglia. La collega accanto a lui compie lo stesso gesto, però il centro del suo interesse sono soltanto i nasi di chi compare sullo schermo. L’operatore della postazione a fianco, invece, si focalizza sugli alberi ai lati delle strade e via dicendo. Insieme raccolgono questi dati per etichettarli e insegnare alle macchine a essere infallibili nel riconoscere i volti umani e i luoghi. In altri uffici compiono gesti simili per classificare le voci (isolano la traccia audio, specificano se è maschile o femminile, se ha uno sfondo sonoro o no, se possiede un accento eccetera), o mappare le strade e il traffico (in questo caso si tratta di dati che servono alle auto a guida autonoma). Insomma, censiscono, taggano l’esistente, tutto. «Etichettiamo dati e informazioni che trasmettiamo ai computer perché vengano elaborati dall’algoritmo» mi dice Wang Fei. «Tutto è funzionale all’Internet delle cose, alle self-driving car, alle smart e ai loro quartieri sicurissimi, in cui sarà possibile identificare i criminali grazie a un’immagine.»[11] 

E se per la cultura cinese il concetto di privacy è quasi sconosciuto è sconcertante la notizia che la Cina è l’unico paese dove non vi sono nuovi casi di Covid 19 per il regime di controllo e sorveglianza reso possibile dal largo impiego dell’internet degli oggetti (iOT) del proprio governo. Come fare a contrastare l’idea che l’epidemia globale potrà essere contenuta da tecnologie come quelle cinesi.

L’automatizzazione di tutto ciò che può trasmettere dati e informazioni è opera di migliaia di programmatori e programmatrici di software e di analisti di dati, sono loro che potranno cambiare il mondo, se riusciranno a negoziare i differenziali di potere istaurati dal capitalismo delle piattaforme e promuovere forme algoritmiche migliorative della qualità della vita. Fa ben sperare l’emergere del  Google activisme che fin qui ha portato alla luce e contestato l’intento di costruire per la Cina un motore di ricerca censurato,  oppure la partnership dell’azienda con la Difesa statunitense per sviluppare una IA alla ricerca dei droni avversari in territori nemici. Rebecca Rivers e Laurence Berland e poi Meredith Whittaker e Claire Stapleton sono state licenziate per aver criticato e organizzato proteste riguardo la gestione con cui Google ha risolto le accuse di molestie sessuali a carico di propri alti dirigenti. Il progetto del motore è stato ritirato ma tanto altro è in ballo.

In Italia la mancanza di consapevolezza e dibattito sui media maestreming rispetto all’App Immuni per il tracciamento Covit 19 rattrista, soprattutto per l’indifferenza con cui è stata accolta anche se l’uso su base volontaria e la garanzia che non verranno stoccati i dati dimostrano la sensibilità al problema dei politici a caccia di consenso.

…”pensare dobbiamo pensare” dice Haraway, pensare ai sistemi che sistematizzano sistemi per dis-automatizzare processi e relazioni, credo che la critica allo sguardo codificato di Joy Buolamwini potrebbe far parte di una nuova pedagogia, potrebbe essere insegnata nelle scuole soprattutto quelle ad indirizzo tecnico-scientifico che formano programmat* e analist* di dati.

 

___________________

 

[1] Contrazione della loc. ingl. cloud computing – elaborazione nella nuvola (la Rete). L’esecuzione delle applicazioni e l’archiviazione dei dati che vengono eseguite a livello di rete. I computer locali non devono più fare tutto il lavoro e con l’avvento del mobile è il nostro profilo nella cloud che ha accesso agli innumerevoli servizi attivati dalle App.

[2] In ambiente Apple Face ID, in ambiente Google (Android) Google Foto, attraverso la piattaforma Facebook l’app FindFace, Facebook Moments e Deep Face ma anche Twins Or Not di Microsoft, FaceTec, Name Tag oppure Kuznech Link vedi anche https://blog.linkem.com/migliori-app-riconoscimento-facciale/

[3] iOT – acronimo dell’inglese Internet of things – Internet delle cose, usando un insieme di tecnologie qualsiasi oggetto può diventare connesso e comunicante.

[4] Jieyu Zhao et altri, Reducing Gender Bias Amplification using Corpus-level Constraints, University of Virginia e University of Washington 2017.

[5] Articolo di Richard Feloni, Una ricercatrice del Mit ha scoperto che eliminare i pregiudizi nell’intelligenza artificiale è una priorità;  al magazine

[6] National Institute of Standards and Technology, un ente federale statunitense,

[7] Articolo di DA, Riconoscimento facciale, algoritmi ancora troppo “discriminatori” del 20 dicembre 2019 da Corcom.

[8] Articolo Google al risparmio: Pixel 5 non ha il Neural Core dal sito Hdblog del 2 ottobre 2020.

[9] Raccomandazioni di Amnesty International alla Presidenza tedesca del Consiglio dell’Unione Europea, 1 luglio 2020.

[10]  Cina: videosorveglianza con mappa facciale – estratto della trasmissione Codice, La vita è digitale del 04/08/2017.

[11] Giada Messetti, Il sogno del Dragone, Mondadori 2020.