su Amazon in formato ebook e cartaceo
Il bias algoritmico è la nuova maschera del patriarcato, è fondamentale comprendere gli algortimi per contrastare la discriminazione algoritmica di tante applicazioni dove viene mascherata e ridotta a scatola nera (black box) la possibilità tutta umana di stabilire i parametri di standard e normalità che una volta immessi nello schema interpretativo possono rendere le AI [Artificial Intelligence] razziste e sessiste.
Il fascino del computer/cellulare deriva dalla sua combinazione di ciò che può essere visto e non visto [i], può essere conosciuto e non conosciuto, la separazione dell’interfaccia dall’algoritmo, il software dall’hardware. E’ la potente metafora di tutto ciò che crediamo sia invisibile ma che genera effetti visibili, dall’ingegneria genetica alla mano invisibile del Mercato; dall’ideologia alla cultura. L’informatica nel bene e nel male è essenzialmente frutto della civiltà occidentale che si è costituita in una dinamica concettuale centrata su un approccio visivo della realtà. Il mondo è guardato, scrutato, osservato, esaminato, analizzato. Ciò che non è visibile all’occhio umano non esiste!
Nel libro «Appunti di femminismo digitale #2 – Algoritmi» viene messo in luce come il software, altrimenti detto codice, gioca con la necessità tutta computazionale (gli algoritmi) di farsi invisibile (è visibile solo attraverso interfacce e App sempre più naturalizzate) e di rendere visibile l’invisibilità degli assi differenziali di potere della società in cui opera. Si pensi ai programmi di data mining[ii] basati su quantità enormi di dati e osservazioni statistiche di interi settori sociali che possono rendere visibili i pregiudizi razziali e di genere nell’output di molteplici software impiegati nella selezione del personale, nella valutazione dell’operato dei lavoratori, nella concessione di prestiti[iii]. E si pensi alle manifestazioni di intelligenza artificiale sessuata di Siri, Alexa che con straordinarie voci femminili alleggeriscono la fatica di un colloquio altrimenti impossibile con gli artefatti tecnologici. Si pensi infine a BERT, vera e propria AI, che nella buca di Google sa rispondere alle nostre ricerche con inusuale competenza ma interrogato su argomenti riguardanti il mondo del lavoro e le esigenze professionali delle aziende il suo ragionamento si fonda sul bias di genere che mette sempre in relazione padre con dottore e madre con infermiera oppure uomo con programmatore di computer e donna con casalinga.
Gli attuali algoritmi esistono perché esiste la discriminazione di genere lungo l’asse di potere che permette ad un genere di prevalere sugli altri. Questo è il modello, il ragionamento che ispira l’architettura realizzativa del computer e le tecnologie ICT ne sono la pragmatica concretizzazione. Il bias di genere purtroppo é all’opera nelle nuove forme della discriminazione algoritmica di tante applicazioni dove viene mascherata e ridotta a scatola nera (black box) la possibilità tutta umana di stabilire i parametri di standard e normalità che una volta immessi nello schema interpretativo possono rendere le AI [Artificial Intelligence] razziste e sessiste.
Un femminismo digitale rintraccia i modelli-schemi iniziali degli algoritmi che generano tutti gli altri per decostruire la Ragione Algoritmica con la A maiuscola al fine di ricostruire le tante ragioni necessarie alla convivenza con i tanti Altri da noi stessi. Per modificare tutta la retorica andropocentrica dell’attuale governance algoritmica è necessario imparare a fare del reverse enginering. Ri-passare alcuni ragionamenti algoritmici attraverso la narrazione (fabula) della loro insorgenza può aiutare a capire che cos’è l’AI, da dove viene e come funziona.
Il femminismo digitale intende prima di tutto contrastare la discriminazione algoritmica dell’attuale produzione di software che rende invisibile chi è “altrimenti” visibile per ricavare spazi di resistenza e di libertà .
Note
[i] Wendy Hui Kyong Chun, Programmed Visions: Software and Memory, (MIT Press, 2013.
[ii] Per data mining si intende l’individuazione di informazioni di varia natura (non conosciute a priori) tramite estrapolazione mirata da grandi banche dati, compiute da operazioni in larga parte automatizzate ed eseguite da specifici software.
[iii] I big data possono aumentare le disuguaglianze e minacciano la democrazia attraverso algoritmi che assumono grande importanza ed espongono le persone, secondo Cathy O’Neil, al rischio della discriminazione algoritmica se non si favoriscono modelli matematici più equi ed etici. Cathy O’Neil, Armi di distruzione matematica, Bompiani, 2017
[iv] Braidotti, R. (2015). Quattro tesi sul femminismo postumano. La Camera Blu. Rivista Di Studi Di Genere, 11(12). https://doi.org/10.6092/1827-9198/3706