Il bias algoritmico è la nuova maschera del patriarcato, è fondamentale comprendere gli algortimi per contrastare la discriminazione algoritmica di tante applicazioni dove viene mascherata e ridotta a scatola nera (black box) la possibilità tutta umana di stabilire i parametri di standard e normalità che una volta immessi nello schema interpretativo possono rendere le AI [Artificial Intelligence] razziste e sessiste.

Gli algoritmi e l’intelligenza artificiale di oggi vanno letti considerando il contesto socio-economico e antropico in cui sono inseriti. In un’epoca segnata dalla crisi ambientale, queste tecnologie possono rafforzare forme inedite di potere e diseguaglianza, se gestite senza una visione critica. Credo sia prioritario studiare come gli algoritmi influenzano la costruzione sociale dei generi e delle identità. Solo comprendendo come essi internalizzino e riproducano gli stereotipi possiamo immaginare modi per disautomatizzare il ragionamento umano e sviluppare tecnologie inclusive. La mia ambizione è contribuire a intrecciare l’analisi ermeneutica di questi sistemi con gli studi di genere, per decifrarne le implicazioni politiche e progettuali.

Se i femminismi sono riusciti ad alzare il velo sull’invisibilità del potere autoritario del patriarcato riusciranno anche a rendere visibile l’impronta patriarcale nell’attuale tecnologia. Ripercorrendo la storia dell’informatica si scopre che l’algoritmo è il figlio bastardo del patriarcato. Degli algoritmi si conosce il padre  ma non si conosce la madre. Abbracciando una prospettiva di genere è possibile il ribaltamento concettuale della nozione di figlio bastardo che permette il primo di vari nessi diretti fra discriminazione di genere e discriminazione algoritmica. Gli attuali algoritmi esistono perché esiste la discriminazione di genere lungo l’asse di potere che permette ad un genere di prevalere sugli altri. Questo è il modello, il ragionamento che ispira l’attuale architettura realizzativa del computer e le tecnologie ICT ne sono la pragmatica concretizzazione.

Il fascino del computer/cellulare deriva dalla combinazione di ciò che può essere visto e non visto [i], può essere conosciuto e non conosciuto, la separazione dell’interfaccia dall’algoritmo, il software dall’hardware. E’ la potente metafora di tutto ciò che crediamo sia invisibile ma che genera effetti visibili, dall’ingegneria genetica alla mano invisibile del mercato; dall’ideologia alla cultura. L’informatica nel bene e nel male è essenzialmente frutto della civiltà occidentale che si è costituita in una dinamica concettuale centrata su un approccio visivo della realtà. Il mondo è guardato, scrutato, osservato, esaminato, analizzato. Ciò che non è visibile all’occhio umano non esiste!

È molto importante rendere comprensibile gli algoritmi per portare la funzione e il codice con cui sono realizzati ad una sorta di visibilità.

«Appunti di femminismo digitale #2 – Algoritmi e Intelligenza Artificiale» mette in luce come il software, altrimenti detto codice, gioca con la necessità tutta computazionale (gli algoritmi) di farsi invisibile (è visibile solo attraverso interfacce e App sempre più naturalizzate) e di rendere visibile l’invisibilità degli assi differenziali di potere della società in cui opera. Si pensi ai programmi di data mining[ii] basati su quantità enormi di dati e osservazioni statistiche di interi settori sociali che possono rendere visibili i pregiudizi razziali e di genere nell’output di molteplici software impiegati nella selezione del personale, nella valutazione dell’operato deə lavoratorə, nella concessione di prestiti[iii]. E si pensi alle manifestazioni di intelligenza artificiale sessuata di Siri, Alexa che con straordinarie voci femminili alleggeriscono la fatica di un colloquio altrimenti impossibile con gli artefatti tecnologici. Si pensi infine alle milioni di query al secondo che le persone digitano nella «buca» di Google che vengono interpretate da un’intelligenza artificiale, soprannominata RankBrain, vera e propria AI, che nella buca di Google sa rispondere alle nostre ricerche con inusuale competenza ma interrogato su argomenti riguardanti il mondo del lavoro e le esigenze professionali delle aziende il suo ragionamento si fonda sul bias di genere che mette sempre in relazione padre con dottore e madre con infermiera oppure uomo con programmatore di computer e donna con casalinga. Con l’avvento delle AI generative, BARD di Google e OpenGPT, il fenomeno è ancora più mascherato dal politically correct delle Aziende produttrici.

La discriminazione algoritmica di tante applicazioni  viene mascherata e ridotta a scatola nera (black box) e con essa la possibilità tutta umana di stabilire i parametri di standard e normalità che una volta immessi nello schema interpretativo possono rendere le AI razziste e sessiste.

Per decostruire la ragione algoritmica con la A maiuscola, il saggio propone l’approccio critico del femminismo interzionale per rintracciare i modelli-schemi iniziali degli algoritmi che generano tutti gli altri, il fine è quello di ricostruire le tante ragioni necessarie alla convivenza con i tanti Altri da noi stessi, comprese le macchine informatiche. Per modificare tutta la retorica antropocentrica dell’attuale governance algoritmica è necessario imparare a fare del reverse enginering, di questo si tratta quando si pratica il femminismo digitale. Ri-passare alcuni ragionamenti algoritmici attraverso la narrazione (fabula) della loro insorgenza può aiutare a capire che cos’è l’AI, da dove viene e come funziona.

Il femminismo digitale intende prima di tutto contrastare la discriminazione algoritmica dell’attuale produzione di software che rende invisibile chi è “altrimenti” visibile per ricavare spazi di resistenza e di libertà .

su Amazon in formato ebook e cartaceo 

 

Note

[i] Wendy Hui Kyong Chun, Programmed Visions: Software and Memory, (MIT Press, 2013.

[ii] Per data mining si intende l’individuazione di informazioni di varia natura (non conosciute a priori) tramite estrapolazione mirata da grandi banche dati, compiute da operazioni in larga parte automatizzate ed eseguite da specifici software.

[iii] I big data possono aumentare le disuguaglianze e minacciano la democrazia attraverso algoritmi che assumono grande importanza ed espongono le persone al rischio della discriminazione algoritmica se non si utilizzano dati più rappresentativi e se non si favoriscono modelli matematici più equi ed etici. Cathy O’Neil (2017), Armi di distruzione matematica, Bompiani. Perez, C. C. (2020). Invisibili – Come il nostro mondo ignora le donne in ogni campo. Dati alla mano. Einaudi Editore.