Superare il binarismo di genere nelle tecnologie di riconoscimento facciale
Come viene interpretato il genere da parte dell’IA? Durante la mia ricerca nel progetto FACETS ho esplorato le tensioni tra il genere come esperienza individuale e la sua classificazione da parte delle macchine, focalizzandomi sulla curatela dei dati, in particolare nell'analisi automatizzata del volto. Gli algoritmi di riconoscimento facciale spesso percepiscono il genere in modo binario, escludendo le identità trans e non binarie. In questo ambito, la curatela dei dati emerge come pratica cruciale per riflettere sull'inclusività di genere e abbracciare così una prospettiva intersezionale.
Il successo dell'odierna industria biometrica, in forte espansione, risiede nella sua promessa di riconoscere rapidamente una soggettività, rendendola così un parametro oggettivo e operativo, un dato estraibile dalla lettura da parte di un’intelligenza artificiale di un corpo umano, spesso per un misto di interessi commerciali, statali e militari.
Per capire l’influenza crescente di agenti non-umani e artificiali nelle nostre attività quotidiane, possiamo pensare all’applicazione di tecnologie di riconoscimento facciale per la validazione di transazioni commerciali e finanziarie, ai dispositivi di sorveglianza, al campo legale e giudiziario. Alla base del funzionamento di questa tecnologia ci sono dinamiche complesse che interpretano - e plasmano - la nostra identità di genere. Come viene decifrato - e quindi catalogato - il genere delle persone dalle intelligenze artificiali, a partire dall’immagine del solo volto? E perché è importante indagare questa prospettiva?
Queste domande costituiscono il focus delle mie ricerche all'interno del progetto FACETS - Face Aesthetics in Contemporary E-Technological Societies -, vincitore di un ERC Grant. Il mio obiettivo è stato analizzare le sfide estetiche, etiche e culturali poste dalla complessa relazione tra tecnologia e genere, e quindi le tensioni emergenti tra il genere come esperienza auto-percepita e auto-determinante e il genere come dato classificato dalle intelligenze artificiali.
Per raggiungere questo obiettivo mi sono concentrata sul caso esemplare dell'analisi automatizzata del volto e sulle pratiche di archiviazione dei dati soprattutto nel contesto delle tecnologie di riconoscimento facciale che afferiscono al più ampio settore della visione artificiale, partendo dal presupposto che queste tecnologie - progettate per riconoscere e quantificare il genere come tratto specifico dell'identità - influenzino le norme sociali e le percezioni individuali legate all'identità.
Con il termine "analisi automatizzata del volto" si fa riferimento all'uso di modelli algoritmici impiegati per analizzare le caratteristiche del viso ed estrarne dati, come quelli relativi alle biometriche "hard" e "soft". Le prime riguardano gli aspetti fissi del nostro volto, come la conformazione anatomica delle facce, mentre le seconde coinvolgono espressioni o dati relativi all'identità, come per l’appunto quella di genere o ancora quella etnica.
Gli algoritmi di riconoscimento facciale sono spesso allenati a riconoscere il maschile e il femminile, escludendo dall'operazione di riconoscimento tutte quelle soggettività che si situano al di là di una percezione di genere binaria. Questa dinamica ha degli effetti di ritorno sulla percezione socio-culturale dell'identità, rafforzando possibili discriminazioni e marginalizzazioni delle comunità trans e non binarie. Dal momento che le intelligenze artificiali non sono allenate a riconoscere tutte quelle soggettività che si auto-percepiscono al di là del binarismo di genere, questi individui rischiano di essere soggetti a problemi di riconoscimento da parte delle tecnologie in questione.
Tuttavia, così come il femminismo e gli studi culturali ci hanno insegnato, il genere non è un dato quantificabile e dotato di una parametrizzazione oggettiva, ma il risultato di una serie di azioni, di una serie di performance attraverso cui esprimiamo la nostra identità. Se per essere riconosciuti come soggettività femminili o mascoline è necessario rientrare in certi parametri, cosa succederà a tutti quegli individui che non rientrano negli standard?
In questo contesto, il valore epistemico delle immagini facciali, cioè la loro capacità di produrre saperi, è stato al centro delle mie ricerche. Partendo da una riflessione sulle pratiche di progettazione e composizione del ritratto nella società occidentale fino ad arrivare a studiare il ruolo dei database contenenti immagini facciali durante l’addestramento di modelli computazionali, ho sviluppato una metodologia semiotica che ponga al centro il problema della curatela dei dati, recuperando l’esperienza degli studi artistici. L’ambito della produzione artistica è infatti un campo privilegiato per analizzare questa tensione, poiché l'arte elettronico-digitale e l'AI art sempre più spesso sono considerati ambiti di ingegnerizzazione inversa capaci di approfondire la nostra esperienza con le tecnologie.
Ho studiato lo stato attuale delle opere d’arte che impiegano tecnologie di riconoscimento facciale mettendo a confronto discipline umanistiche e STEM (Science, Technology, Mathematics, e Engineering) attraverso l’analisi di piéce come: Cloud Face del duo coreano Shinseungback Kimyonghun (2012) e Face Cages di Zack Blas (2014-2016).
Cloud Face (fig. 1 e 2) è un’opera che mette in stretto dialogo il riconoscimento artificiale con quello umano, attraverso un’operazione artistica specifica: quella dell’errore. Shinseungback Kimyonghun utilizza “gli errori di un sistema di riconoscimento facciale e sottopone un software all’individuazione di volti nel cielo diurno attraversato dalle nuvole” (Voto 2021, p. 293). Il risultato sarà la creazione di tutta una serie di ritratti riconosciuti dall’intelligenza artificiale nelle nuvole, un’illusione pareidolica - il riconoscimento, cioè, di forme conosciute in un campo visivo dove queste sono assenti - identica a quella che sperimentiamo tutte le volte che sdraiate su un prato guardiamo il cielo.
Face Cages (fig. 3), invece, riflette sul processo di costruzione dei diagrammi biometrici, di quegli standard cioè attraverso cui il viso diventa un oggetto misurabile: “Il diagramma biometrico computazionale, risultato della misurazione, visualizzazione e contabilizzazione facciale (…) si trasforma [nell’opera di Zach Blas] in una maschera metallica dolorosa da indossare. Face Cage si conclude, quindi, con una video performance nella quale un gruppo di artisti si presta ad assoggettare il proprio viso, per il maggior tempo possibile, alla maschera-gabbia della propria faccialità biometrica” (ibid., p. 297).
Esaminando le pratiche di curatela dei dati facciali in ambito artistico, come quelle realizzate nelle opere appena menzionate, mi sono chiesta come i modelli computazionali possano intervenire nella nostra percezione identitaria e se queste tecnologie abbiano qualche tipo di impatto sulla nostra cognizione, dal momento che noi esseri umani siamo sempre connessi all'ambiente circostante, anche attraverso le tecnologie che utilizziamo.
In questo contesto, ho individuato nella pratica di curatela dei set di dati - il processo di gestione e mantenimento di insiemi di dati per garantire accuratezza, organizzazione e accessibilità - una prassi meritevole di approfondimento. Riflettere sulla "curatela dei dati" ci consente di considerare l'aspetto etico legato alla raccolta, e perciò la strutturazione, l’indicizzazione e la catalogazione dei dati per garantire qualità, inclusività e efficacia nell'uso dei dati. Nel campo della curatela dei dati diventa, allora, essenziale riflettere sull'inclusività di genere, progettando collezioni di dati attente a una rappresentazione diversificata per evitare stereotipi e discriminazioni. Ciò favorisce l'adozione di una prospettiva intersezionale, un approccio che considera e integra simultaneamente diverse dimensioni dell'identità, come genere, etnia, classe sociale e età, per comprendere in modo completo le interconnessioni e le esperienze uniche che le persone vivono nei nostri ambienti sempre più digitali.
Per proporre un futuro più egualitario in cui la rappresentatività nei dati diventa un diritto accessibile a tutte le soggettività, il ruolo dei set di dati di addestramento nei sistemi di riconoscimento facciale può essere un importante banco di prova per riflettere sullo sviluppo di sistemi di intelligenza artificiale inclusivi ed etici. La discussione si estende al design dei set di dati facciali, rivisitando le basi da cui si progettano i processi di archiviazione e etichettatura dei dati, per contribuire a una società più giusta ed equa attraverso la progettazione, lo sviluppo e l'implementazione consapevoli delle tecnologie automatizzate.
Bibliografia
Voto, Cristina. 2021. “Opacizzare il volto artificiale attraverso le arti digitali: errori, deformità, materia, intersoggettività”. In M. Leone (ed.) Lexia 37-38. Rivista Internazionale di semiotica. Volti artificiali / Artificial Faces, pp. 285-302.