Storie di ricerca

Le dimensioni dell’immagine: dal volto ai pixel, il potere di decidere cosa conta

Questo contenuto fa parte del tema del mese: Le dimensioni contano

Nel 1957 Russell Kirsch sviluppa un metodo per scansionare la fotografia analogica del figlio neonato e trasforma così il volto del bambino in pixel: è il primo esperimento di immagine digitale. La scelta del ritratto sembra dettata da motivi affettivi e senza implicazioni precise ma, in realtà, segna l’inizio di una nuova era visuale, in cui la scala – cioè la risoluzione e l’insieme di pixel e dettagli – diventa anche uno strumento politico. Questa storia di ricerca ripercorre quella svolta tra tecnologia, studi di genere e sharenting, mostrando come le dimensioni delle immagini non siano mai neutre: decidono cosa possiamo vedere, riconoscere e sapere.

Nel 1957, negli Stati Uniti viene digitalizzata per la prima volta una fotografia: non un paesaggio, non un documento, bensì il volto di un neonato. È il figlio di Russell Kirsch, ingegnere presso il National Bureau of Standards (oggi National Institute of Standards and Technology), che fa una scelta tecnica ma anche profondamente simbolica. Kirsch ritaglia il volto del piccolo Walden, di appena tre mesi, da una fotografia che lo ritrae tra le sue braccia, lo isola, lo converte in una matrice di 176×176 pixel e lo trasforma nel primo ritratto digitale della storia.

A prima vista questa innovazione potrebbe sembrare marginale rispetto ad altri eventi epocali che hanno scandito quell’anno – basti pensare al lancio dello Sputnik 1, il primo satellite artificiale in orbita attorno alla Terra, avvenuto nell’ottobre del 1957. Eppure, a ben vedere, non è affatto così.

Questa immagine privata e familiare inaugura un modo di pensare nuovo e rivoluzionario: l’immagine diventa computabile, ovvero può essere digitalizzata, diffusa e letta da computer.

Il volto non è più solo ciò che ci rappresenta o il modo con cui esprimiamo le nostre emozioni. Diventa un’interfaccia, un’infrastruttura di dati, un oggetto che si può riconoscere, segmentare e archiviare. Così come la scala dell’immagine – quanti pixel, quanta risoluzione, quale griglia – non è più solo un dettaglio tecnico: è ciò che determina cosa può essere visto, compreso e analizzato.

La questione della scala, dunque, è tutt’altro che neutra. Lo standard dei pixel quadrati, adottato in quell’occasione per motivi pratici (la limitata memoria del computer impiegato, il SEAC - Standards Electronic Automatic Computer), è diventato un modello che ancora oggi ci fa capire come le macchine vedono, selezionano e ripropongono le immagini – attraverso la classificazione. Ed è proprio nella classificazione che la tecnologia incontra la politica. 

Con uno sguardo intersezionale, proviamo ad andare oltre la superficie di questo gesto fondativo. Cosa significa che la prima immagine computata sia un volto? E che sia il volto di un bambino?
La pratica dello sharenting, oggi oggetto di molte riflessioni critiche negli Studi sull’intersezionalità e nella Teoria dei media, riguarda la condivisione dell’immagine dei figli da parte dei genitori senza, perciò, il consenso dei soggetti ritratti. Kirsch, nel suo gesto, anticipa inconsapevolmente questo scenario: l’immagine di Walden diventa non solo una rappresentazione, ma una materia prima computazionale, una risorsa.

Non tutti i volti sono però trattati allo stesso modo. Oggi le tecnologie di riconoscimento facciale, alimentate proprio da milioni di immagini simili a quella di Walden, mostrano tassi di errore molto più elevati per volti di persone afrodiscendenti, femminili o di genere non conforme. Non è un problema tecnico: è il risultato di una scelta su cosa riteniamo importante conoscere e mostrare. 

La scala, ancora una volta, conta.

Come mostrano le attiviste e studiose femministe e queer – da Safiya Noble a Joy Buolamwini – il modo in cui i dati vengono raccolti, selezionati e normalizzati riproduce gerarchie sociali già esistenti. Le immagini non sono mai solo immagini. Sono atti culturali, dispositivi politici, vettori di visibilità e invisibilità.
Secondo uno studio del 2018 intitolato Gender Shades1, condotto dalla stessa Joy Buolamwini e Timnit Gebru al MIT Media Lab, i sistemi di riconoscimento facciale commettono errori in meno dell’1% dei casi quando analizzano volti di uomini con la pelle chiara, ma sbagliano nel 35% dei casi con donne dalla pelle scura.
Lo stesso anno, un test condotto dall’American Civil Liberties Union ha evidenziato gravi limiti nei sistemi di riconoscimento facciale di Amazon2. Utilizzando il software Rekognition e un database pubblico di 25.000 foto segnaletiche, i ricercatori hanno confrontato i volti dei membri del Congresso statunitense. Il sistema ha prodotto un numero sproporzionato di falsi positivi tra i membri afroamericani, che rappresentano solo il 20% del Congresso ma sui quali sono risultati il 40% degli errori3


LEGGI ANCHE
Superare il binarismo di genere nelle tecnologie di riconoscimento facciale


L’AI Act, il nuovo regolamento europeo sull’intelligenza artificiale, pone forti restrizioni all’uso dei sistemi di riconoscimento facciale automatizzato, soprattutto quando impiegati in spazi pubblici. In particolare, stabilisce limiti severi per le tecnologie biometriche che possono interferire con i diritti fondamentali, come la privacy, la libertà di movimento o la non discriminazione.

Un caso attuale che mostra quanto queste tecnologie siano controverse riguarda le Olimpiadi di Parigi 2024, dove sono stati adottati sistemi predittivi di riconoscimento dei comportamenti. Si tratta di strumenti in grado di analizzare i movimenti delle persone per individuare, in tempo reale, ciò che viene definito un “comportamento anomalo” o potenzialmente pericoloso.

Questi sviluppi sollevano nuove questioni cruciali: chi decide cosa è “normale”? Quali rischi esistono per chi si discosta da uno standard statistico? E che garanzie hanno i cittadini di non essere sorvegliati in modo permanente?

L’AI Act prova a rispondere a queste domande ponendo regole precise. Ma l’uso crescente di tecnologie predittive in eventi globali come le Olimpiadi mostra che la sfida è tutt’altro che conclusa.

Ecco perché, a partire da un piccolo volto digitalizzato nel 1957, possiamo aprire uno sguardo critico sulla nostra cultura visuale contemporanea. Una cultura in cui la visione è operativa, automatizzata, mediata da algoritmi che decidono chi conta, chi appare, chi è degno di essere riconosciuto. In questo senso, la questione della scala è anche una questione di giustizia: quali dimensioni dell’umano vengono amplificate, e quali invece ridotte al silenzio?

Lo studio della prima immagine digitale ci ricorda allora che la tecnologia non è mai solo tecnica. È narrazione, selezione, visione del mondo. E ogni scelta – persino la più apparentemente piccola, come l’uso di pixel quadrati o il volto di un neonato – contribuisce a determinare ciò che possiamo vedere, sapere e immaginare.

Le dimensioni, in questo contesto, contano perché rivelano come le immagini non siano tutte uguali, e come il modo in cui vengono prodotte e interpretate sia sempre il risultato di una negoziazione tra potere, genere, memoria e visibilità.