Riconoscimento facciale e discriminazione razziale. Quando la tecnologia "Intelligente" fallisce

Face Recognition and Racial Prejudice: The Pitfalls of "Smart" Technology

Sblocchiamo i nostri iPhone con uno sguardo e ci chiediamo come Facebook possa taggarci nelle foto. Il riconoscimento facciale, la tecnologia alla base di queste funzionalità, è più di un semplice espediente. È impiegato per la sorveglianza delle forze dell'ordine, lo screening dei passeggeri aeroportuali e le decisioni su lavoro e alloggiamento. 


Nonostante la diffusa adozione, il riconoscimento facciale è stato recentemente vietato dalla polizia e dalle agenzie locali in diverse città negli Stati Uniti, tra cui Boston e San Francisco. Perché? Tra i maggiori biometrici in uso (impronta digitale, iride, palmo, voce e viso), il riconoscimento facciale è il meno accurato e grandi sono i problemi sulla privacy che riguardano questa tecnologia.


La polizia usa il riconoscimento facciale per confrontare le foto di sospetti con le foto segnaletiche e le immagini della patente di guida; si stima che quasi la metà degli adulti americani - oltre 117 milioni di persone, a partire dal 2016 - abbia foto all'interno di una rete di riconoscimento facciale utilizzata dalle forze dell'ordine. Questo inserimento di dati avviene senza consenso, o addirittura consapevolezza, ed è sostenuto da una mancanza di supervisione legislativa. 


L'attuale implementazione di queste tecnologie comporta significativi pregiudizi razziali, in particolare contro gli afroamericani. Anche se accurato, il riconoscimento facciale potenzia un sistema di applicazione della legge con una lunga storia di sorveglianza razzista e anti-attivista e può ampliare le disuguaglianze preesistenti. 


Iniquità negli algoritmi di riconoscimento facciale


Gli algoritmi di riconoscimento facciale vantano un'elevata precisione di classificazione (oltre il 90%), ma questi risultati non sono universali. Un numero crescente di ricerche espone tassi di errore divergenti tra i gruppi demografici, con la minore accuratezza riscontrata costantemente in soggetti di sesso femminile, di colore e di età compresa tra 18 e 30 anni. Nel fondamentale progetto "Gender Shades" del 2018 è stato applicato un approccio intersezionale per valutare tre algoritmi di classificazione di genere, inclusi quelli sviluppati da IBM e Microsoft. I soggetti sono stati raggruppati in quattro categorie: femmine dalla pelle più scura, maschi dalla pelle più scura, femmine dalla pelle più chiara e maschi dalla pelle più chiara. Tutti e tre gli algoritmi hanno dato i risultati meno accurati sulle femmine dalla pelle più scura, con tassi di errore fino al 34% in più rispetto ai maschi dalla pelle più chiara. La valutazione indipendente del National Institute of Standards and Technology (NIST) ha confermato questi studi, scoprendo che le tecnologie di riconoscimento facciale su 189 algoritmi sono meno accurate sulle donne di colore.


Fonte: https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/

Pubblicato il  Aggiornato il