24 dicembre, 2019

Tecnologia: Il riconoscimento facciale non è poi così affidabile.

Il governo degli Stati Uniti ritiene che questo sistema non sia affidabile al 100%, soprattutto per i neri e gli asiatici. 

https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-softwareI sistemi di riconoscimento facciale non sono sempre affidabili, specialmente quando si tratta di persone non bianche, secondo un rapporto del governo americano pubblicato giovedì, che accresce i dubbi sullo spiegamento di questa tecnologia di intelligenza artificiale. 

Il riconoscimento facciale identifica erroneamente le persone asiatiche o di colore 100 volte più spesso dei bianchi, secondo questo studio, che ha analizzato dozzine di algoritmi. 

I ricercatori del National Institute of Standards and Technology (NIST), un centro affiliato al governo, hanno anche individuato due algoritmi che attribuivano una sessualità cattiva alle donne di colore nel 35% dei casi. 

Il riconoscimento facciale è già ampiamente utilizzato da autorità, forze dell'ordine, aeroporti, banche, imprese e scuole. Viene anche utilizzato per sbloccare alcuni smartphone. 

Molti difensori e ricercatori dei diritti umani stanno cercando di frenare questo dispiegamento. Credono che gli algoritmi commettano troppi errori, che persone innocenti possano finire in prigione o che i database possano essere hackerati e usati dai criminali. 

Algoritmi sviluppati negli Stati Uniti avevano tassi di errore più elevati per asiatici, afro-americani e nativi americani, lo studio ha scoperto, mentre altri sviluppati nei paesi asiatici sono riusciti a identificare sia volti asiatici che bianchi. 

'Questo è incoraggiante perché dimostra che l'uso di un database più diversificato porta a risultati migliori', ha affermato Patrick Grother, direttore della ricerca

Ma per l'ONG American Civil Liberties Union (ACLU), questo studio dimostra soprattutto che la tecnologia non è stata ben sviluppata e non deve essere installata. 'Anche gli scienziati governativi confermano che questa tecnologia di sorveglianza è imperfetta e distorta', ha dichiarato Jay Stanley, analista di ACLU. 

'L'identificazione errata può causare la perdita di tempo in caso di furti, interrogatori senza fine, collocamento in liste di controllo, tensione con la polizia, arresti senza fondamento o peggio'. 'Ma soprattutto, indipendentemente dal fatto che la tecnologia sia affidabile o meno, consente di impostare una sorveglianza non rilevabile e onnipresente su una scala senza misure comuni', ha aggiunto. 

Nessun commento: