13 Maggio، 2021

جورنالك

الخبر كما هو ، منكم و اليكم

Amazon vieta alla polizia di utilizzare la sua tecnologia di riconoscimento facciale per il prossimo anno

This post is also available in: Deutsch

Amazon sta annunciando una moratoria di un anno per consentire alle forze dell'ordine di usare la sua controversa piattaforma di riconoscimento facciale Rekognition, ha detto mercoledì il colosso dell'e-commerce.

La notizia arriva appena due giorni dopo che IBM ha dichiarato che non avrebbe più offerto, sviluppato o ricercato la tecnologia di riconoscimento facciale, citando potenziali violazioni dei diritti umani e della privacy e ricerche che indicano che la tecnologia di riconoscimento facciale, nonostante i progressi forniti dall'intelligenza artificiale, rimane distorta lungo le linee di età, genere, razza ed etnia.

Gran parte del lavoro di base che mostra i difetti della moderna tecnologia di riconoscimento facciale per quanto riguarda il pregiudizio razziale è grazie a Joy Buolamwini, ricercatrice presso il MIT Media Lab, e Timnit Gebru, membro di Microsoft Research. Buolamwini e Gebry hanno co-scritto un articolo ampiamente citato del 2018 che ha riscontrato che i tassi di errore per i sistemi di riconoscimento facciale delle principali società tecnologiche, tra cui IBM e Microsoft, per l'identificazione di individui dalla pelle più scura erano dozzine di punti percentuali in più rispetto all'identificazione di individui dalla pelle bianca. I problemi risiedono in parte con i set di dati utilizzati per addestrare i sistemi, che possono essere in gran parte maschi e bianchi, secondo un rapporto di Il New York Times.

In uno studio separato del 2019, Buolamwini e la coautrice Deborah Raji hanno analizzato Rekognition e hanno scoperto che anche il sistema di Amazon aveva problemi significativi nell'identificazione del genere di individui dalla pelle più scura, oltre a confondere le donne dalla pelle scura per gli uomini. Lo studio ha scoperto che il sistema ha funzionato con un tasso di errore vicino allo zero durante l'analisi delle immagini di persone dalla pelle più chiara.

Amazon ha cercato di minare i risultati, ma Buolamwini ha pubblicato una risposta lunga e dettagliata a Medium, in cui afferma: "L'approccio di Amazon finora è stato di rifiuto, deflessione e ritardo. Non possiamo fare affidamento su Amazon per la polizia stessa o fornire tecnologia non regolamentata e non dimostrata alla polizia o alle agenzie governative ". Le scoperte di lei e Raji sono state successivamente supportate da un gruppo di dozzine di ricercatori di intelligenza artificiale che hanno scritto una lettera aperta dicendo che Rekognition era difettoso e non dovrebbe essere nelle mani delle forze dell'ordine.

Amazon non ha fornito una ragione concreta per la decisione oltre a chiedere la regolamentazione federale della tecnologia, anche se la società afferma che continuerà a fornire il software alle organizzazioni per i diritti dedicate ai bambini scomparsi e sfruttati e alla lotta contro la tratta di esseri umani. Il contesto non detto qui, ovviamente, è la morte di George Floyd, un uomo di colore ucciso da ex poliziotti del Minnesota e continue proteste negli Stati Uniti e nel mondo contro il razzismo e la brutalità sistemica della polizia.

Sembra che Amazon abbia deciso di non fidarsi della polizia per utilizzare la tecnologia in modo responsabile, anche se la società non ha mai rivelato solo quanti dipartimenti di polizia utilizzano effettivamente la tecnologia. A partire dall'estate scorsa, sembrava che solo due dipartimenti – uno in Oregon e uno in Florida – stessero usando attivamente Rekognition e da allora Orlando si è fermato. Un sistema di riconoscimento facciale molto più diffuso è quello di Clearview AI, un'azienda segreta che sta affrontando una serie di cause legali sulla privacy dopo aver raschiato siti di social media per le foto e costruito un database di oltre 3 miliardi di foto che vende alle forze dell'ordine.

In una dichiarazione rilasciata a The Verge, CEO di Clearview AI Hoan Ton-Che ha raddoppiato la tecnologia come strumento efficace per l'applicazione della legge. "Mentre Amazon, Google e IBM hanno deciso di uscire dal mercato, Clearview AI crede nella missione del riconoscimento facciale usato responsabilmente per proteggere i bambini, le vittime di frodi finanziarie e altri crimini che affliggono le nostre comunità", ha affermato. Ton-That afferma che la tecnologia di Clearview "funziona davvero", ma che il riconoscimento facciale "non è destinato a essere utilizzato come strumento di sorveglianza relativo alle proteste o in qualsiasi altra circostanza".

Oltre agli studi che hanno messo in dubbio la sua efficacia, Amazon ha subito critiche costanti nel corso degli anni per aver venduto l'accesso al rekognition al dipartimento di polizia di attivisti, organizzazioni per i diritti civili come l'ACLU e legislatori, tutti i quali hanno citato preoccupazioni per la mancanza di controllo su come la tecnologia viene utilizzata nelle indagini e nel potenziale pregiudizio incorporato che la rende inaffidabile e matura per la discriminazione e altri abusi.

Anche dopo che i dipendenti hanno espresso preoccupazione per la tecnologia nel 2018, il cloud leader di Amazon Andrew Jassy ha dichiarato che la società continuerà a venderlo alla polizia. Solo attraverso i resoconti dei media e gli attivisti, nonché il lavoro di ricercatori come Buolamwini, mettendo in evidenza le insidie ​​dell'uso della polizia della tecnologia di riconoscimento facciale come Rekognition, i dipartimenti hanno iniziato a interrompere i contratti con Amazon.

Ecco la nota completa di Amazon sul divieto di un anno:

Stiamo implementando una moratoria di un anno sull'uso da parte della polizia della tecnologia di riconoscimento facciale di Amazon. Continueremo a consentire ad organizzazioni come Thorn, l'International Center for Missing and Exploited Children e Marinus Analytics di utilizzare Amazon Rekognition per aiutare a salvare le vittime della tratta di esseri umani e riunire i bambini scomparsi con le loro famiglie.

Abbiamo sostenuto che i governi dovrebbero mettere in atto norme più severe per disciplinare l'uso etico della tecnologia di riconoscimento facciale e, in questi giorni, il Congresso sembra pronto ad affrontare questa sfida. Speriamo che questa moratoria di un anno possa dare al Congresso abbastanza tempo per attuare le regole appropriate e siamo pronti ad aiutare se richiesto.

Aggiornamento 10 giugno, 19:17 ET: Aggiunte ulteriori informazioni sugli studi che hanno trovato prove di pregiudizi razziali in Amazon Rekognition e altri sistemi di riconoscimento facciale.

Aggiornamento del 10 giugno, 20:43 ET: Aggiunta dichiarazione della società di riconoscimento facciale Clearview AI.

This post is also available in: Deutsch