Algoritmos e seus preconceitos contra movimentos anti-racistas – 07/07/2020

Alphabet doará mais de US $ 800 milhões para ações de combate ao Covid-19 - 27/03/2020

Paris, 7 de julho de 2020 (AFP) – O caso de um afro-americano preso por erro em um programa de reconhecimento facial reacendeu a preocupação com os riscos da inteligência artificial, em meio a uma onda de protestos contra o racismo e violência policial.

O caso remonta ao início de janeiro: Robert Williams foi preso em Detroit e passou 30 horas em detenção porque um programa concluiu erroneamente que a foto em sua carteira de motorista e a imagem de um ladrão de relógio capturado por câmeras de vigilância eram idênticas.

De acordo com a União Americana das Liberdades Civis (ACLU), que apresentou uma queixa em seu nome em 24 de junho “, embora esse seja o primeiro caso conhecido, ele provavelmente não é a primeira pessoa a ser presa e interrogada injustamente com base em um problema de reconhecimento. facial. “

Para Joy Buolamwini, fundador do grupo ativista Algorithmic Justice League, o caso revela “como o racismo sistêmico pode ser codificado e refletido na inteligência artificial (IA)”.

Sob pressão de grupos como as poderosas ACLU, Microsoft, Amazon e IBM anunciaram no início de junho que limitariam o uso de suas ferramentas de análise facial pelas forças da lei.

A IA é baseada no aprendizado automatizado dos dados inseridos pelo programador, que a máquina analisa. Se a matéria-prima for enviesada, o resultado será distorcido.

Um estudo do Instituto de Tecnologia de Massachusetts, lançado em fevereiro de 2018, revelou fortes imprecisões nos principais programas de reconhecimento facial quando se trata de distinguir rostos por grupo populacional, com taxas de erro inferiores a 1% para homens brancos e até 35%. para mulheres negras.

– Binóculos e pistola: em um tweet viral, Nicolas Kayser-Bril, da ONG Algorithm Watch, mostra que, comparado às imagens de pessoas segurando um termômetro, o programa de análise de imagens “Google Vision” reconhece ” binóculos “em uma mão branca e” arma “em uma mão negra.

Segundo ele, o viés “provavelmente se deve ao fato de que as imagens usadas no banco de dados que incluíam negros são mais frequentemente associadas à violência do que os brancos”.

O Google reconheceu que o resultado foi “inaceitável”.

No entanto, esses programas são vendidos para empresas e governos em todo o mundo, e não apenas por gigantes da tecnologia.

“Isso dificulta a identificação das condições sob as quais o conjunto de dados é coletado, a qualidade das imagens e como o algoritmo foi criado”, diz Seda Gürses, pesquisadora da Universidade de Tecnologia de Delft, na Holanda.

A multiplicidade de atores reduz custos, mas complica a alocação de responsabilidades, segundo Gürses.

“Com um algoritmo, você é vinculado em todas as decisões ao mesmo algoritmo, cuja qualidade é determinada pelos seus custos de produção e demanda do mercado”.

As tecnologias de reconhecimento facial não são usadas apenas para identificar suspeitos, mas também para prever o comportamento.

Recentemente, surgiu uma controvérsia sobre um programa que promete “prever com precisão de 80%” se uma pessoa pode cair no crime “com base em apenas uma foto”.

Mais de 2.000 pessoas, incluindo vários cientistas, assinaram uma petição para que a Springer Nature não publique um artigo sobre essa tecnologia.

“Reconhecendo a preocupação” levantada pelo documento, a Springer Nature disse que “em nenhum momento” concordou em publicá-lo.

Para Mutale Nkonde, pesquisador de inteligência artificial das Universidades de Stanford e Harvard, “você não pode mudar a história do racismo e do sexismo”, mas “podemos garantir que os algoritmos não são os que tomam as decisões finais”.

mlb-rl / aue / meb / mb / mr

GRUPO DE CLASSIFICAÇÃO

AMAZON.COM

MICROSOFT

IBM

GOOGLE

Comitê executivo nacional

You May Also Like

About the Author: Adriana Costa Esteves

"Estudioso incurável da TV. Solucionador profissional de problemas. Desbravador de bacon. Não foi possível digitar com luvas de boxe."

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *