Notícia

O software de reconhecimento facial tem um viés, novas descobertas de relatório do governo

O software de reconhecimento facial tem um viés, novas descobertas de relatório do governo


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Os sistemas de reconhecimento facial exibiram preconceito quando se trata de identificar e combinar indivíduos de cor, mostra um novo estudo federal.

O estudo de referência lança uma luz negativa sobre o software que está sendo cada vez mais usado por agências de aplicação da lei em todo o país.

RELACIONADO: SOFTWARE DE RECONHECIMENTO AI FACIAL FOI USADO PARA PEGAR UM SUSPEITO DE ASSASSINATO NA CHINA

Afro-americanos, asiáticos 100 vezes mais probabilidade de serem identificados incorretamente

O estudo do Instituto Nacional de Padrões e Tecnologia descobriu que afro-americanos e asiáticos tinham até 100 vezes mais probabilidade de serem identificados incorretamente por meio de software de reconhecimento facial do que os caucasianos, dependendo do algoritmo individual. Entre os algoritmos desenvolvidos nos EUA, o grupo demográfico de índios americanos apresentou as maiores taxas de falsos positivos.

O estudo também descobriu que as mulheres afro-americanas tinham as taxas mais altas de falsos positivos para a correspondência um a um, que é comumente usada por policiais para pesquisar milhões de pessoas em um banco de dados para encontrar um suspeito. O teste NIST usou apenas um banco de dados do FBI contendo 1,6 milhões de fotos domésticas.

"Diferenciais em falsos positivos na correspondência um-para-muitos são particularmente importantes porque as consequências podem incluir acusações falsas", disse o NIST em um comunicado à imprensa destacando os resultados do estudo. O NIST observou que os resultados variaram de um algoritmo para outro, dizendo que "os mais justos também estão entre os mais precisos".

NIST analisou 189 algoritmos

O NIST conduziu o estudo por meio de seu programa Face Recognition Vendor Test, no qual avalia algoritmos de reconhecimento facial de empresas de software e desenvolvedores acadêmicos em sua capacidade de realizar tarefas. Neste estudo, foram utilizadas quatro coleções de fotografias totalizando 18,27 milhões de imagens de 8,49 milhões de indivíduos. Todas as imagens vieram do Departamento de Estado, Departamento de Segurança Interna e do FBI.

O NIST testou 189 algoritmos de software enviados por 99 desenvolvedores, a maioria dos quais empresas. O NIST analisou como os algoritmos combinavam fotos da mesma pessoa, o que é comumente usado para desbloquear um smartphone ou verificar um passaporte e é conhecido como correspondência "um para um". A agência governamental também testou a capacidade do algoritmo de combinar uma pessoa em uma foto com imagens em um banco de dados. Conhecida como correspondência "um para muitos", pode ser usada para identificar uma pessoa de interesse.

“Em uma pesquisa individual, um falso negativo pode ser apenas um inconveniente - você não pode entrar em seu telefone, mas o problema geralmente pode ser corrigido por uma segunda tentativa,” Patrick Grother, um cientista da computação do NIST e o autor principal do relatório. “Mas um falso positivo em uma busca um para muitos coloca uma correspondência incorreta em uma lista de candidatos que justifica um exame mais aprofundado.”


Assista o vídeo: Como ATIVAR Desbloqueio Facial do XIAOMI MI 8 LITE (Novembro 2022).