Especialistas em genética estão se aliando com forças policiais para gerar "retratos falados" a partir do material genético do suspeito - encontrado em roupas, cabelos e secreções corporais - e tudo isso com ajuda da inteligência artificial (IA). A Universidade Federal do Rio Grande do Sul (UFRGS) e a Polícia Federal (PF) trabalham desde janeiro deste ano neste projeto que busca prever criminosos.
Tecnicamente chamada de fenotipização por DNA, a técnica consiste na reconstrução do aspecto físico – o fenótipo – de um desconhecido, por meio de evidências em seus genes.
Capitaneada pela Parabon Nanolabs, a análise funciona assim:
Quando uma prisão ocorre, a Parabon exibe em seu site a imagem prevista por sua tecnologia e a foto real do suspeito.
A empresa afirma ter ajudado a resolver mais de 230 casos, sem detalhar o número exato por haver vários em andamento.
Importante alertar que nem sempre os resultados da análise para prever suspeitos batem. Os genes não são capazes de determinar a idade, o índice de massa corporal (isto é, o peso) e várias características adquiridas ao longo da vida, como cicatrizes e tatuagens. O formato do rosto também é uma estimativa mais vaga que a cor dos olhos e do cabelo. Não raro, a ferramenta erra a idade do suspeito.
Mas existem também outros problemas. Para o sociólogo Acácio Augusto, da Universidade Federal de São Paulo, é muito alta a possibilidade de a tecnologia absorver os preconceitos de gênero, raça e classe.
“Quem opera e quem programa essas coisas [AI] são humanos. Não me surpreenderia se, se passássemos a usar esse tipo de tecnologia, ela tivesse um resultado muito parecido com que já é a clientela do sistema de Justiça Criminal: pobre, homem, jovem, negro, basicamente”, disse o sociólogo.
E não é só ajudando a produzir “retratos falados” que IA está atuando para prevenir crimes. Um número crescente de lojas britânicas está aderindo a um sistema de reconhecimento facial alimentado por IA para identificar ladrões reincidentes.
O sistema, que pertence a empresa britânica de vigilância Facewatch, funciona da seguinte maneira:
Antes que o alerta seja enviado, um dos “super-reconhecedores” humanos do Facewatch verifica novamente se o rosto do suspeito corresponde a um no banco de dados de criminosos da empresa.
Se essa pessoa for um criminoso contumaz ou tiver roubado algo no valor de mais de 100 libras esterlinas, seus dados biométricos também podem ser compartilhados com outras lojas na área local que usam o sistema do Facewatch.
A tecnologia também vem recebendo muitas críticas. Grupos de direitos humanos dizem que ela desrespeita o direito das pessoas à privacidade e muitas vezes comete erros.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 17:56
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…