Inteligência artificial seria capaz de prever o aspecto físico de criminosos? Entenda a discussão

Especialistas em genética estão se aliando com forças policiais para gerar "retratos falados" a partir do material genético do suspeito - encontrado em roupas, cabelos e secreções corporais - e tudo isso com ajuda da inteligência artificial (IA). A Universidade Federal do Rio Grande do Sul (UFRGS) e a Polícia Federal (PF) trabalham desde janeiro deste ano neste projeto que busca prever criminosos.

Publicado por
Isabella Caminoto

Tecnicamente chamada de fenotipização por DNA, a técnica consiste na reconstrução do aspecto físico – o fenótipo – de um desconhecido, por meio de evidências em seus genes.

Capitaneada pela Parabon Nanolabs, a análise funciona assim:

  • Informações genéticas achadas em cenas de crime ou outras evidências, como objetos ligados ao suspeito, são levadas à análise;
  • Essas amostras revelam informações relativamente básicas ligadas aos genes, como sexo, cor de olhos, da pele e dos cabelos. Também mostra a ancestralidade (se tem ascendentes europeus, indígenas, africanos etc) da pessoa e em qual proporção, baseada em variações regionais de diversos genes;
  • Os dados genéticos alimentam uma inteligência artificial que vasculha um banco de dados contendo os rostos e dados genéticos de milhares de pessoas. A partir da similaridade genética, a IA prevê como seria o rosto do indivíduo.

O resultado da análise para prever um suspeito seria uma imagem como as abaixo:

Quando uma prisão ocorre, a Parabon exibe em seu site a imagem prevista por sua tecnologia e a foto real do suspeito.

A empresa afirma ter ajudado a resolver mais de 230 casos, sem detalhar o número exato por haver vários em andamento.

Tecnologia controversa

Importante alertar que nem sempre os resultados da análise para prever suspeitos batem. Os genes não são capazes de determinar a idade, o índice de massa corporal (isto é, o peso) e várias características adquiridas ao longo da vida, como cicatrizes e tatuagens. O formato do rosto também é uma estimativa mais vaga que a cor dos olhos e do cabelo. Não raro, a ferramenta erra a idade do suspeito.

Mas existem também outros problemas. Para o sociólogo Acácio Augusto, da Universidade Federal de São Paulo, é muito alta a possibilidade de a tecnologia absorver os preconceitos de gênero, raça e classe.

“Quem opera e quem programa essas coisas [AI] são humanos. Não me surpreenderia se, se passássemos a usar esse tipo de tecnologia, ela tivesse um resultado muito parecido com que já é a clientela do sistema de Justiça Criminal: pobre, homem, jovem, negro, basicamente”, disse o sociólogo.

IA no combate à criminalidade

E não é só ajudando a produzir “retratos falados” que IA está atuando para prevenir crimes. Um número crescente de lojas britânicas está aderindo a um sistema de reconhecimento facial alimentado por IA para identificar ladrões reincidentes.

O sistema, que pertence a empresa britânica de vigilância Facewatch, funciona da seguinte maneira:

  • Quando o gerente da loja sabe que um item foi roubado, ele analisa as imagens gravadas por suas câmeras de segurança para identificar o ladrão;
  • Em seguida, poderá entrar no sistema do Facewatch, que também terá feito um vídeo de todos os clientes que entraram na loja naquele dia, para encontrar o suspeito nas imagens da empresa e registrar o incidente.
  • Sempre que a mesma pessoa tentar entrar naquela loja novamente, o gerente poderá prever a pessoa e receber um alerta em seu telefone e poderá solicitar que a pessoa saia ou ficar de olho nela.

Antes que o alerta seja enviado, um dos “super-reconhecedores” humanos do Facewatch verifica novamente se o rosto do suspeito corresponde a um no banco de dados de criminosos da empresa.

Se essa pessoa for um criminoso contumaz ou tiver roubado algo no valor de mais de 100 libras esterlinas, seus dados biométricos também podem ser compartilhados com outras lojas na área local que usam o sistema do Facewatch.

A tecnologia também vem recebendo muitas críticas. Grupos de direitos humanos dizem que ela desrespeita o direito das pessoas à privacidade e muitas vezes comete erros.

Leia também:

Este post foi modificado pela última vez em 19 de julho de 2023 17:56

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Meta inicia testes de chatbots de IA criados por usuários no Instagram

Mark Zuckerberg, CEO da Meta, anunciou que a empresa vai começar a liberar no Instagram…

29 de junho de 2024

Watson: Saiba mais sobre o analista de dados com IA da IBM

Watson é uma plataforma de IA desenvolvida pela IBM, conhecida por sua capacidade de treinar,…

29 de junho de 2024

Centro de Jornalismo Investigativo processa OpenAI e Microsoft por violação de direitos autorais

O Centro de Jornalismo Investigativo (CJI), organização sem fins lucrativos responsável pelo Mother Jones e…

28 de junho de 2024

Gigantes da tecnologia na mira da Europa: acordos de IA de Microsoft e Google sob investigação

A parceria da Microsoft com a OpenAI e o acordo de inteligência artificial (IA) do…

28 de junho de 2024

EUA, Japão e Coreia do Sul se unem em cooperação estratégica para IA, energia limpa e semicondutores

Os ministros do comércio e da indústria dos EUA, Japão e Coreia do Sul prometeram…

28 de junho de 2024

Nokia se prepara para a Era da IA com aquisição da Infinera

A tentativa da Nokia de comprar a fabricante americana de equipamentos de redes ópticas Infinera…

28 de junho de 2024