Créditos da imagem: Reprodução: Canva

Metrô de Londres está testando ferramentas de IA para detectar crimes

Milhares de pessoas que usaram o metrô de Londres tiveram seus movimentos, comportamento e linguagem corporal monitorados por um software de vigilância de inteligência artificial (IA) - projetado para verificar se estavam cometendo crimes ou se estavam em situações inseguras.

O software de aprendizado de máquina foi combinado com imagens de CFTV ao vivo para tentar detectar comportamento agressivo e armas ou facas, bem como procurar pessoas caindo nos trilhos do metrô ou esquivando-se das passagens.

PUBLICIDADE

De outubro de 2022 até o final de setembro de 2023, a Transport for London (TfL), que opera a rede de metrô e ônibus da cidade, testou 11 algoritmos para monitorar as pessoas que passam pela estação de metrô Willesden Green, no noroeste da cidade.

O teste de prova de conceito é a primeira vez que o órgão de transporte combina inteligência artificial e imagens de vídeo ao vivo para gerar alertas que são enviados ao pessoal da linha de frente. Mais de 44 mil alertas foram emitidos durante o teste, sendo 19 mil entregues ao pessoal da estação em tempo real.

Documentos enviados à WIRED em resposta a uma solicitação da Lei de Liberdade de Informação detalham como o TfL usou uma ampla gama de algoritmos de visão computacional para rastrear o comportamento das pessoas enquanto estavam na estação.

PUBLICIDADE

É a primeira vez que os detalhes completos do teste são divulgados e, segundo a TfL, , em dezembro, o uso da tecnologia será expandido para detectar desvios de tarifas para mais estações na capital britânica.

Os documentos, parcialmente redigidos, também mostram como a inteligência artificial cometeu erros durante o teste, como sinalizar crianças que seguiam seus pais através de barreiras de passagens como possíveis esquivadores de tarifas.

Os especialistas em privacidade que analisaram os documentos questionam a precisão dos algoritmos de detecção de objetos. Afirmam também que não está claro quantas pessoas sabiam do ensaio e alertam que tais sistemas de vigilância poderiam ser facilmente expandidos no futuro para incluir sistemas de detecção mais sofisticados ou software de reconhecimento facial que tente identificar indivíduos específicos. 

PUBLICIDADE

Leia também:

Rolar para cima