Inteligência Artificial

Metrô de Londres está testando ferramentas de IA para detectar crimes

Milhares de pessoas que usaram o metrô de Londres tiveram seus movimentos, comportamento e linguagem corporal monitorados por um software de vigilância de inteligência artificial (IA) - projetado para verificar se estavam cometendo crimes ou se estavam em situações inseguras.

Publicado por
Juliana Caminoto

O software de aprendizado de máquina foi combinado com imagens de CFTV ao vivo para tentar detectar comportamento agressivo e armas ou facas, bem como procurar pessoas caindo nos trilhos do metrô ou esquivando-se das passagens.

De outubro de 2022 até o final de setembro de 2023, a Transport for London (TfL), que opera a rede de metrô e ônibus da cidade, testou 11 algoritmos para monitorar as pessoas que passam pela estação de metrô Willesden Green, no noroeste da cidade.

O teste de prova de conceito é a primeira vez que o órgão de transporte combina inteligência artificial e imagens de vídeo ao vivo para gerar alertas que são enviados ao pessoal da linha de frente. Mais de 44 mil alertas foram emitidos durante o teste, sendo 19 mil entregues ao pessoal da estação em tempo real.

Documentos enviados à WIRED em resposta a uma solicitação da Lei de Liberdade de Informação detalham como o TfL usou uma ampla gama de algoritmos de visão computacional para rastrear o comportamento das pessoas enquanto estavam na estação.

É a primeira vez que os detalhes completos do teste são divulgados e, segundo a TfL, , em dezembro, o uso da tecnologia será expandido para detectar desvios de tarifas para mais estações na capital britânica.

Os documentos, parcialmente redigidos, também mostram como a inteligência artificial cometeu erros durante o teste, como sinalizar crianças que seguiam seus pais através de barreiras de passagens como possíveis esquivadores de tarifas.

Os especialistas em privacidade que analisaram os documentos questionam a precisão dos algoritmos de detecção de objetos. Afirmam também que não está claro quantas pessoas sabiam do ensaio e alertam que tais sistemas de vigilância poderiam ser facilmente expandidos no futuro para incluir sistemas de detecção mais sofisticados ou software de reconhecimento facial que tente identificar indivíduos específicos. 

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 18:57

Juliana Caminoto

Advogada com especialização em compliance e auditoria, estou sempre conectada às redes sociais e em busca de novos desafios. Sou mãe de pet e amo viajar.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024