Inteligência Artificial

Metrô de Londres está testando ferramentas de IA para detectar crimes

Milhares de pessoas que usaram o metrô de Londres tiveram seus movimentos, comportamento e linguagem corporal monitorados por um software de vigilância de inteligência artificial (IA) - projetado para verificar se estavam cometendo crimes ou se estavam em situações inseguras.

Publicado por
Juliana Caminoto

O software de aprendizado de máquina foi combinado com imagens de CFTV ao vivo para tentar detectar comportamento agressivo e armas ou facas, bem como procurar pessoas caindo nos trilhos do metrô ou esquivando-se das passagens.

De outubro de 2022 até o final de setembro de 2023, a Transport for London (TfL), que opera a rede de metrô e ônibus da cidade, testou 11 algoritmos para monitorar as pessoas que passam pela estação de metrô Willesden Green, no noroeste da cidade.

O teste de prova de conceito é a primeira vez que o órgão de transporte combina inteligência artificial e imagens de vídeo ao vivo para gerar alertas que são enviados ao pessoal da linha de frente. Mais de 44 mil alertas foram emitidos durante o teste, sendo 19 mil entregues ao pessoal da estação em tempo real.

Documentos enviados à WIRED em resposta a uma solicitação da Lei de Liberdade de Informação detalham como o TfL usou uma ampla gama de algoritmos de visão computacional para rastrear o comportamento das pessoas enquanto estavam na estação.

É a primeira vez que os detalhes completos do teste são divulgados e, segundo a TfL, , em dezembro, o uso da tecnologia será expandido para detectar desvios de tarifas para mais estações na capital britânica.

Os documentos, parcialmente redigidos, também mostram como a inteligência artificial cometeu erros durante o teste, como sinalizar crianças que seguiam seus pais através de barreiras de passagens como possíveis esquivadores de tarifas.

Os especialistas em privacidade que analisaram os documentos questionam a precisão dos algoritmos de detecção de objetos. Afirmam também que não está claro quantas pessoas sabiam do ensaio e alertam que tais sistemas de vigilância poderiam ser facilmente expandidos no futuro para incluir sistemas de detecção mais sofisticados ou software de reconhecimento facial que tente identificar indivíduos específicos. 

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 18:57

Juliana Caminoto

Advogada com especialização em compliance e auditoria, estou sempre conectada às redes sociais e em busca de novos desafios. Sou mãe de pet e amo viajar.

Posts recentes

OpenAI mira no Chrome com planos de desenvolver seu próprio navegador

A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…

22 de novembro de 2024

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024