Pesquisadores do MIT acabaram de criar um novo conjunto de dados de imagens chamado COCO-Periph, que permite aos modelos de inteligência artificial (IA) processarem informações visuais de forma mais parecida com os humanos.
O COCO-Periph modifica imagens para capturar a perda de detalhes que ocorre em diferentes ângulos de visão. A equipe testou o dataset tanto em seres humanos quanto em modelos de inteligência artificial de detecção de objetos para comparar a visão periférica.
O desempenho da IA caiu à medida que o objeto alvo ficava mais desfocado, enquanto os humanos viam um declínio mais gradual. O treinamento com COCO-Periph reduziu a diferença entre o desempenho da IA e o nível humano.
Pesquisas como o COCO-Periph podem ajudar a alinhar a tecnologia com a forma como nós, humanos, naturalmente captamos e processamos informações visuais. Essa é uma habilidade crucial para sistemas como recursos de segurança para motoristas, que dependem da antecipação do que as pessoas vão perceber.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 01:39
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…