Pesquisadores do MIT acabaram de criar um novo conjunto de dados de imagens chamado COCO-Periph, que permite aos modelos de inteligência artificial (IA) processarem informações visuais de forma mais parecida com os humanos.
O COCO-Periph modifica imagens para capturar a perda de detalhes que ocorre em diferentes ângulos de visão. A equipe testou o dataset tanto em seres humanos quanto em modelos de inteligência artificial de detecção de objetos para comparar a visão periférica.
O desempenho da IA caiu à medida que o objeto alvo ficava mais desfocado, enquanto os humanos viam um declínio mais gradual. O treinamento com COCO-Periph reduziu a diferença entre o desempenho da IA e o nível humano.
Pesquisas como o COCO-Periph podem ajudar a alinhar a tecnologia com a forma como nós, humanos, naturalmente captamos e processamos informações visuais. Essa é uma habilidade crucial para sistemas como recursos de segurança para motoristas, que dependem da antecipação do que as pessoas vão perceber.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 01:39
O Google Gemini agora pode “lembrar” certas coisas sobre você, como seus interesses e preferências…
Um novo estudo do UVA Health System revelou que o ChatGPT-4 alcançou uma precisão diagnóstica…
A Perplexity acaba de lançar uma nova experiência de compra para seus usuários Pro nos…
A startup francesa de inteligência artificial (IA), Mistral, acaba de lançar o Pixtral Large, um…
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…