Pesquisadores do MIT acabaram de criar um novo conjunto de dados de imagens chamado COCO-Periph, que permite aos modelos de inteligência artificial (IA) processarem informações visuais de forma mais parecida com os humanos.
O COCO-Periph modifica imagens para capturar a perda de detalhes que ocorre em diferentes ângulos de visão. A equipe testou o dataset tanto em seres humanos quanto em modelos de inteligência artificial de detecção de objetos para comparar a visão periférica.
O desempenho da IA caiu à medida que o objeto alvo ficava mais desfocado, enquanto os humanos viam um declínio mais gradual. O treinamento com COCO-Periph reduziu a diferença entre o desempenho da IA e o nível humano.
Pesquisas como o COCO-Periph podem ajudar a alinhar a tecnologia com a forma como nós, humanos, naturalmente captamos e processamos informações visuais. Essa é uma habilidade crucial para sistemas como recursos de segurança para motoristas, que dependem da antecipação do que as pessoas vão perceber.
Leia também:
Este post foi modificado pela última vez em 15 de março de 2024 01:39
A Amazon Prime Video está recebendo um novo recurso alimentado por IA generativa para ajudá-lo…
A empresa de busca com inteligência artificial (IA) Perplexity está testando a ideia de usar…
A gigante de energia dos Emirados Árabes Unidos, ADNOC, aplicará inteligência artificial (IA) altamente autônoma…
A Anthropic acabou de lançar o suporte a PDF para seu modelo Claude 3.5 Sonnet…
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…