Os recentes avanços tecnológicos abriram novas oportunidades para melhorar a qualidade de vida de pessoas com deficiências ou limitações. Uma iniciativa recente vem de pesquisadores de inteligência artificial (IA) da Meta.
Pesquisadores da Meta AI desenvolveram recentemente um método promissor e não invasivo para decodificar a fala da atividade cerebral de uma pessoa, o que poderia permitir que pessoas incapazes de falar transmitissem seus pensamentos por meio de uma interface de computador.
O método proposto, apresentado na Nature Machine Intelligence, combina o uso de uma técnica de imagem e aprendizado de máquina.
O objetivo é oferecer uma rota alternativa e não invasiva para decodificar representações de fala. “Em vez de usar eletrodos intracranianos, empregamos a magnetoencefalografia”, explicou Jean Remi King, cientista pesquisador da Meta – uma técnica de mapeamento da atividade cerebral por detecção de campo magnético produzido por correntes elétricas que existem no nosso cérebro.
“Esta é uma técnica de imagem que depende de um dispositivo não invasivo que pode tirar mais de mil instantâneos da atividade cerebral por segundo. Como esses sinais cerebrais são muito difíceis de interpretar, treinamos um sistema de IA para decodificá-los em segmentos de fala”, explicou King.
Em resumo, a equipe da Meta desenvolveu um sistema de IA e o treinaram para analisar imagens de magnetoencefalografia, prevendo a fala a partir da atividade cerebral nelas registrada. Seu sistema de IA consiste em dois módulos principais, chamados de ‘módulo cerebral’ e ‘módulo de fala’.
O módulo cerebral foi treinado para extrair informações da atividade cerebral humana registrada por magnetoencefalografia. O módulo de fala, por outro lado, identifica as representações de fala que devem ser decodificadas.
Os pesquisadores avaliaram a abordagem em um estudo inicial com 175 participantes humanos. Os participantes foram convidados a ouvir contos narrados e frases faladas isoladas enquanto sua atividade cerebral era monitorada.
A equipe obteve os melhores resultados ao analisar três segundos de sinais de magnetoencefalografia. Especificamente, eles conseguiram decodificar segmentos de fala correspondentes com uma precisão média de até 41% entre mais de 1.000 possibilidades entre os participantes, mas com alguns participantes alcançaram precisões de até 80%.
“Ficamos surpresos com o desempenho de decodificação obtido”, disse King. “Na maioria dos casos, podemos recuperar o que os participantes ouvem e, se o decodificador cometer um erro, tende a ser semanticamente semelhante à frase-alvo”.
O sistema já mostrou potencial para aplicações futuras. Como não requer procedimentos cirúrgicos invasivos ou uso de implantes cerebrais, poderia ser mais fácil de usar na prática, mas, continua nos estágios iniciais de desenvolvimento e exigirá melhorias antes de poder ser introduzido em ambientes clínicos para auxiliar pacientes com deficiências relacionadas à fala.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:47
O mais recente modelo experimental Gemini da Google (1121) acabou de recuperar o primeiro lugar…
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…