IA que “lê pensamentos”: Meta AI desenvolve um método não invasivo para decodificar a fala a partir da atividade cerebral
Créditos da imagem: Newsverso/Bing IA

IA que “lê pensamentos”: Meta AI desenvolve um método para decodificar a fala a partir da atividade cerebral

Os recentes avanços tecnológicos abriram novas oportunidades ​​para melhorar a qualidade de vida de pessoas com deficiências ou limitações. Uma iniciativa recente vem de pesquisadores de inteligência artificial (IA) da Meta.

Pesquisadores da Meta AI desenvolveram recentemente um método promissor e não invasivo para decodificar a fala da atividade cerebral de uma pessoa, o que poderia permitir que pessoas incapazes de falar transmitissem seus pensamentos por meio de uma interface de computador. 

PUBLICIDADE

O método proposto, apresentado na Nature Machine Intelligence, combina o uso de uma técnica de imagem e aprendizado de máquina.

Como funciona a IA que “lê pensamentos”

O objetivo é oferecer uma rota alternativa e não invasiva para decodificar representações de fala. “Em vez de usar eletrodos intracranianos, empregamos a magnetoencefalografia”, explicou Jean Remi King, cientista pesquisador da Meta – uma técnica de mapeamento da atividade cerebral por detecção de campo magnético produzido por correntes elétricas que existem no nosso cérebro.

“Esta é uma técnica de imagem que depende de um dispositivo não invasivo que pode tirar mais de mil instantâneos da atividade cerebral por segundo. Como esses sinais cerebrais são muito difíceis de interpretar, treinamos um sistema de IA para decodificá-los em segmentos de fala”, explicou King.

PUBLICIDADE

Em resumo, a equipe da Meta desenvolveu um sistema de IA e o treinaram para analisar imagens de magnetoencefalografia, prevendo a fala a partir da atividade cerebral nelas registrada. Seu sistema de IA consiste em dois módulos principais, chamados de ‘módulo cerebral’ e ‘módulo de fala’.

O módulo cerebral foi treinado para extrair informações da atividade cerebral humana registrada por magnetoencefalografia. O módulo de fala, por outro lado, identifica as representações de fala que devem ser decodificadas.

Teste em humanos

Os pesquisadores avaliaram a abordagem em um estudo inicial com 175 participantes humanos. Os participantes foram convidados a ouvir contos narrados e frases faladas isoladas enquanto sua atividade cerebral era monitorada.

PUBLICIDADE

A equipe obteve os melhores resultados ao analisar três segundos de sinais de magnetoencefalografia. Especificamente, eles conseguiram decodificar segmentos de fala correspondentes com uma precisão média de até 41% entre mais de 1.000 possibilidades entre os participantes, mas com alguns participantes alcançaram precisões de até 80%.

“Ficamos surpresos com o desempenho de decodificação obtido”, disse King. “Na maioria dos casos, podemos recuperar o que os participantes ouvem e, se o decodificador cometer um erro, tende a ser semanticamente semelhante à frase-alvo”.

O sistema já mostrou potencial para aplicações futuras. Como não requer procedimentos cirúrgicos invasivos ou uso de implantes cerebrais, poderia ser mais fácil de usar na prática, mas, continua nos estágios iniciais de desenvolvimento e exigirá melhorias antes de poder ser introduzido em ambientes clínicos para auxiliar pacientes com deficiências relacionadas à fala.

PUBLICIDADE

Leia também:

logo Google Notícias

Siga o Curto no Google News

Rolar para cima