Inteligência Artificial

IA que “lê pensamentos”: Meta AI desenvolve um método para decodificar a fala a partir da atividade cerebral

Os recentes avanços tecnológicos abriram novas oportunidades ​​para melhorar a qualidade de vida de pessoas com deficiências ou limitações. Uma iniciativa recente vem de pesquisadores de inteligência artificial (IA) da Meta.

Publicado por
Isabella Caminoto

Pesquisadores da Meta AI desenvolveram recentemente um método promissor e não invasivo para decodificar a fala da atividade cerebral de uma pessoa, o que poderia permitir que pessoas incapazes de falar transmitissem seus pensamentos por meio de uma interface de computador. 

O método proposto, apresentado na Nature Machine Intelligence, combina o uso de uma técnica de imagem e aprendizado de máquina.

Como funciona a IA que “lê pensamentos”

O objetivo é oferecer uma rota alternativa e não invasiva para decodificar representações de fala. “Em vez de usar eletrodos intracranianos, empregamos a magnetoencefalografia”, explicou Jean Remi King, cientista pesquisador da Meta – uma técnica de mapeamento da atividade cerebral por detecção de campo magnético produzido por correntes elétricas que existem no nosso cérebro.

“Esta é uma técnica de imagem que depende de um dispositivo não invasivo que pode tirar mais de mil instantâneos da atividade cerebral por segundo. Como esses sinais cerebrais são muito difíceis de interpretar, treinamos um sistema de IA para decodificá-los em segmentos de fala”, explicou King.

Em resumo, a equipe da Meta desenvolveu um sistema de IA e o treinaram para analisar imagens de magnetoencefalografia, prevendo a fala a partir da atividade cerebral nelas registrada. Seu sistema de IA consiste em dois módulos principais, chamados de ‘módulo cerebral’ e ‘módulo de fala’.

O módulo cerebral foi treinado para extrair informações da atividade cerebral humana registrada por magnetoencefalografia. O módulo de fala, por outro lado, identifica as representações de fala que devem ser decodificadas.

Teste em humanos

Os pesquisadores avaliaram a abordagem em um estudo inicial com 175 participantes humanos. Os participantes foram convidados a ouvir contos narrados e frases faladas isoladas enquanto sua atividade cerebral era monitorada.

A equipe obteve os melhores resultados ao analisar três segundos de sinais de magnetoencefalografia. Especificamente, eles conseguiram decodificar segmentos de fala correspondentes com uma precisão média de até 41% entre mais de 1.000 possibilidades entre os participantes, mas com alguns participantes alcançaram precisões de até 80%.

“Ficamos surpresos com o desempenho de decodificação obtido”, disse King. “Na maioria dos casos, podemos recuperar o que os participantes ouvem e, se o decodificador cometer um erro, tende a ser semanticamente semelhante à frase-alvo”.

O sistema já mostrou potencial para aplicações futuras. Como não requer procedimentos cirúrgicos invasivos ou uso de implantes cerebrais, poderia ser mais fácil de usar na prática, mas, continua nos estágios iniciais de desenvolvimento e exigirá melhorias antes de poder ser introduzido em ambientes clínicos para auxiliar pacientes com deficiências relacionadas à fala.

Leia também:

Siga o Curto no Google News

Este post foi modificado pela última vez em %s = human-readable time difference 12:47

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024