Inteligência Artificial

IA que “lê pensamentos”: Meta AI desenvolve um método para decodificar a fala a partir da atividade cerebral

Os recentes avanços tecnológicos abriram novas oportunidades ​​para melhorar a qualidade de vida de pessoas com deficiências ou limitações. Uma iniciativa recente vem de pesquisadores de inteligência artificial (IA) da Meta.

Publicado por
Isabella Caminoto

Pesquisadores da Meta AI desenvolveram recentemente um método promissor e não invasivo para decodificar a fala da atividade cerebral de uma pessoa, o que poderia permitir que pessoas incapazes de falar transmitissem seus pensamentos por meio de uma interface de computador. 

O método proposto, apresentado na Nature Machine Intelligence, combina o uso de uma técnica de imagem e aprendizado de máquina.

Como funciona a IA que “lê pensamentos”

O objetivo é oferecer uma rota alternativa e não invasiva para decodificar representações de fala. “Em vez de usar eletrodos intracranianos, empregamos a magnetoencefalografia”, explicou Jean Remi King, cientista pesquisador da Meta – uma técnica de mapeamento da atividade cerebral por detecção de campo magnético produzido por correntes elétricas que existem no nosso cérebro.

“Esta é uma técnica de imagem que depende de um dispositivo não invasivo que pode tirar mais de mil instantâneos da atividade cerebral por segundo. Como esses sinais cerebrais são muito difíceis de interpretar, treinamos um sistema de IA para decodificá-los em segmentos de fala”, explicou King.

Em resumo, a equipe da Meta desenvolveu um sistema de IA e o treinaram para analisar imagens de magnetoencefalografia, prevendo a fala a partir da atividade cerebral nelas registrada. Seu sistema de IA consiste em dois módulos principais, chamados de ‘módulo cerebral’ e ‘módulo de fala’.

O módulo cerebral foi treinado para extrair informações da atividade cerebral humana registrada por magnetoencefalografia. O módulo de fala, por outro lado, identifica as representações de fala que devem ser decodificadas.

Teste em humanos

Os pesquisadores avaliaram a abordagem em um estudo inicial com 175 participantes humanos. Os participantes foram convidados a ouvir contos narrados e frases faladas isoladas enquanto sua atividade cerebral era monitorada.

A equipe obteve os melhores resultados ao analisar três segundos de sinais de magnetoencefalografia. Especificamente, eles conseguiram decodificar segmentos de fala correspondentes com uma precisão média de até 41% entre mais de 1.000 possibilidades entre os participantes, mas com alguns participantes alcançaram precisões de até 80%.

“Ficamos surpresos com o desempenho de decodificação obtido”, disse King. “Na maioria dos casos, podemos recuperar o que os participantes ouvem e, se o decodificador cometer um erro, tende a ser semanticamente semelhante à frase-alvo”.

O sistema já mostrou potencial para aplicações futuras. Como não requer procedimentos cirúrgicos invasivos ou uso de implantes cerebrais, poderia ser mais fácil de usar na prática, mas, continua nos estágios iniciais de desenvolvimento e exigirá melhorias antes de poder ser introduzido em ambientes clínicos para auxiliar pacientes com deficiências relacionadas à fala.

Leia também:

Siga o Curto no Google News

Este post foi modificado pela última vez em %s = human-readable time difference 12:47

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Gemini recupera o primeiro lugar no ranking de LLM

O mais recente modelo experimental Gemini da Google (1121) acabou de recuperar o primeiro lugar…

22 de novembro de 2024

OpenAI mira no Chrome com planos de desenvolver seu próprio navegador

A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…

22 de novembro de 2024

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024