Pesquisadores acabaram de lançar o SignLLM, o primeiro modelo de inteligência artificial (IA) para Produção de Linguagem de Sinais (PLS) multilíngue, capaz de gerar vídeos de avatares fazendo sinais em oito idiomas diferentes a partir de comandos de texto.
Primeiro, os pesquisadores desenvolveram o Prompt2Sign, um banco de dados multilíngue de linguagem de sinais otimizado para treinar movimentos da parte superior do corpo.
Em seguida, o modelo de IA SignLLM foi treinado com esse banco de dados, obtendo dois modos que permitem a geração de vídeos com avatares em várias línguas a partir de comandos.
Em testes, o SignLLM superou todos os outros modelos de IA de linguagem de sinais em tarefas relacionadas a sinais, em todos os oito idiomas presentes nos dados de treinamento.
O SignLLM e o desenvolvimento de IA em geral têm o potencial de revolucionar a acessibilidade da linguagem de sinais para pessoas surdas e com deficiência auditiva em todo o mundo. E o melhor é que isso é apenas a ponta do iceberg do que será possível em tecnologia assistiva em um futuro próximo.
Leia também:
Este post foi modificado pela última vez em 28 de maio de 2024 11:48
A Amazon Prime Video está recebendo um novo recurso alimentado por IA generativa para ajudá-lo…
A empresa de busca com inteligência artificial (IA) Perplexity está testando a ideia de usar…
A gigante de energia dos Emirados Árabes Unidos, ADNOC, aplicará inteligência artificial (IA) altamente autônoma…
A Anthropic acabou de lançar o suporte a PDF para seu modelo Claude 3.5 Sonnet…
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…