Pesquisadores acabaram de lançar o SignLLM, o primeiro modelo de inteligência artificial (IA) para Produção de Linguagem de Sinais (PLS) multilíngue, capaz de gerar vídeos de avatares fazendo sinais em oito idiomas diferentes a partir de comandos de texto.
Primeiro, os pesquisadores desenvolveram o Prompt2Sign, um banco de dados multilíngue de linguagem de sinais otimizado para treinar movimentos da parte superior do corpo.
Em seguida, o modelo de IA SignLLM foi treinado com esse banco de dados, obtendo dois modos que permitem a geração de vídeos com avatares em várias línguas a partir de comandos.
Em testes, o SignLLM superou todos os outros modelos de IA de linguagem de sinais em tarefas relacionadas a sinais, em todos os oito idiomas presentes nos dados de treinamento.
O SignLLM e o desenvolvimento de IA em geral têm o potencial de revolucionar a acessibilidade da linguagem de sinais para pessoas surdas e com deficiência auditiva em todo o mundo. E o melhor é que isso é apenas a ponta do iceberg do que será possível em tecnologia assistiva em um futuro próximo.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:48
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…