Pesquisadores acabaram de lançar o SignLLM, o primeiro modelo de inteligência artificial (IA) para Produção de Linguagem de Sinais (PLS) multilíngue, capaz de gerar vídeos de avatares fazendo sinais em oito idiomas diferentes a partir de comandos de texto.
Primeiro, os pesquisadores desenvolveram o Prompt2Sign, um banco de dados multilíngue de linguagem de sinais otimizado para treinar movimentos da parte superior do corpo.
Em seguida, o modelo de IA SignLLM foi treinado com esse banco de dados, obtendo dois modos que permitem a geração de vídeos com avatares em várias línguas a partir de comandos.
Em testes, o SignLLM superou todos os outros modelos de IA de linguagem de sinais em tarefas relacionadas a sinais, em todos os oito idiomas presentes nos dados de treinamento.
O SignLLM e o desenvolvimento de IA em geral têm o potencial de revolucionar a acessibilidade da linguagem de sinais para pessoas surdas e com deficiência auditiva em todo o mundo. E o melhor é que isso é apenas a ponta do iceberg do que será possível em tecnologia assistiva em um futuro próximo.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:48
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…