Pesquisadores de inteligência artificial (IA) desenvolveram um novo Modelo de Linguagem de Escuta Enquanto Fala (LSLM) capaz de ouvir e falar simultaneamente, avançando nas conversas baseadas em voz em tempo real e interativas.
O novo modelo, chamado LSLM, permite modelagem full-duplex em modelos de linguagem e fala interativos. O LSLM utiliza um decodificador baseado em tokens apenas para geração de fala e um codificador de aprendizado autosupervisionado em streaming para entrada de áudio em tempo real.
O sistema pode detectar troca de turnos em tempo real e responder a interrupções, uma característica fundamental de uma conversa natural. O modelo demonstrou robustez ao ruído e sensibilidade a instruções diversas em experimentos.
Enquanto o recente modo de voz avançado Her-like da OpenAI para o ChatGPT nos aproxima de conversas de IA realistas, o LSLM avança ainda mais, permitindo que a IA processe a fala de entrada enquanto fala. Isso pode revolucionar as interações humano-IA, tornando as conversas com máquinas verdadeiramente naturais e responsivas.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:45
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…