A DeepMind, laboratório de pesquisa do Google, publicou um novo estudo sobre seu sistema de IA V2A (vídeo para áudio). O V2A gera trilhas sonoras detalhadas e sincronizadas para vídeos, incluindo música, efeitos sonoros, diálogos e muito mais.
O V2A combina pixels brutos de vídeo com descrições textuais para produzir áudio realista que corresponda ao que se vê na tela e ao tom do vídeo. O modelo foi treinado em vídeo, áudio, anotações de efeitos sonoros e transcrições de fala para aprender a associar eventos visuais e sonoros.
A DeepMind afirma estar testando o V2A com renomados cineastas e planeja realizar mais testes de segurança antes de disponibilizá-lo ao público.
Enquanto a geração de vídeo por inteligência artificial (IA) avança rapidamente, os resultados geralmente são perturbadoramente silenciosos. A integração do V2A com modelos como o Veo (também do Google) pode levar a capacidades criativas a um novo patamar, permitindo que diálogos, efeitos sonoros e música sejam facilmente combinados com a produção de vídeo.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:34
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…