A Runway acaba de apresentar Act-One, um novo recurso de vídeo Gen-3 Alpha que permite aos criadores mapear expressões faciais humanas reais em personagens gerados por inteligência artificial (IA) usando um único vídeo e imagem de referência – sem nenhum equipamento especializado.
O sistema captura performances nuançadas, incluindo micro-expressões e movimentos oculares, usando apenas um vídeo de smartphone e uma imagem de referência de personagem.
Act-One permite que os criadores transfiram a performance de um único vídeo para vários personagens de IA em diferentes estilos e ângulos.
A ferramenta se integra diretamente ao modelo de vídeo Gen-3 Alpha da Runway para criar cenas narrativas complexas.
O lançamento segue a recente parceria da Runway com a Lionsgate para desenvolver modelos de IA personalizados usando seu catálogo de filmes.
A animação de personagens de qualidade profissional era trabalhosa, demorada e cara no passado. A nova ferramenta da Runway agora dá a qualquer pessoa a capacidade de criar personagens expressivos e críveis, derrubando mais uma barreira de entrada para a narrativa criativa.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:08
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…
O Google Gemini agora pode “lembrar” certas coisas sobre você, como seus interesses e preferências…
Um novo estudo do UVA Health System revelou que o ChatGPT-4 alcançou uma precisão diagnóstica…