A Runway acaba de apresentar Act-One, um novo recurso de vídeo Gen-3 Alpha que permite aos criadores mapear expressões faciais humanas reais em personagens gerados por inteligência artificial (IA) usando um único vídeo e imagem de referência – sem nenhum equipamento especializado.
O sistema captura performances nuançadas, incluindo micro-expressões e movimentos oculares, usando apenas um vídeo de smartphone e uma imagem de referência de personagem.
Act-One permite que os criadores transfiram a performance de um único vídeo para vários personagens de IA em diferentes estilos e ângulos.
A ferramenta se integra diretamente ao modelo de vídeo Gen-3 Alpha da Runway para criar cenas narrativas complexas.
O lançamento segue a recente parceria da Runway com a Lionsgate para desenvolver modelos de IA personalizados usando seu catálogo de filmes.
A animação de personagens de qualidade profissional era trabalhosa, demorada e cara no passado. A nova ferramenta da Runway agora dá a qualquer pessoa a capacidade de criar personagens expressivos e críveis, derrubando mais uma barreira de entrada para a narrativa criativa.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:08
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…