A Runway acaba de apresentar Act-One, um novo recurso de vídeo Gen-3 Alpha que permite aos criadores mapear expressões faciais humanas reais em personagens gerados por inteligência artificial (IA) usando um único vídeo e imagem de referência – sem nenhum equipamento especializado.
O sistema captura performances nuançadas, incluindo micro-expressões e movimentos oculares, usando apenas um vídeo de smartphone e uma imagem de referência de personagem.
Act-One permite que os criadores transfiram a performance de um único vídeo para vários personagens de IA em diferentes estilos e ângulos.
A ferramenta se integra diretamente ao modelo de vídeo Gen-3 Alpha da Runway para criar cenas narrativas complexas.
O lançamento segue a recente parceria da Runway com a Lionsgate para desenvolver modelos de IA personalizados usando seu catálogo de filmes.
A animação de personagens de qualidade profissional era trabalhosa, demorada e cara no passado. A nova ferramenta da Runway agora dá a qualquer pessoa a capacidade de criar personagens expressivos e críveis, derrubando mais uma barreira de entrada para a narrativa criativa.
Leia também:
Este post foi modificado pela última vez em 24 de outubro de 2024 13:08
Um ex-pesquisador da OpenAI que ajudou a coletar dados de treinamento para o ChatGPT se…
A tecnologia de marca d'água de texto SynthID do Google, uma ferramenta criada pela empresa…
A startup de inteligência artificial (IA) Genmo acaba de lançar Mochi 1, um novo modelo…
A Zoom lançou seu assistente de inteligência artificial (IA) atualizado. A Zoom diz que seu…
Uma startup de inteligência artificial (IA) apoiada pela Amazon e Google afirma ter criado um…
A União Europeia (UE) está muito atrás dos Estados Unidos e da China em investimentos…