Na última semana, a startup de inteligência artificial (IA) Luma publicou uma série de vídeos criados usando sua nova ferramenta Dream Machine – que a empresa descreve como um “modelo transformador altamente escalável e eficiente treinado diretamente em vídeos”.
PUBLICIDADE
No entanto, cerca de 57 segundos do trailer – gerado pela Dream Machine para o Monster Camp (uma história animada sobre criaturas peludas que viajam para um acampamento de verão) – apresenta uma versão levemente distorcida por inteligência artificial, mas ainda reconhecível de Mike Wazowski, do filme Monsters, Inc. da Pixar.
Muitas pessoas notaram que vários personagens e o visual geral foram emprestados dessa franquia, e as perguntas começaram a surgir rapidamente.
Falta de transparência no treinamento da IA
Essa falta geral de transparência sobre os materiais usados para o treinamento da ferramenta é uma das maiores preocupações sobre esses tipos de modelos, à medida que a Dream Machine se junta a Sora da OpenAI, VideoPoet do Google e Veo como uma das muitas ferramentas de IA de texto para vídeo exibidas nos últimos meses.
PUBLICIDADE
A Luma promoveu seu modelo Dream Machine como o futuro da produção cinematográfica, apresentando “imagens realistas de alta qualidade” criadas simplesmente digitando prompts em uma caixa. Ao assistir vídeos mostrando carros correndo por uma rodovia dissolvendo-se ou um curta de ficção científica narrado de forma desajeitada, é possível entender por que os entusiastas dessa tecnologia rapidamente a consideraram uma inovação revolucionária.
Atualmente, a Luma está incentivando as pessoas a se inscreverem e brincarem com a Dream Machine gratuitamente, mas a empresa também possui níveis “Pro” e outros que cobram taxas dos usuários por mais funcionalidades.
A startup de IA não respondeu aos questionamentos da reportagem do The Verge – até o momento da sua publicação.
PUBLICIDADE
A Disney também ainda não se pronunciou publicamente e é possível que a empresa nem mesmo tenha percebido. Mas em um momento em que as pessoas têm pressionado por mais transparência sobre os conjuntos de dados que alimentam ferramentas de IA como as que a Luma está desenvolvendo, casos como o de Monster Camp tornam difícil não enxergar o ecossistema de IA generativa como propenso ao plágio.
Leia também: