Adobe inicia implementação de ferramentas de vídeo de IA

A Adobe apostou seu futuro na construção de modelos treinados em dado

A Adobe anunciou na segunda-feira que iniciou a distribuição pública de um modelo de inteligência artificial (IA) capaz de gerar vídeos a partir de prompts de texto, integrando-se ao crescente número de empresas que buscam revolucionar a produção de cinema e televisão com o uso de IA generativa.

A tecnologia, chamada Firefly Video Model, competirá diretamente com o Sora, da OpenAI, lançada no início deste ano. Além disso, outras grandes empresas, como a ByteDance, proprietária do TikTok, e a Meta Platforms, também revelaram suas ferramentas de criação de vídeo por IA nos últimos meses.

A Adobe apostou seu futuro na construção de modelos treinados em dados dos quais tem direitos de uso, garantindo que o resultado possa ser usado legalmente em trabalhos comerciais. A empresa, sediada em San Jose, Califórnia, começará a abrir a ferramenta para pessoas que se inscreveram na lista de espera, mas não deu uma data geral de lançamento.

Embora a Adobe ainda não tenha anunciado clientes utilizando suas ferramentas de vídeo, a empresa informou na segunda-feira que a PepsiCo e a Gatorade utilizarão seu modelo de geração de imagens para um site onde os clientes poderão encomendar garrafas personalizadas. Além disso, a Mattel já está usando as ferramentas da Adobe para auxiliar no design das embalagens de sua linha de bonecas Barbie.

Para suas ferramentas de vídeo, a Adobe reuniu as práticas para o uso diário de criadores e editores, com um foco especial em integrar as filmagens geradas por IA de maneira harmoniosa com filmagens caseiras. Ely Greenfield, diretora de tecnologia da Adobe para mídia digital, explicou que a empresa se concentrou no controle granular, ensinando ao modelo conceitos fundamentais usados ​​por editores e cinegrafistas, como posição, ângulo e movimento da câmera. “Nós realmente nos concentramos nesses detalhes”, disse Greenfield em entrevista à Reuters.

*Com informações da Reuters

Sair da versão mobile