A OpenAI, criadora do ChatGPT, acaba de anunciar a Sora, seu modelo de inteligência artificial capaz de criar vídeos de até 60 segundos com base em comandos de texto. Por enquanto, a aplicação ainda está em fase de testes e não foi disponibilizada para o público geral por meio dos produtos da empresa.

Segundo o anúncio publicado no site da OpenAI, a funcionalidade de inteligência artificial capaz de produzir vídeos ainda está apenas nas mãos dos chamados red teamers, especialistas que testam eventuais erros da IA em áreas como desinformação, conteúdo de ódio e vieses.

“Estamos compartilhando o progresso de nossa pesquisa antecipadamente para começar a trabalhar e obter feedback de pessoas fora da OpenAI e para dar ao público uma noção de quais capacidades de IA estão no horizonte”, diz a empresa em anúncio. A página inclui alguns dos testes em vídeo feitos pela empresa, bem como os prompts (comandos de texto) que geraram as imagens.

OpenAI anuncia modelo de inteligência artificial capaz de produzir vídeos

Durante a tarde, o CEO da companhia, Sam Altman, tem estimulado seguidores do X (antigo Twitter) a enviarem sugestões de prompts para mostrar o potencial da plataforma. “É um momento extraordinário”, publicou o executivo.

A OpenAI não anunciou um prazo para que a função seja incluída em seus produtos. Além do trabalho de testes dos red teamers, a empresa também disse que está desenvolvendo ferramentas para ajudar a detectar conteúdos enganosos, como um classificador de vídeos gerados pela Sora.

“Iremos envolver tomadores de decisões políticas, educadores e artistas de todo o mundo para compreender as suas preocupações e identificar casos de utilização positivos para esta nova tecnologia”, diz a companhia. “Apesar de extensas pesquisas e testes, não podemos prever todas as formas benéficas como as pessoas utilizarão a nossa tecnologia, nem todas as formas como as pessoas irão abusar dela.”

A anúncio explica que o modelo ainda não é perfeito e pode ter dificuldades com relação à física de cenas complexas e aspectos de causa e efeito.

“Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas depois o biscoito pode não ter marca de mordida”, explica. “O modelo também pode confundir detalhes espaciais de um prompt, por exemplo, misturando esquerda e direita, e pode ter dificuldades com descrições precisas de eventos que ocorrem ao longo do tempo, como seguir uma trajetória específica de câmera”… leia mais em InfoMoney 15/02/2024