Publicado em 2024-03-15
OpenAI forneceu mais detalhes sobre sua ferramenta de Inteligência Artificial (IA) generativa Sora, capaz de gerar cenas realistas de vídeo a partir de instruções textuais, que será lançada publicamente no final deste ano, embora a data exata ainda não tenha sido especificada.
A empresa apresentou Sora há um mês, quando mencionou que se tratava de um modelo que permitia a criação de cenas "altamente detalhadas", bem como um movimento de câmera "complexo" e a integração de múltiplos personagens.
Para criar esses vídeos, que podem ter duração de até 60 segundos, os usuários apenas precisam escrever uma série de instruções detalhando quais características a cena deve incluir, como os personagens, as ações que realizarão, o ambiente, o clima e os movimentos de câmera que devem ser recriados.
Então, OpenAI comentou que esse modelo estava disponível apenas para os membros da equipe vermelha da empresa, isto é, a equipe dedicada à pesquisa do serviço, a fim de testá-lo e verificar quais falhas apresenta e quais são seus possíveis riscos.
A diretora de tecnologia da OpenAI, Mira Murati, avançou agora em uma entrevista ao The Wall Street Journal que a OpenAI não lançará Sora publicamente até o final deste ano, já que esta equipe de desenvolvimento ainda está trabalhando para detectar vulnerabilidades, viéses e outros resultados prejudiciais.
Sem entrar em detalhes sobre como essa IA é treinada, ela mencionou que usa "dados disponíveis publicamente e dados licenciados", assim como conteúdos da Shutterstock, embora tenha afirmado que desconhece se parte deles vem de vídeos do YouTube ou de plataformas como Instagram e Facebook.
Além disso, indicou que esta ferramenta segue o caminho de Dall-E no sentido de que não permite gerar imagens de figuras públicas, além de que a empresa está trabalhando com artistas para determinar "barreiras e limitações sem obstruir a criatividade".
COMENTÁRIOS
Sem comentários de clientes no momento.