Pesquisar no Blog
Categorias de blogs
Novos Produtos
Publicado em 2024-06-26
OpenAI atrasou a chegada do modo de voz avançado que introduz o modelo de linguagem GPT-4o no chatbot, que permite uma conversa mais natural, com "emoções e sinais não verbais", para garantir que cumprem os "altos padrões de segurança e confiabilidade".
GPT-4o, apresentado em maio, foi projetado para oferecer uma interação entre a pessoa e a máquina "mais natural", pois tem a capacidade de entender uma combinação de entradas de texto, áudio e imagem e gerar respostas na mesma medida com grande velocidade.
Inclui, além disso, um 'Modo voz' avançado, que permite escolher entre uma série de vozes para personalizar a interação com o chatbot. Justamente, uma característica que gerou polêmica e levou à retirada da voz Sky por se assemelhar à da atriz Scarlett Johansson, que já deu voz a um assistente de inteligência artificial no filme Her, de 2013.
Este modo ia ser testado com um pequeno grupo de usuários em julho, mas OpenAI decidiu atrasar seu início, porque precisam de "um mês mais" para alcançar o padrão que se marcaram, como informaram através de um comunicado publicado no X (antigo Twitter).
Neste tempo, melhorarão a capacidade do modelo para detectar e rejeitar conteúdo inapropriado e para melhorar a experiência do usuário. Também trabalharão na infraestrutura que respaldará seu uso em grande escala e em tempo real.
COMENTÁRIOS
Sem comentários de clientes no momento.