A OpenAI anunciou que está lançando o Advanced Voice Mode (AVM) para um conjunto expandido de clientes pagantes do ChatGPT na terça-feira.
O recurso de áudio, que torna o ChatGPT mais natural para falar, será lançado inicialmente para clientes nas camadas Plus e Teams do ChatGPT.
Clientes Enterprise e Edu começarão a receber acesso na próxima semana.
Como parte do lançamento, o AVM está recebendo um design renovado.
O recurso agora é representado por uma esfera azul animada, em vez dos pontos pretos animados que a OpenAI apresentou durante sua apresentação da tecnologia em maio.
Os usuários receberão um pop-up no aplicativo ChatGPT, ao lado do ícone de voz, quando o AVM for disponibilizado para eles.
O Advanced Voice será lançado para todos os usuários Plus e Team no aplicativo ChatGPT ao longo da semana.
Enquanto você esperava pacientemente, adicionamos Instruções Personalizadas, Memória, cinco novas vozes e sotaques aprimorados.
Também pode dizer “Desculpe o atraso” em mais de 50 idiomas. pic.twitter.com/APOqqhXtDg
— OpenAI (@OpenAI) 24 de setembro de 2024
O ChatGPT também está recebendo cinco novas vozes que os usuários podem experimentar: Arbor, Maple, Sol, Spruce e Vale.
Isso eleva o número total de vozes do ChatGPT para nove (quase tantas quanto o Gemini Live do Google), junto com Breeze, Juniper, Cove e Ember.
Você pode notar que todos esses nomes são inspirados pela natureza, o que pode ser porque o objetivo do AVM é fazer com que o uso do ChatGPT pareça mais natural.
Uma voz ausente dessa escalação é Sky, a voz que a OpenAI exibiu durante sua atualização de primavera, o que levou a uma ameaça legal de Scarlett Johansson.
A atriz, que interpretou um sistema de IA no longa-metragem “Her”, alegou que a voz de Sky soava um pouco parecida demais com a dela.
A OpenAI retirou prontamente a voz de Sky, dizendo que ela nunca teve a intenção de se parecer com a voz de Johansson, apesar de vários membros da equipe fazerem referências ao filme em tweets na época.
Outro recurso ausente neste lançamento: o compartilhamento de tela e vídeo do ChatGPT que a OpenAI estreou durante sua atualização de primavera há quatro meses. Esse recurso deve permitir que o GPT-4o processe simultaneamente informações visuais e sonoras.
Durante a demonstração, um membro da equipe da OpenAI mostrou como você pode fazer perguntas em tempo real ao ChatGPT sobre matemática em um pedaço de papel na sua frente, ou codificar na tela do seu computador.
No momento, a OpenAI não está oferecendo um cronograma para quando lançará esses recursos multimodais.
Dito isso, a OpenAI diz que fez algumas melhorias desde o lançamento do seu teste alfa limitado do AVM.
O recurso de voz do ChatGPT supostamente é melhor para entender sotaques agora, e a empresa diz que suas conversas são mais suaves e rápidas também.
Durante nossos testes com o AVM, descobrimos que falhas não eram incomuns, mas a empresa afirma que agora isso melhorou.
A OpenAI também está expandindo alguns dos recursos de personalização do ChatGPT para o AVM: Instruções personalizadas, que permitem aos usuários personalizar como o ChatGPT responde a eles, e Memória, que permite que o ChatGPT se lembre de conversas para referência posterior.
Um porta-voz da OpenAI diz que o AVM ainda não está disponível em várias regiões, incluindo UE, Reino Unido, Suíça, Islândia, Noruega e Liechtenstein.