OpenAI amplia os recursos de voz do ChatGPT, para alguns selecionados

[ad_1]

A empresa de IA OpenAI está começando a lançar novos recursos de voz para seu chatbot ChatGPT para um pequeno número de assinantes do ChatGPT Plus em um teste alfa inicial. disse no X na terça-feira.

A startup apresentou uma prévia do modo de voz avançado durante sua atualização de primavera em maio, onde também estreou seu modelo GPT-4o.

Os usuários com acesso recorreram às redes sociais para compartilhar suas experiências iniciais, que incluem obter ajuda com Pronúncias francesas, imitando um piloto de avião falando da cabine e imitando sete Dialetos regionais dos EUA. Os sotaques de Nova York e do Meio-Oeste precisam de um pouco de trabalho, mas o chatbot sabe que os nova-iorquinos dobram sua pizza.

A OpenAI não está sozinha em suas ambições de funcionalidade de voz do chatbot para assinantes que pagam US$ 20 por mês por vantagens como acesso antecipado. O Google também compartilhou seus planos para um chatbot Gemini mais conversacional por meio do recurso Gemini Live para assinantes do Gemini Advanced, que também pagam US$ 20 por mês. O chatbot Meta AI da Meta também pode conversar com usuários que usam seus óculos Ray-Ban.

Este é um exemplo de como as empresas de tecnologia continuam a lançar novos modelos e funcionalidades num apelo aos utilizadores que é também um jogo contínuo de superioridade. O prêmio? A maior fatia do mercado de IA generativa, que é projetado para valer US$ 1,3 trilhão até 2023.

Olá, ChatGPT

De acordo com a OpenAI, o modo de voz avançado permite que você tenha conversas mais naturais em tempo real com o ChatGPT. Ele também sente e responde às suas emoções – e você pode interromper se quiser.

Você pode acessar o ChatGPT com uma frase familiar: “Ei, ChatGPT”.

Além disso, os detalhes sobre o que exatamente essa funcionalidade avançada inclui não são claros. Um porta-voz não respondeu a um pedido de comentário.

Os assinantes do teste alfa receberão um aviso no aplicativo ChatGPT, junto com um e-mail com instruções sobre como usá-lo. O objetivo do teste inicial é monitorar o uso e melhorar as capacidades e a segurança do modelo antes de uma implementação mais ampla, disse um porta-voz em um e-mail anterior.

A OpenAI expandirá o acesso a assinantes adicionais nas próximas semanas e planeja oferecer funcionalidade avançada de voz a todos os membros Plus no outono. Além do acesso antecipado a novos recursos, os membros Plus também recebem uma conexão sempre ativa e acesso ilimitado ao GPT-4o. (Se você usar a versão gratuita, será transferido para o modelo GPT-3.5 anterior se fizer muitas perguntas ou se o tráfego estiver alto.)

Bate-papoGPT introduzido pela primeira vez funcionalidade de voz em setembro de 2023.

O modo de voz avançado incluirá quatro vozes predefinidas, Breeze, Cove, Ember e Juniper, que a OpenAI desenvolveu com dubladores em 2023. Havia originalmente uma quinta voz, Sky, mas foi pausada após a atriz Scarlett Johansson, que interpretou a voz do a assistente virtual Samantha no filme Her de 2013 reclamou das semelhanças com sua própria voz.

O CEO Sam Altman divulgou um comunicado pedindo desculpas a Johansson, mas disse que a voz não era para se parecer com a dela.

Em uma postagem de blog relacionadaa OpenAI disse que escolheu os dubladores para suas vozes com base na descoberta de talentos de diversas origens, bem como vozes que parecem atemporais, vozes acessíveis e confiáveis, vozes calorosas, envolventes e carismáticas e vozes naturais e fáceis para ouvir.

A OpenAI disse que o ChatGPT não pode personificar vozes e adicionou filtros que bloquearão solicitações para gerar áudio protegido por direitos autorais.



[ad_2]

Source link