[ad_1]
Fabricantes Bate-papoGPT Mostre algumas novas atualizações esta semana Atualização de primavera para OpenAI.
Entre a voz mais humana, a voz natural e os recursos de visão do Google Lens, muitos recursos interessantes foram revelados em uma série surpreendentemente rápida de demonstrações ao vivo.
Há muita coisa acontecendo esta semana, incluindo novas estreias iPad Pro 2024 E iPad Air 2024então você pode ter perdido alguns recursos que OpenAI Anunciar. Continue lendo para descobrir as 5 maiores atualizações do ChatGPT que você pode ter perdido.
GPT-4o
Há um novo modelo na cidade e a OpenAI o chama de GPT-4o. Este não é o ChatGPT-5, mas uma atualização significativa do modelo OpenAI atual.
Durante a atualização de primavera da OpenAI, a CTO Mira Murati disse que o modelo GPT-4o é capaz de raciocinar por voz, texto e visão. Este modelo abrangente deve ser mais rápido e eficiente do que o ChatGPT-4 atual.
Com base em algumas demonstrações ao vivo, o sistema parece se mover rapidamente, especialmente no modo de chat de voz, mas falaremos mais sobre isso a seguir.
Gratuito para todos
O GPT-4o não está restrito ao serviço Premium Plus de US$ 20 por mês. Na verdade, a OpenAI está trabalhando para disponibilizar o GPT-4o a todos os usuários.
Além das ferramentas nativas e atualizações que o GPT-4o traz para a mesa, ele oferece outras ferramentas para usuários gratuitos. Isso inclui chatbots personalizados e acesso à loja ChatGPT contendo modelos e ferramentas criados pelo usuário.
Os usuários gratuitos também têm acesso a ferramentas avançadas de análise de dados, visão (ou análise de imagens) e memória, que permitem ao ChatGPT lembrar conversas anteriores.
Você deve estar se perguntando: o que um usuário pago ganha agora? De acordo com a OpenAI, os usuários pagos continuarão a obter até 5 vezes mais capacidade e consultas que os usuários gratuitos.
4. Crie uma ampla gama de sons baseados em emoções pic.twitter.com/aIcBWWv7DG13 de maio de 2024
Discurso conversacional
A parte mais interessante das demonstrações ao vivo do OpenAI envolveu o chat de voz com ChatGPT.
O novo assistente de voz é capaz de falar em tempo real, o que inclui a possibilidade de interromper o assistente, pedir-lhe para mudar o tom e fazer com que reaja às emoções do utilizador.
Durante as demonstrações ao vivo, os apresentadores do OpenAI pediram ao assistente de voz para compor uma história para dormir. Através da demo eles o interromperam e o fizeram demonstrar a capacidade de soar não apenas natural, mas dramático e emocional. Eles também tinham uma voz robótica cantando e contando a história com mais força.
Foi tudo muito impressionante.
Muitos dos recursos de assistente de voz oferecidos eram impressionantes, mas a ferramenta de tradução ao vivo parece ir além.
Durante as demos, Moratti falou em italiano com o assistente de voz. Mark Chen pediu ao assistente que traduzisse o inglês para o italiano e o italiano para o inglês. Isso parece funcionar bem. Isso pode ser um verdadeiro benefício para os viajantes.
1. Tradução em tempo real pic.twitter.com/cPGByaQwmN13 de maio de 2024
Ensino
ChatGPT obtém uma nova visibilidade nativa, semelhante ao Google Lens. Essencialmente, esse recurso permite que o ChatGPT “veja” usando a câmera do seu telefone.
A equipe de demonstração mostrou uma equação ao ChatGPT e pediu ajuda para resolver o problema. O assistente de voz baseado em IA resolveu o problema matemático sem dar a resposta.
Isso é loucura. GPT-4o mudará a indústria da educação. pic.twitter.com/QOuQrn82Y013 de maio de 2024
Ele também parece ser capaz de ver as mudanças que foram feitas.
Em combinação com o novo aplicativo de desktop, o Vision parece incluir também a capacidade de visualizar desktops. Em uma demonstração, o ChatGPT também foi capaz de visualizar e analisar o código, bem como descrever possíveis problemas e o que o código deveria fazer.
O modelo ChatGPT com GPT-4o poderia ser o mestre perfeito?
Mais atualizações e ferramentas foram mencionadas durante o OpenAI Spring Update, como o aplicativo de desktop disponível. Houve também detecção de rosto e percepção de emoções.
Deve-se observar que, no momento em que este livro foi escrito, nem todos os recursos pareciam disponíveis ainda. Os recursos serão lançados gradualmente nas próximas semanas, mas não sabemos quando recursos específicos estarão disponíveis.
Por exemplo, o assistente de voz parece estar indisponível. Nós testamos e ainda é a versão antiga no momento.
O novo modelo necessitará de alguns testes práticos e já estamos começando a ver o que ele pode fazer da nossa parte. Volte conosco enquanto conduzimos o GPT-4o pelas etapas.
Mais do guia do Tom
[ad_2]