Tecnologia

OpenAI GPT-4o é “notavelmente humano”, demonstrações ao vivo revelam o que ele pode fazer – Todos os detalhes

A OpenAI lançou o GPT-4o, a iteração mais recente e sofisticada de seu modelo de IA, projetada para fazer com que as interações digitais pareçam extraordinariamente humanas. Esta nova atualização visa melhorar significativamente a experiência do usuário, trazendo recursos avançados para um público mais amplo.

Interatividade aprimorada com modo de voz

Durante o anúncio, a equipe da OpenAI demonstrado O novo modo de voz do GPT-4o, que promete uma capacidade de conversação mais natural e humana. A demonstração demonstrou a capacidade do chatbot de lidar com interrupções e modificar respostas em tempo real, destacando sua interatividade aprimorada.

Leia também: OpenAI lança GPT-4o com recursos de voz, texto e visão – Conheça todos os detalhes

A CTO Mira Murati enfatizou a acessibilidade do modelo, observando que o GPT-4o estende o poder do GPT-4 a todos os usuários, incluindo aqueles no nível gratuito. Em uma apresentação ao vivo, Murati descreveu o GPT-4o, com o “o” significando “Omni”, como um grande avanço em facilidade de uso e velocidade.

Demonstrações Impressionantes

As demonstrações incluíram uma variedade de recursos impressionantes. Por exemplo, o assistente de voz do ChatGPT respondeu rapidamente e pôde ser interrompido sem perder a coerência, demonstrando o seu potencial para revolucionar as interações baseadas em IA. Uma demonstração envolveu um tutorial em tempo real sobre respiração profunda, ilustrando aplicações práticas de orientação.

Leia também: Lançado OpenAI GPT-4o: 5 razões pelas quais é o modelo de IA mais poderoso e o que você pode fazer

GPT-4o: Vários recursos de voz e resolução de problemas

Outro destaque foi o ChatGPT habilidade ler uma história gerada por IA em múltiplas vozes, da dramática à robótica, até mesmo cantando. Além disso, a solução de problemas do ChatGPT habilidades estavam em exibição porque ajudavam o usuário a resolver uma equação de álgebra de forma interativa, em vez de apenas fornecer a resposta.

GPT-4o: Recurso Be My Eyes

Numa demonstração particularmente notável, denominada “Seja meus olhos“O GPT-4o descreveu paisagens urbanas e arredores em tempo real, oferecendo assistência precisa a pessoas com deficiência visual. Esse recurso pode ser uma virada de jogo para acessibilidade.

Habilidades multimodais e tradução de idiomas do GPT-4o

O GPT-4o também apresentou personalidade aprimorada e habilidades de conversação em comparação com as versões anteriores. Ele alternava perfeitamente entre os idiomas, fornecendo informações em tempo real traduções entre inglês e italiano, e utilizou a câmera de um telefone para ler notas escritas e interpretar emoções.

O lançamento do GPT-4o coincide com a próxima conferência de desenvolvedores de I/O do Google, onde são esperados mais avanços na IA generativa. A OpenAI também anunciou uma versão desktop do ChatGPT para usuários de Mac, com uma versão para Windows a seguir. Inicialmente, o acesso será implementado para usuários pagos.

Além disso, a OpenAI planeja fornecer aos usuários gratuitos acesso a GPTs personalizados e sua loja GPT, com esses recursos sendo implementados gradualmente nas próximas semanas. A implementação dos recursos de texto e imagem do GPT-4o começou para usuários pagos do ChatGPT Plus e Team, com acesso de usuário corporativo no horizonte. Os usuários gratuitos também terão acesso gradualmente, sujeitos a limites de tarifas.

Leia também: ChatGPT está chegando aos iPhones. Confirmado! Apple e OpenAI podem assinar um acordo em breve antes do lançamento do iOS 18

Próximos recursos

A versão de voz do GPT-4o será lançada em breve, aprimorando sua utilidade além das interações de texto. Os desenvolvedores podem esperar usar os modos de texto e visão do GPT-4o, com recursos de áudio e vídeo que deverão estar disponíveis em breve para um grupo seleto de parceiros confiáveis.

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button