OpenAI revela grande atualização para ChatGPT que o torna mais assustadoramente humano do que nunca
Uma nova versão do ChatGPT pode ler expressões faciais, imitar padrões de voz humana e ter conversas quase em tempo real, revelaram seus criadores.
OpenAI demonstrou a próxima versão do inteligência artificial (IA) chatbot, denominado GPT-4o, em apresentação aparentemente em tempo real na segunda-feira (13 de maio). O chatbot, que falava em voz alta com os apresentadores através de um telefone, parecia ter um comando estranho da conversa humana e dos seus sinais emocionais subtis – alternando entre vozes robóticas e cantantes mediante comando, adaptando-se a interrupções e processando visualmente as expressões faciais e o ambiente dos seus interlocutores. parceiros de conversação.
Durante a demonstração, o assistente de voz de IA mostrou suas habilidades ao completar tarefas como tradução de idiomas em tempo real, resolver uma equação matemática escrita em um pedaço de papel e guiar uma pessoa cega pelas ruas de Londres.
“ela”, Sam Altman, CEO da OpenAI, escreveu em uma palavra publicar na plataforma de mídia social X após o término da apresentação. A postagem é uma referência ao filme homônimo de 2013, no qual um homem solitário se apaixona por uma assistente de IA.
Para mostrar sua capacidade de ler sinais visuais, o chatbot usou a lente da câmera do telefone para ler as expressões faciais de um engenheiro da OpenAI e descrever suas emoções.
Relacionado: O MIT dá à IA o poder de ‘raciocinar como humanos’ criando uma arquitetura híbrida
“Ahh, lá vamos nós, parece que você está se sentindo muito feliz e alegre com um grande sorriso e um toque de empolgação”, disse o bot, que atendia pelo nome ChatGPT. “O que quer que esteja acontecendo, parece que você está de bom humor. Gostaria de compartilhar a fonte dessas boas vibrações?”
Se a demonstração for uma representação precisa das habilidades do bot, os novos recursos são uma grande melhoria em relação aos recursos de voz limitados dos modelos anteriores da empresa – que eram incapazes de lidar com interrupções ou responder a informações visuais.
“Estamos olhando para o futuro da interação entre nós e as máquinas”, Mira Murati, disse o diretor de tecnologia da OpenAI em entrevista coletiva. “Acreditamos que o GPT-4o está realmente mudando esse paradigma.”
O novo assistente de voz está previsto para ser lançado de forma limitada para testadores alfa nas próximas semanas, seguido por uma implementação mais ampla que começará com assinantes pagantes do ChatGPT Plus. O anúncio também segue uma Bloomberg relatório que a empresa está fechando um acordo com a Apple para integrar o ChatGPT no iPhone – abrindo a possibilidade de que o GPT-4o possa ser usado para atualizar o Siri, o assistente de voz do iPhone.
Mas a nova tecnologia traz consigo preocupações de segurança significativas. A capacidade do bot de processar texto, áudio e entrada visual em tempo real significa que ele pode ser usado para espionagem. E a sua imitação emocional convincente também pode torná-lo adepto da realização de telefonemas fraudulentos ou da apresentação de informações erradas perigosas de forma convincente.
Em resposta a essas questões, Murati disse que a OpenAI está trabalhando para construir “mitigações contra o uso indevido” da nova tecnologia.