screenshot 2024 05 13t141657.923
Dicas para Hotelaria

GPT-4o: OpenAI anuncia novo modelo de IA mais rápido e focado na conversação por áudio em tempo real

Como prometido, a OpenAI anunciou um novo modelo de inteligência artificial nesta segunda-feira (13). Chamada GPT-4o, a nova IA promete ser duas vezes mais rápida nas respostas que o GPT-4 e traz novos recursos de interação, com foco especial para a conversação em tempo real.

Segundo Mira Murati, CTO da OpenAI, o modelo será implementado gradualmente em todos os produtos da empresa nas próximas semanas. “O GPT-4o raciocina através de voz, texto e visão”, disse Murati em uma apresentação nos escritórios da empresa.

O GPT-4, modelo anterior da OpenAI, foi treinado em uma combinação de imagens e texto, conseguindo analisar imagens e textos para realizar tarefas como extrair texto de imagens ou até mesmo descrever o conteúdo das mesmas. Mas o GPT-4o acrescenta conversas em tempo real à experiência.

GPT-4o na prática

Na prática, a nova IA possibilita uma variedade de ações aos usuários. O GPT-4o sai da experiência de chatbot e passa para uma experiência de assistente pessoal – com um diálogo mais natural que o de assistentes virtuais que já conhecemos.

Os usuários podem, por exemplo, fazer uma pergunta ao ChatGPT – desenvolvido com GPT-4o – e o bot vai responder em tempo real, de uma forma ‘menos mecânica’ que assistentes como a Alexa, da Amazon. Isso significa apresentar entonações/emoções diferentes durante a conversa e até mesmo rir de acordo com alguma fala do usuário.

O GPT-4o também melhora as capacidades de visão do ChatGPT. Dada uma foto – ou uma tela de desktop – o ChatGPT agora pode responder rapidamente a perguntas relacionadas à imagem, desde coisas como “O que está acontecendo neste código de software” até “Que marca de camisa essa pessoa está vestindo?”

“Sabemos que esses modelos estão ficando cada vez mais complexos, mas queremos que a experiência de interação se torne realmente mais natural e mais fácil”, disse Murati.

Por enquanto, o recurso de áudio não faz parte da API GPT-4o para todos os usuários. Como acontece desde a primeira versão do ChatGPT, OpenAI afirma que liberará a novidade ao público geral quando todos os procedimentos de segurança estiverem resolvidos, citando o risco de uso indevido.

A empresa, no entanto, planeja lançar o primeiro suporte para os novos recursos de áudio do GPT-4o para “um pequeno grupo de parceiros confiáveis” nas próximas semanas.

Creditos: Epoca Negocios

Leia também: