captura de pantalla 2024 05 13t141657.923
Dicas para Hotelaria

GPT-4th: OpenAI anuncia un nuevo modelo de IA más rápido centrado en conversaciones de audio en tiempo real

Como prometió, el AbiertoAI anunció un nuevo modelo de inteligencia artificial este lunes (13). Llamar GPT-4o, la nueva IA promete responder dos veces más rápido que GPT-4 y trae nuevas funciones de interacción. con especial enfoque en la conversación en tiempo real.

Según Mira Murati, CTO de OpenAI, el modelo se implementará gradualmente en todos los productos de la empresa en las próximas semanas. “GPT-4o razona a través de voz, texto y visión”, dijo Murati en una presentación en las oficinas de la empresa.

GPT-4, el modelo anterior de OpenAI, fue entrenado sobre una combinación de imágenes y texto, pudiendo analizar imágenes y textos para realizar tareas como extraer texto de imágenes o incluso describir su contenido. Pero GPT-4o añade conversaciones en tiempo real a la experiencia.

GPT-4o en la práctica

En la práctica, la nueva IA permite a los usuarios realizar una variedad de acciones. GPT-4o se aleja de la experiencia del chatbot y se acerca a una experiencia de asistente personal, con un diálogo más natural que los asistentes virtuales que ya conocemos.

Los usuarios pueden, por ejemplo, hacer una pregunta a ChatGPT –desarrollado con GPT-4o– y el bot responderá en tiempo real, de una forma 'menos mecánica' que asistentes como Alexa de Amazon. Esto significa presentar diferentes entonaciones/emociones durante la conversación e incluso reír según lo que dice el usuario.

GPT-4o también mejora las capacidades de visión de ChatGPT. Dada una foto (o una pantalla de escritorio), ChatGPT ahora puede responder rápidamente preguntas relacionadas con imágenes, desde cosas como "¿Qué está pasando en este código de software" hasta "¿Qué marca de camisa lleva esta persona?"

"Sabemos que estos modelos son cada vez más complejos, pero queremos que la experiencia de interacción sea realmente más natural y sencilla", dijo Murati.

Por ahora, la función de audio no forma parte de la API GPT-4o para todos los usuarios. Como ha sido el caso desde la primera versión de ChatGPT, OpenAI afirma que lanzará la nueva función al público en general cuando se resuelvan todos los procedimientos de seguridad, citando el riesgo de uso indebido.

Sin embargo, la compañía planea implementar el primer soporte para las nuevas funciones de audio de GPT-4o para "un pequeño grupo de socios confiables" en las próximas semanas.

Créditos: Época Negocios

Lea también:

es_ESSpanish