OpenAI presenta el nuevo ChatGPT que escucha, mira y habla

Como Manzana y Google transformar sus asistentes de voz en chatbots, OpenAI está transformando su chatbot en un asistente de voz.

El lunes, la startup de inteligencia artificial de San Francisco presentó una nueva versión de su chatbot ChatGPT que puede recibir y responder a comandos de voz, imágenes y vídeos.

La compañía dijo que la nueva aplicación, basada en un sistema de inteligencia artificial llamado GPT-4o, hace malabarismos con audio, imágenes y video significativamente más rápido que la versión anterior de la tecnología. La aplicación estará disponible a partir del lunes, de forma gratuita, tanto para teléfonos inteligentes como para ordenadores de sobremesa.

«Estamos mirando al futuro de la interacción entre nosotros y las máquinas», afirmó Mira Murati, directora de tecnología de la empresa.

La nueva aplicación es parte de un esfuerzo más amplio para combinar chatbots conversacionales como ChatGPT con asistentes de voz como Google Assistant y Siri de Apple. Como Google fusiona su chatbot Gemini con el Asistente de Google, Apple es preparando una nueva versión de Siri que es más conversacional.

OpenAI dijo que compartiría gradualmente la tecnología con los usuarios «durante las próximas semanas». Esta es la primera vez que ofrece ChatGPT como aplicación de escritorio.

Anteriormente, la empresa ofrecía tecnologías similares desde varios productos gratuitos y de pago. Ahora los ha integrado en un único sistema que está disponible en todos sus productos.

Durante un evento transmitido por Internet, Murati y sus colegas mostraron la nueva aplicación mientras respondía a comandos de voz conversacionales, usaban una transmisión de video en vivo para analizar problemas matemáticos escritos en una hoja de papel y leían en voz alta historias divertidas que tenía. escrito sobre la marcha.

La nueva aplicación no puede generar videos. Pero puede generar imágenes fijas que representan fotogramas de un vídeo.

Con el debut de ChatGPT a finales de 2022OpenAI demostró que las máquinas pueden manejar solicitudes más como las personas. En respuesta a indicaciones de texto conversacionales, podría responder preguntas, escribir trabajos finales e incluso generar código de computadora.

ChatGPT no se rige por un conjunto de reglas. Él aprendió sus habilidades analizando enormes cantidades de texto seleccionado de Internet, incluidos artículos, libros y registros de chat de Wikipedia. Expertos aclamado la tecnología como posible alternativa a motores de búsqueda como Google y asistentes de voz como Siri.

Las versiones más nuevas de la tecnología también han aprendido de sonidos, imágenes y vídeos. Los investigadores llaman a esto “IA multimodal”. Básicamente, empresas como OpenAI comenzaron a combinar chatbots con IA. imagen, audio y video generadores.

(Los New York Times demandado OpenAI y su socio, Microsoft, alegaron en diciembre infracción de derechos de autor de contenido de noticias relacionado con sistemas de IA).

A medida que las empresas combinan chatbots con asistentes de voz, persisten muchos obstáculos. Debido a que los chatbots aprenden sus habilidades a partir de datos de Internet, son propensos a cometer errores. A veces, inventan información por completo, un fenómeno que los investigadores de IA llaman «alucinación.” Esos defectos se están trasladando a los asistentes de voz.

Si bien los chatbots pueden generar un lenguaje convincente, son menos hábiles a la hora de realizar acciones como programar una reunión o reservar un vuelo en avión. Pero empresas como OpenAI están trabajando para transformarlas en «Agentes de IA” que pueda manejar de manera confiable tales tareas.

OpenAI ofrecía anteriormente una versión de ChatGPT que podía aceptar comandos de voz y responder con voz. Pero era un mosaico de tres tecnologías de IA diferentes: una que convertía voz en texto, otra que generaba una respuesta de texto y otra que convertía este texto en una voz sintética.

La nueva aplicación se basa en una única tecnología de inteligencia artificial (GPT-4o) que puede aceptar y generar texto, sonidos e imágenes. Esto significa que la tecnología es más eficiente y la empresa puede darse el lujo de ofrecerla a los usuarios de forma gratuita, afirmó Murati.

“Antes, había toda esta latencia que era el resultado de tres modelos trabajando juntos”, dijo Murati en una entrevista con The Times. «Quieres tener la experiencia que estamos teniendo, donde podemos tener este diálogo tan natural».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *