En medio de una semana turbulenta marcada por la salida de ejecutivos clave y noticias sobre importantes rondas de financiación, OpenAI ha vuelto al ruedo con su evento anual DevDay 2024, en el que presentó varias herramientas destinadas a los desarrolladores de aplicaciones de inteligencia artificial.

Entre los anuncios más destacados está el lanzamiento en fase beta de su API en tiempo real, que permitirá la creación de apps con respuestas generadas por voz casi instantáneamente.

Creada por DALL·E de OpenAI.

Durante una rueda de prensa previa al evento, el director de producto de OpenAI, Kevin Weil, aseguró que las recientes salidas de la CTO Mira Murati y el jefe de investigación Bob McGrew no frenarán el progreso de la compañía. “Mira y Bob han sido líderes excepcionales y parte clave de nuestro éxito. Sin embargo, no vamos a reducir la velocidad”, afirmó Weil.

El DevDay de este año busca demostrar que OpenAI sigue siendo un referente para los desarrolladores, a pesar de la creciente competencia de gigantes tecnológicos como Meta y Google. Actualmente, más de tres millones de desarrolladores trabajan con los modelos de inteligencia artificial de OpenAI, que ha reducido el costo de acceso a su API en un 99% en los últimos dos años para mantenerse competitivo.

La API en tiempo real, uno de los grandes anuncios del día, permitirá crear experiencias de voz a voz casi instantáneas, utilizando seis voces predefinidas por OpenAI. Estas voces son diferentes a las que ofrece ChatGPT y, por motivos de derechos de autor, no se permiten voces de terceros. En una demostración, los asistentes vieron cómo la API gestionaba una conversación en tiempo real para planificar un viaje a Londres, ofreciendo respuestas rápidas y precisas mientras señalaba restaurantes en un mapa.

Otro ejemplo mostró cómo la API podía asistir en llamadas telefónicas para ordenar comida a través de servicios externos como Twilio, aunque por ahora no incluye una función nativa para realizar llamadas automáticamente.

Además de la API en tiempo real, OpenAI anunció nuevas capacidades de ajuste fino para visión dentro de su API, lo que permitirá a los desarrolladores mejorar el rendimiento de modelos como GPT-4o utilizando tanto imágenes como texto. Esto resulta útil para tareas que requieran una comprensión visual más avanzada, aunque la empresa destacó que no se podrán cargar imágenes que violen sus políticas de seguridad.

Por otro lado, presentó una nueva función de caché de prompts, diseñada para reducir los costos y mejorar la latencia, y un sistema de destilación de modelos que permite a los desarrolladores ajustar modelos más pequeños, como GPT-4o mini, utilizando modelos más grandes.

Sin embargo, DevDay dejó algunos temas sin resolver. No hubo novedades sobre la GPT Store, anunciada el año pasado, ni sobre nuevos modelos de IA, como el esperado OpenAI o1 o el modelo de generación de video Sora, lo que deja a los desarrolladores con expectativas de futuros anuncios.

Con todo, el evento demuestra que OpenAI sigue enfocada en ofrecer herramientas innovadoras para los desarrolladores, a pesar de los desafíos internos y la feroz competencia del mercado.

NOTICIAS RELACIONADAS: