<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Voice Models on KnightLi Blog</title>
        <link>https://www.knightli.com/es/tags/voice-models/</link>
        <description>Recent content in Voice Models on KnightLi Blog</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>es</language>
        <lastBuildDate>Sat, 09 May 2026 10:58:47 +0800</lastBuildDate><atom:link href="https://www.knightli.com/es/tags/voice-models/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Los nuevos modelos de voz Realtime de OpenAI: GPT-Realtime-2, traducción en vivo y transcripción en streaming</title>
        <link>https://www.knightli.com/es/2026/05/09/openai-realtime-voice-models-gpt-realtime-2-translate-whisper/</link>
        <pubDate>Sat, 09 May 2026 10:58:47 +0800</pubDate>
        
        <guid>https://www.knightli.com/es/2026/05/09/openai-realtime-voice-models-gpt-realtime-2-translate-whisper/</guid>
        <description>&lt;p&gt;El 7 de mayo de 2026, OpenAI presentó una nueva generación de modelos de voz para la Realtime API. El objetivo no es solo que la IA suene más natural, sino que los agentes de voz puedan entender, razonar, llamar herramientas, traducir y transcribir durante una conversación en vivo.&lt;/p&gt;
&lt;p&gt;La actualización incluye tres modelos:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt;: el modelo principal para agentes de voz en tiempo real, con mejor razonamiento, llamadas a herramientas y contexto más largo.&lt;/li&gt;
&lt;li&gt;&lt;code&gt;GPT-Realtime-Translate&lt;/code&gt;: un modelo de traducción de voz en vivo que admite más de 70 idiomas de entrada y 13 idiomas de salida.&lt;/li&gt;
&lt;li&gt;&lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt;: un modelo de voz a texto en streaming y baja latencia para subtítulos, notas de reuniones y flujos de trabajo en tiempo real.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Si los primeros asistentes de voz eran más bien “pregunta una vez, responde una vez”, esta actualización se acerca más a una interfaz de voz que escucha y actúa al mismo tiempo.&lt;/p&gt;
&lt;h2 id=&#34;gpt-realtime-2-el-modelo-principal-para-agentes-de-voz&#34;&gt;GPT-Realtime-2: el modelo principal para agentes de voz
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt; está diseñado para interacciones de voz en vivo. No solo responde preguntas; debe mantener el contexto mientras el usuario habla, se corrige, interrumpe o añade restricciones, y llamar herramientas cuando sea necesario.&lt;/p&gt;
&lt;p&gt;Las capacidades destacadas oficialmente incluyen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Frases breves antes de la respuesta, como “déjame comprobarlo”, para que el usuario sepa que el sistema está trabajando.&lt;/li&gt;
&lt;li&gt;Llamadas paralelas a herramientas para calendarios, búsqueda, pedidos, soporte y otros flujos con varias herramientas.&lt;/li&gt;
&lt;li&gt;Recuperación más natural cuando algo falla.&lt;/li&gt;
&lt;li&gt;Ventana de contexto ampliada de 32K a 128K para conversaciones más largas y tareas más complejas.&lt;/li&gt;
&lt;li&gt;Mejor retención de terminología especializada, nombres propios y vocabulario médico.&lt;/li&gt;
&lt;li&gt;Tono y entrega más controlables, por ejemplo respuestas tranquilas, empáticas, confirmatorias o enérgicas.&lt;/li&gt;
&lt;li&gt;reasoning effort ajustable: &lt;code&gt;minimal&lt;/code&gt;, &lt;code&gt;low&lt;/code&gt;, &lt;code&gt;medium&lt;/code&gt;, &lt;code&gt;high&lt;/code&gt; y &lt;code&gt;xhigh&lt;/code&gt;, con &lt;code&gt;low&lt;/code&gt; como valor predeterminado.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Esto permite usar agentes de voz en productos más exigentes, no solo en preguntas y respuestas simples. Un agente de soporte puede escuchar mientras consulta un pedido; una app de viajes puede sugerir pasos tras un cambio de vuelo; una app inmobiliaria puede filtrar viviendas y programar visitas a partir de requisitos hablados.&lt;/p&gt;
&lt;h2 id=&#34;traducción-en-vivo-para-productos-de-voz-multilingües&#34;&gt;Traducción en vivo para productos de voz multilingües
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;GPT-Realtime-Translate&lt;/code&gt; está pensado para traducción de voz en tiempo real. Cada persona puede hablar en su idioma, mientras la otra escucha la traducción y ve la transcripción en vivo.&lt;/p&gt;
&lt;p&gt;Los casos de uso son claros:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Atención al cliente multilingüe.&lt;/li&gt;
&lt;li&gt;Ventas internacionales y preventa.&lt;/li&gt;
&lt;li&gt;Educación online y eventos en vivo.&lt;/li&gt;
&lt;li&gt;Reuniones internacionales y presentaciones.&lt;/li&gt;
&lt;li&gt;Localización de contenido para plataformas de video y creadores.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;La dificultad de la traducción en vivo no es solo traducir bien. También requiere baja latencia, pausas naturales, conservación del tono, adaptación a acentos y manejo de vocabulario especializado. OpenAI enfatiza conversaciones entre idiomas que se sientan más naturales, en lugar de esperar a que termine un bloque completo antes de traducir.&lt;/p&gt;
&lt;h2 id=&#34;transcripción-en-streaming-la-voz-entra-antes-en-el-flujo-de-trabajo&#34;&gt;Transcripción en streaming: la voz entra antes en el flujo de trabajo
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt; es el nuevo modelo de voz a texto en streaming. Su valor está en convertir la voz en texto utilizable mientras ocurre, no después de que termina una grabación.&lt;/p&gt;
&lt;p&gt;Aplicaciones comunes:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Subtítulos en vivo para reuniones.&lt;/li&gt;
&lt;li&gt;Subtítulos para clases y emisiones.&lt;/li&gt;
&lt;li&gt;Notas de reunión en tiempo real.&lt;/li&gt;
&lt;li&gt;Entrada de dictado continua para agentes de voz.&lt;/li&gt;
&lt;li&gt;Flujos posteriores en soporte, salud, contratación, ventas y otros escenarios de voz frecuentes.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Para un producto, la transcripción en streaming reduce el tiempo entre lo hablado y el texto accionable. Los subtítulos aparecen antes, las notas se generan durante la conversación y procesos como resúmenes, extracción de tareas o actualización del CRM pueden empezar antes.&lt;/p&gt;
&lt;h2 id=&#34;precios-y-disponibilidad&#34;&gt;Precios y disponibilidad
&lt;/h2&gt;&lt;p&gt;Los tres modelos ya están disponibles en la Realtime API. Los precios oficiales son:&lt;/p&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;Modelo&lt;/th&gt;
          &lt;th&gt;Precio&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;Entrada de audio $32 / 1M tokens, entrada en caché $0.40 / 1M tokens, salida de audio $64 / 1M tokens&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;GPT-Realtime-Translate&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;$0.034 / minuto&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;$0.017 / minuto&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;OpenAI también indica que la Realtime API admite EU Data Residency y está cubierta por sus compromisos de privacidad empresarial. Para empresas europeas o productos con requisitos de residencia de datos, es un punto que conviene evaluar por separado.&lt;/p&gt;
&lt;h2 id=&#34;qué-significa-para-los-desarrolladores&#34;&gt;Qué significa para los desarrolladores
&lt;/h2&gt;&lt;p&gt;El cambio principal es que la voz empieza a pasar de ser una capa de entrada y salida a ser una capa de interacción del producto.&lt;/p&gt;
&lt;p&gt;Muchas funciones de voz anteriores convertían voz a texto y luego convertían la respuesta textual de nuevo a voz. La parte difícil está en el medio: entender la intención, gestionar interrupciones, mantener contexto, llamar herramientas, explicar qué está haciendo el sistema y recuperarse con naturalidad cuando algo falla.&lt;/p&gt;
&lt;p&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt; intenta llevar más de esa capacidad directamente al modelo de voz en tiempo real. Para los desarrolladores, la pregunta no es solo la calidad de una respuesta, sino si el modelo puede sostener conversaciones largas y tareas de varios pasos.&lt;/p&gt;
&lt;p&gt;Productos especialmente interesantes para probar:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Agentes de voz para atención al cliente.&lt;/li&gt;
&lt;li&gt;Asistentes de voz en autos y móviles.&lt;/li&gt;
&lt;li&gt;Servicios de viajes, reservas, inmobiliaria, finanzas y otros donde se conversa mientras se consulta información.&lt;/li&gt;
&lt;li&gt;Herramientas de reuniones multilingües y comunicación internacional.&lt;/li&gt;
&lt;li&gt;Subtítulos en vivo, notas de reuniones y sistemas de control de calidad de llamadas.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;seguridad-y-aviso-al-usuario&#34;&gt;Seguridad y aviso al usuario
&lt;/h2&gt;&lt;p&gt;OpenAI afirma que la Realtime API incluye varias capas de seguridad, como clasificadores activos sobre sesiones y la posibilidad de detener conversaciones que violen políticas. Los desarrolladores también pueden añadir sus propias barreras con Agents SDK.&lt;/p&gt;
&lt;p&gt;Un requisito fácil de pasar por alto es informar claramente cuando el usuario final interactúa con IA, salvo que el contexto ya lo haga evidente.&lt;/p&gt;
&lt;p&gt;Esto importa en soporte, ventas, educación, salud y escenarios similares. Cuanto más natural sea la voz, más importantes son los límites del producto: el usuario debe saber que habla con IA y entender qué acciones pueden grabarse, transcribirse o activar herramientas.&lt;/p&gt;
&lt;h2 id=&#34;resumen&#34;&gt;Resumen
&lt;/h2&gt;&lt;p&gt;La actualización de Realtime API de OpenAI lleva la voz en vivo de “puede escuchar y hablar” hacia “puede escuchar mientras trabaja en tareas”.&lt;/p&gt;
&lt;p&gt;&lt;code&gt;GPT-Realtime-2&lt;/code&gt; cubre agentes de voz más complejos, &lt;code&gt;GPT-Realtime-Translate&lt;/code&gt; cubre comunicación multilingüe en vivo y &lt;code&gt;GPT-Realtime-Whisper&lt;/code&gt; cubre transcripción de baja latencia. Juntos cubren tres capacidades básicas de muchos productos de voz: conversación, traducción y transcripción.&lt;/p&gt;
&lt;p&gt;Si estás construyendo productos de soporte, automóvil, reuniones, educación, comunicación internacional o asistentes de voz móviles, vale la pena probar esta actualización. Lo importante no es solo si el modelo suena natural, sino cómo se comporta en conversaciones largas, interrupciones, llamadas a herramientas, recuperación de fallos y control de costes.&lt;/p&gt;
&lt;p&gt;Referencia:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAI: Advancing voice intelligence with new models in the API&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
