OpenAI dobló el precio mientras la inferencia cayó 35x
Ricardo Argüello — 23 de abril de 2026
CEO & Fundador
Resumen general
OpenAI lanzó hoy GPT-5.5 a $5 por millón de tokens de entrada y $30 de salida, exactamente el doble de GPT-5.4 que llegó hace siete semanas y 4x el precio de lanzamiento de GPT-5 en agosto. La misma semana, Nvidia confirmó que Blackwell Ultra reduce el costo de inferencia 35x frente a Hopper. La misma mañana en que Anthropic comoditizó el runtime de agentes a $0.08 por hora, OpenAI mostró el modelo opuesto: extracción de margen estilo Microsoft sobre 900 millones de usuarios. Tu empresa elige hoy a qué playbook te expones.
- GPT-5.5 cuesta $5/M tokens de entrada y $30/M de salida según el anuncio oficial de OpenAI del 23 de abril de 2026. Es exactamente 2x GPT-5.4 ($2.50/$15) y 4x GPT-5 ($1.25/$10)
- Nvidia documentó que Blackwell Ultra reduce el costo por millón de tokens de inferencia 35x frente a Hopper, de $4.20 a $0.12. El costo del proveedor cae mientras el precio al developer se duplica cada release
- OpenAI tiene 900 millones de usuarios activos semanales, 50 millones de suscriptores y 9 millones de clientes business. Un piso cercano a $12B ARR de consumer que paga la apuesta de plataforma
- El ciclo de release de 7 semanas no es por innovación: es la cadencia óptima para que developers reescriban prompts en cada versión, lo que compone switching costs más rápido que ningún competidor puede igualar
- La misma mañana Anthropic vendió runtime de agentes a $0.08/hora. OpenAI lanzó GPT-5.5 al doble del precio anterior. El mercado de IA se partió en dos modelos de negocio en seis horas
Imagina que el año pasado abriste un restaurante y el proveedor del horno te lo vendió por mil dólares. Cocinaste con él ocho meses, ajustaste todas las recetas a su comportamiento, entrenaste a los cocineros con sus modos. Esta mañana el proveedor te llama: el horno nuevo cuesta ocho mil. Te pide cambiar al nuevo porque va a parar el soporte del viejo en seis meses. El proveedor no dice que el costo de fabricar el horno bajó. Tampoco dice que él lleva ocho meses construyendo su propia cadena de restaurantes con esa misma tecnología. Esa es la conversación que OpenAI le acaba de tener a cada developer que construyó sobre GPT-5.
Resumen generado con IA
A las 12:06 PM hora del Pacífico, OpenAI publicó el lanzamiento de GPT-5.5 y, en la nota técnica, la nueva tabla de precios. $5 por millón de tokens de entrada, $30 de salida. Hace siete semanas GPT-5.4 había llegado con $2.50/$15. Hace ocho meses, en agosto, GPT-5 lanzó a $1.25/$10. La aritmética es simple y no se ve linda: el precio se duplicó respecto a la versión anterior y multiplicó por cuatro respecto al lanzamiento original. Todo en menos de un año.
Todo software baja de precio entre versiones. Eso es regla, no excepción. El primer Photoshop costaba $895 en 1990; el actual cuesta $35 al mes. El primer iPhone costaba $599 en 2007 a velocidad EDGE; el iPhone 17 cuesta $799 con 5G y tres cámaras. Las versiones nuevas hacen más y cuestan menos por unidad de capacidad. Esa relación entre capacidad y precio es lo que convirtió a software en una industria.
GPT-5.5 acaba de romperla en voz alta. Y el dato que termina de romper la sorpresa viene de Nvidia. Su anuncio reciente con SemiAnalysis documentó que Blackwell Ultra reduce el costo por millón de tokens de inferencia 35x frente a Hopper, de $4.20 a $0.12. El costo del proveedor se está desplomando. El precio al developer se está multiplicando. La diferencia entre esas dos curvas es lo que en finanzas se llama expansión de margen, y en términos llanos es lo que pasa cuando una empresa descubre que su producto se volvió commodity para los demás pero sigues pagando como si fuera escaso.
Hace exactamente ocho horas, antes de que cerrara la mañana, Anthropic vendía runtime de agentes a $0.08 la hora. Esta tarde OpenAI subió GPT-5.5 a $5 por millón de tokens. En la misma mañana, dos labs de frontera tomaron decisiones opuestas sobre cómo cobrar la inteligencia. Esa elección no es menor. Es la primera vez que el mercado de IA muestra públicamente dos modelos de negocio funcionando en paralelo, y la elección de tu empresa entre uno y otro deja de ser técnica.
El precio se duplicó. La inferencia cayó 35x.
La tabla de precios narrada como timeline pega más fuerte:
- Agosto 2025: GPT-5 lanza a $1.25 / $10 por millón de tokens (entrada / salida)
- Marzo 2026: GPT-5.4 sube a $2.50 / $15 (2x el original)
- Abril 2026: GPT-5.5 sube a $5.00 / $30 (2x de 5.4, 4x del lanzamiento original)
Andrew Curran lo confirmó al minuto citando el anuncio oficial: “$5 per 1M input tokens and $30 per 1M output tokens, with a 1M context window”. 4x acumulado en 8 meses. La aritmética que no se ve nunca en software de consumo y que en software empresarial solo apareció cuando Oracle o Microsoft tenían lock-in absoluto sobre infraestructura crítica de los años noventa.
Del otro lado del espectro está Nvidia. Su anuncio reciente con SemiAnalysis puso el costo de inferencia de Blackwell Ultra contra Hopper en números concretos: 35x menos costo por millón de tokens, de $4.20 a $0.12. La curva es real, está documentada en los benchmarks, y se está reflejando en los precios al por mayor que pagan los hyperscalers a Nvidia.
¿Cómo cierra la matemática? Dos formas. Una, OpenAI vio caer su costo unitario y eligió no transferirlo al cliente final: tomó la diferencia como margen. Dos, OpenAI necesita el margen porque está comprometido con un capex de infraestructura que ningún cash flow de API puede sostener (Microsoft Azure le facturó más de $13B en compute solo en 2025) y eligió monetizar al developer cautivo que ya está construyendo encima.
Las dos lecturas dan el mismo resultado para tu empresa. El precio que pagas hoy ya no es función del costo del proveedor. Es función del valor que el proveedor cree que puede extraerte. Eso cambia cómo se construye el caso de negocio y, sobre todo, cómo se construye la arquitectura.
OpenAI defiende el alza con un argumento de eficiencia: “GPT-5.5 usa significativamente menos tokens para completar la misma tarea de Codex”. The Decoder lo recogió en su cobertura: el ahorro en tokens amortigua una parte del alza si tu workflow es agentic-coding intensivo. “Amortigua” no es “compensa”, y el amortiguador depende de qué tarea exacta corras. Si tu carga es generación de texto largo, el alza te llega entera al doble.
No es codicia, es el playbook de Microsoft
Yo este patrón lo vengo viendo desde 1990. Empecé en computación a los 15 años, cuando Microsoft acababa de empaquetar Word, Excel y PowerPoint en Office y vender el bundle como upgrade casi regalado. Diez años después había triplicado el precio. Vi a Oracle hacer lo mismo con bases de datos en los 2000. Vi a SAP hacerlo con ERP. Vi a Adobe hacerlo cuando movió Creative Suite a Cloud y mató la licencia perpetua. Treinta y seis años después, el patrón es idéntico. Lo único que cambió es que el ciclo se acortó de cinco años a siete semanas, y la base de captura pasó de mainframes a tokens de inferencia.
Quien lleve más de cinco años en software empresarial reconoce el patrón. Microsoft lo perfeccionó entre 1995 y 2010: vendes la plataforma barata, capturas la base de developers, después subes el precio cada vez que la posición competitiva lo permite. Office 365 pasó de $69.99 a $99.99 al año en 2024. SQL Server casi triplicó licencias por core entre 2012 y 2022. Azure repricing recurrente cada doce meses sin excepción. La curva sube, los clientes ya están adentro, no se mueven.
OpenAI está haciendo lo mismo, pero más rápido y a escala más grande. Los números públicos cuentan por qué la posición permite la subida:
- 900 millones de usuarios activos semanales en ChatGPT
- 50 millones de suscriptores pagando $20/mes (cerca de $12B ARR solo del consumer)
- 9 millones de clientes business
- Microsoft, su distribuidor mayoritario, generó más de $10B vendiendo OpenAI envuelto en Copilot
Esos números le dan a OpenAI lo que ningún competidor de IA tiene: un piso de ingresos consumer-driven que no depende de la API. La API es ahora un canal secundario que monetiza developers y empresas que decidieron construir sobre la base. Como segundo canal, puede subir de precio sin riesgo de erosionar el flujo principal de ChatGPT, que es lo que cualquier modelo de negocio sano busca.
La pieza que termina la analogía con Microsoft es la “superapp”. CNBC confirmó el 19 de marzo el plan oficial: ChatGPT, Codex y el browser Atlas fusionados en una sola aplicación de escritorio bajo Fidji Simo (CEO de Applications) y Greg Brockman. La motivación interna, según el memo filtrado: OpenAI vio a Anthropic ganar uno de cada cuatro deals enterprise que antes ganaba solo y reaccionó consolidando su superficie. TechCrunch resumió el lanzamiento de hoy con un titular que no requiere interpretación: “OpenAI releases GPT-5.5, bringing company one step closer to an AI ‘super app’”.
Lo que la superapp eventual va a reemplazar es la mayoría de las aplicaciones que hoy se describen como “construido sobre OpenAI”. Cursor, Lovable, Glean, Notion AI, las herramientas de scraping con LLM, los Codex de terceros, las extensiones de browser con IA. Todas construidas sobre la API de OpenAI, todas en la lista de cosas que la superapp eventual va a absorber de forma directa.
El developer que paga $5 por millón de tokens hoy está, en términos puros, financiando a OpenAI a construir el producto que lo va a reemplazar. Esa frase suena dramática hasta que uno hace la cuenta: cada query que tu agente le manda a GPT-5.5 paga la mejora del próximo modelo, que se va a empaquetar en el próximo producto consumer, que va a competir con tu agente.
Por qué este precio no se queda en tu factura de API
Lo que el CTO de una empresa no técnica de LatAm puede pensar es “no me afecta, yo no compro tokens directo de OpenAI”. Esa es la lectura ingenua y la que más sale cara en el próximo trimestre. El precio de GPT-5.5 va a aparecer en tu factura mensual por cuatro caminos diferentes en los próximos 90 días, y solo el primero es obvio:
-
Agentes ya construidos sobre GPT-5 que necesitan upgrade. Si tu integrador o tu equipo interno construyó automatizaciones sobre GPT-5 hace seis meses a $1.25/M tokens, esos agentes están corriendo con el modelo viejo. OpenAI da soporte por unos meses más y después corta. La migración a GPT-5.5 implica reescribir prompts (cada versión cambia tokens y patrones) y pagar hasta 4x. Si tu integrador no tiene plan de migración escrito antes de mayo, tu costo operativo del próximo trimestre subió silenciosamente.
-
OpenAI embebido en tus vendors SaaS. Tu CRM, tu helpdesk, tu plataforma de marketing automation y tu herramienta de RR.HH. probablemente compraron seats de OpenAI a través de Azure OpenAI Service. El upgrade a GPT-5.5 va a llegar como “mejora de capacidad” en el próximo update y el vendor va a repricear su plan. La conversación de mayo es “el precio del módulo IA pasó de $X a $Y porque cambiamos al modelo más capaz”. El motivo real está en la tabla de OpenAI; la nota del vendor solo lo retransmite.
-
Suscripciones de herramientas de developer. Cursor, GitHub Copilot, Codex, ChatGPT Enterprise, Codeium. Todas las que tu equipo de ingeniería usa hoy. ChatGPT Enterprise ya cuesta $60 por seat al mes; el siguiente ciclo de pricing lo va a llevar arriba. Cursor pasó de $20 a $25 entre abril y agosto del año pasado. Esa cadena no termina en mayo.
-
Cláusulas de “pricing at vendor’s discretion” que ya firmaste. Relee los TOS de cualquier herramienta de IA contratada en 2025. La mayoría incluye una sección que se reserva el derecho de ajustar precios con notificación de 30 días. Esa cláusula la firmaste cuando GPT-5 costaba $1.25 por millón de tokens. Hoy te aplica para $5.00. Si tu pago anual está atado a uso, el ajuste viene en el próximo billing cycle. Si está atado a seats, viene en la renovación.
Ninguno de estos cuatro caminos requiere que tu empresa sepa siquiera que existe la diferencia entre GPT-5 y GPT-5.5. El costo va a llegar igual. La diferencia entre las empresas que lo absorben sin discusión y las que lo discuten antes es haber leído los contratos antes de la subida.
Lo que dicen los que ya lo vieron pasar
La reacción más honesta de las primeras horas vino de Theo Browne (T3.gg), un developer con audiencia grande y con agentes corriendo sobre GPT-5 en producción. Su primera publicación después del anuncio: “$5 per mil in, $30 per mil out. GPT-5.5 is smart. I’ve been using it for a bit. It’s also weird, hard to wrangle, and too expensive IMO. Double the price of GPT-5.4. 20% más caro que Opus 4.7.” Esa es la lectura desde adentro de alguien que no vende consultoría ni prende velas por ningún lab: el modelo es mejor, pero el precio no se justifica contra lo que ya existe.
La línea operacional más útil la dejó Chen Avnery, que lleva años trabajando en gobernanza de agentes, en respuesta al thread de Aakash Gupta: “Construimos toda nuestra capa de gobernanza como texto plano agnóstico al modelo. Doce agentes corriendo, cambiamos de proveedor de inferencia dos veces este trimestre. Cero archivos de constraints tocados. Si tu stack de agentes está acoplado a un solo modelo, no tienes stack. Tienes una dependencia.”
Esa frase es el contraargumento que la mayoría de empresas no se hizo todavía. La diferencia entre “uso GPT-5.5” y “uso un agente que puede correr sobre GPT-5.5, Claude Opus 4.7 o Kimi K2.6” es la única que sobrevive a un alza de precio del doble.
El comentario que más se acerca a lo que la mayoría de CTOs deberían estar diciéndose esta semana lo dejó Atif Manzoor en el post de Ben Valentin sobre Kimi K2.6: “El cambio de superioridad de modelo a efectividad de agente es la historia real. Cuando la inteligencia se vuelve commodity, la ejecución pasa a ser el único moat que importa.” Que ese comentario haya aparecido en un post sobre un modelo open-source y aplique perfectamente a la noticia de OpenAI dice más que cualquier columna de opinión.
Lo que te toca hacer esta semana
Hay tres conversaciones que vale la pena tener antes de que termine abril.
La primera es interna. Hacer un mapa de dependencia: ¿qué porcentaje de tus workflows de IA corre exclusivamente sobre OpenAI? La pregunta exacta no es “qué modelo usamos”, es “si OpenAI vuelve a doblar el precio en julio (otra vez), ¿cuántos workflows tenemos que reescribir desde cero?”. Si la respuesta supera el 30%, tienes un riesgo de concentración que tu CFO probablemente no sabe que existe. Esa es información para el comité de auditoría, no solo para el equipo técnico.
La segunda es con tus vendors SaaS. La carta que vale escribir antes de fin de mes es la pregunta directa al account manager: “¿qué modelo subyace al módulo de IA que estamos pagando? ¿Cuál es su política de pass-through cuando el proveedor del modelo sube precio?”. El vendor que no responde en concreto es vendor que no tiene gobernanza sobre eso. Tu costo va a subir cuando el de él suba, sin notificación útil. La respuesta también te dice qué tan honesto es el roadmap.
La tercera es con quien sea dueño del diseño de los agentes en tu empresa. Si construiste con prompt directo a OpenAI sin capa de abstracción, hoy es el momento de meter una. No por moda, por matemática. La única forma de que la duplicación de hoy y la próxima de mañana no te lleguen entera es que tus agentes corran sobre una interfaz que pueda intercambiar el modelo de fondo sin reescribir el workflow. Eso no es over-engineering: es la diferencia entre absorber la subida sin discusión y discutirla con palanca real.
Qué hacemos en IQ Source sobre la concentración de vendor
Esta mañana publicamos “El runtime ya es commodity, el moat es el workflow” sobre el lanzamiento de Anthropic Managed Agents a $0.08 por hora. Las dos noticias del día se leen una sobre otra. Anthropic vendiendo runtime barato y OpenAI doblando el precio del modelo son dos formas opuestas de cobrar la misma inteligencia. La elección de cuál usar deja de ser técnica.
En AI Agent Maestro, la línea de descubrimiento, la primera pregunta del workshop ya cambió. Antes era “qué workflow vas a automatizar”. Ahora es “qué workflows vas a automatizar y qué nivel de exposición a un solo proveedor estás dispuesto a aceptar”. La respuesta cambia la arquitectura. Si la empresa puede tolerar acoplamiento a OpenAI, el diseño es uno. Si no, el diseño tiene que incluir capa de abstracción de proveedor desde el día uno.
En Socio Tecnológico, la línea de implementación, la diferencia es más visible. Construimos agentes sobre harness intercambiable: el workflow vive arriba, el modelo se inyecta abajo. Cambiar de Claude Opus a GPT-5.5 a Kimi K2.6 es modificar una variable de entorno, no reescribir prompts. Esa propiedad cuesta entre 15 y 20% más de trabajo inicial. Esta semana paga el doble del modelo de fondo.
Lo que no hacemos: recomendar movimiento reactivo entre proveedores. La respuesta correcta al alza de OpenAI no es “pásate a Anthropic”. Es “diseña para que la pregunta de qué proveedor usas sea trivial”. Quien llegue al alza de Claude 4.8 con la misma exposición que tenía a GPT-5.5 va a estar en la misma conversación incómoda dentro de seis meses, solo con otro nombre encima.
No es sobre OpenAI
El frame fácil de esta semana va a ser “OpenAI es un proveedor codicioso”. Es un frame que se siente bien y que no cambia tu factura el mes entrante. El frame correcto es otro: la concentración de vendor en IA acaba de pasar de riesgo técnico a riesgo de P&L.
Hace doce meses la pregunta era “¿qué modelo da mejores resultados?”. Esa pregunta tenía respuesta técnica y se actualizaba cada release. Hoy la pregunta es “¿qué exposición tengo a una decisión de pricing de un proveedor sobre el cual no tengo influencia?”. Esa pregunta tiene respuesta financiera y se actualiza cada vez que el proveedor sube el precio.
La duplicación de hoy no es la última. El playbook de Microsoft tiene treinta años de historia de subir precios cada vez que la posición lo permite. OpenAI tiene 900 millones de usuarios y un superapp en construcción. La posición permite muchas subidas más, y el ciclo de release de siete semanas significa que la siguiente puede llegar a mediados de junio.
La empresa que entra a 2027 con concentración alta sobre un solo proveedor de IA va a tener una conversación difícil con su CFO. La que entra con arquitectura model-agnostic va a tener menos drama. La diferencia entre las dos no es presupuesto. Es haber leído los contratos esta semana y haber metido una capa de abstracción que cuesta poco antes de que pese mucho.
Preguntas Frecuentes
GPT-5.5 cuesta $5.00 por millón de tokens de entrada y $30 de salida, según el lanzamiento de OpenAI del 23 de abril de 2026. Es exactamente el doble de GPT-5.4 ($2.50/$15 en marzo) y 4x el precio de lanzamiento de GPT-5 ($1.25/$10 en agosto de 2025). El alza ocurre mientras Nvidia confirmó que Blackwell Ultra reduce el costo de inferencia hasta 35x frente a Hopper.
OpenAI dobló el precio de GPT-5.5 a $5 por millón de tokens de entrada mientras el costo de inferencia cae hasta 35x según Nvidia Blackwell Ultra. El alza no responde a costo sino a estrategia de plataforma: 900 millones de usuarios semanales, 50 millones de suscriptores y 9 millones de clientes business le dan margen para subir precios al developer cautivo sin erosionar su base consumer.
OpenAI está combinando ChatGPT, Codex y el browser en una sola superapp, según declaraciones públicas de Greg Brockman en 2026. La estrategia repite el modelo Microsoft: usar la API como plataforma sobre la que la propia empresa construye los productos finales que terminan compitiendo con los de sus clientes API. El alza de precio de GPT-5.5 financia esa construcción.
Una empresa con agentes en producción sobre GPT-5 enfrenta tres opciones cuando OpenAI deprecate el modelo viejo: pagar hasta 4x más al migrar a GPT-5.5 al precio actual, reescribir prompts para usar menos tokens (lo que OpenAI argumenta como justificación), o intercambiar el proveedor. La tercera requiere arquitectura model-agnostic desde el principio. Si el agente está acoplado a OpenAI, la migración es proyecto de meses.
Artículos Relacionados
El runtime ya es commodity. El moat es el workflow.
Anthropic cobra $0.08 la hora por runtime de agente y borra 30 startups de infra. McKinsey: 80% no captura valor porque no rediseña el flujo.
Meta graba a sus empleados para entrenar su reemplazo
El 21 de abril Meta instaló MCI para grabar mouse y teclado de empleados US. El 20 de mayo despide a 8,000. La cláusula llega a tu contrato SaaS.