Uber agotó su presupuesto anual de IA en cuatro meses
Ricardo Argüello — 15 de abril de 2026
CEO & Fundador
Resumen general
Praveen Neppalli Naga, CTO de Uber, le dijo al equipo esta semana que el uso de Claude Code y otras herramientas de IA agotó el presupuesto anual de IA de 2026 en los primeros meses del año. Textual: 'Volví al pizarrón, porque el presupuesto que pensé que iba a necesitar ya se voló'. Esto no es un problema de adopción. Es un problema estructural de gobernanza de consumo.
- La adopción de Claude Code en Uber pasó de 32% de ingenieros en diciembre de 2024 a 63% en febrero de 2026 — eso no es un rollout, es arrastre de abajo hacia arriba
- 11% de los pull requests en Uber los abren agentes; uReview analiza el 90% de los 65.000 diffs semanales; 75% de los comentarios se marcan como útiles
- El costo real no es el asiento. Son los tokens: Gartner reporta que flujos agénticos consumen entre 5x y 30x más tokens por tarea que un chatbot estándar
- Anthropic llegó a $2.500 millones de ingresos anualizados en Claude Code en febrero — subió desde $1.000 millones en noviembre de 2025, el rampup empresarial más rápido de la historia del software
- 91% de los directivos C-level planea aumentar su presupuesto de IA agéntica en 2026 y 54% lo tiene como prioridad, mientras los CFOs ven estimaciones desviadas entre 500% y 1.000%
Imagina que contratas cinco mil ingenieros nuevos y les das tarjeta de crédito corporativa sin límite. Cada uno gasta poco por día. Individualmente parece razonable. A los cuatro meses el CFO abre el estado de cuenta y se da cuenta de que el consumo no es lineal: crece de forma compuesta. Esa es la situación en Uber hoy. La IA funcionó demasiado bien. El presupuesto no fue diseñado para medir arrastre.
Resumen generado con IA
Anissa Gardizy, reportera de The Information, publicó el lunes una cita de Praveen Neppalli Naga, CTO de Uber, que vale como aviso para cualquier director de tecnología que esté planeando presupuesto de IA para 2026:
Volví al pizarrón, porque el presupuesto que pensé que iba a necesitar ya se voló.
Si tienes que leerla dos veces es porque la estás leyendo bien. Uber le dio acceso a Claude Code a sus ingenieros en diciembre de 2024. En ese momento un 32% lo estaba usando. Para febrero de este año ya eran el 63%. Y para abril, Praveen le confirmó a Laura Bratton de The Information que el presupuesto anual de IA ya estaba quemado.
Esto no es una historia de adopción. Es una historia de arrastre.
La curva no es un rollout
Cuando una empresa pasa de 32% a 63% de adopción interna en catorce meses, no es el equipo de plataforma empujando. Es el equipo de ingeniería jalando. Aakash Gupta desglosó los números: 92% de los desarrolladores de Uber usan agentes de IA al menos una vez al mes. Entre 65% y 72% del código que escriben dentro del IDE ya lo está generando la IA. 11% de los pull requests los abren agentes, no humanos. El sistema interno de revisión, uReview, analiza más del 90% de los 65.000 diffs que Uber despliega cada semana, y el 75% de los comentarios que devuelve se marcan como útiles.
Esos son números de producción, no de piloto.
Y la consecuencia es obvia: Uber ya no puede dar marcha atrás. El flujo de ingeniería absorbió la herramienta. Si mañana alguien cortara Claude Code, cae la productividad de forma visible. Si nadie la corta, cae el margen. Así se ve un cuello de botella estructural.
El costo no se mide por asiento
El modelo mental con el que la mayoría de empresas presupuesta software es el del SaaS: pagas por asiento, multiplicas por empleado, proyectas anual. Con IA coding ese modelo se rompe en la primera semana.
Claude Code para equipos empresariales corre entre $100 y $200 por desarrollador al mes en plan Premium, con consumo medido a tarifas de API por encima del asiento. El burn promedio diario que reporta la comunidad es cercano a $6 por desarrollador. Multiplica por cinco mil ingenieros y ya tienes treinta mil dólares al día en consumo base. Pero ese número asume uso lineal, y la IA no es lineal.
Los agentes desatan sub-agentes. Cada sub-agente carga su propia ventana de contexto. Un pull request puede arrancar una cadena que corre por treinta minutos consumiendo tokens sin que ningún humano esté mirando. Y si ese pull request está dentro de un loop de CI/CD, ese consumo se dispara en cada commit.
Gartner lo midió en marzo de 2026: un flujo agéntico consume entre 5x y 30x más tokens por tarea que un chatbot estándar. Y AnalyticsWeek lo nombró “Agentic Resource Exhaustion”: un solo agente en un loop semántico puede quemar miles de dólares en una tarde. La estimación agregada para las Fortune 500: unos $400 millones de gasto no presupuestado en lo que va del año.
Jason Calacanis lo dijo en público hace unas semanas: sus agentes estaban corriendo a $300 al día. Proyectado anual: más de $100.000 por agente, operando a una fracción de su capacidad. No son corporaciones las únicas que están viendo esto. Los que se dieron cuenta primero están escribiendo la alarma en tiempo real.
Uber no puede bajarse del tren
Hay una tentación obvia cuando ves una factura de este tamaño: pausar, renegociar, volver atrás. Uber ya no tiene esa opción.
Cuando 11% de tus PRs los abren agentes y 90% de tus diffs los revisa un sistema interno de IA, no puedes apagar la IA sin apagar la velocidad del ciclo de desarrollo. Y no puedes apagar la velocidad del ciclo de desarrollo cuando compites con Lyft, cuando tus equipos están entregando lógica de matching de conductores, cuando la operación corre en tiempo real en más de 70 países. Uber construyó su ventaja operativa sobre software. La IA ahora vive adentro de ese software.
Eso deja una sola palanca utilizable: gobernar el consumo, no cortarlo.
La colisión CFO y CTO es estructural
El presupuesto anual se diseñó para SaaS predecible y headcount. Dos cosas que tienen costos lineales y explicables. La IA agéntica no es ninguna de las dos.
CIO.com reportó que el VP de finanzas de Gartner admitió que los CFOs no saben realmente cuánto cuesta la IA: las estimaciones se están desviando entre 500% y 1.000%. Y Glean, después de auditar presupuestos de IA en empresas grandes, concluyó que la mayoría subestima el costo total de propiedad entre 40% y 60%. McKinsey ya había cuantificado el otro lado: por cada dólar que una empresa gasta en desarrollo del modelo, terminan gastando tres en gestión del cambio, entrenamiento y rediseño de flujos de trabajo.
Junta los tres números y obtienes la foto: las empresas no están presupuestando mal por descuido. Están presupuestando mal porque el modelo financiero que heredaron no fue diseñado para medir consumo exponencial.
Lo interesante es lo que sigue. Según CFO Dive y el reporte 2026 State of FinOps, 98% de las organizaciones ya gestiona activamente el gasto en IA (hace dos años ese número era 31%). Y al mismo tiempo, 91% de los directivos C-level planea aumentar su presupuesto de IA agéntica este año. O sea: nadie quiere bajar la inversión, pero todo mundo se está dando cuenta de que la gobernanza del gasto era el trabajo que nadie hizo cuando se firmó el contrato.
Ese es el espacio donde Praveen vive hoy.
Gemela financiera de taste debt
Ayer escribí sobre deuda de criterio: la factura de calidad que se acumula cuando sacas al humano del loop demasiado pronto. Hoy la factura es distinta, pero la mecánica es idéntica.
Taste debt se paga en marca, decisiones y reclamos de clientes. El presupuesto torcido de Uber se paga en P&L, board decks y conversaciones con el CFO. Dos caras del mismo pasivo: deuda silenciosa, que se acumula mientras nadie mira, y que solo se ve cuando alguien la va a cobrar de golpe.
Y la solución es la misma mecánica: amortización. No dejas de usar agentes. Instalas una capa de gobernanza adentro del flujo que mide, limita, pausa y exige criterio humano donde el costo del error (de calidad o de billetera) supera el costo de la revisión.
Eso es Team OS.
Tres movimientos que debe hacer cualquier CTO esta semana
Después de leer la noticia de Uber, cualquier director de tecnología que esté escalando agentes debería tener tres cosas en la agenda del siguiente comité. Las pongo en orden de esfuerzo.
Visibilidad por flujo de trabajo. No por asiento, no por equipo. Por agente y por ejecución. Si tu dashboard de IA solo te dice cuántas licencias activaste, no te dice nada. El primer paso es tokenización del gasto: cada agente, cada corrida, cada ventana de contexto, con etiqueta. Sin eso no puedes poner límites porque no sabes dónde sangra.
Presupuestos con cortacircuitos. Límite por agente, límite por equipo, límite por workflow. Y circuit breakers automáticos cuando una ejecución supera un umbral sin resultado. Un agente en loop semántico que quema $3.000 en una tarde no tendría que ser posible sin una alarma humana intermedia. Las plataformas de FinOps para IA ya existen. La adopción es lenta porque asumimos que el costo era predecible.
Gates de calidad que también son gates de costo. Donde el costo de un error es alto, el criterio humano tiene que firmar. Donde el costo es bajo, el agente corre libre. Esa frontera no se dibuja en un workshop trimestral. Se instrumenta. Si un workflow necesita gastar más de X dólares o modificar más de Y archivos, requiere aprobación humana antes de seguir. No es fricción. Es seguro.
Los tres movimientos no frenan la productividad. Hacen que la productividad sea medible, y por lo tanto presupuestable.
Lo que no funciona
Tres cosas que voy a ver en los próximos seis meses y que no van a funcionar:
Congelar el uso de IA. Esto es la reacción refleja de finanzas cuando ve la factura. Y es imposible cuando el flujo ya absorbió la herramienta. Congelar en Uber hoy es congelar un porcentaje significativo del ciclo de desarrollo. Ningún CTO firma eso.
Renegociar el contrato enterprise. Útil al margen. Pero el problema no es el pricing del vendedor. Es el modelo de consumo interno que no tiene gobernanza. Incluso a cero costo por token, un agente en loop sigue robando tiempo de máquina.
Confiar en que la próxima generación de modelos será más barata. Va a ser más barata por token. Y más cara por tarea. Porque cuando un modelo es más capaz, los equipos lo usan para tareas más largas, más complejas y con más pasos. El costo total por tarea útil sube, no baja. Es la paradoja de Jevons aplicada a tokens.
Qué hacemos en IQ Source
La historia de Uber es la versión más visible de un problema que cualquier empresa que escale agentes sin instrumentos de consumo va a encontrar. Fortune 500 o startup de cincuenta personas: la matemática de tokens no discrimina por tamaño.
Nuestro trabajo es instalar esos instrumentos. No es un framework abstracto. Es un método concreto para responder cuatro preguntas que el CTO debería poder contestar en la próxima junta con el CFO: cuánto se está gastando, en qué flujos, qué ROI está generando cada uno, y dónde están los cortacircuitos.
Lo implementamos con Team OS: la misma capa de gobernanza que usamos para resolver el problema de criterio, aplicada al problema de consumo. Porque las dos deudas viven en el mismo flujo. Separarlas es un error de diagnóstico.
La ventaja de instalar esto antes de que tu empresa esté en la portada de The Information es que la gobernanza temprana se convierte en moat (ventaja competitiva). Las empresas que descifren token cost optimization primero van a tener una ventaja estructural sobre cualquier competidor que siga corriendo ciclos de presupuesto anual contra curvas de adopción exponenciales.
Uber no va a ser la última empresa en tener esta conversación. La pregunta es si tú la vas a tener antes del board, o durante el board.
Antes de la próxima junta, ten el número. Ahí hablamos.
Preguntas Frecuentes
Praveen Neppalli Naga, CTO de Uber, confirmó a The Information que el uso de Claude Code y otras herramientas de IA agotó el presupuesto anual de IA de Uber en los primeros meses de 2026. La adopción interna pasó de 32% a 63% en 14 meses. Importa porque expone que el cuello de botella de la IA empresarial ya no es la tecnología, es la gobernanza del consumo.
Claude Code para equipos empresariales corre entre $100 y $200 por desarrollador al mes en plan Premium, con consumo adicional facturado a tarifas de API por encima del asiento. El burn promedio diario reportado por desarrollador es cercano a $6, pero escala no lineal cuando los agentes invocan sub-agentes y corren en bucles de CI/CD.
Los costos de agentes de IA crecen más rápido que SaaS porque el modelo es consumo por token, no por asiento. Gartner reporta que un flujo agéntico consume entre 5x y 30x más tokens por tarea que un chatbot estándar. Cuando un agente desata sub-agentes con sus propias ventanas de contexto, el gasto se capitaliza dentro de una misma ejecución.
Un CTO gobierna el consumo de IA sin frenar productividad con tres capas: visibilidad por flujo de trabajo, presupuestos por equipo o agente con cortacircuitos, y gates de calidad que también funcionen como gates de costo. Pulling back no es opción una vez que el flujo absorbió la herramienta. La gobernanza vive dentro del flujo, no encima.
Artículos Relacionados
Tu IA es rápida. Está acumulando deuda de criterio.
Peter Steinberger lo nombró: cada entrega agéntica sin criterio humano acumula intereses. Se pagan en marca, decisiones y confianza a largo plazo.
Google No Habla de IA. Invierte $180 Mil Millones.
Google pasó de $30B a $180B en CapEx de IA. Sin keynote, sin narrativa de AGI. Para quien evalúa vendors, esa cifra dice más que cualquier demo de producto.