El cuello de botella de tu IA es el contexto, no el modelo.
Ricardo Argüello — 11 de abril de 2026
CEO & Fundador
Resumen general
El problema con tu piloto de IA probablemente no es el modelo ni el prompt engineer. Es la arquitectura de contexto. Aakash Gupta lo descubrió tras 1,500 horas en Claude Code: los equipos que obtienen malos resultados son los que le dejaron al modelo cero espacio para pensar. La solución es vieja y prestada de los sistemas distribuidos.
- Una ventana de contexto de 1 millón de tokens suena infinita, pero los PRDs, runbooks y políticas de una empresa real la llenan rápido, y cuando se llena la fidelidad cae
- El paper Lost in the Middle de Liu et al. (Stanford/UC Berkeley, 2023) mostró que los LLMs pierden capacidad de razonamiento cuando la información relevante está enterrada en el medio de contextos largos
- Progressive disclosure es el patrón que las bases de datos, los filesystems y la web resolvieron hace décadas: un índice raíz magro más archivos anidados cargados bajo demanda
- Aakash lo llama Team OS: no es un truco de prompts, es una capa de retrieval gobernada al nivel organizacional
- Gartner predice 40% de proyectos agénticos cancelados antes de 2027 por controles de riesgo insuficientes, y la disciplina de contexto es parte de esos controles
Imagina que contratas a un auditor experto y le entregas 40 archivadores sin orden para que encuentre un recibo específico. No importa cuántos años tenga de experiencia: si no le das ni un índice ni una estructura, va a adivinar o a rendirse. Así tratan la mayoría de las empresas a sus modelos de IA. Les pasan repositorios enteros y esperan razonamiento perfecto. La solución no es un auditor más inteligente. Es entregar los archivadores organizados.
Resumen generado con IA
Aakash Gupta llevaba 1,500 horas construyendo dentro de Claude Code cuando publicó algo que va en contra de la intuición de casi todos los equipos que hoy experimentan con IA empresarial:
“La razón por la que la mayoría de los equipos obtiene resultados mediocres de Claude Code no tiene nada que ver con el modelo. Tiene todo que ver con cuánto espacio le dejaron para pensar. Los archivos CLAUDE.md deben estar casi vacíos.”
La intuición dice lo contrario. Si al modelo le doy más información, responde mejor. Si le doy la documentación completa, los manuales, los runbooks y las políticas, entonces tiene todo lo que necesita. Si la ventana de contexto es más grande, el modelo es más capaz.
Nada de eso es cierto. Y la mayoría de los pilotos de IA empresariales que se están estancando hoy están estancados por esta razón, no por el modelo.
La matemática de la compresión con pérdidas
Una ventana de contexto de 1 millón de tokens suena infinita. Anthropic lanzó Claude Sonnet con soporte para 1 millón de tokens, y Opus 4.6 también opera en esa ventana extendida. Eso son aproximadamente siete novelas de texto, uno al lado del otro, disponibles en una sola consulta.
Suena como resolver el problema de golpe. Y no lo es.
Los documentos reales de una empresa llenan esa ventana rápido. Haz el ejercicio con tu propio stack: los PRDs del trimestre, los manuales de onboarding, los runbooks de operaciones, las políticas de compliance, las notas de ventas de los últimos seis meses, los tickets abiertos, la arquitectura técnica documentada en Confluence, los contratos activos con proveedores. Siete novelas se consumen sin esfuerzo.
Y aquí está el problema que casi nadie audita: cuando la ventana de contexto se llena hasta cierto punto, el modelo empieza a funcionar peor. No porque “no le quepa”. Porque la atención dentro de la ventana no se distribuye uniformemente.
El paper que la mayoría de CTOs no ha leído
En 2023, Liu et al. publicaron “Lost in the Middle: How Language Models Use Long Contexts” (Stanford, UC Berkeley, Samaya AI, Percy Liang entre los autores). El paper midió algo concreto: ¿cómo cambia la capacidad de un LLM para responder preguntas según dónde esté enterrada la información relevante dentro del contexto?
El hallazgo es incómodo: los modelos son mucho mejores usando información que está al inicio o al final del contexto que información que está en el medio. La curva de precisión tiene forma de U. Mete 500 páginas de documentación y la información crítica del centro se pierde funcionalmente, aunque técnicamente esté dentro de la ventana.
Desde entonces la literatura solo ha crecido. El fenómeno tiene varios nombres — “lost in the middle”, “context rot”, “degradación de atención en contextos largos” — pero todos describen lo mismo: caber no es razonar.
Y este es el error de diseño que explica por qué tu piloto de IA se estancó. Tu equipo le metió todo el repositorio al modelo, toda la wiki, toda la documentación, y asumió que con suficiente contexto el modelo encontraría la respuesta. Pero el contexto que le metieron fue exactamente lo que lo degradó.
Ventanas más grandes no te están salvando
La industria lleva dos años resolviendo el problema equivocado. Cada release de modelo presume la ventana de contexto como métrica principal: 128K, 200K, 1M. Y cada equipo de producto interno lee esos anuncios como si fueran la solución a sus pilotos estancados. “Ah, ahora sí va a funcionar, ahora le cabe todo.”
No. “Fit” no es “razonamiento”. Son dos cosas distintas que la industria sigue confundiendo.
Este es el mismo patrón de error que expliqué cuando hablé de la brecha de activación en IA empresarial: el 60% de las organizaciones tiene acceso a herramientas de IA, pero solo el 34% logra transformar algo con ellas. La diferencia no la hizo el modelo. La hizo lo que había alrededor del modelo.
Aquí aplica la misma lectura. Tu problema probablemente no es Claude, GPT o Gemini. Tu problema es qué le estás pasando y en qué orden.
Divulgación progresiva: el patrón que ya estaba inventado
La solución no es nueva. Los ingenieros que han construido sistemas durante treinta años ya la resolvieron varias veces, en distintos dominios.
- Las bases de datos no cargan tablas enteras en memoria cada vez que ejecutas una consulta. Usan índices, resuelven rutas, y cargan solo las filas que necesitas. Si cada SELECT leyera todo el disco, Oracle habría muerto en los noventa.
- Los filesystems no exponen el contenido de todo el disco cuando abres una carpeta. Usan jerarquías. Entras al directorio que te importa y cargas solo ese listado.
- Las aplicaciones web modernas no descargan todo el HTML, JavaScript y CSS del sitio cuando abres la portada. Hacen lazy loading. Las rutas se cargan cuando las visitas.
El patrón tiene nombre desde los años ochenta en la literatura de diseño de interfaces: progressive disclosure, divulgación progresiva. Muestras lo mínimo que necesita quien está decidiendo, y permites profundizar bajo demanda.
Aplicado a IA es directo: un archivo raíz corto que siempre se carga, con punteros a dónde vive cada cosa. Archivos anidados por carpeta que funcionan como índices temáticos. El modelo lee el índice, va directo al archivo exacto que necesita para la consulta, carga solo eso. No hay tokens gastados en documentación irrelevante. No hay agentes de exploración escaneando todo el repositorio a ciegas. El espacio de razonamiento del modelo queda preservado.
Aakash lo probó de forma literal con archivos CLAUDE.md magros y archivos índice anidados por carpeta. Yo lo he visto funcionar en clientes donde el dolor era “el modelo alucina datos del trimestre anterior” y la causa real era que el equipo le estaba pegando seis meses de reportes al contexto con la esperanza de que el modelo supiera cuál era el último.
De truco de PM a Team OS empresarial
Y aquí es donde el tema deja de ser un ajuste de prompt y se convierte en arquitectura organizacional.
Al nivel de un PM individual trabajando con Claude Code, “progressive disclosure” se ve como un archivo CLAUDE.md de diez líneas y cinco archivos índice. Es personal. Cabe en la cabeza de una sola persona.
Al nivel de una empresa con cincuenta personas tocando la IA, el mismo principio se ve completamente distinto. Se parece a una capa de retrieval gobernada: quién es el dueño de cada índice, qué documentos son autoritarios versus archivo, quién aprueba cambios al índice raíz, cómo se versiona, qué nivel de confianza tiene cada fuente. Es infraestructura de información. No es una configuración de prompt engineering.
Aakash lo llama Team OS. Me parece un buen nombre. Captura que esto no es una herramienta ni un workflow: es un sistema operativo para cómo la organización le entrega contexto a sus modelos de IA.
Y sin ese Team OS, cada equipo improvisa. Un analista copia y pega reportes completos al chat porque no existe un índice. Un ingeniero le pasa el repo entero al agente porque no hay una convención. Un director de operaciones mantiene su propio folder personal de docs porque el wiki está desactualizado. Todo eso degrada al modelo en el momento exacto en el que lo estás usando para decisiones importantes.
La disciplina conecta con todo lo demás
Este es el mismo argumento que he venido haciendo desde hace meses, en distintos ángulos.
Cuando escribí sobre gobernanza de agentes de IA usando primitivas de Kubernetes, el punto era que los agentes necesitan RBAC, admission controllers y audit logs antes de tocar nómina o finanzas. Ese es el ángulo de control de acceso.
Cuando escribí sobre alucinaciones en IA financiera y la arquitectura tipo LLM Sandwich, el punto era que los modelos necesitan estar rodeados por capas de verificación antes y después. Ese es el ángulo de validación de salida.
Este post es el tercer ángulo del mismo argumento: la disciplina de entrada. Los agentes necesitan contexto estructurado antes de procesar nada. Y el contexto se diseña con los mismos principios que llevamos décadas aplicando a bases de datos, filesystems y aplicaciones web.
Los tres son la misma tesis escrita tres veces. La diferencia entre empresas que obtienen valor real de IA y empresas atrapadas en pilotos perpetuos no es el modelo que eligen. Es la disciplina de infraestructura que le ponen alrededor, antes, durante y después de cada inferencia.
Gartner ya puso número al costo
Gartner proyecta que más del 40% de los proyectos de IA agéntica serán cancelados antes de que termine 2027. La razón oficial: “controles de riesgo insuficientes, costos fuera de control, valor de negocio difuso”. Anushree Verma, la analista principal, fue directa al llamar a la mayoría “experimentos movidos por el hype, mal aplicados”.
Traduzco lo que significa eso en la práctica: estos proyectos se construyeron sin arquitectura de contexto, sin gobernanza, sin retrieval estructurado, sin Team OS. Alguien copió la documentación al prompt, le puso un modelo caro, y esperó resultados enterprise-grade. Por supuesto se cancelaron.
La parte incómoda es que la diferencia entre estar en el 40% cancelado y estar en el 60% que sobrevive rara vez es una decisión sobre modelos. Es una decisión sobre disciplina de infraestructura, tomada seis meses antes del punto donde el piloto se estanca.
Qué hacemos en IQ Source
La ingeniería de contexto no es una optimización de prompts. No la resuelve un prompt engineer iterando más versiones del mismo prompt. Es una disciplina de arquitectura que se audita, se diseña y se gobierna.
En IQ Source hacemos ese audit al nivel que importa: los prompts reales que tu equipo está enviando hoy (no los que deberían enviar según el playbook que nadie lee), las llamadas reales a retrieval, los dumps reales de documentación que alguien copió y pegó al chat porque no sabía otra forma. Partimos del estado actual, no de un diagrama ideal.
Después rediseñamos la capa de contexto alrededor de divulgación progresiva: índice raíz gobernado, archivos anidados por dominio, convenciones claras sobre qué se carga cuando, cuáles fuentes son autoritarias, cómo se actualizan. No es magia. Es el mismo tipo de disciplina que ya aplicamos para construir bases de datos y filesystems. Solo que ahora la estamos aplicando a los sistemas que toman decisiones de negocio dentro de tu empresa.
Si tienes un piloto de IA que se ha estancado a pesar de que el modelo ya es bueno y tu prompt engineer ya iteró diez veces, el problema probablemente no es ninguno de los dos. Tráeme ese piloto. En una sesión de trabajo mapeamos la arquitectura de contexto que realmente está llegando al modelo, identificamos dónde se está perdiendo fidelidad, y te entrego un plan de rediseño antes de que quemes otro trimestre en prompt tuning. Conversemos.
Preguntas Frecuentes
La ingeniería de contexto es la disciplina de diseñar qué información se le entrega a un modelo de IA, en qué orden y bajo qué estructura. Es el cuello de botella porque la mayoría de los pilotos empresariales cargan repositorios completos y documentos sin jerarquía, saturando la ventana de contexto y degradando la capacidad de razonamiento del modelo aunque técnicamente el texto quepa.
La ventana de 1 millón de tokens de Claude Sonnet y Opus permite que más texto quepa, pero no garantiza que el modelo razone bien sobre todo ese texto. El paper Lost in the Middle demostró que los LLMs degradan su precisión cuando la información relevante está enterrada en el medio del contexto. Caber no es lo mismo que razonar.
Progressive disclosure es un patrón donde el modelo de IA carga un archivo raíz magro con índices a dónde vive cada documento, y luego va a cargar solo el contenido específico que necesita para una consulta. Es el mismo principio que las bases de datos resolvieron con índices y los filesystems con jerarquías: no cargas todo, cargas lo que resuelve la pregunta.
Un CTO debe revisar los prompts reales que sus equipos envían, las llamadas de retrieval ejecutadas, y los documentos que se están copiando al contexto. El audit identifica dónde se saturan las ventanas, qué información es redundante, y dónde falta estructura. Luego rediseña la capa alrededor de un índice raíz gobernado y carga bajo demanda.
Artículos Relacionados
Tu IA es rápida. Está acumulando deuda de criterio.
Peter Steinberger lo nombró: cada entrega agéntica sin criterio humano acumula intereses. Se pagan en marca, decisiones y confianza a largo plazo.
Google No Habla de IA. Invierte $180 Mil Millones.
Google pasó de $30B a $180B en CapEx de IA. Sin keynote, sin narrativa de AGI. Para quien evalúa vendors, esa cifra dice más que cualquier demo de producto.