Saltar al contenido principal

Tu IA llega al techo si no sueña entre sesiones

Anthropic lanzó dreaming en agentes el 6 de mayo. La diferencia entre una IA que crece y una que se aplana es arquitectónica, no de modelo.

Tu IA llega al techo si no sueña entre sesiones

Ricardo Argüello

Ricardo Argüello
Ricardo Argüello

CEO & Fundador

Estrategia Empresarial 9 min de lectura

Anoche, durante Code with Claude, Anthropic lanzó algo que la mayoría de despliegues empresariales de IA no tiene. Lo llamaron dreaming en Claude Managed Agents: una capa que revisa las sesiones pasadas del agente, extrae patrones y cura la memoria persistente entre conversaciones. El anuncio oficial de Claude superó los 2.8 millones de vistas en menos de 24 horas. Y un día después, Aakash Gupta presentó el argumento neurocientífico en un hilo que ya pasó las 220 mil vistas.

La frase que mueve la conversación de su hilo: “agents that dream between sessions will compound. The ones still running on raw context window will hit the same ceiling humans hit when they pull all-nighters” (los agentes que sueñan entre sesiones van a sumar capacidad mes a mes. Los que siguen corriendo con ventana de contexto cruda van a chocar con el mismo techo que choca un humano cuando se queda en vela).

Esa frase es la tesis ejecutiva que pongo encima de la mesa hoy. La diferencia entre una IA que es ventaja competitiva y una que es factura mensual no es el modelo. Es si tiene capa de sueño. Y la pregunta de junta directiva no es “¿estamos usando IA?” sino “¿está sumando capacidad mes a mes o llegó al techo?”. Si tu agente de hoy resuelve los mismos problemas que el de hace seis meses, con más contexto bruto encima, el techo ya llegó.

Lo que la mayoría llama memoria es solo búsqueda

RAG (retrieval-augmented generation) es búsqueda. Embebes las sesiones pasadas en vectores y las traes cuando son relevantes. Funciona para recuperar hechos. No funciona para tres cosas que necesita un agente que aprende.

Extracción de patrones. Qué importó en las últimas cien sesiones, qué se generaliza, qué secuencias predijeron buen resultado. RAG no hace eso. RAG encuentra. La extracción de patrones es lo que Aakash describió como replay del hipocampo a 20 veces la velocidad real: una secuencia de diez segundos comprimida a 500 milisegundos. Wilson y McNaughton lo demostraron en ratas en 1994. Si interrumpes los sharp-wave ripples ópticamente, la rata falla la tarea al día siguiente. El sueño es causal, no correlacional. La mayoría de los pipelines de IA empresarial corren sin esa pieza causal.

Reorganización de la traza. Mover el aprendizaje de memoria episódica (esta sesión) a memoria semántica (esquema reutilizable). En el cerebro, esto saca las memorias del hipocampo y las deja en el neocórtex; por eso las memorias viejas sobreviven al daño hipocampal y las recientes no. En tu agente, esto es la diferencia entre “cada lunes le repito al asistente cómo hacemos las cosas aquí” y “el asistente ya tiene un esquema interno y solo le ajusto los detalles del caso del lunes”.

Olvido selectivo. Podar lo que no importó. La hipótesis de homeostasis sináptica de Tononi y Cirelli dice que la vigilia es netamente potenciante: cada interacción del día sube los pesos de las sinapsis. Si nunca podas, el ratio señal-ruido colapsa. Tu agente sin paso de pruning acumula ruido en cada vector hasta que la calidad de respuesta cae.

Las dos arquitecturas agénticas que se viralizaron esta semana lo nombran en otro lenguaje. El stack de Palantir AIP que compartió Rahul Garg (433.6K vistas) separa la capa de ontology y la de memory & knowledge de la capa de agent lifecycle. El modelo de Neha Sharma (550.9K vistas, 1,200 guardados) lista cinco tipos distintos de memoria: short-term, long-term, knowledge base, episodic store y profile store. No uno. Cinco. La mayoría de despliegues empresariales en LatAm tiene un tipo: vector DB con RAG. Las otras cuatro capas, donde vive el moat (ventaja competitiva), todavía no se construyeron.

Cinco ciclos de la capa de consolidación desde 1990

Llevo 36 años haciendo esto, desde que tenía 15 años en el Commodore 64 y la Texas Instruments. Y este patrón lo he visto cinco veces. Cada ciclo, la capa de consolidación fue donde se separaron los ganadores de los que pagaron tres veces el rollout.

1990, data warehouses. Prometieron extracción de patrones por ETL batch. Las empresas que construyeron el data mart consolidado pagaron una vez. Las que dejaron los datos en silos transaccionales pagaron tres veces y siguen integrando hoy.

2000, BI y cubos OLAP. Extracción de patrones por agregaciones precalculadas. El que tenía un dueño nombrado del cubo pasó de “reporte mensual” a “decisión semanal”. El que no, generó PDFs que nadie abrió.

2010, MLOps y pipelines de retraining. Model staleness es el equivalente exacto del agente que no sueña. Equipos con MLOps maduro sumaban capacidad cada release. Equipos con un modelo entrenado una sola vez se aplanaron a los seis meses, exactamente como el agente sin dreaming hoy.

2020, RAG y vector DBs. La trampa actual. Acumulas embeddings, los traes a demanda, parece que aprende. No aprende. Solo encuentra. La conversación que cierra esta semana lo pone en negrita.

2026, dreaming y consolidación entre sesiones. Ciclo nuevo, mismo patrón. El que construye la capa de sueño suma capacidad. El que no, paga la suscripción al modelo y se queda en el techo.

Lo nuevo es la compresión. El ciclo anterior (RAG) tomó alrededor de cuatro años en revelar el techo. Este se está revelando en meses, porque Anthropic ya nombró el problema en una keynote y lanzó la solución la misma semana. La empresa que tarde dos trimestres en internalizar esto no va a perder uno; va a perder los dos.

El olvido es la otra mitad del sueño

Aakash dejó el segundo punto importante en su quote-tweet: dreaming también es olvidar. La hipótesis de homeostasis sináptica de Tononi y Cirelli dice que el sueño regraba lo que la vigilia sobrepotenció. Sin esa fase de bajada, las sinapsis se saturan y dejan de discriminar.

En tu empresa el patrón se traduce limpio. Si nunca matas un proyecto, acumulas deuda técnica. Si nunca matas una feature, acumulas deuda de producto. Ahora súmale: si tu agente nunca olvida, acumulas deuda de IA. La pregunta institucional dura es: ¿quién es el dueño de qué olvida tu agente? Si la respuesta es “nadie, todo se queda en logs”, tu agente acumula ruido hasta que la calidad de respuesta cae sin que nadie note el momento exacto.

Hay un dato más del paper de Tse et al. en el laboratorio de Morris en 2007 que vale aterrizar. Las ratas con un esquema previo integran información nueva en 48 horas, contra las tres a cuatro semanas que toma sin esquema. Traducción institucional: el agente que tiene un schema explícito (un design.md, una ontología, un voice.md) integra contexto nuevo unas diez veces más rápido. Eso conecta con el argumento de marca legible por agente que cubrimos ayer: el archivo que lee el agente al inicio de cada conversación es el equivalente del esquema previo en el experimento de Morris. El agente con schema acelera. El agente sin schema vuelve a aprender de cero cada lunes.

Ese mismo principio aparece en ciclos adyacentes. Boris Cherny matando el 80% de los prototipos antes del mediodía es la versión institucional del olvido selectivo: la decisión de qué se queda y qué se descarta calibra el ratio señal-ruido del trimestre. Sin esa decisión, el equipo de producto se llena de prototipos que nadie va a escalar y el comité de gasto pierde la lectura.

Cinco preguntas para tu próximo standup de IA

Tres son del CEO. Dos son del CTO. Si las cinco no se contestan en quince minutos, la IA está operando a ciegas.

Preguntas del CEO.

Uno, test de composición. ¿Puedes señalar una capacidad que tu agente tiene hoy que no tenía el mes pasado? Si la respuesta es “tiene más contexto”, no cuenta. Capacidad nueva quiere decir un patrón consolidado, no más logs apilados.

Dos, test de continuidad. Si apagaras el modelo durante una semana, ¿sobreviviría la memoria institucional? Si toda tu IA vive en el contexto del modelo y en los embeddings que hospeda el proveedor, no tienes IA: tienes una suscripción. Y la suscripción es del proveedor, no tuya.

Tres, test de dueño nombrado. ¿Hay un humano cuyo nombre puedes escribir, dueño de la capa de consolidación durante los próximos 90 días? Si no, la IA es huérfana de gobernanza y el primer modelo que cambie barre el aprendizaje.

Preguntas del CTO.

Cuatro, test de schema. ¿Existe un schema explícito (design.md, ontología, voice.md, un archivo que el agente lee al arranque) contra el cual integra el contexto nuevo? Sin schema la integración demora el equivalente a tres o cuatro semanas. Con schema, 48 horas. Esa diferencia es lo que separa un agente que escala con el negocio de uno que se queda corto en la próxima campaña.

Cinco, test de pruning. ¿Hay un paso explícito en el pipeline donde el agente olvida selectivamente? Si la respuesta es “todo se queda en el vector DB”, felicidades, tu IA tiene insomnio y la calidad de respuesta va a degradarse silenciosamente cada trimestre.

Dónde encaja IQ Source

AI Maestro es la versión institucional de “humans around the edge”. La auditoría que mapea qué consolida tu IA, qué olvida, quién es el dueño y dónde está la capa de sueño. La mayoría de empresas necesitan que alguien externo nombre el techo antes de gastar el siguiente trimestre subiendo el contexto del modelo. Esa es exactamente la conversación que abrimos en la primera reunión.

Para empresas de software cuyo producto incluye un agente, el Socio Tecnológico cubre el siguiente paso. El moat ya no es el modelo, que se commoditizó hace dos trimestres y bajó otra vuelta esta semana. El moat es el schema, el paso de consolidación y la memoria que sobrevive al cambio de proveedor. Ese es el patrón que ya cubrimos en runtime como commodity, workflow como moat y que el lanzamiento de dreaming acelera otro ciclo.

La pregunta práctica para esta semana: ¿quién, en tu equipo, es el dueño del archivo donde vive lo que tu agente sabe? Si nadie lo es, ese es el primer trabajo. No comprar otro modelo. No subir el contexto. Nombrar al dueño y darle 90 días para construir la capa que falta. La mitad fácil de la IA ya cuesta cero. La mitad difícil decide si tu próximo trimestre crece o se aplana.

Preguntas Frecuentes

dreaming memoria de agentes arquitectura agéntica Anthropic Claude Managed Agents AI Maestro Socio Tecnológico

Artículos Relacionados

Ser escogido no es lo mismo que ser visto
Estrategia Empresarial
· 7 min de lectura

Ser escogido no es lo mismo que ser visto

Farza, Eduardo Ordax y Jaya Gupta publicaron en una semana la misma diagnosis a dos profundidades: cuando construir cuesta cero, lo único que la IA no copia es la forma de tu empresa.

forma organizacional talento Jaya Gupta
Construir cuesta cero. Distribuir es la nueva inversión.
Estrategia Empresarial
· 11 min de lectura

Construir cuesta cero. Distribuir es la nueva inversión.

Aaron Levie, Gergely Orosz y Eric Siu publicaron la misma tesis en 36 horas: construir se commoditizó. La distribución con loops propios es el moat de 2026.

estrategia de distribución moat Aaron Levie