Saltar al contenido principal

Tus inversiones en IA tienen fecha de vencimiento

Fine-tuning, RAG y prompt engineering se deprecian con cada modelo nuevo. Qué inversiones en IA conservan valor y un filtro para decidir antes de gastar.

Tus inversiones en IA tienen fecha de vencimiento

Ricardo Argüello

Ricardo Argüello
Ricardo Argüello

CEO & Fundador

Estrategia Empresarial 8 min de lectura

En 2024, afinar un modelo para clasificar contratos costaba entre $10K y $50K y tomaba semanas. En 2025, un modelo base con un buen prompt y el documento completo en la ventana de contexto hacía lo mismo. El fine-tuning no dejó de funcionar. Dejó de ser necesario.

Alex Wang, autor del newsletter Learn AI Together (541K+ suscriptores), lo planteó directo: si el 90% de las técnicas de IA de las que hablábamos el año pasado ya están perdiendo relevancia, ¿qué importa realmente al construir productos de IA ahora? Su respuesta: el valor se movió de técnicas aisladas a sistemas completos. Lo que Wang propone es construir para la evolución del modelo, no para el modelo actual.

Lo que sigue no es un debate sobre qué técnica es “la mejor”. Es una guía sobre el ciclo de vida de las inversiones en IA: cuáles se deprecian, cuáles se aprecian, y cómo filtrar antes de gastar.

El arco: del fine-tuning al contexto

En 2023-2024, los modelos tenían ventanas chicas y seguían instrucciones de forma inconsistente. Fine-tuning era la respuesta obligada. ¿Necesitas que el modelo entienda tus contratos? Afínalo con miles de ejemplos.

Luego, en 2024-2025, las ventanas crecieron pero no lo suficiente. RAG se volvió la solución estándar: fragmentar documentos, indexar, recuperar por similitud semántica. Toda empresa seria tenía un pipeline RAG.

Ahora, 2025-2026: ventanas de 200K, 1M, 2M tokens. Modelos que siguen instrucciones complejas de fábrica. La ingeniería de contexto y los agentes reemplazan mucho de lo que antes requería fine-tuning o RAG.

Cada una de esas olas resolvió problemas reales, pero todas tuvieron fecha de vencimiento. La trampa es que las empresas invierten en compensar lo que el modelo no puede hacer. Cuando el siguiente modelo puede, la inversión se deprecia, no porque estuviera mal, sino porque la limitación que la justificaba ya no existe.

Tres técnicas con fecha de vencimiento

Fine-tuning para compensar limitaciones

Hay fine-tuning que envejece bien y fine-tuning que caduca en meses. La diferencia: si estás entrenando al modelo con datos propios que nunca ha visto (terminología legal de tu industria, formatos regulatorios específicos, taxonomías internas), esa inversión se mantiene. El modelo no tiene esos datos, punto.

Pero si estás afinando para que siga instrucciones, mantenga un tono o razone mejor sobre casos comunes, el reloj corre en tu contra. Los modelos nuevos hacen eso de fábrica. Un system prompt de 200 tokens ya logra lo que antes requería semanas de entrenamiento.

El costo del fine-tuning empresarial oscila entre $10K y $50K+ por ciclo. Y no es un gasto único: cada 6-12 meses necesitas re-entrenar porque el modelo base se actualizó, tus datos cambiaron, o la distribución del problema se movió. Es una cinta de correr.

En nuestra experiencia en IQ Source, ~70% de los proyectos de fine-tuning que evaluamos están compensando limitaciones que el modelo actual ya no tiene. El otro ~30% — datos propietarios, formatos regulatorios — sigue justificándose.

Pipelines RAG ingenuos

El RAG que funciona hoy no se parece al que se construía en 2024.

Los primeros pipelines se diseñaron pensando en ventanas de 4K-8K tokens: fragmentar documentos en chunks de 512 tokens, generar embeddings, recuperar los 5 más cercanos por similitud coseno. Cuando la ventana era más chica que el documento, fragmentar y buscar era la única opción.

Con ventanas de 1M+ tokens, muchos casos de uso funcionan mejor metiendo el documento completo en el contexto. Un contrato de 200 páginas son ~80K tokens. Cabe entero en la ventana de Claude, y el modelo ve las cláusulas cruzadas que un pipeline RAG ingenuo pierde al fragmentar.

Eso no significa que RAG muera. Como detallé en el post sobre ventanas de contexto, sigue siendo necesario cuando:

  • La base de conocimiento excede 1M tokens (manuales técnicos de 50K páginas, por ejemplo)
  • El volumen de consultas hace prohibitivo el costo de pasar el documento completo cada vez
  • Se necesitan citas exactas con trazabilidad a la fuente

Lo que se deprecia es el pipeline ingenuo. Lo que se mantiene es la capa de recuperación inteligente — saber qué información traer y cuándo.

Prompt engineering como competencia central

Que cada persona en tu organización sepa interactuar con modelos de forma efectiva es una habilidad de base, como saber usar una hoja de cálculo. Cada generación de modelo la hace más accesible, no menos relevante. Eso envejece bien.

Lo que no envejece bien es tener un equipo de 5 personas cuyo trabajo principal sea escribir y mantener prompts. Los modelos entienden instrucciones simples cada vez mejor. Lo que antes requería un prompt de 3,000 tokens con 15 few-shot examples hoy se resuelve con una instrucción directa de 200 tokens.

La ingeniería de contexto reemplaza al prompt engineering como la habilidad operativa que marca la diferencia. No es cómo le preguntas al modelo — es qué información le das para que trabaje. Esa habilidad escala con cada generación porque mejores modelos aprovechan mejor contexto.

Lo que envejece bien

Infraestructura de datos

Datos limpios, estructurados y accesibles se aprecian con cada generación de modelo. Un modelo 10x mejor produce resultados 10x mejores, si tiene buenos datos de entrada.

Pipelines de datos, gobernanza de calidad, etiquetado, taxonomías internas: todo eso es inversión que un modelo mejor aprovecha más, no menos. No importa si la IA de mañana usa transformers, SSMs o una arquitectura que aún no existe. Va a necesitar datos limpios.

En IQ Source, cuando evaluamos la madurez de IA de un cliente, lo primero que miramos no es qué modelo usan. Es cómo están sus datos. Ningún modelo avanzado va a salvar una operación con datos desordenados, pero una base de información limpia hace que hasta el modelo más básico rinda bien.

Integración con flujos reales de trabajo

El valor de la IA está en dónde se conecta con la operación, no en el modelo en sí.

Integraciones con CRM, ERP y sistemas de soporte. APIs bien definidas. Triggers de workflow y cadenas de aprobación. Todo eso es agnóstico al modelo: funciona igual si mañana cambias de proveedor.

La estrategia de APIs que una empresa construye hoy va a ser más valiosa cuando los modelos mejoren, porque habrá más puntos de la operación donde la IA puede agregar valor a través de esas mismas integraciones.

Supervisión humana y arquitectura model-agnostic

Dos inversiones que se aprecian juntas.

Supervisión humana: procesos de revisión, gobernanza de outputs, métricas de calidad. A medida que la IA hace más, crece la necesidad de monitorear lo que produce. Esta inversión nunca se deprecia.

Arquitectura model-agnostic: capas de abstracción como MCP (Model Context Protocol) que definen herramientas y datos de forma estandarizada. Te permiten cambiar de modelo o proveedor sin reescribir la aplicación. Cuando el modelo del momento cambie (y va a cambiar), la migración es configuración, no desarrollo.

Ambas pasan el filtro 10x sin problema: más capacidad del modelo = más necesidad de supervisión y más valor en poder cambiar rápido.

El filtro 10x

Antes de aprobar cualquier inversión en IA, hay una pregunta que debe pasar por la mesa:

Si el próximo modelo es 10 veces mejor en capacidad, ¿esta inversión sigue teniendo sentido?

Inversión¿Envejece bien?Por qué
Modelo afinado para clasificar contratosNoLos modelos base ya lo hacen con ingeniería de contexto
Pipeline de datos que conecta CRM + ERP + soporteMejores modelos = mejor aprovechamiento de estos datos
Pipeline RAG para base de conocimiento de 50K páginasParcialmenteLa capa de recuperación se mantiene, el chunking se simplifica
Equipo dedicado de prompt engineering (5 personas)NoRedistribuir hacia ingeniería de contexto + expertise de dominio
Stack de observabilidad para outputs de IAMás automatización = más necesidad de monitoreo

No gastes en arreglar las capas que OpenAI, Anthropic y Google van a arreglar por ti. Invierte en las que solo mejoran si tú las construyes: tus datos, tus integraciones y tu gobernanza.

Lo que hacemos con esto en IQ Source

Cada semana evaluamos proyectos de IA de clientes B2B. La pregunta más reveladora no es “¿funciona?” sino “¿va a seguir funcionando en 12 meses?”

Un pipeline RAG que funciona hoy pero se construyó sobre premisas de 2024 (ventanas de 4K tokens, modelos que no siguen instrucciones largas) tiene meses de vida útil. Un pipeline de datos bien construido que alimenta ese RAG va a alimentar lo que sea que venga después.

La diferencia entre una inversión que dura y una que se deprecia es si compensa una limitación temporal o construye una capacidad permanente.

Si quieres saber cuáles de tus proyectos de IA actuales tienen fecha de vencimiento, envíanos la lista. Clasificamos cada uno por vida útil — corta, media, duradera — y te devolvemos un reporte de durabilidad de inversión en una página.

Solicitar reporte de durabilidad

Preguntas Frecuentes

inversión en IA fine-tuning RAG prompt engineering estrategia empresarial arquitectura model-agnostic obsolescencia tecnológica

Artículos Relacionados

Somos consultores de IA y a veces decimos: no uses IA
Estrategia Empresarial
· 10 min de lectura

Somos consultores de IA y a veces decimos: no uses IA

Una consultora de IA que dice 'no uses IA' suena contradictorio. Pero es lo más valioso que hacemos por nuestros clientes.

estrategia de IA toma de decisiones ROI de IA
El Empleado 100x Ya Existe (Y Cambia Cómo Contratas)
Estrategia Empresarial
· 7 min de lectura

El Empleado 100x Ya Existe (Y Cambia Cómo Contratas)

Un profesional con dominio de IA produce lo que antes requería un equipo. Jensen Huang lo confirmó en GTC 2026. Así cambia tu estrategia de contratación.

inteligencia artificial talento contratacion