Saltar al contenido principal

Tu inversión en IA necesita una curva de aprendizaje

Anthropic analizó cómo cambia el uso de IA con experiencia. Usuarios veteranos logran 73% de éxito vs 67% de nuevos. La diferencia: iteración, no herramientas.

Tu inversión en IA necesita una curva de aprendizaje

Ricardo Argüello

Ricardo Argüello
Ricardo Argüello

CEO & Fundador

IA y Automatización 8 min de lectura

Ayer Anthropic publicó Learning Curves, la segunda edición de su Economic Index. En enero publiqué sobre la brecha del 95% en utilización de IA que mostró el primer informe. Ese dato te decía qué tan grande era el problema. Este nuevo informe te dice cómo cerrarlo.

Y la respuesta no es comprar un modelo mejor.

Anthropic analizó un millón de conversaciones reales con Claude entre el 5 y el 12 de febrero de 2026. No encuestas, no proyecciones de consultora — datos reales de uso. Los datos de uso real demuestran que el progreso en IA no depende de modelos más potentes. Depende de algo mucho menos glamoroso: que la gente aprenda a usarlos bien.

Qué midieron y por qué esta vez importa más

El primer Economic Index respondió una pregunta descriptiva: ¿para qué se usa la IA? La respuesta fue que se usa para mucho menos de lo que puede hacer — esa brecha del 95%.

Learning Curves va más allá. Clasifica cada conversación en cinco tipos de interacción (directiva, feedback loop, iteración de tarea, validación y aprendizaje), analiza cómo cambian los patrones con la experiencia del usuario, y mide si los usuarios más experimentados obtienen mejores resultados.

La muestra incluye datos de Claude.ai (la aplicación web) y del API de primera parte, lo que permite comparar el comportamiento de usuarios individuales contra equipos que integran IA en flujos automatizados.

El hallazgo central: la experiencia del usuario importa tanto como la capacidad del modelo.

73% contra 67%: la brecha que no se compra

Hace unas semanas un cliente me contó que usa IA para consultar la hora en Australia y el clima en Japón. Le dije que para eso Google funciona mejor — los modelos de lenguaje como ChatGPT o Claude no tienen acceso a datos en tiempo real a menos que estén conectados a búsqueda. Es como usar un microscopio para leer el periódico: funciona, pero estás desperdiciando capacidad.

Ese patrón no es anecdótico. Anthropic lo midió: el uso personal (deportes, clima, comparaciones de productos) subió de 35% a 42% de las conversaciones en Claude.ai, impulsado por usuarios nuevos. Al mismo tiempo, el uso para trabajo se mantuvo en ~45%.

Pero cuando miras a los usuarios con más de seis meses de experiencia, la imagen cambia. Estos usuarios hacen 7 puntos porcentuales más de tareas laborales que los nuevos, y 4 puntos menos de consultas personales. No es que no usen IA para lo personal — es que aprendieron para qué sirve realmente.

Y los resultados lo demuestran:

  • Tasa de éxito: 73.1% para usuarios experimentados, 66.7% para nuevos (+6.4 puntos porcentuales)
  • Iteración de tareas: 28.2% de las conversaciones de veteranos incluyen iteración activa, contra 24.5% de nuevos
  • Modo directivo: Los nuevos dan instrucciones directas sin revisión el 38.1% del tiempo. Los experimentados, solo el 29.4%

Esa diferencia de 6.4 puntos en tasa de éxito podría explicarse si los veteranos simplemente hacen tareas más fáciles. Pero Anthropic controló por eso. Incluso comparando el mismo tipo de tarea, en el mismo país, con el mismo modelo, los usuarios experimentados siguen teniendo ~4 puntos porcentuales más de éxito.

No compraron un modelo mejor. Aprendieron a usar el que tenían.

Iteración disciplinada, no más herramientas

Hay un dato en el informe que no esperaba: los usuarios más experimentados no automatizan más. Iteran más.

La narrativa popular dice que la evolución natural de usar IA es pasar de hacerle preguntas a dejarle hacer las cosas solo. Que el objetivo final es la autonomía total. Anthropic muestra lo contrario. Los usuarios que llevan más tiempo con Claude son más propensos a validar resultados (+1.3 puntos), a iterar sobre las respuestas (+3.6 puntos), y menos propensos a dar instrucciones directivas sin revisión (-8.7 puntos).

En nuestra experiencia en IQ Source, esto encaja. Los clientes que mejor resultados obtienen con IA no son los que la dejan hacer sola — son los que desarrollaron un ritmo de trabajo con ella. Piden, revisan, ajustan, vuelven a pedir. Es más lento que delegar y olvidarse, pero los resultados son consistentemente mejores.

También se diversificó lo que la gente hace con IA. Las 10 tareas más comunes ahora representan el 19% de las conversaciones en Claude.ai, abajo del 24% en noviembre 2025. La IA está penetrando más tipos de trabajo, no solo concentrándose en programación y redacción.

Y la proporción entre aumentar y automatizar sigue favoreciendo la colaboración: 53% de las conversaciones en Claude.ai son de aumentación (el humano trabaja con la IA), contra 44% de automatización (la IA ejecuta sola). En el API la tendencia es diferente — pero el API sirve a flujos programáticos, no a profesionales individuales.

$47.9 por tarea y quién paga por qué modelo

Un dato que debería captar la atención de cualquier líder de negocio: el valor promedio de las tareas realizadas en Claude.ai es de $47.9 por hora, medido como el salario promedio que gana un trabajador humano haciendo esa misma tarea. En el API, sube a $50.7. El promedio salarial de EE.UU. es $37.3.

La IA no se está usando para trabajo barato. Se está usando para trabajo caro.

Y los usuarios están siendo sorprendentemente racionales con la selección de modelos. Anthropic ofrece tres tiers: Haiku (rápido y económico), Sonnet (equilibrado) y Opus (el más capaz). Los datos muestran que los usuarios eligen Opus 4.4 puntos porcentuales más de lo esperado para tareas de computación y matemáticas, y 6.5 puntos menos para tareas educativas.

La correlación es clara: por cada $10 de aumento en el salario por hora de una tarea, la proporción de uso de Opus sube 1.5 puntos en Claude.ai y 2.8 puntos en el API. Los desarrolladores de software usan Opus el 34% del tiempo; los tutores, solo el 12%.

Ya escribimos sobre cómo la economía de la IA cambió en 2026 con la reducción de precios. Learning Curves agrega otra dimensión: no se trata de comprar siempre el modelo más caro. Se trata de que tu equipo sepa cuándo usar cada tier. Eso es una habilidad aprendida, no una decisión de presupuesto.

Aumentar antes de automatizar (todavía)

Hay un dato en el informe que merece atención especial para empresas B2B: la automatización de ventas y outreach comercial se duplicó en el API entre noviembre y febrero. Lead qualification, enriquecimiento de datos de clientes, emails de prospección — todo creciendo rápidamente.

Pero antes de correr a automatizar tu pipeline de ventas, mira el patrón completo. Los usuarios más exitosos no empezaron automatizando. Empezaron aumentando: usando IA como copiloto para entender qué funciona, iterar sobre los mensajes, refinar los criterios de calificación. Solo después de construir esa experiencia automatizaron los patrones que ya dominaban.

Ya escribimos sobre cuándo la IA no es la respuesta correcta. Learning Curves lo confirma desde otro ángulo: incluso los usuarios más experimentados prefieren la IA como copiloto, no como reemplazo. La automatización funciona cuando ya sabes exactamente qué automatizar. Si automatizas antes de entender, automatizas errores.

Cómo construimos curvas de aprendizaje con nuestros clientes

En IQ Source trabajamos con este enfoque en tres fases:

Fase 1: Diagnóstico de patrones de uso. Antes de cambiar nada, mapeamos cómo el equipo usa IA hoy. ¿Están en modo directivo (dan instrucciones y aceptan la primera respuesta)? ¿Iteran? ¿Para qué tipo de tareas usan IA — consultas básicas o trabajo de alto valor? Este diagnóstico inicial nos dice dónde están en la curva.

Fase 2: Protocolos de iteración por rol. Las necesidades varían: ventas enfoca sus iteraciones en calificar leads y personalizar mensajes, operaciones en detectar patrones en datos de producción, legal en revisión de contratos y cumplimiento. Lo que tienen en común: nunca aceptar la primera respuesta.

Fase 3: Selección de modelo según complejidad. Enseñamos a los equipos a usar el modelo correcto para cada tarea. No necesitas Opus para traducir un email. No deberías usar Haiku para analizar un contrato de $500K. Esta calibración ahorra costos y mejora resultados — exactamente el patrón que Anthropic documentó con datos de un millón de conversaciones.

Los datos de Anthropic validan lo que vemos con clientes cada semana: las empresas que invierten en construir una curva de aprendizaje con IA obtienen retornos compuestos. Con el tiempo y la práctica el equipo mejora naturalmente, aprende de cada interacción y deja de cometer los mismos errores.

Comprar licencias sin capacitar al equipo no genera ese efecto. Solo da la falsa sensación de estar innovando — mientras tu equipo sigue usando IA para consultar el clima.


La diferencia entre el 67% y el 73% de éxito no es qué modelo compras — es cuánto inviertes en que tu equipo aprenda a trabajar con él. Si quieres saber dónde está tu equipo en esa curva, hacemos un diagnóstico de patrones de uso de IA en 90 minutos: cómo interactúan con los modelos, dónde aceptan la primera respuesta sin iterar, y qué protocolos de trabajo pueden cambiar de forma inmediata.

Agenda el diagnóstico de patrones de uso →

Preguntas Frecuentes

curvas de aprendizaje IA adopción de IA iteración con IA investigación de Anthropic productividad con IA estrategia de IA capacitación en IA

Artículos Relacionados

La IA eliminó la ejecución. El cuello de botella eres tú
IA y Automatización
· 11 min de lectura

La IA eliminó la ejecución. El cuello de botella eres tú

Simon Willison queda agotado a las 11am dirigiendo agentes. Andreessen dice que la ejecución murió. El cuello de botella de tu empresa cambió de lugar.

agentes de IA simon-willison liderazgo tecnológico
Brecha Mercor: 4 TB de datos biométricos que no se rotan
IA y Automatización
· 11 min de lectura

Brecha Mercor: 4 TB de datos biométricos que no se rotan

Mercor, la startup de IA de $10B que entrena modelos para OpenAI y Anthropic, cayó por el ataque a LiteLLM. Lapsus$ reclama video-entrevistas, escaneos faciales y pasaportes de 30,000+ contratistas.

seguridad de IA cadena de suministro de software datos biométricos