Ricardo Argüello
CEO & Fundador
La pregunta que tu empresa nunca se hizo
La escena se repite. Una empresa compra licencias de IA, el equipo de tecnología celebra, los directores esperan resultados. Tres meses después, el uso se estancó. Los reportes de adopción muestran logins, pero no impacto.
El problema nunca fue la herramienta.
En febrero de 2026, Anthropic publicó el AI Fluency Index — un estudio basado en 9,830 conversaciones reales con Claude.ai. No una encuesta de percepción, no un caso de laboratorio. Conversaciones reales de personas usando IA para trabajar.
La conclusión principal: la diferencia entre equipos que obtienen el doble de valor de la IA y los que no tiene poco que ver con qué modelo usan. Tiene que ver con cómo interactúan con él.
En IQ Source hemos visto este patrón en docenas de empresas. Se obsesionan con comparar modelos, negociar licencias, elegir el proveedor correcto. Mientras tanto, sus equipos aceptan la primera respuesta que la IA les da sin cuestionarla. Es como comprar el mejor bisturí del mercado y nunca enseñarle al cirujano a usarlo.
Qué descubrieron al analizar 9,830 conversaciones reales
El equipo de investigación — Swanson, Bent, Huang, Ludwig, Dakan y Feller — usó el marco 4D de Fluidez en IA, que define 24 comportamientos específicos de colaboración efectiva con IA. De esos 24, 11 son directamente observables en conversaciones con Claude. No midieron satisfacción ni velocidad — midieron qué tan efectivamente las personas colaboran con la IA para llegar a mejores resultados.
Iterar cambia todo
El dato más contundente del estudio: los usuarios que iteran — que refinan, cuestionan, piden ajustes — muestran 2.67 comportamientos de fluidez por conversación. Los que aceptan la primera respuesta muestran 1.33.
La diferencia no es solo numérica. Los que iteran son 5.6 veces más propensos a cuestionar el razonamiento de la IA y 4 veces más a identificar contexto faltante.
Traducido a lenguaje de negocio: el empleado que acepta el primer borrador de un análisis, un reporte, una propuesta, está obteniendo la mitad del valor posible. No porque la IA sea mala — porque no le exigió más.
La paradoja del resultado perfecto
Este hallazgo me pareció el más incómodo para las empresas. Los investigadores lo llaman la Paradoja del Artefacto: cuando la IA produce un resultado que se ve pulido — código que compila, un reporte bien formateado, una presentación con estructura limpia — los usuarios se vuelven menos críticos.
Los números: los equipos muestran 5.2 puntos porcentuales menos probabilidad de identificar vacíos cuando el resultado luce profesional. Y 3.1 puntos menos de cuestionar las suposiciones subyacentes.
El resultado es preocupante: tus equipos son menos vigilantes exactamente cuando los riesgos son más altos — cuando el resultado se va a usar directamente para tomar decisiones.
Un cliente nuestro lo descubrió de la peor forma: un reporte financiero generado con IA se veía impecable, los números estaban bien formateados, los gráficos eran claros. Nadie notó que el modelo había asumido una tasa de crecimiento del 15% cuando los datos históricos mostraban un 4%. El formato perfecto ocultó una suposición absurda.
Lo que funciona igual en seis idiomas
El estudio analizó conversaciones en seis idiomas. El resultado: 85.7% de los usuarios iteran al menos una vez, pero solo el 30% define normas de colaboración — le dice a la IA cómo quiere trabajar, qué formato espera, qué nivel de detalle necesita.
Esto no es un problema cultural. Es conductual. Y eso son buenas noticias, porque los problemas conductuales se resuelven con entrenamiento, no con cambios de herramienta.
Por qué tu empresa debería preocuparse (con números)
Hagamos un ejercicio. Tu empresa tiene un equipo de 20 personas que usan IA. Cada persona toma 15 decisiones apoyadas en IA por día. Eso son 300 decisiones diarias.
Si tu equipo opera como la mayoría — aceptando la primera respuesta, sin iterar — están obteniendo la mitad del valor en cada interacción. No porque la IA falle, sino porque no le piden más.
Ahora multiplica eso por un trimestre. Son más de 19,000 decisiones donde tu equipo dejó valor sobre la mesa.
La brecha entre iterar y no iterar es la diferencia entre la IA como un costo que hay que justificar y la IA como una ventaja que se nota en los resultados. Los datos del estudio de Anthropic lo confirman: no es la herramienta, es el hábito.
Tres cambios que producen resultados inmediatos
Establecer la regla del “segundo borrador”
La implementación más simple y más efectiva: nunca aceptar la primera respuesta de IA para decisiones de negocio.
El protocolo es directo. La IA genera un borrador. El usuario lo revisa y refina — cuestiona suposiciones, pide alternativas, agrega contexto que faltaba. Recién entonces se usa el resultado.
Esto suena obvio. No lo es. El estudio muestra que la mayoría de los usuarios tratan la interacción con IA como una búsqueda en Google: hacen una pregunta, obtienen una respuesta, la usan. Pero la IA no es un buscador. Es un colaborador que mejora con cada ida y vuelta.
Auditar los resultados que se ven “perfectos”
Para contrarrestar la Paradoja del Artefacto, implementamos con nuestros clientes un checklist de tres preguntas antes de usar cualquier resultado de IA que se vea completo:
- ¿Qué suposiciones hizo la IA que no le pedimos? Todo modelo llena vacíos de información con suposiciones implícitas. Si no las identificas, las estás aceptando sin saberlo.
- ¿Qué contexto le faltó? La IA trabaja con lo que le diste. Si el contexto estaba incompleto, el resultado es una respuesta elegante a la pregunta equivocada.
- ¿Qué cuestionaría un experto del tema? Si un analista financiero, un abogado, o un ingeniero senior no revisaría ese resultado sin cuestionar nada, tu equipo tampoco debería.
Definir normas explícitas de colaboración con IA
Solo el 30% de los usuarios en el estudio de Anthropic define cómo quiere trabajar con la IA. Es el cambio de menor esfuerzo con mayor impacto.
Normas simples: “Antes de darme la respuesta final, lista las suposiciones que estás haciendo.” “Si no tienes suficiente información, pregúntame antes de completar.” “Dame dos alternativas con pros y contras antes del resultado final.”
Para profundizar en cómo distintos departamentos pueden definir estas normas según su función, escribimos una guía específica sobre IA más allá del departamento de ingeniería.
Lo que hacemos en IQ Source con este problema
Cuando una empresa nos dice “la IA no nos está dando resultados”, lo primero que hacemos no es revisar qué modelo usan. Revisamos cómo lo usan.
Nuestra metodología tiene tres componentes:
Diseño de interacción. Mapeamos los flujos de trabajo donde la IA interviene y diseñamos los patrones de interacción específicos para cada caso de uso. No es lo mismo usar IA para revisar contratos que para generar propuestas comerciales — cada flujo necesita su propio protocolo de iteración.
Playbooks por rol. El director financiero, el gerente de operaciones y el equipo legal necesitan interactuar con la IA de formas distintas. Creamos guías específicas por rol con prompts base, normas de colaboración, y criterios de validación adaptados a cada función.
Medición de comportamientos de fluidez. Usando un marco similar al del estudio de Anthropic, medimos qué tan bien interactúan los equipos con la IA a lo largo del tiempo. No medimos cuánto la usan — medimos qué tan bien la usan. La diferencia importa.
Si te interesa entender todo el proceso de implementación paso a paso, lo detallamos en nuestra guía de cómo implementar IA en tu empresa.
El error real no es elegir la IA equivocada
Las empresas gastan semanas comparando ChatGPT contra Claude contra Gemini. Evalúan benchmarks, negocian precios, hacen pruebas piloto con el modelo del momento. Todo eso está bien. Pero es el 20% del problema.
El otro 80% es conductual. Es si tu equipo itera o acepta la primera respuesta. Es si auditan los resultados que se ven perfectos o los envían directamente al cliente. Es si definieron cómo quieren colaborar con la IA o si cada quien hace lo que puede.
El estudio de Anthropic lo cuantificó con 9,830 conversaciones. La brecha es real, es medible, y es corregible.
Ya tienes las herramientas. La pregunta es si tu equipo sabe sacarles el valor completo. Si quieres medir la brecha de fluidez en tu organización, escríbenos — diagnosticamos exactamente esto: no qué tecnología tienes, sino qué tan bien la están usando tus equipos y dónde están los puntos ciegos que te cuestan resultados.
Preguntas Frecuentes
Es un estudio publicado en febrero de 2026 por un equipo de Anthropic liderado por Swanson, Bent, Huang, Ludwig, Dakan y Feller. Basado en 9,830 conversaciones reales con Claude.ai, usa un marco de cuatro dimensiones con 24 comportamientos específicos (11 directamente observables) que miden qué tan efectivamente las personas colaboran con IA.
Según el estudio, los usuarios que iteran muestran 2.67 comportamientos de fluidez por conversación contra 1.33 de quienes aceptan la primera respuesta. Son 5.6 veces más propensos a cuestionar el razonamiento de la IA y 4 veces más a identificar contexto faltante. La diferencia en calidad del resultado final es significativa.
Es un hallazgo del estudio donde los resultados más pulidos de la IA — código funcional, reportes bien formateados — hacen que los usuarios sean menos críticos. Los equipos muestran 5.2 puntos porcentuales menos probabilidad de identificar vacíos y 3.1 puntos menos de cuestionar suposiciones cuando el resultado se ve profesional.
Tres acciones concretas: implementar la regla del segundo borrador (nunca aceptar la primera respuesta para decisiones de negocio), auditar resultados que parecen perfectos con un checklist de suposiciones y contexto faltante, y definir normas explícitas de colaboración con IA. El estudio muestra que solo el 30% de los usuarios hacen esto último.
Artículos Relacionados
Agentes de IA para operaciones empresariales: guía práctica para directivos
Guía práctica para implementar agentes de IA en operaciones empresariales. Desde compras y atención al cliente hasta cumplimiento normativo, con frameworks probados para pasar del piloto a producción.
¿Cómo implementar inteligencia artificial en tu empresa B2B?
Pasos concretos para implementar IA en operaciones B2B: desde identificar el caso de uso correcto hasta medir resultados en los primeros 90 días.