En un contexto dominado por titulares optimistas sobre los beneficios de la inteligencia artificial, un nuevo estudio viene a poner pausa, matiz y realidad. El hallazgo no es menor: cuando los desarrolladores expertos utilizan asistentes de código basados en IA, pueden rendir peor que trabajando solos.
El dato lo reveló un trabajo reciente de la organización independiente METR (Model Evaluation and Testing for Reliability), una entidad que ha ganado notoriedad en 2024 y 2025 por sus evaluaciones técnicas rigurosas sobre modelos de lenguaje, sistemas autónomos y herramientas de IA aplicadas a entornos reales.
A diferencia de muchas pruebas de laboratorio, METR diseñó un experimento con condiciones que simulan el día a día de un programador profesional. Participaron 58 desarrolladores con experiencia comprobada en proyectos open-source, divididos en dos grupos: uno con acceso al asistente de código Claude 3.5/3.7 Sonnet (vía Cursor Pro), y otro sin ningún tipo de ayuda por IA.
La tarea: resolver un problema técnico real dentro de un repositorio público de código, en condiciones de tiempo razonables. No había ejercicios didácticos ni entornos cerrados. Era el mundo tal como es, con bugs, documentación escasa y decisiones de diseño implícitas.
El resultado sorprendió incluso a los investigadores: el grupo con IA tardó un 19 % más en completar las tareas que el grupo de control.
En términos generales, los asistentes como Claude (y también Copilot, Gemini o ChatGPT) están diseñados para ayudar a programadores novatos, intermedios o en tareas repetitivas. Pero cuando se enfrentan a usuarios expertos en contextos abiertos, su rendimiento se vuelve menos predecible.
METR identificó algunos motivos detrás de esta ralentización: desfase entre la sugerencia del modelo y el contexto real del proyecto, distracción cognitiva al explorar caminos alternativos que no agregan valor, y pérdida de tiempo validando código que el propio programador no hubiera escrito así.
En resumen: la IA no entorpece porque sea “mala”, sino porque no está bien calibrada para contextos expertos y abiertos, donde los criterios son menos mecánicos y más estratégicos.
Este estudio entra en tensión con las promesas optimistas de muchas empresas tecnológicas. OpenAI, Anthropic, Microsoft o Google han asegurado en múltiples ocasiones que sus asistentes mejoran la productividad de los programadores. Y en ciertos contextos, eso es cierto.
Pero el trabajo de METR obliga a matizar ese relato: la IA puede ser útil, pero no para todos los perfiles, ni en cualquier situación, ni sin riesgos de fricción invisible.
En particular, cuando un profesional senior sabe cómo abordar una tarea, un modelo que propone caminos alternativos puede resultar más un estorbo que una ayuda.
Lo más interesante del estudio es que no se limita a medir tiempo o errores. METR también indagó en la experiencia subjetiva de los participantes: cómo se sintieron al usar la IA, si confiaban en ella, y cuánto influyó en sus decisiones.
Los hallazgos fueron mixtos. Algunos valoraron que Claude explicara su razonamiento paso a paso. Otros lo ignoraron por completo tras las primeras sugerencias poco útiles. Un subgrupo dijo haber perdido fluidez mental al delegar tareas clave.
En otras palabras, la relación entre IA y experto es mucho más psicológica de lo que imaginamos. No se trata solo de outputs correctos, sino de cómo afecta la dinámica de trabajo, la concentración y la sensación de agencia.
El estudio de METR es valioso no porque critique a Claude, sino porque nos recuerda algo fundamental: la inteligencia artificial no es universalmente útil, y mucho menos neutra.
En el imaginario colectivo, la IA se presenta como una extensión de nuestras capacidades. Pero lo que este estudio muestra es que, para algunas personas en algunas tareas, puede ser una interferencia sutil. No porque sea inútil, sino porque exige que el humano cambie su forma de trabajar para acomodarla.
La pregunta, entonces, no es si la IA es buena o mala. La pregunta es: ¿para quién es útil, en qué condiciones, y a costa de qué?
Es momento de dejar de hablar de “la IA” en abstracto, y empezar a analizar caso por caso, perfil por perfil. Solo así podremos construir herramientas que realmente aumenten nuestras capacidades, en lugar de ralentizarlas con entusiasmo ciego.
Fuente: metr.org