En el corazón de un laboratorio alemán, una inteligencia artificial comienza a simular nuestras decisiones con una precisión inquietante. No se trata de adivinar qué video te gustará en YouTube o qué producto comprarás mañana, sino de algo más profundo: anticipar cómo razona el ser humano en distintas situaciones.

Se llama Centaur, y según los investigadores detrás del proyecto, estamos frente a un posible punto de inflexión en la relación entre IA y cognición.

Centaur es un modelo de lenguaje grande desarrollado por el equipo del Centro Helmholtz de Múnich, con una misión ambiciosa: crear una teoría unificada del comportamiento humano. Para lograrlo, alimentaron al modelo con un volumen masivo de datos conductuales: más de 10 millones de decisiones tomadas por 60.000 personas en 160 experimentos psicológicos clásicos y modernos.

El modelo no solo aprendió a predecir las respuestas más probables ante dilemas lógicos, problemas matemáticos o tareas de memoria. También replicó con notable precisión los errores sistemáticos que cometen los humanos, sus sesgos cognitivos, y hasta los tiempos de reacción en determinadas pruebas.

“Centaur no solo acierta lo que haría una persona promedio. Lo hace al mismo ritmo, con las mismas trampas cognitivas, y en contextos que nunca antes vio”, explican sus autores.
Fuente: arXiv

Tradicionalmente, los psicólogos y neurocientíficos han formulado teorías del pensamiento humano a partir de experimentos con muestras pequeñas y diseños específicos. Ahora, con modelos como Centaur, aparece una alternativa: probar miles de hipótesis cognitivas a través de un laboratorio virtual que simula la mente humana en distintos contextos.

Este enfoque permite, por ejemplo: evaluar cómo la gente tomaría decisiones bajo presión sin necesidad de convocar sujetos; probar qué variables afectan la memoria, el razonamiento o la percepción en distintas culturas; y diseñar políticas públicas o interfaces tecnológicas que se adapten mejor a nuestras limitaciones cognitivas. Todo esto con una velocidad y escalabilidad impensadas hace apenas una década.

Aquí aparece el debate filosófico y científico más jugoso. ¿Centaur entiende cómo pensamos o simplemente repite patrones aprendidos? ¿Estamos ante una inteligencia que modela el pensamiento humano o ante un loro matemático que imita la superficie de nuestras decisiones?

Sus creadores afirman que Centaur alcanza un 64 % de precisión en escenarios completamente nuevos —es decir, donde no tenía ejemplos previos— y que sus predicciones correlacionan con señales neuronales reales observadas en estudios de neuroimagen.

Sus críticos, en cambio, advierten que la precisión no equivale a comprensión, que el modelo podría “memorizar” sesgos sin entender sus causas, y que aún falta transparencia sobre cómo llega a sus conclusiones (el clásico problema de la caja negra).

“Predecir comportamiento no es lo mismo que explicar por qué lo hacemos. Y si no sabemos por qué, no sabemos cómo intervenir”, advertía recientemente un investigador en Science.

Los investigadores ya planean nuevas versiones de Centaur con mayor diversidad cultural en los datos, tareas más abiertas y abstractas, y comparación directa con cerebros humanos en tiempo real mediante EEG o resonancia funcional. Mientras tanto, universidades como MIT, Stanford y Oxford ya están explorando cómo usar Centaur para enseñar psicología, diseñar experiencias de usuario, o incluso detectar patrones anómalos en pacientes psiquiátricos.

Más allá de su rendimiento técnico, Centaur nos enfrenta a una pregunta central: ¿somos tan predecibles como creemos no serlo?

Si una IA puede anticipar no solo nuestras respuestas correctas, sino también nuestros errores, nuestras trampas mentales, nuestras intuiciones fallidas… ¿qué dice eso de la libertad humana? ¿De nuestra capacidad de sorprendernos y aprender? ¿De cómo diseñamos sistemas que nos rodean: algoritmos, políticas, procesos de toma de decisiones?

Centaur no es una amenaza. Tampoco un oráculo. Es un espejo estadístico, afinado con la lógica matemática de un lenguaje que apenas estamos empezando a entender. Un espejo que no refleja nuestro rostro, sino la forma en que lo interpretamos cada vez que pensamos.

Y eso —aunque no lo prediga con un 100 % de exactitud— ya es mucho decir.