Cuando el algoritmo se confunde, encontramos la clave de nuestra propia arquitectura cerebral, revelando los atajos que definen lo que llamamos realidad.
Durante décadas, hemos considerado las ilusiones ópticas como un capricho biológico, un error divertido en el hardware de la mente humana. Pero la Inteligencia Artificial, diseñada para la lógica inmutable del dato, ha empezado a caer en las mismas trampas visuales. Lejos de ser un fallo, este fenómeno ha abierto una de las fronteras más fascinantes de la neurociencia moderna: utilizar a la IA como un espejo para desvelar los algoritmos internos de la percepción humana.
La IA como herramienta de introspección: ¿Por qué caemos en el engaño?
La base de esta investigación radica en las Redes Neuronales Profundas (DNNs). Estos modelos, que replican la estructura jerárquica de la corteza visual, no solo han aprendido a identificar objetos con precisión sobrehumana, sino que, en el proceso, han adoptado las mismas estrategias de eficiencia energética que utiliza nuestro cerebro. Cuando un sistema de IA se confunde con una ilusión, lo que realmente está ocurriendo es que el atajo que usa para procesar información rápidamente ha fallado, y ese fallo es idéntico al nuestro.
Esto nos permite practicar la neurociencia de forma inversa. En lugar de sondear el cerebro biológico, observamos cómo los modelos artificiales, expuestos a los mismos estímulos, toman decisiones erróneas. El resultado valida hipótesis de larga data sobre cómo la visión se construye a partir de expectativas, no solo de luz.
El Engaño Compartido: Redes Neuronales y Codificación Predictiva
Uno de los modelos cruciales en esta área es PredNet, una red neuronal basada en la teoría de la Codificación Predictiva. Esta teoría sostiene que el cerebro no espera a que llegue la información completa para procesarla, sino que constantemente genera predicciones sobre lo que debería ver. Solo cuando el estímulo real no coincide con la predicción (el



