Mientras el mundo se deslumbra con los avances de los grandes modelos de lenguaje (LLMs), Apple lanza un golpe inesperado: “lo que vemos como razonamiento es, en realidad, una ilusión cuidadosamente ensamblada.”
Su nuevo estudio, titulado The Illusion of Thinking, revela una conclusión incómoda:
Los LLMs no razonan. Solo simulan que lo hacen.
🧪 ¿Qué ha investigado Apple?
El estudio de Apple analiza en profundidad el comportamiento de varios modelos de lenguaje en tareas de razonamiento, en particular aquellas que requieren múltiples pasos (como las cadenas de pensamiento o chain-of-thought).
🧩 ¿Qué descubren?
- Los LLMs no mantienen un razonamiento coherente cuando se modifican ligeramente los datos de entrada.
- La generación de pasos intermedios en las cadenas de pensamiento no garantiza una mayor precisión.
- Muchas veces, los modelos repiten patrones convincentes sin verdadera comprensión del problema.
“La cadena de razonamiento no refleja una inferencia lógica, sino una sucesión de tokens plausibles.” — Apple
📉 Los límites del pensamiento artificial
El artículo identifica dos grandes problemas:
- Fragilidad: pequeñas variaciones en el input generan respuestas completamente erróneas, incluso si la lógica parecía correcta antes.
- Superficialidad: el razonamiento paso a paso no aumenta necesariamente la fiabilidad, solo la apariencia de profundidad.
Apple señala que, en realidad, muchos LLMs actúan como “maestros del texto verosímil”, no como agentes pensantes. Lo que vemos como pensamiento, no lo es.
🚨 ¿Por qué es importante?
En un momento en el que OpenAI, Anthropic o Google desarrollan agentes con “capacidades de razonamiento generalizadas”, Apple plantea una crítica clave:
Confundir verosimilitud con comprensión es un riesgo real.
Y lo respalda con evidencia empírica.
Esto tiene enormes implicaciones para:
- Educación asistida por IA
- Aplicaciones médicas o jurídicas
- Evaluaciones de agentes autónomos
- Confianza general del público en la IA
👁️ Desde la Sombra: pensar ≠ parecer que se piensa
Este paper es un recordatorio necesario: la inteligencia artificial actual puede parecer mágica, pero no es magia. Y desde luego, no es pensamiento real.
Desde la sombra, celebramos que Apple ponga sobre la mesa una conversación que el sector necesita urgentemente:
¿Estamos midiendo correctamente lo que entendemos por “inteligencia”?