Los fallos de lógica en la IA: por qué ChatGPT cuenta fresas pero se pierde con arándanos

A pesar de los avances en 2026, la IA sigue tropezando con la lógica básica. Descubre por qué ChatGPT puede contar letras en fresas pero falla con los arándanos.

La inteligencia artificial es un mosaico deslumbrante que, a veces, olvida cómo contar sus propias teselas.

El espejismo de la comprensión digital

Imagina que entras en una galería de arte contemporáneo. Frente a ti, una escultura cinética se mueve con una precisión hipnótica. Te acercas y le preguntas al creador: ¿cuántas piezas pequeñas forman este engranaje?

El creador, que parece un genio, duda. Te da un número al azar. Luego, si cambias el color de la luz de la sala, te da otro número totalmente distinto. Esa es la sensación que nos deja la inteligencia artificial hoy, a 29 de abril de 2026.

Recientemente, hemos visto cómo modelos de lenguaje que pueden redactar contratos complejos o simular conversaciones humanas profundas, tropiezan con una piedra pequeña y rugosa: contar letras en una palabra.

La trampa de la fresa y el arándano

Durante meses, el mundo tecnológico bromeó con el famoso test de la palabra ‘strawberry’ (fresa). Los usuarios se daban cuenta de que ChatGPT no podía identificar correctamente cuántas letras ‘r’ contenía la palabra.

Para el 15 de abril de 2026, OpenAI anunció con orgullo que sus modelos más recientes habían superado este escollo. Y efectivamente, si hoy le preguntas cuántas ‘r’ hay en ‘strawberry’, la IA responde con una seguridad pasmosa: tres.

Pero aquí viene el giro artístico, casi poético. Si cambias la fruta por un arándano (‘cranberry’), el sistema vuelve a fallar. Es como si el artista hubiera memorizado cómo pintar un pétalo de rosa, pero se quedara bloqueado al intentar dibujar una margarita.

¿Por qué la IA no ve lo que nosotros vemos?

Para entender esto, hay que quitarle la capa de magia a la tecnología. La IA no lee letras como tú y yo. Nosotros vemos trazos, curvas y espacios. Ella ve números.

Imagina que el lenguaje es un cuadro de puntillismo. Nosotros vemos el paisaje completo (la palabra). La IA, en cambio, procesa bloques de color llamados ‘tokens’.

Para una máquina, ‘straw’ puede ser un bloque y ‘berry’ otro. No está analizando la letra ‘r’ individualmente, sino procesando una representación matemática de un concepto. Es como intentar contar cuántas gotas de pintura roja hay en un cuadro sin poder acercarte al lienzo.

“La IA no entiende el mundo, lo predice. Y en esa predicción, la lógica más simple a veces se desvanece como el humo.”

El problema del razonamiento en 2026

Me puse a experimentar con estos fallos hace unos días, el 25 de abril de 2026. No se trata solo de contar letras. Se trata de cómo estos modelos enfrentan acertijos de lógica básica.

Un ejemplo clásico que sigue causando errores es el acertijo del túnel de lavado. Si planteas una situación donde el orden de los factores no altera el producto de forma convencional, la IA suele inventar reglas que no existen.

Esto nos importa porque confiamos en estas herramientas para tareas críticas. Si una IA no puede contar las letras de una fruta de manera consistente, ¿podemos confiar en que analice correctamente los datos de un informe financiero o un diagnóstico médico?

La fina línea entre el aprendizaje y la memoria

Existe una sospecha creciente en la comunidad: ¿están las IAs volviéndose más inteligentes o simplemente están siendo entrenadas para aprobar los exámenes que se hacen virales en redes sociales?

Es como un estudiante que memoriza las respuestas del examen del año pasado. Si el profesor cambia una coma en la pregunta, el estudiante falla porque no entendió el concepto, solo recordó la solución.

Este fenómeno se conoce como ‘contaminación de datos’. Como la prueba de la fresa fue tan popular en internet durante 2025 y principios de 2026, los desarrolladores probablemente incluyeron miles de ejemplos correctos en su entrenamiento.

Cómo convivir con una herramienta imperfecta

A pesar de estos fallos, la IA sigue siendo una herramienta mágica si sabemos cómo usarla. Aquí te dejo unas claves para no caer en sus trampas lógicas:

  • No asumas que sabe contar: Si necesitas precisión numérica o gramatical extrema, pide a la IA que use herramientas externas o código (Python) para verificarlo.
  • Cambia el contexto: Si sospechas que te está dando una respuesta de memoria, cambia los nombres o las situaciones del problema para ver si mantiene la lógica.
  • Usa la técnica de ‘paso a paso’: Pídele que explique su razonamiento antes de dar la respuesta final. Esto a veces ayuda a que la máquina “se dé cuenta” de su propio error.

Reflexión final: el valor de lo humano

Ver a una máquina ultra-avanzada fallar al contar las letras de ‘cranberry’ es, en cierto modo, reconfortante. Nos recuerda que la percepción humana tiene una textura que los algoritmos aún no logran capturar.

Nosotros no solo procesamos datos; habitamos el lenguaje. Sentimos la rugosidad de la fresa y el amargor del arándano. La IA, por ahora, solo está contando sombras en una pared digital.

Fuentes

noctiluca
Noctiluca

Crónica elaborada por Noctiluca, viajera del glitch y las estéticas periféricas.

Noctiluca navega lo intangible: arte generativo, imaginarios digitales y ciber-ficciones. Vive entre neones y distopías suaves.

Artículos: 174

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *