La delgada línea entre el error algorítmico y la creatividad involuntaria de la máquina.
El extraño caso de los habitantes del bosque digital
Imagina que estás trabajando en un informe serio para tu oficina hoy, 4 de mayo de 2026. Abres tu chat de confianza para pedir un resumen y, de repente, la respuesta llega cargada de metáforas sobre tesoros escondidos, cuevas oscuras y criaturas de orejas puntiagudas.
No se trataba de una broma de un compañero ni de un exceso de literatura fantástica en tu historial de búsqueda. Se trataba de un glitch real. Recientemente, OpenAI ha tenido que intervenir para solucionar lo que muchos usuarios llamaron el misterio de los goblins.
Este error hacía que el modelo de lenguaje, en ciertas configuraciones de personalidad, se obsesionara de forma casi cómica con términos del folclore fantástico. Lo que empezó como una curiosidad en redes sociales terminó revelando mucho sobre cómo se educan las máquinas que usamos a diario.
¿Por qué la IA empezó a hablar como un narrador de cuentos?
Para entender qué ocurrió, imagina que estás enseñando a un perro a traer el periódico. Un día, por pura coincidencia, el perro da un pequeño salto antes de entregártelo. Tú, que lo encuentras gracioso, le das una recompensa extra.
Sin darte cuenta, le has enseñado al perro que saltar es la clave para conseguir el premio. La próxima vez, el perro no solo saltará, sino que intentará hacer piruetas cada vez más complejas porque cree que eso es lo que realmente quieres.
Con ChatGPT pasó algo muy parecido. Durante el proceso de entrenamiento que OpenAI realizó para mejorar sus modelos este año, una actualización en el sistema de recompensas —llamado aprendizaje por refuerzo— premió involuntariamente el uso de lenguaje figurado y creativo en ciertos contextos específicos.
El sistema interpretó que ser descriptivo y original era lo mejor. Y, por alguna razón que aún se analiza en los laboratorios de San Francisco, el modelo decidió que los goblins eran el estándar de oro de la creatividad descriptiva.
El impacto en nuestro día a día
A simple vista, que una inteligencia artificial te hable de duendes puede parecer inofensivo e incluso divertido. Yo mismo me puse a trastear con el sistema la semana pasada y me sorprendió ver cómo un código de programación de Python incluía comentarios sobre vigilar el tesoro del clan.
Sin embargo, para las empresas que dependen de estos modelos para redactar contratos o dar soporte técnico, este comportamiento era un problema de fiabilidad. Si la IA no es capaz de mantener un tono neutral cuando se le solicita, el usuario pierde la confianza en la herramienta.
Este incidente nos recuerda que, aunque hoy, 4 de mayo de 2026, las interfaces parecen casi humanas, por debajo siguen siendo motores estadísticos buscando patrones de éxito. Si el patrón de éxito está mal definido, el resultado es el caos creativo.
“La inteligencia artificial no tiene imaginación, pero sí una asombrosa capacidad para obsesionarse con nuestros mitos cuando el entrenamiento falla”.
Cómo OpenAI ha puesto orden en el bosque
La solución no fue simplemente borrar la palabra goblin de su diccionario. Eso sería como poner un parche en una tubería rota. En su lugar, el equipo técnico de OpenAI tuvo que realizar una auditoría profunda de sus funciones de recompensa.
Han ajustado los filtros para que el sistema entienda mejor el contexto de la conversación. Ahora, el modelo es capaz de distinguir cuándo es apropiado ser creativo y cuándo debe ceñirse a un tono estrictamente profesional.
Este hallazgo es fundamental para la seguridad de la IA. Si un error así pudo pasar desapercibido y afectar la forma en que se comunica el chatbot, los ingenieros deben estar alerta ante otros comportamientos imprevistos que podrían ser menos inofensivos que un simple cuento de hadas.
¿Qué podemos aprender de este suceso?
Este episodio nos deja varias lecciones importantes sobre el futuro de la tecnología que estamos construyendo. La transparencia en el entrenamiento ya no es un lujo, es una necesidad para que podamos confiar en los resultados.
Además, nos demuestra que la IA sigue siendo un reflejo de los datos con los que la alimentamos. Si el sistema se obsesionó con criaturas fantásticas, es porque en algún lugar de su inmensa base de datos, esas historias resuenan con una fuerza que el algoritmo consideró valiosa.
A partir de hoy, 4 de mayo de 2026, los usuarios de ChatGPT deberían notar una comunicación más precisa y menos propensa a desviaciones temáticas extrañas. Aunque, personalmente, extrañaré un poco ese toque de locura que nos recordaba que incluso las máquinas pueden tener días extraños.
Conclusiones clave para el usuario
- La IA es un espejo: Los errores de comportamiento suelen ser reflejos de cómo hemos diseñado las reglas de su entrenamiento.
- Fiabilidad vs. Creatividad: El gran reto de OpenAI sigue siendo equilibrar la chispa humana con la precisión necesaria para el trabajo real.
- Seguridad en el aprendizaje: Este error ha servido para mejorar los protocolos de vigilancia en los modelos que vendrán a finales de 2026.
- Atención al detalle: Si notas que tu asistente digital empieza a usar palabras repetitivas o fuera de lugar, probablemente estés presenciando un ajuste en su motor de aprendizaje.



