La trampa del disfraz: cuando el exceso de contexto confunde a la máquina.
El fin de un mito en la ingeniería de prompts
Si alguna vez has pasado tiempo trasteando con ChatGPT, Claude o Gemini, es probable que hayas usado el truco del experto. Ya sabes a qué me refiero: esa frase mágica al principio de tu consulta que dice: “Actúa como un programador senior con 20 años de experiencia” o “Eres un matemático galardonado con la medalla Fields”. Durante mucho tiempo, en los foros de Reddit y en los hilos de Twitter (o X, como prefieras), se nos dijo que esta era la llave maestra para desbloquear el verdadero potencial de la inteligencia artificial.
Sin embargo, hoy, 24 de marzo de 2026, tenemos que poner los pies en la tierra. Resulta que le hemos estado pidiendo a la IA que se ponga un disfraz cuando lo que realmente necesitábamos era que se pusiera a trabajar. Investigaciones recientes, lideradas por expertos de la Universidad del Sur de California (USC), han revelado algo fascinante y a la vez un poco frustrante: decirle a una IA que es una experta puede, en realidad, hacer que sus respuestas sean menos precisas, especialmente en tareas críticas como la programación y las matemáticas.
¿Por qué el “modo experto” nos está fallando?
Imagina por un momento que entras en una cocina y le dices a un chef: “Actúa como el crítico gastronómico más duro del mundo”. Lo más probable es que el chef pase más tiempo juzgando la limpieza de los azulejos o la disposición de los platos que cocinando un buen filete. Con la IA pasa algo muy parecido. Al forzar una personalidad, el modelo gasta recursos cognitivos (por llamarlo de alguna manera en términos de procesamiento) en mantener esa fachada en lugar de centrarse en la lógica del problema.
El estudio de la USC, que ha circulado con fuerza en los círculos académicos este marzo de 2026, sugiere que estos “prompts de personalidad” inducen un modo de seguimiento de instrucciones que prioriza el estilo sobre la precisión. Es decir, la máquina se esfuerza tanto en sonar como un experto que se olvida de verificar si los datos o el código que está generando son correctos. Es el equivalente digital a “mucho ruido y pocas nueces”.
El efecto del “Instruction Following”
Para entender esto, hay que bajar al barro del funcionamiento de estos modelos. Los modelos de lenguaje grandes (LLM) están entrenados para complacer al usuario. Si tú le pides que sea un pirata, usará muchos “¡Ahoy!”. Si le pides que sea un experto, usará un lenguaje técnico rimbombante. El problema es que, al enfocarse en el tono, el modelo puede entrar en una especie de túnel donde ignora las señales de error en su propia lógica interna.
Esto me hizo pensar en cómo interactuamos con la tecnología. A veces buscamos atajos mágicos en lugar de ser claros. En las pruebas realizadas, cuando se compararon prompts que pedían un rol de experto frente a prompts que simplemente daban instrucciones detalladas y objetivos claros, estos últimos ganaron por goleada. La precisión en tareas de código cayó significativamente cuando se añadía la capa de “programador experto”. ¿Irónico, verdad?
Cómo deberías escribir tus prompts a partir de ahora
No te preocupes, esto no significa que tengas que volver a escribir como si estuvieras en 1995. Solo significa que debemos cambiar el enfoque. Aquí te dejo una pequeña guía basada en lo que realmente funciona a día de hoy, 24 de marzo de 2026:
- Define el objetivo, no la persona: En lugar de “Eres un experto en SEO”, prueba con “Analiza este texto y sugiere 5 palabras clave basadas en la densidad de búsqueda actual”.
- Proporciona contexto real: Dale datos, ejemplos de lo que esperas y limitaciones claras. La IA brilla cuando tiene límites, no cuando tiene un escenario de actuación libre.
- Divide y vencerás: Si el problema es complejo, no esperes que el “experto” lo resuelva de un tirón. Pide pasos intermedios.
- Pide honestidad, no ego: Una instrucción como “Si no estás seguro de la respuesta, indícalo” es mil veces más útil que cualquier disfraz de genio.
“La inteligencia artificial funciona mejor como una herramienta de precisión que como un actor de método. Menos teatro y más datos.”
La importancia de la especificidad
Esto es como si estuvieras dándole instrucciones a un becario muy brillante pero sin sentido común. Si le dices “sé un genio de las finanzas”, igual se pone a leer el Financial Times y se olvida de cuadrarte el Excel. Si le dices “revisa estas celdas y detecta errores de suma en la columna B”, lo hará perfectamente.
En mis propias pruebas con la versión más reciente de GPT-4o y Claude 3.5, he notado que cuando elimino la palabrería de “experto”, la IA tiende a ser más directa y comete menos alucinaciones. Es una lección de humildad para nosotros los humanos: a veces, nuestra creatividad al escribir prompts es lo que está estorbando.
Riesgos de la sobreingeniería de prompts
Existe una industria entera dedicada a venderte “el prompt perfecto”. Pero la realidad científica nos está diciendo que la sobreingeniería puede ser contraproducente. Al llenar el prompt de instrucciones contradictorias o capas innecesarias de personalidad, estamos creando un ruido estadístico que confunde al modelo. Es el efecto “espejismo del control”: creemos que por escribir 500 palabras de instrucciones estamos guiando mejor a la máquina, cuando en realidad la estamos mareando.
¿Significa esto que los roles no sirven para nada? No necesariamente. Pueden ser útiles para tareas creativas, como escribir un guion o una carta con un tono específico. Pero si lo que buscas es que el código no falle o que la ecuación matemática sea correcta, deja el disfraz de experto en el armario.
Conclusiones para tu día a día
La IA está evolucionando hacia una mayor autonomía. Los modelos de este 2026 ya son lo suficientemente inteligentes como para entender la intención sin necesidad de juegos de rol. Al final del día, lo que importa es el resultado, no lo bien que la máquina finja ser alguien que no es.
- Menos es más: La simplicidad suele ganar en precisión técnica.
- Foco en la tarea: Describe el “qué” y el “cómo”, no el “quién”.
- Verificación constante: No asumas que porque la IA suena experta, lo que dice es verdad.
- Experimenta sin roles: Intenta quitar la frase de “experto” de tus prompts habituales y compara los resultados. Te sorprenderás.
Al final, la inteligencia artificial es un reflejo de cómo nos comunicamos. Si somos claros y directos, ella también lo será. Si le pedimos que actúe, bueno… nos dará una actuación, pero quizás no la solución.



