Blindar el cerebro digital antes de que aprenda a mentirnos.
¿Por qué OpenAI se ha ido de compras?
Imagina que contratas a un asistente personal muy eficiente. Le das las llaves de tu casa, el acceso a tu cuenta bancaria y le pides que gestione tus correos. Es una maravilla, ¿verdad? Pero ahora imagina que ese asistente es un poco ingenuo y que, si alguien lo engaña con palabras bonitas, podría terminar dándole las llaves a un extraño. Ese es, en esencia, el riesgo que corremos hoy, 9 de marzo de 2026, con los agentes de inteligencia artificial.
OpenAI acaba de anunciar la adquisición de Promptfoo. Si no te suena el nombre, no te preocupes, no es una aplicación de filtros para fotos. Es una startup que se dedica a algo que en el mundillo llamamos “red-teaming”. En cristiano: son los que se dedican a intentar romper la IA para encontrar por dónde cojea antes de que lo haga un delincuente.
Esta compra no es un capricho. Es una necesidad urgente. A medida que dejamos que la IA tome decisiones por nosotros (lo que llamamos agentes), el peligro de que alguien manipule esas decisiones aumenta. OpenAI quiere que su plataforma, OpenAI Frontier, sea un búnker. Y para eso necesita a los mejores cerrajeros.
¿Qué es exactamente lo que hace Promptfoo?
Si alguna vez has intentado “engañar” a ChatGPT para que te diga algo que no debería, has hecho un red-teaming muy básico. Promptfoo lleva esto a un nivel industrial. Lo que hacen es crear pruebas automatizadas que bombardean a la IA con miles de ataques posibles para ver si cede.
Es como si, antes de sacar un coche a la calle, lo estrellaras mil veces contra un muro desde todos los ángulos posibles para asegurarte de que el airbag siempre salte. Eso es lo que OpenAI quiere integrar en sus sistemas ahora mismo. Quieren que sus agentes de IA sean capaces de detectar cuando alguien intenta colarles un gol.
Lo curioso de Promptfoo es que ya lo usan muchísimas empresas grandes, de esas que salen en las noticias financieras. Esto significa que OpenAI no solo compra tecnología, sino que compra la confianza de los que mueven el dinero. Si las empresas se fían de Promptfoo, se fiarán de que los agentes de OpenAI son seguros.
¿En qué te afecta esto a ti hoy mismo?
Puede que pienses: “Yo solo uso la IA para redactar correos, a mí qué más me da”. Pero la realidad es otra. Hoy, 9 de marzo de 2026, la IA ya está metida en los procesos de selección de personal, en la gestión de citas médicas y en la seguridad de nuestras aplicaciones bancarias.
Si la IA de tu banco tiene un fallo de seguridad, alguien podría convencerla de que transfiera fondos mediante un ataque de “inyección de prompts”. Básicamente, es convencer a la máquina de que ignore sus reglas de seguridad. La adquisición de Promptfoo busca que esto sea casi imposible. Significa que tus datos estarán un poco más a salvo de manipulaciones externas.
Además, OpenAI ha prometido mantener las herramientas de código abierto de Promptfoo. Esto es un detalle importante para la transparencia. Permite que otros desarrolladores sigan vigilando cómo se evalúa la seguridad, en lugar de que todo ocurra detrás de una cortina cerrada en las oficinas de San Francisco.
Los riesgos que todavía nos quitan el sueño
No nos engañemos. Ningún sistema es 100% seguro. Comprar una empresa de seguridad es un gran paso, pero la IA cambia cada día. Lo que hoy es seguro, mañana puede dejar de serlo. El mayor riesgo es la complacencia: pensar que porque OpenAI ha comprado a los expertos, ya podemos bajar la guardia.
Otro punto que me hace reflexionar es el control. Al integrar estas herramientas tan profundamente en OpenAI Frontier, la compañía tiene aún más poder sobre qué se considera “seguro” y qué no. ¿Quién vigila al vigilante? Si la herramienta de seguridad decide que un uso legítimo de la IA es “arriesgado”, podrías encontrarte con bloqueos injustificados.
También está el tema de la privacidad. Para que Promptfoo analice si un agente es seguro, tiene que observar cómo interactúa ese agente. Esto implica procesar flujos de datos inmensos. OpenAI asegura que esto protegerá la información sensible, pero siempre hay que mirar con lupa cómo se gestionan esos registros de actividad.
¿Cómo podemos protegernos nosotros?
Aunque las grandes empresas se gasten millones en seguridad, tú también tienes que poner de tu parte. Aquí te dejo unos puntos clave para aplicar desde ya:
- No compartas secretos: Por muy segura que digan que es la IA, nunca le des contraseñas, códigos de acceso o secretos industriales a un agente si no es estrictamente necesario.
- Desconfía de los resultados perfectos: Si un agente de IA te da una respuesta que parece demasiado buena para ser cierta, verifica la fuente. Podría haber sido manipulado.
- Usa la verificación en dos pasos: Siempre que una IA tenga permiso para realizar acciones (como comprar algo o enviar dinero), asegúrate de que necesite una confirmación manual de tu parte en tu móvil.
- Mantente informado: Los ataques de IA evolucionan. Lo que leíste hace seis meses ya es historia antigua.
En conclusión, la compra de Promptfoo por parte de OpenAI es una buena noticia para la estabilidad del ecosistema, pero no es una solución mágica. Es el comienzo de una carrera armamentística entre quienes crean IA y quienes intentan corromperla. Como siempre digo en nuestra sección de IA, la mejor herramienta de seguridad siempre será tu propio sentido común.
“La seguridad en la IA no es un candado que se pone una vez, sino una patrulla que nunca deja de vigilar.”



