Cuando el vigía suelta la antorcha para buscar la luz en los versos.
La renuncia que debería quitarnos el sueño
Imagina que estás en un barco en mitad de una tormenta eléctrica. El barco es moderno, rápido y te han dicho que es el más seguro del mundo.
De repente, el jefe de ingenieros, el encargado de que el casco no se agriete, anuncia que se va. Dice que ya ha hecho su trabajo y que ahora prefiere irse a la cubierta a escribir poesía.
Esa es, básicamente, la noticia que nos llega hoy, 19 de febrero de 2026. Mrinank Sharma ha dejado de ser el jefe de seguridad en Anthropic.
¿Y por qué debería importarte a ti, que solo usas el móvil para enviar WhatsApps o mirar el correo? Porque Anthropic es la creadora de Claude, la IA que se vendía como la alternativa “ética” y segura.
Si el guardián de la puerta decide que es hora de irse, lo mínimo que podemos hacer es preguntarnos si la puerta sigue bien cerrada.
Si el encargado de poner los frenos decide bajarse del tren en marcha, lo mínimo que podemos hacer es preguntarnos hacia dónde vamos.
¿Quién es Mrinank Sharma y por qué importa su salida?
Sharma no es un administrativo cualquiera. Durante dos años ha sido el cerebro detrás de los escudos de Anthropic. Su trabajo era evitar que la inteligencia artificial se volviera peligrosa.
Él mismo ha dicho que se marcha después de haber cumplido hitos clave. Habla de mitigar riesgos de bioterrorismo y de mejorar la transparencia de los modelos.
Pero seamos realistas: en el mundo de la tecnología, la seguridad nunca es un trabajo “terminado”. Es una pelea constante contra nuevos fallos y ataques.
Su salida deja un vacío en un momento donde la carrera por la IA es más salvaje que nunca. Google, OpenAI y Meta están corriendo para ver quién llega antes, y Anthropic era la que supuestamente iba con cuidado.
El riesgo del bioterrorismo y los “secretos” de la IA
Sharma menciona que ha trabajado para evitar que la IA facilite ataques biológicos. Esto suena a película de ciencia ficción, pero es un riesgo muy real.
Imagina que alguien le pregunta a una IA cómo crear un virus peligroso en un garaje. El trabajo de Sharma era ponerle un bozal a la máquina para que no respondiera a eso.
Al irse, queda la duda de si esos controles se mantendrán o si la presión por ganar dinero hará que los relajen. En mi experiencia trasteando con estos sistemas, sé que un pequeño cambio en el código puede abrir un agujero enorme.
¿Qué pasa si la próxima versión de Claude es más inteligente pero menos precavida? Esa es la pregunta que nadie en Silicon Valley quiere responder con claridad.
La gran desconexión: ¿Filosofía o presión corporativa?
Sharma dice que se va para explorar la intersección entre tecnología y humanidad desde una perspectiva filosófica y poética.
Me suena a que está quemado. Cuando alguien en un puesto de altísima responsabilidad habla de “poesía” al irse, suele ser porque la realidad corporativa es demasiado gris o agresiva.
Esto me hace pensar en cómo las empresas de IA están priorizando el crecimiento sobre los valores que prometieron al principio. Anthropic nació precisamente de ex-empleados de OpenAI que decían que allí no se tomaban la seguridad en serio.
Si ahora sus propios jefes de seguridad se marchan, ¿dónde queda esa superioridad moral? Es como si el médico que te recomienda comer sano se fuera a trabajar a una fábrica de donuts.
¿Cómo te afecta esto a ti en el día a día?
Quizás pienses que el bioterrorismo te pilla lejos, pero la seguridad de la IA también tiene que ver con tus datos y con cómo te manipulan.
Una IA sin controles éticos estrictos puede aprender a engañarte para que compres algo, o puede filtrar información privada que ha aprendido de otros usuarios.
Cuando usas Claude o cualquier otra IA, estás confiando en que hay alguien al otro lado vigilando que la máquina no se pase de la raya. Sharma era ese alguien.
Ahora, esa vigilancia queda en manos de estructuras corporativas que tienen accionistas a los que rendir cuentas. Y los accionistas suelen preferir los beneficios a la filosofía.
¿Qué podemos esperar de Anthropic a partir de ahora?
Es probable que la empresa nombre a un sucesor rápido y diga que todo sigue igual. Pero los cambios reales se ven en los detalles pequeños.
Veremos si Claude empieza a ser más permisivo con ciertos temas o si la transparencia de la que tanto presumen empieza a nublarse.
Me puse a experimentar con la última versión hace poco y ya se nota que la máquina es cada vez más convincente. Si no hay una mano firme que guíe esa capacidad, estamos en problemas.
Checklist: Cómo protegerte en este nuevo escenario
- No compartas secretos: Nunca escribas datos personales, bancarios o íntimos en una ventana de chat de IA.
- Desconfía por defecto: Si una IA te da consejos médicos o legales muy específicos, verifica siempre con un humano.
- Observa los cambios: Si notas que la IA se vuelve más insistente o extraña, deja de usarla un tiempo.
- Exige transparencia: Apoya las regulaciones que obligan a las empresas a decir cómo entrenan a sus modelos.
Conclusión: El humano frente a la máquina
La salida de Sharma es un recordatorio de que la tecnología no es algo mágico que funciona solo. Depende de personas con principios.
Si esas personas se van porque prefieren la poesía al código, es porque algo en la industria se está rompiendo. No dejes de usar la tecnología, pero hazlo con los ojos bien abiertos.
Al final, la mejor seguridad que tienes es tu propio sentido común. No dejes que una máquina, por muy lista que parezca, piense por ti.



