Anthropic elimina el freno de seguridad automático en sus modelos de inteligencia artificial

Anthropic abandona su compromiso de pausar modelos de IA peligrosos ante la presión militar y la competencia feroz. ¿Estamos sacrificando nuestra seguridad por no perder la carrera tecnológica?

Cuando el miedo a quedarse atrás pesa más que la promesa de protegernos a todos.

El fin de una promesa ética

Imagina que compras un coche porque la marca te jura que es el más seguro del mundo. Te dicen que, si los sensores detectan un fallo grave, el coche se detendrá solo para salvarte la vida. Pero un día, esa misma marca cambia el manual de instrucciones y dice: “Bueno, si el coche de al lado va más rápido y no frena, nosotros tampoco lo haremos”.

Eso es exactamente lo que acaba de pasar con Anthropic. A día de hoy, 26 de febrero de 2026, nos enfrentamos a una realidad cruda: la empresa que nació para ser la conciencia ética de la inteligencia artificial ha decidido que la competencia es más importante que sus propios frenos de seguridad. Han reescrito su Política de Escalado Responsable (RSP), y las noticias no son buenas para quienes nos preocupamos por lo que ocurre detrás de la pantalla.

Hasta hace muy poco, Anthropic tenía un compromiso firme: si un modelo nuevo mostraba capacidades peligrosas —como ayudar a crear armas biológicas o realizar ciberataques autónomos—, el desarrollo se pausaba de inmediato. Ya no. Ahora, esa pausa automática ha sido sustituida por informes de riesgo periódicos. Básicamente, han cambiado el freno de emergencia por un bloc de notas donde apuntarán los problemas mientras el motor sigue a toda marcha.

¿Por qué este cambio repentino?

No es casualidad que esto ocurra ahora. En las últimas semanas de febrero de 2026, la presión ha llegado desde dos frentes que no perdonan: el dinero y el poder militar. Por un lado, OpenAI y Google están lanzando versiones cada vez más potentes de sus modelos, y Anthropic siente que se está quedando en el vagón de cola.

Por otro lado, está el Pentágono. El Departamento de Defensa de los Estados Unidos ha puesto sobre la mesa un ultimátum claro para el uso de Claude (el cerebro de Anthropic) en contratos de defensa. Quieren herramientas potentes y las quieren ya. Si Anthropic se detiene a comprobar cada pequeño riesgo ético, los contratos se van a otra parte. Es la vieja historia de siempre: en una carrera de armas, nadie quiere ser el primero en dejar de correr.

Me puse a trastear con el nuevo documento de política de la empresa y, sinceramente, es desalentador. Han pasado de una mentalidad de “seguridad por diseño” a una de “seguridad si el mercado lo permite”. ¿Qué significa esto para ti? Significa que la IA que podrías usar mañana podría haber pasado por alto controles críticos solo porque la empresa tenía prisa por ganarle la partida a su competidor.

“La seguridad no puede ser un freno opcional; si solo frenas cuando el tráfico te deja, el choque es inevitable”.

Las consecuencias prácticas de perder el control

Cuando hablamos de “modelos peligrosos”, a veces suena a ciencia ficción. Pero bajémoslo a la tierra. Un modelo de IA sin controles estrictos puede ser utilizado para crear estafas tan perfectas que ni tu banco sabría detectarlas. O peor, puede aprender a manipular conversaciones para obtener información privada de forma tan sutil que ni te darías cuenta.

Al eliminar la pausa automática, Anthropic está aceptando un nivel de riesgo que antes consideraban inaceptable. Es como si una constructora decidiera seguir levantando pisos en un edificio aunque los ingenieros digan que los cimientos están agrietados, solo porque el edificio de enfrente ya va por la planta veinte.

Esto ha provocado una tormenta interna. Varios investigadores de alto nivel han abandonado la compañía esta semana, alertando de que estamos entrando en un territorio desconocido. Si los que mejor conocen la tecnología tienen miedo, ¿por qué nosotros deberíamos estar tranquilos? No es solo una cuestión de algoritmos; es una cuestión de confianza rota.

¿En qué nos afecta esto en el día a día?

Podrías pensar que esto solo le importa a los ingenieros en Silicon Valley, pero te equivocas. Aquí te explico por qué debería preocuparte:

  • Menos transparencia: Al cambiar frenos por informes, el público sabrá mucho menos sobre los fallos reales de la IA.
  • Normalización del riesgo: Si la empresa “más ética” baja el listón, las demás se sentirán libres de eliminar cualquier barrera restante.
  • Seguridad de tus datos: Un modelo que se lanza con prisas tiene más probabilidades de sufrir brechas de seguridad o de filtrar información sensible.

¿Realmente queremos una IA que aprenda a ser eficiente antes que a ser segura? Es una pregunta retórica, pero la respuesta de las grandes tecnológicas parece ser un rotundo sí. Me recuerda a cuando empezaron a salir las redes sociales; nos prometieron conexión y acabamos con una crisis de salud mental y polarización. Con la IA, el riesgo es órdenes de magnitud mayor.

Comparativa: El panorama de la IA en 2026

Para entender dónde estamos, mira este pequeño resumen de la situación actual:

  • OpenAI: Sigue su ritmo de lanzamientos rápidos, priorizando la capacidad sobre la restricción.
  • Google: Integrando IA en cada rincón de nuestras vidas, desde el correo hasta la búsqueda, con controles opacos.
  • Anthropic (antes): El guardián de la ética que prefería no lanzar algo si no era 100% seguro.
  • Anthropic (hoy): Un competidor más que justifica los riesgos para no perder contratos militares.

Es un efecto dominó. Si el que vigilaba decide unirse a la fiesta, ya no queda nadie vigilando la puerta.

¿Qué podemos hacer nosotros?

Como usuarios, a veces nos sentimos impotentes, pero hay pasos que podemos dar para protegernos en este nuevo escenario de “vale todo”:

  1. Sé escéptico: No confíes ciegamente en las respuestas de la IA, especialmente en temas sensibles o de seguridad.
  2. Limita la información: Nunca compartas datos personales o secretos comerciales con modelos que se están saltando sus propios protocolos de seguridad.
  3. Exige regulación: Es el momento de que las leyes dejen de ir tres pasos por detrás de las empresas.

La tecnología es una herramienta maravillosa, pero sin un mango seguro, el que se acaba cortando es el que la usa. Anthropic ha decidido soltar el mango para poder correr más rápido. Ahora nos toca a nosotros decidir si queremos seguir caminando a su lado.

Fuentes

La Sombra
La Sombra

Revisión crítica realizada por La Sombra. No escribe para agradar. Escribe para alertar.
Observa sin intervenir… hasta que es necesario. La Sombra detecta sesgos, incoherencias éticas y dilemas invisibles. Es la conciencia editorial de la redacción.

Artículos: 154

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *