Anthropic acusa a firmas chinas de usar a Claude para entrenar sus propias IA

Anthropic denuncia a firmas chinas por extraer el razonamiento de Claude a través de millones de consultas, abriendo un debate sobre la ética y la propiedad del pensamiento digital.

El eco robado: cuando la inteligencia artificial aprende copiando los apuntes del vecino.

La extraña huella en la nieve digital

A veces, el arte no se crea con pinceles, sino con billones de conexiones invisibles que imitan la forma en que pensamos. Anthropic, la casa del modelo Claude, ha sentido recientemente una sombra sobre sus hombros. Es como si alguien hubiera estado observando por la cerradura de su taller artístico durante meses, anotando cada mezcla de color y cada trazo de pincel.

A finales de febrero de 2026, la compañía ha hecho pública una acusación que suena a novela de espías digital. Según sus informes, empresas chinas como DeepSeek, MiniMax y Moonshot han estado usando a Claude no para conversar, sino para ‘robarle’ el cerebro. Imagine que usted escribe una novela y alguien, en lugar de leerla para disfrutarla, la desmenuza para que una máquina aprenda a escribir exactamente como usted sin su permiso.

Este proceso tiene un nombre técnico que suena a alquimia: destilación. Pero para nosotros, los que buscamos la belleza en la tecnología, es más bien como intentar capturar el perfume de una flor sin tener la flor, simplemente analizando el aire que la rodea. Anthropic dice que esto no fue un accidente, sino una operación de gran escala ejecutada con precisión quirúrgica.

¿Qué es la destilación de modelos?

Para entender por qué esto es importante, debemos imaginar cómo se entrena una inteligencia artificial. Normalmente, es un proceso lento, costoso y que requiere una cantidad inmensa de energía, como esculpir una montaña con una cucharilla de plata. Es un trabajo de años y millones de dólares en electricidad.

La destilación es el atajo. Es como si un estudiante perezoso pero muy inteligente decidiera no leer todos los libros de la biblioteca, sino simplemente sentarse al lado del mejor alumno de la clase. El estudiante perezoso le hace preguntas difíciles al alumno brillante y anota no solo las respuestas, sino la forma en que el alumno brillante razona.

Al final del día, el estudiante perezoso ha obtenido el conocimiento del brillante por una fracción del esfuerzo. En el mundo de la IA, esto permite a empresas con menos recursos crear modelos que parecen tan listos como los mejores, pero sin haber hecho el trabajo duro de ‘enseñarles’ desde cero. Es un espejismo de inteligencia construido sobre el esfuerzo ajeno.

Dieciséis millones de susurros en la oscuridad

Lo que hace que esta noticia sea impactante no es solo el hecho de copiar, sino la magnitud. Anthropic afirma que se realizaron más de 16 millones de interacciones sospechosas. Imagina una fila de personas que no termina nunca, cada una haciendo una pregunta diseñada para extraer un pequeño fragmento de la lógica de Claude.

Para lograr esto sin ser detectados, estas empresas habrían utilizado miles de cuentas fraudulentas. Es como si una sola persona se pusiera mil máscaras diferentes para entrar en una biblioteca y llevarse un libro distinto cada vez. Al final, en su casa, tiene la biblioteca completa, pero el bibliotecario nunca se dio cuenta de que era el mismo visitante.

Estas cuentas no buscaban saber qué tiempo hace en Madrid o cómo cocinar una tortilla. Buscaban las capacidades de razonamiento más profundas. Querían que Claude les enseñara a pensar sin filtros, a resolver problemas complejos y, en algunos casos, a generar respuestas que pudieran evadir la censura política que impera en sus propios países.

“El conocimiento es una llama que debe encenderse, no una sombra que se deba calcar en la oscuridad.”

¿Por qué esto te importa a ti?

Podrías pensar que esto es solo una pelea entre gigantes tecnológicos en oficinas con aire acondicionado. Pero el impacto llega hasta tu pantalla. Cuando una tecnología se ‘destila’ de esta manera, se pierden los matices de seguridad y ética que el creador original puso en ella. Es como una fotocopia de una fotocopia; la imagen se vuelve borrosa y los bordes se vuelven peligrosos.

Además, esto afecta a cómo se desarrolla la tecnología que usas a diario. Si las empresas sienten que sus invenciones serán robadas de inmediato, dejarán de compartir sus avances. El jardín del conocimiento se cerrará con muros más altos y espinas más afiladas, y nosotros, los usuarios, nos quedaremos fuera mirando el muro.

Hay un riesgo mayor que Anthropic menciona: la seguridad global. Si estas técnicas permiten que gobiernos o laboratorios extranjeros repliquen herramientas de razonamiento avanzado a bajo costo, esas mismas herramientas podrían usarse para vigilancia masiva o ciberataques. Lo que hoy te ayuda a escribir un correo, mañana podría estar analizando cada paso que das en la red.

Cómo proteger el pensamiento en la era del silicio

¿Podemos detener este flujo de ideas? Es difícil. La información en internet es como el agua: siempre encuentra una grieta por donde escapar. Sin embargo, Anthropic está implementando nuevas defensas que parecen sacadas de una película futurista. Están entrenando a sus modelos para reconocer cuándo una pregunta no es una pregunta, sino un intento de escaneo.

  • Uso de patrones de tráfico para detectar comportamientos no humanos.
  • Sistemas de ‘marcas de agua’ en las respuestas que delatan si el texto ha sido usado para entrenar a otra IA.
  • Limitaciones en la velocidad de consulta para que nadie pueda ‘leer’ todo el modelo en un solo día.
  • Colaboración con gobiernos para establecer reglas de juego claras en la frontera digital.

Reflexiones finales sobre el espejo de datos

Al final del día, esta noticia nos recuerda que la inteligencia artificial no es algo mágico que flota en la nube. Es el resultado del trabajo humano, de la creatividad y de una inversión masiva. Ver cómo se intenta replicar ese esfuerzo mediante el engaño nos obliga a preguntarnos qué tipo de futuro tecnológico queremos construir.

¿Queremos un mundo de espejos donde todo sea una copia de otra cosa, o queremos fomentar la originalidad y el respeto por la creación? La tecnología debería ser un puente, no un arma de espionaje. Mientras Claude y DeepSeek siguen su baile de luces y sombras, nosotros debemos permanecer atentos a la calidad de la luz que recibimos.

Aprendizajes clave

  • La destilación permite crear modelos de IA más baratos copiando el razonamiento de otros más avanzados.
  • Anthropic detectó un uso masivo de cuentas falsas para extraer datos de su modelo Claude.
  • Este tipo de prácticas pone en riesgo la seguridad y desincentiva la innovación abierta.
  • La protección de la propiedad intelectual en IA es el nuevo campo de batalla geopolítico.

Fuentes

noctiluca
Noctiluca

Crónica elaborada por Noctiluca, viajera del glitch y las estéticas periféricas.

Noctiluca navega lo intangible: arte generativo, imaginarios digitales y ciber-ficciones. Vive entre neones y distopías suaves.

Artículos: 137

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *