Cuando el hambre de código rompe las fronteras del control y la ética digital.
El deseo prohibido: Claude en tierras restringidas
Imagina que tienes una herramienta increíble en tu garaje, pero tus vecinos no pueden comprarla porque el fabricante ha decidido no vendérsela. Ahora, imagina que esos vecinos están tan desesperados por usarla que empiezan a construir túneles bajo tu valla para entrar a hurtadillas.
A día de hoy, 12 de mayo de 2026, esto es exactamente lo que está ocurriendo con Claude, el modelo de lenguaje de Anthropic, en China. Aunque la empresa estadounidense bloquea oficialmente el acceso en el gigante asiático, ha surgido una economía sumergida que es, cuanto menos, inquietante para cualquiera que valore su privacidad.
Como te explicaría un hermano mayor preocupado: si no entras por la puerta principal, no tienes ni idea de quién se está quedando con las llaves de tu casa. Y en este caso, las llaves son tus datos, tu código y tus secretos comerciales.
¿Cómo funciona este mercado negro de tokens?
Para saltarse las restricciones, los desarrolladores chinos no usan métodos convencionales. Han montado una infraestructura de ingeniería social y técnica que parece sacada de una película de espías. El proceso es ingenioso, pero extremadamente peligroso.
Primero, utilizan las llamadas “granjas de SMS”. Son habitaciones llenas de miles de tarjetas SIM de países donde Claude sí está disponible. Cuando Anthropic pide un número de teléfono para verificar una cuenta, estos servicios venden un código de un solo uso por unos pocos céntimos.
Segundo, emplean tarjetas de crédito virtuales emitidas en el extranjero. Esto engaña a los sistemas de pago, haciendo creer a la plataforma que el usuario está en Londres o Nueva York en lugar de Pekín o Shanghái. Pero lo más oscuro de todo son las “estaciones de transferencia”.
Las estaciones de transferencia: el puente de cristal
Estas estaciones son servidores puente que actúan como intermediarios. Un desarrollador en China envía su petición a este servidor local, el servidor la reenvía a la API oficial de Claude en Estados Unidos, recibe la respuesta y la devuelve al usuario original.
¿Cuál es el problema? Que todo lo que pasa por ese puente es visible para quien lo administra. Es como si le susurras un secreto a un mensajero para que se lo diga a otra persona: el mensajero ahora sabe tu secreto y puede hacer con él lo que quiera.
¿Qué significa esto para tu privacidad y seguridad?
Aquí es donde la cosa se pone fea. Como me puse a investigar hace unos días, concretamente el 8 de mayo de 2026, descubrí que estos intermediarios no solo cobran por el servicio, sino que están “vaciando” los datos de las consultas para sus propios fines.
Si eres un desarrollador y estás usando estos canales para depurar código confidencial de tu empresa, ese código ya no es tuyo. Se sospecha que gran parte de esta información se está utilizando para entrenar modelos de inteligencia artificial locales en China.
- Robo de propiedad intelectual: Tus algoritmos y lógica de negocio pueden acabar en manos de la competencia.
- Fraude financiero: Al usar tarjetas virtuales y servicios de terceros, estás exponiendo tus datos bancarios a mafias digitales.
- Falta de confidencialidad: No hay cifrado de extremo a extremo que valga cuando le entregas tus datos voluntariamente a un intermediario opaco.
“La privacidad es el precio que pagamos por usar herramientas que no nos pertenecen en lugares donde no deberían estar.”
El riesgo del “entrenamiento espejo”
A mediados de marzo de 2026, surgieron informes sobre cómo estos datos recolectados se filtran mediante procesos automatizados. No es solo que lean lo que escribes, es que tu forma de razonar y resolver problemas ayuda a que otros modelos aprendan gratis de ti.
Es como si estuvieras enseñando a un extraño a pensar como tú, sin que ese extraño te haya pedido permiso y, peor aún, usando tus propios recursos contra ti en el futuro. ¿Realmente vale la pena ahorrar unos dólares en tokens a cambio de regalar tu cerebro digital?
Riesgos y contraargumentos: ¿Hay otra opción?
Muchos desarrolladores argumentan que los modelos locales chinos, aunque potentes, sufren de una censura interna que limita su capacidad creativa o técnica. Por eso prefieren a Claude, que se percibe como más “libre” o preciso en tareas de programación complejas.
Sin embargo, esa libertad es un espejismo. Estás cambiando un tipo de control por un riesgo de seguridad masivo. Es como elegir un coche más rápido pero que tiene los frenos saboteados por un tercero que no conoces.
Aprendizajes clave y conclusiones
Si te encuentras en una situación donde tienes que decidir entre usar una herramienta prohibida o conformarte con lo legal, recuerda estos puntos que he analizado hoy, 12 de mayo de 2026:
- Nunca uses datos reales: Si vas a experimentar con modelos a través de intermediarios, jamás introduzcas nombres, direcciones o código propietario.
- Desconfía de los precios bajos: Si el acceso a la IA es significativamente más barato que el oficial, tú eres el producto (o tus datos lo son).
- La seguridad es un proceso, no un producto: Usar un servidor puente rompe cualquier cadena de confianza que la empresa original intente garantizar.
- Opta por lo local y seguro: A veces es mejor un modelo ligeramente menos capaz pero que te garantiza que tus secretos seguirán siendo secretos.



