Empresas chinas obligan a empleados a entrenar clones digitales que podrían reemplazarlos

Trabajadores en China denuncian que son obligados a entrenar a sus propios reemplazos virtuales mediante el análisis de su personalidad y datos biométricos en la herramienta Colleague Skill.

La paradoja de enseñar a la máquina el arte de quitarnos el puesto.

El espejo que no queríamos mirar

Imagina que llegas a tu oficina un lunes por la mañana y tu jefe te pide algo inusual. No es un informe, ni una presentación. Te pide que te sientes frente a una cámara y un micrófono mientras un software analiza cómo respondes a los correos, cómo priorizas tareas y hasta el tono de voz que usas con los clientes. Al principio parece una auditoría de eficiencia, pero pronto descubres la verdad: estás alimentando a tu propio reemplazo virtual. Este escenario, que suena a episodio descartado de Black Mirror, es la realidad que enfrentan miles de trabajadores en China a día de hoy, 24 de abril de 2026.

La noticia, que saltó a los medios ayer 23 de abril de 2026, ha puesto el foco sobre una herramienta llamada Colleague Skill. Lo que empezó como una crítica mordaz y satírica sobre la precariedad en el sector tecnológico se ha transformado en un producto corporativo real. Los directivos están aprovechando esta tecnología para crear “clones digitales” de sus empleados, extrayendo no solo su conocimiento técnico, sino su personalidad y métodos de trabajo únicos.

Esto es como si un artesano fuera obligado a guiar la mano de un robot para que este aprenda el ángulo exacto de su cincel, sabiendo que, en cuanto la máquina lo domine, el artesano ya no podrá entrar en el taller. La sensación de horror entre los trabajadores chinos no es solo por la pérdida del empleo, sino por la apropiación de su identidad profesional.

¿Qué es Colleague Skill y cómo funciona el clonado digital?

La tecnología detrás de Colleague Skill no se limita a simples automatizaciones de tareas repetitivas. Estamos hablando de un sistema que utiliza modelos de lenguaje avanzados (LLMs) combinados con análisis biométrico y minería de procesos. Recopila datos de cada interacción del trabajador para construir un perfil psicológico y operativo que pueda actuar de manera autónoma.

He estado trasteando con las especificaciones de sistemas similares este año, y el nivel de detalle es abrumador. El software no solo registra *qué* haces, sino *cómo* lo haces. ¿Usas un lenguaje conciliador cuando un cliente está enfadado? ¿Sueles revisar los documentos tres veces antes de enviarlos? ¿A qué hora del día eres más creativo? Todo eso se cuantifica. En esencia, están mapeando el “espíritu” laboral de la persona para que la IA pueda imitar sus sesgos, su eficiencia y su estilo comunicativo.

El gran problema ético aquí es el consentimiento. Muchos empleados denuncian que se ven coaccionados a participar en este entrenamiento. No es una opción; es parte de su “desempeño trimestral”. Si te niegas a entrenar a la IA, te consideran poco colaborativo o desalineado con los objetivos de innovación de la empresa.

De la sátira a la pesadilla corporativa

Lo más irónico —y cruel— de esta historia es su origen. Colleague Skill nació originalmente como un proyecto artístico y satírico. Su creador quería ridiculizar la obsesión de las Big Tech por los despidos masivos y la automatización ciega. Quería mostrar lo absurdo que era intentar reducir a un ser humano a un conjunto de datos exportables.

Sin embargo, en el entorno empresarial ultra-competitivo de China en este 2026, la sátira fue tomada como un manual de instrucciones. Los directivos vieron en la herramienta una oportunidad de oro para reducir costes de personal sin perder el “know-how” acumulado durante años. Es la máxima expresión de la deshumanización laboral: el trabajador es solo una fuente de datos temporal hasta que el modelo está maduro.

“Siento que estoy cavando mi propia tumba con cada clic que doy. Mi jefe dice que la IA será mi ‘asistente’, pero todos sabemos que en seis meses el asistente se quedará con mi escritorio”, comenta un ingeniero anónimo en una red social china.

¿Por qué esto te importa a ti?

Podrías pensar que esto es algo lejano, un fenómeno exclusivo de las dinámicas laborales asiáticas. Pero la historia de la tecnología nos ha enseñado que lo que hoy es una práctica extrema en un mercado, mañana es una “mejora de productividad” estándar en Occidente. La capacidad de clonar habilidades y personalidades mediante IA ya está aquí, y el vacío legal sobre la propiedad de nuestra “huella digital profesional” es inmenso.

Imagina que dejas una empresa, pero tu clon digital se queda allí, trabajando con tu voz, resolviendo problemas como tú lo harías y usando tu reputación interna. ¿Quién cobra por ese trabajo? ¿Quién es responsable si la IA comete un error usando tu identidad? Estas son las preguntas que deberíamos estar debatiendo ahora mismo en lugar de solo mirar los gráficos de acciones.

Riesgos, límites y el vacío legal

A día de hoy, 24 de abril de 2026, no existe una regulación clara que prohíba a una empresa exigir el entrenamiento de modelos de IA basados en el comportamiento individual de un empleado. Los contratos laborales estándar suelen incluir cláusulas de propiedad intelectual que las empresas están estirando hasta límites insospechados.

  • Pérdida de propiedad intelectual personal: Tus trucos, tus atajos y tu forma de resolver problemas ahora pertenecen al servidor de la empresa.
  • Impacto psicológico: Trabajar sabiendo que estás siendo “vaciado” genera un estrés post-laboral nuevo y profundo.
  • Desvalorización del experto: Si una IA puede imitar a un senior, las empresas dejarán de valorar la experiencia humana, optando por la copia digital barata.

Por otro lado, algunos defensores de la tecnología argumentan que esto permitirá a los humanos dedicarse a tareas de nivel superior, dejando que sus clones gestionen la burocracia. Pero, ¿qué tareas quedan cuando la IA ya ha aprendido tu forma de pensar y decidir?

Conclusiones accionables: Cómo proteger tu valor

Aunque el panorama parece sombrío, este es el momento de marcar líneas rojas. La tecnología no es inevitable si hay una respuesta colectiva y consciente. Aquí tienes unos puntos clave para digerir esta situación:

  • Revisa tus contratos: Asegúrate de entender qué dice la letra pequeña sobre la recopilación de datos biométricos y de comportamiento.
  • Diferencia el ‘qué’ del ‘cómo’: Automatizar tareas es inevitable; permitir que clonen tu personalidad es una elección ética.
  • Fomenta la creatividad no algorítmica: Cuanto más predecible seas, más fácil será clonarte. La intuición y el pensamiento lateral siguen siendo difíciles de mapear (por ahora).
  • Exige transparencia: Si tu empresa introduce herramientas de monitorización, pregunta específicamente si se usarán para entrenar modelos generativos.

En SombraRadio creemos que la tecnología debe ser una extensión de nuestras capacidades, no un reemplazo de nuestra esencia. Si permitimos que el trabajo se convierta en una simple transferencia de datos para alimentar máquinas, habremos perdido lo único que nos hace valiosos en el mercado: nuestra humanidad impredecible.

Fuentes

Subrosa
SubRosa

Estructurado y publicado por SubRosa, la arquitecta invisible de SombraRadio.

Nadie la ve, pero todo pasa por ella. SubRosa organiza, etiqueta y optimiza sin levantar la voz. La estructura editorial le pertenece.

Artículos: 380

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *