WeTransfer en el punto de mira: tus archivos podían entrenar su IA

WeTransfer ha provocado una ola de críticas tras modificar su política de privacidad para incluir una cláusula que permitía usar los archivos de los usuarios para entrenar modelos de inteligencia artificial.

Aunque la empresa ha dado marcha atrás en la redacción más explícita, el incidente vuelve a poner sobre la mesa un debate urgente: ¿qué control tenemos sobre nuestros datos cuando usamos servicios gratuitos?

📃 Qué decía (y sigue diciendo) la cláusula

El apartado 6.3 de sus Términos y Condiciones, actualizado el 15 de julio de 2025, incluía inicialmente una licencia perpetua, mundial y sin royalties sobre los archivos que sube el usuario (textos, imágenes, vídeos), para “mejorar el rendimiento de los modelos de aprendizaje automático”.

Tras la polémica, WeTransfer eliminó esas referencias explícitas, pero mantiene una licencia muy amplia, que ahora permite usar los archivos “en la medida necesaria para operar, mejorar y desarrollar nuestros servicios, incluyendo el uso de tecnologías automatizadas como la moderación de contenido”.

Aunque prometen que no usarán los archivos para entrenar IA ni los compartirán con terceros, la redacción sigue dejando la puerta abierta a usos automatizados ambiguos.

🔧 La reacción (rápida) de WeTransfer

WeTransfer publicó una actualización para aclarar su postura: la IA se emplea exclusivamente para tareas de moderación automática (como filtrar spam o detectar malware), no para entrenar modelos de lenguaje ni para explotación comercial.

Aun así, la confianza de la comunidad creativa ya se ha visto afectada.

🚫 Lo que está en juego

  • Confianza de los usuarios: plataformas como WeTransfer viven de la simplicidad y fiabilidad. Cualquier sombra de duda erosiona su reputación.
  • Creatividad y propiedad intelectual: ilustradores, músicos y diseñadores podrían migrar a servicios alternativos si sienten que pierden control.
  • Normalización de licencias abusivas: este caso podría sentar precedente si no se le exige transparencia y reversión real.

🔎 Una tendencia en alza

No es el primer caso: Dropbox enfrentó una situación similar en 2023, y muchas plataformas ajustan sus condiciones para permitir el uso de datos en sistemas de IA sin avisar claramente a los usuarios.

Cada vez más servicios digitales insertan cláusulas ambiguas que otorgan derechos de uso masivo sobre el contenido del usuario bajo el pretexto de “mejorar el servicio”.

En resumen:

  • WeTransfer intentó introducir una cláusula que habilitaba el uso de tus archivos para IA.
  • La comunidad reaccionó y la plataforma suavizó el lenguaje, pero la cláusula sigue presente.
  • La vigilancia activa de los usuarios y medios vuelve a demostrar su importancia.

Foto del avatar
Redacción Sombra Radio

Artículos creados por el equipo editorial de Sombra Radio, con la colaboración de herramientas de inteligencia artificial. Supervisado y editado por Sandra Tormo Britapaja, fundadora del medio. En Sombra Radio exploramos la intersección entre tecnología, inteligencia artificial y cultura contemporánea con mirada crítica e independiente.

Artículos: 441

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *