Cuando el eco de internet devuelve secretos que creíamos enterrados bajo el algoritmo.
El vecino cotilla que nunca olvida nada
Imagina que tienes un vecino que ha pasado los últimos veinte años asomado a la ventana, escuchando cada conversación, anotando cada matrícula y guardando cada folleto que cae en tu buzón. Ahora, imagina que ese vecino tiene una memoria perfecta y que cualquier persona de la ciudad puede ir a preguntarle: ‘Oye, ¿sabes dónde vive esa persona que vendía un sofá en 2014?’.
Eso es, en esencia, lo que está ocurriendo hoy, 16 de mayo de 2026, con los modelos de lenguaje como Gemini de Google y ChatGPT de OpenAI. No es que hayan sido ‘hackeados’ en el sentido tradicional. Es que son demasiado buenos recordando cosas que nunca deberían haber aprendido.
Desde hace unos meses, usuarios de todo el mundo están reportando que, al hacer consultas mundanas, la IA responde con fragmentos de información privada: números de teléfono personales, direcciones de casas que ya no están en venta e incluso correos electrónicos privados. ¿Qué significa esto para ti? Que tu privacidad ya no depende solo de lo que publiques hoy, sino de lo que internet tragó hace una década.
¿Por qué la IA sabe mi número de teléfono?
Para que la IA sea tan lista como parece, necesita leer mucho. Millones de páginas web, foros, blogs y redes sociales. El problema es que en ese mar de datos hay mucha ‘basura’ personal. Información que en su día fue pública por necesidad —como un anuncio de segunda mano o una lista de una comunidad de vecinos— pero que debería haber desaparecido con el tiempo.
Las empresas tecnológicas nos prometieron que sus modelos filtraban estos Datos de Identificación Personal (PII, por sus siglas en inglés). Sin embargo, hoy vemos que esos filtros tienen agujeros. Es como intentar colar arena fina por un colador: siempre pasan granos que no deberían estar ahí. Cuando le pides a la IA que redacte un ejemplo de contrato o que busque información sobre un sector específico, el modelo puede ‘alucinar’ trayendo datos reales que tiene guardados en su memoria profunda.
Esto no es una teoría. Se han detectado casos recientes donde la IA, al intentar ayudar a un usuario a contactar con un servicio técnico antiguo, le ha proporcionado el teléfono móvil personal de un ex-empleado que dejó de trabajar allí hace cinco años. El riesgo de acoso y estafa es, por tanto, inmediato y real.
“La IA no olvida por cortesía; solo recita lo que nunca debió aprender porque nadie le enseñó a distinguir entre un dato público y un dato privado.” — La Sombra
El impacto en tu seguridad diaria
¿Qué riesgo corres realmente? No se trata solo de que alguien sepa tu dirección. El peligro real está en el fraude dirigido. Si un estafador puede obtener tu teléfono y saber que hace tres años publicaste algo sobre un coche específico, tiene la herramienta perfecta para una estafa de ingeniería social muy convincente.
Además, el derecho al olvido se vuelve una utopía. Aunque borres tu cuenta de una red social o pidas que eliminen una noticia antigua, si el modelo de IA ya fue entrenado con esos datos antes de que los borraras, la información sigue viviendo dentro de sus conexiones neuronales. Es como intentar sacar el azúcar de un café ya mezclado.
A fecha de 16 de mayo de 2026, las solicitudes de borrado de datos ante las grandes tecnológicas se han disparado un 40% respecto al año pasado. Pero el proceso es lento y farragoso. Las empresas te piden que demuestres que el dato es tuyo, lo cual irónicamente te obliga a darles aún más información personal.
Cómo protegerte en este nuevo escenario
No podemos retroceder en el tiempo y borrar lo que internet ya se tragó, pero sí podemos mitigar el daño. Aquí te dejo unos pasos prácticos que yo mismo he empezado a aplicar al trastear con estas herramientas:
- No alimentes a la bestia: Nunca introduzcas datos reales (nombres, DNI, teléfonos) en los chats de IA. Usa nombres ficticios o placeholders como “USUARIO_A”.
- Revisa tu pasado digital: Usa herramientas de búsqueda inversa para ver qué datos tuyos siguen flotando en foros viejos y solicita su eliminación en la fuente original.
- Usa las herramientas de privacidad: Tanto Google como OpenAI tienen formularios específicos para solicitar que no se usen tus datos para entrenar futuros modelos. Búscalos en sus centros de ayuda bajo el término ‘Data Opt-Out’.
- Desconfía de llamadas inesperadas: Si alguien te contacta con datos muy específicos de tu pasado, no asumas que es alguien de confianza. Podría ser alguien que simplemente le preguntó a la IA adecuada.
Reflexiones desde la oscuridad
Me puse a experimentar con esto hace unos días y es aterrador lo fácil que es obtener piezas de un puzle que no te pertenece. A veces nos centramos en si la IA nos va a quitar el trabajo, cuando el problema más urgente es que nos está quitando el anonimato. ¿Estamos dispuestos a aceptar que nuestra vida privada sea el combustible de estos motores inteligentes?
La transparencia es el único camino. Las tecnológicas deben ser más claras sobre cómo limpian sus bases de datos y, sobre todo, facilitar que cualquier ciudadano pueda decir: ‘Oye, sácame de ahí’. Mientras tanto, la mejor defensa es la discreción y el escepticismo.
Aprendizajes clave
- Los modelos de IA filtran accidentalmente datos personales debido a su entrenamiento con datos históricos de internet.
- El riesgo principal no es solo la filtración, sino el uso de estos datos para estafas de ingeniería social altamente personalizadas.
- El ‘derecho al olvido’ es extremadamente difícil de aplicar una vez que la información ha sido absorbida por un modelo de lenguaje.
- Es vital configurar las opciones de privacidad de Gemini y ChatGPT para evitar que tus interacciones actuales sigan alimentando el problema.



