La alarma silenciosa que salta cuando el algoritmo confunde tu rostro con el de un ladrón.
El Viaje a la Cárcel Digital: La historia de Warren Rajah
Imagina esto: entras en tu supermercado de siempre, el lugar donde compras el pan cada semana. Estás pensando en la lista de la cena, quizá en un correo electrónico pendiente. Es un acto mundano, casi automático.
De repente, el mundo se detiene. El personal de seguridad te aborda. No con una pregunta, sino con una acusación: eres un delincuente. Estás en la base de datos de infractores y se te prohíbe el paso. Te están echando. Delante de todos.
Eso fue exactamente lo que le pasó a Warren Rajah, un estratega de datos en el Reino Unido. Un profesional que, irónicamente, se gana la vida entendiendo cómo funcionan los sistemas, fue señalado y expulsado de su Sainsbury’s local en Clapham por un sistema de reconocimiento facial llamado Facewatch. Se sintió, en sus propias palabras, como un criminal.
El gancho humano aquí es brutal: no es que Warren haya robado algo. Es que la máquina, el ojo digital invisible que nos vigila mientras elegimos la fruta, se equivocó. Y esa confusión tiene consecuencias reales: humillación, vergüenza y, lo que es peor, la sensación de impotencia ante un sistema automatizado que decide quién eres.
¿Tecnología fallida o diseño fallido?
Cuando el escándalo estalló, Sainsbury’s se disculpó rápidamente y ofreció una compensación. Su defensa fue estándar y previsible: «Fue un error humano», dijeron. Afirmaron que el fallo no estaba en la tecnología de reconocimiento facial, sino en la manera en que el personal gestionó el aviso. El sistema identificó a Rajah porque había otra persona con una orden de exclusión cerca, y alguien lo confundió.
Pero, un momento, ¿es esto realmente un «error humano»? Si tienes una herramienta tan potente y potencialmente invasiva como el reconocimiento facial operando en un entorno privado, la línea entre el error del operador y la debilidad del sistema se vuelve borrosa.
La tecnología utilizada, Facewatch, no es un CCTV pasivo. Es un sistema biométrico que escanea rostros en tiempo real y los compara con bases de datos de personas que han sido prohibidas de las tiendas (por hurto, comportamiento antisocial, etc.). Es, esencialmente, un ‘muro de la vergüenza digital’ compartido entre negocios.
El problema reside en el sesgo inherente y la sensibilidad de estos sistemas. Incluso una precisión del 99% significa que, en una tienda con miles de visitantes diarios, cientos de personas inocentes podrían ser señaladas erróneamente en el transcurso de un mes. El costo de un falso positivo para la persona inocente es catastrófico, mientras que el costo para la empresa es solo una disculpa.
Esto es como si el algoritmo que gestiona tu cuenta bancaria de repente te acusara de blanqueo de dinero y congelara tus ahorros. Luego te dicen: «Perdón, fue un pequeño error». Pero el pánico, el daño reputacional y la pérdida de tiempo ya están hechos. La IA cotidiana está cada vez más en juego, y cuando falla, nos golpea donde más duele: nuestra dignidad y nuestra libertad de movimiento.
El Coste Real de la Vigilancia Privada
Aquí es donde el caso de Rajah pasa de ser una anécdota desafortunada a un grave aviso sobre la infraestructura de vigilancia que se está construyendo a nuestras espaldas. Estamos hablando de vigilancia privada.
A diferencia de la vigilancia policial, que (al menos en teoría) está sujeta a la revisión judicial y la rendición de cuentas pública, estos sistemas privados operan en una zona gris regulatoria. Las tiendas tienen un interés legítimo en prevenir pérdidas, por supuesto. Pero, ¿hasta qué punto puede el interés comercial anular el derecho fundamental de un ciudadano a ir de compras sin ser fichado y catalogado?
- Falta de Transparencia: ¿Quién está en esa lista de Facewatch? ¿Por cuánto tiempo? ¿Bajo qué criterios se añade a alguien? La opacidad es total.
- Efecto Disuasorio (Chilling Effect): Saber que puedes ser catalogado erróneamente por ir a comprar leche cambia tu comportamiento. ¿Dejarás de ir a esa tienda? ¿Te sentirás permanentemente vigilado?
- Expansión Descontrolada: Estos sistemas no se quedan en una sola tienda. Son bases de datos compartidas. Una acusación errónea en un supermercado podría vetarte, sin que lo sepas, de otros centros comerciales, gasolineras o incluso zonas de ocio que utilicen el mismo proveedor.
Organizaciones de libertades civiles han advertido durante años sobre este «espejismo de la seguridad». Creen que la supuesta conveniencia o seguridad que ofrecen estos sistemas no justifica la erosión masiva de la privacidad y el riesgo de daños a ciudadanos inocentes.
“Cuando la tecnología decide quién eres, la verdad es la primera víctima.”
La IA Cotidiana y el Espejismo de la Precisión
Para nosotros, los consumidores, la lección es clara: debemos dejar de percibir el reconocimiento facial como una tecnología infalible. Incluso los sistemas más avanzados tienen tasas de error, y esas tasas son a menudo peores en condiciones de iluminación deficientes, si llevas gafas o, crucialmente, si tienes un tono de piel minoritario.
En el caso de Rajah, la empresa afirmó que el error fue de correlación, no de identificación pura. Pero eso solo subraya la fragilidad del proceso completo. Los sistemas de IA no solo cometen errores técnicos; también heredan y amplifican los errores de diseño y los sesgos introducidos por los humanos que los configuran.
El derecho al olvido y la corrección de datos, aunque consagrados en regulaciones como el GDPR en Europa, son difíciles de ejercer cuando te enfrentas a una red corporativa de vigilancia. ¿Cómo demuestras que no eres quien el algoritmo dice que eres, si el sistema opera en secreto?
¿Qué podemos aprender de este fiasco?
El incidente de Sainsbury’s debe ser una llamada de atención para todos los que damos por sentada nuestra privacidad al caminar por la calle o entrar a una tienda. Si un estratega de datos puede ser confundido y humillado, cualquiera puede serlo.
Aquí tienes un resumen accionable de lo que significa este tipo de vigilancia para tu día a día:
- Cuestiona la necesidad: Antes de aceptar cualquier uso de datos biométricos, pregunta si la conveniencia justifica el riesgo. ¿De verdad necesito escanear mi cara para pagar un café?
- Conoce tus derechos: Si te identifican erróneamente, pide inmediatamente la base legal para esa identificación y exige la eliminación de tus datos de la base de datos biométrica (invocando el GDPR o normativas locales de protección de datos).
- Recuerda que no es infalible: Nunca confíes en que una identificación automática sea 100% correcta. Las empresas que implementan estos sistemas deben tener procedimientos robustos y humanos para verificar las alertas.
- Pide Transparencia: Apoya los movimientos que piden una regulación clara que obligue a las empresas a revelar si están usando reconocimiento facial y cómo manejan los falsos positivos.
El supermercado debería ser un lugar de rutinas, no de vigilancia de alta tecnología. Pero hasta que la regulación se ponga al día, debemos asumir que nuestros rostros son ahora la nueva contraseña, y esa contraseña puede ser mal utilizada o malinterpretada por una máquina en cualquier momento. Y, créeme, la disculpa posterior nunca compensa la sensación de que, por un momento, fuiste etiquetado como un enemigo público solo por buscar un paquete de galletas.



