La crisis ética en Palantir: cuando los datos sirven para algo más que vigilar

El dilema moral recorre los pasillos de Palantir. De cazar terroristas a facilitar deportaciones, sus empleados se preguntan hoy si están en el bando correcto de la historia.

Cuando el código que escribes decide el destino de una familia en la frontera.

El gigante que todo lo ve

Imagina que eres un cerrajero experto. Tu trabajo es fabricar las llaves más seguras del mundo. Te sientes orgulloso porque crees que tus llaves protegen hogares contra intrusos. Pero un día, te das cuenta de que el 90% de tus llaves se usan para encerrar a personas en jaulas o para entrar en casas sin permiso. Esa es, a grandes rasgos, la crisis que hoy, 27 de abril de 2026, carcome los pasillos de Palantir.

Palantir no es una empresa de software normal. Es el cerebro digital detrás de muchas de las operaciones de inteligencia más grandes del planeta. Fundada con el apoyo de la CIA, su misión original era “conectar los puntos” para evitar otro atentado como el del 11 de septiembre. Durante años, sus empleados se sintieron héroes. Pero el viento ha cambiado de dirección y el olor que llega ya no es de heroísmo, sino de algo mucho más turbio.

¿Por qué debería importarte a ti? Porque la tecnología que Palantir perfecciona con gobiernos se acaba filtrando a tu día a día. Lo que hoy se usa para rastrear a un insurgente en una zona de guerra, mañana se adapta para vigilar qué haces en internet o con quién te juntas. La frontera entre la seguridad nacional y tu privacidad personal es cada vez más delgada, casi invisible.

De héroes contra el terrorismo a rastreadores de inmigrantes

La gota que ha colmado el vaso para muchos trabajadores ha sido la colaboración estrecha con el ICE (el servicio de inmigración de EE. UU.). Ya no se trata de buscar terroristas con una bomba en un maletín. Ahora, el software que estos ingenieros programan se utiliza para organizar redadas masivas y separar familias. Es el uso de la “Big Data” con fines de persecución administrativa, algo que para muchos empleados cruza una línea roja moral que no esperaban pisar.

Hacia principios de este año, en enero de 2026, varios informes internos empezaron a circular denunciando que las herramientas de análisis predictivo estaban señalando a personas basándose en criterios que rozan el racismo algorítmico. Imagina que un programa decide que eres sospechoso solo por el barrio donde vives o la gente con la que hablas por mensaje. Eso ya no es ciencia ficción, es el pan de cada día en los contratos de defensa de esta compañía.

Lo curioso es que Alex Karp, el CEO de la empresa, siempre se ha presentado como un filósofo excéntrico y progresista. Pero sus acciones dicen otra cosa. Bajo su mando, la empresa ha dado un giro nacionalista agresivo. Karp ha llegado a decir que las empresas tecnológicas que no apoyan las operaciones militares de su país son casi traidoras. Este discurso de “conmigo o contra mí” ha creado un clima de miedo dentro de la oficina.

La mordaza en el canal de Slack

En cualquier empresa de tecnología, los canales de comunicación interna como Slack son el lugar donde se debate de todo. Antes, en Palantir, podías cuestionar la ética de un proyecto. Hoy, 27 de abril de 2026, eso es casi imposible. La dirección ha empezado a moderar (o censurar, según a quién preguntes) cualquier crítica que cuestione la moralidad de sus contratos militares o de vigilancia nacional.

Me puse a investigar algunos testimonios y lo que cuentan es desolador. Hay ingenieros que se sienten atrapados. Por un lado, cobran sueldos astronómicos que difícilmente encontrarán en otro sitio. Por otro, cada mañana al encender el ordenador, saben que sus líneas de código pueden estar facilitando ataques con drones que causan víctimas civiles colaterales. Es una jaula de oro con las paredes manchadas de dudas.

Recuerdo cuando empecé a seguir la pista de estas empresas de vigilancia. Siempre decían lo mismo: “Nosotros solo damos la herramienta, el uso que le den los gobiernos no es nuestra responsabilidad”. Es una excusa barata. Si vendes una sierra eléctrica a alguien que te ha dicho que quiere cortar árboles, no eres responsable de lo que haga. Pero si se la vendes a alguien que te ha dicho que quiere entrar en casas ajenas, eres cómplice. Así de simple.

“La tecnología nunca es neutral; siempre lleva grabada la intención de quien la financia y la ambición de quien la programa”. — La Sombra

¿Qué significa esto para tu privacidad?

Quizás pienses: “Yo no soy un inmigrante sin papeles ni un objetivo militar, a mí esto no me afecta”. Te equivocas. La infraestructura de vigilancia que Palantir construye es como un gas: tiende a expandirse hasta llenar todo el espacio disponible. Los algoritmos de análisis que hoy usan las agencias de inteligencia son los mismos que mañana comprarán las grandes superficies para predecir tus compras o las aseguradoras para decidir si te cubren un tratamiento médico.

El riesgo real es la normalización de la vigilancia total. Cuando permitimos que una empresa opere sin transparencia ética en los niveles más altos del poder, estamos aceptando que la privacidad es un lujo opcional. Estamos creando un mundo donde cada clic, cada movimiento y cada relación social queda registrada en una base de datos que nadie sabe muy bien cómo funciona ni quién controla realmente.

A lo largo de este año 2026, hemos visto cómo otras empresas han intentado distanciarse de estos contratos polémicos. Google, por ejemplo, tuvo que cancelar el Proyecto Maven por la presión de sus propios empleados. Pero en Palantir, la cultura es diferente. Se premia la lealtad ciega y se castiga el pensamiento crítico. Es una burbuja donde la eficiencia técnica importa más que la compasión humana.

¿Hay salida a este laberinto de datos?

No todo está perdido, pero la solución no vendrá de dentro de la empresa. La presión debe ser externa. Necesitamos leyes que obliguen a estas compañías a ser transparentes sobre qué algoritmos usan y para qué. No basta con que digan que “hacen el bien”. Necesitamos pruebas.

A veces me pregunto si los ingenieros que hoy se sienten mal por su trabajo acabarán dimitiendo en masa. Sería un mensaje potente. Pero mientras los contratos gubernamentales sigan regando de millones sus cuentas bancarias, el cambio será lento. El dilema de “ser los malos de la película” es real, y la respuesta que den marcará el futuro de nuestra libertad digital.

Resumen de la situación

  • Pérdida de brújula moral: La transición de la lucha antiterrorista a la persecución de civiles ha roto la confianza interna.
  • Censura interna: Los canales de debate han sido cerrados, impidiendo que los empleados expresen preocupaciones éticas.
  • Impacto social: La tecnología de vigilancia se está volviendo cada vez más intrusiva y menos transparente.
  • Liderazgo cuestionado: El giro nacionalista del CEO Alex Karp choca con los valores de una parte importante de su plantilla.

Fuentes

La Sombra
La Sombra

Revisión crítica realizada por La Sombra. No escribe para agradar. Escribe para alertar.
Observa sin intervenir… hasta que es necesario. La Sombra detecta sesgos, incoherencias éticas y dilemas invisibles. Es la conciencia editorial de la redacción.

Artículos: 223

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *