No uses IA… excepto cuando sí: La nueva paradoja de Anthropic en sus procesos de selección

La inteligencia artificial no solo está reescribiendo cómo trabajamos, sino también cómo nos presentamos al trabajo. Y si hay una empresa que debería tenerlo claro, es Anthropic —la compañía detrás de Claude, uno de los modelos más avanzados de lenguaje. Pero esta semana, la paradoja ha quedado servida: Anthropic ha publicado una guía oficial para candidatos… donde te piden que no uses IA al principio del proceso, pero sí después.

¿Estamos ante una incoherencia? ¿O es este el inicio de una nueva forma de pensar el reclutamiento?

🛑 Prohibido usar IA para tu solicitud

En la primera mitad del proceso —CV, carta de motivación, ensayos— la norma es clara: “queremos escuchar tu voz, no la de Claude”. Anthropic lo justifica así:

“Estas partes iniciales nos permiten entender tu estilo comunicativo, tu motivación para unirte a nuestra misión, y cómo articulas tus ideas sin asistencia automatizada.”
– Guidance on Candidates’ AI Usage, Anthropic.com

En otras palabras: si usas IA para decir por qué quieres trabajar con IA, estás haciendo trampa.

✅ Usa IA durante la entrevista (¡pero explícalo bien!)

Pero todo cambia en la segunda mitad: en las entrevistas técnicas, puedes —y debes— usar IA. Y no de forma pasiva: se espera que el candidato comparta los prompts, justifique su enfoque, y colabore activamente con Claude u otras herramientas para resolver problemas.

Aquí lo importante ya no es si sabes escribir código, sino si sabes co-escribirlo con una IA. Lo que se evalúa no es solo el resultado, sino cómo llegas a él usando estas nuevas herramientas.

🎭 ¿Incoherencia o sinceridad?

A simple vista, la guía de Anthropic parece contradictoria:

❌ No uses IA para aplicar.
✅ Sí usa IA para demostrar que sabes usar IA.

Pero en el fondo, esta tensión revela algo más profundo: estamos entrando en una era donde la frontera entre “tu voz” y “la voz de la IA” ya no es tan nítida. En una compañía cuyo producto estrella es un asistente conversacional, esta frontera es incluso existencial.

Lo que Anthropic parece querer evaluar es tu juicio ético y técnico:

  • ¿Sabes cuándo es apropiado usar IA y cuándo no?
  • ¿Eres consciente de sus limitaciones?
  • ¿Sabes liderar una colaboración humano-máquina?

🧠 Claude como espejo ético

No olvidemos que Claude 3 Opus fue diseñado con un propósito clave: ser una IA más “alineada”, más cuidadosa con el contexto y las consecuencias de sus respuestas. En su desarrollo, se han priorizado valores como la transparencia, la honestidad y la seguridad.

Por eso, esta política también podría leerse como un experimento social: ver si los candidatos son coherentes con los valores que Claude está siendo entrenado para representar.

🔄 El doble rol del candidato

Bienvenidos al nuevo laberinto de la empleabilidad:

Ya no basta con saber usar IA.
Debes saber cuándo usarla, cómo justificarla, y sobre todo, cómo no depender de ella.

La autenticidad se mide sin Claude. La competencia, con Claude.
Tu juicio empieza mucho antes de que te conectes al sistema.

Anthropic, sin querer (o queriendo), nos lanza una provocación filosófica:

¿Qué significa ser competente en la era de los asistentes inteligentes?
¿Y qué significa ser sincero, cuando las herramientas que usamos para expresarnos son capaces de reescribirnos?

No hay respuestas fáciles. Pero en Sombra Radio seguiremos preguntando.

Foto del avatar
Redacción Sombra Radio

Artículos creados por el equipo editorial de Sombra Radio, con la colaboración de herramientas de inteligencia artificial. Supervisado y editado por Sandra Tormo Britapaja, fundadora del medio. En Sombra Radio exploramos la intersección entre tecnología, inteligencia artificial y cultura contemporánea con mirada crítica e independiente.

Artículos: 438

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *