Un árbitro que todavía está aprendiendo el reglamento mientras el partido sigue en juego.
El primer cumpleaños de un experimento necesario
Hoy es 7 de mayo de 2026 y estamos celebrando el primer año de vida de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). Si te preguntas por qué esto te afecta, piénsalo de esta forma: la IA ya no es ciencia ficción, es el motor que decide si te dan un crédito o qué noticias ves al desayunar.
Imagina que la IA es un coche de carreras que acaba de salir al mercado. La AESIA nació para ser el cuerpo de tráfico que vigila que nadie se salte los semáforos ni ponga en peligro a los peatones. Pero, tras doce meses, la sensación es agridulce. Tenemos el manual de normas, pero el coche sigue yendo a toda velocidad sin que nadie use el radar.
Este organismo, pionero en Europa, se instaló en un centro cívico de A Coruña con una misión gigante. Sin embargo, abrir el capó de la tecnología no es fácil si no tienes suficientes mecánicos. Vamos a desgranar qué ha pasado en este año de pedagogía y por qué la supervisión real sigue pareciendo un espejismo lejano.
El concepto del ‘Sandbox’: El parque de juegos seguro
Uno de los términos que más ha repetido la AESIA este año es el de “sandbox regulatorio”. En tecnología, un sandbox es como ese cajón de arena donde los niños juegan sin peligro. Es un entorno controlado donde las empresas prueban sus algoritmos antes de lanzarlos al mundo real.
Esto es vital porque la IA tiene lo que llamamos “latencia de responsabilidad”. Imagina que envías un mensaje de WhatsApp; el tiempo que tarda en llegar es la latencia. En regulación, la latencia es el tiempo que pasa desde que un algoritmo comete un error (como discriminar a alguien en una entrevista de trabajo) hasta que alguien se da cuenta y lo corrige.
La AESIA se ha centrado en esto: en acompañar a las empresas para que entiendan la Ley de IA de la Unión Europea. Es como si el examinador del carné de conducir se sentara a tu lado durante meses para explicarte cómo funciona el embrague, pero nunca llegara el día del examen práctico oficial.
El Backend de la Agencia: Pocas manos para tanto código
Si hablamos del “backend” (la parte de atrás, lo que no se ve) de la AESIA, nos encontramos con un cuello de botella. Se prometieron 80 profesionales expertos en algoritmos, ética y derecho, pero la realidad a día de hoy, 7 de mayo de 2026, es que apenas cuentan con unos 30 trabajadores operativos.
¿Por qué importa esto? Porque auditar un algoritmo no es leer un PDF. Es como intentar revisar el motor de un avión mientras está volando. Requiere gente que sepa leer código complejo y entender cómo los datos se transforman en decisiones. Sin personal, la supervisión se convierte en una simple revisión de trámites administrativos.
Imagina que quieres vigilar una ciudad entera con solo dos policías. Por muy buenos que sean, no pueden estar en todas las esquinas. Esto ha provocado que, durante este primer año, no hayamos visto ni una sola sanción relevante, centrándose todo el esfuerzo en redactar guías técnicas que, aunque útiles, no tienen “dientes”.
¿Pedagogía o mano dura? El dilema europeo
Muchos expertos critican que la AESIA es, de momento, un “laboratorio de ideas” más que una agencia de control. Es como un profesor que te explica muy bien la teoría pero nunca pone nota a los exámenes. Esta falta de supervisión real genera una duda razonable: ¿estamos protegiendo realmente a los ciudadanos?
Por un lado, la pedagogía es buena. Ayuda a que las empresas españolas no tengan miedo a innovar. Si las reglas son demasiado estrictas desde el minuto uno, corremos el riesgo de que la industria local se bloquee. Es como ponerle un limitador de velocidad a 20 km/h a todos los coches; nadie llegaría a tiempo a ningún sitio.
Pero por otro lado, Estados Unidos y China están corriendo en una autopista sin límites. Mientras nosotros discutimos el color de los conos de seguridad, ellos están lanzando modelos que cambian el mercado global cada semana. El equilibrio entre ser un árbitro justo y no detener el progreso es el gran reto de este año que comienza ahora.
Checklist: ¿Qué significa esto para ti hoy?
Aunque parezca un tema de despachos, lo que hace (o no hace) la AESIA impacta en tu bolsillo y en tu privacidad. Aquí tienes los puntos clave que debes vigilar:
- Transparencia: Deberías saber cuándo estás hablando con una IA y por qué un algoritmo ha tomado una decisión sobre ti.
- Seguridad de datos: La agencia debe asegurar que tus datos no se usen para entrenar modelos sin tu permiso explícito.
- Sesgos: El objetivo es que la IA no sea racista, machista ni clasista por culpa de datos mal recolectados.
- Soberanía técnica: Que España tenga voz propia en cómo se desarrolla esta tecnología y no seamos solo “compradores” de software extranjero.
“La regulación sin recursos es como un semáforo pintado en la pared: todos lo ven, pero nadie se detiene.”
Conclusión: Menos guías y más acción
El primer año de la AESIA ha sido el de la mudanza y el de poner los muebles. Ha servido para que las empresas sepan que hay alguien vigilando, aunque ese alguien todavía no tenga el uniforme completo. Pero para que 2026 no sea otro año perdido, la agencia necesita salir del centro cívico y entrar de lleno en los servidores.
La tecnología no espera a la burocracia. Si queremos que la IA sea un aliado y no una caja negra llena de secretos, necesitamos que nuestros supervisores tengan las mejores herramientas y, sobre todo, la capacidad de actuar cuando las cosas salgan mal. Al final del día, la IA es una herramienta potente, pero un martillo sin un carpintero responsable puede romper muchos dedos.
¿Veremos sanciones en 2027? ¿Se completará la plantilla de expertos? Lo seguiremos de cerca aquí, en Flux, donde nos encanta ver cómo giran los engranajes del futuro.



