Barbie ya no necesita que le muevas los brazos. Ahora piensa. Habla. Aprende.
Y no está sola. Mattel, el gigante juguetero, ha unido fuerzas con OpenAI para lanzar una nueva generación de juguetes potenciados por inteligencia artificial conversacional.
La propuesta: asistentes digitales en forma de muñecos que interactúan con niños, en tiempo real, usando modelos similares a ChatGPT.
Pero la reacción ha sido inmediata. Expertos en infancia, activistas de derechos digitales y organizaciones de protección han encendido las alarmas:
“Estamos ante un experimento social no consentido con menores.”
¿Innovación o distopía envuelta en plástico rosa?
Mattel y OpenAI han unido fuerzas para crear juguetes “vivos”, potenciados con modelos conversacionales similares a ChatGPT. Pero lo que parecía un avance adorable en el mundo del entretenimiento infantil ha encendido todas las alarmas.
🚨 ¿Una Barbie que te escucha, responde y aprende?
El proyecto, aún en fase preliminar, busca convertir a muñecos y figuras como Barbie o Hot Wheels en asistentes digitales infantiles, con capacidad para interactuar, mantener conversaciones y adaptarse a cada niño.
La idea suena tan disruptiva como perturbadora. Porque no hablamos solo de IA… hablamos de IA diseñada para niños.
⚖️ Padres, activistas y expertos: esto es un experimento social
Organizaciones como Public Citizen, medios como Ars Technica, y expertos en desarrollo infantil han lanzado una alerta conjunta:
“Esto no es innovación, es un experimento social no consentido con menores.”
Las críticas apuntan a tres frentes fundamentales:
- Confusión cognitiva: los niños pequeños no distinguen claramente entre una IA y una persona real. Esto puede alterar su desarrollo emocional y social.
- Privacidad en juego: ya ocurrió con “Hello Barbie” en 2015, un muñeco que grababa conversaciones y terminó siendo hackeado. ¿Volvemos a tropezar con el mismo cable suelto?
- Riesgos psicológicos: varios estudios recientes documentan cómo los vínculos con IA pueden generar aislamiento, frustración y dependencia emocional incluso en adultos. ¿Estamos preparados para ver esto en menores de 10 años?
🧠 ¿Jugar o entrenar modelos?
La línea es fina. Cuando un niño interactúa con una IA, no solo está jugando: está entrenando un sistema, generando datos, reforzando patrones de lenguaje.
Y cuando ese proceso no es transparente ni regulado, se convierte en lo que muchos ya califican de “territorio éticamente inaceptable”.
🛑 Lo que se pide
- Suspensión inmediata del proyecto hasta contar con garantías éticas, técnicas y psicológicas claras.
- Transparencia sobre cómo se entrenan estos juguetes, qué datos recogen y cómo se almacenan.
- Participación de especialistas en infancia, no solo tecnólogos y equipos de marketing.
En Sombra Radio lo tenemos claro:
No todo lo que la IA puede hacer, debe hacerse.
Y cuando hablamos de infancia, el límite no es técnico. Es moral.
Porque no queremos juguetes inteligentes. Queremos infancia consciente.