San Francisco, junio 2025 – Durante una reciente keynote en Y Combinator, Andrej Karpathy —exdirector de IA en OpenAI y una de las voces más influyentes del deep learning— lanzó un mensaje provocador pero cargado de sentido común: la revolución de los agentes ya está aquí, pero aún no están listos para soltarse la correa.
“Los LLMs todavía cometen errores sorprendentes. No les dejéis operar sin supervisión.”
Con esta frase, Karpathy dejó claro que aunque los agentes inteligentes pueden escribir código, tomar decisiones y actuar dentro de flujos automatizados, su fiabilidad dista de ser perfecta. De hecho, en su propia experiencia, prefiere seguir siendo el “cuello de botella humano” que revisa cada paso antes de pasar a producción.
🚀 De copilotos a agentes… pero con freno
Durante los últimos dos años, el auge de los copilotos y agentes basados en IA ha transformado el desarrollo de software. Plataformas como GitHub Copilot, Replit AI, Cursor o Devika no solo completan líneas de código, sino que pueden crear funciones enteras, revisar errores y hasta tomar decisiones por sí mismos.
Sin embargo, Karpathy insta a la comunidad a cambiar el enfoque:
🛠 “Hay que desarrollar software que sea agent-friendly, pero también human-safe”.
Esto significa:
- Diseñar herramientas que los agentes puedan usar fácilmente.
- Pero también mantener puntos de control humano para revisión y validación.
- Usar prompts concretos y progresivos para evitar errores inesperados.
- Y sobre todo: no confiar ciegamente en el resultado de una IA, por muy brillante que parezca.
🔍 ¿Qué es el Vibe Coding?
Uno de los conceptos más comentados de su charla fue el “vibe coding”: dejar que la IA escriba código basado en una intención general (“hazme un sistema de reservas”, por ejemplo), sin especificaciones técnicas claras.
Aunque parece una utopía productiva, Karpathy alerta:
“Funciona… hasta que no lo hace. Y cuando falla, cuesta mucho rastrear por qué”.
🧩 El debate está abierto
Karpathy no está solo. Thomas Dohmke, CEO de GitHub, también ha criticado el enfoque “prompt-only” y defiende una integración más profunda de la IA dentro del IDE, con intervención directa del programador. Otros veteranos como Kent Beck y Bob McGrew coinciden en la importancia de diseñar guardrails y mantener el control humano sobre las decisiones críticas.
🧠 En Sombra decimos…
La conversación ya no es “si” vas a usar IA en tu software, sino cómo lo vas a hacer sin perder el control.
La era de los agentes ha comenzado, pero como dice Karpathy, “todavía necesitan una correa corta”.