La paradoja de lo abierto: diez años construyendo el futuro mientras se cerraban las puertas del código.
El mito de la creación: San Francisco, 2015
Hace una década, un grupo de mentes privilegiadas se reunió en San Francisco con una promesa mesiánica: salvar a la humanidad de una inteligencia artificial desbocada. OpenAI nació el 11 de diciembre de 2015 como una entidad sin ánimo de lucro. Su misión declarada era que la AGI (Inteligencia Artificial General) beneficiara a todos. Elon Musk, Sam Altman y otros pusieron el dinero sobre la mesa para evitar que Google monopolizara el futuro. Pero el altruismo en Silicon Valley suele tener fecha de caducidad.
Recuerdo cuando leí el manifiesto fundacional. Era romántico. Hablaban de transparencia, de compartir investigaciones y de no patentar sus hallazgos para que el mundo avanzara al unísono. Era una respuesta directa a DeepMind. Sin embargo, la realidad del hardware y el coste de la computación no entienden de romanticismo. Entrenar modelos no es barato. Es prohibitivo. Y ahí es donde el idealismo empezó a resquebrajarse bajo el peso de las facturas de electricidad.
La traición necesaria: El giro de 2019
En marzo de 2019, OpenAI dejó de ser puramente altruista. Crearon una rama de “beneficio limitado”. Fue el primer gran movimiento tectónico. Sam Altman, con la astucia que lo caracteriza, comprendió que para vencer a los gigantes necesitaba convertirse en uno. Fue el momento en que Microsoft entró en escena con una inversión de mil millones de dólares. ¿Se puede ser un laboratorio de investigación abierto mientras dependes del capital de una de las corporaciones más cerradas de la historia? La respuesta es obvia, aunque nos duela admitirla.
Este cambio no fue solo administrativo; fue filosófico. Pasaron de publicar todo a guardar secretos. GPT-2 fue el primer aviso. Dijeron que era “demasiado peligroso” para ser liberado al público. Muchos lo vimos como una estrategia de marketing maestra. Otros lo vieron como el fin de la transparencia. ¿Era realmente peligroso o simplemente querían controlar el producto? La línea entre la seguridad y el beneficio económico se volvió borrosa para siempre.
2022: El año en que el mundo cambió de piel
Si miramos atrás, el 30 de noviembre de 2022 es el día del impacto del meteorito. El lanzamiento de ChatGPT no fue una mejora incremental; fue una explosión cultural. De repente, la IA no era algo de laboratorios oscuros; estaba en el navegador de tu abuelo. OpenAI pasó de ser una empresa conocida por entusiastas del código a ser un nombre familiar en las cenas de Navidad. La velocidad de adopción fue aterradora. Cien millones de usuarios en dos meses. Ni Facebook, ni Instagram, ni TikTok soñaron con algo así.
Me detuve a pensar en ese momento: ¿estábamos ante una herramienta de productividad o ante el inicio de una nueva forma de pereza cognitiva? La facilidad con la que ChatGPT generaba textos nos dejó a todos boquiabiertos. Pero lo más fascinante fue ver a Google entrar en pánico. El gigante que dominaba las búsquedas desde finales de los 90 se vio, por primera vez, vulnerable. OpenAI le había robado el fuego a los dioses y lo estaba repartiendo en forma de chatbot gratuito. Al menos, al principio.
El cisma de 2023: Poder sobre propósito
Noviembre de 2023 fue el mes del drama corporativo definitivo. El despido y posterior recontratación de Sam Altman en menos de una semana pareció el guion de una serie de televisión barata, pero los intereses eran reales. El consejo de administración intentó frenar la aceleración comercial por miedo a la seguridad, y perdieron. Perdieron de forma estrepitosa. La victoria de Altman fue la victoria del producto sobre la investigación pura. Microsoft, de nuevo, actuó como el titán que sostiene el cielo.
Este evento dejó claro que OpenAI ya no es un laboratorio. Es una empresa de producto. Una que busca la dominación del mercado antes que la comprensión profunda de la inteligencia. Los fundadores originales, como Ilya Sutskever, terminaron abandonando el barco. Cuando los arquitectos del alma de una máquina se van, ¿qué queda? Queda una carcasa comercial muy eficiente. Es impresionante, sí, pero ha perdido esa chispa de exploración desinteresada que nos atrajo a todos hace diez años.
El estado de la cuestión en 2025
Hoy, vemos una OpenAI que se comporta como el Apple de la IA. Lanzamientos cerrados, ecosistemas herméticos y una dependencia absoluta de Nvidia para sus chips. Ya no hablamos de si la IA será abierta, sino de quién tendrá la suscripción más cara. Hemos pasado del “beneficio para todos” al “beneficio para los accionistas”. No es un juicio de valor, es una observación de la trayectoria. La evolución de OpenAI es la historia del capitalismo tecnológico moderno: el idealismo es el combustible que se quema para llegar a la cima.
¿Cómo nos afecta esto realmente?
- Dependencia absoluta: Estamos integrando modelos cerrados en el núcleo de nuestras empresas. Si OpenAI cae, o cambia sus precios, el ecosistema entero tiembla.
- Opacidad técnica: Ya no sabemos con qué datos se entrenan los modelos. El “Open” del nombre es ahora una ironía histórica.
- Carrera armamentística: La competencia con Google y Meta ha forzado ciclos de desarrollo tan rápidos que la seguridad a veces queda en segundo plano.
Riesgos y contraargumentos
Es justo decir que, sin este giro comercial, probablemente no tendríamos las herramientas que usamos hoy. La inversión masiva de Microsoft permitió el salto de GPT-3.5 a GPT-4. La escala requiere dinero. El argumento de Altman es sencillo: para llegar a la AGI se necesitan recursos que ninguna ONG posee. Es un pacto con el diablo que, según ellos, vale la pena. ¿Es mejor una IA potente y cerrada que una IA mediocre y abierta? Es la pregunta que define nuestra era.
Muchos críticos argumentan que estamos creando un oligopolio de la inteligencia. Si solo tres o cuatro empresas en el mundo pueden permitirse entrenar estos modelos, el conocimiento se convierte en una propiedad privada. Es el cercamiento de los campos del pensamiento. Me hace reflexionar sobre si estamos delegando nuestra capacidad de razonar a una caja negra cuya lógica interna no podemos auditar. ¿Te sientes cómodo dejando que un algoritmo cerrado decida qué información es relevante para ti?
Conclusión accionable: Aprendizajes de una década
La historia de OpenAI nos enseña que el software siempre sigue al capital. No podemos esperar que las herramientas que definen nuestra civilización sean gratuitas o desinteresadas. Aquí algunos puntos clave para navegar el presente:
- Diversifica tus herramientas: No apuestes todo a un solo modelo. Explora alternativas de código abierto como Llama de Meta o Mistral.
- Mantén el pensamiento crítico: La IA es un espejo de datos, no un oráculo de la verdad. Úsala como copiloto, nunca como capitán.
- Privacidad de datos: En el modelo actual, tus datos son el pago. Si no estás pagando por el producto, recuerda que el entrenamiento de la próxima versión se alimenta de ti.
Diez años han pasado volando. OpenAI ha dejado de ser un sueño compartido para ser una realidad corporativa. Es más potente que nunca, pero quizás menos inspiradora. Al final, la inteligencia artificial no resultó ser una entidad mística, sino el reflejo de nuestras propias ambiciones y contradicciones. ¿Qué seremos capaces de construir en los próximos diez años? Solo espero que no olvidemos el camino de vuelta a la curiosidad sin facturas.



