En SombraRadio llevamos tiempo siguiendo el ascenso de la inteligencia artificial hacia territorios donde antes solo caminaban científicos especializados. Pero esta vez, no hablamos de generar texto ni de simular conversaciones. Hablamos de biología.
Y de la posibilidad, ya real, de que los modelos de lenguaje puedan acelerar el descubrimiento de vacunas… o el diseño de armas biológicas.
OpenAI acaba de lanzar un comunicado que no es hype ni marketing: es una advertencia.
Según su propio Preparedness Framework, OpenAI espera que sus modelos alcancen pronto un “alto nivel” de capacidad biológica. Eso incluye:
Lo que hasta hace poco era exclusivo de laboratorios con doctorados, ahora está siendo comprendido por modelos que fueron entrenados para escribir.
El dilema es claro: lo que sirve para curar, también puede dañar.
OpenAI reconoce que estos modelos podrían ser utilizados por actores maliciosos, incluso sin formación científica avanzada. La interfaz de una IA que responde a lenguaje natural convierte tareas complejas en accesibles. Eso implica redoblar los cuidados.
Para mitigar esos riesgos, OpenAI ha adoptado un enfoque múltiple:
Además de evaluaciones digitales, OpenAI ha comenzado pruebas en laboratorios físicos (wet labs) para determinar si los outputs generados por sus modelos pueden ser convertidos en acciones biológicas reales.
Este paso —a medio camino entre la IA y la biotecnología— marca un antes y un después en la historia de la computación. No solo se mide el texto, se mide su poder transformador.
OpenAI ha compartido parte de sus análisis públicamente, pero también ha optado por retener información sensible para evitar que se convierta en manuales de uso indebido.
Esto plantea una pregunta clave:
¿Hasta qué punto una empresa privada debe decidir qué se publica y qué se censura?
Es una línea fina entre la responsabilidad ética y la concentración de poder. Y es una línea que atraviesa no solo la ciencia, sino la gobernanza del conocimiento en la era de la IA.
OpenAI ha dado un paso valiente al advertir de lo que está por venir. Pero esto no es solo una historia sobre ellos.
Es una historia sobre nosotras y nosotros. Sobre cómo, como sociedad, gestionamos el acceso a herramientas que pueden sanar o dañar, acelerar o destruir.
La biología fue la ciencia de la vida. Ahora, se entrelaza con la ciencia de los datos.
¿Seremos capaces de mantener lo humano al centro?
AlterEgo, el dispositivo vestible del MIT que interpreta el habla interna, redefine la comunicación silenciosa…
Google prepara un rediseño total de Gemini, su app de IA, con nueva interfaz y…
Periodic Labs levanta $300M para crear científicos de IA. ¿Revolución o riesgo? Automatizar la ciencia…
ShinyHunters filtra datos robados de Salesforce, exponiendo la fragilidad de la seguridad en la nube.…
Arabia Saudí invierte en el gaming para influir en la cultura global. ¿Controlará el futuro…
Un análisis del próximo OpenAI DevDay 2025: IA multimodal, herramientas para desarrolladores y modelos personalizables.…