📍 DeepMind lo ha vuelto a hacer. En el marco del Google I/O 2025, la compañía presentó SignGemma, una nueva pieza del universo Gemini enfocada en accesibilidad: un modelo de inteligencia artificial capaz de traducir lengua de signos estadounidense (ASL) a texto, directamente desde el dispositivo y en tiempo real. Sí, como si fuera magia — pero con datos, visión por computadora y muchas horas de entrenamiento.
¿Qué es SignGemma?
Es un modelo de lenguaje visual que observa y entiende los movimientos de manos, labios y expresiones faciales para transformarlos en texto escrito. Está optimizado para correr on-device —es decir, sin necesidad de conexión a internet— gracias a Gemini Nano, la arquitectura de IA ligera que ya está operativa en dispositivos móviles.
🔍 Entrenado con más de 10.000 horas de vídeos en ASL y sus transcripciones en inglés, SignGemma combina visión artificial y modelos de lenguaje para hacer posible la traducción instantánea de señas. Un paso significativo hacia una IA más humana y accesible.
🛠️ Cómo funciona
- Utiliza un vision transformer para detectar las señas y los gestos faciales clave.
- Traduce en tiempo real a texto con alta precisión.
- Todo el proceso ocurre directamente en el dispositivo: privacidad y velocidad aseguradas.
- Es open source: cualquier desarrollador puede construir sobre él.
🌍 ¿Por qué importa?
Porque hay más de 70 millones de personas sordas o con dificultades auditivas en el mundo, y la mayoría de las tecnologías actuales aún no cubren adecuadamente su acceso a la información. Esta herramienta abre puertas a la comunicación más directa, inclusiva y empoderada — sin depender de intérpretes humanos ni conexión constante a la nube.
Además, representa un giro esperanzador hacia modelos de IA aplicados con impacto social real. SignGemma no solo es una proeza tecnológica, es una apuesta política por el acceso.
🧪 ¿Y ahora qué?
De momento, SignGemma está en fase de pruebas con acceso anticipado para desarrolladores e investigadores. Pero se espera que llegue al público general antes de que acabe el año. Puedes seguir su evolución o solicitar acceso en la web oficial de DeepMind.



