El fin de los asistentes que solo hablan y el inicio de los que realmente hacen las cosas por ti.
Bienvenidos a la era de la acción
Hoy, 25 de febrero de 2026, nos hemos despertado con una noticia que cambia las reglas del juego en nuestros teléfonos. Google ha dado el paso que todos esperábamos: Gemini ya no es solo un chatbot que te responde con textos ingeniosos. Ahora es un agente capaz de meterse en tus aplicaciones y completar tareas de varios pasos por sí solo.
Imagina que estás en medio de una reunión y te das cuenta de que no tienes nada para cenar. Antes, tenías que abrir la app de comida, buscar el restaurante, elegir los platos y pagar. Ahora, simplemente le dices a tu Android: “Gemini, pídeme lo de siempre en el restaurante de sushi y asegúrate de que llegue a las ocho”. Y él lo hace.
Esto es lo que en tecnología llamamos un “agente de acción”. Es como si tu móvil hubiera pasado de ser un simple diccionario a convertirse en un asistente personal que realmente tiene manos para ejecutar órdenes. No es magia, es una integración profunda en el sistema operativo que Google ha estado cocinando durante meses y que finalmente ha desplegado este 25 de febrero de 2026.
¿Cómo funciona este nuevo superpoder?
Para que esto funcione, Google ha dotado a Gemini de la capacidad de interactuar con la interfaz de usuario de otras aplicaciones. Esto significa que la IA puede “leer” lo que hay en pantalla, entender dónde están los botones y pulsarlos de forma lógica, igual que lo harías tú.
Trasteando con esta nueva función, me di cuenta de que la clave está en el razonamiento secuencial. Si le pides que organice un viaje, Gemini no solo busca los vuelos. Abre la app de la aerolínea, selecciona las fechas que tienes libres en tu calendario, busca un hotel cercano al evento que tienes anotado y te presenta el carrito de compra listo para que tú solo pongas la huella digital para pagar.
Es como si tuvieras a alguien manejando el ratón y el teclado de tu vida digital, pero a la velocidad de la luz. Google ha logrado que Gemini entienda el contexto de lo que estás haciendo en cada momento, eliminando esa fricción constante de saltar de una pestaña a otra.
Un golpe directo sobre la mesa de Apple
No podemos ignorar que este movimiento pone a Google a la cabeza de una carrera frenética. Durante gran parte de 2025, estuvimos escuchando rumores sobre cómo Apple Intelligence automatizaría nuestras vidas, pero hoy, 25 de febrero de 2026, es Google quien ha entregado una solución funcional y masiva para los usuarios de Android.
La diferencia fundamental es la apertura. Mientras Apple suele ser un jardín vallado donde solo sus aplicaciones se hablan entre sí, Google ha abierto la puerta para que Gemini interactúe con aplicaciones de terceros, desde Uber hasta servicios de entrega de supermercados locales. Es un enfoque mucho más práctico para el día a día.
“La inteligencia artificial que solo responde preguntas es el pasado; la que ejecuta acciones es el presente que acaba de empezar”, comentaba un ingeniero de Google durante la presentación de hoy.
¿Es seguro dejar que la IA controle mi móvil?
Esta es la pregunta del millón. Si Gemini puede comprar comida o reservar un transporte, ¿qué le impide cometer un error o, peor aún, que alguien tome el control de esas acciones? Es una duda totalmente legítima que yo mismo tuve al empezar a probarlo.
Google afirma que todas estas acciones se procesan bajo el paraguas del Android Private Compute Core. Básicamente, la IA no “ve” tus contraseñas ni tus datos bancarios de forma plana. Además, para cualquier acción que implique un gasto de dinero o un cambio importante en la configuración, el sistema te pide una confirmación biométrica (tu cara o tu huella).
Aun así, el riesgo de que la IA malinterprete una orden existe. Imagina que le pides “comprar un billete a París” y acaba comprando el más caro en primera clase porque no especificaste el presupuesto. Por eso, por ahora, el usuario sigue siendo el último filtro necesario antes de darle al botón de “confirmar”.
Ejemplos reales de lo que puedes hacer hoy mismo
Si ya tienes la actualización disponible en tu dispositivo Android este 25 de febrero de 2026, aquí tienes algunas cosas que puedes probar para ver de qué es capaz este nuevo Gemini:
- Gestión de compras: “Gemini, añade leche desnatada y pan integral al carrito de mi supermercado habitual y programa la entrega para mañana a las 10:00”.
- Logística personal: “Mira el correo de confirmación de mi vuelo y reserva un Uber para que me recoja en casa dos horas antes de la salida”.
- Organización de ocio: “Busca entradas para la película de las ocho en el cine más cercano y envíale un mensaje a mi hermano preguntándole si quiere venir”.
Lo más fascinante es cómo estas tareas, que antes nos llevaban 5 o 10 minutos de atención dividida, ahora se resuelven en segundos. Es tiempo que recuperamos para hacer cualquier otra cosa, o simplemente para no estar pegados a la pantalla.
Lo que viene a continuación
Esto es solo el principio. A medida que más desarrolladores optimicen sus aplicaciones para ser “leídas” por agentes de IA, la complejidad de las tareas que Gemini podrá realizar crecerá exponencialmente. Estamos pasando del smartphone al “agentshone”.
Mi sensación personal es que dentro de un año nos parecerá ridículo haber tenido que buscar manualmente un restaurante y rellenar todos nuestros datos cada vez que queríamos cenar fuera. La tecnología debe estar al servicio de la pereza inteligente, y Google lo ha entendido perfectamente.
Conclusiones para el usuario
- Actualiza ya: Comprueba si tienes la última versión de los Servicios de Google Play y la app de Gemini.
- Prueba y error: Empieza con tareas sencillas antes de confiarle la organización de tu boda.
- Privacidad: Revisa los permisos de accesibilidad de Gemini en los ajustes de tu Android; ahí es donde reside su poder para interactuar con otras apps.
- Criterio humano: No olvides que, aunque la IA sea muy lista, tú sigues teniendo el control del botón de pago.


