Pendant des années, « l’assistant » sur smartphone s’est surtout contenté d’ouvrir des applications. Google veut maintenant franchir un cap : faire exécuter l’action, pas seulement la suggérer.
Avec de nouveaux outils développeurs dévoilés la semaine dernière, Android se prépare à accueillir des agents IA capables de naviguer dans vos apps installées — chercher une photo, gérer un agenda, commander un repas ou organiser un trajet multi-étapes — pendant que vous continuez à utiliser votre téléphone.
Google parle d’un « futur agentique » où l’on ne passe plus d’app en app : on formule une intention, et l’IA se charge du parcours. Les premières briques arrivent en bêta sur la gamme Galaxy S26 et certains Pixel 10, avec une invocation simple : un appui long sur le bouton d’alimentation pour déléguer une tâche complexe à Gemini.
Au lancement, Google limite volontairement la portée : seulement États-Unis et Corée du Sud, et un périmètre d’apps « curaté » dans trois catégories très concrètes (livraison de repas, courses, VTC).
Deux rails techniques : AppFunctions (propre) et UI automation (universel)
Google construit cette bascule sur deux approches complémentaires — et c’est là que se joue le vrai changement.
AppFunctions : l’intégration « propre » (et recommandée)
AppFunctions est un framework destiné aux développeurs pour exposer des fonctions spécifiques d’une app à un agent IA (ex. rechercher des photos, créer un événement, extraire une note), de façon structurée et contrôlable. Google le présente comme une couche « découvrabilité » : l’assistant peut comprendre ce que l’app sait faire et l’invoquer via langage naturel.
UI automation : l’intégration « par défaut » quand l’app n’a rien prévu
Pour les apps non intégrées, Google teste un framework d’automatisation de l’interface : Gemini « utilise » l’app comme un humain, via une fenêtre virtuelle, en enchaînant les étapes nécessaires (sélections, champs, options), tout en restant surveillable. C’est plus large, plus magique… et potentiellement plus fragile si l’UI change.
Google résume clairement l’intention : AppFunctions pour une expérience robuste et maîtrisée ; UI automation pour donner de la portée « immédiate » à l’agent, même quand l’écosystème n’est pas encore prêt.

Sécurité et contrôle : l’agent agit, mais vous gardez le volant
L’objection est évidente : laisser une IA « dans vos apps » ressemble à une prise de risque. Google répond en mettant l’accent sur transparence et garde-fous :
- l’utilisateur peut suivre l’exécution via des notifications/vues de progression et reprendre la main ;
- les actions sensibles (ex. paiement, validation finale) demandent une confirmation explicite ;
- Google insiste sur une exécution conçue avec la confidentialité comme base, et sur le fait que l’utilisateur reste décisionnaire.
Ce cadrage est aussi un aveu : l’agentique n’a aucune chance de devenir « normal » si l’utilisateur a l’impression d’être spectateur d’un automate opaque. Ici, Google cherche à rendre l’automatisation utile sans être inquiétante.
Ce que ça annonce pour Android 17 : le système devient une interface d’intentions
Le détail le plus important est dans la feuille de route : Google explique vouloir élargir ces capacités avec Android 17 pour toucher davantage d’utilisateurs, de fabricants et surtout de développeurs.
En filigrane, Android change de rôle : il ne sert plus uniquement à lancer des applications, mais à orchestrer des actions entre elles. Et si la promesse tient, le geste le plus « smartphone » de demain ne sera plus d’ouvrir l’icône Uber/DoorDash/calendrier… mais de dire : « Fais-le pour moi, et montre-moi avant de valider. »



