Pendant des années, les assistants IA ont promis la même chose : comprendre une intention simple, ouvrir les bonnes applications, exécuter les bonnes étapes et ne laisser à l’utilisateur que la validation finale. Sur les tout derniers appareils de Google et Samsung, cette promesse commence visiblement à prendre forme avec une nouvelle fonction d’automatisation des tâches portée par Gemini.
D’après ce premier retour terrain, la fonctionnalité, tout juste arrivée en bêta sur le Galaxy S26 Ultra via une mise à jour, permet déjà à l’assistant de prendre la main sur certaines applications de livraison et de VTC dans une fenêtre virtuelle.
Une scène à la fois très attendue et franchement déroutante : celle d’un téléphone qui, littéralement, utilise ses propres applications sous vos yeux.
Une promesse de longue date qui devient enfin concrète
Le scénario mis en avant est volontairement simple : demander à Gemini de commander un Uber vers l’aéroport. L’assistant ne se contente pas d’ouvrir l’application. Il demande d’abord une précision pertinente — quel aéroport, exactement — puis enchaîne seul plusieurs étapes dans l’interface, comme la saisie de la destination ou le passage d’options secondaires jugées peu utiles dans ce contexte.
Le plus intéressant n’est pas seulement l’exécution, mais la logique affichée. Gemini semble capable de distinguer l’essentiel du superflu, tout en s’arrêtant avant l’action irréversible. Le système laisse ainsi à l’utilisateur la possibilité de vérifier les détails avant de confirmer la course. C’est une mécanique importante : l’IA agit, mais ne décide pas totalement à votre place.
Autrement dit, Google et Samsung ne cherchent pas seulement à rendre l’assistant plus bavard ou plus “intelligent” sur le papier. Ils essaient de le rendre opérant.
Une IA qui navigue vraiment dans les applications
L’autre test, plus flou dans sa formulation, consistait à demander à Gemini de commander un café et un croissant. Ici, l’intérêt du dispositif apparaît encore mieux. Là où un assistant classique aurait pu se contenter d’une réponse générique ou d’une recherche web, Gemini traverse réellement les menus, explore les options disponibles et avance pas à pas dans l’application concernée.
Le récit est parlant : l’assistant prend du temps, fait défiler les boissons chaudes chez Starbucks, finit par trouver un flat white, puis doit trancher un détail presque trivial, mais très humain, autour du croissant au chocolat — réchauffé ou non. Sans intervention directe, il choisit l’option réchauffée, et le choix s’avère pertinent.
C’est précisément dans ce type de microdécisions que l’automatisation bascule d’une démonstration technique à un usage crédible. Une IA utile n’est pas seulement une IA qui comprend une commande ; c’est une IA qui sait naviguer dans les ambiguïtés ordinaires de la vie quotidienne.
Le vrai enjeu : passer du chatbot à l’agent
Cette évolution en dit long sur la stratégie actuelle autour de Gemini. Depuis deux ans, le marché des assistants IA s’est surtout concentré sur la génération de texte, la synthèse et la recherche conversationnelle. Mais la prochaine bataille se joue ailleurs : dans la capacité des modèles à agir dans des environnements logiciels réels.
C’est là que la démonstration devient stratégique. Commander un trajet ou un petit-déjeuner n’a rien de spectaculaire en soi. En revanche, cela valide une brique beaucoup plus importante : celle d’un assistant capable d’interagir avec des interfaces existantes, sans exiger que chaque service soit totalement repensé autour de l’IA.
Google semble vouloir transformer Gemini en couche d’action universelle, tandis que Samsung lui offre un terrain d’expression privilégié sur ses appareils haut de gamme. L’objectif est clair : faire du smartphone non plus seulement un terminal que l’on manipule, mais un environnement que l’on délègue.
Une expérience encore bêta, mais déjà révélatrice
Tout n’est évidemment pas encore parfait. Le test souligne d’ailleurs que certaines demandes plus vagues réclament encore des précisions ou un peu de patience, notamment lorsque l’assistant doit parcourir de longues interfaces commerciales. Cette lenteur fait partie de l’étrangeté du moment : voir son téléphone hésiter, défiler, sélectionner et corriger presque comme le ferait un humain produit une impression nouvelle, entre fascination et léger malaise.
Mais c’est peut-être justement le signe que quelque chose change. Pendant longtemps, les assistants ont excellé à promettre. Ici, pour une fois, ils commencent à exécuter.
Il reste à voir comment cette automatisation résistera à des scénarios plus complexes, à des applications moins bien structurées, ou à des demandes plus ambigües. Mais une chose ressort déjà de ce premier essai : l’idée d’une IA qui agit vraiment à votre place n’est plus une simple démo de keynote. Elle entre, doucement, dans l’usage réel.








