Google ne se contente plus de promettre l’IA sur smartphone, il prépare déjà son terrain de déploiement. Avec un nouveau Developer Preview d’AI Core et l’arrivée de Gemma 4 comme socle technique, la firme donne aux développeurs un message très clair : commencez à construire maintenant, vos apps seront prêtes quand les premiers appareils compatibles avec Gemini Nano 4 arriveront plus tard cette année.
Une transition pensée pour les développeurs avant tout
Google explique que le code écrit aujourd’hui avec Gemma 4 dans le cadre du nouvel AI Core Developer Preview sera forward-compatible avec les futurs appareils équipés de Gemini Nano 4. Autrement dit, l’entreprise ne lance pas encore la nouvelle génération de Nano auprès du grand public, mais elle ouvre déjà la rampe d’accès côté développeurs.
C’est important, parce que cela réduit l’un des vieux problèmes de l’IA on-device : attendre le hardware final pour commencer à développer. Google veut au contraire que les apps soient prêtes au moment où les nouveaux smartphones arriveront, et non plusieurs mois après.
Gemma 4 devient la base de Gemini Nano 4

Google a confirmé que Gemma 4 sert de base model à la prochaine génération de Gemini Nano, baptisée Gemini Nano 4. Deux variantes sont mises en avant dans la preview Android : une version plus légère orientée rapidité et latence, et une autre plus musclée pour des réponses de meilleure qualité et des tâches plus complexes.
Gemini Nano 4 Fast sera basé sur Gemma 4 E2B, tandis que Gemini Nano 4 Full est basé sur Gemma 4 E4B.
Google précise aussi que ce nouveau socle est jusqu’à 4 fois plus rapide que la génération précédente et peut utiliser jusqu’à 60 % de batterie en moins sur Android. Ce sont probablement les chiffres les plus significatifs de l’annonce, parce qu’ils répondent directement aux limites de l’IA locale sur smartphone : latence, chauffe et autonomie.
Pourquoi cela compte vraiment pour les futurs flagships Android
Le fond du sujet est là : Google pousse de plus en plus l’idée que l’IA sur smartphone doit s’exécuter localement, sans dépendre systématiquement du cloud. L’intérêt est triple : des réponses plus rapides, davantage de confidentialité, et une meilleure disponibilité même hors connexion. Le billet développeur de Google présente précisément Gemma 4 comme un modèle pensé pour des expériences agentiques et multimodales à la périphérie, donc directement sur l’appareil.
Cela change aussi la manière dont les flagships Android vont se différencier. Si les fonctions IA locales deviennent centrales, la qualité de l’expérience dépendra de plus en plus de la combinaison entre modèle, intégration logicielle et accélérateurs matériels. Google cite d’ailleurs explicitement un travail avec l’écosystème Android autour d’AI Core, tandis que le lancement plus large de Gemma 4 met en avant des optimisations pour mobiles, edge devices et puces partenaires.
Plus multimodal, plus international, plus « agentique »
Gemma 4 n’est pas seulement une mise à jour de performance. Google le présente aussi comme un modèle plus robuste pour le raisonnement, le code, la vision et les workflows agentiques, avec prise en charge de plus de 140 langues. Le modèle supporte également des usages multimodaux combinant texte, image et audio, ce qui ouvre la porte à des assistants plus riches, à de la transcription locale, à de la traduction contextuelle ou à des expériences visuelles embarquées.
Sur Android, cela veut dire que les futures fonctions « intelligentes » ne seront plus seulement des gadgets isolés, mais potentiellement une couche transversale du système. Cette conclusion relève de l’analyse, mais elle est cohérente avec le rôle de fondation attribué à Gemini Nano depuis plusieurs générations et renforcé ici par Gemini Nano 4.
Il reste toutefois plusieurs zones floues. Google n’a pas encore publié de liste officielle de smartphones compatibles ni donné de date précise au-delà d’un lancement attendu plus tard en 2026. La firme n’a pas non plus détaillé la segmentation commerciale appareil par appareil. Sur le terrain, la qualité de l’expérience dépendra aussi du support d’AI Core et des accélérateurs embarqués.
C’est un point essentiel, car tous les smartphones Android ne profiteront pas automatiquement du même niveau de performance. Le cadre logiciel se met en place, mais la vraie hiérarchie se jouera aussi sur le silicium. Cette dernière phrase relève de l’analyse.
Google prépare moins une feature qu’un standard
La vraie portée de cette annonce est peut-être là. Google ne lance pas simplement un « nouveau petit modèle IA ». Il construit un pipeline standardisé entre ses modèles ouverts Gemma, son environnement développeur AI Core, et les futurs terminaux Android équipés de Gemini Nano 4. Cette architecture réduit la friction entre expérimentation, prototypage et déploiement réel.
En clair, la prochaine bataille des flagships Android ne se jouera pas seulement sur l’appareil photo ou la puissance brute. Elle se jouera aussi sur une question beaucoup plus structurante : à quel point votre téléphone saura faire tourner une IA utile, locale et rapide au quotidien. Et Google, manifestement, veut fixer les règles du jeu avant même que les nouveaux appareils n’arrivent.


