fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Claude Code Voice : Anthropic permet enfin de piloter son code à la voix

Claude Code Voice : Anthropic permet enfin de piloter son code à la voix

Anthropic vient d’ajouter une brique inattendue à Claude Code, son assistant de développement orienté terminal : un mode vocal qui permet de piloter l’agent en parlant, plutôt qu’en tapant.

Le geste est moins gadget qu’il n’y paraît : dans un marché saturé d’outils de « coding AI », changer l’interface peut être la manière la plus rapide de se différencier — et de faire basculer des usages.

Claude Code : Une fonctionnalité simple à activer, mais lourde de sens

D’après TechCrunch, l’activation se fait directement dans la session Claude Code via une commande : /voice. Une fois enclenché, l’utilisateur dicte des demandes (ex. « refactoriser le middleware d’authentification ») et Claude Code exécute comme s’il s’agissait d’instructions textuelles — lecture/écriture de fichiers, refactor, debugging, etc.

Plusieurs reprises indiquent aussi un mécanisme « push-to-talk » (ex. maintien d’une touche pour parler), signe qu’Anthropic cherche à éviter le piège des assistants « toujours à l’écoute » dans un contexte pro.

Pourquoi ça compte dans la guerre des assistants de dev ?

Le marché est déjà polarisé : GitHub Copilot (Microsoft), Cursor, Windsurf et une constellation de startups se battent sur la vitesse, l’intégration IDE et les agents multi-fichiers. Anthropic, lui, a une carte particulière : le terminal comme interface « native » pour une partie des développeurs — et donc une place légitime pour y greffer une interaction vocale.

En clair : si tout le monde propose « un copilote », la différence peut venir de la façon dont on le pilote.

Le pari ergonomie : moins de friction, moins de fatigue

L’argument productivité est évident : parler va souvent plus vite que taper des consignes longues et précises. Mais, l’argument ergonomique est, lui, potentiellement plus fort : dans une industrie où les troubles musculo-squelettiques existent bel et bien, réduire le volume de frappe pour les tâches « meta » (expliquer, décrire, orchestrer) peut devenir un bénéfice très concret — surtout si l’agent est déjà capable d’agir à travers le système (fichiers, commandes, recherche).

Le point critique : confidentialité, biométrie, conformité

Dès qu’on ajoute la voix, on change la nature des données : ce n’est plus seulement du texte, c’est aussi un signal biométrique potentiel, et des flux audio qui peuvent inquiéter les équipes sécurité. Anthropic a déjà publié des éléments sur la collecte de données liées à la dictée/voix dans ses produits grand public, ce qui donne un point d’appui aux entreprises pour évaluer le risque (stockage, traitement, finalités).

La question qui va décider de l’adoption en entreprise n’est donc pas « est-ce cool ? », mais « où passe l’audio, combien de temps, et avec quelles garanties ? ».

L’histoire des interfaces vocales dans le travail est mitigée : les assistants ont percé dans le grand public, beaucoup moins dans les workflows professionnels. Mais les agents IA changent la donne : on ne dicte plus du texte, on dirige une action. Si Claude Code arrive à comprendre les références implicites (« le bug qu’on vient de voir », « le module auth », « fais-le comme hier »), la voix peut devenir un véritable accélérateur d’orchestration.

Et surtout : si Anthropic prouve que ça marche au terminal, les concurrents devront répondre — ne serait-ce que pour éviter de laisser à Claude Code l’image de l’outil le plus « naturel » à piloter.

Lire plus
Intelligence Artificielle

GPT-5.3 Instant : OpenAI retire enfin le « ton de thérapeute » qui agaçait tout le monde

GPT-5.3 Instant : OpenAI retire enfin le « ton de thérapeute » qui agaçait tout le monde

Si vous avez déjà levé les yeux au ciel devant un « Tout d’abord, tu n’es pas cassé(e) », vous n’êtes clairement pas seul. Avec GPT-5.3 Instant, OpenAI dit avoir corrigé ce qui agaçait une partie des utilisateurs : ce ton pseudo-thérapeutique, les préambules moralisateurs et les avertissements qui s’invitent même quand on demande juste une info simple.

Le vrai changement : moins de sermons, plus de réponse

Dans sa note produit, OpenAI présente GPT-5.3 Instant comme une mise à jour centrée sur « les choses que les gens ressentent tous les jours » : ton, pertinence, fluidité de conversation — des éléments « qui ne se voient pas toujours dans les benchmarks ».

Concrètement, la marque promet moins de refus inutiles, là où GPT-5.2 Instant pouvait bloquer des demandes pourtant légitimes, moins de préambules défensifs et de « disclaimers » qui coupent le rythme et un style plus direct, qui évite de projeter une émotion sur l’utilisateur.

Et sur X, OpenAI résume la chose sans détour : « 5.3 Instant réduit la gêne ».

Pourquoi OpenAI recule (un peu) sur l’empathie automatique ?

Le « problème » de GPT-5.2 Instant n’était pas tant l’empathie que son caractère réflexe : la machine se mettait à rassurer (« tu n’es pas cassé », « respire ») comme si chaque question impliquait une détresse. L’effet, à force, a été vécu comme infantilisant ou condescendant — au point d’alimenter des fils entiers de critiques (et des menaces d’annulation d’abonnement) sur Reddit et ailleurs.

Ce que GPT-5.3 Instant change, c’est une nuance essentielle : reconnaître sans surjouer, et surtout ne pas diagnostiquer l’état mental de l’utilisateur quand il n’a rien demandé de tel. OpenAI illustre d’ailleurs ce basculement avec un exemple « de rencontres amoureuses » : la version 5.2 démarre par un grand réconfort, la 5.3 va davantage vers l’analyse utile.

Le nerf de la guerre : sécurité, responsabilité… et expérience produit

Ce virage n’arrive pas dans le vide. OpenAI fait face à une pression grandissante autour des impacts potentiels des chatbots sur la santé mentale, avec plusieurs affaires et accusations très médiatisées aux États-Unis (suicides, délires renforcés, etc.). Dit autrement : OpenAI doit être prudent, mais pas pénible. Trop de « rampes » visibles et vous perdez l’utilisateur. Pas assez, et vous vous exposez à des risques très réels — humains, juridiques, réputationnels.

GPT-5.3 Instant est donc un compromis : OpenAI affirme avoir mené des évaluations de sécurité et renvoie vers une system card dédiée, tout en réduisant les « petits sermons » qui donnaient l’impression d’un bot autoritaire.

Ce que ça raconte de l’IA grand public en 2026

En creux, cette mise à jour confirme une idée devenue centrale : l’UX d’un modèle, ce n’est pas seulement la vitesse et la précision — c’est la posture. Pendant un temps, l’industrie a cru qu’un chatbot devait se comporter comme un coach bienveillant par défaut. Le retour de bâton montre l’inverse : dans l’usage quotidien, les gens veulent souvent un assistant qui répond, pas un miroir émotionnel.

Et c’est peut-être là le vrai message de GPT-5.3 Instant : OpenAI commence à traiter le ton comme une variable de produit aussi structurante que le raisonnement. Parce qu’à force d’essayer de « prendre soin » de tout le monde, ChatGPT avait fini par parler à beaucoup d’utilisateurs… comme s’ils allaient mal, même quand ils allaient juste vite.

Lire plus
Intelligence Artificielle

Gemini 3.1 Flash-Lite : Google lance son modèle le plus rapide et rentable pour les pros

Gemini 3.1 Flash-Lite : Google lance son modèle le plus rapide et rentable pour les pros

Deux semaines après Gemini 3.1 Pro, Google complète déjà sa gamme avec un profil bien plus pragmatique : Gemini 3.1 Flash-Lite, présenté comme le modèle le plus rapide de la famille Gemini 3 à ce jour — et aussi le plus abordable côté API.

L’ambition est limpide : séduire les développeurs qui font tourner des volumes massifs de requêtes, là où chaque milliseconde et chaque fraction de centime comptent.

Gemini 3.1 Flash-Lite : Un modèle taillé pour le « trafic », pas pour le prestige

Flash-Lite n’est pas conçu pour briller sur les démonstrations les plus spectaculaires, mais pour absorber du haut débit : traduction, modération, extraction/structuration de données, génération d’interfaces, automatisations répétitives — bref, tout ce qui doit être fiable, rapide et industrialisable. Google le propose en preview via l’API Gemini dans Google AI Studio et côté entreprise dans Vertex AI, sans passage par l’app Gemini grand public.

Côté prix, Google place le curseur agressivement : 0,25 dollar/million de tokens en entrée et 1,50 dollars/million en sortie (avec « thinking tokens » inclus côté sortie).

Benchmarks : plus cher que 2,5 Flash-Lite… mais nettement plus solide

Le point intéressant, c’est que Google assume une hausse de prix par rapport à l’ancienne génération « Flash-Lite » : on passe d’un ordre de grandeur 0,10 dollar/0,40 dollar (Gemini 2.5 Flash-Lite) à 0,25 dollar/1,50 dollars avec 3.1. En échange, l’éditeur promet un saut de capacité et un meilleur ratio « qualité/dollar » sur des usages réels de production.

Sur la performance pure, plusieurs reprises de l’annonce évoquent une cadence pouvant monter jusqu’à ~363 tokens/seconde. L’idée n’est pas de gagner la guerre des agents « qui réfléchissent longtemps », mais d’être le moteur rapide qui fait tourner les pipelines.

gemini 3.1 flash lite table 1

Le signal stratégique : Google vise la « IA utilitaire »

Ce lancement raconte surtout une bascule de produit. Après des mois où l’industrie a sur-investi le récit des modèles « frontier » (toujours plus intelligents, toujours plus chers), Google met en avant un modèle pensé pour la vraie vie des équipes : du volume, des coûts maîtrisés, de la latence basse, et une intégration propre dans l’écosystème Cloud.

Autre détail révélateur : Google publie une model card dédiée, et positionne Flash-Lite comme une brique « rentable » pour des flux sensibles au budget — un vocabulaire très « plateforme », très « ops ».

Ce que ça change pour les développeurs

Pour ceux qui construisent des produits à grande échelle, Gemini 3.1 Flash-Lite coche trois cases concrètes :

  1. Un plafond de coût plus prévisible (surtout quand on sait calibrer le raisonnement et donc la longueur des sorties).
  2. Une latence optimisée pour le temps réel (support, triage, enrichissement, score, UI).
  3. Une proposition multimodale qui reste compétitive dans une classe « lite », là où beaucoup de modèles rapides deviennent myopes dès qu’on sort du texte.

Reste un choix de produit clair : si vous avez besoin d’un cerveau qui orchestre des workflows complexes, 3,1 Pro reste le vaisseau amiral. Si vous avez besoin d’un moteur rapide qui tourne en continu, Flash-Lite est la pièce d’ingénierie qui peut faire baisser la facture — sans faire chuter l’expérience.

Lire plus
Intelligence Artificielle

Claude rend sa « mémoire » gratuite : le vrai coup de pression d’Anthropic sur ChatGPT

Claude rend sa « mémoire » gratuite : le vrai coup de pression d’Anthropic sur ChatGPT

Claude remonte dans les classements iOS, mais Anthropic ne veut pas que ce regain soit un simple feu de paille. La marque vient d’ouvrir à tous les utilisateurs, y compris gratuits de Claude, une fonctionnalité longtemps considérée comme « premium » : la mémoire (et la recherche dans l’historique).

Résultat : Claude ne redémarre plus à zéro à chaque conversation — et devient progressivement un assistant qui accumule du contexte.

Claude : Ce qui change vraiment avec la mémoire (au-delà du marketing)

Le problème numéro un des chatbots, vous le décrivez bien : répéter vos règles, votre projet, votre contexte à chaque nouveau fil. Avec la mémoire, Claude peut retrouver ce que vous avez déjà décidé (ton, objectifs, contraintes, préférences), « recoller » un projet là où il s’était arrêté, et vous laisser organiser cette continuité par projets pour éviter le mélange « perso/pro ».

Anthropic précise aussi un détail pratique : la mémoire n’est pas instantanée. Elle se met à jour dans un cycle pouvant aller jusqu’à 24 heures quand des conversations sont créées, modifiées ou supprimées.

Importer son passé : la fonction la plus « agressive » de l’update

Le deuxième mouvement est encore plus stratégique : un outil d’import pour récupérer votre contexte depuis d’autres assistants (ChatGPT, Gemini, Copilot, etc.). Le mécanisme, volontairement simple, repose sur un prompt « pré-écrit » que vous collez dans l’autre chatbot pour obtenir un bloc de données, puis que vous importez dans Claude.

69a5a1627df7ab3b4aabfe2a Import scaled

Et là encore, Anthropic annonce un délai de traitement : l’assimilation peut prendre jusqu’à 24 heures.

Pourquoi ce timing : « Claude est n°1 » et Anthropic veut convertir l’essai

Cette bascule vers le gratuit arrive alors que Claude profite d’une vraie vague d’attention (notamment sur iOS), au point d’atteindre la première place sur l’App Store US à certains moments, avec une dynamique alimentée par l’actualité et les débats autour des contrats défense.

En clair : Anthropic fait ce que font les plateformes quand l’audience arrive d’un coup — elle réduit la friction. Rendre la mémoire gratuite + proposer un import, c’est transformer le « j’essaie Claude » en « je peux m’y installer ».

La mémoire est une fonctionnalité puissante, mais sensible : elle touche à la rétention, à la séparation des usages et à la confiance. Anthropic insiste sur le fait que la mémoire suit les politiques de rétention existantes et que supprimer des conversations retire aussi leur contribution à la mémoire.

Lire plus
Intelligence Artificielle

Siri dopée par Gemini : Apple demande des serveurs dédiés à Google

Siri dopée par Gemini : Apple demande des serveurs dédiés à Google

Apple aurait demandé à Google d’étudier la mise en place de serveurs dédiés pour une future version de Siri, dopée par Gemini, tout en respectant les exigences de confidentialité d’Apple, selon The Information.

L’information est intéressante non parce qu’Apple « fait appel à Google » — c’est déjà acté — mais parce qu’elle suggère un pas supplémentaire : s’appuyer sur l’infrastructure Google pour exécuter Siri, au moins en partie.

Un partenariat déjà annoncé… mais une zone grise sur « où » tourne Siri

En janvier, Apple et Google ont officialisé une collaboration pluriannuelle : « la prochaine génération d’Apple Foundation Models » doit s’appuyer sur les modèles Gemini et la technologie cloud de Google, pour alimenter des fonctionnalités Apple Intelligence, dont « une Siri plus personnalisée ».

Sauf que cette annonce laissait une ambiguïté : Apple martelait que son IA continuerait de fonctionner « sur l’appareil » et via Private Cloud Compute (PCC)… sans préciser si la Siri « Gemini » tournerait sur le cloud Google, sur PCC, ou sur une architecture hybride.

Le nouveau papier de The Information indique justement que Apple aurait demandé à Google d’examiner la possibilité d’installer des serveurs dans ses data centers pour cette Siri à venir.

Pourquoi Apple pourrait « pencher » vers Google : l’infrastructure, ce nerf de la guerre ?

Le contexte que souligne The Information est celui d’un Apple historiquement prudent sur le capex datacenters, face à Google/Microsoft/Amazon qui investissent massivement pour répondre à la demande IA. Autre donnée qui fait grincer des dents : The Information évoque une sous-utilisation de Private Cloud Compute, avec ~10 % de capacité utilisée en moyenne.

À première vue, ça ressemble à un paradoxe : si le PCC est sous-utilisé, pourquoi externaliser ? La lecture la plus plausible (sans spéculer au-delà des sources) est que l’enjeu n’est pas seulement « avoir des serveurs », mais avoir les bons serveurs, au bon endroit, au bon moment, avec un réseau, une orchestration, des accélérateurs et un pipeline opérationnel déjà rodés à l’échelle IA — ce que Google sait faire mieux que quiconque.

apple intelligence gemini 1

Confidentialité : Apple peut-il garder sa promesse si Google héberge ?

Apple a construit PCC comme une réponse à une question devenue centrale : comment exécuter des requêtes IA lourdes sans transformer le cloud en aspirateur à données. Apple décrit PCC comme un système où les requêtes sont minimisées, non stockées, et exécutées sur des serveurs Apple Silicon avec un modèle de vérifiabilité et de contrôle renforcé.

Si Google « héberge » une version de Siri boostée à Gemini sous contraintes Apple, plusieurs architectures sont possibles (et toutes ne se valent pas) :

  • Serveurs Apple installés dans des datacenters Google (hosting), mais opérés selon les règles Apple (proche d’un PCC externalisé physiquement).
  • Infrastructure Google exécutant des charges Apple, avec des garanties contractuelles et techniques (plus sensible).
  • Hybride : certaines fonctions sur device/PCC, d’autres sur cloud Google.

À ce stade, les sources publiques ne tranchent pas. Le point clé est que « cloud de Google » ne veut pas automatiquement dire « données chez Google », mais cela crée une nouvelle surface de confiance : chaîne d’approvisionnement, opérations, audits, segmentation, logs, etc. C’est précisément là que la communication Apple va devoir être chirurgicale.

Ce que ça dit du moment Apple : rattraper l’IA sans casser le récit

Cette fuite s’inscrit dans un pattern clair : Apple veut livrer une Siri plus capable — annoncée, puis retardée — et éviter une période prolongée où Siri paraît « hors-jeu » face aux assistants dopés aux LLM. Le recours accru à Google serait alors moins une capitulation qu’une stratégie de rattrapage : accélérer sans reconstruire de zéro.

C’est aussi un aveu implicite : dans l’IA, la bataille ne se joue pas uniquement sur le modèle, mais sur l’industrialisation (latence, coût, disponibilité, scalabilité). Et là, Google a un siècle d’avance… à l’échelle Internet.

Lire plus
Intelligence Artificielle

MWC 2026 : TECNO misera sur l’IA et le modulaire pour bousculer les géants

MWC 2026 : TECNO misera sur l'IA et le modulaire pour bousculer les géants

Le MWC n’est plus seulement la grand-messe du smartphone : c’est devenu le salon où les marques expliquent comment leurs appareils vivent ensemble. À Barcelone, TECNO compte justement occuper ce terrain avec une promesse claire — « Pioneering the Connection of Intelligence » — et une vitrine pensée comme une démonstration d’IA au quotidien, entre création, productivité et continuité multi-appareils.

TECNO : Une présence structurée autour de « l’IA pratique »

Au cœur du stand, TECNO mettra en avant des produits qui se veulent immédiatement lisibles, sans discours ésotérique : des fonctions d’IA qui accélèrent des usages concrets, et un matériel calibré pour les marchés où la valeur se mesure à la polyvalence.

La marque annonce notamment la série CAMON 50, présentée comme un « AI imaging flagship », avec une emphase sur la reconnaissance de scène, le traitement d’image assisté et des outils destinés aux créateurs comme aux usages du quotidien.

À côté, la série POVA 8 vise la performance « sans drama » : design distinctif, endurance, fluidité, avec l’idée d’un smartphone fiable pour tenir la journée (et souvent plus).

OneLeap : le vrai sujet, c’est la continuité entre appareils

L’autre pilier, plus stratégique, c’est l’écosystème. TECNO promet une démonstration de sa plateforme OneLeap « upgradée », dédiée au transfert de données inter-appareils, au passage de tâches d’un écran à l’autre (handoff) et à la gestion unifiée de plusieurs produits.

Sur le stand, l’approche prendra la forme d’AI Experience Zones : des espaces scénarisés autour de cas d’usage (éducation, bien-être, productivité, divertissement), pour montrer la promesse là où elle compte — dans la friction qu’on retire, pas dans les slogans.

Des concepts « tourné vers l’avenir » pour installer une ambition

Enfin, TECNO compte aussi jouer la carte des prototypes : nouveaux formats, interactions plus intuitives, imagerie « nouvelle génération ». C’est un langage de salon — et le MWC adore ça — mais c’est aussi une façon d’envoyer un message : TECNO ne veut plus seulement être « accessible », elle veut être désirable.

La marque a d’ailleurs déjà officialisé qu’elle présentera au MWC 2026 un concept d’écosystème modulaire ultrafin, signe qu’elle teste des voies alternatives pour réinventer le couple smartphone/accessoires.

Dans un marché où « l’IA » est devenue un mot-valise, TECNO veut imposer une IA instrumentale, qui sert la photo, la création et la continuité entre écrans — et qui se vit en quelques secondes de démo. La bataille, en 2026, ne se joue plus seulement sur la fiche technique, mais sur la capacité à livrer une expérience cohérente, d’un appareil à l’autre, sans effort.

Lire plus
Intelligence Artificielle

ChatGPT en 2026 : 900 millions d’utilisateurs et une levée de fonds de 110 milliards de dollars

ChatGPT en 2026 : 900 millions d'utilisateurs et une levée de fonds de 110 milliards de dollars

OpenAI vient de publier des chiffres qui ressemblent moins à un point d’étape qu’à un changement d’échelle. ChatGPT revendique désormais plus de 900 millions d’utilisateurs actifs par semaine et plus de 50 millions d’abonnés payants, à quelques encablures du seuil symbolique du milliard.

Dans le même mouvement, l’entreprise annonce 110 milliards de dollars de financement privé sur une base de valorisation pré-money à 730 milliards, l’une des opérations les plus massives de l’histoire du capital privé tech.

ChatGPT : La croissance « produit » devient une croissance « infrastructure »

La progression est brutale : OpenAI parlait d’environ 800 millions de WAU en octobre 2025 ; elle ajoute donc 100 millions en quelques mois. Dans son annonce, OpenAI insiste sur un narratif très « industrie » : plus l’usage monte, plus l’expérience s’améliore « immédiatement » (rapidité, fiabilité, sécurité, constance).

Et surtout : janvier et février seraient en passe d’être les meilleurs mois historiques en nouveaux abonnés.

Ce renversement est clé : à ce stade, l’enjeu n’est plus seulement d’attirer, mais de tenir la charge. D’où la cohérence du timing entre chiffres d’usage et annonce financière.

Les chiffres qui comptent : abonnés, usage… et le carburant derrière

Sur le financement, trois noms structurent l’opération :

  • Amazon : 50 milliards de dollars
  • Nvidia : 30 milliards de dollars
  • SoftBank : 30 milliards de dollars
  • … pour 110 milliards de dollars au total, sur une valorisation pré-money de 730 milliards de dollars (round encore ouvert).

Plus intéressant encore : Reuters indique une valorisation post-money évoquée à 840 milliards $, et détaille des ramifications industrielles (capacité de calcul, systèmes Nvidia de nouvelle génération, et rôle accru d’AWS) tout en rappelant que le partenariat Azure de Microsoft demeure central pour l’API. 

OpenAI verrouille la chaîne de valeur… du produit jusqu’au silicium

Cette annonce dit quelque chose de très précis sur la nouvelle bataille de l’IA :

  1. La différenciation ne se joue plus uniquement sur le modèle, mais sur l’accès stable et massif au calcul (puces, data centers, énergie) — autrement dit, l’IA comme industrie lourde.
  2. Le passage de « l’outil » à « l’infrastructure » : 50 millions d’abonnés, c’est un plancher de revenus et une preuve de traction de clients qui rassure les investisseurs sur la durée, pas seulement sur l’effet de mode.
  3. L’équilibre géopolitique du cloud : l’entrée d’Amazon comme « fournisseur de cloud tiers exclusif » pour certains volets ressemble à une diversification assumée, sans rupture affichée avec Microsoft. Traduction : OpenAI veut réduire le risque de dépendance tout en sécurisant des volumes de compute.

Au fond, OpenAI achète une chose : du temps. Du temps de calcul, du temps d’exécution, du temps de disponibilité. Et dans l’ère agentique (où l’IA agit, pas seulement répond), le temps devient la ressource la plus chère.

Ce que ça change pour le marché : le « milliard » n’est pas qu’un trophée

Atteindre 1 milliard d’utilisateurs hebdomadaires, ce serait plus qu’un record : ce serait un signal de plateforme universelle, comparable aux plus gros produits de clients mondiaux. Mais même avant ce cap, un fait ressort : OpenAI se positionne comme une couche transversale — apprentissage, écriture, planification, construction — avec une monétisation qui accélère.

Reste l’autre lecture, plus froide : ce niveau de valorisation et de financement intensifie la pression sur la fiabilité, la sécurité et les coûts. Plus la base d’utilisateurs grossit, plus la promesse doit être tenue — partout, tout le temps.

Lire plus
Intelligence Artificielle

Nano Banana 2 : Google déploie Gemini 3.1 Flash Image, plus rapide et plus précis, dans l’app Gemini

Nano Banana 2 : Google déploie Gemini 3.1 Flash Image, plus rapide et plus précis, dans l’app Gemini

Après avoir fait le buzz en 2025 avec Nano Banana puis Nano Banana Pro, Google accélère à nouveau : Nano Banana 2 est en train d’arriver dans l’application Gemini, avec une promesse très « Flash » — plus rapide, moins coûteux, et suffisamment bon pour devenir le nouveau standard de la génération et de l’édition d’images.

Petit rappel de l’ampleur du phénomène Nano Banana : le premier modèle, lancé en août 2025, a explosé en adoption, au point de devenir l’un des moteurs d’imagerie les plus utilisés dans l’univers Gemini. Fin 2025, Nano Banana Pro (adossé à Gemini 3 Pro Image) avait ensuite poussé la précision d’édition et la constance à un niveau « studio », mais avec un coût et une latence plus élevés.

Nano Banana 2, lui, vise autre chose : faire passer le « niveau Pro » dans un usage plus quotidien, plus scalable.

Ce qu’est Nano Banana 2 : Gemini 3.1 Flash Image, version grand public

Selon Google, Nano Banana 2 correspond à Gemini 3.1 Flash Image : un modèle orienté vitesse et coût, conçu pour itérer rapidement (génération, retouche, variations) tout en améliorant la fidélité et l’obéissance au prompt.

Gemini Features NB Inline 202.ma

Et surtout, il est en cours de déploiement dans Gemini, avec une disponibilité qui s’élargit fortement, y compris côté accès gratuit selon les régions et modalités de l’app.

Google et la presse qui a pu observer le rollout mettent l’accent sur quelques points clés :

  • Meilleure gestion du texte (un vieux talon d’Achille de l’image générative) et meilleure adhérence au prompt.
  • Vitesse/latence : l’ADN « Flash » sert précisément à enchaîner les essais sans attendre, ce qui change la manière de créer (on passe du « prompt parfait » au « prototype rapide »).
  • Qualité et contrôle : Google parle d’un modèle qui combine « rapidité » et capacités avancées, avec davantage de contrôle créatif et de cohérence.

Nano Banana 2 devient assez robuste pour gérer des scènes plus denses (plusieurs objets/personnages cohérents) et viser des rendus plus « utilisables » pour des besoins concrets (créa, illustration, maquettes, contenus).

Où Nano Banana 2 arrive : Gemini, mais pas seulement

Ce lancement n’est pas un « petit toggle » dans une app. Google étend Nano Banana 2 à plusieurs surfaces : Gemini (app/web), Google Search/AI Mode et Lens (selon les marchés), et même des briques liées aux outils créatifs vidéo comme Flow (où l’image sert de matière première).

En parallèle, Google met aussi en avant ses efforts de traçabilité (SynthID, C2PA Content Credentials) autour des contenus générés, signe que l’entreprise veut industrialiser l’image générative sans laisser le sujet de l’authenticité lui exploser au visage.

Google joue la « commoditisation » de l’image IA

Avec Nano Banana 2, Google fait un choix très stratégique : transformer l’image générative en commodité, un outil par défaut intégré partout, plutôt qu’un « super pouvoir premium » réservé aux abonnés.

Flash sert à abaisser le coût psychologique de la création : on teste plus, on corrige plus, on itère plus vite. La qualité devient « suffisamment haute » pour que l’utilisateur moyen ne ressente plus le besoin de basculer sur un modèle Pro… sauf pour des tâches exigeantes (typo complexe, maquettes produit, retouches chirurgicales). Enfin, en le déployant largement, Google place Nano Banana 2 comme standard de facto dans son écosystème — ce qui est un avantage décisif face aux concurrents : l’outil le plus utilisé finit souvent par être « le meilleur », au moins dans l’imaginaire collectif.

En clair, Nano Banana 2 n’est pas seulement une mise à jour. C’est une étape vers une idée plus large — l’image IA comme fonction native d’Android, de Search et de Gemini, au même titre que la traduction ou la dictée.

Lire plus
Intelligence Artificielle

Perplexity Computer : l’IA qui orchestre 19 modèles pour exécuter vos projets de A à Z

Perplexity Computer : l’IA qui orchestre 19 modèles pour exécuter vos projets de A à Z

Perplexity ne veut plus seulement « chercher pour vous ». Avec Perplexity Computer, la startup franchit une étape stratégique : transformer son moteur de réponses en machine à workflows autonomes, capable de rechercher, concevoir, coder, déployer et maintenir un projet de bout en bout.

Ce n’est plus un chatbot. Ce n’est pas non plus un simple agent. C’est une couche d’orchestration multi-IA pensée comme un environnement d’exécution complet.

Qu’est-ce que Perplexity Computer, concrètement ?

L’idée est simple sur le papier : vous définissez un objectif, et le système le décompose en tâches et sous-tâches structurées. Ensuite, il attribue ces missions à des sous-agents spécialisés qui travaillent en parallèle.

Ces sous-agents peuvent faire de la recherche Web approfondie, rédiger et éditer des documents, analyser et traiter des données, effectuer des appels API ou encore écrire, tester et déployer du code.

L’élément clé : les workflows sont asynchrones. Vous pouvez lancer plusieurs « instances » de Perplexity Computer en parallèle, chacune gérant un projet différent, sans bloquer votre session.

On passe donc d’un modèle « question → réponse » à un modèle « objectif → exécution continue ».

Comment ça fonctionne sous le capot ?

Chaque tâche tourne dans un environnement isolé comprenant :

  • Un système de fichiers réel
  • Un navigateur réel
  • Des outils intégrés + accès API externes

Si un problème survient, le système peut générer automatiquement de nouveaux sous-agents pour résoudre l’impasse : chercher une documentation manquante, générer une clé API, construire un outil intermédiaire, ou demander une clarification à l’utilisateur — uniquement si nécessaire.

L’accès se fait via le Web. Aucune installation locale.

En clair, Perplexity construit une sandbox d’exécution autonome qui ressemble plus à un mini-ordinateur virtuel qu’à un simple assistant conversationnel.

Orchestration multi-modèles : 19 IA dans la même pièce

La véritable rupture stratégique réside dans l’orchestration. Perplexity Computer n’est pas lié à un seul modèle : il route dynamiquement chaque sous-tâche vers le modèle le plus adapté.

À son lancement, la plateforme s’appuie notamment sur :

  • Claude Opus 4.6 (Anthropic) comme moteur central de raisonnement
  • Google Gemini pour la recherche approfondie et la génération de sous-agents
  • ChatGPT 5.2 (OpenAI) pour le long contexte et la recherche large
  • Grok (xAI) pour les tâches rapides et légères
  • Veo 3.1 (DeepMind) pour la génération vidéo
  • Nano Banana pour la génération d’images

Au total : 19 modèles interconnectés.

L’utilisateur peut forcer le choix d’un modèle pour une sous-tâche, définir des plafonds de dépenses et optimiser l’usage des tokens. C’est une architecture model-agnostic : les modèles peuvent être remplacés ou mis à jour sans casser la plateforme.

Stratégiquement, c’est un mouvement puissant : Perplexity devient un meta-orchestrateur d’IA, pas un simple éditeur de modèle.

Infrastructure, mémoire et continuité

Perplexity Computer tourne sur l’infrastructure propriétaire de la société et inclut :

  • Des centaines de connecteurs services
  • Une mémoire persistante
  • Gestion de fichiers
  • Accès web intégré

Le système conserve le contexte entre projets tout en appliquant des contrôles de sécurité par défaut. On se rapproche d’un système d’exploitation IA dans le cloud.

Modèle économique : usage + crédits

L’accès est réservé aux abonnés Max pour le moment. Les abonnés Max reçoivent 10 000 crédits par mois inclus, 20 000 crédits bonus uniques, des crédits bonus supplémentaires au lancement et des crédits bonus expirant 30 jours après émission. Le modèle est basé sur la consommation réelle, avec une sélection des modèles pour contrôler les coûts et des plafonds de dépenses configurables.

Le support Pro et Enterprise est attendu prochainement.

Perplexity veut devenir l’interface universelle de l’IA

Ce lancement est plus stratégique qu’il n’y paraît.

  1. Ce n’est pas un chatbot amélioré : C’est une tentative de créer un environnement d’exécution autonome comparable à ce que Microsoft fait avec Copilot Studio — mais en mode multi-modèle.
  2. La vraie valeur est l’orchestration : Dans un monde où les modèles deviennent interchangeables, le pouvoir se déplace vers ceux qui savent les coordonner intelligemment.
  3. C’est une réponse directe à la fatigue des outils IA fragmentés : Aujourd’hui, un créateur jongle entre ChatGPT, Claude, Gemini, Midjourney, Runway… Perplexity propose de tout centraliser dans un pipeline unifié.
  4. La question clé est la fiabilité sur la durée : Les workflows longs et autonomes sont puissants — mais aussi coûteux et imprévisibles. Le succès dépendra de la stabilité, du contrôle des dépenses et de la gestion des erreurs.

Ce que ça change pour les professionnels

  • Startups : prototypage complet sans stack lourde
  • Développeurs : orchestration multi-LLM sans devoir construire l’infrastructure
  • Créateurs : production texte + image + vidéo dans un pipeline unique
  • Entreprises : automatisation multi-outils à l’échelle

Perplexity passe ainsi d’un moteur de recherche IA à un système d’exploitation productif basé sur l’IA.

Perplexity Computer marque une évolution majeure : l’IA ne se contente plus de suggérer, elle agit. En orchestrant 19 modèles dans un environnement exécutable, Perplexity tente de devenir le centre névralgique de la production assistée par IA.

Reste à voir si les utilisateurs adopteront cette vision « OS IA » — ou si la complexité et les coûts freineront l’élan. Mais une chose est claire : l’ère des simples chatbots touche à sa fin.

Lire plus
Intelligence Artificielle

Meta et AMD : Un pacte historique de 6 Gigawatts pour dominer l’IA

Meta et AMD : Un pacte historique de 6 Gigawatts pour dominer l'IA

Meta et AMD viennent d’officialiser un accord pluriannuel qui dit beaucoup plus qu’« on achète des GPU ». Meta annonce vouloir déployer jusqu’à 6 gigawatts de puissance de calcul basée sur des AMD Instinct, avec de premières livraisons au second semestre 2026.

Le tout s’appuie sur une intégration verticale (GPU, CPU, rack, logiciel) et un montage financier rare : une garantie jusqu’à 160 millions d’actions AMD lié à des jalons de livraisons et de performance.

6 GW : un chiffre « électricité », pas un chiffre marketing

Dans la rhétorique des datacenters IA, parler en gigawatts est devenu le nouveau langage du sérieux : on ne discute plus de « combien de GPU », mais de capacité industrielle. Meta explique que ce partenariat s’inscrit dans une approche « portfolio » : diversifier ses fournisseurs et ses architectures pour construire un stack plus résilient face aux pénuries, aux cycles de prix et aux contraintes d’énergie.

AMD, de son côté, précise que le premier « palier » vise 1 gigawatt de déploiement, puis une montée progressive vers 6 gigawatts au fil du partenariat.

Ce que Meta achète vraiment : une plateforme, pas juste des cartes

Le communiqué AMD et l’article de Meta convergent sur l’architecture :

  • GPU : des Instinct basés sur MI450 (customisés pour les workloads Meta)
  • CPU : EPYC « Venice » (6e génération) et une génération suivante mentionnée par Meta
  • Logiciel : ROCm côté AMD, avec cohabitation assumée avec les efforts internes de Meta (dont MTIA)
  • Système : l’infrastructure rack-scale Helios, co-développée via l’Open Compute Project

Dit autrement,.Meta veut des racks complets « plug-and-scale », optimisés pour ses charges d’entraînement et surtout d’inférence (là où le coût par requête devient le nerf de la guerre). Le MI450 est présenté comme particulièrement orienté inference, en concurrence directe avec la prochaine génération Nvidia.

Une garantie énorme, comme un alignement d’intérêts… et un aveu de rareté

L’élément le plus frappant est la garantie : les sources évoquent un dispositif pouvant aller jusqu’à 160 millions d’actions AMD, indexé sur des jalons de livraison (1 GW puis jusqu’à 6 GW) et des conditions de marché. L’idée est limpide : Meta sécurise la capacité future, AMD sécurise un client ancre — et chacun se lie à la réussite de l’autre.

Ce montage n’est pas seulement « financier ». Il signale que, dans l’IA, l’accès au compute se traite comme une ressource stratégique au même titre que l’énergie ou le foncier.

Pourquoi c’est important pour le marché : AMD force une brèche dans la dépendance Nvidia

Meta n’a jamais caché son recours massif à Nvidia, mais ce deal donne un message clair : la diversification n’est plus optionnelle. Entre la pression sur les prix, les délais, et la nécessité d’optimiser l’inférence à grande échelle, même les géants cherchent des alternatives crédibles.

Pour AMD, l’enjeu est immense : ce type d’accord transforme Instinct d’« alternative puissante » en pilier de déploiements hyperscale, avec un effet d’entraînement sur l’écosystème (ROCm, tooling, compatibilité, talents). Et, c’est souvent là que se gagne la vraie bataille : pas sur la fiche technique, mais sur la capacité à faire tourner, déployer et maintenir des flottes entières.

Ce que Meta gagne : de la flexibilité, et un chemin plus direct vers « personal superintelligence »

Meta encadre l’accord dans une vision long terme — « personal superintelligence » — mais, très concrètement, le pacte lui donne :

  • une visibilité sur des volumes de compute qui deviennent autrement impossibles à planifier,
  • une capacité d’arbitrage entre GPU (AMD/Nvidia) et accélérateurs maison (MTIA),
  • une plateforme rack-scale co-designée (Helios) qui réduit la complexité d’intégration.

Le nouveau luxe, ce n’est pas le modèle — c’est la logistique

Ce deal illustre un basculement : l’IA n’est plus uniquement une compétition de labos, mais une compétition d’industrialisation. Dans un monde où l’énergie, le silicium et la capacité de fabrication dictent le rythme, les entreprises qui sécurisent le compute à l’avance prennent mécaniquement un avantage produit.

La question désormais, n’est pas « AMD peut-elle rivaliser avec Nvidia sur un benchmark ? », mais « AMD peut-elle livrer, au bon rythme, au bon coût, au bon rendement, et faire tenir ROCm à l’échelle Meta ? ». Si oui, ce partenariat ne sera pas une ligne de communiqué : ce sera un changement de gravité pour l’infrastructure IA.

Lire plus
Intelligence Artificielle

Remote Control, Anthropic lance la « télécommande » pour Claude Code : Le dev asynchrone est là

Remote Control, Anthropic lance la « télécommande » pour Claude Code : Le dev asynchrone est là

Anthropic vient d’ajouter à Claude Code un mode baptisé Remote Control, pensé comme une télécommande : vous lancez une session Claude Code sur votre machine (terminal), puis vous la pilotez depuis le mobile Claude ou n’importe quel navigateur via claude.ai/code.

L’intérêt n’est pas de « coder sur téléphone », mais de garder un agent en marche pendant que vous quittez votre bureau.

Claude Code : Ce que Remote Control change vraiment

Remote Control crée une continuité entre deux surfaces :

  • Le « moteur » reste local : fichiers, variables d’environnement, outils, et serveurs MCP restent sur votre poste. Le Web/mobile n’est qu’une fenêtre de contrôle.
  • Conversation synchronisée : vous pouvez envoyer des messages depuis le terminal, le navigateur ou le téléphone, et tout reste aligné.
  • Tolérance aux interruptions : si l’ordinateur dort ou si le réseau saute, la session tente de se reconnecter automatiquement.

C’est une réponse « officielle » à ce que beaucoup faisaient déjà avec des bricolages (SSH + tmux + tunnels), mais avec une UX plus fluide et un modèle de connexion encadré.

Comment ça marche (et pourquoi c’est intéressant côté sécurité) ?

Anthropic est très explicite : Remote Control n’ouvre pas de port entrant sur votre machine. La session locale fait des requêtes HTTPS sortantes vers l’API Anthropic, « s’enregistre », puis poll/stream des messages et des ordres. Le client (web/mobile) passe par la même API, qui relaye les échanges via TLS.

Autre détail important, la connexion repose sur des identifiants courts (short-lived credentials), séparés par usages et expirant indépendamment.

Qui y a droit, et comment l’activer ?

Contrairement à certains posts qui laissaient entendre « Max d’abord », la doc officielle précise que Remote Control est disponible en « research preview » sur Pro et Max, et qu’elle n’est pas disponible pour les plans Team et Enterprise (pour l’instant).

Pour l’activer, allez dans un projet, et localisez claude remote-control. Dans une session en cours, saisissez/remote-control ou /rc. Le terminal affiche une URL et un QR code pour ouvrir la session dans l’app Claude.

Quelques limites à connaître :

  • Une seule session remote à la fois
  • Le terminal doit rester ouvert
  • Timeout si la machine est réveillée mais hors réseau ~10 minutes (ordre de grandeur indiqué).

Remote Control vs “Claude Code on the web” : deux philosophies

Il convient de ne pas confondre Claude Code sur le Web qui exécute en cloud Anthropic (repos clonés, environnement géré, tâches parallèles), et Remote Control, qui s’exécute sur votre machine (vos outils, vos secrets, vos MCP, votre FS). En clair, le Web est une délégation à l’infra Anthropic. Remote Control vise quant à lui sur la continuité de votre environnement local.

La sortie n’arrive pas dans le vide. Claude Code est en train de devenir un moteur de revenus majeur pour Anthropic, avec un chiffre de taux d’exécution qui circule beaucoup (à prendre comme une estimation médiatique, pas un audit public).

Et côté marchés, on a vu récemment comment les annonces « agentiques » d’Anthropic peuvent faire trembler des secteurs entiers : Reuters a rapporté une chute de plusieurs valeurs cybersécurité après le lancement d’un outil « Claude Code Security ».

Ce que ça dit de « l’économie du vibe coding »

Remote Control ne rend pas Claude Code plus intelligent. Il le rend plus présent : un agent qui continue d’exécuter pendant que vous êtes ailleurs, et que vous supervise(z) à distance, c’est exactement la mécanique qui transforme un outil en compagnon de production.

À petite échelle, c’est du confort. À grande échelle, c’est une étape de plus vers le « développement asynchrone », où l’humain pilote, tranche, corrige — mais ne reste plus collé à l’écran.

Lire plus
Intelligence Artificielle

#QuitGPT : 700 000 utilisateurs affirment avoir quitté OpenAI pour des raisons éthiques

#QuitGPT : 700 000 utilisateurs affirment avoir quitté OpenAI pour des raisons éthiques

Le mot-dièse #QuitGPT tourne en boucle sur X et Reddit, avec une affirmation devenue virale : « 700 000 utilisateurs ont quitté ChatGPT ». Le chiffre circule largement, mais il faut le lire pour ce qu’il est aujourd’hui : un indicateur de mobilisation, pas un audit certifié des comptes désactivés.

Plusieurs articles grand public reprennent ce volume en parlant de « engagements », de résiliations revendiquées ou d’un total « reportedly » attribué au mouvement.

D’où vient la colère : moins le prix, plus la politique et l’éthique

Dans ton texte, le déclencheur principal est présenté comme une hausse de prix (« Plus passé à 20 dollars/mois »). Problème : ChatGPT Plus est à 20 dollars/mois depuis longtemps, et OpenAI le rappelle encore dans ses communications récentes.

En revanche, deux éléments ont visiblement mis le feu aux poudres début 2026 :

  1. Les révélations sur un don politique de Greg Brockman (président et cofondateur d’OpenAI) à un Super PAC pro-Trump, largement relayées par Reuters et d’autres médias.
  2. Les controverses autour d’usages gouvernementaux liés à des outils « GPT-powered », qui alimentent un débat plus large sur « qui utilise l’IA, et pour quoi ».

Dit autrement, la dynamique QuitGPT ressemble moins à une « grève des prix » qu’à une coalition de maux (éthique, gouvernance, alignement politique, confiance).

Le chiffre des « 700 000 » : plausible comme signal, fragile comme mesure

Le mouvement dispose d’un site militant qui revendique l’ampleur de la campagne, et beaucoup de reprises utilisent un langage prudent (« d’après certaines informations », « affirmation »). Ce qu’on ne voit pas : une confirmation OpenAI du nombre de résiliations, ni un décompte indépendant.

En revanche, même si 700 000 était exact, l’impact « quantitatif » resterait limité à l’échelle de ChatGPT : OpenAI a déjà communiqué sur plus de 400 millions d’utilisateurs actifs hebdomadaires — ce qui remet l’exode dans un ordre de grandeur inférieur à 1 %.

Mais l’enjeu ici est surtout narratif : la perception de « perte de confiance » peut faire plus mal qu’une variation de volume.

« ChatGPT a-t-il vraiment empiré ? » — le débat le plus inflammable

Le mouvement s’appuie aussi sur une plainte devenue récurrente dans les communautés IA : réponses plus prudentes, plus « lisses », parfois moins utiles en code ou en écriture. Là, il est très difficile de trancher sans tests contrôlés : une partie relève du ressenti utilisateur, une autre des changements de modèles et de réglages de sécurité au fil du temps.

Ce qui est factuel : OpenAI ajuste régulièrement le comportement de ses modèles, et la « qualité perçue » peut varier selon le modèle actif, les garde-fous, et les prompts. Le backlash autour du retrait de GPT-4o (début 2026) illustre à quel point les utilisateurs peuvent s’attacher à une « personnalité » ou à un style.

Les destinations citées reviennent partout :

  • Gemini pour l’intégration Android/Google Workspace,
  • Claude pour le ton et le contexte long,
  • open source pour le contrôle et la souveraineté des données.

Ce tableau est cohérent avec l’état actuel du marché : les coûts de switch sont faibles (un autre onglet, une autre app) et l’écosystème propose désormais des alternatives crédibles.

Ce qu’OpenAI doit retenir

Même si QuitGPT est porté par une minorité visible, le signal est clair : l’IA grand public n’est plus en lune de miel. Les utilisateurs comparent, jugent, boycottent — et surtout, ils veulent que « l’IA » soit un produit transparent : transparence sur les changements de modèles, lisibilité de la politique de données, et cohérence de l’offre tarifaire (le trou entre Plus et Pro a longtemps été critiqué — ce qui rend plausible l’idée d’un palier intermédiaire comme « Pro Lite »).

Si #QuitGPT grossit, ce ne sera pas parce que ChatGPT « coûte trop cher ». Ce sera parce que la confiance coûte plus cher à reconstruire qu’un abonnement à 20 $.

Lire plus
Intelligence Artificielle

DeepSeek et MiniMax : 16 millions de messages pour « voler » l’intelligence de Claude

DeepSeek et MiniMax : 16 millions de messages pour « voler » l’intelligence de Claude

À mesure que les modèles deviennent plus chers à entraîner, un autre terrain de bataille s’impose : la copie par « distillation », plus rapide, moins coûteuse… et très difficile à prouver publiquement.

Ce lundi, Anthropic affirme avoir détecté des campagnes « à l’échelle industrielle » menées par trois acteurs chinois — DeepSeek, MiniMax et Moonshot — visant à extraire des capacités de Claude pour améliorer leurs propres modèles.

Ce qu’Anthropic affirme avoir observé

Dans son article, Anthropic dit avoir identifié environ 24 000 comptes frauduleux, plus de 16 millions d’échanges avec Claude, le tout en violation de ses conditions d’utilisation et de restrictions d’accès régionales.

L’entreprise situe l’enjeu au-delà du simple « scraping » : il s’agirait d’une extraction structurée de compétences (raisonnement, code, usage d’outils agentiques, etc.) afin de les transférer à des systèmes concurrents.

La distillation : technique légitime, usage potentiellement illicite

Anthropic reconnaît que la distillation est une méthode courante et légitime : entraîner un modèle plus petit à reproduire les sorties d’un modèle plus puissant. Le problème, selon la société, n’est pas la technique en soi, mais son usage sans autorisation pour « acquérir des capacités » à moindre coût — et surtout sans embarquer les garde-fous et politiques de sécurité du modèle d’origine.

C’est le cœur du risque : des modèles « distillés » pourraient récupérer de la performance… sans récupérer la même robustesse en sécurité ni les mêmes filtres (ou en les contournant).

DeepSeek, MiniMax, Moonshot : volumes et objectifs mentionnés

Anthropic avance des éléments très concrets :

  • DeepSeek aurait réalisé plus de 150 000 échanges avec Claude, ciblant notamment le raisonnement, et aurait aussi cherché à générer des formulations « compatibles censure » sur des sujets politiques sensibles.
  • Moonshot : plus de 3,4 millions d’échanges.
  • MiniMax : plus de 13 millions d’échanges.

Anthropic relie explicitement la distillation illicite à des risques de sécurité : si des capacités « frontier » sont récupérées sans garde-fous, elles pourraient alimenter des usages de surveillance, de désinformation ou cyberoffensifs.

Et, la société pousse un levier politique déjà au cœur du débat américain : l’accès aux puces avancées. Anthropic suggère que des restrictions plus strictes sur les chips pourraient limiter à la fois l’entraînement direct et l’industrialisation de la distillation.

OpenAI pointe aussi DeepSeek : une convergence de discours côté US

Cette sortie d’Anthropic s’inscrit dans une séquence plus large. Reuters rapporte qu’OpenAI a récemment accusé DeepSeek, dans un mémo adressé à des élus américains, de « free-riding » et d’efforts pour contourner des restrictions d’accès afin d’obtenir des sorties de modèles américains destinées à la distillation.

Ce dossier montre une transition nette : la compétition ne se joue plus uniquement sur « qui entraîne le plus gros modèle », mais aussi sur qui protège le mieux ses capacités. La distillation illégitime, si elle se banalise, réduit l’avantage des laboratoires qui financent les entraînements les plus coûteux. Elle met aussi les entreprises devant un dilemme : ouvrir (API, accès larges, essais) pour croître, ou verrouiller davantage au risque de freiner l’adoption. Enfin, elle renforce l’idée que l’IA est devenue un enjeu où la sécurité logicielle (anti-fraude, détection d’abus, empreintes comportementales) pèse autant que la recherche.

Pour Anthropic, l’objectif est double : protéger Claude — et installer une doctrine industrielle où l’extraction de capacités devient un « comportement hostile » traité comme tel. Reste la question qui fâche : quelles mesures concrètes (cloud, KYC, quotas, watermarking des sorties, contrôles d’usage) seront suffisantes sans casser l’accessibilité qui a fait exploser l’IA grand public ?

Lire plus
Intelligence Artificielle

« ChatGPT Pro Lite » à 100 dollars/mois : la fuite qui comble le trou béant entre Plus et Pro ?

« ChatGPT Pro Lite » à 100 dollars/mois : la fuite qui comble le trou béant entre Plus et Pro ?

Un nouveau palier d’abonnement pourrait arriver chez OpenAI : ChatGPT Pro Lite, annoncé dans des références de code de l’app web ChatGPT repérées par le développeur Tibor Blaho.

Le tarif qui ressort : 100 dollars/mois. Rien n’est officialisé (ni date, ni quotas), mais ce type de trace front-end est souvent un signe qu’un lancement est en préparation.

ChatGPT Pro Lite : Pourquoi 100 dollars a (beaucoup) de sens pour OpenAI

Aujourd’hui, la grille publique laisse un « no man’s land » très critiqué : Plus à 20 dollars puis Pro à 200 dollars (avec Go à 8 dollars dans certains marchés). Un palier à 100 dollars serait l’entre-deux naturel pour les freelances, devs, chercheurs et « power users » qui explosent les limites de Plus… sans pouvoir justifier Pro.

Les mentions repérées suggèrent un plan plus généreux que Plus mais moins que Pro, notamment sur les quotas de modèles « deep reasoning » — avec une estimation qui circule de 3 à 5× le volume de Plus — et une orientation possible vers un usage plus confortable de Codex. À ce stade, ce sont des signaux produits, pas une fiche technique.

Le contexte 2026 : monétiser mieux, parce que le compute coûte très cher

Cette segmentation arrive dans un moment où OpenAI doit financer une montée en charge massive. Reuters rapporte que OpenAI pourrait prévoir environ 600 milliards de dollars de dépenses compute d’ici 2030, avec des coûts d’inférence en forte hausse et une marge qui se comprime.

La concurrence : Gemini progresse, et OpenAI ne peut pas laisser un « gap » tarifaire

Sur le front « part de trafic web », Similarweb classe toujours ChatGPT en tête, avec Gemini en #2 et des signaux indiquant un franchissement autour de 20 % de part sur certains trackers de trafic début 2026. Dans ce contexte, un plan à 100 dollars sert aussi à verrouiller les utilisateurs intensifs avant qu’ils ne basculent ailleurs « par friction tarifaire ».

Le départ de GPT-4o de l’interface ChatGPT a déclenché une réaction notable, jusqu’à une pétition largement relayée. Ça a rappelé à OpenAI que les utilisateurs ne paient pas seulement pour des tokens : ils paient aussi pour une expérience et parfois une préférence de modèle.

« Pro Lite » serait moins une nouveauté… qu’une correction de gamme

Si ChatGPT Pro Lite se concrétise, ce ne sera pas l’abonnement « cool » de plus : ce sera une pièce manquante. À 100 dollars, OpenAI peut augmenter l’ARPU sans forcer le saut à 200 dollars, donner une vraie rampe aux devs/chercheurs (et à Codex), et réduire la tentation de « churn » chez les power users frustrés par la marche Plus → Pro.

Reste l’essentiel : les quotas réels (deep reasoning, vitesse, priorité, Codex) et la manière dont OpenAI les exprimera. Parce qu’entre 20 et 200, la perception de valeur est impitoyable : à 100 dollars, il faudra que l’écart avec Plus soit immédiatement tangible.

Lire plus
Intelligence Artificielle

Demander, Produire ou S’exprimer : Comment nous utilisons vraiment ChatGPT en 2026

Demander, Produire ou S'exprimer : Comment nous utilisons vraiment ChatGPT en 2026

OpenAI vient de publier une nouvelle salve de données sur l’usage « grand public » de ChatGPT via sa page Signals, basée sur une analyse de messages de juillet 2024 à décembre 2025. L’objectif est simple : comprendre ce que les gens font avec ChatGPT en dehors du travail, quand il n’y a ni ticket Jira, ni mail à rédiger « pour hier ».

Et le tableau est… étonnamment humain.

Trois usages, dont un qu’on sous-estime : Demande, Produire et S’exprimer

Signals classe les interactions en trois « catégories » :

  • Demander : demander une information, une clarification, un conseil.
  • Produire : demander au modèle de produire quelque chose (texte, plan, code, etc.).
  • S’exprimer : exprimer une idée, une opinion, un sentiment — sans attendre une action ou une information précise.

Ce troisième volet, S’exprimer, n’est pas présenté comme une anomalie marginale. Au contraire, OpenAI le décrit comme un comportement récurrent, qui suggère que certains utilisateurs traitent ChatGPT comme un espace de formulation : un endroit où déposer une pensée pour la rendre plus nette.

Screen 2026 02 23 at 13.59.59

« S’exprimer » n’est pas seulement « vider son sac »

Ce qui est intéressant, c’est la définition même : S’exprimer couvre tout ce qui relève de l’expression, pas uniquement des pics émotionnels. En clair, on ne vient pas seulement « se plaindre », on vient se raconter, tester une idée, peser un choix, verbaliser un doute. C’est une différence culturelle majeure par rapport aux assistants de l’ère précédente : on ne parle plus à une machine pour obtenir une commande, mais pour obtenir une mise en forme de sa propre pensée.

L’usage « travail » varie selon l’abonnement

OpenAI publie aussi un indicateur : la probabilité qu’un message soit lié au travail selon le type de plan (Free, payant, etc.). La lecture est prudente : Signals exclut les clients Enterprise, donc la part « travail » y est probablement sous-estimée par rapport aux usages en entreprise. Autrement dit, la page raconte surtout le ChatGPT « consommateur », celui du quotidien, pas celui de la DSI.

Screen 2026 02 23 at 13.59.42

Les 18–34 ans au cœur du « ChatGPT personnel »

OpenAI observe aussi les usages par tranches d’âge… mais uniquement pour les utilisateurs qui ont volontairement déclaré leur âge. Dans le rapport global Signals, les courbes montrent une présence particulièrement forte des 18–24 et 25–34 dans le volume de messages. Cela colle à l’intuition : les plus jeunes semblent plus à l’aise avec l’idée d’utiliser un chatbot comme « carnet de brouillon » mental, plutôt que comme simple moteur de réponses.

Screen 2026 02 23 at 14.01.52

Signals propose aussi des classements par pays en messages envoyés par habitant (avec un seuil : pays de plus de 5 millions d’habitants), ainsi qu’un découpage par États américains.

OpenAI précise également ne pas opérer dans plusieurs pays, dont Chine, Russie et Corée du Nord (entre autres), ce qui exclut mécaniquement ces marchés des classements.

Et la question du « genre » : OpenAI n’en collecte pas, mais infère des prénoms

Autre point méthodologique : Signals propose une analyse par prénoms « typiquement masculins/féminins », tout en précisant ne pas collecter d’information de genre directement, et en excluant les prénoms non classables dans ces catégories.

Le message implicite de Signals est puissant : ChatGPT n’est pas seulement un outil qui « fait ». C’est un outil qui accompagne — et parfois qui sert de miroir. Cette couche « expressive » n’est pas une anecdote : elle dit quelque chose sur la façon dont l’IA s’installe dans l’intime (réflexion, hésitations, formulation de soi) autant que dans le productif.

Et c’est probablement l’un des enjeux clés des prochains mois : voir si cette part Expressing reste stable, grimpe, ou se transforme — à mesure que la voix, la vision et les agents rendent l’IA encore plus présente dans le quotidien. OpenAI dit vouloir mettre à jour Signals régulièrement avec de nouveaux métriques et découpages.

Lire plus