fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

ChatGPT en 2026 : 900 millions d’utilisateurs et une levée de fonds de 110 milliards de dollars

ChatGPT en 2026 : 900 millions d'utilisateurs et une levée de fonds de 110 milliards de dollars

OpenAI vient de publier des chiffres qui ressemblent moins à un point d’étape qu’à un changement d’échelle. ChatGPT revendique désormais plus de 900 millions d’utilisateurs actifs par semaine et plus de 50 millions d’abonnés payants, à quelques encablures du seuil symbolique du milliard.

Dans le même mouvement, l’entreprise annonce 110 milliards de dollars de financement privé sur une base de valorisation pré-money à 730 milliards, l’une des opérations les plus massives de l’histoire du capital privé tech.

ChatGPT : La croissance « produit » devient une croissance « infrastructure »

La progression est brutale : OpenAI parlait d’environ 800 millions de WAU en octobre 2025 ; elle ajoute donc 100 millions en quelques mois. Dans son annonce, OpenAI insiste sur un narratif très « industrie » : plus l’usage monte, plus l’expérience s’améliore « immédiatement » (rapidité, fiabilité, sécurité, constance).

Et surtout : janvier et février seraient en passe d’être les meilleurs mois historiques en nouveaux abonnés.

Ce renversement est clé : à ce stade, l’enjeu n’est plus seulement d’attirer, mais de tenir la charge. D’où la cohérence du timing entre chiffres d’usage et annonce financière.

Les chiffres qui comptent : abonnés, usage… et le carburant derrière

Sur le financement, trois noms structurent l’opération :

  • Amazon : 50 milliards de dollars
  • Nvidia : 30 milliards de dollars
  • SoftBank : 30 milliards de dollars
  • … pour 110 milliards de dollars au total, sur une valorisation pré-money de 730 milliards de dollars (round encore ouvert).

Plus intéressant encore : Reuters indique une valorisation post-money évoquée à 840 milliards $, et détaille des ramifications industrielles (capacité de calcul, systèmes Nvidia de nouvelle génération, et rôle accru d’AWS) tout en rappelant que le partenariat Azure de Microsoft demeure central pour l’API. 

OpenAI verrouille la chaîne de valeur… du produit jusqu’au silicium

Cette annonce dit quelque chose de très précis sur la nouvelle bataille de l’IA :

  1. La différenciation ne se joue plus uniquement sur le modèle, mais sur l’accès stable et massif au calcul (puces, data centers, énergie) — autrement dit, l’IA comme industrie lourde.
  2. Le passage de « l’outil » à « l’infrastructure » : 50 millions d’abonnés, c’est un plancher de revenus et une preuve de traction de clients qui rassure les investisseurs sur la durée, pas seulement sur l’effet de mode.
  3. L’équilibre géopolitique du cloud : l’entrée d’Amazon comme « fournisseur de cloud tiers exclusif » pour certains volets ressemble à une diversification assumée, sans rupture affichée avec Microsoft. Traduction : OpenAI veut réduire le risque de dépendance tout en sécurisant des volumes de compute.

Au fond, OpenAI achète une chose : du temps. Du temps de calcul, du temps d’exécution, du temps de disponibilité. Et dans l’ère agentique (où l’IA agit, pas seulement répond), le temps devient la ressource la plus chère.

Ce que ça change pour le marché : le « milliard » n’est pas qu’un trophée

Atteindre 1 milliard d’utilisateurs hebdomadaires, ce serait plus qu’un record : ce serait un signal de plateforme universelle, comparable aux plus gros produits de clients mondiaux. Mais même avant ce cap, un fait ressort : OpenAI se positionne comme une couche transversale — apprentissage, écriture, planification, construction — avec une monétisation qui accélère.

Reste l’autre lecture, plus froide : ce niveau de valorisation et de financement intensifie la pression sur la fiabilité, la sécurité et les coûts. Plus la base d’utilisateurs grossit, plus la promesse doit être tenue — partout, tout le temps.

Lire plus
Intelligence Artificielle

Nano Banana 2 : Google déploie Gemini 3.1 Flash Image, plus rapide et plus précis, dans l’app Gemini

Nano Banana 2 : Google déploie Gemini 3.1 Flash Image, plus rapide et plus précis, dans l’app Gemini

Après avoir fait le buzz en 2025 avec Nano Banana puis Nano Banana Pro, Google accélère à nouveau : Nano Banana 2 est en train d’arriver dans l’application Gemini, avec une promesse très « Flash » — plus rapide, moins coûteux, et suffisamment bon pour devenir le nouveau standard de la génération et de l’édition d’images.

Petit rappel de l’ampleur du phénomène Nano Banana : le premier modèle, lancé en août 2025, a explosé en adoption, au point de devenir l’un des moteurs d’imagerie les plus utilisés dans l’univers Gemini. Fin 2025, Nano Banana Pro (adossé à Gemini 3 Pro Image) avait ensuite poussé la précision d’édition et la constance à un niveau « studio », mais avec un coût et une latence plus élevés.

Nano Banana 2, lui, vise autre chose : faire passer le « niveau Pro » dans un usage plus quotidien, plus scalable.

Ce qu’est Nano Banana 2 : Gemini 3.1 Flash Image, version grand public

Selon Google, Nano Banana 2 correspond à Gemini 3.1 Flash Image : un modèle orienté vitesse et coût, conçu pour itérer rapidement (génération, retouche, variations) tout en améliorant la fidélité et l’obéissance au prompt.

Gemini Features NB Inline 202.ma

Et surtout, il est en cours de déploiement dans Gemini, avec une disponibilité qui s’élargit fortement, y compris côté accès gratuit selon les régions et modalités de l’app.

Google et la presse qui a pu observer le rollout mettent l’accent sur quelques points clés :

  • Meilleure gestion du texte (un vieux talon d’Achille de l’image générative) et meilleure adhérence au prompt.
  • Vitesse/latence : l’ADN « Flash » sert précisément à enchaîner les essais sans attendre, ce qui change la manière de créer (on passe du « prompt parfait » au « prototype rapide »).
  • Qualité et contrôle : Google parle d’un modèle qui combine « rapidité » et capacités avancées, avec davantage de contrôle créatif et de cohérence.

Nano Banana 2 devient assez robuste pour gérer des scènes plus denses (plusieurs objets/personnages cohérents) et viser des rendus plus « utilisables » pour des besoins concrets (créa, illustration, maquettes, contenus).

Où Nano Banana 2 arrive : Gemini, mais pas seulement

Ce lancement n’est pas un « petit toggle » dans une app. Google étend Nano Banana 2 à plusieurs surfaces : Gemini (app/web), Google Search/AI Mode et Lens (selon les marchés), et même des briques liées aux outils créatifs vidéo comme Flow (où l’image sert de matière première).

En parallèle, Google met aussi en avant ses efforts de traçabilité (SynthID, C2PA Content Credentials) autour des contenus générés, signe que l’entreprise veut industrialiser l’image générative sans laisser le sujet de l’authenticité lui exploser au visage.

Google joue la « commoditisation » de l’image IA

Avec Nano Banana 2, Google fait un choix très stratégique : transformer l’image générative en commodité, un outil par défaut intégré partout, plutôt qu’un « super pouvoir premium » réservé aux abonnés.

Flash sert à abaisser le coût psychologique de la création : on teste plus, on corrige plus, on itère plus vite. La qualité devient « suffisamment haute » pour que l’utilisateur moyen ne ressente plus le besoin de basculer sur un modèle Pro… sauf pour des tâches exigeantes (typo complexe, maquettes produit, retouches chirurgicales). Enfin, en le déployant largement, Google place Nano Banana 2 comme standard de facto dans son écosystème — ce qui est un avantage décisif face aux concurrents : l’outil le plus utilisé finit souvent par être « le meilleur », au moins dans l’imaginaire collectif.

En clair, Nano Banana 2 n’est pas seulement une mise à jour. C’est une étape vers une idée plus large — l’image IA comme fonction native d’Android, de Search et de Gemini, au même titre que la traduction ou la dictée.

Lire plus
Intelligence Artificielle

Perplexity Computer : l’IA qui orchestre 19 modèles pour exécuter vos projets de A à Z

Perplexity Computer : l’IA qui orchestre 19 modèles pour exécuter vos projets de A à Z

Perplexity ne veut plus seulement « chercher pour vous ». Avec Perplexity Computer, la startup franchit une étape stratégique : transformer son moteur de réponses en machine à workflows autonomes, capable de rechercher, concevoir, coder, déployer et maintenir un projet de bout en bout.

Ce n’est plus un chatbot. Ce n’est pas non plus un simple agent. C’est une couche d’orchestration multi-IA pensée comme un environnement d’exécution complet.

Qu’est-ce que Perplexity Computer, concrètement ?

L’idée est simple sur le papier : vous définissez un objectif, et le système le décompose en tâches et sous-tâches structurées. Ensuite, il attribue ces missions à des sous-agents spécialisés qui travaillent en parallèle.

Ces sous-agents peuvent faire de la recherche Web approfondie, rédiger et éditer des documents, analyser et traiter des données, effectuer des appels API ou encore écrire, tester et déployer du code.

L’élément clé : les workflows sont asynchrones. Vous pouvez lancer plusieurs « instances » de Perplexity Computer en parallèle, chacune gérant un projet différent, sans bloquer votre session.

On passe donc d’un modèle « question → réponse » à un modèle « objectif → exécution continue ».

Comment ça fonctionne sous le capot ?

Chaque tâche tourne dans un environnement isolé comprenant :

  • Un système de fichiers réel
  • Un navigateur réel
  • Des outils intégrés + accès API externes

Si un problème survient, le système peut générer automatiquement de nouveaux sous-agents pour résoudre l’impasse : chercher une documentation manquante, générer une clé API, construire un outil intermédiaire, ou demander une clarification à l’utilisateur — uniquement si nécessaire.

L’accès se fait via le Web. Aucune installation locale.

En clair, Perplexity construit une sandbox d’exécution autonome qui ressemble plus à un mini-ordinateur virtuel qu’à un simple assistant conversationnel.

Orchestration multi-modèles : 19 IA dans la même pièce

La véritable rupture stratégique réside dans l’orchestration. Perplexity Computer n’est pas lié à un seul modèle : il route dynamiquement chaque sous-tâche vers le modèle le plus adapté.

À son lancement, la plateforme s’appuie notamment sur :

  • Claude Opus 4.6 (Anthropic) comme moteur central de raisonnement
  • Google Gemini pour la recherche approfondie et la génération de sous-agents
  • ChatGPT 5.2 (OpenAI) pour le long contexte et la recherche large
  • Grok (xAI) pour les tâches rapides et légères
  • Veo 3.1 (DeepMind) pour la génération vidéo
  • Nano Banana pour la génération d’images

Au total : 19 modèles interconnectés.

L’utilisateur peut forcer le choix d’un modèle pour une sous-tâche, définir des plafonds de dépenses et optimiser l’usage des tokens. C’est une architecture model-agnostic : les modèles peuvent être remplacés ou mis à jour sans casser la plateforme.

Stratégiquement, c’est un mouvement puissant : Perplexity devient un meta-orchestrateur d’IA, pas un simple éditeur de modèle.

Infrastructure, mémoire et continuité

Perplexity Computer tourne sur l’infrastructure propriétaire de la société et inclut :

  • Des centaines de connecteurs services
  • Une mémoire persistante
  • Gestion de fichiers
  • Accès web intégré

Le système conserve le contexte entre projets tout en appliquant des contrôles de sécurité par défaut. On se rapproche d’un système d’exploitation IA dans le cloud.

Modèle économique : usage + crédits

L’accès est réservé aux abonnés Max pour le moment. Les abonnés Max reçoivent 10 000 crédits par mois inclus, 20 000 crédits bonus uniques, des crédits bonus supplémentaires au lancement et des crédits bonus expirant 30 jours après émission. Le modèle est basé sur la consommation réelle, avec une sélection des modèles pour contrôler les coûts et des plafonds de dépenses configurables.

Le support Pro et Enterprise est attendu prochainement.

Perplexity veut devenir l’interface universelle de l’IA

Ce lancement est plus stratégique qu’il n’y paraît.

  1. Ce n’est pas un chatbot amélioré : C’est une tentative de créer un environnement d’exécution autonome comparable à ce que Microsoft fait avec Copilot Studio — mais en mode multi-modèle.
  2. La vraie valeur est l’orchestration : Dans un monde où les modèles deviennent interchangeables, le pouvoir se déplace vers ceux qui savent les coordonner intelligemment.
  3. C’est une réponse directe à la fatigue des outils IA fragmentés : Aujourd’hui, un créateur jongle entre ChatGPT, Claude, Gemini, Midjourney, Runway… Perplexity propose de tout centraliser dans un pipeline unifié.
  4. La question clé est la fiabilité sur la durée : Les workflows longs et autonomes sont puissants — mais aussi coûteux et imprévisibles. Le succès dépendra de la stabilité, du contrôle des dépenses et de la gestion des erreurs.

Ce que ça change pour les professionnels

  • Startups : prototypage complet sans stack lourde
  • Développeurs : orchestration multi-LLM sans devoir construire l’infrastructure
  • Créateurs : production texte + image + vidéo dans un pipeline unique
  • Entreprises : automatisation multi-outils à l’échelle

Perplexity passe ainsi d’un moteur de recherche IA à un système d’exploitation productif basé sur l’IA.

Perplexity Computer marque une évolution majeure : l’IA ne se contente plus de suggérer, elle agit. En orchestrant 19 modèles dans un environnement exécutable, Perplexity tente de devenir le centre névralgique de la production assistée par IA.

Reste à voir si les utilisateurs adopteront cette vision « OS IA » — ou si la complexité et les coûts freineront l’élan. Mais une chose est claire : l’ère des simples chatbots touche à sa fin.

Lire plus
Intelligence Artificielle

Meta et AMD : Un pacte historique de 6 Gigawatts pour dominer l’IA

Meta et AMD : Un pacte historique de 6 Gigawatts pour dominer l'IA

Meta et AMD viennent d’officialiser un accord pluriannuel qui dit beaucoup plus qu’« on achète des GPU ». Meta annonce vouloir déployer jusqu’à 6 gigawatts de puissance de calcul basée sur des AMD Instinct, avec de premières livraisons au second semestre 2026.

Le tout s’appuie sur une intégration verticale (GPU, CPU, rack, logiciel) et un montage financier rare : une garantie jusqu’à 160 millions d’actions AMD lié à des jalons de livraisons et de performance.

6 GW : un chiffre « électricité », pas un chiffre marketing

Dans la rhétorique des datacenters IA, parler en gigawatts est devenu le nouveau langage du sérieux : on ne discute plus de « combien de GPU », mais de capacité industrielle. Meta explique que ce partenariat s’inscrit dans une approche « portfolio » : diversifier ses fournisseurs et ses architectures pour construire un stack plus résilient face aux pénuries, aux cycles de prix et aux contraintes d’énergie.

AMD, de son côté, précise que le premier « palier » vise 1 gigawatt de déploiement, puis une montée progressive vers 6 gigawatts au fil du partenariat.

Ce que Meta achète vraiment : une plateforme, pas juste des cartes

Le communiqué AMD et l’article de Meta convergent sur l’architecture :

  • GPU : des Instinct basés sur MI450 (customisés pour les workloads Meta)
  • CPU : EPYC « Venice » (6e génération) et une génération suivante mentionnée par Meta
  • Logiciel : ROCm côté AMD, avec cohabitation assumée avec les efforts internes de Meta (dont MTIA)
  • Système : l’infrastructure rack-scale Helios, co-développée via l’Open Compute Project

Dit autrement,.Meta veut des racks complets « plug-and-scale », optimisés pour ses charges d’entraînement et surtout d’inférence (là où le coût par requête devient le nerf de la guerre). Le MI450 est présenté comme particulièrement orienté inference, en concurrence directe avec la prochaine génération Nvidia.

Une garantie énorme, comme un alignement d’intérêts… et un aveu de rareté

L’élément le plus frappant est la garantie : les sources évoquent un dispositif pouvant aller jusqu’à 160 millions d’actions AMD, indexé sur des jalons de livraison (1 GW puis jusqu’à 6 GW) et des conditions de marché. L’idée est limpide : Meta sécurise la capacité future, AMD sécurise un client ancre — et chacun se lie à la réussite de l’autre.

Ce montage n’est pas seulement « financier ». Il signale que, dans l’IA, l’accès au compute se traite comme une ressource stratégique au même titre que l’énergie ou le foncier.

Pourquoi c’est important pour le marché : AMD force une brèche dans la dépendance Nvidia

Meta n’a jamais caché son recours massif à Nvidia, mais ce deal donne un message clair : la diversification n’est plus optionnelle. Entre la pression sur les prix, les délais, et la nécessité d’optimiser l’inférence à grande échelle, même les géants cherchent des alternatives crédibles.

Pour AMD, l’enjeu est immense : ce type d’accord transforme Instinct d’« alternative puissante » en pilier de déploiements hyperscale, avec un effet d’entraînement sur l’écosystème (ROCm, tooling, compatibilité, talents). Et, c’est souvent là que se gagne la vraie bataille : pas sur la fiche technique, mais sur la capacité à faire tourner, déployer et maintenir des flottes entières.

Ce que Meta gagne : de la flexibilité, et un chemin plus direct vers « personal superintelligence »

Meta encadre l’accord dans une vision long terme — « personal superintelligence » — mais, très concrètement, le pacte lui donne :

  • une visibilité sur des volumes de compute qui deviennent autrement impossibles à planifier,
  • une capacité d’arbitrage entre GPU (AMD/Nvidia) et accélérateurs maison (MTIA),
  • une plateforme rack-scale co-designée (Helios) qui réduit la complexité d’intégration.

Le nouveau luxe, ce n’est pas le modèle — c’est la logistique

Ce deal illustre un basculement : l’IA n’est plus uniquement une compétition de labos, mais une compétition d’industrialisation. Dans un monde où l’énergie, le silicium et la capacité de fabrication dictent le rythme, les entreprises qui sécurisent le compute à l’avance prennent mécaniquement un avantage produit.

La question désormais, n’est pas « AMD peut-elle rivaliser avec Nvidia sur un benchmark ? », mais « AMD peut-elle livrer, au bon rythme, au bon coût, au bon rendement, et faire tenir ROCm à l’échelle Meta ? ». Si oui, ce partenariat ne sera pas une ligne de communiqué : ce sera un changement de gravité pour l’infrastructure IA.

Lire plus
Intelligence Artificielle

Remote Control, Anthropic lance la « télécommande » pour Claude Code : Le dev asynchrone est là

Remote Control, Anthropic lance la « télécommande » pour Claude Code : Le dev asynchrone est là

Anthropic vient d’ajouter à Claude Code un mode baptisé Remote Control, pensé comme une télécommande : vous lancez une session Claude Code sur votre machine (terminal), puis vous la pilotez depuis le mobile Claude ou n’importe quel navigateur via claude.ai/code.

L’intérêt n’est pas de « coder sur téléphone », mais de garder un agent en marche pendant que vous quittez votre bureau.

Claude Code : Ce que Remote Control change vraiment

Remote Control crée une continuité entre deux surfaces :

  • Le « moteur » reste local : fichiers, variables d’environnement, outils, et serveurs MCP restent sur votre poste. Le Web/mobile n’est qu’une fenêtre de contrôle.
  • Conversation synchronisée : vous pouvez envoyer des messages depuis le terminal, le navigateur ou le téléphone, et tout reste aligné.
  • Tolérance aux interruptions : si l’ordinateur dort ou si le réseau saute, la session tente de se reconnecter automatiquement.

C’est une réponse « officielle » à ce que beaucoup faisaient déjà avec des bricolages (SSH + tmux + tunnels), mais avec une UX plus fluide et un modèle de connexion encadré.

Comment ça marche (et pourquoi c’est intéressant côté sécurité) ?

Anthropic est très explicite : Remote Control n’ouvre pas de port entrant sur votre machine. La session locale fait des requêtes HTTPS sortantes vers l’API Anthropic, « s’enregistre », puis poll/stream des messages et des ordres. Le client (web/mobile) passe par la même API, qui relaye les échanges via TLS.

Autre détail important, la connexion repose sur des identifiants courts (short-lived credentials), séparés par usages et expirant indépendamment.

Qui y a droit, et comment l’activer ?

Contrairement à certains posts qui laissaient entendre « Max d’abord », la doc officielle précise que Remote Control est disponible en « research preview » sur Pro et Max, et qu’elle n’est pas disponible pour les plans Team et Enterprise (pour l’instant).

Pour l’activer, allez dans un projet, et localisez claude remote-control. Dans une session en cours, saisissez/remote-control ou /rc. Le terminal affiche une URL et un QR code pour ouvrir la session dans l’app Claude.

Quelques limites à connaître :

  • Une seule session remote à la fois
  • Le terminal doit rester ouvert
  • Timeout si la machine est réveillée mais hors réseau ~10 minutes (ordre de grandeur indiqué).

Remote Control vs “Claude Code on the web” : deux philosophies

Il convient de ne pas confondre Claude Code sur le Web qui exécute en cloud Anthropic (repos clonés, environnement géré, tâches parallèles), et Remote Control, qui s’exécute sur votre machine (vos outils, vos secrets, vos MCP, votre FS). En clair, le Web est une délégation à l’infra Anthropic. Remote Control vise quant à lui sur la continuité de votre environnement local.

La sortie n’arrive pas dans le vide. Claude Code est en train de devenir un moteur de revenus majeur pour Anthropic, avec un chiffre de taux d’exécution qui circule beaucoup (à prendre comme une estimation médiatique, pas un audit public).

Et côté marchés, on a vu récemment comment les annonces « agentiques » d’Anthropic peuvent faire trembler des secteurs entiers : Reuters a rapporté une chute de plusieurs valeurs cybersécurité après le lancement d’un outil « Claude Code Security ».

Ce que ça dit de « l’économie du vibe coding »

Remote Control ne rend pas Claude Code plus intelligent. Il le rend plus présent : un agent qui continue d’exécuter pendant que vous êtes ailleurs, et que vous supervise(z) à distance, c’est exactement la mécanique qui transforme un outil en compagnon de production.

À petite échelle, c’est du confort. À grande échelle, c’est une étape de plus vers le « développement asynchrone », où l’humain pilote, tranche, corrige — mais ne reste plus collé à l’écran.

Lire plus
Intelligence Artificielle

#QuitGPT : 700 000 utilisateurs affirment avoir quitté OpenAI pour des raisons éthiques

#QuitGPT : 700 000 utilisateurs affirment avoir quitté OpenAI pour des raisons éthiques

Le mot-dièse #QuitGPT tourne en boucle sur X et Reddit, avec une affirmation devenue virale : « 700 000 utilisateurs ont quitté ChatGPT ». Le chiffre circule largement, mais il faut le lire pour ce qu’il est aujourd’hui : un indicateur de mobilisation, pas un audit certifié des comptes désactivés.

Plusieurs articles grand public reprennent ce volume en parlant de « engagements », de résiliations revendiquées ou d’un total « reportedly » attribué au mouvement.

D’où vient la colère : moins le prix, plus la politique et l’éthique

Dans ton texte, le déclencheur principal est présenté comme une hausse de prix (« Plus passé à 20 dollars/mois »). Problème : ChatGPT Plus est à 20 dollars/mois depuis longtemps, et OpenAI le rappelle encore dans ses communications récentes.

En revanche, deux éléments ont visiblement mis le feu aux poudres début 2026 :

  1. Les révélations sur un don politique de Greg Brockman (président et cofondateur d’OpenAI) à un Super PAC pro-Trump, largement relayées par Reuters et d’autres médias.
  2. Les controverses autour d’usages gouvernementaux liés à des outils « GPT-powered », qui alimentent un débat plus large sur « qui utilise l’IA, et pour quoi ».

Dit autrement, la dynamique QuitGPT ressemble moins à une « grève des prix » qu’à une coalition de maux (éthique, gouvernance, alignement politique, confiance).

Le chiffre des « 700 000 » : plausible comme signal, fragile comme mesure

Le mouvement dispose d’un site militant qui revendique l’ampleur de la campagne, et beaucoup de reprises utilisent un langage prudent (« d’après certaines informations », « affirmation »). Ce qu’on ne voit pas : une confirmation OpenAI du nombre de résiliations, ni un décompte indépendant.

En revanche, même si 700 000 était exact, l’impact « quantitatif » resterait limité à l’échelle de ChatGPT : OpenAI a déjà communiqué sur plus de 400 millions d’utilisateurs actifs hebdomadaires — ce qui remet l’exode dans un ordre de grandeur inférieur à 1 %.

Mais l’enjeu ici est surtout narratif : la perception de « perte de confiance » peut faire plus mal qu’une variation de volume.

« ChatGPT a-t-il vraiment empiré ? » — le débat le plus inflammable

Le mouvement s’appuie aussi sur une plainte devenue récurrente dans les communautés IA : réponses plus prudentes, plus « lisses », parfois moins utiles en code ou en écriture. Là, il est très difficile de trancher sans tests contrôlés : une partie relève du ressenti utilisateur, une autre des changements de modèles et de réglages de sécurité au fil du temps.

Ce qui est factuel : OpenAI ajuste régulièrement le comportement de ses modèles, et la « qualité perçue » peut varier selon le modèle actif, les garde-fous, et les prompts. Le backlash autour du retrait de GPT-4o (début 2026) illustre à quel point les utilisateurs peuvent s’attacher à une « personnalité » ou à un style.

Les destinations citées reviennent partout :

  • Gemini pour l’intégration Android/Google Workspace,
  • Claude pour le ton et le contexte long,
  • open source pour le contrôle et la souveraineté des données.

Ce tableau est cohérent avec l’état actuel du marché : les coûts de switch sont faibles (un autre onglet, une autre app) et l’écosystème propose désormais des alternatives crédibles.

Ce qu’OpenAI doit retenir

Même si QuitGPT est porté par une minorité visible, le signal est clair : l’IA grand public n’est plus en lune de miel. Les utilisateurs comparent, jugent, boycottent — et surtout, ils veulent que « l’IA » soit un produit transparent : transparence sur les changements de modèles, lisibilité de la politique de données, et cohérence de l’offre tarifaire (le trou entre Plus et Pro a longtemps été critiqué — ce qui rend plausible l’idée d’un palier intermédiaire comme « Pro Lite »).

Si #QuitGPT grossit, ce ne sera pas parce que ChatGPT « coûte trop cher ». Ce sera parce que la confiance coûte plus cher à reconstruire qu’un abonnement à 20 $.

Lire plus
Intelligence Artificielle

DeepSeek et MiniMax : 16 millions de messages pour « voler » l’intelligence de Claude

DeepSeek et MiniMax : 16 millions de messages pour « voler » l’intelligence de Claude

À mesure que les modèles deviennent plus chers à entraîner, un autre terrain de bataille s’impose : la copie par « distillation », plus rapide, moins coûteuse… et très difficile à prouver publiquement.

Ce lundi, Anthropic affirme avoir détecté des campagnes « à l’échelle industrielle » menées par trois acteurs chinois — DeepSeek, MiniMax et Moonshot — visant à extraire des capacités de Claude pour améliorer leurs propres modèles.

Ce qu’Anthropic affirme avoir observé

Dans son article, Anthropic dit avoir identifié environ 24 000 comptes frauduleux, plus de 16 millions d’échanges avec Claude, le tout en violation de ses conditions d’utilisation et de restrictions d’accès régionales.

L’entreprise situe l’enjeu au-delà du simple « scraping » : il s’agirait d’une extraction structurée de compétences (raisonnement, code, usage d’outils agentiques, etc.) afin de les transférer à des systèmes concurrents.

La distillation : technique légitime, usage potentiellement illicite

Anthropic reconnaît que la distillation est une méthode courante et légitime : entraîner un modèle plus petit à reproduire les sorties d’un modèle plus puissant. Le problème, selon la société, n’est pas la technique en soi, mais son usage sans autorisation pour « acquérir des capacités » à moindre coût — et surtout sans embarquer les garde-fous et politiques de sécurité du modèle d’origine.

C’est le cœur du risque : des modèles « distillés » pourraient récupérer de la performance… sans récupérer la même robustesse en sécurité ni les mêmes filtres (ou en les contournant).

DeepSeek, MiniMax, Moonshot : volumes et objectifs mentionnés

Anthropic avance des éléments très concrets :

  • DeepSeek aurait réalisé plus de 150 000 échanges avec Claude, ciblant notamment le raisonnement, et aurait aussi cherché à générer des formulations « compatibles censure » sur des sujets politiques sensibles.
  • Moonshot : plus de 3,4 millions d’échanges.
  • MiniMax : plus de 13 millions d’échanges.

Anthropic relie explicitement la distillation illicite à des risques de sécurité : si des capacités « frontier » sont récupérées sans garde-fous, elles pourraient alimenter des usages de surveillance, de désinformation ou cyberoffensifs.

Et, la société pousse un levier politique déjà au cœur du débat américain : l’accès aux puces avancées. Anthropic suggère que des restrictions plus strictes sur les chips pourraient limiter à la fois l’entraînement direct et l’industrialisation de la distillation.

OpenAI pointe aussi DeepSeek : une convergence de discours côté US

Cette sortie d’Anthropic s’inscrit dans une séquence plus large. Reuters rapporte qu’OpenAI a récemment accusé DeepSeek, dans un mémo adressé à des élus américains, de « free-riding » et d’efforts pour contourner des restrictions d’accès afin d’obtenir des sorties de modèles américains destinées à la distillation.

Ce dossier montre une transition nette : la compétition ne se joue plus uniquement sur « qui entraîne le plus gros modèle », mais aussi sur qui protège le mieux ses capacités. La distillation illégitime, si elle se banalise, réduit l’avantage des laboratoires qui financent les entraînements les plus coûteux. Elle met aussi les entreprises devant un dilemme : ouvrir (API, accès larges, essais) pour croître, ou verrouiller davantage au risque de freiner l’adoption. Enfin, elle renforce l’idée que l’IA est devenue un enjeu où la sécurité logicielle (anti-fraude, détection d’abus, empreintes comportementales) pèse autant que la recherche.

Pour Anthropic, l’objectif est double : protéger Claude — et installer une doctrine industrielle où l’extraction de capacités devient un « comportement hostile » traité comme tel. Reste la question qui fâche : quelles mesures concrètes (cloud, KYC, quotas, watermarking des sorties, contrôles d’usage) seront suffisantes sans casser l’accessibilité qui a fait exploser l’IA grand public ?

Lire plus
Intelligence Artificielle

« ChatGPT Pro Lite » à 100 dollars/mois : la fuite qui comble le trou béant entre Plus et Pro ?

« ChatGPT Pro Lite » à 100 dollars/mois : la fuite qui comble le trou béant entre Plus et Pro ?

Un nouveau palier d’abonnement pourrait arriver chez OpenAI : ChatGPT Pro Lite, annoncé dans des références de code de l’app web ChatGPT repérées par le développeur Tibor Blaho.

Le tarif qui ressort : 100 dollars/mois. Rien n’est officialisé (ni date, ni quotas), mais ce type de trace front-end est souvent un signe qu’un lancement est en préparation.

ChatGPT Pro Lite : Pourquoi 100 dollars a (beaucoup) de sens pour OpenAI

Aujourd’hui, la grille publique laisse un « no man’s land » très critiqué : Plus à 20 dollars puis Pro à 200 dollars (avec Go à 8 dollars dans certains marchés). Un palier à 100 dollars serait l’entre-deux naturel pour les freelances, devs, chercheurs et « power users » qui explosent les limites de Plus… sans pouvoir justifier Pro.

Les mentions repérées suggèrent un plan plus généreux que Plus mais moins que Pro, notamment sur les quotas de modèles « deep reasoning » — avec une estimation qui circule de 3 à 5× le volume de Plus — et une orientation possible vers un usage plus confortable de Codex. À ce stade, ce sont des signaux produits, pas une fiche technique.

Le contexte 2026 : monétiser mieux, parce que le compute coûte très cher

Cette segmentation arrive dans un moment où OpenAI doit financer une montée en charge massive. Reuters rapporte que OpenAI pourrait prévoir environ 600 milliards de dollars de dépenses compute d’ici 2030, avec des coûts d’inférence en forte hausse et une marge qui se comprime.

La concurrence : Gemini progresse, et OpenAI ne peut pas laisser un « gap » tarifaire

Sur le front « part de trafic web », Similarweb classe toujours ChatGPT en tête, avec Gemini en #2 et des signaux indiquant un franchissement autour de 20 % de part sur certains trackers de trafic début 2026. Dans ce contexte, un plan à 100 dollars sert aussi à verrouiller les utilisateurs intensifs avant qu’ils ne basculent ailleurs « par friction tarifaire ».

Le départ de GPT-4o de l’interface ChatGPT a déclenché une réaction notable, jusqu’à une pétition largement relayée. Ça a rappelé à OpenAI que les utilisateurs ne paient pas seulement pour des tokens : ils paient aussi pour une expérience et parfois une préférence de modèle.

« Pro Lite » serait moins une nouveauté… qu’une correction de gamme

Si ChatGPT Pro Lite se concrétise, ce ne sera pas l’abonnement « cool » de plus : ce sera une pièce manquante. À 100 dollars, OpenAI peut augmenter l’ARPU sans forcer le saut à 200 dollars, donner une vraie rampe aux devs/chercheurs (et à Codex), et réduire la tentation de « churn » chez les power users frustrés par la marche Plus → Pro.

Reste l’essentiel : les quotas réels (deep reasoning, vitesse, priorité, Codex) et la manière dont OpenAI les exprimera. Parce qu’entre 20 et 200, la perception de valeur est impitoyable : à 100 dollars, il faudra que l’écart avec Plus soit immédiatement tangible.

Lire plus
Intelligence Artificielle

Demander, Produire ou S’exprimer : Comment nous utilisons vraiment ChatGPT en 2026

Demander, Produire ou S'exprimer : Comment nous utilisons vraiment ChatGPT en 2026

OpenAI vient de publier une nouvelle salve de données sur l’usage « grand public » de ChatGPT via sa page Signals, basée sur une analyse de messages de juillet 2024 à décembre 2025. L’objectif est simple : comprendre ce que les gens font avec ChatGPT en dehors du travail, quand il n’y a ni ticket Jira, ni mail à rédiger « pour hier ».

Et le tableau est… étonnamment humain.

Trois usages, dont un qu’on sous-estime : Demande, Produire et S’exprimer

Signals classe les interactions en trois « catégories » :

  • Demander : demander une information, une clarification, un conseil.
  • Produire : demander au modèle de produire quelque chose (texte, plan, code, etc.).
  • S’exprimer : exprimer une idée, une opinion, un sentiment — sans attendre une action ou une information précise.

Ce troisième volet, S’exprimer, n’est pas présenté comme une anomalie marginale. Au contraire, OpenAI le décrit comme un comportement récurrent, qui suggère que certains utilisateurs traitent ChatGPT comme un espace de formulation : un endroit où déposer une pensée pour la rendre plus nette.

Screen 2026 02 23 at 13.59.59

« S’exprimer » n’est pas seulement « vider son sac »

Ce qui est intéressant, c’est la définition même : S’exprimer couvre tout ce qui relève de l’expression, pas uniquement des pics émotionnels. En clair, on ne vient pas seulement « se plaindre », on vient se raconter, tester une idée, peser un choix, verbaliser un doute. C’est une différence culturelle majeure par rapport aux assistants de l’ère précédente : on ne parle plus à une machine pour obtenir une commande, mais pour obtenir une mise en forme de sa propre pensée.

L’usage « travail » varie selon l’abonnement

OpenAI publie aussi un indicateur : la probabilité qu’un message soit lié au travail selon le type de plan (Free, payant, etc.). La lecture est prudente : Signals exclut les clients Enterprise, donc la part « travail » y est probablement sous-estimée par rapport aux usages en entreprise. Autrement dit, la page raconte surtout le ChatGPT « consommateur », celui du quotidien, pas celui de la DSI.

Screen 2026 02 23 at 13.59.42

Les 18–34 ans au cœur du « ChatGPT personnel »

OpenAI observe aussi les usages par tranches d’âge… mais uniquement pour les utilisateurs qui ont volontairement déclaré leur âge. Dans le rapport global Signals, les courbes montrent une présence particulièrement forte des 18–24 et 25–34 dans le volume de messages. Cela colle à l’intuition : les plus jeunes semblent plus à l’aise avec l’idée d’utiliser un chatbot comme « carnet de brouillon » mental, plutôt que comme simple moteur de réponses.

Screen 2026 02 23 at 14.01.52

Signals propose aussi des classements par pays en messages envoyés par habitant (avec un seuil : pays de plus de 5 millions d’habitants), ainsi qu’un découpage par États américains.

OpenAI précise également ne pas opérer dans plusieurs pays, dont Chine, Russie et Corée du Nord (entre autres), ce qui exclut mécaniquement ces marchés des classements.

Et la question du « genre » : OpenAI n’en collecte pas, mais infère des prénoms

Autre point méthodologique : Signals propose une analyse par prénoms « typiquement masculins/féminins », tout en précisant ne pas collecter d’information de genre directement, et en excluant les prénoms non classables dans ces catégories.

Le message implicite de Signals est puissant : ChatGPT n’est pas seulement un outil qui « fait ». C’est un outil qui accompagne — et parfois qui sert de miroir. Cette couche « expressive » n’est pas une anecdote : elle dit quelque chose sur la façon dont l’IA s’installe dans l’intime (réflexion, hésitations, formulation de soi) autant que dans le productif.

Et c’est probablement l’un des enjeux clés des prochains mois : voir si cette part Expressing reste stable, grimpe, ou se transforme — à mesure que la voix, la vision et les agents rendent l’IA encore plus présente dans le quotidien. OpenAI dit vouloir mettre à jour Signals régulièrement avec de nouveaux métriques et découpages.

Lire plus
Intelligence Artificielle

Qwen 3.5 : Alibaba lance un modèle open-weight 397B et une version Plus à 1 million de tokens pour l’IA agentique

Qwen 3.5 : Alibaba lance un modèle open-weight 397B et une version Plus à 1 million de tokens pour l’IA agentique

À l’approche du Nouvel An lunaire, Alibaba ne s’est pas contenté d’un « refresh » de modèle. Le groupe a présenté Qwen 3.5 comme une brique pensée pour une nouvelle phase de l’IA : celle où les modèles ne se limitent plus à répondre, mais agissent — manipulent des interfaces, enchaînent des étapes, et s’intègrent aux workflows.

Derrière le storytelling, la manœuvre est stratégique : accélérer l’adoption développeurs via l’open-weight, tout en réservant une version « Plus » à très long contexte pour le cloud et les grands comptes.

Qwen3.5 : Deux modèles, deux tactiques

Qwen3.5-397B-A17B : l’open-weight comme levier de diffusion

La pièce maîtresse « ouverte » est publiée sous la forme d’un modèle Qwen3.5-397B-A17B sur Hugging Face, avec poids et configs prêts à être exploités via les stacks usuelles (Transformers, vLLM, etc.).

Alibaba présente cette version comme un modèle capable d’alimenter des usages de production (notamment agents et multimodal), avec une logique claire : saturer l’écosystème (outils, forks, fine-tunes, intégrations) plus vite que les offres fermées.

Qwen3.5-Plus : la version « cloud » à contexte XXL

En parallèle, Alibaba pousse Qwen3.5-Plus via Alibaba Cloud Model Studio, avec un argument très « enterprise » : 1 million de tokens de contexte par défaut, plus des outils intégrés et une logique d’« adaptive tool use ».

C’est la stratégie classique du duo : ouverture pour la diffusion, service managé pour la monétisation et les SLA.

qwen3.5 397b a17b score

L’obsession du moment : l’agentic AI… et l’IA qui « voit » et opère

Alibaba insiste sur des capacités « visual agentic » : l’idée qu’un modèle puisse interagir avec des applications mobiles et de bureau pour accomplir des tâches multi-étapes. Reuters rapporte également la promesse d’Alibaba : Qwen 3.5 serait 60 % moins coûteux à l’usage et 8× plus performant sur de gros workloads que son prédécesseur, selon les mesures internes de l’entreprise.

Autrement dit, Qwen 3.5 n’essaie pas seulement d’être « meilleur en Q&A », il essaie d’être meilleur en exécution — le terrain où se jouent aujourd’hui les assistants de travail, l’automatisation, et les agents.

Pourquoi ça compte : la Chine pousse fort, et pas uniquement sur la recherche

Le lancement s’inscrit dans une dynamique de compétition intense sur le marché chinois (ByteDance, DeepSeek…), avec un enjeu double : dominer l’usage domestique et exporter des briques open-weight attractives à l’international.

Et, il y a un signal très concret : AMD communique déjà sur un support « Day 0 » du modèle côté Instinct/ROCm — preuve que l’écosystème compute veut être dans la boucle dès la sortie.

qwen3.5 397b a17b scaling

Pression sur les leaders US, mais la bataille se gagnera sur le « produit »

Qwen 3.5 met de la pression sur OpenAI/Anthropic/Google à deux niveaux :

  1. Coût et accessibilité : l’open-weight permet aux équipes de déployer localement, d’ajuster, et d’éviter certaines dépendances. Si les coûts revendiqués par Alibaba se confirment dans la pratique, la tentation sera forte pour des startups et intégrateurs de basculer sur un modèle « suffisamment bon, beaucoup moins cher ».
  2. Agents comme produit : l’argument « visual agent » n’est pas anecdotique. Il repositionne la valeur non pas sur le modèle seul, mais sur le couple modèle + tooling + exécution — le vrai champ de bataille 2026.

Mais hors de Chine, les leaders américains gardent un avantage massif sur la confiance, la conformité, les partenariats, et les intégrations (suite bureautique, cloud, SI). Qwen 3.5 ne renverse pas la table « du jour au lendemain » — il hausse le niveau de jeu, surtout pour tous ceux qui veulent une alternative open-weight crédible.

Lire plus
Intelligence Artificielle

Gemini 3.1 Pro : Google relance la course à l’IA avec un bond de raisonnement et un prix inchangé

Gemini 3.1 Pro : Google relance la course à l’IA avec un bond de raisonnement et un prix inchangé

Fin 2025, Google avait brièvement repris l’avantage avec Gemini 3 Pro… avant d’être rattrapé (puis dépassé) par la cadence infernale d’OpenAI et d’Anthropic. En ce 19 février 2026, Mountain View revient au combat avec Gemini 3.1 Pro, une mise à jour qui ne cherche pas à « faire le buzz », mais à devenir la référence pour les tâches longues, complexes et structurées — celles qui demandent plus qu’une réponse élégante : de la planification, de la synthèse, et de la rigueur.

Gemini 3.1 Pro : Un bond visible sur le raisonnement — et un score qui fait parler

Le chiffre que Google met en avant (et que plusieurs relais reprennent) est clair : 77,1 % sur ARC-AGI-2, un benchmark pensé pour tester la capacité d’un modèle à résoudre des schémas logiques nouveaux, plutôt que de « rejouer » des patterns vus pendant l’entraînement.

Surtout, des évaluations externes positionnent Gemini 3.1 Pro en tête des classements « performances générales », notamment via Artificial Analysis, ce qui nourrit immédiatement le narratif : « Google redevient #1 ».

À côté de l’ARC-AGI-2, les benchmarks cités dans la couverture du lancement dessinent un profil très « ingénierie/R&D » :

  • GPQA Diamond (connaissances scientifiques pointues) : 94,3 %
  • SWE-Bench Verified (résolution de bugs sur bases de code réelles) : 80,6%
  • LiveCodeBench Pro : 2887 Elo
  • MMMLU (raisonnement multimodal) : 92,6 %

gemini 3 1 pro benchmarks scaled

Le point important : Google insiste sur une progression de fond dans la manière dont le modèle « pense » sur des tâches longues (et sur la stabilité dans le temps), plutôt que sur une simple hausse de « verve » conversationnelle.

De la démo « chat » au produit : vibe coding, SVG animés et synthèse de systèmes

Google accompagne ce lancement d’une démonstration très révélatrice : l’IA qui sort du texte, pour produire des livrables utiles — code, interfaces, visualisations. Dans les exemples mis en avant, Gemini 3.1 Pro génère des SVG animés « vibe-codés » (donc légers, scalables, propres pour le Web), construit un dashboard à partir d’un flux public de télémétrie, et pousse plus loin l’interactif/3D.

Ce n’est pas anodin : l’industrie se déplace vers des modèles jugés non plus sur leur talent de conversation, mais sur leur capacité à orchestrer des étapes : prendre un objectif, structurer un plan, produire du code, tester, itérer. Et sur ce terrain, Google veut que Gemini 3.1 Pro devienne un « baseline » haut de gamme.

Les retours partenaires : moins de tokens, plus de fiabilité

Côté entreprises, Google met en avant des premiers retours très « opérationnels ». Exemple marquant : JetBrains parle d’un gain allant jusqu’à 15 % dans ses évaluations internes, en soulignant un modèle « plus fort, plus rapide… et plus efficient », nécessitant moins de tokens de sortie pour un résultat plus fiable.

Derrière la formule, l’enjeu est économique : si un modèle donne une meilleure réponse du premier coup, il réduit le coût total (moins d’allers-retours, moins de tokens, moins de temps humain).

Prix et disponibilité : l’upgrade « gratuit » côté API… et c’est peut-être le vrai choc

La surprise, c’est la continuité tarifaire. Google maintient la structure annoncée pour la gamme Gemini 3 :

  • Input : 2 dollars/1M tokens (≤ 200k) ; 4 dollars/1M (> 200k)
  • Output : 12 dollars/1M tokens (≤ 200k) ; 18 dollars/1M (> 200k)
  • Caching et grounding (Search) avec une grille de prix détaillée

Autrement dit, un bond de performance sans hausse immédiate du « prix par token », ce qui met mécaniquement la pression sur le reste du marché, surtout pour les acteurs qui facturent cher les modèles « raisonnement ».

Gemini 3,1 Pro est par ailleurs présenté comme un modèle propriétaire, distribué via Gemini API et les offres Google (Vertex AI/Gemini app), avec un statut Preview destiné à itérer avant disponibilité générale.

Le prochain « trône » ne sera pas gagné par la poésie, mais par la planification

Ce lancement envoie un signal : la phase suivante de la course à l’IA se jouera sur la résolution de problèmes — pas seulement sur la génération de texte. Benchmarks de logique, robustesse sur tâches longues, capacité à synthétiser des systèmes, à écrire du code exploitable : ce sont les briques qui transforment un chatbot en outil d’ingénierie, puis en agent.

Si Gemini 3.1 Pro tient ses promesses en production, Google ne reprend pas seulement une place sur un leaderboard : il repositionne Gemini comme moteur de travail, et pas simplement comme assistant. Et dans un marché où les marges se gagnent sur l’usage répété, c’est probablement la bataille la plus importante.

Lire plus
Intelligence Artificielle

Mistral rachète Koyeb : l’IA française passe en mode « full-stack » avec un cloud serverless pour Mistral Compute

Mistral rachète Koyeb : l’IA française passe en mode « full-stack » avec un cloud serverless pour Mistral Compute

Pendant longtemps, l’ambition européenne en IA s’est racontée en deux récits distincts : les modèles (le logiciel, l’intelligence) et l’infrastructure (la capacité à exécuter, servir, scaler). Ce mardi, Mistral a décidé de ne plus choisir.

La pépite parisienne Mistral a confirmé son premier rachat en mettant la main sur Koyeb, une startup française spécialisée dans une approche sans serveur de l’infrastructure cloud. Une opération sans montant communiqué, mais au message limpide : Mistral veut posséder la chaîne complète, de l’entraînement à l’inférence, jusqu’au déploiement.

Un rachat stratégique : « Mistral Compute » n’est plus une promesse marketing

Il s’agit là d’une brique destinée à renforcer Mistral Compute, l’offre « compute + cloud » que Mistral pousse pour ne pas dépendre uniquement des hyperscalers américains. Koyeb apporte précisément ce qui manque souvent aux boîtes « model-first » : une couche d’exécution serverless qui simplifie le déploiement d’applications IA et leur montée en charge, sans exiger une armée d’ingénieurs DevOps.

Côté organisation, le mouvement est très net : les trois cofondateurs et les 13 employés de Koyeb rejoignent les équipes d’ingénierie de Mistral — et la plateforme Koyeb devrait continuer à fonctionner pendant une phase d’intégration progressive.

image scaled

Pourquoi maintenant : l’IA se vend en « production », pas en démo

La bataille de 2026 ne se joue plus seulement sur le QI des modèles. Elle se joue sur la fiabilité, la latence, la prévisibilité des coûts, la conformité, et la capacité à déployer des cas d’usage « agentiques » (workflows, outils, tâches automatisées) qui tournent en continu. Koyeb permet de faire tourner des apps « à l’échelle » en masquant la complexité infrastructurelle — une valeur décisive quand on vise les entreprises.

Autrement dit, Mistral ne veut plus être seulement un fournisseur d’API. Il veut être un fournisseur d’expérience.

Un pari full-stack qui ressemble à une déclaration de guerre… très polie

Ce rachat dit quelque chose de plus large sur la trajectoire des champions européens : la compétition n’est plus « Mistral vs OpenAI » au niveau des modèles. Elle se joue aussi « Mistral vs AWS/Azure/GCP » sur le terrain du delivery.

Pour les développeurs, cela peut signifier un chemin plus direct : entraînement/fine-tuning/déploiement/scaling, dans un ensemble cohérent. Pour les entreprises, c’est une promesse de maîtrise : performance, gouvernance, localisation des données — et moins de dépendance à un empilement de fournisseurs. Et enfin pour l’écosystème européen, c’est un signal : l’IA « made in Europe » ne veut plus être un produit exporté via des infrastructures importées.

Reste l’exécution. Intégrer une plateforme cloud n’est pas qu’une ligne sur une slide : c’est du support 24/7, des SLA, une politique prix, une capacité à gérer les pics — bref, la partie ingrate du métier. Mais c’est aussi celle qui, à la fin, fait la différence entre une technologie brillante… et une technologie adoptée.

Lire plus
Intelligence Artificielle

NotebookLM : Google ajoute l’édition de slides au prompt et l’export PPTX, un tournant pour les présentations

NotebookLM : Google ajoute l’édition de slides au prompt et l’export PPTX, un tournant pour les présentations

NotebookLM n’a jamais été un outil de slides au sens classique du terme. Jusqu’ici, c’était surtout une machine à générer vite — puis à vous laisser seul dès que venait le moment pénible : itérer, corriger, livrer.

Avec une mise à jour centrée sur l’édition au prompt et l’export PPTX, Google transforme son « outil d’étude » en espace de rédaction beaucoup plus crédible pour le travail.

Une mise à jour qui vise le vrai goulet d’étranglement : l’itération

Le changement le plus utile est aussi le plus simple : vous pouvez désormais réviser des slides individuellement. Au lieu de régénérer tout le deck parce qu’une diapo est bancale, vous sélectionnez la slide et vous décrivez le correctif (« resserre le message », « réorganise en 3 points », « change l’angle », etc.).

Google documente déjà ce flux dans son aide officielle, avec une logique de « modifications en attente » et d’édition par slide via l’icône « révison ».

Ce détail compte parce que, dans la vraie vie, les retours arrivent en rafales : une première passe, puis une seconde, puis le fameux « on ajoute juste un slide » la veille. Le deck qui survit, c’est celui qui supporte l’usure.

L’export PPTX : le passage du « prototype » au « livrable »

L’autre nouveauté est le déblocage pratique : exporter un deck en. PPTX. Ce format reste la monnaie commune de la majorité des organisations (et une passerelle acceptable vers d’autres outils). Dans l’état, cela permet de récupérer votre structure générée dans NotebookLM, l’ouvrir dans PowerPoint (ou équivalent), appliquer une charte, des gabarits, des notes d’orateur, des règles d’entreprise, et finaliser sans tout reconstruire.

Google évoque aussi un export vers Google Slides « à venir », sans calendrier verrouillé — à traiter comme une intention plutôt qu’une garantie immédiate.

NotebookLM se repositionne comme atelier, pas comme gadget IA

Ce duo (édition ciblée + export PPTX) est un signal produit : NotebookLM ne veut plus seulement « impressionner en 30 secondes ». Il veut devenir l’endroit où l’on fabrique un deck avant la phase de polissage dans l’outil final.

Autrement dit, Google attaque le terrain le plus rentable de l’IA grand public : le travail de bureau — là où l’on paie volontiers pour gagner du temps, à condition que le résultat reste maîtrisable.

Le trade-off à surveiller : cohérence visuelle et dérive de mise en page

L’édition au prompt a un revers prévisible : plus vous retouchez, plus vous verrez si les layouts dérivent (titres, espacements, hiérarchie). C’est le moment où l’IA peut vous faire gagner 45 minutes… puis vous en reprendre 15 en nettoyage.

Et, c’est précisément là que l’export PPTX devient vital : il donne la sortie « propre » vers les outils où la mise en forme est reine.

Lire plus
Intelligence Artificielle

Perplexity fait marche arrière sur la pub : l’IA « de confiance » cherche son modèle économique

Perplexity fait marche arrière sur la pub : l’IA « de confiance » cherche son modèle économique

Dans la guerre des chatbots, la vraie bataille ne se joue plus seulement sur la qualité des réponses, mais sur la crédibilité du contexte. Perplexity, moteur de recherche conversationnel, vient de trancher : Perplexity s’éloigne des publicités et met en pause toute nouvelle discussion avec des annonceurs, par crainte qu’un soupçon d’agenda commercial ne vienne contaminer la promesse de « réponses fiables ».

Le geste est d’autant plus notable que Perplexity avait fait partie des premières jeunes pousses IA à expérimenter des formats publicitaires dès 2024. Désormais, la société explique avoir progressivement retiré la pub depuis fin 2025, et estime que l’exercice crée un doute structurel : si l’outil doit « chercher la vérité », l’utilisateur risque de se demander si la réponse sert aussi à vendre quelque chose.

La thèse Perplexity : le business n’est pas le trafic, c’est la confiance monétisable

À la place, Perplexity pousse une logique plus classique (et plus exigeante) : faire payer ceux pour qui la qualité d’une réponse vaut de l’argent — pros de la finance, juristes, médecins, dirigeants — avec un accent renforcé sur le B2B et les « power users ».

Ce choix clarifie aussi une ambiguïté : Perplexity ne veut pas être un média conversationnel, il veut être un outil de décision. Et dans ce cadre, la pub n’est plus une opportunité, mais une friction.

Une ligne de fracture qui s’élargit : OpenAI teste la pub, Anthropic s’en fait un étendard

Le pivot de Perplexity arrive au moment où l’industrie se polarise. OpenAI a officiellement démarré des tests de publicités dans ChatGPT (U.S., utilisateurs adultes, Free et Go), en insistant sur le fait que les ads sont séparées, clairement étiquetées, et n’influencent pas les réponses.

Anthropic, de son côté, martèle l’inverse : Claude restera sans publicité, précisément parce que la publicité brouille l’alignement « dans l’intérêt de l’utilisateur ».

Perplexity se place donc explicitement dans le camp « anti-pub » — non pas par posture morale, mais par calcul produit : si votre promesse est la justesse, vous ne pouvez pas vous offrir le luxe d’une zone grise.

Le vrai sujet : l’IA n’a pas encore trouvé son « business model grand public » stable

Ce dossier raconte surtout une tension : les coûts explosent (compute, datacenters, agents, long context), mais la monétisation grand public reste fragile. La publicité est une solution « naturelle » pour les plateformes, mais elle est aussi un poison lent pour les assistants : le jour où l’utilisateur soupçonne un biais, l’outil perd sa magie.

Perplexity tente donc un pari : prouver qu’un chatbot peut devenir un service premium — et pas seulement un produit gratuit financé par l’attention.

Lire plus
Intelligence Artificielle

Gemini : Google lance Lyria 3, un générateur de musique IA à partir de texte, photo ou vidéo

Gemini : Google lance Lyria 3, un générateur de musique IA à partir de texte, photo ou vidéo

Après l’image (et le phénomène viral autour de Nano Banana), Google pousse Gemini un cran plus loin : Lyria 3, le modèle de génération musicale de DeepMind, débarque dans l’app Gemini avec une promesse très grand public — créer des morceaux de 30 secondes à partir d’un simple texte… ou carrément d’une photo et même d’une vidéo.

L’objectif est limpide : faire de Gemini un atelier créatif tout-en-un où l’on passe de l’idée au contenu partageable sans quitter la conversation.

Lyria 3, c’est quoi exactement ?

Lyria 3 est présenté par Google DeepMind comme son modèle de génération musicale le plus avancé, conçu pour produire des pistes « haute fidélité » et couvrir de nombreux styles, avec la possibilité d’ajouter paroles et voix (lyrics & vocals) selon les cas d’usage.

Dans Gemini, l’usage est pensé comme un « outil » : vous décrivez un genre, une ambiance, un tempo, un thème — et le modèle génère une boucle/morceau court que vous pouvez réutiliser comme jingle, fond sonore ou « mini-track » pour un post.

Ce qui distingue Lyria 3 dans Gemini, c’est le côté vibe-matching :

  • prompt texte → musique
  • image ou vidéo → musique qui colle à l’atmosphère visuelle, avec des paroles si vous le souhaitez (ou instrumentale).

C’est une bascule : on ne demande plus seulement à l’IA de « composer », on lui demande de traduire une scène en bande-son. Et c’est exactement le type de feature qui alimente les usages TikTok/Shorts/Reels.

Disponibilité : déploiement global, mais cadré

Google indique que la fonctionnalité arrive en bêta dans Gemini, avec un déploiement large accessible aux utilisateurs 18+, et disponible « globalement », avec une première liste de langues (dont le français).

Google sait que la musique générée est un terrain miné. Sa réponse : SynthID, un watermark imperceptible intégré aux contenus, ici appliqué à l’audio généré via Gemini. Google affirme que toutes les pistes créées via cette fonction sont marquées, et Gemini peut aussi aider à détecter si un fichier audio contient ce watermark. DeepMind détaille d’ailleurs que SynthID vise à rester robuste face à des transformations courantes (compression, bruit, changement de vitesse).

Côté garde-fous, Google dit aussi chercher à éviter l’imitation directe d’artistes, un sujet qui a déjà explosé avec d’autres acteurs de la génération musicale.

Google vise l’usage « social » plus que la production pro

Le format 30 secondes est un indice fort : ce n’est pas une DAW, c’est un générateur de morceaux courts, réutilisables, shareables. Autrement dit, Google courtise moins les compositeurs que les créateurs de contenus, les petites équipes marketing, et tous ceux qui veulent une musique « à moi » sans passer par une librairie.

Et c’est aussi une façon de repositionner Gemini : plus qu’un assistant, un studio multimodal, où texte + image + vidéo + audio deviennent des matières interchangeables.

Lire plus