fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI lance ses premiers certificats officiels : deux formations pour 10 millions d’Américains d’ici 2030

OpenAI lance ses premiers certificats officiels : deux formations pour 10 millions d’Américains d’ici 2030

OpenAI, la société derrière ChatGPT, franchit une étape majeure : pour la première fois, elle propose des programmes de certification officiels destinés aux travailleurs et aux enseignants. Cette initiative, regroupée sous la nouvelle OpenAI Academy, vise un objectif ambitieux : certifier 10 millions d’Américains aux compétences IA d’ici 2030.

Deux formations inédites : un certificat pour les pros, un pour les enseignants

1. AI Foundations — la formation principale

Objectif : maîtriser des compétences IA pratiques et utiles au travail.

  • Disponible directement dans ChatGPT, via un mode d’apprentissage dédié.
  • Permet de pratiquer des tâches réelles, avec retours immédiats du chatbot.
  • Débouche sur une certification officielle OpenAI.
  • Pensée pour améliorer :
    • la productivité,
    • l’automatisation de tâches,
    • la prise de décision assistée par IA,
    • la rédaction, l’analyse, la synthèse, l’organisation…

L’accès est pour l’instant limité à des pilotes avec de grands employeurs comme : Walmart, Boston Consulting Group, Upwork, Accenture… avant une ouverture plus large.

2. ChatGPT Foundations for Teachers — spécial enseignants K-12

Objectif : intégrer l’IA dans l’enseignement et l’administration scolaire.

  • Disponible sur Coursera, immédiatement accessible à tous.
  • Niveau débutant, 7 modules, environ 4 heures de formation.
  • Enseigne comment :
    • utiliser ChatGPT pour créer des leçons,
    • préparer des activités pédagogiques,
    • gérer l’administratif (planning, rapports, notes…),
    • guider les élèves dans un usage responsable de l’IA.

OpenAI prévoit déjà de nouveaux certificats dédiés au monde de l’éducation.

Pourquoi c’est important ?

C’est la première fois que OpenAI propose des formations structurées et certifiantes. Historiquement, l’entreprise se concentrait sur la création d’outils, laissant les utilisateurs apprendre seuls.

Mais le monde du travail change :

  • Les entreprises recherchent des employés maîtrisant l’IA.
  • Les enseignants doivent guider les élèves dans un environnement où l’IA fait partie du quotidien.
  • Les individus, eux, veulent comprendre et utiliser des outils comme ChatGPT de manière efficace.

Obtenir un certificat OpenAI devient ainsi un avantage concret sur un CV, un signe de compétence vérifiée.

Pour les écoles : une révolution pédagogique en marche

Avec cette formation, les enseignants pourront créer plus rapidement des supports de cours, concevoir des activités différenciées pour élèves en difficulté, automatiser des tâches chronophages, et encadrer l’usage de l’IA de façon éthique.

Cela s’inscrit dans une tendance plus large où l’IA devient un nouvel outil éducatif, au même titre que les ordinateurs ou les tablettes il y a 15 ans.

Pour les entreprises : une nouvelle norme de compétence

Les employeurs bénéficieront d’une évaluation normalisée de la maîtrise des IA, d’employés mieux formés aux workflows IA, et d’une productivité accrue via l’automatisation.

OpenAI veut ainsi créer un standard de compétences IA, comparable à des certifications comme Google Career Certificates ou Microsoft Learn, mais centré sur ses propres technologies.

Et la suite ?

OpenAI développe également un nouveau programme de certificats pour un public plus large, d’autres modules spécialisés (industrie, administration, communication, santé…), une plateforme d’emploi IA prévue pour mi-2026, visant à connecter travailleurs et entreprises cherchant des compétences IA.

Avec ces nouvelles formations, OpenAI passe du statut d’éditeur d’outils à acteur de l’éducation et de la formation professionnelle. Ce changement pourrait transformer à la fois le marché du travail, les méthodes d’enseignement, et la relation des individus à l’IA.

Lire plus
Intelligence Artificielle

Adobe permet d’éditer des images et des PDF par simple conversation dans ChatGPT

Adobe permet d'éditer des images et des PDF par simple conversation dans ChatGPT

Adobe vient d’annoncer une nouveauté majeure : Photoshop, Acrobat et Adobe Express sont désormais disponibles directement dans ChatGPT, permettant aux utilisateurs de créer, modifier et finaliser leurs projets… simplement en décrivant ce qu’ils veulent.

Plus besoin d’ouvrir un logiciel séparé : il suffit de taper une instruction du type : « Adobe Photoshop, aide-moi à flouter l’arrière-plan de cette image », et l’outil s’exécute à l’intérieur même de ChatGPT.

Les apps Adobe dans ChatGPT sont gratuites

Adobe précise que ces apps sont gratuites, et s’activent automatiquement lorsque l’utilisateur invoque leur nom dans la conversation. Une fois l’app « lancée », il n’est pas nécessaire de la mentionner à nouveau pour les modifications suivantes.

Selon les demandes, l’app peut proposer plusieurs résultats, afficher une UI intégrée avec des curseurs (par ex. contraste, luminosité, exposition), ou appliquer directement l’effet souhaité.

Ce que Photoshop peut faire dans ChatGPT

La version intégrée n’est pas Photoshop complet, mais elle reste très puissante :

  • modifier des zones précises d’une image
  • flouter ou supprimer un arrière-plan
  • corriger l’exposition, la luminosité, le contraste
  • appliquer des effets créatifs
  • ajuster des paramètres via sliders, comme dans l’app classique

Idéal pour des retouches rapides sans changer d’application.

Ce que Acrobat peut faire dans ChatGPT

Dans ChatGPT, Acrobat permet désormais :

  • d’éditer un PDF existant
  • de fusionner plusieurs fichiers
  • d’extraire du texte ou des tableaux
  • de convertir n’importe quel document en PDF
  • de compresser un fichier PDF

media 1fe39d2bd0158dc797544d0d694b43d51bc6bea35 scaled

Vous pouvez aussi sélectionner exactement quelle section du PDF doit être modifiée, ou simplement décrire les changements.

Adobe Express : créer, animer et modifier des designs complets

Via Adobe Express, ChatGPT peut :

  • générer des affiches, invitations, posts pour réseaux sociaux
  • remplacer du texte, changer des images, ajuster les couleurs
  • animer certains éléments
  • accéder à des templates thématiques
  • charger des designs existants et les modifier

media 1fe39d2bd0158dc797544d0d694b43d51bc6bea35 scaled

Le tout sans sortir de la conversation.

Et si vous avez besoin de plus de contrôle, vous pouvez ouvrir le projet directement dans les applications Adobe natives pour continuer le travail.

Disponibilité selon les plateformes

Adobe annonce une disponibilité mondiale :

Plateforme ChatGPT

Photoshop

Acrobat

Adobe Express

Desktop

Oui

Oui

Oui

Web

Oui

Oui

Oui

iOS

Oui

Oui

Oui

Android

Bientôt

Non

Oui (déjà dispo)

Le support Android pour Photoshop et Acrobat est en cours.

Cette année, Adobe a introduit un assistant IA dans Photoshop, un assistant IA dans Express et un futur assistant transversal appelé Project Moonlight. L’intégration à ChatGPT s’inscrit dans la stratégie d’Adobe : amener ses outils vers les utilisateurs là où ils travaillent déjà, au lieu de les forcer à ouvrir une application dédiée.

Depuis octobre, ChatGPT supporte les apps tierces (Canva, Spotify, Expedia, Figma…). Mais, cela crée une nouvelle concurrence : Canva et Photoshop peuvent tous deux éditer des images dans ChatGPT, et le choix de l’utilisateur dépendra donc plus de l’expérience ChatGPT que d’un attachement préalable.

Pour l’instant, on ignore si OpenAI et Adobe partagent les revenus générés par l’usage de ces apps.

Lire plus
Intelligence Artificielle

ChatGPT est en stagnation : Google Gemini enregistre +30 % de croissance

ChatGPT est en stagnation : Google Gemini enregistre +30 % de croissance

Le leader ne perd pas sa couronne… mais pour la première fois, quelqu’un tire vraiment dessus. Pendant deux ans, le monde de l’IA a vécu avec une évidence : ChatGPT était intouchable. Une croissance explosive, une avance technique confortable, une image de pionnier. Puis, soudain, la réalité rattrape tout le monde : une courbe ne grimpe jamais éternellement.

Selon les dernières données de Sensor Tower, ChatGPT vient d’entrer dans une phase qu’on n’osait pas imaginer : la stagnation.

ChatGPT plafonne, Google Gemini grimpe

Les chiffres sont limpides :

  • ChatGPT : +6 % de croissance entre août et novembre
  • Gemini : +30 % sur la même période

ChatGPT reste gigantesque — 810 millions d’utilisateurs mensuels, soit 55 % de parts de marché — mais ce qui compte ici n’est pas la taille. C’est la dynamique. Et elle est en train de basculer : ChatGPT perd 3 points de parts de marché, tandis que Gemini en gagne 3. Un transfert presque symétrique.

Pourquoi Gemini progresse aussi vite ?

Un mot : momentum. Un catalyseur ? Le mini-modèle devenu viral : Nano Banana. Oui, le nom prête à sourire. Mais derrière l’apparente fantaisie, un outil de génération visuelle ultra-rapide qui a littéralement envahi les réseaux. Résultat : curiosité → téléchargements → rétention.

Gemini, longtemps perçu comme l’alternative « trop sage » à OpenAI, trouve soudain son ton propre : plus fun, plus accessible, plus visuel.

Et les chiffres le confirment.

Perplexity et Gemini : les deux fusées de 2025

Là où ChatGPT ralentit, d’autres acteurs accélèrent :

  • Gemini : +190 % année sur année
  • Perplexity : +215 %, l’un des taux les plus impressionnants du secteur

Ce duo représente aujourd’hui la menace la plus sérieuse pour la domination d’OpenAI depuis 2022. Pendant un an, ChatGPT a été « l’IA par défaut ». Cette période semble toucher à sa fin.

Et si on regarde le temps passé dans l’application ?

Ici, la bascule est encore plus marquée :

  • Gemini : +120 % de temps moyen quotidien → 11 minutes/jour
  • ChatGPT : +6 % seulement
  • Pire : –10 % d’usage entre juillet et novembre

Autrement dit, ChatGPT a plus d’utilisateurs, mais ils passent moins de temps dessus. Les utilisateurs Gemini sont quant à eux beaucoup plus engagés une fois qu’ils l’adoptent. C’est souvent ce chiffre — l’engagement — qui annonce le futur d’un produit.

2026 : l’année où la domination ne suffira plus

OpenAI reste loin devant, mais, pour la première fois depuis son arrivée tonitruante en 2022, la concurrence ne joue plus la figuration. Gemini n’est pas encore passé devant, mais il possède ce que ChatGPT n’a plus : la trajectoire ascendante. Et dans la tech, on ne parie jamais contre ce genre de dynamique.

Si la tendance se confirme, 2026 pourrait marquer la fin d’une ère : celle où « IA = ChatGPT » allait de soi.

Une nouvelle phase commence : plus de compétition, plus de différenciation, et plus d’innovation forcée.

L’âge d’or du monopole touche peut-être à sa fin. L’âge d’or de la rivalité, lui, commence.

Lire plus
Intelligence Artificielle

OpenAI désactive les messages promotionnels de ChatGPT après les plaintes

OpenAI désactive les messages promotionnels de ChatGPT après les plaintes

OpenAI vient de faire marche arrière. Après quelques jours de plaintes virales, l’entreprise a désactivé les messages promotionnels qui s’affichaient dans ChatGPT — souvent au pire moment possible, pour des utilisateurs qui n’avaient rien demandé.

L’affaire a pris de l’ampleur lorsque des abonnés Plus et Pro, pourtant habitués à un service premium débarrassé des distractions, ont publié des captures montrant des messages invitant à « trouver un cours de fitness » ou « faire ses courses »… juste après avoir discuté de BitLocker ou de modèles d’IA adverses. Le tout renvoyant vers des apps intégrées, comme Peloton ou Target.

Autant dire que la surprise fut… mitigée.

OpenAI réagit : « Nous avons manqué le coche »

Face au flot de critiques, Mark Chen, Chief Research Officer d’OpenAI, a pris la parole sur X dans un aveu de transparence assez rare pour une entreprise de cette envergure : « Tout ce qui ressemble à une publicité doit être traité avec prudence, et nous avons échoué ».

Il précise que les suggestions incriminées sont désormais désactivées, l’équipe travaille sur des contrôles plus fins, permettant aux utilisateurs de diminuer ou de couper totalement ces prompts, et l’objectif initial n’était pas d’afficher des pubs, mais d’améliorer la découverte d’apps intégrées.

Autrement dit : l’intention était bonne… l’exécution beaucoup moins.

Publicités déguisées ou simple suggestion ? Une frontière floue

OpenAI assure qu’il ne s’agissait pas de publicités au sens strict. Selon Daniel McAuley, data engineer chez OpenAI : « Ce ne sont pas des pubs car il n’y a aucun composant financier ». Mais, il reconnaît également : « Le manque de pertinence crée une expérience confuse ».

Là est tout le problème. Quand un assistant personnel commence à suggérer des services qui n’ont aucun rapport avec la conversation en cours, l’utilisateur perçoit immédiatement cela comme une intrusion — et dans ce cas précis, comme une forme de publicité déguisée.

Même sans transaction derrière, la perception compte autant que le modèle économique.

Une expérimentation mal reçue… mais révélatrice des ambitions d’OpenAI

OpenAI avait prévenu en octobre : la plateforme suggérerait désormais des apps « lorsque c’est pertinent ». L’objectif ? Encourager l’usage des extensions ChatGPT, retenir l’utilisateur dans l’écosystème, et éviter qu’il bascule vers une app tierce comme Peloton, Instacart ou Klarna.

Sur le papier, une stratégie logique. Dans les faits, la pertinence du signalement a été si mauvaise qu’elle a semblé intrusive, arbitraire, et incompatible avec l’image premium de ChatGPT Plus/Pro.

Un test mal calibré, mais riche d’enseignement : la monétisation indirecte dans les assistants IA devra être ultra-transparente, ou ne sera pas.

La question de fond : comment monétiser un chatbot sans casser la magie ?

La polémique révèle une tension fondamentale dans l’ère de l’IA grand public : comment intégrer services, extensions, apps partenaires… sans jamais franchir la ligne rouge de la publicité intrusive ? Tous les acteurs devront y répondre : Google avec Gemini Apps, Meta avec ses bots intégrés dans WhatsApp, et Microsoft avec Copilot Marketplace.

OpenAI vient de toucher du doigt les limites de l’acceptable.

La bonne nouvelle ? Ils ont réagi vite. La mauvaise ? La confiance des utilisateurs est fragile : une seule suggestion mal placée suffit à faire douter de la neutralité d’un assistant.

Prochaine étape : un ChatGPT vraiment personnalisable ?

La promesse formulée par Mark Chen laisse entrevoir quelque chose de beaucoup plus intéressant qu’un simple correctif : des contrôles avancés permettant d’activer/désactiver entièrement les suggestions générées par l’IA, éventuellement un mode « Zero Promotion », et pourquoi pas, à terme, un paramétrage par contexte : travail, loisir, créativité, shopping, etc.

Bref : un ChatGPT qui s’adapte réellement à vous… et non l’inverse.

Cette mini-crise n’est pas qu’un faux pas : c’est un signal pour toute l’industrie de l’IA. Les utilisateurs sont prêts à accepter beaucoup de choses… sauf que leur assistant personnel tente de leur vendre quelque chose, surtout lorsque ce n’est pas pertinent.

OpenAI l’a compris à temps. Reste à voir comment la plateforme réinventera la découverte d’apps sans tomber dans le piège de la publicité déguisée.

Lire plus
Intelligence Artificielle

Claude Code s’invite dans Slack : Anthropic veut transformer chaque conversation en ligne de code

Claude Code s’invite dans Slack : Anthropic veut transformer chaque conversation en ligne de code

L’IA n’attend plus que vous : elle entre maintenant directement dans vos threads Slack pour écrire du code, réparer des bugs et ouvrir des pull requests.

Anthropic vient de déclencher l’un des plus gros bouleversements de l’année dans le monde du développement logiciel : Claude Code débarque officiellement dans Slack, sous la forme d’une intégration beta pensée pour métamorphoser la manière dont les ingénieurs travaillent au quotidien.

C’est une annonce qui aurait presque pu passer inaperçue — sauf qu’elle tombe à un moment clé pour Anthropic, et que Claude Code est déjà devenu une machine commerciale inattendue : 1 milliard de dollars de revenus annualisés, six mois seulement après son lancement public.

Ce n’est pas un gadget. C’est l’arrivée du « coding agent » directement là où naissent les problèmes : dans les discussions.

@Claude : une mention dans Slack, et l’agent passe en mode développeur

Du signalement d’un bug… jusqu’au pull request, sans quitter Slack. L’intégration repose sur un geste simple : Mentionnez @Claude dans un canal ou un thread.

Si le message ressemble à une tâche de développement — bug, amélioration, question technique — l’agent lance automatiquement une session Claude Code.

Ce que cela change est fondamental :

  • Claude lit le contexte directement dans la conversation Slack.
  • Il détermine sur quel repository travailler, selon ceux que vous avez autorisés.
  • Il exécute des appels d’outils, modifie le code, rédige les commits.
  • Il publie l’avancement en temps réel dans le thread Slack.
  • Il finit par générer une pull request prêt à être ouverte.

Autrement dit : Slack devient un IDE social. Et surtout, le fossé historique entre où l’on parle des bugs et où l’on les corrige disparaît brutalement. Anthropic parle d’une « research preview », mais les ambitions sont limpides : faire de Claude un collègue numérique qui écoute toutes les conversations d’équipe et réagit instantanément.

maxresdefault 3

Pourquoi maintenant ? Parce que Claude Code est devenu l’arme secrète d’Anthropic

L’intégration Slack n’est pas un caprice de produit : c’est une stratégie d’expansion assumée. Claude Code est utilisé par Netflix, Spotify, Salesforce, KPMG, L’Oréal, Uber, Snowflake, Ramp…, a permis à Rakuten de réduire ses cycles de développement de 24 jours à 5 jours (-79 %) et représente désormais l’un des piliers financiers d’Anthropic, au même niveau que ses modèles phares.

Il est devenu tellement critique qu’Anthropic a réalisé sa première acquisition : Bun, le runtime JavaScript ultra-rapide devenu essentiel pour exécuter les workflows d’agents IA à grande échelle.

Le message est clair : Claude Code n’est pas un module. C’est une ligne de business. Slack n’est que la prochaine pièce du puzzle.

Au cœur de l’entreprise moderne : Slack devient le terrain de jeu des IA

Slack revendique 750 000 organisations clientes. C’est l’endroit où les PM signalent les bugs, les développeurs débattent de choix techniques, les analystes déposent des captures d’erreurs, et les clients internes demandent des fonctionnalités. Anthropic veut être là, au moment précis où le besoin naît.

C’est là que l’entreprise prend un avantage majeur face à : GitHub Copilot (Microsoft), Google Gemini Code Assist, et OpenAI avec ChatGPT Team/Enterprise. Eux opèrent dans des IDE, des outils d’ingénierie. Anthropic infiltre la communication elle-même.

La bataille pour l’entreprise ne se gagnera pas seulement dans l’éditeur de code — mais dans les espaces où les décisions émergent.

Ce que montre l’expérience interne d’Anthropic : les ingénieurs changent déjà de métier

Anthropic a mené une étude interne impressionnante : 132 ingénieurs interrogés, 53 entretiens, analyse des logs d’usage Claude Code.

Les chiffres sont saisissants :

  • Les employés utilisent Claude dans 60 % de leur travail.
  • Ils mesurent une augmentation de productivité de 50 % (2 à 3× plus qu’un an plus tôt).
  • Les tâches « jamais réalisées autrement » représentent 27 %.
  • Claude enchaîne désormais 21 appels d’outils consécutifs, contre 9 il y a 6 mois.
  • Le nombre d’interventions humaines par session a chuté de 33 %.

Les ingénieurs parlent de Claude comme d’un collègue à part entière : « Je dépends 80 % moins de mon équipe. Mais le dernier 20 %, c’est le crucial — et là, je vais les voir ». La transformation est réelle… et ambivalente. Certains adorent la fluidité. D’autres regrettent la perte de socialisation, ou craignent une atrophie des compétences profondes.

L’intégration Slack, en rendant Claude omniprésent, va amplifier ces deux tendances.

La vision d’Anthropic : le futur du code sera conversationnel

Ce lancement acte une conviction stratégique : le code ne sera plus seulement écrit dans un IDE. Il sera négocié, discuté et généré dans la conversation elle-même. Si Anthropic a raison, alors Slack devient un IDE distribué, l’ingénieur devient un superviseur-orchestrateur et les agents IA deviennent le premier maillon de la chaîne logicielle.

Mais tout repose sur une question : Claude Code peut-il garantir une qualité de code et une sécurité à la hauteur de l’entreprise ? Les early adopters disent oui — mais avec supervision. Anthropic elle-même reconnaît que seulement 0–20 % du travail peut être totalement délégué sans vérification.

Le futur du dev sera peut-être conversationnel… mais certainement pas sans garde-fous.

L’intégration Slack n’est pas une feature — c’est un manifeste

Avec cette beta, Anthropic affirme une vision audacieuse :

  • L’ingénierie logicielle n’est plus une activité isolée dans un IDE.
  • C’est un flux conversationnel, contextualisé, collaboratif, continu.
  • Et l’agent IA doit être présent là où l’on parle du travail, pas seulement là où l’on l’exécute.

C’est un pari sur une rupture culturelle aussi importante que technologique. Un ingénieur d’Anthropic résume parfaitement le moment que nous vivons : « Personne ne sait vraiment ce qui va se passer. L’important, c’est de rester adaptable ».

C’est sans doute le meilleur conseil professionnel de l’ère des agents IA.

Lire plus
Intelligence Artificielle

ChatGPT marque le pas : la croissance ralentit et l’ère de l’hyper-expansion touche à sa limite

ChatGPT marque le pas : la croissance ralentit et l’ère de l’hyper-expansion touche à sa limite

Après trois ans de croissance vertigineuse, ChatGPT entre dans une nouvelle phase de son histoire : la maturité… et le ralentissement. Le modèle star d’OpenAI, qui a façonné l’imaginaire collectif autour de l’IA générative, voit désormais sa dynamique fléchir.

Et les chiffres parlent d’eux-mêmes : seulement +5 % d’utilisateurs actifs mensuels entre août et novembre 2025, selon TechCrunch — un contraste saisissant avec les bonds à 2 ou 3 chiffres des années précédentes.

À l’inverse, Google Gemini profite du moment : +30 % d’utilisateurs sur la même période. Le marché se resserre, les alternatives se multiplient, et la domination « naturelle » de ChatGPT n’a plus rien d’acquis.

ChatGPT et l’âge de la maturité : 800 millions d’utilisateurs… et des signaux de saturation

Avec environ 800 millions d’utilisateurs hebdomadaires en décembre 2025, ChatGPT demeure un mastodonte. Mais derrière cette masse impressionnante, la dynamique change :

  • téléchargement de l’application mobile en baisse ;
  •  ralentissement marqué aux États-Unis, un marché arrivé à saturation ;
  • croissance restreinte dans les nouveaux marchés où coûts de données et barrières linguistiques freinent l’adoption.

En clair : ChatGPT n’est plus une nouveauté, mais un outil parmi d’autres. Et cela change tout.

Ce ralentissement s’ajoute à une équation financière tendue : 4,3 milliards de dollars de revenus au premier semestre 2025, mais 2,5 milliards dépensés en R&D et infrastructures. Il devient de plus en plus coûteux pour OpenAI de maintenir l’avance technologique qui a fait son succès.

La concurrence passe à l’offensive : Gemini, Claude, Llama… et le morcellement du marché

L’écosystème se diversifie, et OpenAI n’a plus le monopole de l’innovation. Google Gemini gagne du terrain à grande vitesse avec des fonctionnalités perçues comme plus modernes, une intégration native dans l’écosystème Google, et une agressivité marketing redoutable.

Du côté des professionnels, la tendance est similaire. Les données d’Index.dev révèlent que 79 % des développeurs utilisent encore ChatGPT, mais une part croissante expérimente Claude, Llama, ou des modèles open source moins coûteux.

Le marché n’appartient plus à un seul acteur : il se fragment en niches spécialisées — et cela, OpenAI ne peut l’ignorer.

Des utilisateurs plus exigeants : frustrations, churn et migration vers d’autres outils

L’année 2025 met en lumière une autre réalité : le public devient plus difficile à satisfaire. Selon les chiffres, il y a un turnover mensuel de 14 % chez les abonnés Plus/Pro. Il y a de multiples plaintes face aux bugs, ralentissements, et des réponses jugées trop « censurées » ou répétitives.

Les réseaux sociaux parlent désormais de « digital refugees », ces utilisateurs migrés vers des alternatives jugées plus flexibles.

OpenAI continue pourtant de traiter 2,5 milliards de messages par jour, preuve que l’usage reste massif — mais plus volatile.

Un trafic solide, mais qui plafonne : le modèle du chatbot montre ses limites

Les données de Exploding Topics confirment une réalité ambivalente : 800 millions d’utilisateurs hebdomadaires, 30 % l’utilisent pour le travail, mais… une saturation visible, avec des DAU en baisse dans certains marchés.

Face à cela, Google Search continue d’écraser tout le monde : 83,8 milliards de visites en août 2025 contre 5,8 milliards pour ChatGPT.

Le discours triomphaliste du « l’IA va remplacer la recherche » s’érode. Les usages se stabilisent, chacun trouvant sa place.

OpenAI sur la ligne de crête : innover ou décrocher

Pour contrer l’essoufflement, OpenAI accélère avec des partenariats stratégiques, des développements autour de l’agentique (IA autonomes capables d’agir, coder, exécuter des tâches complexes), et des projets de GPT-5.x et assistants personnalisés.

Mais la question demeure : est-ce que ces innovations suffiront à relancer la croissance ? Les initiés évoquent une tension interne permanente entre vitesse de sortie des nouveautés, maîtrise des coûts, qualité d’expérience pour éviter le churn.

Dans le même temps, l’entreprise fait face à un cadre réglementaire plus strict (UE, USA), des interrogations sociétales sur la sécurité et l’éthique, et une concurrence qui innove plus vite et plus bruyamment.

Un secteur en mutation : vers la fin du “one model to rule them all”

Le ralentissement de ChatGPT ne signe pas la fin du modèle génératif. Il marque l’entrée dans une phase post-hype où  les utilisateurs deviennent sélectifs, les entreprises cherchent des outils adaptés, pas monolithiques, l’open source monte en puissance, tirant les prix vers le bas, et l’innovation se déplace vers l’agentique et les workflows complexes.

L’ère des chatbots généralistes touche peut-être à sa limite. La prochaine bataille : l’IA spécialisée, intégrée, invisible — omniprésente, mais moins spectaculaire.

Et maintenant ? Le vrai défi d’OpenAI : fidéliser

Pour retrouver son élan, OpenAI devra réduire le turnover, améliorer la stabilité, repenser la personnalisation, s’intégrer nativement dans les outils du quotidien, et surtout faire évoluer le modèle économique.

L’objectif interne de 220 millions d’abonnés payants d’ici 2030 reste ambitieux — voire irréaliste si la dynamique actuelle se confirme.

Mais si l’histoire récente de l’IA nous apprend quelque chose, c’est que les positions ne restent jamais figées longtemps.
Le leader d’aujourd’hui peut être rattrapé demain… ou renaître grâce à une avancée décisive.

Lire plus
Intelligence Artificielle

OpenAI en « code rouge » : GPT-5.2 prévu dès la semaine prochaine pour répondre à Gemini 3

OpenAI en « code rouge » : GPT-5.2 prévu dès la semaine prochaine pour répondre à Gemini 3

Le PDG d’OpenAI, Sam Altman, a déclenché en début de semaine une situation de « code rouge », demandant à ses équipes d’accélérer face à la montée en puissance de Google et d’Anthropic.

D’après plusieurs sources proches du dossier, OpenAI prépare sa première véritable riposte à Gemini 3 avec la sortie imminente de GPT-5.2.

GPT-5.2 est prêt — sortie possible dès la semaine prochaine

Selon ces mêmes sources, GPT-5.2 serait finalisé et prêt à être déployé, avec une fenêtre de lancement qui pourrait s’ouvrir dès le début de la semaine prochaine.

L’objectif est clair : combler l’écart créé par Google avec Gemini 3, le modèle dévoilé le mois dernier, qui a dominé les classements de performance et impressionné aussi bien Sam Altman qu’Elon Musk (xAI).

Le média The Information rapportait plus tôt cette semaine que Altman affirmait que le prochain modèle de raisonnement d’OpenAI était « devant Gemini 3 » dans leurs évaluations internes.

Une sortie avancée sous la pression de la concurrence

Initialement, OpenAI prévoyait de sortir GPT-5.2 plus tard en décembre. Mais face à la pression croissante — et notamment à l’accueil réservé à Gemini 3 — le calendrier a été avancé. La date actuellement ciblée par OpenAI serait le 9 décembre.

Cependant, comme souvent avec OpenAI, les dates peuvent changer à la dernière minute en raison de contraintes techniques ou de capacité serveurs, d’ajustements liés aux performances, des annonces surprises de modèles concurrents, ou de fuites qui modifient la stratégie de timing.

Il n’est donc pas exclu que la sortie soit légèrement décalée, même si « la machine est lancée ».

ChatGPT va aussi évoluer : moins de nouveautés flashy, plus de fiabilité

En parallèle du lancement de GPT-5.2, OpenAI prévoit de faire évoluer ChatGPT dans les mois à venir. Mais contrairement aux mises à jour précédentes, la priorité ne serait plus aux fonctionnalités impressionnantes, mais à la vitesse, la fiabilité, la personnalisation, et une expérience utilisateur plus cohérente.

Toujours selon les sources, ce code rouge vise à repositionner ChatGPT dans une compétition devenue extrêmement agressive.

Lire plus
Intelligence Artificielle

AWS lance les AI Factories : des supercalculateurs IA directement chez le client

AWS lance les AI Factories : des supercalculateurs IA directement chez le client

Il y a parfois des annonces qui marquent un tournant silencieux — un changement de paradigme plus profond qu’il n’y paraît. L’initiative “AI Factories” d’AWS, dévoilée à re:Invent 2025, appartient clairement à cette catégorie.

Avec ce programme, Amazon fait quelque chose d’inédit : faire sortir l’IA du cloud, son terrain de jeu naturel, pour l’installer directement chez les clients, dans leurs propres datacenters.

Une révolution pour les organisations soumises à des règles strictes de souveraineté, de confidentialité ou de sécurité… et un message clair envoyé à Google, Microsoft et aux grands acteurs de l’IA.

Pourquoi AWS déplace ses supercalculateurs dans vos locaux ?

Depuis dix ans, le leitmotiv d’AWS est simple : tout doit vivre dans le cloud. Mais, le monde de 2026 n’est plus celui de 2016.

  • Souveraineté des données
  • Pressions géopolitiques
  • Législations comme le RGPD ou les lois nationales sur la donnée sensible
  • Besoins ultra-secrets des gouvernements et du secteur défense

… autant de raisons qui rendent le “cloud-only” parfois impossible.

Avec les AI Factories, AWS réplique : Vous gardez vos données. Nous amenons l’infrastructure jusqu’à vous. Le résultat ? De véritables “micro-centres de cloud IA”, livrés clé en main, capables d’entraîner ou d’exécuter de grands modèles, le tout sous contrôle total du client, mais gérés à distance par AWS.

C’est Outposts 2.0 — mais musclé à un niveau jamais vu.

Le duo AWS × Nvidia : une alliance stratégique pour des performances titanesques

L’architecture des AI Factories repose sur un combo qui fait saliver tout le marché : les GPU Nvidia Blackwell les plus avancés du moment, ou les puces Trainium d’AWS, qui gagnent en maturité, un stack complet : réseau, stockage, refroidissement, supervision, et une intégration naturelle avec Bedrock.

Le client fournit l’espace et l’alimentation. AWS livre l’équivalent d’une mini-IA supercomputing facility, configurée, optimisée, opérationnelle.

C’est la première fois qu’un cloud provider construit une IA complète hors de son propre cloud.

Des IA autonomes pour des tâches longues, complexes… et critiques

Ces “usines à IA” ne se contentent pas de fournir du hardware.
Elles embarquent aussi la couche logicielle avancée d’AWS :
• les modèles Nova,
• les frontier agents,
• des agents capables de décomposer un projet complexe en sous-tâches,
• et de les exécuter de manière autonome, parfois pendant des jours.

Comme l’a résumé GeekWire :

Des systèmes qui travaillent pendant que les humains dorment.

Applications typiques :
💊 découverte de médicaments
🏭 optimisation industrielle
🔐 analyse sécurisée de données classifiées
💳 lutte antifraude financière
🇺🇸 entraînement de modèles sensibles en environnement souverain

Le tout, sans jamais sortir une donnée du site du client.

Un coup stratégique pour Amazon… et une menace claire pour la concurrence

AWS joue ici sur plusieurs fronts simultanément :

  1. Gagner les secteurs régulés : Défense, santé, finance, gouvernements : autant de domaines où Google et Microsoft bataillent déjà avec leurs offres hybrides. Les AI Factories d’AWS sont une réponse directe.
  2. Réduire la dépendance à Nvidia : Derrière l’alliance, une stratégie à long terme : AWS investit massivement dans ses propres puces (Trainium2, Trainium3). Objectif : Diviser les coûts, maîtriser la chaîne, et réduire l’emprise Nvidia.
  3. Proposer un cloud hybride réinventé : Microsoft a Azure Stack, Google pousse l’informatique distribuée… AWS répond avec une spécialisation IA pure — et cela change tout.

Les limites : coût, énergie, complexité… et un défi politique

Rien n’est magique. Les AI Factories posent de vraies questions :

  • Coûts astronomiques : Ce sont des infrastructures premium. Les PME devront passer leur tour.
  • Consommation électrique : Les clusters Blackwell sont des monstres énergétiques. Des tests initiaux tentent d’optimiser l’empreinte carbone.
  • Confiance et régulation : AWS promet un accès sécurisé, mais les gouvernements regarderont de près ces installations, surtout si elles servent des applications sensibles (IA militaire, surveillance, etc.).
  • Compétences internes : Les entreprises devront apprendre à gérer un hybride complexe : local + cloud + agents autonomes.

Vers un futur où les AI Factories deviennent des unités modulaires intelligentes

La vision d’AWS dépasse largement 2026. Les analysts imaginent déjà des mini-factories déployées à la périphérie : raffineries, stations météo, îles isolées, bases militaires ; des modules compatibles avec des robots industriels ou des futurs systèmes quantiques ; des versions “scalables” pouvant passer de 100 à 10 000 GPU.

Et si Amazon parvient à prouver que ses puces Trainium coûtent deux fois moins cher que les configurations Nvidia-only — comme certains indices l’affirment — alors un raz-de-marée pourrait suivre.

AWS veut créer un monde où l’IA vit chez vous, au lieu que vos données vivent dans son cloud

Les AI Factories sont plus qu’un produit. Ce sont un mouvement stratégique majeur pour sécuriser l’IA pour les secteurs les plus sensibles, ouvrir un nouveau marché hybride, accélérer la dépendance aux puces maison, et devancer Microsoft et Google sur l’IA souveraine.

AWS s’était imposé dans le cloud. Il veut désormais devenir l’architecte mondial de l’infrastructure IA, quel que soit l’endroit où elle tourne.

Un pari audacieux — et peut-être l’un des plus importants de l’ère post-cloud.

Lire plus
Intelligence Artificielle

Qu’est-ce que DeepSeek ? Le géant chinois qui défie OpenAI et Google

Qu'est-ce que DeepSeek ? Le géant chinois qui défie OpenAI et Google

En 2022, l’ère de l’IA générative a explosé avec l’arrivée de ChatGPT. Mais début 2025, un nouvel événement majeur a changé le paysage : l’irruption spectaculaire de DeepSeek, un acteur chinois encore inconnu quelques mois plus tôt.

Avec des modèles performants, un coût d’entraînement dérisoire et une ouverture inhabituelle pour une entreprise chinoise, DeepSeek est devenu en un temps record l’un des rivaux les plus sérieux d’OpenAI, Anthropic et Google.

Voici tout ce qu’il faut savoir sur DeepSeek, ses modèles, ses forces, son impact sur le marché et ses ambitions.

DeepSeek : c’est quoi exactement ?

DeepSeek est un chatbot d’intelligence artificielle comparable à ChatGPT, développé par l’entreprise Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., fondée en juillet 2023.

Elle appartient au fonds d’investissement chinois High-Flyer Capital, dirigé par son fondateur Liang Wenfeng (également fondateur de DeepSeek).

DeepSeek se présente comme une alternative chinoise open source, performante et bon marché aux grands modèles occidentaux.

En 2025, l’entreprise attire l’attention mondiale pour trois raisons majeures :

  1. Son modèle de raisonnement DeepSeek R1, sorti en janvier 2025, rivale quasiment l’OpenAI o1.
  2.  Son coût d’entraînement estimé à seulement 6 millions de dollars, soit ~20× moins que les modèles occidentaux comparables.
  3.  Sa mise à disposition publique des weights du modèle R1, du jamais vu pour un système de cette puissance.

Résultat : DeepSeek R1 a même dépassé ChatGPT sur l’App Store américain et entraîné une baisse de 18 % du cours de Nvidia après l’annonce de son coût réduit.

DeepSeek AI Chat

Pourquoi DeepSeek a-t-il fait autant de bruit ?

1. Un coût d’entraînement incroyablement bas

DeepSeek affirme avoir entraîné R1 pour moins de 6 millions de dollars, quand :

  • GPT-4 coûterait >100 millions,
  • Claude 3 Opus >75 millions,
  • et o1 d’OpenAI dépasse ce seuil.

Cette efficacité remet en question les budgets colossaux des laboratoires occidentaux, la dépendance aux GPUs Nvidia, et la barrière d’entrée dans la compétition IA.

2. Un modèle open source… à haut niveau de performance

DeepSeek a publié les weights complets du modèle, son papier technique détaillé, sa méthode RLHF pour entraîner des modèles de raisonnement.

À l’inverse, OpenAI, Anthropic et Google gardent leurs méthodes secrètes — en particulier celles liées au raisonnement.

DeepSeek montre qu’il est possible de répliquer des performances proches des modèles premium avec moins de données, moins de budget, plus de transparence.

3. Une pression énorme sur OpenAI, Google et Anthropic

En janvier 2025, DeepSeek R1 est lancé gratuitement, alors que l’accès à OpenAI o1 coûtait encore 20 dollars/mois. En quelques semaines, cette décision a poussé les acteurs occidentaux à baisser leurs prix, offrir des modèles gratuitement, et améliorer leurs versions open source.

En bref : DeepSeek a cassé les prix de l’IA.

Les modèles DeepSeek : timeline complète

Voici le parcours éclair de l’entreprise (2023 → 2025).

2023 : les premiers modèles

  • DeepSeek Coder – modèle orienté code
  • DeepSeek LLM – modèle généraliste
  • DeepSeek-Math – spécialisé mathématiques

2024 : montée en puissance

  • DeepSeek-V2 – modèle linguistique avancé
  • DeepSeek-Coder V2
  • DeepSeek-V2.5 (septembre 2024)
  • DeepSeek-R1-Lite – premier modèle de raisonnement léger (novembre 2024)
  • DeepSeek-V3 – modèle généraliste base (décembre 2024)

version history en

Janvier 2025 : le choc DeepSeek R1

  • DeepSeek-R1, modèle de raisonnement, rivalise avec OpenAI o1
  • Lancement de l’application mobile DeepSeek (iOS + Android)

2025 : améliorations continues

En cette fin d’année 2025, DeepSeek a présenté un nouveau modèle majeur, concurrent direct de GPT-5.1, Gemini 3 ou Claude 4.5.

Comment utiliser DeepSeek AI ?

Vous pouvez tester DeepSeek gratuitement via :

  1. Le site Web : https://chat.deepseek.com
  2. L’application mobile : Disponible sur Android et iOS
  3. Localement (PC / mobile) : DeepSeek permet de télécharger les versions distillées de ses modèles pour un usage local. Les versions complètes restent trop lourdes pour la plupart des machines personnelles.

DeepSeek aujourd’hui : succès, blocages et politique chinoise

L’affaire des puces Huawei Ascend

Au début de l’année 2026, DeepSeek devrait annoncer son modèle R2. Cependant, la Chine aurait demandé à l’entreprise d’abandonner les GPUs Nvidia au profit des puces nationales Huawei Ascend.

Résultat :

  • tentative d’entraînement sur Ascend,
  • retours techniques négatifs,
  • retour (dans l’ombre) sur Nvidia pour l’entraînement du modèle,
  • Ascend utilisé uniquement pour l’inférence.

Cette situation a retardé le calendrier de sortie de DeepSeek R2.

DeepSeek : un acteur majeur à surveiller

DeepSeek est aujourd’hui l’entreprise IA chinoise la plus prometteuse, avec Alibaba, un rival direct des géants US, un moteur de pression sur les prix, et un acteur stratégique pour Pékin (souveraineté technologique).

Elle pourrait bouleverser l’IA mondiale en 2026 si elle parvient à sortir R2 sur un PC local, elle maintient son approche open source, et elle réduit encore les coûts d’entraînement.

DeepSeek est devenu le premier acteur chinois capable de rivaliser frontalement avec les leaders occidentaux, et son modèle R1 a marqué un tournant dans la démocratisation mondiale de l’IA.

Lire plus
Intelligence Artificielle

Dario Amodei : le CEO d’Anthropic défend le calme stratégique face à la frénésie d’OpenAI

Dario Amodei : le CEO d'Anthropic défend le calme stratégique face à la frénésie d'OpenAI

Dans un paysage où chaque avancée déclenche un « code red » et où OpenAI comme Google dégainent des annonces à cadence frénétique, Dario Amodei joue la carte inverse : le calme stratégique.

Invité au New York Times DealBook Summit, le CEO d’Anthropic (société derrière les modèles IA Claude) a assumé une position presque à contre-courant : pas d’alerte dramatique, pas de surenchère médiatique — l’entreprise avance, méthodiquement, là où elle pense pouvoir gagner.

L’angle mort des géants : l’entreprise

Si Amodei ne panique pas à chaque sortie de modèle concurrent, c’est parce que Anthropic ne joue pas exactement le même jeu. Là où OpenAI et Google oscillent entre usage grand public et démonstrations d’échelle, Anthropic se concentre sur un marché plus discret, mais beaucoup plus solide : l’entreprise.

Selon Business Insider, Amodei l’a dit sans détour : « Nos modèles sont optimisés pour les besoins des entreprises ».

Ce qui veut dire de la programmation, du raisonnement scientifique, de la création de documents professionnels, et non la course à l’engagement ou aux usages gadgets.

Une stratégie moins glamour, mais diablement pragmatique : les entreprises paient mieux, plus, et plus longtemps que les utilisateurs grand public.

Claude Opus 4.5 : un modèle qui ne cherche pas à divertir

Anthropic a lancé Claude Opus 4.5 il y a un mois, un modèle présenté comme son plus abouti :

  • génération de code améliorée,
  • meilleure compréhension documentaire,
  • capacités étendues en production professionnelle.

Contrairement aux assistants « grand public », Claude Opus 4.5 se positionne comme un outil de travail, pas un compagnon conversationnel. Une distinction qui devient stratégique à mesure que les entreprises cherchent à intégrer l’IA dans des workflows réels et mesurables.

Une compétition toujours plus agressive

Évidemment, cela ne veut pas dire que Anthropic joue en terrain sécurisé. Google conserve une puissance de feu colossale (Gemini 3 l’a encore rappelé), OpenAI reste le champion de l’adoption massive et Meta aligne recherche, compute et vision long terme, avec l’ambition de devenir incontournable dans l’open source comme dans l’entreprise.

Et, la bataille n’est pas seulement technologique : elle est financière. Les investissements se chiffrent déjà en dizaine de milliards, et Amodei prévient : certaines entreprises « vont en mode YOLO », dépensent trop vite, innovent trop fort, sans garde-fous.

Sous-entendu : le risque est autant stratégique que sociétal.

Anthropic, OpenAI: les futurs mastodontes de Wall Street

Autre point d’attention : malgré sa prudence affichée, Anthropic prépare — avec OpenAI — l’une des plus grosses introductions en bourse de la décennie. Les valorisations privées s’emballent : plus de 300 milliards de dollars, selon les projections.

L’industrie de l’IA entre dans une zone où la technologie progresse vite, la compétition devient féroce, les enjeux géopolitiques s’aiguisent, et la finance s’emballe.

Peut-être que la stratégie « sans code red » d’Amodei est, finalement, la seule façon de garder la tête froide.

Le message derrière le message

Avec cette petite pique adressée à Google et OpenAI, Amodei envoie un signal clair. Anthropic ne cherche pas à tout faire ni à gagner le cycle médiatique. Anthropic veut être le partenaire IA n° 1 du monde professionnel.

Dans un moment où tout le monde parle de domination du marché, la startup rappelle une évidence : le gagnant ne sera pas forcément celui qui cri le plus fort — mais celui qui livre le plus de valeur, là où les entreprises sont prêtes à payer pour des résultats tangibles.

Lire plus
Intelligence Artificielle

Gemini 3 : le full stack Google face aux partenariats d’OpenAI

Gemini 3 : le full stack Google face aux partenariats d'OpenAI

Pendant longtemps, Google a semblé dormir sur ses deux oreilles. Sa suprématie dans la recherche paraissait inattaquable, ses revenus immuables, son rythme d’innovation maîtrisé. Et puis, fin 2022, ChatGPT a fissuré cette illusion. En quelques mois, OpenAI a montré au monde ce que Google aurait pu — et peut-être dû — lancer le premier.

Le choc fut tel qu’il a déclenché une refonte interne brutale : réorganisation des équipes, accélération des lancements, et surtout une nouvelle philosophie beaucoup plus agressive.

En 2026, cette métamorphose aboutit à Gemini 3, un modèle qui n’est plus une réaction défensive face à ChatGPT… mais une tentative de remodeler tout l’écosystème du Web.

Google n’itère plus : il s’auto-disrupte

D’après un long reportage de Business Insider, la riposte de Google a impliqué nuits blanches, suppressions de postes stratégiques et fusion des divisions IA. Le message interne était clair : « Soit on cannibalise nos produits, soit quelqu’un d’autre le fera ».

Gemini 3 incarne ce virage. Le modèle réduit drastiquement le besoin de « prompting », se branche directement dans Google Search et injecte graphiques interactifs, raisonnements multimodaux et « Agent Mode », capable d’exécuter des tâches complexes de façon autonome.

Ce n’est plus du search. C’est un assistant cognitif branché sur tout le Web. Sur X, développeurs et data scientists saluent sa frugalité en tokens, une arme redoutable pour les entreprises qui veulent maîtriser leurs coûts cloud.

Le « full stack » Google : un avantage que personne ne peut copier

Pendant que OpenAI multiplie les partenariats, Google active son super-pouvoir : l’intégration verticale.

Comme l’a analysé Business Insider, Google contrôle :

  • Android (3 milliards d’appareils)
  • Chrome (65 % du marché des navigateurs)
  • YouTube (2 milliards d’utilisateurs)
  • Workspace (700 millions d’utilisateurs)
  • Search (8,5 milliards de requêtes par jour)

Gemini 3 s’insère partout. Résultat : tout ce qui ressemblait à un chatbot devient une fonction système, invisible mais omniprésente.

Selon PCMag, le « AI Mode » arrive déjà chez les utilisateurs Pro et Ultra aux États-Unis, et pourrait être déployé plus largement d’ici quelques mois. Les assistants autonomes de Google pourraient ainsi absorber jusqu’à 30 % des usages actuels de ChatGPT ou Claude, selon les estimations qui circulent sur X.

La bataille technologique : Gemini 3 vs GPT-5

OpenAI ne reste évidemment pas immobile. GPT-5 et ses « Thinking modes » renforcent encore la capacité de raisonnement profond, et ChatGPT gagne des connecteurs Gmail et Google Agenda pour devenir une sorte de secrétaire numérique.

Mais la vérité brute est ailleurs : la distribution.

Gemini serait déjà utilisé par plus de 650 millions d’usagers mensuels, selon les métriques relayées par certains analystes sur X. ChatGPT en compte environ 200 millions.

Côté produit, Google introduit le mode Deep Think, positionné comme rival direct du Thinking d’OpenAI, tandis que les benchmarks montrent Gemini 3 plus performant dans certains scénarios multimodaux et d’agents.

La face sombre : quand Google sacrifie la prudence

Une enquête de WIRED révèle que l’entreprise a progressivement abaissé ses garde-fous internes pour suivre le rythme effréné d’OpenAI. Mémos internes, débats houleux, ingénieurs sécurité débordés… L’ADN prudent de Google s’est fissuré sous la pression.

Sundar Pichai a même évoqué 2025 comme une « année critique », selon des posts publics sur X.

Les risques ?

  • hallucinations dans les AI Overviews,
  • nouveaux défis éthiques,
  • pression réglementaire accrue,
  • potentielle cannibalisation du modèle publicitaire historique.

Mais, la direction estime qu’il faut avancer vite pour ne pas devenir « le prochain Nokia ».

Le Web de 2026 : moins de pages, plus d’agents

L’effet Gemini sur l’Internet est déjà palpable. Moins de clics vers les sites. Plus de réponses synthétiques. Plus d’actions automatisées. Google tente de transformer la recherche en un méga-robot conversationnel basé sur du RAG temps réel.

Plus besoin de pages statiques : c’est Gemini qui synthétise, vérifie, commente, illustre. Pour les créateurs de contenu, les médias, les vendeurs, les comparateurs… un séisme.

OpenAI vs Google : la guerre des écosystèmes

Contrairement à OpenAI, Google n’a pas besoin de convaincre les utilisateurs d’installer une application. Gemini sera préinstallé sur Android, intégré à Search, infiltré dans Chrome, fusionné avec Workspace, et présent dans Maps, YouTube, Photos.

Et surtout : automatiquement activé au moment où les gens tapent une requête.

Le constat est limpide : « Gemini 3 pourrait écraser ChatGPT grâce à son intégration native dans l’écosystème Google ». OpenAI, de son côté, mise sur la puissance brute des modèles (GPT-5.1 Codex Max impressionne déjà les développeurs), sur ses agents autonomes et sur son partenariat avec Microsoft.

Mais sans distribution massive, la bataille est asymétrique.

Google n’a pas seulement répondu à ChatGPT. Il redéfinit le Web.

La question n’est plus de savoir si Google peut rattraper OpenAI. La question est : que devient Internet quand l’acteur dominant décide de se réinventer ?

Gemini 3 n’est pas une mise à jour. C’est une réécriture stratégique de Google, une migration forcée du Web vers un futur où la recherche devient conversationnelle, multi-agents, multimodale, intégrée partout, et largement automatisée.

OpenAI a déclenché un séisme. Google veut désormais en redessiner les plaques tectoniques.

Lire plus
Intelligence Artificielle

AWS dévoile les frontier agents : des IA autonomes pour le codage et la sécurité

AWS dévoile les frontier agents : des IA autonomes pour le codage et la sécurité

Lors de sa grand-messe re : Invent 2025 à Las Vegas, AWS a dévoilé une série de nouveautés qui montrent clairement une chose : Amazon veut prendre une longueur d’avance dans l’IA agentique — celle où les IA ne se contentent plus d’assister, mais agissent, raisonnent, et travaillent comme de véritables coéquipiers.

La plateforme Amazon Bedrock AgentCore accueille ainsi trois briques majeures : Policy, Evaluations, et Episodic Memory.

En parallèle, AWS lance une catégorie entièrement nouvelle : les frontier agents, des agents autonomes conçus pour mener des projets complexes avec un minimum de supervision humaine.

Automated Reasoning : l’ADN technique d’AWS pour fiabiliser l’IA

Ce mouvement repose sur une conviction forte de AWS : ramener des garanties mathématiques dans un monde dominé par des modèles probabilistes.

La firme continue ainsi de s’appuyer sur l’automated reasoning, des techniques de vérification formelle utilisées pour tester des systèmes critiques, désormais appliquées aux comportements des agents IA.

Un positionnement radical, unique dans l’industrie.

Comme l’explique Swami Sivasubramanian, VP Agentic AI chez AWS : « Nous sommes à la veille d’une transformation tectonique. L’IA agentique va redéfinir ce qu’il est possible de faire ».

1. Policy: la couche qui impose les règles — même quand l’agent déraille

C’est probablement la fonctionnalité la plus stratégique. Le module Policy agit comme une couche externe à l’agent, indépendante de son raisonnement interne.

Objectif : empêcher un agent de contourner les règles, volontairement ou non.

Exemple donné par AWS :

  • un agent de support peut accorder un remboursement jusqu’à 100 dollars
  • au-delà, la politique l’oblige à rediriger vers un humain
  • même si quelqu’un tente un prompt injection pour lui faire outrepasser la règle, la policy bloque l’action

Contrairement au fine-tuning traditionnel, ici les règles ne peuvent pas être « oubliées ».

David Richardson, VP AgentCore, résume très bien le problème : « Il est facile de subvertir le raisonnement d’un agent. C’est pour cela que nous avons placé la politique à l’extérieur ».

Cette approche utilise les mathematical proofs d’AWS Automated Reasoning Checks afin de garantir que les actions prévues respectent les règles établies.

2. Episodic Memory: la mémoire qui ne se déclenche qu’au bon moment

Après la mémoire courte/longue durée, AgentCore gagne une mémoire épisodique, inspirée du fonctionnement humain. Contrairement à la mémoire « classique » d’un agent, cette mémoire se déclenche uniquement lorsqu’un signal pertinent apparaît.

Quelques exemples concrets :

  • se rappeler la place préférée dans l’avion d’un utilisateur
  • conserver son budget moyen pour un voyage
  • retenir un choix récurrent, mais inutile d’y réfléchir à chaque interaction

Cette mémoire réactive permet moins de surcharge dans le contexte, pas besoin d’instructions personnalisées complexes et des interactions plus naturelles et continues.

3. Evaluations : surveiller en direct la qualité des agents

AgentCore propose désormais :

  • 13 évaluateurs préconstruits
  • la possibilité de créer ses propres métriques
  • des alertes en temps réel en cas de dérive de qualité

Chaque agent peut être monitoré comme un service critique : détection d’erreurs, hallucinations, incohérences, comportements dangereux, baisse de performance…

Un vrai tableau de bord qualité pour les entreprises déployant des dizaines d’agents simultanément.

4. Frontier agents : AWS lance une nouvelle génération d’agents autonomes

C’est l’annonce la plus ambitieuse : AWS introduit une classe d’agents totalement autonomes, capables de gérer des projets complets, pas seulement des tâches isolées.

Selon AWS, ce sont : « des agents indépendants, scalables, capables d’agir comme des membres d’équipe ».

Trois premiers représentants arrivent :

Kiro — l’agent de codage autonome

  • écrit du code
  • corrige les bugs
  • réalise des revues
  • planifie lui-même les tâches à exécuter

Un concurrent direct des agents de Google, OpenAI ou d’outils comme Windsurf.

AWS Security Agent

Une pièce maîtresse pour DevSecOps :

  • vérifie automatiquement les standards de sécurité
  • inspecte les applications en continu
  • élimine les « checklists génériques » au profit de règles vraiment métier

AWS DevOps Agent

Pensé pour les équipes en astreinte :

  • analyse incidents et anomalies
  • corrèle logs, métriques et traces (CloudWatch, Datadog, Splunk…)
  • identifie seule la cause racine
  • propose ou applique des correctifs

AWS ne parle plus d’assistants… mais d’agents qui interviennent réellement sur les systèmes.

AWS met la pression sur Google, OpenAI et Microsoft

Avec ces ajouts, AWS s’oriente clairement vers un futur où les agents seront nombreux, coopéreront, géreront des pans entiers de l’infrastructure, de la sécurité et de la production logicielle et où la fiabilité mathématique deviendra un avantage compétitif clé

C’est aussi une réponse directe au mouvement de Google et OpenAI vers les agents asynchrones (« teammate agents », « superagents », etc.).

La différence majeure d’AWS : la sécurité et la gouvernance passent avant tout.

L’IA agentique entre dans son ère professionnelle

Avec AgentCore enrichi et les frontier agents, AWS envoie un message clair : l’IA agentique quitte le stade de l’expérimentation pour devenir un outil d’entreprise, fiable, sécurisé et mesurable.

Les prochains défis seront évidents : orchestrer plusieurs agents en parallèle, assurer leur coordination et gérer les risques de dérive et de décision autonome

Mais une chose est sûre : 2026 sera l’année où l’IA ne sera plus « un assistant », mais un collaborateur numérique à part entière.

Lire plus
Intelligence Artificielle

AWS lance Nova 2 et dévoile quatre nouveaux modèles IA

AWS lance Nova 2 et dévoile quatre nouveaux modèles IA

Amazon Web Services vient de frapper fort au AWS re:Invent 2025, avec une mise à niveau massive de sa famille de modèles Nova et un tout nouveau service destiné aux entreprises pour créer leurs propres IA sur mesure.

Lors de la keynote, le nouveau CEO Matt Garman a annoncé Nova 2, une flotte de quatre modèles « maison », bien plus avancés que la première génération présentée en 2024.

Voici les 4 nouveaux modèles Nova 2

1. Nova 2 Lite — un modèle de raisonnement low-cost

Pensé pour les tâches quotidiennes nécessitant un minimum de logique et la compréhension multimodale (texte, images, vidéos), mais avec un coût d’utilisation réduit.

2. Nova 2 Pro — l’agent de raisonnement avancé

Multimodal (texte + images + vidéos + audio), optimisé pour les tâches complexes :

  • développement et débogage
  • analyse approfondie
  • workflows décisionnels avancés

AWS veut clairement concurrencer GPT-5.1 Pro, Gemini 3 Ultra et Claude 4.5 Opus sur ce segment.

download 2

3. Nova 2 Sonic — un modèle speech-to-speech « conversationnel »

Un modèle speech-to-speech conçu pour des assistants vocaux naturels, réactifs, qui peuvent répondre sans passer par du texte intermédiaire.

4. Nova 2 Omni — multimodal complet (entrée + sortie)

Il peut comprendre texte, images, vidéos et audio, et générer du texte ou des images.
C’est l’équivalent direct d’un GPT-4o / GPT-5.1 Omni ou d’un Gemini Omni.

AWS dévoile également Nova Forge — l’usine à IA pour entreprises

La seconde annonce majeure : Nova Forge, un service permettant aux entreprises de créer leurs propres versions des modèles Nova, appelées Novellas.

Le prix serait de 100 000 dollars/an selon CNBC.

Nova Forge offre 3 niveaux d’accès :

  • modèles pré-entraînés
  • modèles mi-entraînés
  • modèles post-entraînés

Le but : permettre une personnalisation profonde sans faire perdre aux modèles leur capacité de raisonnement, un problème courant dans les fine-tunings massifs.

Matt Garman a expliqué la logique ainsi : “Plus vous surchargez les modèles avec votre data, plus ils oublient ce qu’ils avaient appris avant. C’est comme apprendre une langue à 40 ans : c’est possible, mais pas optimal”.

Des entreprises comme Reddit, Sony et Booking.com utilisent déjà Nova Forge.

download

Pourquoi c’est important ?

AWS veut reprendre la main face à OpenAI (et son GPT-5.1 + OpenAI o3), Google (Gemini 3), Anthropic (Claude 4.5) et la montée des acteurs open source (Mistral, Qwen, DeepSeek)

Sa stratégie repose sur 3 axes :

  1. Des modèles performants mais flexibles, adaptés au cloud AWS.
  2. Une solution complète pour construire sa propre IA, sans passer par un acteur externe.
  3. Une offre orientée entreprises, là où AWS domine déjà massivement le marché du cloud.

AWS revient dans la course

Avec Nova 2, AWS propose :

  • des modèles multimodaux et raisonnants au niveau des leaders du marché
  • un modèle speech-to-speech nouvelle génération
  • un service premium pour que les entreprises fabriquent leur propre IA
  • une réponse à la vague « fine-tuning + souveraineté » portée par Mistral, Qwen et Cohere

AWS ne veut plus seulement héberger l’IA des autres — il veut être un acteur central dans la conception, la personnalisation et le déploiement des modèles.

Lire plus
Intelligence Artificielle

Mistral 3 : l’offensive totale de l’Europe dans la course à l’IA ouverte

Mistral 3 : l’offensive totale de l’Europe dans la course à l’IA ouverte

Avec Mistral 3, Mistral AI vient de dégainer ce qui est sans doute la plus ambitieuse suite de modèles jamais lancée par une startup européenne : dix modèles open source, couvrant tous les usages — du smartphone au drone autonome, jusqu’aux environnements cloud les plus massifs.

Une riposte directe à OpenAI, Google, Anthropic… mais aussi à la déferlante chinoise menée par DeepSeek et Qwen.

Avec Mistral 3, la jeune pousse fondée par d’anciens chercheurs de DeepMind et Meta confirme son pari : l’avenir de l’IA ne se décidera pas seulement avec des modèles géants, mais avec une intelligence distribuée, polyvalente et personnalisable.

Un lancement massif : 1 modèle « Large », et 9 « Ministral » taillés pour l’edge

La gamme Mistral 3 repose sur deux piliers.

Mistral Large 3 — le nouveau navire amiral européen

  • Architecture Mixture-of-Experts
  • 41 milliards de paramètres actifs (675B au total)
  • Modèle multimodal (texte + image)
  • Contexte 256 000 tokens
  • Accent inédit sur les langues non-anglophones
  • Licence Apache 2.0 (usage commercial libre)

L’objectif : rivaliser avec les meilleurs modèles fermés (GPT-5.1, Gemini 3, Opus 4.5), mais en restant ouvert et fine-tuné à volonté.

chart base models 1

Ministral 3 — l’autre révolution, plus discrète mais plus stratégique

Neuf modèles, trois tailles : 3B — 8B — 14B, chacun en version :

  • Base (fondation, modifiable)
  • Instruct (assistant conversationnel)
  • Reasoning (raisonnement avancé)

Ces modèles peuvent tourner sur un seul GPU, sur un laptop, sur un robot, dans un drone sans connexion, ou dans une voiture. C’est la vision de Mistral : l’IA partout, sans dépendre du cloud, sans abonnement, et avec un contrôle total sur les données.

« Dans plus de 90 % des cas, une petite IA fine-tunée fait mieux qu’une grosse IA générique », déclare Guillaume Lample, cofondateur et chief scientist.

Pourquoi Mistral mise sur l’open source plutôt que la puissance brute ?

Pendant que Google, OpenAI et Anthropic s’enfoncent dans la course au « tout-agent », Mistral choisit une voie orthogonale : une IA plus simple, plus malléable, plus distribuée.

La philosophie est claire : des modèles spécialisés battent les géants généralistes dès qu’on les adapte réellement à un cas d’usage.

Les entreprises le constatent :

  1. Elles prototypent avec GPT-5 ou Gemini Pro.
  2. Ça fonctionne.
  3. Elles tentent de déployer.
  4. C’est trop cher. Trop lent. Trop dépendant du cloud.
  5. Elles reviennent vers Mistral.

Le résultat ? On fine-tune un modèle 14B, plus rapide, plus stable, plus simple à déployer, qui tourne en interne, et souvent… plus performant.

L’approche Mistral : une IA qui se déploie partout (et surtout hors-cloud)

La stratégie est tranchée : rendre l’IA indépendante de la connectivité. Un discours rare à l’heure des IA centralisées. Les Ministral 3 peuvent fonctionner dans des drones militaires, des robots industriels, des voitures, des systèmes de cybersécurité, des services publics sans cloud, ou encore dans des pays où l’accès Internet est limité.

Parmi les partenariats déjà actifs :

  • HTX Singapour (robots + cybersécurité)
  • Helsing (vision-action pour drones)
  • Stellantis (assistant embarqué automobile)
  • État français, Luxembourg, etc.

Mistral devient déjà un acteur stratégique pour la souveraineté numérique européenne.

Au-delà des modèles : Mistral devient une plateforme IA complète

La startup ne veut plus être « seulement » un fournisseur de modèles. Elle construit un écosystème entier, avec :

  • Mistral Agents API (exécution de code, web, mémoire, image…)
  • Magistral (raisonnement spécialisé)
  • Mistral Code (assistant de programmation)
  • Le Chat (assistant multimodal grand public)
  • AI Studio (agent runtime, monitoring, fine-tuning, évaluation)

L’ensemble forme une suite comparable à OpenAI + Azure + GitHub… mais en version ouverte et souveraine.

Dans un marché saturé, que vaut réellement Mistral 3 ?

Les concurrents sont partout :

  • GPT-5.1 sur l’agentivité,
  • Gemini 3 sur la multimodalité,
  • Opus 4.5 sur la logique,
  • DeepSeek et Qwen sur l’open source ultra-avancé.

Mistral joue une autre partie. Ce n’est pas le meilleur modèle du monde (pas encore), mais la meilleure plateforme open source très probablement. Et surtout : le meilleur rapport flexibilité/coût/personnalisation du marché.

C’est un pari risqué, mais cohérent : si le futur de l’IA est local, spécialisé et ubiquitaire, Mistral pourrait devenir le leader mondial.

Le véritable enjeu : qui contrôlera l’IA ?

La question dépasse la performance brute :

  • Les modèles fermés : rapides, puissants, mais opaques et dépendants.
  • Les modèles ouverts : adaptables, souverains, abordables, personnalisables.

Mistral parie que dans la réalité industrielle, l’open source gagnera. « Nous ne voulons pas d’un monde où l’IA est contrôlée par deux ou trois laboratoires. », affirme Guillaume Lample.

Le lancement de Mistral 3 n’est pas une course au score sur les benchmarks. C’est la construction d’une alternative globale. Mistral ne veut pas être « l’OpenAI européen ». Mistral veut être la plateforme IA universelle, partout où les géants ne peuvent pas aller : l’edge, l’industrie, les États, la robotique, les usages hors-cloud.

Le match vient de changer de terrain.

Lire plus
Intelligence Artificielle

OpenAI entre au capital de Thrive Holdings : un partenariat stratégique

OpenAI entre au capital de Thrive Holdings : un partenariat stratégique

OpenAI vient d’annoncer un accord inédit : une prise de participation dans Thrive Holdings, la branche opérationnelle du géant du private equity Thrive Capital… qui est, ironie du sort, l’un des principaux investisseurs d’OpenAI.

Aucun transfert financier, selon une source anonyme citée par le Financial Times, mais un pacte stratégique : OpenAI fournira à Thrive Holdings des employés, des modèles, des produits et des services, en échange d’un accès privilégié aux données et d’un potentiel retour sur investissement futur.

C’est le dernier épisode d’une industrie où les deals se font en circuit fermé — un petit cercle d’investisseurs qui misent les uns sur les autres, alimentés par le FOMO permanent autour de l’IA.

Un partenariat taillé pour les métiers « à règles » : IT et comptabilité

Le partenariat cible deux secteurs phares de Thrive Holdings : les services IT, et la comptabilité. Des domaines caractérisés par des volumes massifs, des workflows répétitifs, et une dépendance à des règles strictes — autrement dit, le terrain de jeu parfait pour une IA à GPT-5.

OpenAI affirme vouloir y améliorer la vitesse, la précision et les coûts, tout en « renforçant la qualité de service ».

Joshua Kushner, CEO de Thrive Holdings et Thrive Capital, résume le pari : « Les technologies précédentes ont transformé les industries de l’extérieur. L’IA va les transformer de l’intérieur, par les experts eux-mêmes ».

Une vision qui s’inscrit parfaitement dans la stratégie de l’Administration Trump, dont Kushner est proche : un gouvernement pro-IA, où des figures comme David Sacks voient dans l’accélération du secteur une opportunité stratégique — et financière.

Un deal circulaire… mais extrêmement avantageux pour OpenAI

Derrière la prise de participation symbolique se cachent deux avantages colossaux pour OpenAI :

1. De nouveaux débouchés assurés

OpenAI pourrait être « greffé » naturellement dans toutes les entreprises du portefeuille Thrive Holdings. Un pipeline commercial intégré, en quelque sorte.

2. Un accès inédit à des données professionnelles

Factures, transactions, process internes, documents structurés… Des données à la fois sensibles et d’une valeur inestimable pour renforcer les modèles d’IA, notamment en automatisation et en raisonnement comptable/financier.

Le Financial Times indique que OpenAI deviendra en pratique le « laboratoire de recherche » de Thrive Capital, un statut rarissime pour une startup qui a déjà Microsoft comme partenaire principal.

Le deal qui pourrait en annoncer beaucoup d’autres

Le COO d’OpenAI, Brad Lightcap, le dit explicitement : Ce partenariat n’est que le premier d’une série d’accords similaires. En clair : OpenAI ne veut plus seulement vendre des API, mais co-construire des empires industriels via le private equity.

Une stratégie qui rappelle celle des plus grands fonds souverains : investir, absorber les données, fournir la technologie, et verrouiller la chaîne de valeur.

Les zones grises : données, influence et conflits d’intérêts

Cependant, le deal soulève plusieurs questions.

Un problème de confidentialité ? Donner accès aux données d’entreprises privées pour l’entraînement de modèles pose des interrogations réglementaires, notamment aux États-Unis et en Europe.

Une alliance politique implicite ? Thrive Capital est lié à la famille Kushner, et l’administration Trump est ultra-pro-IA. OpenAI pourrait, volontairement ou non, se retrouver embarqué dans une dynamique politique.

Un risque de « modèle économique circulaire » ? Thrive investit dans OpenAI. OpenAI prend une participation dans Thrive Holdings. Thrive Holdings fournit des données à OpenAI. OpenAI fournit des services aux entreprises détenues… par Thrive.

Une boucle parfaite. Parfaitement intégrée. Parfaitement efficace. Parfaitement opaque.

Un tournant stratégique : OpenAI sort du rôle de simple fournisseur

Ce partenariat marque une transition majeure : OpenAI n’est plus seulement une entreprise d’IA, elle devient un acteur structurel du capital-investissement, capable d’influencer des pans entiers de l’économie en remodelant leurs processus internes.

Le message est clair : L’IA n’est plus un produit. C’est une infrastructure économique.

Et, OpenAI est en train de s’installer au cœur de cette infrastructure, en tissant des alliances profondes avec les maîtres d’œuvre de la finance mondiale.

Lire plus