fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Google réinvente Gemini Deep Research : l’agent IA qui prépare l’ère où l’on ne « cherche » plus, on délègue

Google réinvente Gemini Deep Research : l’agent IA qui prépare l’ère où l’on ne « cherche » plus, on délègue

Google avance ses pions dans la course aux agents IA autonomes. Ce jeudi, le géant de Mountain View a dévoilé une version entièrement repensée de Gemini Deep Research, désormais propulsée par son modèle le plus ambitieux à ce jour : Gemini 3 Pro.

L’objectif ne se limite plus à produire de longs rapports de recherche. Google veut faire de Deep Research un moteur universel d’analyse, intégrable directement dans des applications tierces — un changement stratégique qui anticipe un futur où les humains ne « googlent » plus, mais confient leurs questions à des agents intelligents capables d’explorer, raisonner et décider à leur place.

Gemini Deep Research : De l’outil de recherche au moteur agentique

Jusqu’ici, Gemini Deep Research était surtout perçu comme un outil avancé de synthèse documentaire. Capable d’ingérer d’énormes volumes d’informations, il s’est déjà imposé dans des usages exigeants :

  • due diligence financière,
  • recherche pharmaceutique,
  • analyse de toxicité médicamenteuse,
  • veille réglementaire ou scientifique.

La nouveauté majeure réside ailleurs : les développeurs peuvent désormais intégrer directement ces capacités dans leurs propres produits grâce à la toute nouvelle Interactions API.

Cette API marque une étape clé dans la vision « agent-first » de Google. Elle permet de contrôler finement la manière dont un agent interagit avec les données, pose des sous-questions, planifie des étapes de recherche, et synthétise des résultats intermédiaires.

En clair, Google ne vend plus seulement un chatbot intelligent, mais un cerveau de recherche modulaire, prêt à être embarqué dans des applications métier.

Gemini 3 Pro : la promesse d’une IA plus factuelle, moins hallucinée

Au cœur de cette refonte se trouve Gemini 3 Pro, que Google présente comme son modèle le plus factuel à ce jour. Une affirmation stratégique, tant le problème des hallucinations reste le talon d’Achille des agents autonomes.

Dans les tâches de raisonnement long — celles qui s’étendent sur des dizaines de minutes, voire des heures — une seule décision erronée peut invalider l’ensemble du travail. Plus un agent prend de décisions seul, plus le risque s’accumule.

Google affirme avoir entraîné Gemini 3 Pro pour minimiser ces erreurs cumulatives, un prérequis indispensable pour des agents capables de mener des enquêtes complexes sans supervision humaine constante.

Une intégration progressive dans l’écosystème Google

Sans surprise, Google ne compte pas garder Deep Research cantonné à un produit isolé. L’entreprise a confirmé que l’agent sera progressivement intégré à Google Search,Google Finance, l’application Gemini, et NotebookLM, son outil phare pour la prise de notes et l’analyse de documents.

C’est un signal clair : Google prépare un monde où la recherche traditionnelle devient une infrastructure invisible, orchestrée par des agents qui anticipent, croisent et interprètent l’information avant même que l’utilisateur ne formule une requête précise.

Des benchmarks… encore des benchmarks

GeminiDeepResearch Gemini Deep R

Pour appuyer ses annonces, Google a — sans surprise — introduit un nouveau benchmark maison : DeepSearchQA. Celui-ci vise à évaluer la capacité des agents à résoudre des tâches complexes de recherche multi-étapes. Google a choisi de l’open sourcer, un geste apprécié mais désormais attendu dans l’industrie.

Le modèle a également été testé sur Humanity’s Last Exam, un benchmark indépendant réputé pour ses questions ultra-niches, et BrowserComp, qui mesure les performances des agents dans des environnements web réels.

Résultat : Gemini Deep Research domine sur son propre benchmark et sur Humanity’s Last Exam, mais GPT-5 Pro d’OpenAI se classe juste derrière — et dépasse même Google sur BrowserComp.

GeminiDeepResearch InferenceTime

Un duel serré, qui illustre à quel point les frontières de performance sont désormais fines entre les leaders du secteur.

Une annonce… déjà dépassée ?

Ironie du calendrier : ces comparaisons sont devenues presque obsolètes instantanément. Le même jour, OpenAI a levé le voile sur GPT-5.2, surnommé Garlic, que l’entreprise présente comme supérieur à tous ses concurrents — Google compris — sur une large batterie de benchmarks.

Le timing n’a échappé à personne. Alors que le monde tech retenait son souffle en attendant Garlic, Google a choisi de marquer le terrain avec sa propre annonce agentique.

Un rappel subtil, mais nécessaire : la guerre des modèles ne se joue plus uniquement sur les scores bruts, mais sur l’intégration, la fiabilité et la capacité à devenir une infrastructure invisible du quotidien.

Vers un futur sans moteur de recherche ?

Derrière cette mise à jour de Gemini Deep Research se cache une ambition bien plus vaste. Google prépare activement une transition où le moteur de recherche classique cesse d’être l’interface principale.

À sa place, des agents spécialisés capables de dialoguer entre eux, de fouiller le Web, des bases privées et des documents internes, et de livrer non pas des liens… mais des décisions exploitables.

Gemini Deep Research n’est pas seulement un outil de plus. C’est une brique fondatrice de ce futur post-recherche — un futur où l’on ne demande plus quoi chercher, mais quoi faire.

Lire plus
Intelligence Artificielle

ChatGPT lancera son mode adulte au premier trimestre 2026

ChatGPT lancera son mode adulte au premier trimestre 2026

Après plusieurs mois de teasing — notamment de la part de Sam Altman lui-même — OpenAI donne enfin une fenêtre de lancement officielle pour le très discuté mode adulte de ChatGPT.

Lors d’un briefing consacré à GPT-5.2 ce jeudi, Fidji Simo, CEO of Applications chez OpenAI, a déclaré qu’elle s’attend à ce que le mode adulte débarque au cours du premier trimestre 2026.

Mais avant de l’activer, l’entreprise veut perfectionner un élément clé : son nouveau système de prédiction d’âge.

ChatGPT : Un mode adulte réservé aux utilisateurs vérifiés comme majeurs

OpenAI développe actuellement un modèle capable d’estimer automatiquement l’âge d’un utilisateur afin d’appliquer — ou non — des restrictions de contenu. L’enjeu est de taille : éviter d’exposer les mineurs à des contenus inappropriés, mais aussi ne pas bloquer à tort les adultes, un problème fréquent avec les filtres actuels.

Fidji Simo explique que : « Le modèle est déjà testé dans certains pays pour mesurer sa capacité à identifier correctement les adolescents sans confondre les adultes ».

OpenAI veut être certain de la fiabilité du système avant d’activer officiellement les fonctionnalités adultes.

Un contexte réglementaire en pleine mutation

Cette initiative s’inscrit dans un mouvement plus large : de nombreux services en ligne déploient ou renforcent des technologies de vérification d’âge afin de se conformer aux nouvelles lois adoptées dans différents pays (protection des mineurs, restrictions de contenu sensible, etc.).

Avec ChatGPT s’apprêtant à gérer du contenu NSFW — tout comme Grok et d’autres modèles concurrents — la pression réglementaire est encore plus forte.

 

Lire plus
Intelligence Artificielle

Disney x OpenAI : Sora pourra générer des vidéos avec Mickey, Marvel et Star Wars

Disney x OpenAI : Sora pourra générer des vidéos avec Mickey, Marvel et Star Wars

C’est un paradoxe typiquement Disney : protéger farouchement son patrimoine créatif, tout en cherchant à le réinventer pour toucher de nouvelles générations. Ce jeudi, la firme aux grandes oreilles a franchi une étape qui semblait inimaginable il y a encore un an : un accord de trois ans avec OpenAI, autorisant la création de vidéos Sora et d’images générées via ChatGPT mettant en scène plus de 200 personnages issus des univers Disney, Pixar, Marvel et Star Wars.

Un partenariat inédit, qui mêle l’un des catalogues les plus jalousement gardés d’Hollywood aux technologies génératives les plus avancées du moment. Et une décision qui intervient le même jour où Disney… met officiellement Google en demeure pour violation massive de droits d’auteur liés à l’IA.

Bienvenue dans la nouvelle bataille du divertissement.

Sora + Disney : l’IA générative entre officiellement dans les mondes enchantés

L’accord, inédit par son ampleur, donne aux utilisateurs de Sora et de ChatGPT Images un accès contrôlé à une bibliothèque colossale de personnages animés, créatures, mascottes, véhicules, accessoires et environnements emblématiques.

Les fans pourront ainsi produire de courtes vidéos inspirées des mondes Disney ― et les partager librement.

Quelques exemples parmi les licences disponibles :

  • Mickey & Minnie
  • Lilo & Stitch
  • Ariel, Cendrillon, Belle, la Bête
  • Simba, Mufasa
  • Baymax, les héros de Encanto, Frozen, Monsters Inc., Toy Story, Inside Out, Moana, Up, Zootopia
  • Côté Marvel : Iron Man, Loki, Groot, Thor, Captain America, Deadpool, Black Panther…
  • Côté Star Wars : Yoda, Dark Vador, Luke, Leia, le Mandalorien, les Stormtroopers, etc.

Un détail crucial : le contrat exclut explicitement toute utilisation de voix, de doublages ou de ressemblances d’acteurs réels, afin d’éviter toute confusion juridique ou exploitation indue des talents qui incarnent ces personnages.

Fait remarquable, Disney prévoit même d’intégrer une sélection de créations de fans directement sur Disney+, étoffant son catalogue avec des formats courts génératifs — une manière intelligente d’amplifier son écosystème sans produire un seul tournage.

Disponibilité annoncée : début 2026.

Disney investit massivement dans OpenAI… et devient client de ChatGPT

Ce partenariat n’est pas qu’une licence créative. Disney annonce également un investissement de 1 milliard de dollars dans OpenAI, des warrants permettant d’acquérir davantage d’actions, et l’usage des APIs OpenAI au sein de Disney, notamment pour enrichir Disney+, outiller ses créateurs internes et intégrer ChatGPT dans ses workflows.

Une façon d’officialiser l’entrée de Disney dans l’ère de l’IA générative ―, mais sur ses propres rails, avec un contrôle strict des usages.

Robert Iger résume clairement la philosophie : « L’IA marque un moment décisif pour notre industrie. Avec OpenAI, nous voulons étendre notre capacité de raconter des histoires — de manière responsable, respectueuse des créateurs et au service des fans ».

Le même jour, Disney accuse Google d’« exploitation massive » de ses œuvres via Gemini

Le contraste est saisissant. Quelques heures seulement après avoir annoncé un partenariat « responsable » avec OpenAI, Disney a envoyé à Google une ordonnance de cessation et d’abstention musclée.

Dans la lettre, rédigée par le cabinet Jenner & Block, Disney accuse Google de copier illégalement de larges portions de son catalogue pour entraîner ses modèles, de générer et distribuer des images dérivées sans autorisation, d’utiliser la notoriété de ces œuvres pour renforcer son monopole, et de publier des images parfois estampillées du logo Gemini, créant selon Disney une fausse impression d’accord commercial.

Disney cite des franchises précises : Frozen, Le Roi Lion, Moana, La Petite Sirène, Deadpool, Toy Story, Ratatouille, Inside Out, Lilo & Stitch, Star Wars, Les Simpson, Avengers et bien d’autres.

La lettre compare même Google à « une machine distributrice capable de reproduire à la demande des œuvres protégées de Disney ». Google est sommé d’arrêter immédiatement toute génération, diffusion et exploitation de contenus Disney via Gemini, YouTube et YouTube Shorts.

Une stratégie en deux temps : ouvrir la porte… puis verrouiller le reste

Ce double mouvement raconte quelque chose de fondamental sur la manière dont les géants du divertissement approchent aujourd’hui l’IA :

  1. Accorder des licences strictement encadrées et rémunérées aux acteurs considérés comme responsables.
  2. Combattre frontalement les modèles IA non autorisés, accusés d’absorber et de reproduire des œuvres protégées.

Disney trace ainsi une ligne très nette : la créativité générative, oui — mais seulement quand elle est sous licence, surveillée et monétisée.

OpenAI devient donc un partenaire de confiance. Google, au contraire, est renvoyé au banc des accusés.

 

Lire plus
Intelligence Artificielle

GPT-5.2 est là : OpenAI riposte à Google avec son modèle le plus puissant jamais lancé

GPT-5.2 est là : OpenAI riposte à Google avec son modèle le plus puissant jamais lancé

OpenAI a officiellement dévoilé GPT-5.2 dans ChatGPT, sa nouvelle famille de modèles frontier IA, confirmant les rumeurs qui couraient depuis des semaines. OpenAI le présente comme son meilleur modèle à ce jour pour un usage professionnel quotidien.

Fidji Simo, CEO of Applications chez OpenAI, a déclaré lors d’un briefing jeudi que cette nouvelle génération est « en préparation depuis de très nombreux mois », réfutant l’idée d’une réaction précipitée aux progrès rapides de la concurrence.

Selon OpenAI, la gamme GPT-5.2 — composée des modèles Instant, Thinking et Pro — progresse nettement dans plusieurs domaines clés :

  • création de feuilles de calcul,
  • production de présentations,
  • écriture et révision de code,
  • compréhension d’images,
  • gestion de longs contextes,
  • utilisation d’outils,
  • exécution de projets complexes en plusieurs étapes.

Un positionnement clair face à Gemini 3, actuellement perçu comme le meilleur modèle généraliste du marché.

GPT-5.2 : Des capacités scientifiques et analytiques renforcées

Aidan Clark, VP Research chez OpenAI, a révélé que l’équipe a fourni GPT-5.2 Pro à un chercheur senior en immunologie. Résultat : lorsqu’il lui a demandé de générer les questions les plus importantes encore sans réponse sur le système immunitaire, le modèle a produit des questions « plus pertinentes et plus fines, assorties d’explications plus solides » que tous les autres modèles frontier existants.

Cette avancée souligne l’objectif d’OpenAI : faire de GPT-5.2 non seulement un assistant de productivité, mais aussi un véritable co-chercheur dans des domaines complexes.

Et pour la première fois, il inclut explicitement un soutien aux tokens de raisonnement, dans la lignée de la série o1.

Des capacités monstrueuses : jusqu’à 400 000 tokens de contexte

GPT-5.2 introduit :

  • 400 000 tokens de contexte — permet d’ingérer des centaines de documents ou un dépôt GitHub entier.
  • 128 000 tokens de sortie — assez pour générer un livre, une appli complète ou un rapport de 200 pages.
  • Coupure de connaissances : 31 août 2025 — très récente pour un LLM.

Trois versions : Instant, Thinking et Pro

OpenAI segmente désormais ses modèles selon le type de tâche :

GPT-5.2 Instant

  • Rapide, léger, idéal pour les requêtes quotidiennes.
  • (Remplace GPT-5.1-chat-latest)

GPT-5.2 Thinking

  • Nouvelle star du raisonnement.
  • Pour les projets complexes, agents, codage profond, mathématiques, longues chaînes d’actions.

GPT-5.2 Pro

  • Le modèle le plus intelligent et le plus précis.
  • Pour les entreprises, les chercheurs, les questions critiques.
  • Coût élevé mais précision maximale.

GPT-5.2 bat Gemini 3 sur les benchmarks clés

OpenAI affiche une série de records impressionnants :

GDPval (travail professionnel)

  • GPT-5.2 Thinking : SOTA
  • Surpasse ou égale des professionnels humains dans 70,9 % des tâches.

SWE-bench Pro (programmation réelle)

  • Nouveau record : 55,6 %, loin devant les modèles précédents.

GPQA Diamond (science de haut niveau)

  • GPT-5.2 Pro : 93,2 %, meilleur score jamais enregistré.

FrontierMath

  • GPT-5.2 Thinking : 40,3 % (vs 31 % pour GPT-5.1 Thinking).

ARC-AGI-1 (raisonnement général)

  • GPT-5.2 Pro : 90,5 % — premier modèle à dépasser les 90 %.

ScreenSpot-Pro (compréhension d’interface graphique)

  • GPT-5.2 Thinking : 86,3 % (vs 64,2 % pour GPT-5.1)

G76Fh4WagAAE Ec

Une amélioration clé : des agents plus fiables

Dans son article technique, OpenAI affirme que GPT-5.2 améliore nettement la performance des agents autonomes — un terrain stratégique où tous les géants de l’IA se battent pour offrir les assistants les plus utiles, les plus stables et les plus polyvalents.

Max Schwarzer, chercheur chez OpenAI, l’a résumé ainsi : « Notre vision est de faire de ChatGPT le meilleur assistant personnalisé possible ». OpenAI insiste particulièrement sur une amélioration attendue : GPT-5.2 Thinking « hallucine moins » que son prédécesseur.

Une réduction cruciale pour les professionnels qui veulent passer d’un simple chatbot conversationnel à un outil agentique fiable, capable de prendre des décisions, exécuter des tâches et automatiser des processus.

Testé par les entreprises avant son lancement

Plusieurs grandes entreprises ont eu accès à GPT-5.2 avant son déploiement public, notamment : Notion, Box, Shopify, Harvey, Zoom, Databricks.

Selon OpenAI, ces partenaires ont pu utiliser les modèles pendant deux semaines et constater une nette amélioration de la cohérence, du raisonnement, de la gestion de documents complexes, et de la qualité globale des workflows automatisés.

Le lancement intervient dans un contexte explosif : Google a récemment pris la tête des benchmarks avec Gemini 3, poussant OpenAI à activer un « Code Red » interne pour accélérer l’amélioration de ChatGPT.

Malgré cela, OpenAI insiste : GPT-5.2 n’a pas été précipité pour rattraper Google, mais était prévu « depuis de nombreux mois ».

Disponibilité

GPT-5.2 est disponible dès aujourd’hui pour ChatGPT Plus, ChatGPT Pro, Team et Enterprise. Le déploiement est progressif pour une certaine stabilité. Côté API, GPT-5.2 est immédiatement disponible via : gpt-5.2, gpt-5.2-chat-latest et gpt-5.2-pro.

Lire plus
Intelligence Artificielle

Xiaomi développe Mi Chat, un assistant IA basé sur le modèle performant MiMo-7B-RL

Xiaomi développe Mi Chat, un assistant IA basé sur le modèle performant MiMo-7B-RL

Xiaomi fait un pas de plus dans sa transformation en géant de l’intelligence artificielle. Selon une nouvelle fuite provenant du compte WeChat Du Jia, la marque développe un assistant Q&A intelligent baptisé Mi Chat, et la première version du produit serait déjà finalisée.

Cette application grand public servira vraisemblablement d’interface principale pour MiMo-7B-RL, le modèle de langage maison que Xiaomi a présenté plus tôt cette année dans le cadre de son expansion massive dans l’IA.

MiMo-7B-RL : un « petit » modèle aux performances surprenantes

Malgré ses 7 milliards de paramètres, MiMo-7B-RL a déjà fait sensation en surpassant des modèles nettement plus grands — dont OpenAI o1-mini et Alibaba Qwen QwQ-32B-Preview — sur plusieurs benchmarks clés :

  • AIME 24/25
  • LiveCodeBench v5

Ces tests portent notamment sur les capacités de raisonnement mathématique et sur la qualité du code généré. Une performance inattendue qui a immédiatement attiré l’attention du secteur.

Xiaomi travaillerait déjà à étendre et renforcer ce modèle, et Mi Chat serait conçu comme la vitrine pensée pour le grand public — l’équivalent de ChatGPT, Gemini ou Claude, mais intégré profondément dans l’écosystème de Xiaomi.

Une pièce centrale dans la stratégie « Human x Car x Home »

L’arrivée de Mi Chat s’inscrit directement dans la vision stratégique de Xiaomi : fusionner l’IA avec son triptyque Humain × Voiture × Maison.

Cela signifie que Mi Chat ne serait pas seulement un chatbot, mais potentiellement un assistant pour les smartphones Xiaomi, pour les voitures électriques HyperOS de Xiaomi, pour les appareils connectés de la maison, et même pour les futurs robots personnels.

Un assistant avec des capacités de raisonnement avancées pourrait unifier toutes ces expériences — une ambition analogue à celle d’Apple Intelligence ou de Samsung Gauss, mais à plus grande échelle matérielle.

Xiaomi mise très gros sur l’IA — jusqu’au sommet de l’entreprise

Le président de Xiaomi, Lu Weibing, confirme que l’entreprise investit massivement dans l’IA depuis plusieurs trimestres. Selon lui, les progrès réalisés sur les modèles de langage dépassent déjà leurs prévisions.

La direction souhaite maintenant passer de la phase “R&D” à la phase “intégration profonde dans le monde réel”.

De plus, le fondateur Lei Jun s’implique personnellement dans le renforcement de l’équipe d’IA. Il a récemment recruté plusieurs talents clés, dont Luo Fuli, ancien spécialiste de DeepSeek, aujourd’hui coauteur d’un papier académique publié avec l’Université de Pékin.

Prochaine étape : annonce officielle le 17 décembre

Xiaomi devrait dévoiler Mi Chat en détail lors de la Conférence Partenaires Human Car Home 2025, le 17 décembre à Pékin. Lu Weibing et Luo Fuli sont attendus sur scène pour donner un premier aperçu de la vision finale de Mi Chat.

Xiaomi possède trois atouts uniques :

  1. Un modèle maison performant (MiMo)
  2. Un vaste écosystème matériel (smartphones, IoT, voitures, robotique)
  3. Un focus sur l’intégration dans le monde physique, pas seulement le cloud

Si Mi Chat fonctionne aussi bien que les benchmarks le suggèrent, Xiaomi pourrait très vite devenir un acteur majeur dans le domaine des assistants IA grand public.

Lire plus
Intelligence Artificielle

Google dément la rumeur : Gemini restera sans publicité

Google dément la rumeur : Gemini restera sans publicité

Alors que ChatGPT se retrouve sous le feu des critiques pour ses messages promotionnels, Google s’empresse de désamorcer toute comparaison. Le message est limpide : Gemini restera un espace de conversation sans publicité.

Depuis quelques semaines, l’idée que les chatbots pourraient se transformer en panneaux publicitaires commence à inquiéter les utilisateurs. OpenAI a dû désactiver en urgence plusieurs messages sponsorisés qui s’affichaient sous les conversations.

Et voilà qu’un rapport affirmait que Google prévoyait lui aussi d’intégrer des publicités directement dans Gemini dès 2026. Google vient de faire voler cette rumeur en éclats.

« Ce n’est pas vrai » : Google rectifie le tir publiquement

C’est Dan Taylor, VP Global Ads chez Google, qui a pris la parole sur X : « Il n’y a pas de publicités dans Gemini, et nous n’avons aucun plan pour en ajouter ». Le message est double. Le rapport à l’origine du bruit s’appuyait sur des « sources non informées », et aucun changement n’est prévu pour Gemini.

This story is based on uninformed, anonymous sources who are making inaccurate claims. There are no ads in the Gemini app and there are no current plans to change that.

— Dan Taylor (@edantaylor) December 8, 2025

Le compte officiel Google Ads Liaison a d’ailleurs renforcé la position :

  • Oui, Google teste des formats publicitaires dans AI Overviews (les résumés générés dans Google Search).
  • Oui, Google expérimente des publicités dans AI Mode.
  • Non, cela n’a rien à voir avec Gemini, et aucune pub n’est prévue dans l’application elle-même.

En clair : l’univers « moteur de recherche » teste des choses, mais le chatbot reste sanctuarisé.

Le contexte : Gemini grimpe vite, et Google veut éviter une crise de confiance

Gemini vit sa meilleure période. En effet, la plateforme compte aujourd’hui 650 millions d’utilisateurs mensuels (contre 350 millions en début d’année), enregistre une croissance accélérée grâce à des fonctionnalités virales, dont Nano Banana, responsable de 23 millions d’inscriptions à elle seule, et une progression du temps passé par utilisateur qui inquiète clairement OpenAI.

C’est précisément parce que Gemini décolle que Google ne veut pas brouiller son image : introduire la moindre « pub conversationnelle » serait un suicide relationnel.

L’entreprise sait très bien l’impact psychologique d’un chatbot perçu comme un espace neutre et fiable. Un message promotionnel au mauvais moment, et c’est toute la promesse d’un assistant « objectif » qui vacille.

Pendant ce temps : ChatGPT teste, trébuche… et reflète la peur du futur modèle économique

Difficile de ne pas faire le parallèle. Des utilisateurs ChatGPT Pro et Plus ont vu apparaître des suggestions Peloton, Target, etc. avant que OpenAI reconnaisse que l’expérience était ratée et « confusante ». Même si OpenAI insiste : « Ce ne sont pas des pubs, il n’y a pas d’argent en jeu », l’impression laissée chez les utilisateurs est tout autre.

Les deux entreprises avancent sur la même ligne de crête : comment monétiser un assistant IA… sans ruiner son image ?

Faut-il garder Gemini 100 % sans pub ?

Pour la majorité des utilisateurs… oui. Mais, la vraie question n’est pas morale, elle est expérientielle. Un assistant IA n’a pas la même nature qu’un réseau social :
Quand on pose une question à Gemini ou ChatGPT, on attend une réponse rationnelle, contextuelle… et neutre.

Que l’IA glisse une recommandation commerciale — même subtile — et un doute s’installe : « Est-ce la meilleure réponse, ou juste celle qui rapporte ? ». C’est le type de fracture qui peut briser la confiance en un seul instant.

Soyons honnêtes, les modèles coûtent une fortune, le GPU n’est pas gratuit, et le « tout gratuit » n’est pas viable à long terme. Si un jour la pub doit entrer dans l’équation, elle arrivera ailleurs dans les résultats de recherche IA, dans des modules additionnels, dans des suggestions hors conversation, et dans des workflows pro. Et, c’est très bien ainsi.

En d’autres termes : préservez la bulle de conversation. C’est là que vit la confiance.

Lire plus
Intelligence Artificielle

OpenAI lance ses premiers certificats officiels : deux formations pour 10 millions d’Américains d’ici 2030

OpenAI lance ses premiers certificats officiels : deux formations pour 10 millions d’Américains d’ici 2030

OpenAI, la société derrière ChatGPT, franchit une étape majeure : pour la première fois, elle propose des programmes de certification officiels destinés aux travailleurs et aux enseignants. Cette initiative, regroupée sous la nouvelle OpenAI Academy, vise un objectif ambitieux : certifier 10 millions d’Américains aux compétences IA d’ici 2030.

Deux formations inédites : un certificat pour les pros, un pour les enseignants

1. AI Foundations — la formation principale

Objectif : maîtriser des compétences IA pratiques et utiles au travail.

  • Disponible directement dans ChatGPT, via un mode d’apprentissage dédié.
  • Permet de pratiquer des tâches réelles, avec retours immédiats du chatbot.
  • Débouche sur une certification officielle OpenAI.
  • Pensée pour améliorer :
    • la productivité,
    • l’automatisation de tâches,
    • la prise de décision assistée par IA,
    • la rédaction, l’analyse, la synthèse, l’organisation…

L’accès est pour l’instant limité à des pilotes avec de grands employeurs comme : Walmart, Boston Consulting Group, Upwork, Accenture… avant une ouverture plus large.

2. ChatGPT Foundations for Teachers — spécial enseignants K-12

Objectif : intégrer l’IA dans l’enseignement et l’administration scolaire.

  • Disponible sur Coursera, immédiatement accessible à tous.
  • Niveau débutant, 7 modules, environ 4 heures de formation.
  • Enseigne comment :
    • utiliser ChatGPT pour créer des leçons,
    • préparer des activités pédagogiques,
    • gérer l’administratif (planning, rapports, notes…),
    • guider les élèves dans un usage responsable de l’IA.

OpenAI prévoit déjà de nouveaux certificats dédiés au monde de l’éducation.

Pourquoi c’est important ?

C’est la première fois que OpenAI propose des formations structurées et certifiantes. Historiquement, l’entreprise se concentrait sur la création d’outils, laissant les utilisateurs apprendre seuls.

Mais le monde du travail change :

  • Les entreprises recherchent des employés maîtrisant l’IA.
  • Les enseignants doivent guider les élèves dans un environnement où l’IA fait partie du quotidien.
  • Les individus, eux, veulent comprendre et utiliser des outils comme ChatGPT de manière efficace.

Obtenir un certificat OpenAI devient ainsi un avantage concret sur un CV, un signe de compétence vérifiée.

Pour les écoles : une révolution pédagogique en marche

Avec cette formation, les enseignants pourront créer plus rapidement des supports de cours, concevoir des activités différenciées pour élèves en difficulté, automatiser des tâches chronophages, et encadrer l’usage de l’IA de façon éthique.

Cela s’inscrit dans une tendance plus large où l’IA devient un nouvel outil éducatif, au même titre que les ordinateurs ou les tablettes il y a 15 ans.

Pour les entreprises : une nouvelle norme de compétence

Les employeurs bénéficieront d’une évaluation normalisée de la maîtrise des IA, d’employés mieux formés aux workflows IA, et d’une productivité accrue via l’automatisation.

OpenAI veut ainsi créer un standard de compétences IA, comparable à des certifications comme Google Career Certificates ou Microsoft Learn, mais centré sur ses propres technologies.

Et la suite ?

OpenAI développe également un nouveau programme de certificats pour un public plus large, d’autres modules spécialisés (industrie, administration, communication, santé…), une plateforme d’emploi IA prévue pour mi-2026, visant à connecter travailleurs et entreprises cherchant des compétences IA.

Avec ces nouvelles formations, OpenAI passe du statut d’éditeur d’outils à acteur de l’éducation et de la formation professionnelle. Ce changement pourrait transformer à la fois le marché du travail, les méthodes d’enseignement, et la relation des individus à l’IA.

Lire plus
Intelligence Artificielle

Adobe permet d’éditer des images et des PDF par simple conversation dans ChatGPT

Adobe permet d'éditer des images et des PDF par simple conversation dans ChatGPT

Adobe vient d’annoncer une nouveauté majeure : Photoshop, Acrobat et Adobe Express sont désormais disponibles directement dans ChatGPT, permettant aux utilisateurs de créer, modifier et finaliser leurs projets… simplement en décrivant ce qu’ils veulent.

Plus besoin d’ouvrir un logiciel séparé : il suffit de taper une instruction du type : « Adobe Photoshop, aide-moi à flouter l’arrière-plan de cette image », et l’outil s’exécute à l’intérieur même de ChatGPT.

Les apps Adobe dans ChatGPT sont gratuites

Adobe précise que ces apps sont gratuites, et s’activent automatiquement lorsque l’utilisateur invoque leur nom dans la conversation. Une fois l’app « lancée », il n’est pas nécessaire de la mentionner à nouveau pour les modifications suivantes.

Selon les demandes, l’app peut proposer plusieurs résultats, afficher une UI intégrée avec des curseurs (par ex. contraste, luminosité, exposition), ou appliquer directement l’effet souhaité.

Ce que Photoshop peut faire dans ChatGPT

La version intégrée n’est pas Photoshop complet, mais elle reste très puissante :

  • modifier des zones précises d’une image
  • flouter ou supprimer un arrière-plan
  • corriger l’exposition, la luminosité, le contraste
  • appliquer des effets créatifs
  • ajuster des paramètres via sliders, comme dans l’app classique

Idéal pour des retouches rapides sans changer d’application.

Ce que Acrobat peut faire dans ChatGPT

Dans ChatGPT, Acrobat permet désormais :

  • d’éditer un PDF existant
  • de fusionner plusieurs fichiers
  • d’extraire du texte ou des tableaux
  • de convertir n’importe quel document en PDF
  • de compresser un fichier PDF

media 1fe39d2bd0158dc797544d0d694b43d51bc6bea35 scaled

Vous pouvez aussi sélectionner exactement quelle section du PDF doit être modifiée, ou simplement décrire les changements.

Adobe Express : créer, animer et modifier des designs complets

Via Adobe Express, ChatGPT peut :

  • générer des affiches, invitations, posts pour réseaux sociaux
  • remplacer du texte, changer des images, ajuster les couleurs
  • animer certains éléments
  • accéder à des templates thématiques
  • charger des designs existants et les modifier

media 1fe39d2bd0158dc797544d0d694b43d51bc6bea35 scaled

Le tout sans sortir de la conversation.

Et si vous avez besoin de plus de contrôle, vous pouvez ouvrir le projet directement dans les applications Adobe natives pour continuer le travail.

Disponibilité selon les plateformes

Adobe annonce une disponibilité mondiale :

Plateforme ChatGPT

Photoshop

Acrobat

Adobe Express

Desktop

Oui

Oui

Oui

Web

Oui

Oui

Oui

iOS

Oui

Oui

Oui

Android

Bientôt

Non

Oui (déjà dispo)

Le support Android pour Photoshop et Acrobat est en cours.

Cette année, Adobe a introduit un assistant IA dans Photoshop, un assistant IA dans Express et un futur assistant transversal appelé Project Moonlight. L’intégration à ChatGPT s’inscrit dans la stratégie d’Adobe : amener ses outils vers les utilisateurs là où ils travaillent déjà, au lieu de les forcer à ouvrir une application dédiée.

Depuis octobre, ChatGPT supporte les apps tierces (Canva, Spotify, Expedia, Figma…). Mais, cela crée une nouvelle concurrence : Canva et Photoshop peuvent tous deux éditer des images dans ChatGPT, et le choix de l’utilisateur dépendra donc plus de l’expérience ChatGPT que d’un attachement préalable.

Pour l’instant, on ignore si OpenAI et Adobe partagent les revenus générés par l’usage de ces apps.

Lire plus
Intelligence Artificielle

ChatGPT est en stagnation : Google Gemini enregistre +30 % de croissance

ChatGPT est en stagnation : Google Gemini enregistre +30 % de croissance

Le leader ne perd pas sa couronne… mais pour la première fois, quelqu’un tire vraiment dessus. Pendant deux ans, le monde de l’IA a vécu avec une évidence : ChatGPT était intouchable. Une croissance explosive, une avance technique confortable, une image de pionnier. Puis, soudain, la réalité rattrape tout le monde : une courbe ne grimpe jamais éternellement.

Selon les dernières données de Sensor Tower, ChatGPT vient d’entrer dans une phase qu’on n’osait pas imaginer : la stagnation.

ChatGPT plafonne, Google Gemini grimpe

Les chiffres sont limpides :

  • ChatGPT : +6 % de croissance entre août et novembre
  • Gemini : +30 % sur la même période

ChatGPT reste gigantesque — 810 millions d’utilisateurs mensuels, soit 55 % de parts de marché — mais ce qui compte ici n’est pas la taille. C’est la dynamique. Et elle est en train de basculer : ChatGPT perd 3 points de parts de marché, tandis que Gemini en gagne 3. Un transfert presque symétrique.

Pourquoi Gemini progresse aussi vite ?

Un mot : momentum. Un catalyseur ? Le mini-modèle devenu viral : Nano Banana. Oui, le nom prête à sourire. Mais derrière l’apparente fantaisie, un outil de génération visuelle ultra-rapide qui a littéralement envahi les réseaux. Résultat : curiosité → téléchargements → rétention.

Gemini, longtemps perçu comme l’alternative « trop sage » à OpenAI, trouve soudain son ton propre : plus fun, plus accessible, plus visuel.

Et les chiffres le confirment.

Perplexity et Gemini : les deux fusées de 2025

Là où ChatGPT ralentit, d’autres acteurs accélèrent :

  • Gemini : +190 % année sur année
  • Perplexity : +215 %, l’un des taux les plus impressionnants du secteur

Ce duo représente aujourd’hui la menace la plus sérieuse pour la domination d’OpenAI depuis 2022. Pendant un an, ChatGPT a été « l’IA par défaut ». Cette période semble toucher à sa fin.

Et si on regarde le temps passé dans l’application ?

Ici, la bascule est encore plus marquée :

  • Gemini : +120 % de temps moyen quotidien → 11 minutes/jour
  • ChatGPT : +6 % seulement
  • Pire : –10 % d’usage entre juillet et novembre

Autrement dit, ChatGPT a plus d’utilisateurs, mais ils passent moins de temps dessus. Les utilisateurs Gemini sont quant à eux beaucoup plus engagés une fois qu’ils l’adoptent. C’est souvent ce chiffre — l’engagement — qui annonce le futur d’un produit.

2026 : l’année où la domination ne suffira plus

OpenAI reste loin devant, mais, pour la première fois depuis son arrivée tonitruante en 2022, la concurrence ne joue plus la figuration. Gemini n’est pas encore passé devant, mais il possède ce que ChatGPT n’a plus : la trajectoire ascendante. Et dans la tech, on ne parie jamais contre ce genre de dynamique.

Si la tendance se confirme, 2026 pourrait marquer la fin d’une ère : celle où « IA = ChatGPT » allait de soi.

Une nouvelle phase commence : plus de compétition, plus de différenciation, et plus d’innovation forcée.

L’âge d’or du monopole touche peut-être à sa fin. L’âge d’or de la rivalité, lui, commence.

Lire plus
Intelligence Artificielle

OpenAI désactive les messages promotionnels de ChatGPT après les plaintes

OpenAI désactive les messages promotionnels de ChatGPT après les plaintes

OpenAI vient de faire marche arrière. Après quelques jours de plaintes virales, l’entreprise a désactivé les messages promotionnels qui s’affichaient dans ChatGPT — souvent au pire moment possible, pour des utilisateurs qui n’avaient rien demandé.

L’affaire a pris de l’ampleur lorsque des abonnés Plus et Pro, pourtant habitués à un service premium débarrassé des distractions, ont publié des captures montrant des messages invitant à « trouver un cours de fitness » ou « faire ses courses »… juste après avoir discuté de BitLocker ou de modèles d’IA adverses. Le tout renvoyant vers des apps intégrées, comme Peloton ou Target.

Autant dire que la surprise fut… mitigée.

OpenAI réagit : « Nous avons manqué le coche »

Face au flot de critiques, Mark Chen, Chief Research Officer d’OpenAI, a pris la parole sur X dans un aveu de transparence assez rare pour une entreprise de cette envergure : « Tout ce qui ressemble à une publicité doit être traité avec prudence, et nous avons échoué ».

Il précise que les suggestions incriminées sont désormais désactivées, l’équipe travaille sur des contrôles plus fins, permettant aux utilisateurs de diminuer ou de couper totalement ces prompts, et l’objectif initial n’était pas d’afficher des pubs, mais d’améliorer la découverte d’apps intégrées.

Autrement dit : l’intention était bonne… l’exécution beaucoup moins.

Publicités déguisées ou simple suggestion ? Une frontière floue

OpenAI assure qu’il ne s’agissait pas de publicités au sens strict. Selon Daniel McAuley, data engineer chez OpenAI : « Ce ne sont pas des pubs car il n’y a aucun composant financier ». Mais, il reconnaît également : « Le manque de pertinence crée une expérience confuse ».

Là est tout le problème. Quand un assistant personnel commence à suggérer des services qui n’ont aucun rapport avec la conversation en cours, l’utilisateur perçoit immédiatement cela comme une intrusion — et dans ce cas précis, comme une forme de publicité déguisée.

Même sans transaction derrière, la perception compte autant que le modèle économique.

Une expérimentation mal reçue… mais révélatrice des ambitions d’OpenAI

OpenAI avait prévenu en octobre : la plateforme suggérerait désormais des apps « lorsque c’est pertinent ». L’objectif ? Encourager l’usage des extensions ChatGPT, retenir l’utilisateur dans l’écosystème, et éviter qu’il bascule vers une app tierce comme Peloton, Instacart ou Klarna.

Sur le papier, une stratégie logique. Dans les faits, la pertinence du signalement a été si mauvaise qu’elle a semblé intrusive, arbitraire, et incompatible avec l’image premium de ChatGPT Plus/Pro.

Un test mal calibré, mais riche d’enseignement : la monétisation indirecte dans les assistants IA devra être ultra-transparente, ou ne sera pas.

La question de fond : comment monétiser un chatbot sans casser la magie ?

La polémique révèle une tension fondamentale dans l’ère de l’IA grand public : comment intégrer services, extensions, apps partenaires… sans jamais franchir la ligne rouge de la publicité intrusive ? Tous les acteurs devront y répondre : Google avec Gemini Apps, Meta avec ses bots intégrés dans WhatsApp, et Microsoft avec Copilot Marketplace.

OpenAI vient de toucher du doigt les limites de l’acceptable.

La bonne nouvelle ? Ils ont réagi vite. La mauvaise ? La confiance des utilisateurs est fragile : une seule suggestion mal placée suffit à faire douter de la neutralité d’un assistant.

Prochaine étape : un ChatGPT vraiment personnalisable ?

La promesse formulée par Mark Chen laisse entrevoir quelque chose de beaucoup plus intéressant qu’un simple correctif : des contrôles avancés permettant d’activer/désactiver entièrement les suggestions générées par l’IA, éventuellement un mode « Zero Promotion », et pourquoi pas, à terme, un paramétrage par contexte : travail, loisir, créativité, shopping, etc.

Bref : un ChatGPT qui s’adapte réellement à vous… et non l’inverse.

Cette mini-crise n’est pas qu’un faux pas : c’est un signal pour toute l’industrie de l’IA. Les utilisateurs sont prêts à accepter beaucoup de choses… sauf que leur assistant personnel tente de leur vendre quelque chose, surtout lorsque ce n’est pas pertinent.

OpenAI l’a compris à temps. Reste à voir comment la plateforme réinventera la découverte d’apps sans tomber dans le piège de la publicité déguisée.

Lire plus
Intelligence Artificielle

Claude Code s’invite dans Slack : Anthropic veut transformer chaque conversation en ligne de code

Claude Code s’invite dans Slack : Anthropic veut transformer chaque conversation en ligne de code

L’IA n’attend plus que vous : elle entre maintenant directement dans vos threads Slack pour écrire du code, réparer des bugs et ouvrir des pull requests.

Anthropic vient de déclencher l’un des plus gros bouleversements de l’année dans le monde du développement logiciel : Claude Code débarque officiellement dans Slack, sous la forme d’une intégration beta pensée pour métamorphoser la manière dont les ingénieurs travaillent au quotidien.

C’est une annonce qui aurait presque pu passer inaperçue — sauf qu’elle tombe à un moment clé pour Anthropic, et que Claude Code est déjà devenu une machine commerciale inattendue : 1 milliard de dollars de revenus annualisés, six mois seulement après son lancement public.

Ce n’est pas un gadget. C’est l’arrivée du « coding agent » directement là où naissent les problèmes : dans les discussions.

@Claude : une mention dans Slack, et l’agent passe en mode développeur

Du signalement d’un bug… jusqu’au pull request, sans quitter Slack. L’intégration repose sur un geste simple : Mentionnez @Claude dans un canal ou un thread.

Si le message ressemble à une tâche de développement — bug, amélioration, question technique — l’agent lance automatiquement une session Claude Code.

Ce que cela change est fondamental :

  • Claude lit le contexte directement dans la conversation Slack.
  • Il détermine sur quel repository travailler, selon ceux que vous avez autorisés.
  • Il exécute des appels d’outils, modifie le code, rédige les commits.
  • Il publie l’avancement en temps réel dans le thread Slack.
  • Il finit par générer une pull request prêt à être ouverte.

Autrement dit : Slack devient un IDE social. Et surtout, le fossé historique entre où l’on parle des bugs et où l’on les corrige disparaît brutalement. Anthropic parle d’une « research preview », mais les ambitions sont limpides : faire de Claude un collègue numérique qui écoute toutes les conversations d’équipe et réagit instantanément.

maxresdefault 3

Pourquoi maintenant ? Parce que Claude Code est devenu l’arme secrète d’Anthropic

L’intégration Slack n’est pas un caprice de produit : c’est une stratégie d’expansion assumée. Claude Code est utilisé par Netflix, Spotify, Salesforce, KPMG, L’Oréal, Uber, Snowflake, Ramp…, a permis à Rakuten de réduire ses cycles de développement de 24 jours à 5 jours (-79 %) et représente désormais l’un des piliers financiers d’Anthropic, au même niveau que ses modèles phares.

Il est devenu tellement critique qu’Anthropic a réalisé sa première acquisition : Bun, le runtime JavaScript ultra-rapide devenu essentiel pour exécuter les workflows d’agents IA à grande échelle.

Le message est clair : Claude Code n’est pas un module. C’est une ligne de business. Slack n’est que la prochaine pièce du puzzle.

Au cœur de l’entreprise moderne : Slack devient le terrain de jeu des IA

Slack revendique 750 000 organisations clientes. C’est l’endroit où les PM signalent les bugs, les développeurs débattent de choix techniques, les analystes déposent des captures d’erreurs, et les clients internes demandent des fonctionnalités. Anthropic veut être là, au moment précis où le besoin naît.

C’est là que l’entreprise prend un avantage majeur face à : GitHub Copilot (Microsoft), Google Gemini Code Assist, et OpenAI avec ChatGPT Team/Enterprise. Eux opèrent dans des IDE, des outils d’ingénierie. Anthropic infiltre la communication elle-même.

La bataille pour l’entreprise ne se gagnera pas seulement dans l’éditeur de code — mais dans les espaces où les décisions émergent.

Ce que montre l’expérience interne d’Anthropic : les ingénieurs changent déjà de métier

Anthropic a mené une étude interne impressionnante : 132 ingénieurs interrogés, 53 entretiens, analyse des logs d’usage Claude Code.

Les chiffres sont saisissants :

  • Les employés utilisent Claude dans 60 % de leur travail.
  • Ils mesurent une augmentation de productivité de 50 % (2 à 3× plus qu’un an plus tôt).
  • Les tâches « jamais réalisées autrement » représentent 27 %.
  • Claude enchaîne désormais 21 appels d’outils consécutifs, contre 9 il y a 6 mois.
  • Le nombre d’interventions humaines par session a chuté de 33 %.

Les ingénieurs parlent de Claude comme d’un collègue à part entière : « Je dépends 80 % moins de mon équipe. Mais le dernier 20 %, c’est le crucial — et là, je vais les voir ». La transformation est réelle… et ambivalente. Certains adorent la fluidité. D’autres regrettent la perte de socialisation, ou craignent une atrophie des compétences profondes.

L’intégration Slack, en rendant Claude omniprésent, va amplifier ces deux tendances.

La vision d’Anthropic : le futur du code sera conversationnel

Ce lancement acte une conviction stratégique : le code ne sera plus seulement écrit dans un IDE. Il sera négocié, discuté et généré dans la conversation elle-même. Si Anthropic a raison, alors Slack devient un IDE distribué, l’ingénieur devient un superviseur-orchestrateur et les agents IA deviennent le premier maillon de la chaîne logicielle.

Mais tout repose sur une question : Claude Code peut-il garantir une qualité de code et une sécurité à la hauteur de l’entreprise ? Les early adopters disent oui — mais avec supervision. Anthropic elle-même reconnaît que seulement 0–20 % du travail peut être totalement délégué sans vérification.

Le futur du dev sera peut-être conversationnel… mais certainement pas sans garde-fous.

L’intégration Slack n’est pas une feature — c’est un manifeste

Avec cette beta, Anthropic affirme une vision audacieuse :

  • L’ingénierie logicielle n’est plus une activité isolée dans un IDE.
  • C’est un flux conversationnel, contextualisé, collaboratif, continu.
  • Et l’agent IA doit être présent là où l’on parle du travail, pas seulement là où l’on l’exécute.

C’est un pari sur une rupture culturelle aussi importante que technologique. Un ingénieur d’Anthropic résume parfaitement le moment que nous vivons : « Personne ne sait vraiment ce qui va se passer. L’important, c’est de rester adaptable ».

C’est sans doute le meilleur conseil professionnel de l’ère des agents IA.

Lire plus
Intelligence Artificielle

ChatGPT marque le pas : la croissance ralentit et l’ère de l’hyper-expansion touche à sa limite

ChatGPT marque le pas : la croissance ralentit et l’ère de l’hyper-expansion touche à sa limite

Après trois ans de croissance vertigineuse, ChatGPT entre dans une nouvelle phase de son histoire : la maturité… et le ralentissement. Le modèle star d’OpenAI, qui a façonné l’imaginaire collectif autour de l’IA générative, voit désormais sa dynamique fléchir.

Et les chiffres parlent d’eux-mêmes : seulement +5 % d’utilisateurs actifs mensuels entre août et novembre 2025, selon TechCrunch — un contraste saisissant avec les bonds à 2 ou 3 chiffres des années précédentes.

À l’inverse, Google Gemini profite du moment : +30 % d’utilisateurs sur la même période. Le marché se resserre, les alternatives se multiplient, et la domination « naturelle » de ChatGPT n’a plus rien d’acquis.

ChatGPT et l’âge de la maturité : 800 millions d’utilisateurs… et des signaux de saturation

Avec environ 800 millions d’utilisateurs hebdomadaires en décembre 2025, ChatGPT demeure un mastodonte. Mais derrière cette masse impressionnante, la dynamique change :

  • téléchargement de l’application mobile en baisse ;
  •  ralentissement marqué aux États-Unis, un marché arrivé à saturation ;
  • croissance restreinte dans les nouveaux marchés où coûts de données et barrières linguistiques freinent l’adoption.

En clair : ChatGPT n’est plus une nouveauté, mais un outil parmi d’autres. Et cela change tout.

Ce ralentissement s’ajoute à une équation financière tendue : 4,3 milliards de dollars de revenus au premier semestre 2025, mais 2,5 milliards dépensés en R&D et infrastructures. Il devient de plus en plus coûteux pour OpenAI de maintenir l’avance technologique qui a fait son succès.

La concurrence passe à l’offensive : Gemini, Claude, Llama… et le morcellement du marché

L’écosystème se diversifie, et OpenAI n’a plus le monopole de l’innovation. Google Gemini gagne du terrain à grande vitesse avec des fonctionnalités perçues comme plus modernes, une intégration native dans l’écosystème Google, et une agressivité marketing redoutable.

Du côté des professionnels, la tendance est similaire. Les données d’Index.dev révèlent que 79 % des développeurs utilisent encore ChatGPT, mais une part croissante expérimente Claude, Llama, ou des modèles open source moins coûteux.

Le marché n’appartient plus à un seul acteur : il se fragment en niches spécialisées — et cela, OpenAI ne peut l’ignorer.

Des utilisateurs plus exigeants : frustrations, churn et migration vers d’autres outils

L’année 2025 met en lumière une autre réalité : le public devient plus difficile à satisfaire. Selon les chiffres, il y a un turnover mensuel de 14 % chez les abonnés Plus/Pro. Il y a de multiples plaintes face aux bugs, ralentissements, et des réponses jugées trop « censurées » ou répétitives.

Les réseaux sociaux parlent désormais de « digital refugees », ces utilisateurs migrés vers des alternatives jugées plus flexibles.

OpenAI continue pourtant de traiter 2,5 milliards de messages par jour, preuve que l’usage reste massif — mais plus volatile.

Un trafic solide, mais qui plafonne : le modèle du chatbot montre ses limites

Les données de Exploding Topics confirment une réalité ambivalente : 800 millions d’utilisateurs hebdomadaires, 30 % l’utilisent pour le travail, mais… une saturation visible, avec des DAU en baisse dans certains marchés.

Face à cela, Google Search continue d’écraser tout le monde : 83,8 milliards de visites en août 2025 contre 5,8 milliards pour ChatGPT.

Le discours triomphaliste du « l’IA va remplacer la recherche » s’érode. Les usages se stabilisent, chacun trouvant sa place.

OpenAI sur la ligne de crête : innover ou décrocher

Pour contrer l’essoufflement, OpenAI accélère avec des partenariats stratégiques, des développements autour de l’agentique (IA autonomes capables d’agir, coder, exécuter des tâches complexes), et des projets de GPT-5.x et assistants personnalisés.

Mais la question demeure : est-ce que ces innovations suffiront à relancer la croissance ? Les initiés évoquent une tension interne permanente entre vitesse de sortie des nouveautés, maîtrise des coûts, qualité d’expérience pour éviter le churn.

Dans le même temps, l’entreprise fait face à un cadre réglementaire plus strict (UE, USA), des interrogations sociétales sur la sécurité et l’éthique, et une concurrence qui innove plus vite et plus bruyamment.

Un secteur en mutation : vers la fin du “one model to rule them all”

Le ralentissement de ChatGPT ne signe pas la fin du modèle génératif. Il marque l’entrée dans une phase post-hype où  les utilisateurs deviennent sélectifs, les entreprises cherchent des outils adaptés, pas monolithiques, l’open source monte en puissance, tirant les prix vers le bas, et l’innovation se déplace vers l’agentique et les workflows complexes.

L’ère des chatbots généralistes touche peut-être à sa limite. La prochaine bataille : l’IA spécialisée, intégrée, invisible — omniprésente, mais moins spectaculaire.

Et maintenant ? Le vrai défi d’OpenAI : fidéliser

Pour retrouver son élan, OpenAI devra réduire le turnover, améliorer la stabilité, repenser la personnalisation, s’intégrer nativement dans les outils du quotidien, et surtout faire évoluer le modèle économique.

L’objectif interne de 220 millions d’abonnés payants d’ici 2030 reste ambitieux — voire irréaliste si la dynamique actuelle se confirme.

Mais si l’histoire récente de l’IA nous apprend quelque chose, c’est que les positions ne restent jamais figées longtemps.
Le leader d’aujourd’hui peut être rattrapé demain… ou renaître grâce à une avancée décisive.

Lire plus
Intelligence Artificielle

OpenAI en « code rouge » : GPT-5.2 prévu dès la semaine prochaine pour répondre à Gemini 3

OpenAI en « code rouge » : GPT-5.2 prévu dès la semaine prochaine pour répondre à Gemini 3

Le PDG d’OpenAI, Sam Altman, a déclenché en début de semaine une situation de « code rouge », demandant à ses équipes d’accélérer face à la montée en puissance de Google et d’Anthropic.

D’après plusieurs sources proches du dossier, OpenAI prépare sa première véritable riposte à Gemini 3 avec la sortie imminente de GPT-5.2.

GPT-5.2 est prêt — sortie possible dès la semaine prochaine

Selon ces mêmes sources, GPT-5.2 serait finalisé et prêt à être déployé, avec une fenêtre de lancement qui pourrait s’ouvrir dès le début de la semaine prochaine.

L’objectif est clair : combler l’écart créé par Google avec Gemini 3, le modèle dévoilé le mois dernier, qui a dominé les classements de performance et impressionné aussi bien Sam Altman qu’Elon Musk (xAI).

Le média The Information rapportait plus tôt cette semaine que Altman affirmait que le prochain modèle de raisonnement d’OpenAI était « devant Gemini 3 » dans leurs évaluations internes.

Une sortie avancée sous la pression de la concurrence

Initialement, OpenAI prévoyait de sortir GPT-5.2 plus tard en décembre. Mais face à la pression croissante — et notamment à l’accueil réservé à Gemini 3 — le calendrier a été avancé. La date actuellement ciblée par OpenAI serait le 9 décembre.

Cependant, comme souvent avec OpenAI, les dates peuvent changer à la dernière minute en raison de contraintes techniques ou de capacité serveurs, d’ajustements liés aux performances, des annonces surprises de modèles concurrents, ou de fuites qui modifient la stratégie de timing.

Il n’est donc pas exclu que la sortie soit légèrement décalée, même si « la machine est lancée ».

ChatGPT va aussi évoluer : moins de nouveautés flashy, plus de fiabilité

En parallèle du lancement de GPT-5.2, OpenAI prévoit de faire évoluer ChatGPT dans les mois à venir. Mais contrairement aux mises à jour précédentes, la priorité ne serait plus aux fonctionnalités impressionnantes, mais à la vitesse, la fiabilité, la personnalisation, et une expérience utilisateur plus cohérente.

Toujours selon les sources, ce code rouge vise à repositionner ChatGPT dans une compétition devenue extrêmement agressive.

Lire plus
Intelligence Artificielle

AWS lance les AI Factories : des supercalculateurs IA directement chez le client

AWS lance les AI Factories : des supercalculateurs IA directement chez le client

Il y a parfois des annonces qui marquent un tournant silencieux — un changement de paradigme plus profond qu’il n’y paraît. L’initiative “AI Factories” d’AWS, dévoilée à re:Invent 2025, appartient clairement à cette catégorie.

Avec ce programme, Amazon fait quelque chose d’inédit : faire sortir l’IA du cloud, son terrain de jeu naturel, pour l’installer directement chez les clients, dans leurs propres datacenters.

Une révolution pour les organisations soumises à des règles strictes de souveraineté, de confidentialité ou de sécurité… et un message clair envoyé à Google, Microsoft et aux grands acteurs de l’IA.

Pourquoi AWS déplace ses supercalculateurs dans vos locaux ?

Depuis dix ans, le leitmotiv d’AWS est simple : tout doit vivre dans le cloud. Mais, le monde de 2026 n’est plus celui de 2016.

  • Souveraineté des données
  • Pressions géopolitiques
  • Législations comme le RGPD ou les lois nationales sur la donnée sensible
  • Besoins ultra-secrets des gouvernements et du secteur défense

… autant de raisons qui rendent le “cloud-only” parfois impossible.

Avec les AI Factories, AWS réplique : Vous gardez vos données. Nous amenons l’infrastructure jusqu’à vous. Le résultat ? De véritables “micro-centres de cloud IA”, livrés clé en main, capables d’entraîner ou d’exécuter de grands modèles, le tout sous contrôle total du client, mais gérés à distance par AWS.

C’est Outposts 2.0 — mais musclé à un niveau jamais vu.

Le duo AWS × Nvidia : une alliance stratégique pour des performances titanesques

L’architecture des AI Factories repose sur un combo qui fait saliver tout le marché : les GPU Nvidia Blackwell les plus avancés du moment, ou les puces Trainium d’AWS, qui gagnent en maturité, un stack complet : réseau, stockage, refroidissement, supervision, et une intégration naturelle avec Bedrock.

Le client fournit l’espace et l’alimentation. AWS livre l’équivalent d’une mini-IA supercomputing facility, configurée, optimisée, opérationnelle.

C’est la première fois qu’un cloud provider construit une IA complète hors de son propre cloud.

Des IA autonomes pour des tâches longues, complexes… et critiques

Ces “usines à IA” ne se contentent pas de fournir du hardware.
Elles embarquent aussi la couche logicielle avancée d’AWS :
• les modèles Nova,
• les frontier agents,
• des agents capables de décomposer un projet complexe en sous-tâches,
• et de les exécuter de manière autonome, parfois pendant des jours.

Comme l’a résumé GeekWire :

Des systèmes qui travaillent pendant que les humains dorment.

Applications typiques :
💊 découverte de médicaments
🏭 optimisation industrielle
🔐 analyse sécurisée de données classifiées
💳 lutte antifraude financière
🇺🇸 entraînement de modèles sensibles en environnement souverain

Le tout, sans jamais sortir une donnée du site du client.

Un coup stratégique pour Amazon… et une menace claire pour la concurrence

AWS joue ici sur plusieurs fronts simultanément :

  1. Gagner les secteurs régulés : Défense, santé, finance, gouvernements : autant de domaines où Google et Microsoft bataillent déjà avec leurs offres hybrides. Les AI Factories d’AWS sont une réponse directe.
  2. Réduire la dépendance à Nvidia : Derrière l’alliance, une stratégie à long terme : AWS investit massivement dans ses propres puces (Trainium2, Trainium3). Objectif : Diviser les coûts, maîtriser la chaîne, et réduire l’emprise Nvidia.
  3. Proposer un cloud hybride réinventé : Microsoft a Azure Stack, Google pousse l’informatique distribuée… AWS répond avec une spécialisation IA pure — et cela change tout.

Les limites : coût, énergie, complexité… et un défi politique

Rien n’est magique. Les AI Factories posent de vraies questions :

  • Coûts astronomiques : Ce sont des infrastructures premium. Les PME devront passer leur tour.
  • Consommation électrique : Les clusters Blackwell sont des monstres énergétiques. Des tests initiaux tentent d’optimiser l’empreinte carbone.
  • Confiance et régulation : AWS promet un accès sécurisé, mais les gouvernements regarderont de près ces installations, surtout si elles servent des applications sensibles (IA militaire, surveillance, etc.).
  • Compétences internes : Les entreprises devront apprendre à gérer un hybride complexe : local + cloud + agents autonomes.

Vers un futur où les AI Factories deviennent des unités modulaires intelligentes

La vision d’AWS dépasse largement 2026. Les analysts imaginent déjà des mini-factories déployées à la périphérie : raffineries, stations météo, îles isolées, bases militaires ; des modules compatibles avec des robots industriels ou des futurs systèmes quantiques ; des versions “scalables” pouvant passer de 100 à 10 000 GPU.

Et si Amazon parvient à prouver que ses puces Trainium coûtent deux fois moins cher que les configurations Nvidia-only — comme certains indices l’affirment — alors un raz-de-marée pourrait suivre.

AWS veut créer un monde où l’IA vit chez vous, au lieu que vos données vivent dans son cloud

Les AI Factories sont plus qu’un produit. Ce sont un mouvement stratégique majeur pour sécuriser l’IA pour les secteurs les plus sensibles, ouvrir un nouveau marché hybride, accélérer la dépendance aux puces maison, et devancer Microsoft et Google sur l’IA souveraine.

AWS s’était imposé dans le cloud. Il veut désormais devenir l’architecte mondial de l’infrastructure IA, quel que soit l’endroit où elle tourne.

Un pari audacieux — et peut-être l’un des plus importants de l’ère post-cloud.

Lire plus
Intelligence Artificielle

Qu’est-ce que DeepSeek ? Le géant chinois qui défie OpenAI et Google

Qu'est-ce que DeepSeek ? Le géant chinois qui défie OpenAI et Google

En 2022, l’ère de l’IA générative a explosé avec l’arrivée de ChatGPT. Mais début 2025, un nouvel événement majeur a changé le paysage : l’irruption spectaculaire de DeepSeek, un acteur chinois encore inconnu quelques mois plus tôt.

Avec des modèles performants, un coût d’entraînement dérisoire et une ouverture inhabituelle pour une entreprise chinoise, DeepSeek est devenu en un temps record l’un des rivaux les plus sérieux d’OpenAI, Anthropic et Google.

Voici tout ce qu’il faut savoir sur DeepSeek, ses modèles, ses forces, son impact sur le marché et ses ambitions.

DeepSeek : c’est quoi exactement ?

DeepSeek est un chatbot d’intelligence artificielle comparable à ChatGPT, développé par l’entreprise Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., fondée en juillet 2023.

Elle appartient au fonds d’investissement chinois High-Flyer Capital, dirigé par son fondateur Liang Wenfeng (également fondateur de DeepSeek).

DeepSeek se présente comme une alternative chinoise open source, performante et bon marché aux grands modèles occidentaux.

En 2025, l’entreprise attire l’attention mondiale pour trois raisons majeures :

  1. Son modèle de raisonnement DeepSeek R1, sorti en janvier 2025, rivale quasiment l’OpenAI o1.
  2.  Son coût d’entraînement estimé à seulement 6 millions de dollars, soit ~20× moins que les modèles occidentaux comparables.
  3.  Sa mise à disposition publique des weights du modèle R1, du jamais vu pour un système de cette puissance.

Résultat : DeepSeek R1 a même dépassé ChatGPT sur l’App Store américain et entraîné une baisse de 18 % du cours de Nvidia après l’annonce de son coût réduit.

DeepSeek AI Chat

Pourquoi DeepSeek a-t-il fait autant de bruit ?

1. Un coût d’entraînement incroyablement bas

DeepSeek affirme avoir entraîné R1 pour moins de 6 millions de dollars, quand :

  • GPT-4 coûterait >100 millions,
  • Claude 3 Opus >75 millions,
  • et o1 d’OpenAI dépasse ce seuil.

Cette efficacité remet en question les budgets colossaux des laboratoires occidentaux, la dépendance aux GPUs Nvidia, et la barrière d’entrée dans la compétition IA.

2. Un modèle open source… à haut niveau de performance

DeepSeek a publié les weights complets du modèle, son papier technique détaillé, sa méthode RLHF pour entraîner des modèles de raisonnement.

À l’inverse, OpenAI, Anthropic et Google gardent leurs méthodes secrètes — en particulier celles liées au raisonnement.

DeepSeek montre qu’il est possible de répliquer des performances proches des modèles premium avec moins de données, moins de budget, plus de transparence.

3. Une pression énorme sur OpenAI, Google et Anthropic

En janvier 2025, DeepSeek R1 est lancé gratuitement, alors que l’accès à OpenAI o1 coûtait encore 20 dollars/mois. En quelques semaines, cette décision a poussé les acteurs occidentaux à baisser leurs prix, offrir des modèles gratuitement, et améliorer leurs versions open source.

En bref : DeepSeek a cassé les prix de l’IA.

Les modèles DeepSeek : timeline complète

Voici le parcours éclair de l’entreprise (2023 → 2025).

2023 : les premiers modèles

  • DeepSeek Coder – modèle orienté code
  • DeepSeek LLM – modèle généraliste
  • DeepSeek-Math – spécialisé mathématiques

2024 : montée en puissance

  • DeepSeek-V2 – modèle linguistique avancé
  • DeepSeek-Coder V2
  • DeepSeek-V2.5 (septembre 2024)
  • DeepSeek-R1-Lite – premier modèle de raisonnement léger (novembre 2024)
  • DeepSeek-V3 – modèle généraliste base (décembre 2024)

version history en

Janvier 2025 : le choc DeepSeek R1

  • DeepSeek-R1, modèle de raisonnement, rivalise avec OpenAI o1
  • Lancement de l’application mobile DeepSeek (iOS + Android)

2025 : améliorations continues

En cette fin d’année 2025, DeepSeek a présenté un nouveau modèle majeur, concurrent direct de GPT-5.1, Gemini 3 ou Claude 4.5.

Comment utiliser DeepSeek AI ?

Vous pouvez tester DeepSeek gratuitement via :

  1. Le site Web : https://chat.deepseek.com
  2. L’application mobile : Disponible sur Android et iOS
  3. Localement (PC / mobile) : DeepSeek permet de télécharger les versions distillées de ses modèles pour un usage local. Les versions complètes restent trop lourdes pour la plupart des machines personnelles.

DeepSeek aujourd’hui : succès, blocages et politique chinoise

L’affaire des puces Huawei Ascend

Au début de l’année 2026, DeepSeek devrait annoncer son modèle R2. Cependant, la Chine aurait demandé à l’entreprise d’abandonner les GPUs Nvidia au profit des puces nationales Huawei Ascend.

Résultat :

  • tentative d’entraînement sur Ascend,
  • retours techniques négatifs,
  • retour (dans l’ombre) sur Nvidia pour l’entraînement du modèle,
  • Ascend utilisé uniquement pour l’inférence.

Cette situation a retardé le calendrier de sortie de DeepSeek R2.

DeepSeek : un acteur majeur à surveiller

DeepSeek est aujourd’hui l’entreprise IA chinoise la plus prometteuse, avec Alibaba, un rival direct des géants US, un moteur de pression sur les prix, et un acteur stratégique pour Pékin (souveraineté technologique).

Elle pourrait bouleverser l’IA mondiale en 2026 si elle parvient à sortir R2 sur un PC local, elle maintient son approche open source, et elle réduit encore les coûts d’entraînement.

DeepSeek est devenu le premier acteur chinois capable de rivaliser frontalement avec les leaders occidentaux, et son modèle R1 a marqué un tournant dans la démocratisation mondiale de l’IA.

Lire plus