fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI GPT-5.2-Codex : l’IA ultime pour le code agentique et la cybersécurité défensive

OpenAI GPT-5.2-Codex : l’IA ultime pour le code agentique et la cybersécurité défensive

OpenAI vient de lever le voile sur GPT-5.2-Codex, présenté comme le modèle d’IA le plus avancé jamais conçu pour le développement logiciel agentique et la cybersécurité défensive.

Déployé le 18 décembre 2025, ce nouveau modèle marque une étape majeure dans l’évolution des assistants de programmation capables de gérer des projets complexes, des bases de code massives et des scénarios de sécurité réels.

Basé sur GPT-5.2, Codex bénéficie d’optimisations ciblées : meilleure gestion des contextes longs, fiabilité accrue sur Windows, performances record sur les refactorisations et migrations à grande échelle, et bond significatif en cybersécurité, selon OpenAI.

Cette sortie intervient dans un contexte de pression concurrentielle extrême, OpenAI ayant déclenché un « code red » interne face aux avancées rapides de Google Gemini 3. Le message est clair : l’ère des IA généralistes touche ses limites, place désormais aux agents spécialisés capables d’agir sur des systèmes complexes du monde réel.

GPT-5.2-Codex : Des performances record sur le génie logiciel réel

GPT-5.2-Codex établit de nouveaux standards sur les benchmarks les plus exigeants du secteur. Sur SWE-Bench Pro, référence pour l’évaluation de correctifs sur de véritables dépôts logiciels, le modèle atteint 56,4 % de réussite, dépassant : GPT-5.2 (55,6 %) et GPT-5.1 (50,8 %).

Sur Terminal-Bench 2.0, qui mesure la capacité d’un agent à travailler dans de vrais environnements système (compilation, serveurs, entraînement de modèles), GPT-5.2-Codex atteint 64 %, contre 62,2 % pour GPT-5.2.

Ces gains ne sont pas anecdotiques : ils traduisent une meilleure capacité à maintenir une cohérence sur des tâches longues, à corriger des erreurs sans perdre le fil, et à s’adapter lorsque les plans initiaux échouent — un point critique pour les projets industriels.

Conçu pour les bases de code gigantesques

L’un des apports majeurs de GPT-5.2-Codex réside dans sa compaction native du contexte. Contrairement aux générations précédentes, le modèle conserve l’essentiel des décisions, hypothèses et contraintes sur des sessions très longues, sans explosion des coûts en tokens.

Résultat : refactorisations massives plus fiables, migrations complètes de frameworks ou de langages, et ajout de fonctionnalités complexes sans perte de cohérence.

Les capacités visuelles ont également été renforcées. GPT-5.2-Codex interprète avec précision : captures d’écran, diagrammes techniques, maquettes UI, ou encore graphiques et tableaux. Il peut ainsi transformer une maquette en prototype fonctionnel, puis accompagner son passage en production.

Un saut qualitatif majeur en cybersécurité

La progression la plus sensible concerne la cybersécurité défensive. GPT-5.2-Codex affiche des performances nettement supérieures lors des évaluations de type Capture-the-Flag professionnel, avec des taux de réussite très au-dessus de GPT-5, GPT-5.1-Codex-Max ou o3.

OpenAI précise toutefois que le modèle ne franchit pas encore le seuil « High » de son Preparedness Framework, justifiant le maintien de garde-fous stricts.

Capture the Flag professionnels

Un exemple concret illustre cette montée en puissance : en décembre 2025, Andrew MacPherson, ingénieur sécurité chez Privy (filiale de Stripe), a utilisé GPT-5.1-Codex-Max via Codex CLI pour analyser la vulnérabilité React2Shell. En guidant l’IA à travers des workflows défensifs classiques (fuzzing, analyse des surfaces d’attaque, environnements de test), il a mis au jour trois nouvelles failles critiques dans React Server Components, rapidement corrigées après divulgation responsable.

Ce cas démontre le potentiel de ces modèles pour renforcer la sécurité des infrastructures critiques (banques, santé, télécoms), tout en soulignant leur caractère dual-use.

Une gestion prudente des risques d’usage détourné

Consciente du danger que représente une IA aussi puissante entre de mauvaises mains, OpenAI adopte une stratégie de déploiement contrôlé.

En parallèle du lancement public pour les abonnés payants ChatGPT, l’entreprise inaugure un programme « Trusted Access » sur invitation. Celui-ci s’adresse aux chercheurs et organisations en cybersécurité disposant d’un historique de divulgation responsable, afin de leur donner accès à des capacités avancées pour :

  • analyse de malwares,
  • red teaming,
  • tests de résilience d’infrastructures.

L’objectif : maximiser l’impact défensif tout en limitant les abus.

Un tournant stratégique pour OpenAI

GPT-5.2-Codex est désormais disponible sur l’ensemble des surfaces Codex : CLI, extensions IDE, web, mobile et revues de code GitHub. L’accès API est prévu dans les semaines à venir, après validation des derniers garde-fous de sécurité.

En interne, OpenAI utilise déjà ses propres modèles Codex pour développer et améliorer ses outils — une boucle vertueuse où l’IA contribue à construire l’IA.

Face à Gemini 3 et à l’accélération du secteur, OpenAI fait un choix clair : moins de promesses grand public, plus d’outils ultra-spécialisés pour les professionnels.

Une nouvelle ère pour le développement et la cyberdéfense

Avec GPT-5.2-Codex, l’IA ne se contente plus d’assister ponctuellement les développeurs. Elle devient un véritable agent logiciel, capable d’opérer sur des systèmes complexes, d’anticiper des failles et de sécuriser des architectures critiques.

Reste une question centrale : jusqu’où ces agents pourront-ils aller avant de redéfinir entièrement la frontière entre outil, collaborateur et risque systémique ?
GPT-5.2-Codex apporte une première réponse — impressionnante, mais encore prudemment encadrée.

Lire plus
Intelligence Artificielle

Gemini : Google permet désormais de vérifier si une vidéo a été générée par son IA

Gemini : Google permet désormais de vérifier si une vidéo a été générée par son IA

À mesure que les contenus générés par intelligence artificielle deviennent de plus en plus réalistes, distinguer le vrai du faux relève parfois de l’impossible. Google entend répondre à cette inquiétude croissante en étendant ses outils de transparence directement dans l’application Gemini. Désormais, il est possible de vérifier si une vidéo a été générée — en tout ou partie — par les modèles d’IA de Google.

Attention toutefois : cette fonctionnalité ne s’applique qu’aux contenus produits au sein de l’écosystème Google. Gemini ne prétend pas (encore) détecter les créations issues d’autres IA.

Une vérification simple, intégrée à Gemini

Le fonctionnement se veut volontairement accessible. Il suffit de :

  1. importer une vidéo dans Gemini,
  2. poser une question directe, par exemple : « Cette vidéo a-t-elle été générée à l’aide de l’IA de Google ? »

Gemini se charge ensuite de l’analyse en recherchant une signature invisible appelée SynthID.

SynthID : le filigrane invisible de Google

Au cœur du dispositif se trouve SynthID, la technologie de watermarking numérique développée par Google. Contrairement à un filigrane classique, SynthID est totalement imperceptible pour l’œil humain, est intégré directement dans les données du contenu, peut être détecté avec une grande précision par les outils internes de Google.

Gemini analyse l’intégralité du fichier : les images, la bande sonore, et la musique de fond.

Autrement dit, une vidéo peut très bien être réelle visuellement mais contenir une piste audio générée par IA, et Gemini sera capable de l’identifier.

Des résultats contextualisés, pas un simple verdict binaire

L’un des points forts de cet outil est la qualité des réponses fournies. Gemini ne se contente pas d’un simple oui ou non. Il explique ce qu’il a trouvé et localise précisément les segments concernés. Un exemple typique de réponse pourrait être : « SynthID détecté dans l’audio entre 10 et 20 secondes. Aucun SynthID détecté dans les éléments visuels ».

Ce niveau de détail est particulièrement précieux pour les journalistes, les créateurs de contenu, et les utilisateurs cherchant à vérifier l’authenticité d’une vidéo virale.

Des limites techniques à connaître

La fonctionnalité reste toutefois encadrée par certaines contraintes : taille maximale du fichier de 100 Mo, et durée maximale de 90 secondes. Il ne s’agit donc pas d’un outil destiné à analyser des films complets, mais il est parfaitement adapté aux vidéos courtes, aux extraits et aux contenus partagés sur les réseaux sociaux.

Cette nouveauté s’inscrit dans la continuité des efforts de Google en matière de transparence. Depuis 2023, SynthID est déjà utilisé pour les images générées par IA, et certains contenus audio.

Google affirme avoir filigrané plus de 20 milliards de contenus générés par ses outils depuis le lancement de la technologie. Cette généralisation permet à Gemini d’identifier quasi instantanément un contenu issu de ses propres modèles.

L’ajout de la vidéo et de l’audio marque donc une étape importante dans la stratégie du groupe.

Le grand point faible : une portée limitée à l’écosystème Google

Cependant, impossible d’ignorer la principale réserve : Gemini ne peut détecter que ce que Google a lui-même généré ou modifié. Si une image ou une vidéo provient d’un autre modèle d’IA, d’un outil open source, ou d’une plateforme concurrente, alors Gemini ne pourra rien confirmer ni infirmer.

Ce choix fait de l’outil un instrument de transparence interne, et non un détecteur universel d’IA. Google cherche avant tout à assumer la traçabilité de ses propres créations, et éviter que les utilisateurs aient recours à des services tiers.

Une avancée utile, mais pas une solution globale

Avec cette nouvelle fonctionnalité, Google facilite clairement l’identification de ses contenus générés par IA et renforce la crédibilité de Gemini comme assistant de confiance. Mais en l’absence de compatibilité inter-plateformes, il ne faut pas y voir un outil absolu contre la désinformation.

La transparence progresse — mais elle reste fragmentée, à l’image du paysage actuel de l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Apple Music s’intègre à ChatGPT : playlists, recommandations et extraits audio via l’IA

Apple Music s’intègre à ChatGPT : playlists, recommandations et extraits audio via l’IA

Après Spotify, c’est au tour d’Apple Music de faire son entrée officielle dans l’écosystème de ChatGPT. Grâce à une nouvelle intégration dédiée, l’IA d’OpenAI peut désormais recommander des morceaux, générer des playlists sur mesure et même permettre d’écouter des extraits musicaux directement dans la conversation.

Cette nouveauté s’inscrit dans la stratégie d’OpenAI visant à transformer ChatGPT en une véritable plateforme d’interaction avec des services tiers, sans jamais quitter la fenêtre de discussion.

Quand ChatGPT rencontre Apple Music

OpenAI a introduit plus tôt cette année la notion « d’apps » dans ChatGPT, permettant aux utilisateurs d’interagir avec des services externes comme Spotify, Peloton ou Tripadvisor. Apple Music rejoint désormais cette liste, avec une intégration pensée avant tout pour la découverte musicale et la curation intelligente.

Concrètement, ChatGPT ne permet pas de lire des morceaux en intégralité — comme c’est déjà le cas avec Spotify — mais il devient un assistant musical conversationnel capable de :

  • recommander des artistes et des albums,
  • créer des playlists complètes à partir d’une simple requête en langage naturel,
  • explorer des genres, des époques ou des ambiances spécifiques.

Un avantage clé face à Spotify : les extraits audio intégrés

Là où Apple Music se démarque nettement de son concurrent, c’est sur un point précis : la lecture d’extraits audio directement dans ChatGPT. Par exemple, si vous demandez : « Donne-moi les cinq plus gros hits de 2025 ».

ChatGPT vous proposera une liste… avec la possibilité d’écouter un extrait de chaque morceau sans quitter la discussion. Une fonctionnalité que Spotify ne propose pas dans son intégration actuelle.

Cet aperçu rapide permet de valider un titre avant de l’ajouter à une playlist, rendant l’expérience de découverte plus fluide et immédiate.

Une intégration accessible même sans abonnement

Bonne nouvelle : l’intégration Apple Music dans ChatGPT est accessible à tous, y compris aux utilisateurs du compte gratuit. Sans abonnement Apple Music, il reste possible de rechercher des artistes, albums et morceaux, consulter des playlists existantes, et explorer le catalogue musical.

En revanche, les abonnés Apple Music bénéficient de l’expérience complète, avec la création automatique de playlists personnalisées, l’ajout direct de ces playlists à leur bibliothèque Apple Music, et des recommandations plus fines basées sur leurs requêtes.

Comment connecter Apple Music à ChatGPT ?

La configuration est simple et rapide :

  1. Ouvrez ChatGPT (sur Mac, iOS ou via le web),
  2. Allez dans Paramètres,
  3. Sélectionnez Apps,
  4. Choisissez Apple Music,
  5. Connectez-vous avec votre Apple ID pour autoriser l’accès.

chatgpt apps

Une fois connecté, il suffit de mentionner Apple Music dans votre requête, de sélectionner l’app via le menu, ou de commencer votre prompt par/Apple Music.

Pourquoi cette intégration change la donne

Qui n’a jamais eu une chanson « sur le bout de la langue », sans se souvenir du titre ni de l’artiste ? Avec cette intégration, il suffit désormais de décrire un souvenir, une ambiance ou un contexte, et ChatGPT fait le reste.

Au-delà du simple confort, cette approche transforme la découverte musicale :

  • moins de navigation manuelle,
  • moins de temps passé à chercher,
  • plus de recommandations pertinentes en quelques secondes.

C’est une nouvelle façon, plus naturelle et conversationnelle, d’explorer un catalogue musical immense.

L’IA au service de la découverte musicale

Les nouveautés liées à l’IA sont parfois gadget, mais celle-ci fait clairement partie des usages concrets et utiles. La création de playlists est agréable, mais peut vite devenir chronophage. Confier cette tâche à une IA capable de comprendre des intentions, des humeurs et des références culturelles change radicalement l’expérience.

Et ce n’est qu’un début. OpenAI continue d’améliorer ChatGPT — notamment son mode vocal — tandis que des indices suggèrent déjà l’arrivée de publicités sur la version gratuite. Autant de signaux montrant que ChatGPT évolue vers une plateforme centrale, capable de s’intégrer profondément dans les usages du quotidien… musique comprise.

Lire plus
Intelligence Artificielle

Xiaomi MiMo-V2-Flash : un modèle IA open source ultra-rapide pour concurrencer DeepSeek et Claude

Xiaomi MiMo-V2-Flash : un modèle IA open source ultra-rapide pour concurrencer DeepSeek et Claude

Xiaomi franchit un nouveau cap stratégique dans l’intelligence artificielle avec MiMo-V2-Flash, son modèle de langage open source le plus avancé à ce jour. Pensé pour la vitesse, les agents IA et la génération de code, ce nouveau LLM entend rivaliser frontalement avec des références du secteur comme DeepSeek V3.2 et Claude 4,5 Sonnet, tout en affichant des coûts d’exploitation radicalement plus bas.

Avec MiMo-V2-Flash, Xiaomi ne se contente plus d’intégrer l’IA dans ses produits : le groupe chinois affiche clairement son ambition de devenir un acteur de premier plan des modèles fondamentaux open source.

Une architecture pensée pour la rapidité et les agents IA

MiMo-V2-Flash repose sur une architecture Mixture-of-Experts (MoE) de très grande envergure. Le modèle totalise 309 milliards de paramètres, mais n’en active que 15 milliards par requête, un choix technique qui permet de réduire drastiquement la latence et les coûts tout en maintenant un haut niveau de performance.

Xiaomi a conçu ce modèle pour des scénarios précis : agents autonomes, interactions multi-tours, et workflows complexes nécessitant des réponses rapides et cohérentes. Pour y parvenir, MiMo-V2-Flash adopte une attention hybride 1:5, combinant une attention globale, une Sliding Window Attention avec une fenêtre de 128 tokens.

Le modèle dispose d’un contexte natif de 32 000 tokens, tout en ayant été entraîné pour supporter des contextes allant jusqu’à 256 000 tokens, un atout clé pour l’analyse de documents volumineux et les tâches de raisonnement long.

Des performances de premier plan à coût maîtrisé

Screen 2025 12 18 at 11.42.50

Sur le terrain des benchmarks, MiMo-V2-Flash se positionne immédiatement parmi les meilleurs modèles open source du moment. Il figure dans le top 2 des modèles open source sur des tests de raisonnement exigeants tels que AIME 2025 et GPQA-Diamond.

En ingénierie logicielle, ses résultats sur SWE-Bench Verified et SWE-Bench Multilingual le placent à un niveau comparable à GPT-5 et Claude 4,5 Sonnet, un signal fort pour les développeurs.

Côté vitesse, Xiaomi annonce une génération pouvant atteindre 150 tokens par seconde, tout en affichant un coût d’inférence extrêmement agressif :

  • 0,10 dollar par million de tokens en entrée,
  • 0,30 dollar par million de tokens en sortie.

Selon Xiaomi, cela représente environ 2,5 % du coût d’inférence de Claude, un différentiel qui pourrait séduire les startups comme les grandes entreprises. L’API est par ailleurs gratuite pour une durée limitée, afin d’encourager l’adoption.

Des innovations techniques orientées efficacité

Screen 2025 12 18 at 11.47.09

Multi-Token Prediction : accélérer sans compromis

MiMo-V2-Flash intègre la Multi-Token Prediction (MTP), une technique permettant de générer plusieurs tokens en parallèle, puis de les valider avant la sortie finale. Contrairement aux approches classiques, cette méthode n’augmente ni la charge mémoire, ni le coût de l’attention.

Avec une configuration MTP à trois couches, Xiaomi annonce un gain de vitesse de 2 à 2,6 fois par rapport à un décodage standard.

MOPD : un entraînement plus intelligent et moins coûteux

Autre innovation majeure : la Multi-Teacher Online Policy Distillation (MOPD). Cette méthode de post-entraînement repose sur :

  • plusieurs modèles « enseignants »,
  • un système de récompenses au niveau du token,
  • un apprentissage en ligne, directement exploitable en production.

Selon Xiaomi, le MOPD permet d’atteindre des performances élevées avec moins d’un cinquantième des ressources requises par les pipelines de reinforcement learning traditionnels. Le système accepte également des enseignants interchangeables, ouvrant la voie à des cycles d’auto-amélioration continus.

post training

MiMo Studio : une interface pensée pour les développeurs

Pour accompagner le lancement, Xiaomi déploie MiMo Studio, une interface web accessible à l’adresse aistudio.xiaomimimo.com. Elle permet d’interagir directement avec MiMo-V2-Flash, de générer du code, de lancer des agents IA, d’activer la recherche Web, et de basculer entre réponses instantanées et mode « thinking » pour un raisonnement approfondi.

Le modèle s’intègre également avec des outils de développement populaires comme Claude Code et Cursor, et peut générer des pages web HTML fonctionnelles, démontrant sa polyvalence.

Un modèle entièrement open source

Xiaomi joue la carte de la transparence : Licence MIT, poids du modèle disponibles sur Hugging Face, code d’inférence publié sur GitHub. Le groupe a également contribué dès le lancement au projet SGLang, confirmant sa volonté de s’inscrire durablement dans l’écosystème open source et de séduire la communauté des développeurs.

Avec MiMo-V2-Flash, Xiaomi dépasse clairement le statut de constructeur hardware enrichi à l’IA. Le groupe pose les bases d’une offre logicielle stratégique, capable de concurrencer les meilleurs modèles du marché sur le terrain de la vitesse, du raisonnement et du coût.

Reste à voir si MiMo-V2-Flash parviendra à s’imposer face à des acteurs déjà solidement installés. Mais une chose est certaine : Xiaomi est désormais un nom à surveiller de très près dans la course aux modèles de langage open source.

Lire plus
Intelligence Artificielle

Alexa+ débarque sur le Web : Amazon lance son chatbot IA pour concurrencer ChatGPT et Gemini

Alexa+ débarque sur le Web : Amazon lance son chatbot IA pour concurrencer ChatGPT et Gemini

Amazon franchit une nouvelle étape dans l’évolution de son assistant vocal en lançant une version Web de Alexa+, sa nouvelle génération dopée à l’IA générative. Désormais, pour certains utilisateurs, se rendre sur Alexa.com ouvre une véritable interface de chatbot, accessible depuis un navigateur, et non plus uniquement via les enceintes Echo ou les applications mobiles.

Ce changement marque un tournant stratégique : Alexa ne se limite plus au contrôle vocal et à la maison connectée, mais cherche clairement à rivaliser avec ChatGPT et Google Gemini sur leur terrain de prédilection — l’IA conversationnelle utilisable partout.

Une interface familière pour les habitués des chatbots IA

La version Web d’Alexa+ adopte un format immédiatement reconnaissable. On y retrouve une zone de conversation centrale pour saisir ses requêtes, des suggestions de prompts pour démarrer rapidement, des options pour copier et réutiliser les réponses.

Les utilisateurs peuvent désormais écrire au lieu de parler, téléverser des fichiers pour analyse, gérer leurs listes de courses, leur calendrier, ou encore reprendre des conversations initiées sur un Echo.

Une barre latérale permet également d’accéder à l’historique des discussions, aux contrôles de la maison connectée, aux documents importés.

L’objectif est clair : permettre une continuité fluide entre les appareils, sans repartir de zéro à chaque interaction.

Un vrai gain de productivité… surtout hors du vocal

Amazon met en avant la dimension productivité de cette version Web. Certaines tâches restent peu pratiques à la voix — rédiger de longs textes, modifier un document, analyser un fichier ou copier du contenu généré — et deviennent nettement plus efficaces avec clavier et souris.

Alexa+ peut ainsi planifier des voyages, créer des guides d’étude, rédiger des lettres ou des documents, aider à faire des achats, réserver des restaurants, et analyser des fichiers importés.

Une fois la réponse générée, elle peut être facilement réutilisée ailleurs, ce qui rapproche Alexa+ des usages professionnels déjà bien installés autour des autres IA génératives.

Une expérience encore en chantier

alexa plus features on web

Malgré ces avancées, Alexa+ sur le Web reste moins mature que ses concurrents directs. L’interface est encore relativement basique et ne propose pas, pour l’instant de bots personnalisés, d’outils créatifs avancés, de véritables espaces de travail visuels, ni une prise en charge étendue des fichiers.

Il s’agit clairement d’une première étape, plutôt qu’un produit finalisé.

Modèle économique : gratuit pour l’instant, mais pas pour longtemps

Pendant la phase de test actuelle, Alexa+ est accessible gratuitement. À terme, Amazon prévoit une intégration incluse dans l’abonnement Prime, ou un abonnement séparé à 19,99 dollars par mois pour les utilisateurs non Prime.

Un positionnement tarifaire ambitieux, qui montre qu’Amazon voit Alexa+ comme un produit premium, et non un simple bonus.

Alexa change de rôle

Avec cette version Web, Amazon envoie un signal clair : Alexa ne veut plus être uniquement un assistant domestique, mais un compagnon numérique capable d’assister les utilisateurs dans leur quotidien, sur tous leurs écrans.

Reste une question centrale : jusqu’où les utilisateurs accepteront-ils qu’Alexa gagne en autonomie et en contexte personnel ? Et surtout, Amazon parviendra-t-il à convaincre face à des acteurs déjà bien installés dans l’IA conversationnelle ?

Une chose est sûre : en ouvrant Alexa+ au Web, Amazon effectue son mouvement le plus crédible à ce jour pour replacer Alexa dans la course aux assistants IA de nouvelle génération.

Lire plus
Intelligence Artificielle

OpenAI lance son App Directory : ChatGPT devient un véritable App Store de l’IA

OpenAI lance son App Directory : ChatGPT devient un véritable App Store de l'IA

OpenAI accélère sa transformation de simple chatbot en plateforme applicative à part entière. Mercredi soir, l’entreprise a officiellement lancé un App Directory, un espace dédié permettant de parcourir l’ensemble des outils actuellement disponibles dans ChatGPT.

Dans le même temps, OpenAI a ouvert son SDK aux développeurs, leur permettant de créer de nouvelles expériences interactives fonctionnant directement à l’intérieur de l’interface du bot.

Un mouvement stratégique majeur, qui rapproche clairement ChatGPT d’un modèle comparable à un App Store de l’IA.

Une promesse annoncée, désormais concrète

Le mois dernier, le CEO d’OpenAI, Sam Altman, avait donné le ton : « Nous prévoyons de construire, au fil du temps, les fonctionnalités évidentes que l’on attend d’une plateforme robuste ».

L’ouverture d’un magasin d’applications est sans doute l’une des étapes les plus emblématiques de cette ambition. Désormais, ChatGPT n’est plus seulement un outil conversationnel : il devient un environnement extensible, capable d’héberger des services tiers directement dans son interface.

Les « connecteurs » deviennent officiellement des applications

Autre changement important : OpenAI a revu sa terminologie. Les anciens connecteurs, qui permettaient d’importer des données depuis des services externes comme Google Drive ou Dropbox, sont désormais requalifiés en « apps ».

Concrètement, les chat connectors deviennent des apps avec recherche de fichiers, les deep research connectors deviennent des apps de recherche approfondie, les synced connectors deviennent des apps synchronisées.

Selon la documentation officielle, ces applications peuvent également exploiter les données issues de la mémoire de ChatGPT, si cette fonctionnalité est activée. Par ailleurs, pour les utilisateurs Free, Plus, Go et Pro, OpenAI précise que certaines informations peuvent être utilisées pour entraîner ses modèles — à condition que l’option « améliorer le modèle pour tout le monde » soit activée.

Un point qui, sans surprise, soulève déjà des questions autour de la confidentialité et du contrôle des données.

Des apps interactives de plus en plus puissantes

Pour les usages les plus avancés, OpenAI met en avant une nouvelle génération d’applications véritablement interactives, déjà amorcée en octobre avec des partenaires comme Spotify ou Zillow.

Depuis, ces apps s’étendent géographiquement :

  • Spotify dans ChatGPT est désormais disponible au Royaume-Uni, en Suisse et dans l’ensemble de l’Union européenne,
  • une app Apple Music a fait son apparition, permettant de rechercher de la musique, créer des playlists et gérer une bibliothèque directement depuis la conversation,
  • DoorDash rejoint également l’écosystème, avec une promesse claire : transformer une idée de recette ou un plan de repas en panier d’achat prêt à commander, sans quitter ChatGPT.

Ces intégrations illustrent parfaitement la vision d’OpenAI : faire du chatbot une interface universelle, capable de relier intention, décision et action dans un seul flux.

Une stratégie ambitieuse… mais encore floue sur le modèle économique

Si la direction prise est limpide sur le plan produit, une question majeure reste en suspens : comment OpenAI compte monétiser durablement cet écosystème ?

L’entreprise n’a pour l’instant donné aucune réponse précise sur la façon dont ce nouvel App Directory — ni l’intégration poussée de services tiers — contribuera à rendre son activité réellement profitable.

Partage des revenus avec les développeurs ? Commissions sur les transactions ? Abonnements premium enrichis par les apps ? Le flou demeure.

ChatGPT, vers un nouveau centre de gravité du numérique ?

Avec cet App Directory et l’ouverture de son SDK, OpenAI confirme une chose : ChatGPT n’est plus conçu comme un simple assistant, mais comme une plateforme centrale, capable d’absorber des services, des workflows et des expériences complètes.

Reste à voir si cette ambition se traduira par un modèle économique viable — et si les utilisateurs accepteront que leur interface d’IA devienne, à terme, un véritable hub commercial et applicatif.

Une chose est sûre : la bataille pour devenir l’App Store de l’IA ne fait que commencer.

Lire plus
Intelligence Artificielle

Google déploie Gemini 3 Flash : un modèle IA plus rapide devient la nouvelle base de Gemini et de Search

Google déploie Gemini 3 Flash : un modèle IA plus rapide devient la nouvelle base de Gemini et de Search

Google accélère encore le rythme de ses mises à jour IA. L’entreprise vient d’annoncer Gemini 3 Flash, une version plus rapide et plus efficiente de son modèle phare, qui devient le nouveau modèle par défaut dans l’application Gemini — et désormais aussi dans le mode IA de Google Search.

Ce lancement intervient à peine un mois après l’arrivée de Gemini 3 Pro, la version la plus avancée du modèle, saluée pour ses progrès en raisonnement, en code et en traitement multimodal (texte, images et vidéos).

Gemini 3 Flash reprend cette base technologique, tout en mettant l’accent sur la latence réduite, le coût et la vitesse d’exécution.

Gemini 3 Flash : Un bond en avant pour la majorité des utilisateurs

Selon Tulsee Doshi, senior director et responsable produit chez Google DeepMind, le passage à Gemini 3 Flash constitue une amélioration majeure pour l’expérience quotidienne : « Avec Gemini 3 Flash, les utilisateurs bénéficieront d’un temps de réponse nettement plus rapide, tout en obtenant des réponses plus détaillées et nuancées que celles de Gemini 2.5 Flash ».

gemini 3 flash final benchmark t.width 1000.format webp

Google affirme même que Gemini 3 Flash dépasse les performances de l’ancien modèle phare Gemini 2,5 Pro, tout en fonctionnant à une fraction de son coût. Un équilibre stratégique qui permet à Google de généraliser un niveau de raisonnement avancé sans sacrifier la rapidité.

Gemini 3 Flash devient le moteur du Search « AI Mode »

L’un des changements les plus significatifs concerne Google Search. Gemini 3 Flash devient désormais le modèle par défaut du mode IA, cette nouvelle version conversationnelle de la recherche qui s’éloigne des traditionnels liens bleus.

Dans ce mode, les réponses sont formulées comme par un chatbot, les utilisateurs peuvent poser des questions de suivi, et les requêtes complexes sont traitées de manière contextuelle.

Google explique que les capacités renforcées de Gemini 3 Flash en raisonnement, utilisation d’outils et multimodalité permettent à AI Mode de répondre à des questions complexes avec plus de précision, sans compromis sur la vitesse.

Exemple mis en avant par Google : la génération d’un plan détaillé à partir d’une série d’images et de vidéos peut désormais se faire en quelques secondes.

Un modèle pensé aussi pour les développeurs

Gemini 3 Flash n’est pas réservé au grand public. Le modèle est également déployé pour les développeurs, notamment via Vertex AI, Canvas, et les outils Gemini pour la création assistée.

Des premiers retours d’utilisateurs avancés indiquent que le modèle est nettement plus rapide que Gemini 2.5 Flash, notamment pour des tâches comme la génération de sites web ou de prototypes à partir d’un simple prompt.

Gemini 3 Pro reste disponible pour les tâches les plus lourdes

gemini 3 flash pareto graph dec1.width 1000.format webp

En parallèle, Google continue de pousser Gemini 3 Pro, désormais accessible à tous les utilisateurs aux États-Unis. Dans AI Mode, il est possible de sélectionner l’option « Thinking with 3 Pro », destinée aux requêtes nécessitant un raisonnement plus profond, une résolution de problèmes complexes, et une analyse multi-étapes.

Google renforce également l’intégration de Nano Banana Pro, son modèle d’image le plus avancé, pour la génération et l’édition visuelle directement depuis la recherche.

Les abonnés Google AI Pro et Ultra bénéficient de limites d’utilisation plus élevées pour ces modèles avancés.

Avec Gemini 3 Flash, Google affine sa stratégie face à une concurrence de plus en plus agressive. OpenAI a récemment lancé GPT-5.2 et un nouveau modèle d’image de génération avancée, renforçant la bataille sur la vitesse, la qualité et le coût.

En faisant de Gemini 3 Flash le socle par défaut de ses produits grand public, Google envoie un message clair : l’IA avancée ne doit plus être réservée à une élite, mais devenir instantanée, fluide et omniprésente.

Lire plus
Intelligence Artificielle

DeepSeek : soupçons de contrebande de puces Nvidia Blackwell pour entraîner l’IA chinoise

DeepSeek : soupçons de contrebande de puces Nvidia Blackwell pour entraîner l'IA chinoise

Vous vous souvenez de DeepSeek ? Début 2025, cette start-up chinoise d’intelligence artificielle a brièvement créé la surprise en détrônant ChatGPT pour devenir l’application gratuite la plus téléchargée sur l’App Store. Mais, ce n’est pas ce succès éphémère qui a fait de DeepSeek un sujet brûlant dans l’écosystème tech mondial.

La véritable onde de choc venait d’ailleurs : son coût d’entraînement annoncé à seulement 6 millions de dollars, soit entre 1 % et 10 % du budget nécessaire pour entraîner des modèles comme GPT-4 ou Claude 3. Un chiffre si bas qu’il a immédiatement suscité fascination… puis scepticisme.

DeepSeek : Une IA peu fiable et idéologiquement alignée

L’enthousiasme n’a pas duré longtemps. Quelques semaines plus tard, plusieurs tests indépendants ont livré un verdict sévère.

DeepSeek affichait un taux de précision d’à peine 17 %, se classant 10e sur 11 chatbots évalués, derrière ChatGPT et Gemini. Plus préoccupant encore :

  • 39 % des réponses contenaient des affirmations fausses,
  • 53 % des requêtes liées à l’actualité recevaient des réponses vagues ou inutiles,
  • et, point le plus sensible, DeepSeek adoptait systématiquement la position de Pékin sur des sujets géopolitiques — même lorsque la Chine n’était pas mentionnée dans la question.

Ces résultats ont rapidement terni l’image d’une IA présentée comme révolutionnaire, révélant au contraire des biais idéologiques marqués et une fiabilité très limitée.

Des GPU Nvidia Blackwell… introduits clandestinement ?

L’affaire a pris une tournure bien plus grave avec la récente publication d’un rapport de The Information. Selon ce document, DeepSeek utiliserait entre 2 000 et 2 300 GPU Nvidia Blackwell (B100 et B200) pour entraîner son prochain modèle d’IA.

Problème majeur : ces puces sont strictement interdites à l’exportation vers la Chine en vertu des restrictions américaines. Washington justifie ces interdictions par deux objectifs clairs :

  1. conserver une avance stratégique dans la course mondiale à l’IA,
  2. empêcher que ces technologies ne tombent entre les mains de l’armée chinoise.

Le rapport affirme que ces GPU auraient été achetés par de faux data centers en Asie du Sud-Est, autorisés à s’en procurer, avant d’être démontés, dissimulés et expédiés en Chine sous couvert d’autres marchandises.

Nvidia minimise… mais les faits interrogent

Face à ces accusations, Nvidia a fermement réagi, qualifiant ces scénarios de « hautement improbables ». Un porte-parole a déclaré : « Nous n’avons reçu aucune preuve crédible de data centers fantômes destinés à tromper Nvidia et ses partenaires avant d’être démantelés et reconstruits ailleurs ».

Une position pour le moins étonnante, alors que le Département de la Justice américain a récemment démantelé un réseau ayant introduit en Chine plus de 160 millions de dollars de GPU Nvidia H100 et H200.

Autre détail troublant : après les premières révélations, Nvidia a discrètement ajouté un système de géolocalisation logicielle, surnommé en interne une « laisse numérique », afin de vérifier l’emplacement réel de ses puces. Une mesure qui suggère que le constructeur prend la menace bien plus au sérieux qu’il ne l’admet publiquement.

DeepSeek nie et évoque Huawei

De son côté, DeepSeek rejette catégoriquement ces accusations. L’entreprise affirme entraîner son prochain modèle à l’aide de GPU Nvidia H800 (version bridée autorisée en Chine), et de puces Huawei Ascend 910C.

En Chine, la puce la plus avancée reste l’Ascend 910B, fabriquée par SMIC en 7 nm, un processus nettement inférieur au 4 nm de TSMC utilisé pour les GPU Nvidia H200. Cette différence technologique explique pourquoi les solutions domestiques chinoises peinent à rivaliser avec les accélérateurs américains.

Dans une décision aussi audacieuse que controversée, le président Donald Trump a récemment autorisé Nvidia à exporter le GPU H200 vers certains clients chinois, tout en faisant de l’État américain un partenaire à hauteur de 25 % des revenus générés. Sur le papier, l’idée est brillante : taxer directement l’appétit chinois pour les technologies américaines. Dans les faits, Pékin pourrait restreindre volontairement l’accès au H200 afin de favoriser ses propres champions nationaux comme Huawei.

Résultat : Nvidia reste extrêmement prudent dans ses prévisions de ventes, et la manne financière espérée par Washington pourrait bien rester largement théorique.

Une affaire révélatrice des tensions mondiales autour de l’IA

L’affaire DeepSeek illustre parfaitement les lignes de fracture actuelles : course effrénée à l’IA, guerre technologique entre les États-Unis et la Chine, dépendance critique aux semi-conducteurs avancés, et instrumentalisation politique des modèles d’IA.

Entre soupçons de contrebande, performances discutables et alignement idéologique, DeepSeek est passé en quelques mois du statut de prodige low-cost à celui de symbole des dérives et tensions de l’IA mondiale.

Une chose est sûre : dans la bataille de l’intelligence artificielle, les lignes de code sont désormais aussi stratégiques que les pipelines de pétrole ou les routes maritimes.

 

Lire plus
Intelligence Artificielle

OpenAI lance GPT Image 1.5 et transforme ChatGPT en studio de création visuelle

OpenAI lance GPT Image 1.5 et transforme ChatGPT en studio de création visuelle

OpenAI accélère sur le terrain de la création visuelle. L’entreprise a annoncé le lancement de GPT Image 1.5, son nouveau modèle phare de génération d’images, accompagné d’une interface entièrement repensée dans ChatGPT.

Objectif : passer d’un outil ludique et expérimental à un véritable studio créatif, plus rapide, plus précis et pensé pour des usages concrets, notamment professionnels.

Le nouveau modèle est disponible dès aujourd’hui pour tous les utilisateurs, y compris via l’API.

Un modèle plus rapide, plus précis, plus fidèle aux intentions

Selon OpenAI, GPT Image 1.5 est capable de générer des images jusqu’à quatre fois plus rapidement que les versions précédentes. Mais, le véritable progrès se situe ailleurs : dans la capacité du modèle à comprendre et respecter l’intention de l’utilisateur, en particulier lors de la modification d’images existantes.

Parmi les améliorations clés :

  • éditions photo plus ciblées et fiables,
  • essayages de vêtements et de coiffures plus crédibles,
  • filtres stylistiques et transformations conceptuelles,
  • meilleure conservation de l’essence visuelle de l’image d’origine.

Autrement dit, l’IA ne se contente plus de « refaire une image », elle apprend à travailler avec elle.

Une nouvelle interface dédiée aux images dans ChatGPT

OpenAI a également revu l’expérience utilisateur. ChatGPT intègre désormais un onglet Images dédié, accessible depuis la barre latérale. Celui-ci propose des filtres prédéfinis, des styles populaires, des idées et prompts tendance, des outils visuels permettant de tester des transformations sans forcément rédiger de longues instructions textuelles.

Pour Fidji Simo, CEO of Applications chez OpenAI, le constat est clair : « Créer et éditer des images est une tâche différente, qui mérite un espace pensé pour le visuel. ».

Cette évolution marque une rupture avec l’approche purement conversationnelle qui dominait jusque-là.

Des capacités d’édition enfin exploitables au quotidien

L’un des points faibles historiques des générateurs d’images par IA résidait dans leur manque de cohérence lors des retouches successives. GPT Image 1.5 s’attaque frontalement à ce problème.

Le modèle est désormais capable de :

  • ajouter ou supprimer des éléments précis,
  • fusionner ou transposer des objets,
  • conserver l’éclairage, la composition et l’apparence des personnes,
  • améliorer nettement le rendu du texte (lettres lisibles, petites tailles, densité élevée),
  • mieux gérer les visages dans les scènes de groupe.

OpenAI affirme que le modèle suit les instructions de manière plus fiable, réduisant les approximations et les « effets surprises » frustrants.

ChatGPT GPT Image 1.5 Generee Pa

Une offensive clairement orientée vers les entreprises

Derrière ces améliorations techniques, la stratégie est limpide. OpenAI positionne GPT Image 1.5 comme un outil professionnel, adapté à la création de visuels produits, le prototypage design, le marketing, ou la communication visuelle.

Dans un contexte de pression accrue des investisseurs, l’entreprise cherche à transformer ChatGPT en une plateforme créative monétisable, capable de rivaliser avec des solutions de design traditionnelles.

Fidji Simo parle d’un passage « d’une génération d’images de nouveauté à une création visuelle pratique et à haute fidélité ».

Une concurrence de plus en plus agressive

Cette annonce intervient dans un contexte de forte intensification de la concurrence. Le récent succès viral de Google Nano Banana a marqué les esprits, tandis que d’autres acteurs avancent rapidement :

  • Qwen-Image d’Alibaba, capable de générer du texte lisible en chinois et en anglais,
  • Flux.2 de Black Forest Labs, modèle open source très performant,
  • Stable Diffusion, toujours très présent dans l’écosystème créatif.

La bataille ne se joue plus seulement sur la qualité brute des images, mais sur la fiabilité, la vitesse et l’intégration dans des flux de travail réels.

Vers un ChatGPT devenu studio créatif

Avec GPT Image 1.5, OpenAI ne cherche plus seulement à impressionner. L’entreprise veut installer ChatGPT comme un outil de production visuelle à part entière, capable de répondre aux besoins du quotidien comme à ceux des professionnels.

La promesse est ambitieuse : transformer l’IA générative en un partenaire créatif crédible, rapide et précis. Reste à voir si les utilisateurs — et surtout les entreprises — adopteront massivement cette nouvelle approche.

Lire plus
Intelligence Artificielle

Google intègre NotebookLM à Gemini : une avancée majeure pour la recherche assistée par IA

Google intègre NotebookLM à Gemini : une avancée majeure pour la recherche assistée par IA

NotebookLM est sans doute l’un des outils d’IA les plus puissants jamais lancés par Google — et aussi l’un des plus sous-estimés. Jusqu’ici cantonné à une interface séparée, NotebookLM commence désormais à s’intégrer directement à Gemini, une évolution logique qui pourrait profondément transformer la manière dont les utilisateurs exploitent l’IA pour l’analyse et la recherche.

NotebookLM fait son entrée dans Gemini, discrètement

Selon Alexey Shabanov de TestingCatalog, Google a entamé un déploiement progressif de NotebookLM au sein de Gemini. Cette intégration permet aux utilisateurs d’attacher directement des notebooks à une conversation Gemini afin d’enrichir le contexte et d’obtenir des réponses plus précises, plus profondes et mieux ancrées dans leurs propres documents.

Shabanov avait repéré cette fonctionnalité dès novembre, à la suite d’un APK teardown révélant des références à NotebookLM dans Gemini. Le week-end dernier, Google aurait commencé un premier déploiement très limité.

Pour l’instant, l’accès reste extrêmement restreint : la source indique que seul un de ses cinq comptes affiche la nouvelle option. De notre côté, aucun signe de NotebookLM n’apparaît encore dans Gemini, y compris sur un compte Pro.

Comment fonctionne l’intégration NotebookLM dans Gemini ?

Une fois activée, la fonctionnalité se matérialise par une nouvelle option « NotebookLM » dans le menu de pièces jointes (icône « + ») de Gemini.

Le principe est simple mais puissant :

  1. l’utilisateur sélectionne un notebook existant,
  2. Gemini peut alors analyser, synthétiser, comparer ou raisonner exclusivement à partir des contenus de ce notebook,
  3. le tout sans quitter l’interface Gemini.

À tout moment, il est possible de revenir au notebook source via le bouton Sources, qui ouvre directement l’interface NotebookLM. L’expérience devient ainsi fluide, continue et contextuelle — exactement ce qui manquait jusqu’ici.

Pourquoi cette intégration change tout

NotebookLM est conçu pour travailler sur des corpus fermés : notes personnelles, documents de recherche, articles, PDFs, transcriptions, etc. En l’intégrant à Gemini, Google permet enfin de combiner la puissance de raisonnement des derniers modèles Gemini avec la rigueur documentaire de NotebookLM.

Concrètement, cela signifie des réponses moins sujettes aux hallucinations, une IA capable de raisonner sur des documents complexes, et une continuité parfaite entre exploration, analyse et synthèse.

Pour les chercheurs, journalistes, étudiants, juristes ou analystes, c’est un véritable changement de paradigme.

Un déploiement encore très limité… mais prometteur

À ce stade, Google n’a fait aucune annonce officielle. Tout indique qu’il s’agit d’un test à très petite échelle, probablement destiné à valider l’intégration avant un lancement plus large.

Si l’histoire récente de Gemini nous apprend quelque chose, c’est que Google préfère désormais tester discrètement ses nouvelles fonctionnalités avant de les généraliser. Une annonce officielle devrait logiquement accompagner un déploiement plus massif dans les semaines à venir.

Gemini devient peu à peu une plateforme, pas juste un chatbot

Avec cette intégration, Gemini évolue clairement vers autre chose qu’un simple assistant conversationnel. Il devient une interface centrale capable de mobiliser différents outils spécialisés — recherche, raisonnement, documents, sources personnelles — sans rupture d’expérience.

NotebookLM dans Gemini, ce n’est pas une petite fonctionnalité de plus. C’est un signal fort : Google est en train de bâtir une IA de travail, pas seulement une IA de démonstration.

Lire plus
Intelligence Artificielle

Google réinvente Gemini Deep Research : l’agent IA qui prépare l’ère où l’on ne « cherche » plus, on délègue

Google réinvente Gemini Deep Research : l’agent IA qui prépare l’ère où l’on ne « cherche » plus, on délègue

Google avance ses pions dans la course aux agents IA autonomes. Ce jeudi, le géant de Mountain View a dévoilé une version entièrement repensée de Gemini Deep Research, désormais propulsée par son modèle le plus ambitieux à ce jour : Gemini 3 Pro.

L’objectif ne se limite plus à produire de longs rapports de recherche. Google veut faire de Deep Research un moteur universel d’analyse, intégrable directement dans des applications tierces — un changement stratégique qui anticipe un futur où les humains ne « googlent » plus, mais confient leurs questions à des agents intelligents capables d’explorer, raisonner et décider à leur place.

Gemini Deep Research : De l’outil de recherche au moteur agentique

Jusqu’ici, Gemini Deep Research était surtout perçu comme un outil avancé de synthèse documentaire. Capable d’ingérer d’énormes volumes d’informations, il s’est déjà imposé dans des usages exigeants :

  • due diligence financière,
  • recherche pharmaceutique,
  • analyse de toxicité médicamenteuse,
  • veille réglementaire ou scientifique.

La nouveauté majeure réside ailleurs : les développeurs peuvent désormais intégrer directement ces capacités dans leurs propres produits grâce à la toute nouvelle Interactions API.

Cette API marque une étape clé dans la vision « agent-first » de Google. Elle permet de contrôler finement la manière dont un agent interagit avec les données, pose des sous-questions, planifie des étapes de recherche, et synthétise des résultats intermédiaires.

En clair, Google ne vend plus seulement un chatbot intelligent, mais un cerveau de recherche modulaire, prêt à être embarqué dans des applications métier.

Gemini 3 Pro : la promesse d’une IA plus factuelle, moins hallucinée

Au cœur de cette refonte se trouve Gemini 3 Pro, que Google présente comme son modèle le plus factuel à ce jour. Une affirmation stratégique, tant le problème des hallucinations reste le talon d’Achille des agents autonomes.

Dans les tâches de raisonnement long — celles qui s’étendent sur des dizaines de minutes, voire des heures — une seule décision erronée peut invalider l’ensemble du travail. Plus un agent prend de décisions seul, plus le risque s’accumule.

Google affirme avoir entraîné Gemini 3 Pro pour minimiser ces erreurs cumulatives, un prérequis indispensable pour des agents capables de mener des enquêtes complexes sans supervision humaine constante.

Une intégration progressive dans l’écosystème Google

Sans surprise, Google ne compte pas garder Deep Research cantonné à un produit isolé. L’entreprise a confirmé que l’agent sera progressivement intégré à Google Search,Google Finance, l’application Gemini, et NotebookLM, son outil phare pour la prise de notes et l’analyse de documents.

C’est un signal clair : Google prépare un monde où la recherche traditionnelle devient une infrastructure invisible, orchestrée par des agents qui anticipent, croisent et interprètent l’information avant même que l’utilisateur ne formule une requête précise.

Des benchmarks… encore des benchmarks

GeminiDeepResearch Gemini Deep R

Pour appuyer ses annonces, Google a — sans surprise — introduit un nouveau benchmark maison : DeepSearchQA. Celui-ci vise à évaluer la capacité des agents à résoudre des tâches complexes de recherche multi-étapes. Google a choisi de l’open sourcer, un geste apprécié mais désormais attendu dans l’industrie.

Le modèle a également été testé sur Humanity’s Last Exam, un benchmark indépendant réputé pour ses questions ultra-niches, et BrowserComp, qui mesure les performances des agents dans des environnements web réels.

Résultat : Gemini Deep Research domine sur son propre benchmark et sur Humanity’s Last Exam, mais GPT-5 Pro d’OpenAI se classe juste derrière — et dépasse même Google sur BrowserComp.

GeminiDeepResearch InferenceTime

Un duel serré, qui illustre à quel point les frontières de performance sont désormais fines entre les leaders du secteur.

Une annonce… déjà dépassée ?

Ironie du calendrier : ces comparaisons sont devenues presque obsolètes instantanément. Le même jour, OpenAI a levé le voile sur GPT-5.2, surnommé Garlic, que l’entreprise présente comme supérieur à tous ses concurrents — Google compris — sur une large batterie de benchmarks.

Le timing n’a échappé à personne. Alors que le monde tech retenait son souffle en attendant Garlic, Google a choisi de marquer le terrain avec sa propre annonce agentique.

Un rappel subtil, mais nécessaire : la guerre des modèles ne se joue plus uniquement sur les scores bruts, mais sur l’intégration, la fiabilité et la capacité à devenir une infrastructure invisible du quotidien.

Vers un futur sans moteur de recherche ?

Derrière cette mise à jour de Gemini Deep Research se cache une ambition bien plus vaste. Google prépare activement une transition où le moteur de recherche classique cesse d’être l’interface principale.

À sa place, des agents spécialisés capables de dialoguer entre eux, de fouiller le Web, des bases privées et des documents internes, et de livrer non pas des liens… mais des décisions exploitables.

Gemini Deep Research n’est pas seulement un outil de plus. C’est une brique fondatrice de ce futur post-recherche — un futur où l’on ne demande plus quoi chercher, mais quoi faire.

Lire plus
Intelligence Artificielle

ChatGPT lancera son mode adulte au premier trimestre 2026

ChatGPT lancera son mode adulte au premier trimestre 2026

Après plusieurs mois de teasing — notamment de la part de Sam Altman lui-même — OpenAI donne enfin une fenêtre de lancement officielle pour le très discuté mode adulte de ChatGPT.

Lors d’un briefing consacré à GPT-5.2 ce jeudi, Fidji Simo, CEO of Applications chez OpenAI, a déclaré qu’elle s’attend à ce que le mode adulte débarque au cours du premier trimestre 2026.

Mais avant de l’activer, l’entreprise veut perfectionner un élément clé : son nouveau système de prédiction d’âge.

ChatGPT : Un mode adulte réservé aux utilisateurs vérifiés comme majeurs

OpenAI développe actuellement un modèle capable d’estimer automatiquement l’âge d’un utilisateur afin d’appliquer — ou non — des restrictions de contenu. L’enjeu est de taille : éviter d’exposer les mineurs à des contenus inappropriés, mais aussi ne pas bloquer à tort les adultes, un problème fréquent avec les filtres actuels.

Fidji Simo explique que : « Le modèle est déjà testé dans certains pays pour mesurer sa capacité à identifier correctement les adolescents sans confondre les adultes ».

OpenAI veut être certain de la fiabilité du système avant d’activer officiellement les fonctionnalités adultes.

Un contexte réglementaire en pleine mutation

Cette initiative s’inscrit dans un mouvement plus large : de nombreux services en ligne déploient ou renforcent des technologies de vérification d’âge afin de se conformer aux nouvelles lois adoptées dans différents pays (protection des mineurs, restrictions de contenu sensible, etc.).

Avec ChatGPT s’apprêtant à gérer du contenu NSFW — tout comme Grok et d’autres modèles concurrents — la pression réglementaire est encore plus forte.

 

Lire plus
Intelligence Artificielle

Disney x OpenAI : Sora pourra générer des vidéos avec Mickey, Marvel et Star Wars

Disney x OpenAI : Sora pourra générer des vidéos avec Mickey, Marvel et Star Wars

C’est un paradoxe typiquement Disney : protéger farouchement son patrimoine créatif, tout en cherchant à le réinventer pour toucher de nouvelles générations. Ce jeudi, la firme aux grandes oreilles a franchi une étape qui semblait inimaginable il y a encore un an : un accord de trois ans avec OpenAI, autorisant la création de vidéos Sora et d’images générées via ChatGPT mettant en scène plus de 200 personnages issus des univers Disney, Pixar, Marvel et Star Wars.

Un partenariat inédit, qui mêle l’un des catalogues les plus jalousement gardés d’Hollywood aux technologies génératives les plus avancées du moment. Et une décision qui intervient le même jour où Disney… met officiellement Google en demeure pour violation massive de droits d’auteur liés à l’IA.

Bienvenue dans la nouvelle bataille du divertissement.

Sora + Disney : l’IA générative entre officiellement dans les mondes enchantés

L’accord, inédit par son ampleur, donne aux utilisateurs de Sora et de ChatGPT Images un accès contrôlé à une bibliothèque colossale de personnages animés, créatures, mascottes, véhicules, accessoires et environnements emblématiques.

Les fans pourront ainsi produire de courtes vidéos inspirées des mondes Disney ― et les partager librement.

Quelques exemples parmi les licences disponibles :

  • Mickey & Minnie
  • Lilo & Stitch
  • Ariel, Cendrillon, Belle, la Bête
  • Simba, Mufasa
  • Baymax, les héros de Encanto, Frozen, Monsters Inc., Toy Story, Inside Out, Moana, Up, Zootopia
  • Côté Marvel : Iron Man, Loki, Groot, Thor, Captain America, Deadpool, Black Panther…
  • Côté Star Wars : Yoda, Dark Vador, Luke, Leia, le Mandalorien, les Stormtroopers, etc.

Un détail crucial : le contrat exclut explicitement toute utilisation de voix, de doublages ou de ressemblances d’acteurs réels, afin d’éviter toute confusion juridique ou exploitation indue des talents qui incarnent ces personnages.

Fait remarquable, Disney prévoit même d’intégrer une sélection de créations de fans directement sur Disney+, étoffant son catalogue avec des formats courts génératifs — une manière intelligente d’amplifier son écosystème sans produire un seul tournage.

Disponibilité annoncée : début 2026.

Disney investit massivement dans OpenAI… et devient client de ChatGPT

Ce partenariat n’est pas qu’une licence créative. Disney annonce également un investissement de 1 milliard de dollars dans OpenAI, des warrants permettant d’acquérir davantage d’actions, et l’usage des APIs OpenAI au sein de Disney, notamment pour enrichir Disney+, outiller ses créateurs internes et intégrer ChatGPT dans ses workflows.

Une façon d’officialiser l’entrée de Disney dans l’ère de l’IA générative ―, mais sur ses propres rails, avec un contrôle strict des usages.

Robert Iger résume clairement la philosophie : « L’IA marque un moment décisif pour notre industrie. Avec OpenAI, nous voulons étendre notre capacité de raconter des histoires — de manière responsable, respectueuse des créateurs et au service des fans ».

Le même jour, Disney accuse Google d’« exploitation massive » de ses œuvres via Gemini

Le contraste est saisissant. Quelques heures seulement après avoir annoncé un partenariat « responsable » avec OpenAI, Disney a envoyé à Google une ordonnance de cessation et d’abstention musclée.

Dans la lettre, rédigée par le cabinet Jenner & Block, Disney accuse Google de copier illégalement de larges portions de son catalogue pour entraîner ses modèles, de générer et distribuer des images dérivées sans autorisation, d’utiliser la notoriété de ces œuvres pour renforcer son monopole, et de publier des images parfois estampillées du logo Gemini, créant selon Disney une fausse impression d’accord commercial.

Disney cite des franchises précises : Frozen, Le Roi Lion, Moana, La Petite Sirène, Deadpool, Toy Story, Ratatouille, Inside Out, Lilo & Stitch, Star Wars, Les Simpson, Avengers et bien d’autres.

La lettre compare même Google à « une machine distributrice capable de reproduire à la demande des œuvres protégées de Disney ». Google est sommé d’arrêter immédiatement toute génération, diffusion et exploitation de contenus Disney via Gemini, YouTube et YouTube Shorts.

Une stratégie en deux temps : ouvrir la porte… puis verrouiller le reste

Ce double mouvement raconte quelque chose de fondamental sur la manière dont les géants du divertissement approchent aujourd’hui l’IA :

  1. Accorder des licences strictement encadrées et rémunérées aux acteurs considérés comme responsables.
  2. Combattre frontalement les modèles IA non autorisés, accusés d’absorber et de reproduire des œuvres protégées.

Disney trace ainsi une ligne très nette : la créativité générative, oui — mais seulement quand elle est sous licence, surveillée et monétisée.

OpenAI devient donc un partenaire de confiance. Google, au contraire, est renvoyé au banc des accusés.

 

Lire plus
Intelligence Artificielle

GPT-5.2 est là : OpenAI riposte à Google avec son modèle le plus puissant jamais lancé

GPT-5.2 est là : OpenAI riposte à Google avec son modèle le plus puissant jamais lancé

OpenAI a officiellement dévoilé GPT-5.2 dans ChatGPT, sa nouvelle famille de modèles frontier IA, confirmant les rumeurs qui couraient depuis des semaines. OpenAI le présente comme son meilleur modèle à ce jour pour un usage professionnel quotidien.

Fidji Simo, CEO of Applications chez OpenAI, a déclaré lors d’un briefing jeudi que cette nouvelle génération est « en préparation depuis de très nombreux mois », réfutant l’idée d’une réaction précipitée aux progrès rapides de la concurrence.

Selon OpenAI, la gamme GPT-5.2 — composée des modèles Instant, Thinking et Pro — progresse nettement dans plusieurs domaines clés :

  • création de feuilles de calcul,
  • production de présentations,
  • écriture et révision de code,
  • compréhension d’images,
  • gestion de longs contextes,
  • utilisation d’outils,
  • exécution de projets complexes en plusieurs étapes.

Un positionnement clair face à Gemini 3, actuellement perçu comme le meilleur modèle généraliste du marché.

GPT-5.2 : Des capacités scientifiques et analytiques renforcées

Aidan Clark, VP Research chez OpenAI, a révélé que l’équipe a fourni GPT-5.2 Pro à un chercheur senior en immunologie. Résultat : lorsqu’il lui a demandé de générer les questions les plus importantes encore sans réponse sur le système immunitaire, le modèle a produit des questions « plus pertinentes et plus fines, assorties d’explications plus solides » que tous les autres modèles frontier existants.

Cette avancée souligne l’objectif d’OpenAI : faire de GPT-5.2 non seulement un assistant de productivité, mais aussi un véritable co-chercheur dans des domaines complexes.

Et pour la première fois, il inclut explicitement un soutien aux tokens de raisonnement, dans la lignée de la série o1.

Des capacités monstrueuses : jusqu’à 400 000 tokens de contexte

GPT-5.2 introduit :

  • 400 000 tokens de contexte — permet d’ingérer des centaines de documents ou un dépôt GitHub entier.
  • 128 000 tokens de sortie — assez pour générer un livre, une appli complète ou un rapport de 200 pages.
  • Coupure de connaissances : 31 août 2025 — très récente pour un LLM.

Trois versions : Instant, Thinking et Pro

OpenAI segmente désormais ses modèles selon le type de tâche :

GPT-5.2 Instant

  • Rapide, léger, idéal pour les requêtes quotidiennes.
  • (Remplace GPT-5.1-chat-latest)

GPT-5.2 Thinking

  • Nouvelle star du raisonnement.
  • Pour les projets complexes, agents, codage profond, mathématiques, longues chaînes d’actions.

GPT-5.2 Pro

  • Le modèle le plus intelligent et le plus précis.
  • Pour les entreprises, les chercheurs, les questions critiques.
  • Coût élevé mais précision maximale.

GPT-5.2 bat Gemini 3 sur les benchmarks clés

OpenAI affiche une série de records impressionnants :

GDPval (travail professionnel)

  • GPT-5.2 Thinking : SOTA
  • Surpasse ou égale des professionnels humains dans 70,9 % des tâches.

SWE-bench Pro (programmation réelle)

  • Nouveau record : 55,6 %, loin devant les modèles précédents.

GPQA Diamond (science de haut niveau)

  • GPT-5.2 Pro : 93,2 %, meilleur score jamais enregistré.

FrontierMath

  • GPT-5.2 Thinking : 40,3 % (vs 31 % pour GPT-5.1 Thinking).

ARC-AGI-1 (raisonnement général)

  • GPT-5.2 Pro : 90,5 % — premier modèle à dépasser les 90 %.

ScreenSpot-Pro (compréhension d’interface graphique)

  • GPT-5.2 Thinking : 86,3 % (vs 64,2 % pour GPT-5.1)

G76Fh4WagAAE Ec

Une amélioration clé : des agents plus fiables

Dans son article technique, OpenAI affirme que GPT-5.2 améliore nettement la performance des agents autonomes — un terrain stratégique où tous les géants de l’IA se battent pour offrir les assistants les plus utiles, les plus stables et les plus polyvalents.

Max Schwarzer, chercheur chez OpenAI, l’a résumé ainsi : « Notre vision est de faire de ChatGPT le meilleur assistant personnalisé possible ». OpenAI insiste particulièrement sur une amélioration attendue : GPT-5.2 Thinking « hallucine moins » que son prédécesseur.

Une réduction cruciale pour les professionnels qui veulent passer d’un simple chatbot conversationnel à un outil agentique fiable, capable de prendre des décisions, exécuter des tâches et automatiser des processus.

Testé par les entreprises avant son lancement

Plusieurs grandes entreprises ont eu accès à GPT-5.2 avant son déploiement public, notamment : Notion, Box, Shopify, Harvey, Zoom, Databricks.

Selon OpenAI, ces partenaires ont pu utiliser les modèles pendant deux semaines et constater une nette amélioration de la cohérence, du raisonnement, de la gestion de documents complexes, et de la qualité globale des workflows automatisés.

Le lancement intervient dans un contexte explosif : Google a récemment pris la tête des benchmarks avec Gemini 3, poussant OpenAI à activer un « Code Red » interne pour accélérer l’amélioration de ChatGPT.

Malgré cela, OpenAI insiste : GPT-5.2 n’a pas été précipité pour rattraper Google, mais était prévu « depuis de nombreux mois ».

Disponibilité

GPT-5.2 est disponible dès aujourd’hui pour ChatGPT Plus, ChatGPT Pro, Team et Enterprise. Le déploiement est progressif pour une certaine stabilité. Côté API, GPT-5.2 est immédiatement disponible via : gpt-5.2, gpt-5.2-chat-latest et gpt-5.2-pro.

Lire plus
Intelligence Artificielle

Xiaomi développe Mi Chat, un assistant IA basé sur le modèle performant MiMo-7B-RL

Xiaomi développe Mi Chat, un assistant IA basé sur le modèle performant MiMo-7B-RL

Xiaomi fait un pas de plus dans sa transformation en géant de l’intelligence artificielle. Selon une nouvelle fuite provenant du compte WeChat Du Jia, la marque développe un assistant Q&A intelligent baptisé Mi Chat, et la première version du produit serait déjà finalisée.

Cette application grand public servira vraisemblablement d’interface principale pour MiMo-7B-RL, le modèle de langage maison que Xiaomi a présenté plus tôt cette année dans le cadre de son expansion massive dans l’IA.

MiMo-7B-RL : un « petit » modèle aux performances surprenantes

Malgré ses 7 milliards de paramètres, MiMo-7B-RL a déjà fait sensation en surpassant des modèles nettement plus grands — dont OpenAI o1-mini et Alibaba Qwen QwQ-32B-Preview — sur plusieurs benchmarks clés :

  • AIME 24/25
  • LiveCodeBench v5

Ces tests portent notamment sur les capacités de raisonnement mathématique et sur la qualité du code généré. Une performance inattendue qui a immédiatement attiré l’attention du secteur.

Xiaomi travaillerait déjà à étendre et renforcer ce modèle, et Mi Chat serait conçu comme la vitrine pensée pour le grand public — l’équivalent de ChatGPT, Gemini ou Claude, mais intégré profondément dans l’écosystème de Xiaomi.

Une pièce centrale dans la stratégie « Human x Car x Home »

L’arrivée de Mi Chat s’inscrit directement dans la vision stratégique de Xiaomi : fusionner l’IA avec son triptyque Humain × Voiture × Maison.

Cela signifie que Mi Chat ne serait pas seulement un chatbot, mais potentiellement un assistant pour les smartphones Xiaomi, pour les voitures électriques HyperOS de Xiaomi, pour les appareils connectés de la maison, et même pour les futurs robots personnels.

Un assistant avec des capacités de raisonnement avancées pourrait unifier toutes ces expériences — une ambition analogue à celle d’Apple Intelligence ou de Samsung Gauss, mais à plus grande échelle matérielle.

Xiaomi mise très gros sur l’IA — jusqu’au sommet de l’entreprise

Le président de Xiaomi, Lu Weibing, confirme que l’entreprise investit massivement dans l’IA depuis plusieurs trimestres. Selon lui, les progrès réalisés sur les modèles de langage dépassent déjà leurs prévisions.

La direction souhaite maintenant passer de la phase “R&D” à la phase “intégration profonde dans le monde réel”.

De plus, le fondateur Lei Jun s’implique personnellement dans le renforcement de l’équipe d’IA. Il a récemment recruté plusieurs talents clés, dont Luo Fuli, ancien spécialiste de DeepSeek, aujourd’hui coauteur d’un papier académique publié avec l’Université de Pékin.

Prochaine étape : annonce officielle le 17 décembre

Xiaomi devrait dévoiler Mi Chat en détail lors de la Conférence Partenaires Human Car Home 2025, le 17 décembre à Pékin. Lu Weibing et Luo Fuli sont attendus sur scène pour donner un premier aperçu de la vision finale de Mi Chat.

Xiaomi possède trois atouts uniques :

  1. Un modèle maison performant (MiMo)
  2. Un vaste écosystème matériel (smartphones, IoT, voitures, robotique)
  3. Un focus sur l’intégration dans le monde physique, pas seulement le cloud

Si Mi Chat fonctionne aussi bien que les benchmarks le suggèrent, Xiaomi pourrait très vite devenir un acteur majeur dans le domaine des assistants IA grand public.

Lire plus