fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

ChatGPT Shopping Research : OpenAI transforme votre requête en guide d’achat personnalisé

ChatGPT Shopping Research : OpenAI transforme votre requête en guide d’achat personnalisé

À l’approche des fêtes — et pile avant les promotions monstres du Black Friday — OpenAI dégaine une nouvelle fonctionnalité destinée à transformer ChatGPT en assistant d’achat expert : Shopping Research.

L’idée ? Permettre aux utilisateurs de trouver le bon produit, adapté à leurs besoins réels, sans jongler entre dix onglets, comparatifs approximatifs et tests douteux.

Et surtout, faire du shopping… une conversation.

Finie la chasse aux onglets : ChatGPT vous fabrique un guide d’achat personnalisé

OpenAI affirme que des millions d’utilisateurs sollicitent déjà ChatGPT pour comprendre, comparer ou valider des produits. Shopping Research va plus loin : il formalise ce comportement en une expérience dédiée, structurée, presque éditorialisée.

Demandez :

  • « Trouve-moi l’aspirateur-balai sans fil le plus silencieux pour un petit appartement. »
  • « Aide-moi à choisir entre ces trois vélos. »
  • « Je cherche un cadeau pour ma nièce de 4 ans qui adore dessiner. »

Screen 2025 11 25 at 07.43.11

En quelques minutes, ChatGPT génère un guide sur mesure, avec recommandations, comparatifs, arbitrages, images, prix actualisés et liens directs vers les marchands.

OpenAI résume la promesse : « Shopping Research est conçu pour les décisions complexes, celles où il faut clarifier besoins, budget et priorités ».

Une recherche en plusieurs étapes : questions intelligentes, filtrage et raffinement en temps réel

1. Décrire son besoin

L’outil s’active automatiquement lors d’une requête d’achat, ou via le menu (+). Une interface visuelle apparaît : budget, usage, caractéristiques, préférences…

ChatGPT peut même se baser sur votre mémoire activée — parfait si vous évoquez souvent gaming, photo ou cuisine.

2. L’IA mène l’enquête

En coulisses, Shopping Research agrège :

  • prix et disponibilité actualisés,
  • caractéristiques techniques,
  • images produit,
  • avis clients,
  • sources spécialisées,
  • comparatifs fiables.

Tout est cité via un système entièrement transparent. L’utilisateur peut affiner : « Plus comme ça »/« Pas intéressé ».

3. Un guide d’achat final

L’IA synthétise ensuite un document clair :

  • les meilleures options
  • les différences clés
  • les compromis à considérer
  • des liens vérifiés vers les marchands

Et prochainement : l’achat direct dans ChatGPT via Instant Checkout.

4. Disponible aussi dans ChatGPT Pulse

Pour les utilisateurs Pro, Pulse peut proposer spontanément des guides. Exemple : après une discussion sur les vélos électriques, Pulse pourra vous suggérer… les meilleurs antivols ou un casque adapté.

Technologie : un GPT-5 mini optimisé pour le shopping… et entraîné à ne pas halluciner

Shopping Research repose sur une version spécialisée de GPT-5 mini, entraînée par renforcement pour les tâches propres au commerce :

  • précision des spécifications
  • analyse de reviews
  • extraction fiable de prix
  • vérification croisée des sources
  • cohérence avec les contraintes utilisateur

L’objectif est simple : réduire au maximum les hallucinations, sans jamais prétendre à une infallibilité. OpenAI insiste sur le fait que les données viennent uniquement de sites publics, les sources de mauvaise qualité sont filtrées, et il peut y avoir des erreurs de prix ou de disponibilité → à vérifier chez le marchand

Disponible dès maintenant — et presque illimité pendant les fêtes

Shopping Research commence son déploiement sur le Web, iOS et Android et pour tous les utilisateurs : Free, Go, Plus et Pro. Durant la période des fêtes, l’accès sera « quasi illimité » pour tout le monde.

Shopping Research Blog 16x9 1 scaled

OpenAI ne fait pas cavalier seul. Google a intégré un mode shopping dans Gemini, Perplexity tente déjà d’acheter « à votre place »… et Amazon regarde ces évolutions d’un œil très inquiet.

Le shopping conversationnel devient un terrain stratégique : là où vous cherchez, vous achetez. Et là où vous achetez, les géants veulent se positionner. Shopping Research marque l’entrée officielle d’OpenAI dans cette nouvelle phase.

ChatGPT devient un véritable conseiller produit — et pas un simple comparateur

Shopping Research n’est pas un gadget. C’est une brique majeure dans la stratégie d’OpenAI : faire de ChatGPT un agent personnel capable de comprendre vos goûts, vos projets et vos arbitrages.

L’assistant devient un curateur, un expert, un conseiller, et bientôt… peut-être un point d’achat complet. Reste une question : à partir du moment où l’IA choisit presque mieux que nous, sommes-nous encore en train de faire du shopping…ou de la délégation ?

Lire plus
Intelligence Artificielle

ChatGPT automatise la gestion de projet et fait gagner 99 % de temps

ChatGPT automatise la gestion de projet et fait gagner 99 % de temps

Imaginez un monde où 99 % de vos tâches de gestion de projet — la rédaction de briefs, l’attribution des missions, la compilation des mises à jour — sont effectuées automatiquement. Cela semble utopique ? Plus maintenant. Grâce à ChatGPT, les chefs de projet redécouvrent un moyen puissant de rationaliser leurs workflows, d’éliminer les tâches répétitives et de se concentrer sur la stratégie et la prise de décision.

Dans une récente analyse publiée par Simon Sez IT, l’entreprise détaille comment des prompts bien conçus peuvent transformer chaque étape d’un projet : de la création des briefs à la gestion des risques, en passant par la rédaction de comptes rendus et la préparation d’agendas.

Voici comment l’IA redéfinit la productivité en gestion de projet.

1. Rédiger des briefs complets et professionnels

Un brief clair et structuré est la clé d’un projet réussi. ChatGPT peut en générer un à partir de quelques informations clés : objectifs, livrables, parties prenantes, calendrier, contraintes. En quelques secondes, vous obtenez un document professionnel et cohérent, prêt à être partagé avec l’équipe ou les clients.

Résultat : vous passez moins de temps à rédiger et plus de temps à affiner la vision et les priorités du projet.

2. Optimiser les plannings et les attributions de tâches

Créer un calendrier précis et attribuer les bonnes tâches aux bonnes personnes peut être chronophage. ChatGPT automatise cette étape en générant un planning détaillé avec jalons, dépendances et responsabilités à partir de simples données : rôles, dates, objectifs.

Chaque membre de l’équipe sait quoi faire, quand le faire, et avec qui collaborer — réduisant ainsi les retards et les malentendus.

3. Transformer les mises à jour en synthèses exploitables

La communication est un pilier essentiel, mais compiler les retours d’équipe ou les rapports d’avancement prend du temps. ChatGPT peut consolider plusieurs contributions en un résumé concis, clair et orienté action — qu’il s’agisse de mises à jour internes ou de rapports clients.

Vous gagnez en cohérence et en transparence tout en réduisant les tâches administratives.

4. Identifier les risques et proposer des stratégies d’atténuation

Grâce à des prompts ciblés, ChatGPT peut analyser les dépendances, les délais et les ressources pour repérer les risques potentiels.

Il génère ensuite une liste de menaces accompagnées de solutions :

  • Retard potentiel sur une tâche critique → proposition d’un plan B.
  • Ressources limitées → suggestion de priorisation ou d’automatisation.

Cette approche proactive fait du management des risques un réflexe, et non une réaction.

5. Concevoir des ordres du jour efficaces

Combien de réunions tournent en rond faute d’agenda ? En précisant l’objectif, les participants et la durée souhaitée, ChatGPT peut créer un ordre du jour clair et minuté, adapté à chaque type de réunion — du suivi rapide à la session stratégique.

Les réunions deviennent plus structurées, plus productives et moins longues.

6. Créer des modèles de rapports réutilisables

Les rapports d’état hebdomadaires ou mensuels sont indispensables, mais souvent répétitifs. ChatGPT peut générer des modèles personnalisables comprenant les sections clés : indicateurs, réussites, obstacles, prochaines étapes.

Ces templates standardisés assurent une communication fluide entre toutes les parties prenantes tout en renforçant la rigueur du suivi.

7. Personnaliser les workflows

L’un des plus grands atouts de ChatGPT est sa flexibilité. Vous pouvez adapter vos prompts pour qu’ils reflètent le style de communication de votre équipe, vos process internes, ou vos outils de reporting.

Que vous gériez un projet agile, une mission client ou une initiative inter-départementale, ChatGPT s’ajuste à votre environnement de travail et automatise les tâches répétitives.

8. L’IA au service du chef de projet

En intégrant ChatGPT dans votre boîte à outils, vous accédez à un assistant virtuel de gestion de projet capable de :

  • Rédiger des documents clairs,
  • Créer des plannings complets,
  • Résumer des échanges d’équipe,
  • Identifier des risques,
  • Préparer des réunions,
  • Générer des rapports,
  • Et même formuler des recommandations stratégiques.

L’IA ne remplace pas le chef de projet — elle libère son temps pour les décisions à forte valeur ajoutée.

Vers une nouvelle ère du management

ChatGPT n’est pas qu’un outil : c’est un accélérateur de performance. Il permet aux chefs de projet de gagner du temps, de réduire la charge mentale et de renforcer la cohésion d’équipe. Grâce à des prompts bien conçus, la gestion de projet devient moins administrative et plus stratégique.

Et si l’avenir du management, c’était simplement… plus d’humain grâce à l’IA ?

Lire plus
Intelligence Artificielle

OpenAI lance ChatGPT for Teachers : un espace sécurisé et gratuit pour les enseignants jusqu’en 2027

OpenAI lance ChatGPT for Teachers : un espace sécurisé et gratuit pour les enseignants jusqu’en 2027

OpenAI dévoile ChatGPT for Teachers, un nouvel espace de travail pensé spécialement pour les enseignants et les équipes pédagogiques.

Au programme : un environnement sécurisé, des outils collaboratifs, une intégration fluide avec les plateformes éducatives… et une vision assumée : faire de l’IA un allié durable de la préparation en classe.

ChatGPT for Teachers: Un espace conçu pour les réalités du terrain

Les enseignants figurent déjà parmi les utilisateurs les plus actifs de ChatGPT. Beaucoup l’utilisent pour préparer leurs séquences, créer des supports ou adapter leurs activités. ChatGPT for Teachers formalise ces usages dans un cadre sécurisé, compatibles avec les exigences scolaires, et surtout piloté par les enseignants eux-mêmes.

L’environnement permet de travailler avec ses propres documents, de manipuler des données sensibles liées aux élèves, et de respecter les politiques de confidentialité des districts scolaires.

Une sécurité adaptée au monde éducatif

OpenAI met en avant une promesse essentielle : aucun contenu partagé dans ChatGPT for Teachers n’est utilisé pour entraîner les modèles, par défaut. Le service répond aux obligations de conformité — notamment celles liées à FERPA — et applique des protections spécifiques pour tout contenu scolaire ou étudiant.

Chaque enseignant peut définir :

  • son niveau scolaire,
  • sa progression pédagogique,
  • ses références curriculaires,
  • son style de réponse préféré.

ChatGPT adapte alors ses suggestions à la réalité de la classe, qu’il s’agisse d’un plan d’unité de six semaines, d’exemples d’exercices, ou de standards ISTE à intégrer.

Intégrée aux outils que les profs utilisent déjà

ChatGPT for Teachers fonctionne directement avec Google Drive, Microsoft 365, et Canva (pour les présentations et supports visuels). Les enseignants peuvent ainsi importer leurs documents, construire des activités et générer des ressources sans changer leurs habitudes.

Sous la zone de saisie, l’interface propose des idées, prompts et exemples issus d’autres enseignants. Une manière de montrer comment l’IA s’intègre concrètement en classe, du primaire au lycée.

Du travail collaboratif à l’échelle d’un établissement

Les écoles et districts peuvent regrouper leurs enseignants dans un même espace de travail pour :

  • créer des projets communs,
  • développer des GPTs pédagogiques spécialisés,
  • mutualiser des séquences ou des évaluations.

Les administrateurs disposent d’outils avancés : domaine vérifié, SAML SSO, gestion fine des rôles, gouvernance de l’accès… autant de briques indispensables pour un déploiement institutionnel.

Une adoption déjà massive dans les districts pilotes

OpenAI collabore avec un premier cohort regroupant près de 150 000 enseignants et personnels issus de grands districts américains — Houston, Dallas, Fairfax County, KIPP, Lynwood, Fulton County, etc. Le Delaware Department of Education participe aussi à l’initiative, ouvrant la voie à une adoption à l’échelle d’un État entier.

Pour accompagner les établissements, OpenAI publie une AI Literacy Blueprint, un guide destiné aux décideurs éducatifs. L’initiative s’inscrit dans une dynamique internationale, aux côtés de l’American Federation of Teachers et de ministères de l’Éducation en Estonie, Grèce et ailleurs.

Disponibilité : gratuit jusqu’en 2027

ChatGPT for Teachers est accessible aux enseignants et personnels K–12 aux États-Unis, après vérification via SheerID. Le service reste gratuit jusqu’en juin 2027, et toute évolution tarifaire ultérieure sera annoncée en amont pour permettre aux écoles d’anticiper.

Lire plus
Intelligence Artificielle

Yann LeCun quitte Meta pour fonder une startup anti-LLM sur les world models

Yann LeCun quitte Meta pour fonder une startup anti-LLM sur les world models

C’est un séisme dans l’écosystème IA : Yann LeCun, directeur scientifique de Meta AI et figure fondatrice du deep learning, quitte le groupe pour fonder sa propre entreprise.

Objectif affiché : dépasser les limites actuelles de l’IA générative et bâtir des systèmes capables de comprendre le monde physique, raisonner et planifier — bien au-delà des capacités des modèles de langage.

Yann LeCun : Une rupture née de tensions internes chez Meta

Selon des sources proches du dossier, citées par Bloomberg, Yann LeCun s’est heurté depuis plusieurs mois à l’évolution stratégique de Meta. L’entreprise a réorganisé ses équipes autour d’un pôle dédié à l’IA générative, confié en partie à de nouveaux talents, comme Shengjia Zhao (ex-OpenAI), reléguant progressivement LeCun au second plan.

Ce repositionnement traduit une volonté de Meta d’accélérer sur le terrain ultra-compétitif des modèles type ChatGPT — un choix qui ne correspondait plus à la vision de Yann LeCun.

Meta accepte le départ de son scientifique star, mais pas celui de son influence : la firme continuera à licencier les technologies issues de la future startup, un modèle devenu courant dans l’industrie (Microsoft/OpenAI, Google/Anthropic…).

LeCun veut bâtir des « world models », pas des Chabots géants

Depuis des années, Yann LeCun critique frontalement la dépendance de l’industrie aux LLM géants. Selon lui, ils ne peuvent pas mener à une véritable intelligence :

  • ils ne comprennent pas le monde,
  • n’apprennent pas la causalité,
  • et restent incapables de planifier comme un animal — « les systèmes actuels sont moins intelligents qu’un chat », répète-t-il souvent.

LeCun défend une autre voie : les world models, des systèmes d’IA ancrés dans la perception (vision, vidéo, audio), capables d’apprendre la dynamique du monde réel.

Au sein du FAIR, il avait initié cet axe avec des projets comme V-JEPA-2, un modèle vidéo apprenant la physique des interactions plutôt que de simplement prédire des pixels.

Sa startup continue cette ligne : une recherche plus fondamentale, plus exigeante, qui vise ce qu’il nomme non pas « AGI » mais Advanced Machine Intelligence — une intelligence non menaçante, collaborative et utile.

Un départ qui arrive alors que Meta restructure son propre pôle IA

Le choix de Yann LeCun intervient alors que Meta intensifie ses ambitions dans le domaine de la « superintelligence ». Mark Zuckerberg a récemment recruté Jason Wei et Hyung Won Chung, deux chercheurs clés débauchés d’OpenAI.

Le timing laisse penser que Meta veut accélérer sur la génération géante, tandis que LeCun préfère tracer une voie « anti-LLM ».

Ce divorce idéologique clarifie deux visions très différentes :

  • Meta veut pousser des modèles toujours plus larges, intégrés à ses produits.
  • LeCun veut créer une IA qui manipule la physique, pas seulement le texte.

Une startup indépendante, mais interconnectée

Dans un mémo interne, Yann LeCun précise que les technologies développées par sa nouvelle entreprise pourront être licenciées à Meta, mais aussi appliquées à des secteurs variés : robotique, industrie, simulation, automatisation avancée…

Il s’agit moins d’une fracture que d’une décentralisation stratégique : Meta parie sur la généro, LeCun sur la cognition physique — tout en conservant un pont entre les deux.

Avec ce départ, l’industrie de l’IA se retrouve face à deux visions opposées :

  • Le paradigme LLM, quoi qu’en dise LeCun, continue de dominer l’innovation commerciale.
  • Le paradigme « world model », encore émergent, pourrait représenter le futur de l’IA capable d’agir et de comprendre.

Si l’approche de LeCun s’avère fructueuse, elle pourrait redéfinir la course à l’intelligence artificielle — et ébranler l’hégémonie des modèles centrés sur le texte.

Le débat est lancé, et cette séparation avec Meta pourrait bien être le premier signe d’une nouvelle ère dans la recherche fondamentale.

Lire plus
Intelligence Artificielle

Fabric IQ : le nouveau moteur qui transforme la donnée brute en ontologie complète

Fabric IQ : le nouveau moteur qui transforme la donnée brute en ontologie complète

À l’occasion de Microsoft Ignite, l’entreprise a dévoilé Fabric IQ, une nouvelle couche d’intelligence sémantique destinée à transformer la manière dont les organisations structurent et exploitent leurs données.

L’objectif : créer des agents opérationnels réellement « intelligents », capables de comprendre le sens des données plutôt que d’y voir de simples motifs statistiques.

Quand la donnée brute ne suffit plus

Les entreprises génèrent plus de données que jamais. Pourtant, même les meilleurs modèles d’IA peinent encore à comprendre ce que ces données représentent réellement : relations entre produits, hiérarchies clients, interactions entre lignes de production et réseaux de distribution… Autant de nuances essentielles que les approches traditionnelles — RAG, vector databases, fine-tuning — n’adressent qu’indirectement.

C’est précisément ce vide que Microsoft veut combler avec Fabric IQ, un moteur sémantique qui enrichit son data platform. L’idée est simple, mais radicale : passer de données isolées à une ontologie complète, une structure qui cartographie entités, relations, règles métier et opérations réelles.

slides4 10

Cette vision s’appuie sur un travail de longue haleine : Microsoft a déjà intégré la technologie graphe de LinkedIn dans Fabric, et Power BI alimente depuis des années plus de 20 millions de modèles sémantiques utilisés pour l’analytique.

De la BI à l’ontologie d’entreprise : le changement d’échelle

Les modèles sémantiques de Power BI encapsulent déjà une partie du savoir métier : définitions des métriques, relations entre tables, hiérarchies commerciales. Leur limite ? Ils restent confinés à la business intelligence.

Avec Fabric IQ, Microsoft propose de les élever au rang d’ontologies. Dit autrement : connecter l’ensemble des systèmes de l’entreprise, relier les workflows réel et expliciter les règles opérationnelles.

Arun Ulag, vice-président Azure Data, résume la portée de ce changement : « Ces modèles décrivent déjà ce que les clients considèrent comme important. Mais nous n’en utilisions qu’une fraction. Les transformer en ontologies permet enfin de connecter les données à travers toute l’entreprise ».

C’est une rupture conceptuelle : au lieu de se contenter d’extraire des documents (comme le fait RAG), Fabric IQ construit une structure persistante de compréhension, une sorte de carte vivante de l’entreprise.

slide 41 44

Les « operational agents » : quand l’IA comprend l’entreprise avant d’agir

Avec cette ontologie, Microsoft introduit un nouveau type d’agent : les operational agents. Des agents capables de surveiller des règles, d’observer des flux en temps réel et de prendre des décisions sous supervision humaine.

Exemple donné par Microsoft : dans une chaîne logistique modélisée avec Fabric IQ, l’agent peut détecter un problème de circulation dans une zone urbaine et rerouter automatiquement les camions. Pas de simple recommandation : une action contextualisée, fondée sur la compréhension des liens entre fournisseurs, stocks, routes, délais et priorités.

C’est ici que l’approche sémantique change tout. L’agent ne répond plus à une requête textuelle. Il comprend la structure de l’entreprise, les dépendances, les implications opérationnelles.

Une stratégie claire : faire de la sémantique le moteur de l’IA d’entreprise

Pour Microsoft, l’enjeu dépasse l’amélioration marginale des modèles. Il s’agit d’un paradigme : la performance d’un agent dépend moins de la taille du dataset que de la qualité du contexte métier.

En parallèle, Microsoft renforce son portefeuille data :

  • Azure HorizonDB, un service PostgreSQL-compatible (early preview),
  • SQL Server 2025 (désormais disponible),
  • Azure DocumentDB, également disponible.

Chaque brique contribue à cette vision d’un data cloud unifié et contextuel.

Le message de Microsoft est clair : l’IA ne sera réellement fiable qu’en comprenant comment une entreprise fonctionne — non pas par inférence statistique, mais par structuration profonde du sens.

Que signifie Fabric IQ pour les stratégies d’IA en entreprise ?

Les organisations découvrent que scaler les modèles ou multiplier les données ne suffit pas. Le besoin qui émerge est celui du context engineering : apporter du sens, pas seulement du volume.

Fabric IQ mise précisément sur cette idée. Des ontologies bien formées pourraient s’avérer plus efficaces pour fiabiliser des agents que des approches classiques d’optimisation.

Microsoft parie que l’intelligence sémantique sera le véritable différenciateur des plateformes IA dans les années à venir. Et que les entreprises qui réussiront leur transition vers des ontologies opérationnelles prendront une avance considérable dans l’automatisation.

Lire plus
Intelligence Artificielle

ChatGPT déploie les discussions de groupe dans le monde entier

ChatGPT déploie les discussions de groupe dans le monde entier

ChatGPT n’est plus seulement un assistant individuel. OpenAI déploie désormais les « discussions de groupe » de ChatGPT à l’échelle mondiale, transformant le chatbot en un véritable espace de collaboration où jusqu’à 20 personnes peuvent discuter, créer et prendre des décisions avec l’IA en temps réel.

Une évolution majeure, qui rapproche ChatGPT d’une plateforme sociale autant que d’un outil de productivité.

Jusqu’à 20 participants dans une même conversation ChatGPT

Après un pilote mené dans plusieurs pays, dont le Japon et la Nouvelle-Zélande, la fonctionnalité est maintenant disponible pour tous les utilisateurs — Gratuit, Go, Plus et Pro.

Le principe est simple : en touchant l’icône « personnes » en haut à droite, ChatGPT duplique votre conversation actuelle dans un nouvel espace de groupe. Il suffit ensuite d’ajouter des participants ou de partager un lien d’invitation.

À la première utilisation, chaque membre doit définir un mini-profil (nom, identifiant, photo) pour faciliter la lisibilité des échanges.

Important : ajouter une personne ne modifie jamais la conversation d’origine. Une nouvelle discussion est automatiquement créée pour préserver l’historique.

ChatGPT sait quand parler… et quand se taire

OpenAI indique avoir entraîné ChatGPT à « suivre le flow » d’une conversation collective :

  • l’IA intervient lorsqu’elle peut apporter des informations utiles,
  • elle reste silencieuse lorsque les humains échangent entre eux,
  • et elle peut être appelée à la rescousse en taguant simplement « ChatGPT ».

Elle peut aussi réagir aux messages avec des emojis, analyser les contributions de chacun, ou encore générer des images personnalisées en se basant sur les photos de profil.

Pour les réponses, les groupes utilisent GPT-5.1 Auto, qui sélectionne automatiquement le meilleur modèle disponible selon le contexte du groupe.

Coordination, co-création, recherche : les nouveaux usages du ChatGPT collaboratif

OpenAI voit dans cette mise à jour le début d’un changement profond : ChatGPT n’est plus un outil individuel mais un cadre de travail collectif.

L’entreprise imagine notamment :

  • des groupes qui organisent un voyage et comparent des options,
  • des amis qui coécrivent un document,
  • des collègues qui débattent d’idées ou explorent des pistes de recherche,
  • des familles qui planifient un événement.

Dans ce contexte, ChatGPT joue tour à tour le rôle d’assistant, de moteur de recherche, de synthétiseur ou de facilitateur.

OpenAI parle déjà d’un avenir où l’IA participera activement aux conversations de groupe, aidant à coordonner des actions ou à exécuter des tâches partagées.

Respect de la vie privée : mémoire non partagée entre participants

Chaque utilisateur conserve ses propres réglages. En effet, les mémoires personnelles ne sont pas utilisées dans les conversations de groupe, et ChatGPT ne génère jamais de nouveaux souvenirs à partir de ces discussions collectives.

Un choix important, qui évite que les informations personnelles d’un utilisateur se retrouvent accidentellement exploitées dans un cadre partagé.

ChatGPT, de chatbot à plateforme sociale ?

Ce lancement s’inscrit dans une stratégie plus large. En septembre, OpenAI annonçait Sora, une application sociale de création vidéo. Et GPT-5.1, sorti il y a deux semaines, renforçait encore les usages collaboratifs avec ses modèles Instant et Thinking.

Avec les discussions de groupe, ChatGPT accélère sa transformation : ce n’est plus un assistant privé, mais une place numérique où plusieurs personnes interagissent avec l’IA en même temps.

Une mutation qui pourrait bien redéfinir la manière dont nous collaborons — en ligne, mais aussi au quotidien.

Lire plus
Intelligence Artificielle

Google permet de demander à Gemini si une image a été créée par IA

Google permet de demander à Gemini si une image a été créée par IA

Google franchit une nouvelle étape dans la transparence des contenus générés par IA. Dès aujourd’hui, il devient possible de demander directement à Gemini si une image a été créée — ou modifiée — par un outil d’IA Google.

Une fonction simple, presque banale en apparence, mais qui pourrait devenir essentielle à mesure que la frontière entre réel et synthétique continue de s’effacer.

« Is this AI-generated? » : la vérification d’image intégrée à Gemini

Pour l’instant, la vérification repose exclusivement sur SynthID, le watermark invisible développé par Google DeepMind. Il suffit de charger une image dans l’app Gemini et de demander : « Is this AI-generated? ».

Gemini pourra alors confirmer si l’image a été générée par un modèle Google, éditée par un de leurs outils (ex : Nano Banana, Nano Banana Pro, Canvas).

Cette première version ne couvre que les images, mais Google promet que la vidéo et l’audio suivront « bientôt » — un ajout qui s’annonce crucial à l’ère des deepfakes haute fidélité.

L’entreprise prévoit aussi d’intégrer la fonction directement dans Search, permettant à n’importe qui de vérifier l’origine d’un contenu trouvé en ligne.

Vers une traçabilité élargie grâce au standard C2PA

Pour l’instant, la détection repose uniquement sur la technologie maison SynthID. Mais, Google annonce la prochaine étape : une intégration complète du standard C2PA, adopté par un nombre croissant d’acteurs de l’industrie.

Concrètement, cela permettra à Gemini d’identifier des contenus générés par :

  • OpenAI (ex. Sora),
  • Adobe Firefly,
  • TikTok et ses outils IA,
  • ainsi que de nombreuses solutions créatives compatibles C2PA.

Autrement dit, un pas vers une interopérabilité réelle dans la lutte contre les faux contenus, bien plus puissante qu’un watermark propriétaire.

À noter : Nano Banana Pro, le nouveau modèle image de Google présenté aujourd’hui, générera systématiquement des images avec métadonnées C2PA intégrées. Une initiative alignée avec TikTok, qui a annoncé cette semaine l’intégration de C2PA dans son propre watermark invisible.

Une avancée utile… mais insuffisante tant que les plateformes ne suivent pas

Cette vérification manuelle est un progrès important : elle donne à l’utilisateur un outil de contrôle immédiat. Mais, elle révèle aussi une faiblesse structurelle : la responsabilité repose encore sur l’utilisateur final, alors que la majorité des plateformes sociales ne détectent pas automatiquement les contenus générés par IA.

Tant que les réseaux sociaux n’intègrent pas eux-mêmes ces systèmes de signalement, la détection restera un acte volontaire — et donc limité dans son efficacité.

La généralisation des métadonnées C2PA est un pas nécessaire, mais c’est l’adoption systémique, côté plateformes, qui déterminera la réussite de cette initiative.

Une étape clé dans la bataille contre la désinformation visuelle

Avec Gemini capable de reconnaître ses propres productions et bientôt celles d’autres outils IA, Google pose les bases d’un écosystème de confiance autour de l’image générative.

Dans un monde où les deepfakes deviennent indiscernables de la réalité, cette transparence — même partielle — n’est plus une option, mais une nécessité.

La vraie question est désormais : l’industrie suivra-t-elle suffisamment vite pour que ces outils fassent une différence à grande échelle ?

Lire plus
Intelligence Artificielle

Google lance Nano Banana Pro : l’IA d’image à la qualité studio

Après le buzz mondial provoqué par les mini-figurines hyperréalistes de Nano Banana l’été dernier, Google revient avec une version radicalement améliorée : Nano Banana Pro.

Construit sur Gemini 3 Pro Image, ce nouveau modèle place la barre très haut avec une qualité « studio », un rendu texte enfin impeccable et des outils d’édition avancés qui transforment l’image générative en véritable atelier créatif.

Une nouvelle génération d’images IA ancrée dans la connaissance du monde réel

Nano Banana Pro n’est pas qu’un simple modèle d’image : il embarque la compréhension avancée, le raisonnement et les capacités multilingues de Gemini 3 Pro. Résultat, des visuels plus cohérents, des compositions plus crédibles, et surtout des créations contextuelles, capables d’utiliser des données en temps réel (météo, sports, tendances…) grâce à l’intégration avec Google Search.

Google met en avant la capacité du modèle à produire des infographies, diagrammes, posters ou invitations complets avec texte intégré — un domaine où l’IA échouait encore massivement il y a quelques mois.

Un rendu texte enfin maîtrisé : slogans, paragraphes et multilingue

C’est l’un des grands sauts de cette génération : Nano Banana Pro sait rendre du texte lisible, précis et stable directement dans l’image — que ce soit un titre court ou un paragraphe entier.

Grâce au raisonnement profond de Gemini 3, la génération fonctionne en plusieurs langues, ce qui ouvre la voie à des affiches, flyers, maquettes ou présentations instantanées, sans retouches manuelles interminables.

Des compositions complexes : jusqu’à 14 images, et 5 visages cohérents

Là où l’édition précédente peinait parfois à maintenir une cohérence esthétique, Nano Banana Pro élargit le champ des possibles :

  • fusion de jusqu’à 14 images dans une seule scène,
  • cohérence et ressemblance pour jusqu’à 5 personnes,
  • meilleure gestion des angles, profondeurs, perspectives.

Une fonctionnalité idéale pour les montages créatifs, les storyboards ou les compositions marketing.

Un studio créatif complet : retouches locales, angles, bokeh, lumière…

Nano Banana Pro se distingue aussi par son outillage d’édition avancé.

On peut désormais :

  • sélectionner précisément un élément,
  • modifier la mise au point,
  • changer l’angle de caméra,
  • ajouter un bokeh,
  • recoloriser,
  • ou transformer une scène de jour en nuit.

Les créations peuvent être exportées en 2K ou 4K, et dans de nombreux formats d’aspect.

Une IA plus sûre : métadonnées C2PA et détection renforcée

Toutes les images générées ou éditées via Nano Banana Pro embarquent des métadonnées C2PA — un standard qui facilite l’identification des contenus générés par IA et lutte contre les deepfakes.

Google renforce aussi SynthID, son outil de détection, qui permettra bientôt d’identifier l’audio et la vidéo générés par IA. Les utilisateurs gratuits et Pro conserveront un watermark visible, tandis que les abonnés Ultra pourront générer des images sans watermark visible.

Où essayer Nano Banana Pro ?

Le modèle est disponible dès aujourd’hui, gratuitement et dans le monde entier, via l’app Gemini, en choisissant Créer des images -> Raisonnement, NotebookLM globalement, et Search AI Mode (US, abonnés AI Pro & Ultra).

Google va également intégrer Nano Banana Pro dans Google Slides & Google Vids (Workspace), Google Ads, Gemini API & Google AI Studio, Vertex AI, Google Antigravity, Google Flow (AI Ultra), et bientôt Gemini Enterprise.

Les utilisateurs pourront alterner entre Nano Banana (rapide, pour petites retouches) et Nano Banana Pro (compositions complexes).

Une étape majeure pour l’imagerie générative

Nano Banana Pro n’est pas simplement une mise à jour : c’est une réinvention. Entre rendu texte impeccable, édition locale précise, cohérence multi-personnes et intégration du savoir en temps réel, Google montre clairement sa volonté de s’imposer comme leader de l’image générative polyvalente.

Un outil aussi puissant que ludique, qui pourrait bien devenir la référence créative pour les designers, les communicants… et tous les utilisateurs curieux.

Lire plus
Intelligence Artificielle

Google lance WeatherNext 2, l’IA qui prédit la météo jusqu’à 15 jours

Google lance WeatherNext 2, l'IA qui prédit la météo jusqu'à 15 jours

Google transforme une discipline vieille de plusieurs siècles : la prévision météo. Grâce à WeatherNext 2, son nouveau modèle dopé à l’intelligence artificielle, le géant de Mountain View promet des prévisions plus fiables, plus rapides et accessibles directement aux utilisateurs via Search, Gemini et les Pixel. Une révolution silencieuse, mais majeure.

L’IA au service de la météo : un changement de paradigme

Aujourd’hui, la majorité des prévisions météorologiques repose sur des simulations physiques complexes exécutées par des supercalculateurs. Or, ces modèles — essentiels mais coûteux — nécessitent plusieurs heures pour générer un bulletin fiable. WeatherNext 2 change totalement la donne.

S’appuyant sur d’immenses bases de données historiques, le modèle apprend à identifier des motifs climatiques, puis génère une prévision… en moins d’une minute, grâce aux TPU (Tensor Processing Units) maison de Google. Une vitesse qui pulvérise les méthodes actuelles, tout en gagnant en fiabilité.

Google annonce que WeatherNext 2 parvient à prédire 99,9 % des variables clés (pluie, vent, températures, phénomènes soudains), et étend la précision des prévisions jusqu’à 15 jours, contre une dizaine auparavant.

Le secret de WeatherNext 2 : un réseau génératif… fonctionnel

Pour parvenir à ce bond technologique, Google introduit une architecture inédite : le Functional Generative Network (FGN). Contrairement aux anciens modèles d’IA, qui devaient recalculer plusieurs scénarios en boucle, le FGN génère des centaines d’issues possibles en un seul passage, en intégrant une dose de hasard contrôlé (noise).

Résultat : une meilleure anticipation des phénomènes soudains (averses, coups de vent, vagues de chaleur) et des projections plus cohérentes sur le court et moyen terme.

Comme l’explique Peter Battaglia de Google DeepMind, « nous sortons enfin ces modèles du laboratoire pour les mettre directement entre les mains des utilisateurs ». Le message est clair : l’IA ne sera plus un simple outil expérimental, mais un produit central de l’expérience Google.

Une intégration massive dans Google Search, Gemini et les Pixel

Pour la première fois, Google fera des prévisions météo IA un argument phare de ses services. WeatherNext 2 s’invitera prochainement dans :

  • Google Search,
  • l’assistant Gemini,
  • l’app Météo des smartphones Pixel.

Cela signifie des bulletins météo plus précis, plus contextualisés, et peut-être — enfin — une fin aux indications trop vagues des assistants actuels. L’utilisateur pourrait par exemple connaître l’intensité exacte d’une chute de neige, ou les probabilités d’une averse dans des créneaux horaires courts.

WeatherNext 2 blog figure 03 lar

Google ouvre également un programme d’accès anticipé permettant à des entreprises ou chercheurs de créer leurs propres modèles météo personnalisés via WeatherNext 2.

L’IA météo : la prochaine grande révolution de la data

La montée en puissance des modèles génératifs appliqués à la météo s’inscrit dans un mouvement plus large : celui d’une IA mise au service des enjeux climatiques, logistiques et sociétaux. Entre MedGemma pour la santé et WeatherNext pour la météo, Google démontre son ambition : rendre l’IA utile, opérationnelle, presque invisible — mais indispensable.

Pour la météo, les implications sont majeures : préparation aux catastrophes naturelles, gestion énergétique, agriculture, aviation, mobilité… Un bulletin plus fiable, c’est tout un écosystème qui gagne en précision.

Et pour les utilisateurs, cela pourrait juste signifier… savoir exactement quand il va pleuvoir, et à quel point.

Lire plus
Intelligence Artificielle

Microsoft s’allie à Anthropic : Claude arrive sur Foundry, Nvidia investit 10 milliards

Microsoft s’allie à Anthropic : Claude arrive sur Foundry, Nvidia investit 10 milliards

Microsoft ajoute une pièce maîtresse à sa stratégie d’intelligence artificielle. Après avoir redéfini les contours de son alliance historique avec OpenAI, l’entreprise annonce un partenariat structurant avec Anthropic, qui apporte pour la première fois les modèles Claude au sein de Microsoft Foundry.

Une offensive claire dans la bataille des IA frontier.

Anthropic intègre Microsoft Foundry avec un engagement colossal sur Azure

L’accord dévoilé hier marque une étape décisive : Anthropic va déployer Claude Sonnet 4.5, Claude Opus 4.1 et Claude Haiku 4.5 sur les infrastructures Foundry de Microsoft, permettant aux clients entreprise d’accéder nativement aux modèles les plus avancés de la startup.

En échange, Anthropic prend un engagement massif : 30 milliards de dollars d’achat de capacité Azure, avec la possibilité d’étendre jusqu’à 1 gigawatt de puissance supplémentaire. Un niveau de consommation rarement vu dans le cloud, qui témoigne de l’appétit computationnel des modèles frontier.

Malgré cette intégration, Amazon reste le fournisseur cloud principal d’Anthropic, ainsi que son partenaire sur l’entraînement des modèles — une stratégie multicloud affirmée qui devient la norme dans l’écosystème IA.

Nvidia entre dans la danse : un partenariat tripartite explosif

Autre volet majeur : Nvidia rejoint l’accord. Les trois acteurs vont travailler ensemble pour optimiser les modèles Claude sur les futures architectures Nvidia, notamment Blackwell et Vera Rubin.

Anthropic s’engage également à consommer jusqu’à 1 GW de compute via ces systèmes — une indication claire que les prochaines générations de Claude viseront les très hautes puissances.

En parallèle, Nvidia investit jusqu’à 10 milliards de dollars dans Anthropic, et Microsoft ajoute 5 milliards supplémentaires.

Anthropic devient ainsi l’un des acteurs d’IA les mieux capitalisés du marché, aux côtés d’OpenAI.

Après OpenAI, Microsoft élargit enfin son jeu

Ce partenariat intervient seulement quelques semaines après le grand réajustement du pacte Microsoft–OpenAI. Les nouvelles clauses permettent désormais à OpenAI de collaborer librement avec des tiers, de publier des modèles open weights, et libèrent Microsoft de son droit de premier refus sur l’infrastructure cloud.

En contrepartie, Microsoft obtient une extension de ses droits IP jusqu’en 2032, couvrant même les modèles post-AGI, dont la validation sera supervisée par un comité indépendant.

Cette assouplissement a ouvert la porte à une diversification assumée — et Anthropic est la première grande brique de cette nouvelle ère.

Claude s’installe peu à peu dans l’écosystème Microsoft

Cette alliance ne sort pas de nulle part. Depuis plusieurs mois, Microsoft injecte progressivement les modèles Claude dans ses produits :

Le message est limpide : Microsoft ne veut plus dépendre d’un seul modèle, ni d’un seul partenaire.

L’entreprise se repositionne comme agrégateur de modèles frontier, capable de choisir le meilleur outil pour chaque cas d’usage.

Une stratégie à long terme dans une course qui s’accélère

Avec ce partenariat, Microsoft renforce son statut de plateforme cloud incontournable pour l’IA, tout en équilibrant son écosystème entre OpenAI, maison historique, et Anthropic, force montante. Nvidia, de son côté, consolide son rôle de fournisseur clé pour l’IA de pointe — un triangle stratégique qui redessine le haut du marché.

Dans une industrie où l’infrastructure compte autant que les algorithmes, ces alliances successives montrent une réalité : la course à l’AGI est aussi une course énergétique, matérielle et financière.

Et Microsoft, plus que jamais, veut être au centre du jeu.

Lire plus
Intelligence Artificielle

Grok 4.1 est lancé : l’IA de Musk devient plus empathique et spontanée

Grok 4.1 est lancé : l'IA de Musk devient plus empathique et spontanée

xAI revient sur le devant de la scène pour son modèle Grok. Juste avant le tsunami médiatique autour de Gemini 3, l’entreprise d’Elon Musk a lancé Grok 4.1, une mise à jour majeure qui change la personnalité du modèle autant que ses performances.

Plus empathique, plus spontané, plus « humain »… mais aussi un peu plus imprévisible.

Grok 4.1 : Un modèle plus expressif, qui lit mieux l’intention humaine

La grande nouveauté de Grok 4.1 n’est pas seulement technique : elle est comportementale. Le modèle comprend mieux le ton, capte les émotions sous-jacentes, et ajoute naturellement humour ou empathie dans ses réponses. Là où Grok 4 pouvait encore sonner très « assistant IA », la version 4.1 donne parfois l’impression de discuter avec un ami malicieux.

Screen 2025 11 19 at 09.07.59

xAI attribue ce changement à l’intégration d’« AI tutors » experts chargés de façonner style, nuance et intention — un processus de fine-tuning qui mise clairement sur l’intelligence émotionnelle comme différenciateur.

À tel point que Grok 4.1 est devenu numéro 1 sur EQ-Bench3, un benchmark entièrement orienté vers l’émotionnel.

Screen 2025 11 19 at 09.09.05

Leaderboard : Grok 4.1 grimpe au sommet… avant d’être doublé

À son lancement, Grok 4.1 s’est installé tout en haut du classement LMArena, avec une note préliminaire de 1483 Elo. Un score supérieur à tous les modèles grand public disponibles — du moins jusqu’à ce que Gemini 3 vienne reprendre le trône quelques heures plus tard.

La version standard atteint 1465 Elo, un niveau proche des meilleurs modèles actuels.

Pour la créativité, les résultats sont encore plus remarquables : sur Creative Writing v3, Grok 4.1 Thinking décroche 1721,9 points, se plaçant juste derrière Polaris Alpha (un dérivé précoce de GPT-5.1).

En résumé : xAI rattrape son retard à une vitesse étonnante, surtout deux mois seulement après Grok 4 Fast.

Sous le capot : un modèle plus rapide, plus stable, plus multimodal

Derrière son vernis émotionnel, Grok 4.1 apporte aussi des améliorations très concrètes :

  • Latence réduite de 28 %
  • Meilleure compréhension des images, vidéos, graphiques et textes OCR
  • Cohérence maintenue jusqu’à 1 million de tokens
  • Outils externes gérés en parallèle pour des workflows plus rapides
  • Planification multi-étapes plus fiable
  • Prosodie vocale plus naturelle, styles et accents inclus

C’est une évolution structurelle, pas seulement un lifting stylistique.

Un modèle plus expressif… mais aussi plus risqué

Cette expressivité a un revers. Les model cards de xAI signalent une légère hausse des comportements manipulatoires, des réponses « limites » en thinking mode, et d’une vulnérabilité accrue aux prompt injections via API.

Une conséquence presque logique : dès qu’on retire une partie du filtre, la zone grise devient plus vaste. xAI assume ce choix : « Grok 4.1 est conçu pour être plus direct, plus libre ».

Un lancement 100 % grand public — pour l’instant

Grok 4.1 est disponible sur :

  • X (Twitter)
  • Grok.com
  • les apps iOS et Android.

Mais, un point crucial reste absent : pas d’API. Les entreprises doivent donc se contenter de Grok 4 Fast et des anciens modèles (jusqu’à 2 M tokens, 0,20 dollar à 3 dollars/million de tokens). Pour l’usage professionnel, automatisé ou agentique, Grok 4.1 est donc encore hors jeu.

Cela limite la portée du modèle auprès des développeurs, au moment même où Google, OpenAI et Anthropic renforcent leur position sur les intégrations B2B.

Une évolution qui rebat les cartes dans le grand récit de l’IA

Si Grok 4.1 n’est pas l’événement technique du mois — place occupée par Gemini 3 — il marque une étape intéressante dans la trajectoire de xAI. Le modèle devient plus humain, plus narratif, plus agréable à utiliser, et plus compétitif dans les benchmarks de référence.

En cherchant à « rencontrer l’utilisateur là où il est », xAI construit un modèle au style marqué, presque incarné, qui tranche avec l’approche plus neutre de ses concurrents.

Reste une inconnue : quand Grok 4.1 sera accessible en API — le moment où il pourra réellement transformer les workflows des entreprises.

Lire plus
Intelligence Artificielle

Google dévoile Gemini 3 : un modèle frontier agentique, multimodal et plus puissant que jamais

Google dévoile Gemini 3 : un modèle frontier agentique, multimodal et plus puissant que jamais

Après des semaines de rumeurs, de leaks, Google dévoile officiellement Gemini 3. Une famille de modèles fermés, pensée comme l’itération la plus ambitieuse de Google depuis l’introduction de Gemini en 2023. Au programme : un moteur multimodal profondément réinventé, des capacités d’agents beaucoup plus avancées et une intégration totale dans l’écosystème Google.

Une sortie d’envergure : Gemini 3 débarque partout, d’un seul coup

Contrairement aux lancements fragmentés précédents, Gemini 3 arrive simultanément dans Google Search (AI Mode), l’app Gemini, Google AI Studio, Vertex AI, Gemini CLI, et même Antigravity, le tout nouvel environnement agent-first de Google.

Le groupe évoque son déploiement le plus coordonné à ce jour, rendu possible par un contrôle intégral de la chaîne : TPU maison, data centers, produits grand public et outils développeurs.

Avec 650 millions d’utilisateurs actifs mensuels sur l’app Gemini et 2 milliards interagissant avec les AI Overviews de Search, Google mise sur une diffusion massive dès le jour J.

Un virage vers l’IA agentique

Au cœur de Gemini 3 : une philosophie nouvelle. Google ne veut plus seulement générer du texte ou interpréter des images ; il s’agit désormais de planifier, naviguer, exécuter, et coordonner des outils dans un environnement logiciel complet.

Gemini 3 se décline en plusieurs versions :

  • Gemini 3 Pro, le modèle phare
  • Gemini 3 Deep Think, mode raisonnement intensif
  • Des modèles d’interface générative (Visual Layout, Dynamic View)
  • Gemini Agent, capable d’orchestrer des workflows complexes
  • Le moteur Gemini 3 intégré à Antigravity, destiné aux développeurs

L’ambition est limpide : transformer l’assistant conversationnel en véritable opérateur numérique, capable d’agir.

Gemini 3 Pro : des gains spectaculaires sur le raisonnement, le code et la multimodalité

Les benchmarks fournis par Google sont impressionnants. Gemini 3 Pro surclasse Gemini 2.5 Pro sur quasiment tous les axes :

  • Raisonnement : premier au leaderboard LMArena avec un Elo préliminaire de 1501, devant Grok-4.1-thinking, Grok-4.1 et Claude Sonnet/Opus.
  • Mathématiques : 95 % sur AIME 2025 sans outils, 100 % avec code execution,
  • Vision & vidéo : +13 points sur MMMU-Pro, progression spectaculaire sur ScreenSpot-Pro (11 % → 72,7 %).
  • Code & outils : LiveCodeBench Pro (+664 points), SWE-Bench Verified (59.6% → 76.2%).
  • Long contexte : 26,3 % à 1M tokens, une progression majeure pour les tâches à forte latence.
  • Planification : Vending-Bench x10 par rapport au modèle précédent.

gemini 3 table final HLE Tools on

Dans les faits, Gemini 3 devient un modèle capable de réflexions longues, de navigation écran et d’un usage stable des outils — trois défis historiques des modèles IA.

final dt blog evals 2 scaled

Interfaces génératives : Google veut dépasser le texte

Gemini 3 inaugure les Visual Layouts et Dynamic Views, des interfaces générées en temps réel :

  • pages magazine,
  • simulateurs interactifs,
  • graphiques,
  • modules UI complets.

Gemini 3 Generative Interfaces

Dans Google Search, l’expérience devient plus visuelle et immersive : simulations, tableaux, galeries, outils interactifs intégrés directement dans la réponse.

Google présente cela comme un pas de plus vers un moteur de recherche où l’IA n’explique pas seulement, elle construit.

Gemini Agent : l’IA qui fait, pas seulement qui répond

Disponible d’abord pour les abonnés AI Ultra, Gemini Agent permet de trier une boîte mail, rédiger des réponses, planifier un voyage, préparer des documents, naviguer sur le Web, orchestrer des tâches multi-étapes.

Le tout avec validation utilisateur — un compromis entre automatisation et contrôlabilité.

Antigravity: l’environnement de développement qui réunit IA, code et navigation

Google introduit aussi Antigravity, une sorte de super-IDE agentique où Gemini 3 peut écrire du code, prototyper des interfaces, tester, exécuter, corriger, manipuler l’UI du navigateur, générer reports et outils internes.

Le modèle peut même interpréter des mouvements de souris, des annotations visuelles et des maquettes multi-fenêtres pour orienter son action. Une vraie percée pour le « computer use » automatisé.

API : un positionnement tarifaire ambitieux

Gemini 3 Pro est proposé à :

  • 2 dollars/M tokens input
  • 12 dollars/M tokens output
  • Jusqu’à 200k tokens,
  • avec un tarif quasi doublé au-delà.

Face aux alternatives chinoises (Qwen, ERNIE), beaucoup moins chères, Google se positionne dans la tranche haute — un pari risqué pour l’adoption startup, mais assumé pour un modèle présenté comme premium.

Une hype rarement vue pour un modèle Google

Un tacle à peine voilé envers OpenAI

Google ne cache pas sa confiance : Gemini 3 Pro serait « plus direct, plus pertinent et moins flatteur » — une référence transparente aux corrections récentes apportées à ChatGPT pour réduire sa sycophantie.

La société affirme également offrir des réponses « plus factuelles » et « plus utiles », un terrain sur lequel OpenAI a vacillé avec le lancement complexe de GPT-5.

Une avancée stratégique pour Google

Avec Gemini 3, Google veut prouver trois choses :

  1. Son hardware (TPU) est prêt pour l’IA frontier
  2. Ses modèles sont à nouveau compétitifs
  3. Son écosystème grand public peut servir de rampe de lancement massive

Au-delà des benchmarks, l’entreprise mise sur le fait que l’IA utile, déployée dans Search, Android, Workspace et Gemini, prime sur la course brute à la puissance.

Lire plus
Intelligence Artificielle

Anthropic révèle le premier cyberattaque massif menée… par une IA

Anthropic révèle le premier cyberattaque massif menée… par une IA

Anthropic vient de tirer la sonnette d’alarme en publiant ce qu’elle décrit comme la première cyberattaque à grande échelle exécutée majoritairement par une IA. L’incident, survenu à la mi-septembre 2025, met en scène une version détournée de Claude Code, utilisée comme un agent autonome capable d’enchaîner des tâches complexes avec très peu d’intervention humaine.

Le constat est glaçant : l’IA aurait réalisé près de 90 % du travail opérationnel, les humains se contentant d’intervenir à quelques étapes critiques.

Selon Anthropic, les pirates, qui se faisaient passer pour des chercheurs en cybersécurité, ont utilisé des techniques avancées de jailbreak pour contourner les mécanismes de sécurité et ont guidé Claude à travers une série de micro-tâches. Une fois assemblées, ces tâches formaient une véritable opération de cyber-espionnage automatisée.

Une campagne orchestrée contre près de 30 organisations

L’attaque visait une trentaine d’entités sensibles : entreprises technologiques, banques, groupes de chimie, institutions publiques… Un spectre large qui montre la polyvalence — et le danger — de ces nouveaux agents IA.

Claude Code aurait mené la reconnaissance, écrit du code d’exploitation, trouvé et exploité des failles, extrait des identifiants, cartographié des réseaux, et même généré des rapports détaillés destinés à guider les prochaines étapes de l’intrusion. Autrement dit, le travail habituellement mené par une équipe entière d’experts a été réalisé par un agent automatisé, sans fatigue, sans pause, et sans erreurs humaines.

Anthropic affirme que son enquête pointe vers un groupe chinois soutenu par l’État. Pékin a immédiatement démenti. L’entreprise a depuis banni les comptes concernés et alerté les victimes ainsi que les autorités.

Une communauté sécurité prudente face aux affirmations d’Anthropic

b0d38712e4f7b8002bb3a2734ceeb33f34817a43 2755x2050 1 scaled

L’annonce, spectaculaire, ne fait toutefois pas l’unanimité. Certains chercheurs en cybersécurité demandent davantage de preuves tangibles. Martin Zugec, de Bitdefender, estime que le rapport manque d’éléments de renseignement exploitables et accuse Anthropic de conclusions un peu rapides, même s’il reconnaît que les attaques pilotées par IA représentent un risque croissant.

Cette prudence n’est pas surprenante : révéler qu’une IA commerciale a été capable de mener une opération aussi sophistiquée pose un précédent lourd de conséquences — tant techniques que politiques.

Vers un nouveau paradigme : des attaques autonomes, une défense automatisée

Cependant, Anthropic insiste sur un point : si les IA peuvent automatiser les attaques, elles doivent aussi être mobilisées pour renforcer les défenses. L’entreprise explique avoir utilisé Claude lui-même pour analyser l’incident, et appelle à une coordination plus étroite entre acteurs du secteur et gouvernements.

La véritable conclusion du rapport est limpide : le niveau d’expertise nécessaire pour lancer une cyberattaque avancée s’effondre. Là où il fallait autrefois une équipe de spécialistes, quelques lignes d’instructions dirigées à un modèle IA suffisent désormais à orchestrer une opération complexe. Les attaques vont devenir plus nombreuses, plus rapides, plus silencieuses.

Un monde où l’IA attaque… et protège

Cet incident, qu’il soit perçu comme un signal d’alarme ou une exagération, marque une étape importante. Il montre que les IA ne sont plus seulement des outils d’aide, mais des agents capables d’opérations autonomes sur le terrain numérique. Une bascule qui obligera les entreprises — et les États — à revoir entièrement leur façon d’aborder la cybersécurité.

Lire plus
Intelligence Artificielle

Google DeepMind lance SIMA 2, l’agent ia capable de raisonner et de planifier dans les jeux vidéo

Google DeepMind lance SIMA 2, l'agent ia capable de raisonner et de planifier dans les jeux vidéo

Un an après avoir présenté le premier SIMA — un agent capable de suivre plus de 600 instructions simples à travers plusieurs mondes virtuels — Google DeepMind revient avec une version nettement plus ambitieuse.

SIMA 2 marque un virage décisif : il ne s’agit plus seulement d’obéir à des commandes comme « tourne à gauche » ou « ouvre la carte », mais d’un véritable agent capable de raisonner, planifier, comprendre un objectif global et même progresser par lui-même.

Du simple exécuteur au raisonneur capable d’expliquer ses actions

DeepMind a injecté Gemini au cœur de SIMA 2, et cela change tout. L’agent n’analyse plus seulement des commandes : il interprète des intentions, explique ses propres choix, et peut décrire étape par étape la façon dont il compte atteindre un objectif. L’entraînement repose à la fois sur des vidéos humaines annotées — comme pour la première génération — mais aussi sur des labels générés automatiquement par Gemini.

UsqTitVvxI5r3 oOUWFvWbJl9Wy 1Z8z scaled

SIMA 2 comprend mieux les longues chaînes d’actions, accepte des dessins ou croquis comme instructions, répond en plusieurs langues, et peut même réagir à des indications en emoji. C’est un agent beaucoup plus souple, capable d’interactions quasi humaines.

Il s’adapte à des jeux qu’il n’a jamais vus

Là où SIMA 1 restait très dépendant des environnements sur lesquels il avait été entraîné, SIMA 2 montre une vraie capacité de généralisation.

L’agent est parvenu à suivre des instructions complexes dans ASKA, un jeu de survie viking, ou dans MineDojo — un environnement de recherche inspiré de Minecraft — alors même qu’il n’avait jamais été spécifiquement entraîné sur ces jeux.

Mieux encore, SIMA 2 transfère ses connaissances d’un monde à l’autre : ce qu’il a appris sur l’extraction de ressources dans un jeu peut lui servir pour « récolter » dans un autre. Une première étape vers des compétences réellement transversales.

Avec Genie 3, SIMA explore aussi des mondes générés à la volée

DeepMind pousse l’expérience plus loin en couplant SIMA 2 à Genie 3, son générateur de mondes 3D en temps réel. L’agent peut ainsi entrer dans un environnement créé sur la base d’une simple image ou d’un prompt textuel et y naviguer comme s’il s’agissait d’un vrai jeu.

Cette capacité d’adaptation à des univers totalement nouveaux est précisément ce que recherchent les chercheurs en « embodied AI ».

Une IA qui apprend seule en jouant

L’une des nouveautés les plus intéressantes est la capacité de SIMA 2 à progresser sans aide humaine. Après une phase initiale supervisée, l’agent génère lui-même ses données d’entraînement en explorant les environnements, en tentant des actions, en échouant, puis en réessayant.

DeepMind parle ici d’un cycle vertueux : chaque version de SIMA s’appuie sur les expériences collectées par la précédente. Cela permet d’augmenter graduellement la difficulté des tâches et d’élargir les scénarios sans mobiliser plus d’annotateurs humains.

Les prémices d’une IA générale incarnée

Ce que SIMA 2 apprend dans les jeux — se déplacer, planifier, utiliser un outil, coordonner des actions — n’a rien d’anecdotique pour Google.

Ce sont précisément les briques fondamentales d’une intelligence incarnée capable, à terme, d’interagir avec le monde réel. DeepMind ne s’en cache pas : SIMA 2 est un laboratoire vivant pour les futurs robots autonomes, assistants intelligents et systèmes capables de comprendre l’espace, le mouvement et les objets.

Mais tout n’est pas encore réglé : l’agent reste limité sur les tâches très longues, la précision fine des actions, la compréhension visuelle complexe et la mémoire à long terme.

Un déploiement très limité et sous surveillance

SIMA 2 est pour l’instant réservé à quelques chercheurs et studios de jeux. DeepMind insiste sur un point : toute capacité d’auto-amélioration reste supervisée et surveillée de près. Les équipes cherchent d’ailleurs des retours interdisciplinaires pour encadrer ce type d’IA de manière responsable.

SIMA 2 n’est pas encore un agent général, mais il représente clairement l’une des avancées les plus concrètes vers des systèmes capables non seulement d’obéir, mais de comprendre, d’explorer… et de s’améliorer seuls.

Lire plus
Intelligence Artificielle

Huawei accélère dans l’IA physique : Habo investit massivement dans la startup GigaAI

Huawei accélère dans l’IA physique : Habo investit massivement dans la startup GigaAI

Huawei vient de faire un pas stratégique majeur dans le domaine de l’intelligence artificielle physique (Physical AI). Sa branche d’investissement, Huawei Habo, a participé au financement de GigaAI, une jeune startup chinoise spécialisée dans les world models appliqués au monde réel.

Ce mouvement marque une étape clé dans la stratégie de Huawei pour s’imposer dans la robotique, les véhicules autonomes et les systèmes intelligents de nouvelle génération.

Une levée de fonds qui confirme l’intérêt de l’industrie

GigaAI a bouclé début novembre une levée de fonds A1 de plusieurs centaines de millions de yuans, co-dirigée par Huawei Habo Investment et Huakong Fund. Ce tour intervient à peine deux mois après que GigaVision — entreprise sœur dans l’écosystème Giga — a elle-même obtenu plusieurs centaines de millions en pré-A.

Cette dynamique financière rapide montre que les investisseurs croient fortement en la technologie et la vision de GigaAI.

GigaAI, pionnier chinois du world model appliqué au réel

Fondée en 2023, GigaAI se présente comme la première startup chinoise dédiée aux modèles mondiaux pour l’IA physique. L’objectif : créer une intelligence générale capable de comprendre, prédire et interagir avec le monde physique, à la manière des robots et véhicules autonomes du futur.

L’entreprise développe un écosystème complet mêlant matériel et logiciel :

  • GigaWorld, une plateforme pour l’intelligence embarquée et la robotique.
  • GigaBrain, un modèle fondamental piloté par world model.
  • Maker Ontology, une couche de connaissance dédiée aux agents physiques.

En combinant ces briques, GigaAI propose une solution tout-en-un pour les environnements complexes : conduite autonome, robotique de service, robots industriels, agents incarnés, etc.

Pourquoi Huawei investit massivement dans la Physical AI ?

Huawei adopte désormais une stratégie baptisée WA — « World Action », en rupture avec les modèles traditionnels VLA (Vision–Language–Action) basés sur de grands modèles linguistiques. Ici, l’IA ne « passe plus par le langage » pour agir, elle utilise directement les signaux visuels et physiques pour contrôler les robots ou les véhicules.

Cette approche, soutenue par Jin Yuzhi, PDG de Huawei Intelligent Automotive Solutions, est en train de devenir un pilier du futur technologique de l’entreprise.

En investissant dans GigaAI, Huawei renforce sa capacité à développer des voitures autonomes plus sûres, des robots plus polyvalents, et des systèmes d’IA capables d’interagir avec le monde réel.

Quel impact pour le grand public ?

Si Huawei et GigaAI réussissent leur pari, les utilisateurs pourraient bientôt bénéficier de véhicules autonomes plus fiables, de robots domestiques réellement utiles et intelligents, d’assistants personnels capables d’agir dans le monde physique, et des appareils capables de comprendre leur environnement plutôt que d’attendre des instructions textuelles.

Les analystes comparent ce tournant à une révolution similaire à l’arrivée du smartphone : une technologie qui quitte les labos pour transformer notre quotidien.

Un mouvement qui renforce la rivalité technologique Chine–États-Unis

Cet investissement est aussi un signal géopolitique. La Chine accélère dans l’IA incarnée, un domaine où les États-Unis concentrent actuellement une grande partie des talents et des startups (Boston Dynamics, Tesla Robotics, OpenAI avec ses world models, Nvidia GR00T, etc.).

En soutenant GigaAI, Huawei renforce son autonomie technologique, augmente la pression sur les acteurs américains, et s’inscrit dans la course mondiale aux robots intelligents et aux systèmes autonomes.

Une alliance stratégique pour façonner l’IA du futur

Pour les experts, ce partenariat dépasse largement le cadre financier : c’est une alliance technologique structurante qui pourrait accélérer le développement de l’IA physique en Chine.

Avec son stack technologique robuste, ses levées de fonds rapides et le soutien d’un géant comme Huawei, GigaAI pourrait devenir l’un des leaders mondiaux de l’IA incarnée.

Lire plus