fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

NemoClaw : Nvidia lance son offensive open source contre l’agent IA OpenClaw

NemoClaw : Nvidia lance son offensive open source contre l'agent IA OpenClaw

Dans la ruée vers les agents IA « always-on », Nvidia ne veut plus rester le fournisseur d’infrastructures que tout le monde utilise sans y penser. Selon Wired, le géant des GPU préparerait NemoClaw, une plateforme d’agents IA open source qu’il présenterait déjà à des partenaires avant sa conférence développeurs de la semaine prochaine.

Objectif : se positionner face à OpenClaw, devenu en quelques semaines un symbole — et un accélérateur — de l’agentique local.

NemoClaw : De l’open source « à la OpenClaw » — mais version entreprise

D’après Wired, Nvidia « pitch » NemoClaw à plusieurs grands éditeurs et acteurs enterprise (Salesforce, Cisco, Google, Adobe, CrowdStrike sont cités comme interlocuteurs potentiels), avec une promesse importante : la plateforme fonctionnerait même sur des machines sans GPU Nvidia.

Ce point n’est pas un détail technique, c’est une stratégie d’adoption : si vous voulez devenir un standard logiciel, vous évitez de vous enfermer dans votre propre matériel… tout en sachant qu’une partie des usages avancés finira, naturellement, par revenir vers les meilleures accélérations disponibles — et Nvidia est très bien placé pour en profiter.

Pourquoi OpenClaw a déclenché une réaction en chaîne ?

OpenClaw a capté l’attention parce qu’il matérialise une idée simple : des agents capables de travailler en continu depuis une machine personnelle, en s’appuyant sur différents modèles, et en manipulant des données locales. Le phénomène a été suffisamment visible pour que OpenAI recrute son créateur, Peter Steinberger, afin de « piloter la prochaine génération d’agents personnels », tout en laissant le projet vivre dans une fondation indépendante avec le soutien d’OpenAI.

Même les régulateurs et autorités commencent à réagir : des entités publiques et entreprises d’État en Chine ont été alertées contre l’installation d’OpenClaw sur des appareils de travail, au nom des risques de cybersécurité et de fuite de données.

C’est précisément là que Nvidia veut frapper : le passage à l’échelle entreprise ne se fait pas sur la magie des démos, mais sur la gouvernance, la conformité et les garde-fous.

Le nerf de la guerre : sécurité, permissions et confiance

Wired indique que Nvidia préparerait des outils de sécurité et de protection de la vie privée pour NemoClaw. Ce choix est quasi obligatoire : les agents « always-on » sont puissants parce qu’on leur donne des permissions (fichiers, messagerie, outils internes, CRM, tickets…). Et c’est aussi ce qui les rend dangereux. Sur ce terrain, une plateforme d’agents sans modèle de permissions strict, sans auditabilité et sans isolation sérieuse devient un cauchemar pour les RSSI.

Si Nvidia réussit, NemoClaw pourrait devenir ce que OpenClaw n’est pas encore totalement : une couche agentique acceptable par les entreprises — sans tuer l’esprit open source qui a rendu le concept viral.

L’intérêt caché de Nvidia : contrôler la couche logicielle, pas seulement la carte graphique

L’agentique a une propriété que Nvidia adore : elle consomme du calcul non pas en pics courts, mais sur des durées longues (heures, jours), avec des boucles d’outils, de navigation et de raisonnement. Autrement dit : plus les agents deviennent courants, plus la demande d’inférence et d’orchestration augmente.

Et dans un moment où Nvidia doit aussi composer avec des tensions géopolitiques et des contraintes export (comme l’arrêt rapporté de la production de H200 destinés au marché chinois, avec redirection de capacité vers la prochaine génération), renforcer son influence côté logiciel est une forme de couverture stratégique.

Ce qu’il faut surveiller à la conférence Nvidia

Trois signaux permettront de savoir si NemoClaw est une vraie offensive — ou un simple « copier-coller premium » :

  1. Le modèle de sécurité : permissions fines, sandboxing, logs, politique de données.
  2. L’interopérabilité : connecteurs, compatibilité multi-modèles, déploiement on-prem/cloud.
  3. La gouvernance open source : licence, contributions externes, neutralité réelle (ou open source « à géométrie variable »).

En clair : Nvidia n’a pas besoin de battre OpenClaw sur la viralité. Il lui suffit de gagner sur ce que les entreprises achètent vraiment : le contrôle.

Lire plus
Intelligence Artificielle

Claude peut désormais dessiner : Anthropic lance les visualisations interactives en temps réel

Claude peut désormais dessiner : Anthropic lance les visualisations interactives en temps réel

Jusqu’ici, Claude excellait surtout dans l’art du texte bien rangé : explications, synthèses, plans d’action. Désormais, Anthropic lui ajoute une corde beaucoup plus moderne — et plus pédagogique — à son arc : des visualisations intégrées « en ligne », générées au fil de la discussion.

Graphiques, schémas, tableaux interactifs… sans quitter le chat, sans ouvrir un outil externe.

Claude : Une nouveauté simple sur le papier, mais lourde de conséquences

Selon Anthropic, Claude peut maintenant insérer automatiquement une visualisation lorsqu’il estime qu’elle améliore la compréhension (et l’utilisateur peut aussi la demander explicitement : « dessine un schéma », « visualise ça », etc.).

La différence avec les « artifacts » déjà présents dans Claude est importante : ici, la visualisation est contextuelle et transitoire, susceptible d’évoluer (ou de disparaître) au gré de la conversation, plutôt que de vivre comme un objet séparé et persistant dans un panneau dédié.

Les exemples donnés sont parlants : une table périodique interactive, ou un diagramme illustrant la manière dont une charge se répartit dans une structure.

L’ADN « Imagine with Claude », enfin injecté dans les réponses

Cette évolution s’inscrit dans la logique d’Imagine with Claude, l’expérience expérimentale dévoilée précédemment : l’idée que Claude ne se contente pas d’expliquer, mais fabrique des objets manipulables (interfaces, mini-apps, éléments interactifs) pour accompagner le raisonnement.

69b1048a4e146f048af72e00 Claude Blog Inline Visualization

Anthropic semble pousser une conviction : l’assistant ne doit pas seulement produire du texte, il doit choisir le bon format selon le problème. Les visualisations inline deviennent alors une réponse « native » quand une notion est plus claire en image qu’en paragraphe.

Disponibilité : activé par défaut, sur le web et bureau

Le déploiement annoncé est volontairement large : la fonctionnalité est activée par défaut et se déploie « maintenant » pour l’ensemble des utilisateurs, sur Web et bureau (avec la décision de l’affichage laissée à Claude, plus la possibilité de le demander explicitement).

Anthropic a déjà commencé à transformer Claude en hub de travail plutôt qu’en simple chatbot :

  • MCP Apps/connecteurs interactifs : Claude peut interagir avec Slack, Asana, Figma, Canva, etc., directement dans la conversation (sans bascule d’onglets).
  • Et désormais, avec les visuels inline, Claude renforce son rôle d’outil « qui montre », pas seulement « qui raconte ».

En clair, la trajectoire ressemble à une « suite » : texte + actions + visualisations, dans une même interface. L’ambition est limpide : réduire le coût cognitif du passage entre explication, compréhension et exécution.

Le point de vigilance : l’illusion de certitude

69b1fc1487a93a1dd7c2a174 Claude

Un diagramme interactif peut faire gagner du temps. Il peut aussi donner une impression de solidité à une réponse qui reste… une réponse d’IA. Le vrai progrès, ce ne sera pas d’avoir de jolis graphiques, mais d’avoir des visuels fidèles aux données et faciles à auditer (sources, hypothèses, paramètres).

Anthropic a raison de viser l’évidence visuelle — mais le marché jugera sur la rigueur.

Lire plus
Intelligence Artificielle

Perplexity lance « Personal Computer » : l’IA qui travaille pour vous pendant votre sommeil

Perplexity lance « Personal Computer » : l'IA qui travaille pour vous pendant votre sommeil

Dans une ancienne église de North Beach, à San Francisco, Perplexity a donné un nom à une obsession qui hante toute la Silicon Valley : l’agent IA « toujours actif », capable de travailler pendant que vous dormez, de surveiller vos outils, et de faire avancer des projets sans supervision constante.

Son nouveau produit s’appelle Personal Computer — et malgré le nom, ce n’est pas une machine. C’est une couche logicielle qui promet de faire de votre Mac un proxy persistant, connecté à vos apps, à vos fichiers… et à une flotte de modèles IA.

Un « ordinateur » qui n’en est pas un : la logique derrière Personal Computer

Perplexity présente Personal Computer comme une évolution de son agent « Computer », avec une différence majeure : la continuité. L’agent tourne en permanence sur une machine dédiée (type Mac mini) que vous laissez allumée, et s’appuie sur les serveurs Perplexity pour exécuter des tâches dans un environnement isolé.

L’idée : vous ne « partagez » pas votre écran ; vous déléguez des objectifs à une entité qui garde une mémoire de contexte et peut enchaîner des étapes sur la durée.

Le slogan résume tout : « Un système d’exploitation traditionnel reçoit des instructions. Un système d’exploitation basé sur l’IA reçoit des objectifs ». Perplexity ne veut pas être un assistant de plus ; il veut être une couche de pilotage au-dessus de vos outils.

Multi-modèles, multi-tâches : la mécanique « chef de projet IA »

Ce qui distingue Perplexity dans ce marché, c’est sa revendication d’orchestration : Computer (et donc Personal Computer) coordonne un ensemble de modèles — Perplexity met en avant cette approche « multi-LLM » depuis fin février.

Sur le papier, ça autorise un fonctionnement « équipe » : un modèle pour écrire, un autre pour raisonner, un autre pour coder, un autre pour vérifier. Le système découpe, distribue, assemble — comme un PM qui délègue à des spécialistes, puis livre un résultat.

Sécurité : sandbox, confirmations, audit trail… et un contexte qui rend ces promesses indispensables

Perplexity sait qu’elle marche sur une ligne de crête : un agent utile est un agent qui a des accès. Personal Computer insiste donc sur une exécution sandboxée, des actions soumise à confirmation, et une traçabilité (audit trail).

Ce discours « contrôle & logs » n’est pas du luxe : Perplexity sort d’une séquence où les agents ont rappelé leurs risques très concrets, notamment via l’affaire Amazon autour d’un agent d’achat (Comet) que la justice a restreint. Autrement dit, la confiance ne se gagne plus par des démos, mais par des garanties vérifiables.

Pour qui ? Le prix répond à la question avant même le marketing

Accès limité, seulement sur Mac au lancement, liste d’attente, et surtout 200 dollars/mois via l’abonnement Perplexity Max (avec 10 000 crédits mensuels, selon la documentation). Ce n’est pas une fonctionnalité grand public : c’est un produit de power users et d’organisations.

Et c’est là que Personal Computer devient intéressant : il ne vend pas « du confort ». Il vend une capacité opérationnelle. Surveiller un repo GitHub, trier Gmail, rédiger des réponses, préparer des synthèses Slack, tenir une base Notion, pousser des mises à jour Salesforce — l’agent devient une colle entre services, une machine à réduire le travail répétitif.

Perplexity tente de devenir l’OS des outils… avant que les géants ne verrouillent l’agentique

Le sous-texte est limpide : la prochaine guerre de l’IA n’est pas « qui répond le mieux », mais qui exécute — de manière persistante, connectée, et intégrée aux logiciels que les entreprises utilisent déjà.

Le pari de Perplexity est audacieux : prendre le contrepied des agents « tout cloud » en ajoutant une ancre locale (le Mac mini), tout en gardant la puissance d’exécution et l’isolement côté cloud. En gros : l’accès aux bons contextes sans l’abandon total de la sécurité.

Reste une question qui décidera de tout : l’ergonomie de la confiance. Si l’utilisateur doit valider chaque micro-action, l’agent devient un stagiaire bruyant. S’il valide trop largement, l’agent devient un risque. La valeur de Personal Computer se jouera donc dans la finesse du contrôle : permissions, scopes, logs exploitables, et capacité à expliquer « pourquoi je fais ça » — pas seulement « voilà ce que j’ai fait ».

Le prix, lui, dit la vérité : Perplexity ne vend pas un gadget. Il vend une tentative de remplacer une partie de l’exécution humaine — et ça, dans l’entreprise, a une valeur très précise.

Lire plus
Intelligence Artificielle

Copilot Health : Microsoft lance un assistant IA dédié pour décoder vos dossiers médicaux

Copilot Health : Microsoft lance un assistant IA dédié pour décoder vos dossiers médicaux

Microsoft vient d’annoncer Copilot Health, un espace séparé dans Copilot dédié aux échanges autour de la santé : comprendre des résultats de laboratoire, décoder un dossier médical, croiser des données de wearables, ou encore chercher un professionnel de santé. L’accès se fera progressivement via un déploiement par étapes, avec liste d’attente pour les curieux.

Sur le papier, c’est exactement ce que beaucoup attendaient : un assistant capable d’expliquer vos données, sans vous perdre dans le jargon, et sans vous renvoyer vers dix onglets de forums.

Un Copilot « à part » : import de dossiers, labos et wearables

Microsoft insiste sur un point : Copilot Health ne remplace pas un médecin et n’a pas vocation à poser des diagnostics ou à prescrire un traitement. L’objectif affiché est d’aider l’utilisateur à mieux comprendre ses informations de santé.

Concrètement, Copilot Health peut :

  • Importer des dossiers médicaux depuis plus de 50 000 hôpitaux et organisations de santé aux États-Unis via HealthEx.
  • Importer des résultats de tests via Function (intégration labo).
  • Se connecter à plus de 50 appareils wearables (Apple, Oura, Fitbit, etc.), pour afficher des métriques (pas, tendances, rappels, rendez-vous) selon les données que l’utilisateur accepte de partager.
  • Rechercher des professionnels via des annuaires « temps réel » (spécialité, localisation, langues, assurances).

Screen 2026 03 12 at 16.19.34

Le positionnement est clair : Copilot Health veut devenir une surcouche de lisibilité entre vos données (souvent éclatées) et votre capacité à en faire quelque chose de compréhensible.

« Réponses plus fiables » : citations et cartes Harvard Health

Microsoft tente aussi de répondre à la critique la plus fréquente contre l’IA en santé : la fiabilité. L’entreprise affirme « élever » l’information issue d’organisations de santé crédibles, et annonce des réponses avec citations avec des cartes de réponse rédigées par des experts de Harvard Health.

C’est un bon signal — mais ça ne règle pas tout : même avec des sources, l’IA peut mal interpréter un contexte, sur-généraliser ou donner trop de confiance à une hypothèse. Les citations aident surtout à auditer et à recadrer.

Confidentialité : isolation, contrôle utilisateur… mais débat HIPAA

Côté confidentialité, Microsoft met en avant une architecture « compartimentée » : les chats Copilot Health seraient isolés du Copilot général, soumis à des contrôles supplémentaires, non utilisés pour l’entraînement des modèles, avec possibilité de supprimer les données ou de déconnecter les sources à tout moment.

La ligne la plus sensible, en revanche, est ailleurs : Copilot Health est présenté comme une expérience grand public non HIPAA-compliant à ce stade, contrairement à certains produits « HIPAA-ready/compliant » du marché (Amazon Health AI, et des offres orientées organisations chez d’autres acteurs). Microsoft répond par une nuance juridique : en direct-to-consumer, l’entreprise estime que HIPAA « n’est pas requis », tout en évoquant des « contrôles HIPAA » à venir.

Screen 2026 03 12 at 16.18.30

Pour rappel, HIPAA est une loi américaine qui a pour but de faire respecter la portabilité et la responsabilité en matière d’assurance maladie. Elle exige que les entreprises qui traitent des informations de santé protégées aient mis en place des mesures de sécurité physiques, de réseau et de processus et qu’elles les suivent.

À côté, Microsoft souligne une certification ISO/IEC 42001 (standard de management pour systèmes IA), censée attester d’une gouvernance responsable et auditable.

Microsoft veut être votre « interprète », mais la confiance se gagnera sur le long terme

Le lancement de Copilot Health confirme une tendance 2026 : l’IA grand public se déplace vers des espaces isolés pour les sujets à haut risque (santé, finance), avec promesse de non-entraînement, contrôles renforcés et connecteurs vers des données personnelles. OpenAI a lancé une approche comparable avec ChatGPT Health en janvier, et Anthropic a lancé Claude for Healthcare.

Le pari de Microsoft est cohérent : si l’IA devient la « porte d’entrée » du quotidien, la santé est un usage massif… et anxiogène. Mais le vrai test ne sera pas l’interface : ce sera la stabilité des politiques, la clarté de ce qui est collecté/stocké, et la capacité à éviter les dérives (conseils inadaptés, sur-interprétation, risques en santé mentale).

Copilot Health peut être un très bon outil — tant qu’on le traite comme un assistant de compréhension, pas comme un arbitre médical.

Lire plus
Intelligence Artificielle

Sora arrive dans ChatGPT : la révolution de la vidéo IA à portée de prompt

Sora arrive dans ChatGPT : la révolution de la vidéo IA à portée de prompt

La vidéo est en train de devenir le prochain terrain de jeu — et de pouvoir — de l’IA générative. Après avoir conquis le texte, puis l’image, OpenAI serait sur le point de faire entrer Sora, son générateur vidéo, directement dans ChatGPT.

D’après The Information, l’intégration serait « prochaine », avec l’idée évidente : rendre la création vidéo aussi simple qu’un prompt dans une conversation.

De l’app Sora à la super-app ChatGPT : la logique « friction zéro »

Sora a déjà eu une première vie « solo » : OpenAI a lancé une application dédiée fin septembre 2025, présentée comme un espace de création et de découverte — un flux social où l’on génère, remixe et partage des clips.

L’intérêt d’un passage dans ChatGPT est brutalement pragmatique : réduire la friction. Plus besoin d’ouvrir une autre app, d’exporter, de copier-coller un prompt, de jongler entre outils. Dans la vision « assistant universel », la vidéo devient une modalité parmi les autres, au même titre que l’image ou le texte — mais avec une puissance de viralité bien supérieure.

OpenAI prévoirait de maintenir l’application Sora en parallèle, même après l’intégration dans ChatGPT.

Pourquoi maintenant : concurrence, distribution… et bataille d’usage

La potentielle intégration ressemble à un mouvement de distribution : mettre Sora là où se trouvent déjà les utilisateurs. Et, c’est aussi un message concurrentiel. La vidéo générative n’est plus une démo technologique : c’est une catégorie stratégique, où plusieurs acteurs veulent devenir l’outil réflexe.

Un signe révélateur : Microsoft a déjà « banalisé » l’accès à Sora en l’intégrant au mobile via Bing (Bing Video Creator), prouvant qu’un modèle vidéo peut vivre comme une fonctionnalité grand public, pas seulement comme un produit à part.

Le vrai enjeu : une vidéo IA « facile », oui — mais sous quelles règles ?

Si Sora arrive dans ChatGPT, cela change surtout la cadence de production : créer des clips devient instantané, conversationnel, itératif. Mais, cela amplifie aussi les sujets qui accompagnent toujours la vidéo IA : provenance des contenus, risques de détournement, deepfakes, et gouvernance des usages.

OpenAI présente Sora comme un système capable de générer des vidéos « dans n’importe quel style » à partir d’un prompt (et, selon les versions, à partir d’images), ce qui rend l’outil très séduisant… et mécaniquement sensible.

Plus qu’une fonctionnalité, un changement de statut pour ChatGPT

Si l’information se confirme, l’arrivée de Sora dans ChatGPT serait moins un « plus » qu’un changement de statut : ChatGPT deviendrait encore davantage une interface de création multimodale, où l’on passe d’une idée à un livrable (texte → image → vidéo) sans quitter la conversation.

Mais, la réussite ne se mesurera pas au buzz. Elle se jouera sur des détails très concrets : qualité, vitesse, coûts, contrôles, et surtout intégration « sans surprise » dans le flux de travail. La vidéo IA n’a pas besoin d’être parfaite pour gagner ; elle doit être suffisamment bonne, suffisamment rapide, et suffisamment simple pour devenir un réflexe.

Lire plus
Intelligence Artificielle

Gemini Live : l’IA de Google va bientôt utiliser vos données personnelles pour vous répondre

Gemini Live : l'IA de Google va bientôt utiliser vos données personnelles pour vous répondre

Google semble préparer une évolution importante pour Gemini Live, son mode conversationnel vocal. D’après des indices repérés dans une version récente de l’application Google sur Android, Gemini Live pourrait bientôt s’appuyer sur Personal Intelligence, une fonction déjà annoncée pour Gemini, afin d’aller chercher du contexte dans vos autres services Google et fournir des réponses plus personnalisées.

À ce stade, il ne s’agit pas d’une annonce officielle de lancement pour Gemini Live, mais bien d’un développement repéré dans du code en cours de test.

Gemini Live passerait du simple chat vocal à un assistant qui vous connaît mieux

Aujourd’hui, Google présente Gemini Live comme un assistant vocal temps réel capable de discuter naturellement, y compris à propos de ce que vous voyez autour de vous ou à l’écran. L’ajout de Personal Intelligence changerait l’expérience en profondeur : au lieu de répondre de manière assez générique, Gemini Live pourrait tenir compte de votre propre contexte numérique.

Google a officiellement présenté Personal Intelligence en janvier 2026 comme une fonction reliant Gemini à des services comme Gmail, Photos, YouTube et Search pour fournir une aide « faite pour vous ». La page officielle explique que cette personnalisation repose sur des connexions activées par l’utilisateur et qu’elle permet à Gemini de croiser vos applications Google pour proposer des réponses plus pertinentes.

Des réponses fondées sur votre vraie vie, pas seulement sur le Web

L’exemple le plus parlant est celui déjà mis en avant par Google autour de Personal Intelligence : un utilisateur peut demander des conseils liés à sa voiture, et Gemini peut alors croiser des indices provenant de Gmail, de Google Photos ou d’autres services connectés pour répondre de façon beaucoup plus concrète. C’est précisément ce type de logique que les indices repérés laissent envisager pour Gemini Live.

Autrement dit, Google semble vouloir transformer Gemini Live en assistant moins « transactionnel » et plus « relationnel », capable de se souvenir du contexte utile autour de vous. Cette direction est cohérente avec la stratégie actuelle de Google, qui multiplie les fonctions de personnalisation dans Gemini tout en intégrant davantage ses services maison.

Cette dernière lecture est une inférence à partir des pages officielles de Google et des indices relevés dans l’application.

Un détail important : l’accès pourrait d’abord être payant

Il y a néanmoins un point à surveiller. Lors de son lancement, Personal Intelligence avait d’abord été réservé aux abonnés Google AI Pro et Google AI Ultra aux États-Unis, avant que Google n’élargisse progressivement son accès. Il est donc tout à fait possible que le même schéma se répète pour Gemini Live, au moins au début.

Pour l’instant, Google n’a communiqué ni date, ni tarif, ni calendrier officiel pour Personal Intelligence dans Gemini Live. Les références repérées viennent d’un prototype interne dans l’application Google pour Android, ce qui signifie qu’il peut encore se passer plusieurs semaines ou plusieurs mois avant une annonce publique, voire qu’une partie du projet change en route.

Une évolution logique, mais sensible côté vie privée

Cette montée en puissance de la personnalisation pose évidemment la question de la confidentialité. Google rappelle dans ses pages d’aide et de confidentialité que les connexions aux applications Google sont optionnelles et que l’utilisateur garde le contrôle sur les services reliés à Gemini. La firme met donc déjà en avant une logique de consentement et de réglages, mais plus Gemini devient personnel, plus ces questions vont devenir centrales.

Le plus important, c’est que Gemini Live semble se diriger vers une version beaucoup plus contextualisée, capable d’utiliser vos services Google pour répondre avec plus de précision. Rien n’est encore officialisé pour cette intégration dans Live, mais les éléments actuellement visibles pointent tous dans la même direction : Google veut faire de Gemini un assistant qui ne se contente plus d’entendre votre voix, mais qui comprend aussi mieux votre quotidien.

Lire plus
Intelligence Artificielle

Amazon Health AI : l’assistant médical débarque enfin pour tous sur l’app Amazon

Amazon Health AI : l'assistant médical débarque enfin pour tous sur l'app Amazon

En élargissant l’accès à Health AI sur son site et son appli, Amazon franchit une étape de plus vers une ambition ancienne : devenir une porte d’entrée du soin du quotidien, aussi simple d’accès qu’un achat en ligne. Mais quand l’IA s’invite dans les symptômes, les ordonnances et les dossiers médicaux, la promesse de fluidité se heurte immédiatement à une question centrale : la confiance.

De l’expérience One Medical à la vitrine Amazon

Jusqu’ici, Health AI restait cantonné à l’application One Medical — la chaîne de soins primaires rachetée par Amazon pour 3,9 milliards de dollars. Désormais, l’assistant débarque directement sur Amazon.com et dans l’application Amazon, avec un accès annoncé comme ouvert à tous, sans obligation d’être membre One Medical ni abonné Prime.

Le principe est celui d’un « copilote » santé : on pose une question (symptômes, résultats biologiques, interactions médicamenteuses), et l’agent répond, contextualise, et peut pousser l’utilisateur vers une prise en charge humaine si nécessaire.

Ce que Health AI sait faire (et ce qu’Amazon met en avant)

Sur le papier, Health AI couvre un spectre très large : répondre à des questions de santé générales, expliquer des éléments du dossier (résultats, diagnostics), aider au renouvellement d’ordonnances, ou encore faciliter la prise de rendez-vous.

La dimension « transactionnelle » est la plus révélatrice : Health AI n’est pas seulement un chatbot informatif, c’est un assistant conçu pour déclencher des actions (orientation, réservation, lien avec un professionnel). Amazon indique également que, avec l’accord de l’utilisateur, l’agent peut accéder à des données via un Health Information Exchange (réseau d’échange sécurisé de données médicales), afin de personnaliser les réponses.

image 28

Et pour ceux qui veulent « parler à quelqu’un », Amazon met en avant une connexion possible à un praticien One Medical, avec une mécanique d’avantages liée à Prime (notamment des consultations par messagerie dans certaines conditions) et, sinon, une logique de paiement à l’acte.

L’enjeu stratégique : faire d’Amazon la « page d’accueil » de votre santé

Cette extension ressemble à un mouvement typiquement Amazon : réduire le nombre d’étapes entre un besoin et une solution, jusqu’à faire disparaître la friction. Dans la santé, cette friction s’appelle « délais », « prise de rendez-vous », « compréhension du jargon médical ». Et c’est précisément le terrain où l’IA brille — au moins dans sa capacité à reformuler, trier et guider.

image 29

Surtout, Amazon ne joue pas seul. Depuis janvier, OpenAI pousse ChatGPT Health comme un espace dédié où l’on peut connecter des données de santé et des applis bien-être, tandis qu’Anthropic avance avec Claude for Healthcare et des briques « HIPAA-ready » côté organisations. La bataille est en train de se structurer autour d’une idée simple : l’IA ne sera pas seulement un moteur de réponse, mais un intermédiaire entre patients, données et acteurs de soin.

Confidentialité : le point de bascule

C’est le nerf de la guerre, et Amazon le sait. L’entreprise affirme entraîner ses modèles sur des « patterns » abstraits, sans informations directement identifiantes, et insiste sur un environnement « HIPAA-compliant », avec chiffrement et contrôles d’accès — sans détailler publiquement le schéma exact (quels accès, quelles clefs, quelles durées de conservation, quelles finalités précises).

En creux, le débat est déjà là : dans la santé, la promesse d’une IA « utile » est mécaniquement tentée par la personnalisation (donc par la donnée), alors que la confiance repose sur la minimisation, la transparence et la gouvernance. À mesure que ces assistants deviennent des interfaces de soin, ils devront être évalués comme tels : preuves de sécurité, auditabilité, traçabilité, et clarté sur l’usage des conversations.

Amazon avance vite — et c’est précisément pour cela que la question n’est plus « si », mais « dans quelles conditions ».

Lire plus
Intelligence Artificielle

Maths et Sciences : OpenAI transforme ChatGPT en mini-laboratoire interactif

Maths et Sciences : OpenAI transforme ChatGPT en mini-laboratoire interactif

OpenAI ajoute une nouvelle fonction pédagogique à ChatGPT : des explications visuelles dynamiques qui permettent de manipuler directement des formules, des variables et des relations mathématiques ou scientifiques en temps réel.

L’idée est simple : au lieu de se contenter d’un texte ou d’un schéma statique, l’utilisateur peut désormais faire varier des paramètres et observer immédiatement l’effet produit.

OpenAI a annoncé que cette nouveauté est disponible dès aujourd’hui pour tous les utilisateurs connectés, sur l’ensemble des offres.

Des explications interactives disponibles pour tous les utilisateurs connectés

Concrètement, lorsqu’on pose une question comme « Qu’est-ce qu’une relation de conjugaison ? » ou « Comment calculer l’aire d’un cercle ? », ChatGPT peut désormais répondre avec une explication accompagnée d’un module interactif. Dans l’exemple donné par OpenAI, un utilisateur qui explore le théorème de Pythagore peut modifier la longueur des côtés d’un triangle et voir l’hypoténuse se recalculer instantanément.

Pour l’instant, OpenAI indique que cette fonction couvre plus de 70 notions de base en mathématiques et en sciences. Parmi les thèmes cités figurent notamment l’aire d’un cercle, les équations linéaires, la loi d’Ohm, l’énergie cinétique, la décroissance exponentielle, la loi de Hooke, la loi de Coulomb, la différence de carrés ou encore les intérêts composés.

La société précise aussi qu’elle prévoit d’élargir cette liste à l’avenir.

Screen 2026 03 11 at 06.33.34

Une évolution logique pour ChatGPT dans l’éducation

Ce lancement est intéressant parce qu’il change légèrement le rôle de ChatGPT dans l’apprentissage. L’outil ne se contente plus de fournir une réponse rédigée : il pousse davantage l’utilisateur à tester lui-même les concepts. OpenAI s’appuie d’ailleurs sur l’idée que l’apprentissage visuel et interactif peut améliorer la compréhension conceptuelle, en particulier quand on peut modifier une variable et voir immédiatement ce que cela change.

Cette annonce s’inscrit dans une stratégie plus large autour de l’éducation. OpenAI affirme que 140 millions de personnes utilisent chaque semaine ChatGPT pour les maths et les sciences, deux matières souvent perçues comme difficiles. La société avait déjà enrichi ChatGPT avec d’autres outils d’apprentissage, et cette nouvelle brique interactive renforce encore son positionnement comme assistant d’étude plutôt que simple générateur de réponses.

Une tendance de fond dans l’IA éducative

Cette nouveauté arrive aussi dans un contexte plus large. Les grands acteurs de l’intelligence artificielle cherchent de plus en plus à rendre l’apprentissage moins passif et plus manipulable. L’objectif n’est plus uniquement d’expliquer, mais aussi de faire tester, ajuster et expérimenter.

Dans cette logique, OpenAI confirme une tendance de fond du secteur : l’IA éducative cherche à devenir un environnement interactif, où l’utilisateur peut apprendre en agissant plutôt qu’en lisant uniquement une réponse.

ChatGPT devient un mini-laboratoire pour apprendre autrement

En clair, OpenAI transforme un peu ChatGPT en mini-laboratoire interactif pour les matières scientifiques. Ce n’est pas seulement un ajout visuel destiné à rendre l’interface plus attrayante. Le véritable enjeu sera de voir comment les élèves, les étudiants et les enseignants vont s’approprier cette fonctionnalité au quotidien.

Si les usages suivent, cette nouveauté pourrait devenir l’un des ajouts les plus utiles de ChatGPT pour apprendre autrement, en rendant les concepts abstraits beaucoup plus concrets.

Lire plus
Intelligence Artificielle

Croissance IA : Gemini explose avec +643 % de trafic web en un an

Croissance IA : Gemini explose avec +643 % de trafic web en un an

Google peut se féliciter d’un vrai signal positif pour Gemini. D’après des données partagées par Similarweb, Gemini a été l’outil d’IA générative à la plus forte croissance en visites Web sur un an en février 2026, avec +643 % par rapport à février 2025.

Derrière lui, Grok progresse de 480 % et Claude de 297 %, tandis que Perplexity tourne autour de +39 % et ChatGPT autour de +37 à +39 % selon les relais de ces chiffres. Similarweb a aussi indiqué que DeepSeek reculait nettement sur la même période.

Une croissance spectaculaire, mais sur un périmètre précis

Ce résultat est impressionnant, mais il faut tout de suite rappeler la nuance essentielle : on parle ici de trafic Web, pas de l’ensemble des usages. Cela n’inclut ni les apps mobiles ni les apps de bureau, ce qui peut changer fortement la photographie du marché, surtout pour ChatGPT, Claude ou Copilot, très utilisés hors navigateur.

Autrement dit, la performance de Gemini est bien réelle, mais elle décrit avant tout la bataille du Web, pas celle de tous les terminaux.

HC37O6AbcAATaOH

Une forte croissance ne veut pas dire première place

Autre point important : une croissance plus forte ne veut pas dire volume total plus élevé. Similarweb indiquait encore récemment que ChatGPT dominait largement le trafic Web total des plateformes d’IA, tandis que Gemini gagnait vite du terrain sans encore prendre la première place en parts de visites.

En janvier 2026, Similarweb estimait par exemple que ChatGPT et Gemini représentaient ensemble environ 86 % du trafic Web des plateformes d’IA, avec ChatGPT toujours devant.

Google profite pleinement de sa puissance de distribution

Ce que montrent surtout ces chiffres, c’est que Gemini est en train de profiter à plein de la distribution de Google. Le fait d’être lié à l’écosystème Google, d’être plus visible dans ses services et plus familier pour le grand public aide clairement son adoption. Similarweb relevait aussi sur LinkedIn que Gemini avait atteint 2,112 milliards de visites en février 2026 et enchaînait un 14e mois consécutif de croissance mensuelle, ce qui confirme une dynamique solide, pas juste un pic isolé.

Il y a aussi une autre nuance utile : ces chiffres ne comptent pas les résumés IA directement affichés dans Google Search. Autrement dit, la progression relevée ici correspond plutôt à des usages volontaires de Gemini en tant que produit distinct, ce qui rend la performance encore plus intéressante pour Google. Cette interprétation est cohérente avec la méthodologie centrée sur les visites du site Gemini et non sur les réponses IA intégrées au moteur.

Un marché moins monopolisé qu’avant

Au fond, le principal enseignement n’est pas que ChatGPT décroche brutalement. Le vrai changement, c’est que le marché du Web IA devient moins monopolisé qu’il ne l’était il y a un an. Début 2025, ChatGPT captait une part écrasante du trafic Web du secteur. Début 2026, il reste devant, mais Gemini a nettement réduit l’écart.

Dans ce contexte, Google apparaît de plus en plus comme le challenger le plus crédible sur le Web. Et compte tenu de sa capacité à activer Search, Android, Gmail ou Workspace comme leviers de distribution, cette accélération mérite clairement d’être suivie de près.

Lire plus
Intelligence Artificielle

Meta rachète Moltbook : le « Reddit pour agents IA » rejoint l’empire de Zuckerberg

Meta rachète Moltbook : le « Reddit pour agents IA » rejoint l’empire de Zuckerberg

Meta a officiellement mis la main sur Moltbook, cette plateforme expérimentale souvent décrite comme un « Reddit pour agents IA ». Dans le cadre de l’opération, les cofondateurs Matt Schlicht et Ben Parr rejoindront Meta Superintelligence Labs, l’entité IA de Meta dirigée par Alexandr Wang. Les conditions financières du rachat n’ont pas été rendues publiques.

Ce qui semble avoir séduit Meta, ce n’est pas seulement le buzz autour de Moltbook, mais surtout sa logique de répertoire permanent d’agents. Dans sa déclaration, Meta a mis en avant l’approche des fondateurs pour « connecter des agents via un annuaire toujours actif », en y voyant une piste originale dans un secteur en pleine accélération.

La firme dit vouloir s’appuyer sur cette idée pour développer des expériences agentiques « innovantes » et « sécurisées ».

Moltbook : Un projet viral, mais aussi très contesté

Moltbook avait attiré l’attention ces dernières semaines parce qu’il mettait en scène des agents IA publiant et commentant entre eux, parfois sur leurs utilisateurs humains, parfois sur leur propre « émancipation ». Cette mécanique a largement circulé sur les réseaux sociaux, entre fascination et moquerie. Mais, plusieurs observateurs ont aussi rappelé qu’il fallait rester prudent : une partie des messages les plus viraux aurait pu être écrite par des humains se faisant passer pour des agents.

Le projet reposait en grande partie sur OpenClaw, un wrapper pour agents LLM permettant d’interagir avec eux via des apps comme WhatsApp ou Discord, avec la possibilité d’étendre leurs accès grâce à des plugins communautaires.

Or, le créateur d’OpenClaw, Peter Steinberger, a lui aussi récemment été recruté… mais par OpenAI, en février 2026.

Un rachat qui intervient malgré de gros problèmes de sécurité

Le cas Moltbook n’a pas seulement fait parler pour son concept. Début février, la société de cybersécurité Wiz a révélé qu’une mauvaise configuration de la base de données exposait des messages privés, des emails et plus d’un million de secrets ou identifiants liés aux agents. Wiz parlait même d’environ 1,5 million de clés API exposées. La faille a depuis été corrigée, mais elle a sérieusement entaché l’image du projet.

Cette affaire a aussi nourri un scepticisme plus large sur la promesse de Moltbook. Au-delà de la faille elle-même, le problème soulevait une question de fond : comment vérifier qu’un réseau présenté comme réservé aux agents IA n’est pas simplement rempli de bots pilotés par des humains, voire d’humains déguisés en bots ? C’est précisément ce flou qui a contribué à rendre Moltbook aussi fascinant qu’inquiétant.

Pourquoi ce rachat compte pour Meta ?

Pour Meta, cette acquisition ressemble moins à un achat de produit fini qu’à un pari sur une idée d’infrastructure. Moltbook n’est pas devenu important parce qu’il était mature, mais parce qu’il matérialisait une vision : celle d’un web où des agents logiciels persistent, interagissent et collaborent entre eux. Meta semble considérer que cette logique d’« annuaire vivant » pourrait devenir une brique utile dans la future économie des agents IA.

En clair, Meta ne rachète pas seulement un projet viral. Elle récupère aussi deux fondateurs qui ont réussi à transformer un concept étrange, bricolé très vite, en sujet central de discussion dans l’industrie IA. Même si Moltbook reste imparfait, voire fragile, il a mis en évidence une intuition que les grands acteurs prennent désormais au sérieux : les agents ne veulent plus seulement répondre, ils veulent aussi se connecter, se découvrir et agir dans un même espace.

La course aux agents IA s’accélère

Le rachat de Moltbook par Meta montre à quel point la course aux agents IA s’accélère. D’un côté, OpenAI recrute le créateur d’OpenClaw. De l’autre, Meta récupère les fondateurs de la plateforme la plus virale construite autour de cette logique. Le message est clair : les grands groupes ne veulent plus seulement les meilleurs modèles, ils veulent aussi les bonnes interfaces et les bons systèmes pour faire interagir les agents.

Pour l’instant, Moltbook reste surtout un symbole : celui d’un futur agentique encore brouillon, parfois bancal, mais déjà suffisamment intrigant pour attirer les géants de la tech.

Lire plus
Intelligence Artificielle

Razer AVA : l’IA pour joueurs devient un agent autonome capable d’agir pour vous

Razer AVA : l'IA pour joueurs devient un agent autonome capable d'agir pour vous

Razer ne veut plus se contenter d’un simple assistant conversationnel pour joueurs. Selon un nouveau rapport de Variety, la marque a présenté une version dite « fully agentic » de son compagnon IA AVA, capable de fonctionner à la fois en local sur un PC et via le cloud.

L’information a été dévoilée par Quyen Quach, vice-présidente software de Razer, qui décrit une évolution majeure : AVA ne doit plus seulement répondre à des questions, mais aussi analyser une situation, planifier des actions et exécuter certaines tâches de manière plus autonome.

Cette annonce confirme la direction prise par Razer depuis plusieurs mois. Initialement présenté comme Project AVA, un copilote IA centré sur l’esport et le coaching en jeu, le projet s’est progressivement transformé en assistant numérique plus large, pensé non seulement pour le gaming, mais aussi pour la productivité et l’accompagnement quotidien.

Razer le présente désormais comme un véritable compagnon IA toujours actif, capable d’évoluer selon les usages et le contexte de l’utilisateur.

Razer AVA : Une IA qui ne veut plus seulement discuter

Le vrai changement est là. Contrairement à un chatbot classique, qui attend une consigne avant de répondre, cette nouvelle version d’AVA veut franchir un cap en devenant un agent logiciel. En clair, l’assistant ne se limite plus à la conversation : il peut comprendre un objectif, découper une tâche, choisir la bonne méthode et interagir avec différents systèmes pour avancer vers un résultat. C’est précisément ce que Razer résume derrière le terme « agentique ».

Sur le papier, cette approche ouvre la porte à des usages bien plus ambitieux. Dans l’univers du jeu vidéo, AVA pourrait par exemple assister un joueur en temps réel, optimiser certains réglages matériels, analyser une session ou proposer des actions adaptées au contexte.

Hors gaming, Razer imagine déjà un compagnon capable d’aider à organiser des tâches, à interagir avec des applications ou à servir d’assistant personnel plus polyvalent.

Un fonctionnement hybride entre local et cloud

L’autre nouveauté importante concerne l’architecture technique. Razer indique que son assistant IA pourra tourner directement sur le PC pour certaines fonctions, tout en s’appuyant sur des modèles cloud pour les traitements plus lourds. Cette approche hybride n’a rien d’anodin : elle permet de répartir intelligemment la charge de travail selon les besoins. Les tâches simples ou sensibles à la latence peuvent être exécutées en local, tandis que les opérations plus complexes peuvent être déportées vers l’infrastructure distante.

Ce modèle peut aussi répondre à deux enjeux majeurs du moment : la réactivité et la confidentialité. En local, l’expérience peut être plus rapide sur certaines commandes, tout en limitant l’envoi de données vers des serveurs externes. À l’inverse, le cloud permet de profiter de modèles plus puissants lorsque le PC seul ne suffit pas.

Razer semble donc chercher un compromis entre performances, souplesse d’usage et protection de la vie privée, même si les détails techniques concrets restent encore limités à ce stade.

Razer Ava KIRA

De coach esport à compagnon numérique

Lors de ses premières démonstrations, Project AVA avait surtout été présenté comme un coach IA pour joueurs compétitifs, capable d’analyser une partie et de fournir des conseils en direct. Razer mettait alors en avant un système pensé pour apprendre des meilleurs joueurs et offrir un accompagnement en temps réel sur les performances, les erreurs ou les ajustements stratégiques.

Depuis, le concept a largement évolué. Au CES 2026, Razer a montré une version plus ambitieuse d’AVA, incarnée sous la forme d’un compagnon holographique de bureau, avec avatars animés, suivi du regard, expressions faciales et interactions plus « personnalisées ». La marque veut clairement dépasser le simple assistant gaming pour proposer une présence numérique capable d’aider aussi dans l’organisation personnelle, la création, ou des tâches plus générales du quotidien.

Razer suit une tendance de fond dans l’IA

Le repositionnement d’AVA s’inscrit dans une tendance plus large du secteur technologique. De plus en plus d’entreprises cherchent à passer d’interfaces conversationnelles classiques à de véritables agents IA capables d’agir pour l’utilisateur. Dans le jeu vidéo aussi, cette logique commence à s’installer, avec plusieurs expérimentations autour d’assistants capables de guider, automatiser ou contextualiser certaines interactions.

Razer n’est d’ailleurs pas seul sur ce terrain. Microsoft a, par exemple, testé différentes approches autour d’un copilote appliqué au jeu vidéo, même si les retours ont parfois été mitigés. Cela montre surtout que l’industrie cherche encore la bonne formule : une IA suffisamment utile pour justifier sa présence, sans devenir intrusive, gadget ou inutilement bavarde. Sur ce point, Razer joue gros, car l’idée est séduisante sur le papier, mais elle devra prouver sa valeur dans un usage réel.

Une promesse séduisante, mais encore à confirmer

Sur le plan marketing, AVA coche beaucoup de cases tendance : IA locale, cloud, agent autonome, personnalisation, assistant gaming et compagnon numérique. Reste maintenant la question essentielle : l’expérience sera-t-elle réellement convaincante ? Plusieurs premières impressions publiées autour des démonstrations récentes d’AVA soulignaient un concept intrigant, mais aussi parfois maladroit, avec des réponses jugées inégales ou un comportement encore trop artificiel.

Autrement dit, Razer semble avoir une vision claire de la direction à prendre, mais il lui reste encore à transformer cette vision en produit mature. Si AVA parvient réellement à combiner assistance proactive, exécution de tâches, faible latence et respect de la vie privée, la marque pourrait trouver une vraie place dans la prochaine vague d’outils IA pour le gaming. Dans le cas contraire, l’assistant risque de rester un concept spectaculaire, mais difficile à imposer dans les usages.

L’IA gaming entre dans une nouvelle phase

Avec cette version « fully agentic » d’AVA, Razer montre qu’il ne veut plus seulement surfer sur la mode de l’IA, mais tenter de définir ce que pourrait être un compagnon numérique réellement actif dans l’univers du PC gaming. Le passage à un fonctionnement hybride local/cloud et l’abandon du simple format chatbot marquent une évolution stratégique assez nette.

Pour l’instant, il s’agit surtout d’une montée en puissance conceptuelle. Mais une chose est sûre : le secteur du jeu vidéo devient, lui aussi, un terrain d’expérimentation pour les agents IA capables d’agir, et plus seulement de répondre. Razer veut manifestement être aux premières loges de cette transition. Reste désormais à voir si les joueurs suivront.

Lire plus
Intelligence Artificielle

ChatGPT intègre Shazam : identifiez n’importe quelle musique sans quitter l’IA

ChatGPT intègre Shazam : identifiez n'importe quelle musique sans quitter l'IA

ChatGPT gagne une nouvelle corde à son arc dans la découverte musicale. Il est désormais possible d’utiliser Shazam directement dans ChatGPT pour identifier un morceau en cours de lecture, sans ouvrir l’application Shazam séparément.

La fiche officielle de l’app Shazam dans ChatGPT indique que l’intégration permet d’identifier une chanson « right within ChatGPT », d’afficher un aperçu du titre et d’enregistrer la découverte dans sa bibliothèque Shazam.

Une intégration simple, pensée pour rester dans ChatGPT

Le fonctionnement repose sur le système Apps de ChatGPT. OpenAI explique dans son centre d’aide que les apps peuvent être ajoutées depuis Paramètres → Applications, puis utilisées directement dans les conversations après connexion.

Screen 2026 03 10 at 15.51.55

Dans le cas de Shazam, la fiche officielle précise qu’il suffit d’utiliser @Shazam dans sa requête pour lancer la reconnaissance musicale. L’exemple mis en avant est très direct : « @Shazam, c’est quoi cette chanson ? »

Screen 2026 03 10 at 15.52.24

Ce que ChatGPT affiche après reconnaissance

Une fois l’audio analysé, ChatGPT renvoie plusieurs informations issues de Shazam, notamment le titre, l’artiste et un aperçu du morceau directement dans l’interface de chat. La page Shazam dans ChatGPT mentionne aussi la possibilité de sauvegarder les découvertes dans sa bibliothèque Shazam.

Screen 2026 03 10 at 16.00.04

Autrement dit, l’intérêt n’est pas seulement d’éviter un changement d’application. Le vrai avantage, c’est que la découverte musicale reste dans le fil de conversation, ce qui permet ensuite d’enchaîner immédiatement avec d’autres demandes : chercher des morceaux similaires, demander des infos sur l’artiste ou bâtir une playlist autour du titre identifié. Cette dernière partie est une déduction logique à partir du fonctionnement des apps dans ChatGPT et de l’intégration de Shazam dans la conversation.

L’application Shazam n’a pas besoin d’être installée pour utiliser cette fonction dans ChatGPT. En revanche, si elle est présente sur l’appareil, les morceaux reconnus via ChatGPT peuvent être ajoutés à la bibliothèque Shazam pour être retrouvés plus tard.

Une nouvelle étape dans la stratégie « Apps » de ChatGPT

Cette nouveauté s’inscrit dans la logique plus large des apps dans ChatGPT, qu’OpenAI décrit comme des outils permettant d’ajouter des services externes directement à la conversation. Le centre d’aide d’OpenAI précise que certaines apps offrent des expériences interactives dans le chat, tandis que d’autres connectent des services et des données de façon sécurisée.

L’arrivée de Shazam montre surtout que ChatGPT cherche à devenir un point d’entrée plus large pour les usages du quotidien, y compris la musique. Plusieurs médias relèvent d’ailleurs que cette intégration arrive après l’ouverture de ChatGPT à d’autres services, comme Apple Music ou Spotify via son écosystème d’apps.

Une nouveauté pratique, plus qu’une révolution

Sur le fond, Shazam dans ChatGPT ne change pas la nature de la reconnaissance musicale : c’est toujours la technologie de Shazam qui fait le travail. Mais l’intégration rend l’expérience plus fluide pour ceux qui utilisent déjà ChatGPT comme interface centrale. La vraie valeur ajoutée vient du fait que l’identification, l’aperçu et les suites possibles restent au même endroit.

En clair, ChatGPT devient un peu plus un hub de découverte musicale, pas seulement un chatbot. Et pour une fonctionnalité aussi simple que reconnaître un morceau à la volée, ce genre d’intégration peut vite devenir un réflexe.

Lire plus
Intelligence Artificielle

Microsoft Copilot Cowork : l’IA qui ne se contente plus de parler, mais qui agit

Microsoft Copilot Cowork : l'IA qui ne se contente plus de parler, mais qui agit

Microsoft passe un nouveau cap dans sa stratégie IA pour les entreprises. Avec Copilot Cowork, la firme ne veut plus seulement proposer un assistant capable de répondre à des questions ou de rédiger un brouillon. L’ambition est désormais beaucoup plus large : permettre à l’IA de planifier, exécuter et livrer de vraies tâches de travail à travers l’écosystème Microsoft 365.

L’annonce a été faite ce 9 mars 2026 dans le cadre de la Wave 3 de Microsoft 365 Copilot, une mise à jour qui introduit aussi de nouvelles capacités dites « agentiques » dans Word, Excel, PowerPoint, Outlook et Copilot Chat.

La nouveauté la plus marquante, c’est que Copilot Cowork n’est pas développé seul. Microsoft indique avoir travaillé en étroite collaboration avec Anthropic pour intégrer dans Microsoft 365 la technologie qui alimente Claude Cowork, le nouvel agent bureautique d’Anthropic dévoilé en janvier puis étendu à Windows en février.

Autrement dit, Microsoft assume clairement de s’appuyer sur l’expertise d’Anthropic pour accélérer sa propre offensive sur le terrain des agents IA au travail.

Copilot Cowork : Une IA qui ne se contente plus de répondre

La promesse de Copilot Cowork est simple sur le papier, mais très ambitieuse dans les faits. Au lieu d’obtenir une réponse unique à un prompt, l’utilisateur peut désormais confier un objectif complet à l’IA. Microsoft explique que l’agent peut découper une demande en plusieurs étapes, raisonner sur les bons outils à utiliser, avancer sur la tâche dans le temps et revenir vers l’utilisateur lorsqu’une validation est nécessaire.

Le travail peut s’étaler sur plusieurs minutes, voire plusieurs heures, tout en restant visible, pilotable et stoppable.

Cette logique change profondément la place de Copilot dans Microsoft 365. Jusqu’ici, l’IA était surtout perçue comme un copilote conversationnel. Avec Cowork, Microsoft veut transformer Copilot en couche d’exécution, capable non seulement de suggérer, mais aussi d’agir concrètement dans les applications de la suite. C’est un virage stratégique majeur pour l’éditeur, qui cherche à faire de l’IA un opérateur de workflows plutôt qu’un simple assistant rédactionnel.

Outlook, Excel, PowerPoint, Teams : un agent qui traverse les apps

L’un des grands atouts de Copilot Cowork, selon Microsoft, est sa capacité à travailler à travers plusieurs applications Microsoft 365. L’agent peut s’appuyer sur les emails Outlook, les fichiers SharePoint, les feuilles Excel, les documents Word, les présentations PowerPoint, ainsi que le contexte provenant des réunions, des chats et du calendrier. Cette capacité repose sur Work IQ, la nouvelle couche d’intelligence de Microsoft 365 Copilot, qui relie les signaux de travail d’une organisation pour donner plus de contexte à l’IA.

Microsoft a illustré plusieurs cas d’usage. Copilot Cowork peut par exemple analyser un agenda Outlook pour repérer les réunions peu prioritaires et proposer des ajustements, préparer un rendez-vous client en rassemblant des documents et en créant un support de présentation, ou encore mener une recherche approfondie à partir de sources internes et externes pour produire une synthèse, un mémo structuré et même un classeur Excel prêt à être partagé. L’idée n’est donc pas seulement de générer du contenu, mais de coordonner plusieurs livrables liés entre eux dans un même flux de travail.

Microsoft rattrape Anthropic… avec l’aide d’Anthropic

Difficile de ne pas voir dans cette annonce une réponse directe à Claude Cowork. L’outil d’Anthropic, lancé le 12 janvier 2026, a été pensé comme une extension de l’application Claude sur desktop, capable d’accéder à des dossiers locaux, d’exécuter des tâches en plusieurs étapes et de s’interfacer avec divers services via des plugins et connecteurs MCP. Anthropic l’a d’abord proposé sur macOS, avant de le rendre disponible sur Windows et sur davantage de formules payantes au fil des semaines.

Mais, Microsoft ne copie pas simplement le concept. L’entreprise adapte cette idée à son propre terrain de jeu : le cloud, la sécurité d’entreprise et l’intégration native à Microsoft 365. Là où Claude Cowork fonctionne comme un agent de bureau relativement flexible, Copilot Cowork opère directement au sein de l’infrastructure Microsoft, avec accès au graphe de travail de l’organisation et à ses règles de gouvernance. C’est là que les deux approches commencent à diverger. Cette comparaison repose sur les descriptions officielles de Microsoft et d’Anthropic.

Deux visions différentes de l’agent IA au travail

Sur le fond, Claude Cowork et Copilot Cowork partagent le même ADN : déléguer à une IA des tâches complexes qui vont au-delà du chat classique. Mais leur philosophie produit n’est pas tout à fait la même..

Claude Cowork se présente avant tout comme un agent personnel, installé sur la machine de l’utilisateur, qui agit sur des fichiers et services explicitement autorisés. Son intérêt est la souplesse. Il peut convenir à des équipes qui travaillent hors de l’univers Microsoft 365, à des profils experts qui veulent choisir précisément ce que l’IA peut voir, ou à des entreprises déjà engagées dans l’écosystème Anthropic.

Copilot Cowork, lui, vise clairement les organisations déjà très ancrées dans Microsoft 365. Son argument principal n’est pas seulement la puissance du modèle, mais la profondeur de l’intégration avec Outlook, Word, Excel, PowerPoint, SharePoint et les politiques d’identité, de conformité et de sécurité déjà en place. Pour un grand groupe qui vit dans l’univers Microsoft, cette intégration pourrait peser bien plus lourd que la simple souplesse fonctionnelle.

Claude arrive aussi dans Copilot Chat

L’autre annonce importante, un peu moins spectaculaire, mais très stratégique, concerne les modèles eux-mêmes. Microsoft confirme que Claude est désormais disponible dans le chat principal de Copilot, via le programme Frontier, aux côtés de la dernière génération de modèles OpenAI. La firme insiste d’ailleurs sur son approche « multi-model », en expliquant qu’elle veut utiliser le bon modèle pour la bonne tâche, sans enfermer ses clients dans un seul fournisseur.

C’est un signal fort. Pendant longtemps, Microsoft a surtout été perçue comme le grand partenaire d’OpenAI. Avec cette annonce, l’entreprise montre qu’elle veut désormais mettre en avant une stratégie plus ouverte, dans laquelle Anthropic joue aussi un rôle de premier plan.

Microsoft rend les derniers modèles Claude Sonnet accessibles aux utilisateurs de Microsoft 365 Copilot, alors que le service reposait auparavant uniquement sur les modèles GPT d’OpenAI.

Une disponibilité encore limitée

Pour l’instant, Copilot Cowork n’est pas lancé à grande échelle. Microsoft précise que l’outil est en research preview auprès d’un nombre limité de clients. Un accès plus large doit arriver via le programme Frontier plus tard en mars 2026.

Cette phase de lancement prudente montre que Microsoft traite Copilot Cowork comme un produit sensible, destiné d’abord aux entreprises capables de tester ces nouveaux agents dans un cadre contrôlé.

Sur la question du prix, Microsoft reste encore partiellement discrète. Une source indique qu’une partie de l’usage sera incluse dans l’abonnement Microsoft 365 Copilot à 15,60 euros par utilisateur et par mois, avec du volume supplémentaire pouvant être acheté en plus. En parallèle, Microsoft a aussi officialisé Agent 365 à 15 dollars par utilisateur et par mois, ainsi que Microsoft 365 E7, une nouvelle offre groupée à 99 dollars par utilisateur et par mois qui inclut Copilot, Agent 365 et plusieurs briques de sécurité et de gouvernance.

202603 Horizon Licensing v6

Pourquoi cette annonce compte vraiment

Copilot Cowork n’est pas une simple nouveauté de produit de plus. Cette annonce montre surtout que la bataille de l’IA au travail entre dans une nouvelle phase. Après les assistants capables de résumer, reformuler ou générer du texte, place désormais aux agents qui exécutent réellement des tâches. Microsoft veut clairement éviter de laisser Anthropic, OpenAI ou Google imposer seuls ce nouveau standard de l’IA professionnelle.

Son avantage potentiel est évident : la distribution. Microsoft 365 est déjà au cœur du quotidien de millions de salariés et de la majorité des grandes entreprises. Si Copilot Cowork tient ses promesses, il pourrait s’imposer rapidement non pas parce qu’il serait forcément le plus impressionnant sur le plan technique, mais parce qu’il est déjà là où le travail s’effectue. C’est probablement le vrai pari de Microsoft : gagner la course aux agents non pas uniquement avec le meilleur modèle, mais avec l’intégration la plus profonde dans les outils de productivité existants. Cette conclusion est une inférence à partir de la stratégie officielle et de la place de Microsoft 365 en entreprise.

Microsoft entre enfin dans l’ère de l’exécution

Avec Copilot Cowork, Microsoft officialise sa transition vers une IA capable de faire, et plus seulement de répondre. Le groupe reprend à son compte l’idée popularisée par Anthropic avec Claude Cowork, mais l’adapte à son propre empire logiciel, en s’appuyant sur Work IQ, sur l’intégration native aux apps Microsoft 365 et sur ses couches de sécurité d’entreprise.

La vraie question, maintenant, n’est plus de savoir si les agents IA vont envahir le monde du travail. Elle est de savoir quelle plateforme deviendra le point d’entrée privilégié pour leur délégation au quotidien. Et sur ce terrain, Microsoft vient de montrer qu’il n’avait aucune intention de laisser la place libre.

Lire plus
Intelligence Artificielle

OpenAI Stargate vs Anthropic : La nouvelle guerre de l’IA se gagne sur le réseau électrique

OpenAI Stargate vs Anthropic : La nouvelle guerre de l'IA se gagne sur le réseau électrique

Quand OpenAI a présenté Stargate comme un chantier à 500 milliards de dollars (avec 100 milliards « déployés immédiatement ») pour sécuriser la puissance de calcul des futurs modèles, le récit était simple : l’IA a besoin d’infrastructures, donc on va construire plus grand que tout le monde.

Sauf qu’une mégafabrique d’IA ne se pilote pas comme un roadmap produit. Et c’est précisément ce que des dirigeants d’Anthropic (selon The Information) seraient en train d’étudier : les « douleurs de croissance » de Stargate comme un cas d’école — avant de commettre les mêmes erreurs.

La leçon n° 1 : le goulot d’étranglement n’est plus le GPU — c’est l’électricité

La course au compute est désormais une course aux mégawatts. OpenAI a dû multiplier les annonces et mécanismes « énergie » autour de Stargate, jusqu’à dévoiler un plan « Community » visant à éviter que ses datacenters ne fassent monter la facture des communautés locales.

Et, la réalité de terrain, c’est que les projets sont obligés de sécuriser très tôt des contrats d’énergie, des raccordements, des sous-stations et parfois des solutions de production (gaz, etc.). Reuters a même rapporté un investissement direct d’OpenAI et SoftBank dans SB Energy pour soutenir un projet de campus datacenter de 1,2 GW au Texas, signe que l’énergie est devenue un volet stratégique, pas un sujet « ops ».

Côté Anthropic, le message est encore plus explicite : l’entreprise a annoncé qu’elle assumerait les coûts des upgrades réseau nécessaires au raccordement de ses datacenters, plutôt que de les faire porter aux consommateurs — une manière de désamorcer d’emblée la friction politique locale qui ralentit tant de projets.

Autrement dit, la première décision d’un laboratoire IA n’est plus « quel modèle on entraîne », mais « où et comment on alimente la machine ».

La leçon n° 2 : les coentreprises font rêver… et ralentissent

Stargate, tel que présenté publiquement, repose sur une architecture multi-partenaires (OpenAI + SoftBank + Oracle, et d’autres partenaires industriels selon les vagues d’annonces).
Ce type de montage a un avantage évident : le capital et les compétences se répartissent. Mais, il a un coût opérationnel : plus il y a d’acteurs, plus la gouvernance se complexifie (priorités divergentes, calendriers différents, arbitrages plus lents). On le voit aussi dans la façon dont Stargate s’étend par « tranches » de sites et de capacités annoncées au fil du temps.

Anthropic, à l’inverse, a historiquement un modèle plus « cloud-first », mais a déjà commencé à afficher des ambitions d’infra plus directes : l’entreprise a annoncé 50 milliards de dollars d’investissement pour des datacenters américains, avec des sites mis en service au fil de 2026.

Dans ce contexte, l’apprentissage est limpide : si vous voulez aller vite, il faut réduire les couches de décision — ou au minimum verrouiller à l’avance « qui décide quoi ».

La leçon n° 3 : la communication peut devenir un risque

Stargate a été annoncé comme un projet quasi « national » et ultra-visible, avec une promesse de leadership américain, de création d’emplois et d’industrialisation. Cette visibilité a un revers : les projets deviennent politiques, scrutés localement (logement, environnement, réseau électrique) et médiatiquement (délais, coûts, retombées). À Abilene (Texas), la presse a même commencé à documenter les effets sociaux collatéraux d’un chantier de cette ampleur.

Anthropic semble vouloir apprendre de cette exposition : investir gros, oui, mais en cadrant très tôt l’impact local (énergie, réseau, communautés) pour éviter que l’infrastructure ne devienne un sujet de contestation qui ralentit tout.

Ce qui se joue vraiment : le centre de gravité de l’IA bascule vers l’exécution industrielle

On a longtemps raconté l’IA comme une course d’algorithmes. Désormais, c’est une course d’approvisionnement : énergie, foncier, béton, personnel qualifié, et capacité à déployer à l’échelle sans casser les règles (ou la confiance locale).

D’ailleurs, l’argent suit déjà ce mouvement : Wall Street et les grands acteurs financiers se ruent sur le financement de data centers et d’infrastructures, avec des deals massifs autour d’Oracle, Meta, etc.

Et sur le terrain, l’avantage compétitif n’est pas « qui annonce le plus », mais qui livre le plus vite.

Ce que ça signifie pour Anthropic

Si The Information a raison, Anthropic regarde Stargate comme on regarde un crash-test : une démonstration en grandeur nature de ce qui casse quand l’ambition dépasse la logistique.

Les trois points qui semblent déjà ressortir (et que les annonces publiques d’Anthropic confirment indirectement) :

  1. Sécuriser l’énergie d’abord, contractualiser, financer l’upgrade réseau, choisir des zones où la disponibilité est réelle.
  2. Simplifier la gouvernance, réduire les dépendances ou les rendre explicites et contractuelles.
  3. Privilégier des opérateurs data center expérimentés, plutôt que de « tout inventer », pour limiter les dérives de planning.

Le paradoxe est cruel : pour gagner la bataille des modèles, il faut gagner la bataille des chantiers. Et ça, aucun benchmark ne le mesure.

Lire plus
Intelligence Artificielle

Fin de l’anonymat ? Une IA d’Anthropic peut vous identifier pour moins de 4 dollars

Fin de l'anonymat ? Une IA d'Anthropic peut vous identifier pour moins de 4 dollars

Pendant longtemps, l’anonymat sur Internet reposait sur un principe tacite : vos traces existent, mais personne n’a le temps de recoller les morceaux. Une nouvelle prépublication sur arXiv, coécrite par des chercheurs d’Anthropic et de l’ETH Zurich, suggère que cette « obscurité pratique » est en train de s’effondrer — non pas parce que les données sont nouvelles, mais parce que les LLM automatisent l’enquête.

Ce que montre le papier (sans le sensationnalisme)

Le travail, intitulé Large-scale online deanonymization with LLMs, décrit un pipeline d’agent IA capable de relier des profils pseudonymes à des identités réelles à grande échelle, uniquement à partir de texte public et d’indices indirects (centres d’intérêt, style, détails biographiques épars), puis en confrontant ces signaux à des candidats trouvés en ligne.

Les auteurs évaluent la méthode sur trois jeux de données à « vérité terrain » (où l’identité réelle est connue, pour éviter de cibler des anonymes « réels » sans consentement) :

  1. association Hacker News → LinkedIn après suppression des identifiants évidents,
  2. rapprochement de comptes Reddit à travers des communautés,
  3. découpe artificielle de l’historique d’un utilisateur Reddit en deux profils, pour tester la capacité à comprendre qu’il s’agit de la même personne.

Des résultats qui changent l’échelle du risque

Le papier rapporte que l’approche basée sur LLM surperforme largement des méthodes « classiques » : jusqu’à 68 % de rappel à ~90 % de précision selon les datasets, quand les baselines non-LLM tombent proche de zéro dans ces configurations.

Autre chiffre marquant : le coût estimé d’une identification dans leur pipeline expérimental serait de l’ordre de 1 à 4 dollars par profil, ce qui rend théoriquement possible des campagnes à grande échelle (et donc le risque d’abus).

Pourquoi c’est important pour « tout le monde », pas seulement les célébrités

La pseudonymie sert de ceinture de sécurité à des usages ordinaires (santé, sexualité, travail, dettes, opinions) mais aussi à des catégories exposées (journalistes, activistes, lanceurs d’alerte). L’étude suggère que l’arrivée d’agents IA capables de « faire l’enquête » abaisse la barrière : ce qui demandait des heures humaines peut devenir une routine automatisée.

Les auteurs précisent aussi deux garde-fous : c’est une prépublication non revue par les pairs et ils ont retenu certains détails techniques pour réduire le potentiel de détournement — signe qu’ils ont conscience du caractère dual-use.

La vie privée n’est pas « morte », mais le modèle mental doit changer

Cette recherche ne signifie pas que toute tentative d’anonymat est vouée à l’échec. Elle signifie plutôt que l’ancienne intuition — « mes posts sont noyés dans la masse » — est moins vraie, parce que l’IA sait chercher, comparer et raisonner à une vitesse et une échelle inédites. Le déplacement est majeur : la défense ne peut plus reposer uniquement sur le volume de bruit. Elle doit reposer sur la discipline de signal.

Sans entrer dans des techniques « opérationnelles », quelques principes ressortent mécaniquement du type de signaux exploités : éviter de disséminer des détails biographiques uniques (parcours, employeur, lieux, horaires, anecdotes très spécifiques) sur un même pseudo, limiter les croisements involontaires entre comptes (mêmes formulations, mêmes « rituels » de publication, mêmes références personnelles), cloisonner les usages sensibles (pseudos séparés, hygiène de profils), et surtout : traiter la pseudonymie comme un niveau de protection, pas une garantie.

Et maintenant ?

À court terme, cette étude met la pression sur deux acteurs : les plateformes, qui devront mieux protéger les utilisateurs contre la corrélation inter-sites (et mieux limiter l’exfiltration massive de contenus publics), et les fournisseurs d’IA, qui vont devoir gérer un paradoxe : améliorer les capacités de recherche et de raisonnement… tout en limitant leur détournement.

Le point le plus inconfortable, c’est aussi le plus lucide : l’IA rend certains types d’investigation « moins chers ». La question devient donc politique, produit et juridique : qui peut le faire, avec quelles limites, et avec quels garde-fous ?

Lire plus