fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Grok Imagine 1.0 : xAI lance la vidéo 720p avec audio synchronisé et 10 secondes d’action

Grok Imagine 1.0 : xAI lance la vidéo 720p avec audio synchronisé et 10 secondes d'action

Le marché de la vidéo générative a changé de rythme : on n’y « teste » plus des démos, on y industrialise des workflows. Avec Grok Imagine 1.0, xAI annonce une mise à jour majeure axée sur trois obsessions très produit — qualité, latence, coût — et revendique un chiffre destiné à marquer les esprits : 1,245 milliard de vidéos générées en 30 jours.

L’enjeu n’est plus de produire un clip impressionnant une fois sur dix. C’est de répéter, d’itérer, d’éditer — comme on le ferait dans un pipeline créatif. C’est exactement la promesse mise en avant dans l’annonce « wide release » : un Grok Imagine 1.0 « plus rapide », « plus efficace » et plus agréable à faire boucler pour les créateurs comme pour les développeurs.

Cette stratégie, xAI la pousse aussi côté intégration : la génération n’est plus un gadget isolé dans une app, elle devient un service — via une API pensée comme un point d’entrée unique.

Ce que Grok Imagine 1.0 apporte concrètement

Sur la fiche « capabilities », Grok Imagine 1.0 vise un format court mais exploitable :

  • Jusqu’à 10 secondes de vidéo en 720p.
  • Audio amélioré, présenté comme « dramatiquement meilleur » (xAI insiste beaucoup sur la synchro et le rendu).
  • Text-to-video et image-to-video, avec une meilleure gestion du mouvement, des interactions d’objets et de la continuité visuelle.
  • Accès direct via l’interface Grok Imagine (web/app).

Ce n’est pas le format « film » — c’est le format réseaux, le format storyboard, le format itération rapide. Dit autrement : xAI semble parier que la valeur se trouve moins dans la durée que dans le débit créatif.

Grok Imagine API, l’édition intégrée comme différenciateur

Le vrai mouvement stratégique est peut-être là. L’API Grok Imagine est décrite par xAI comme un bundle unifié pour des workflows « end-to-end », où la génération et l’édition cohabitent.

L’idée : éviter le ping-pong entre outils (génération → export → éditeur → retouches → re-export), et permettre dans un même flux :

  • générer une séquence à partir d’un prompt ou d’une image,
  • raffiner une scène « cinématique »,
  • éditer (ajouter/retirer/remplacer des éléments, changer l’ambiance, restyler),
  • et repartir immédiatement en itération.

Côté développeurs, xAI met aussi en avant une intégration « API-first » plus large : la plateforme indique une compatibilité avec les SDKs type OpenAI/Anthropic via changement d’URL/base, ce qui vise à réduire la friction d’adoption.

L’adoption « à grande échelle » aura un prix — et pas seulement en dollars

Revendiquer 1,245 milliard de vidéos en 30 jours, c’est installer une narration : « nous sommes déjà en production massive ». Mais, cette montée en puissance remet aussi au centre une question que la vidéo générative rend impossible à esquiver : la sécurité et l’abus.

Ces dernières semaines, Grok et ses outils d’édition d’image ont été au cœur de controverses liées à la génération de contenus non consensuels et sexualisés, avec des réactions politiques et réglementaires rapportées par plusieurs médias. Et la vidéo, par nature, augmente encore l’impact : elle rend le faux plus « vivant », plus viral, plus difficile à contester.

C’est là que la stratégie d’xAI sera jugée au-delà des benchmarks : qualité + vitesse ne suffisent plus. Le marché attend aussi des garde-fous crédibles, des politiques de modération, des mécanismes d’empreinte/traçabilité — bref, une maturité produit à la hauteur de l’ambition.

Face à OpenAI et Google (qui poussent eux aussi leurs modèles vidéo), xAI joue une carte très « plateforme » : du contenu court, vite produit, et désormais pilotable via API avec de l’édition intégrée.

Lire plus
Intelligence Artificielle

OpenClaw : tout ce qu’il faut savoir sur l’agent IA open source qui fait parler la tech

OpenClaw : tout ce qu’il faut savoir sur l’agent IA open source qui fait parler la tech

On l’appelle « l’IA qui fait vraiment des choses » — et c’est précisément ce qui rend OpenClaw aussi attirant… que potentiellement dangereux. Cet agent open source, rebaptisé plusieurs fois (Clawdbot, puis Moltbot, désormais OpenClaw), s’installe sur votre propre machine et se pilote depuis vos messageries.

Résultat : il peut gérer des emails, des rappels, des réservations — et, si vous le laissez faire, toucher à vos comptes et à vos données les plus sensibles.

Pourquoi OpenClaw devient viral maintenant ?

OpenClaw s’est imposé en quelques jours dans certains cercles (fondateurs, investisseurs, builders) parce qu’il propose une promesse rare : un agent qui « agit », plutôt qu’un chatbot qui « répond ».

Sa formule est simple : un « assistant » qui tourne chez vous, connecté à vos canaux du quotidien (WhatsApp, Telegram, Signal, Discord, iMessage, etc.), et capable d’exécuter des tâches via des intégrations et des « skills ».

Côté récit, ça coche toutes les cases de l’époque : l’agentic AI, le « vibe coding », et cette sensation grisante d’automatiser sa vie en branchant un cerveau logiciel sur ses comptes. Business Insider raconte aussi l’effet « rabbit hole » chez son créateur et l’attraction quasi addictive de construire et d’itérer à vitesse maximum.

Ce que l’on sait (factuel) sur OpenClaw aujourd’hui

OpenClaw est open source et s’appuie sur une architecture « assistant + canaux de messagerie » (WhatsApp/Telegram/Signal/iMessage/Teams, etc.). Le projet a officiellement entériné son rebranding (Clawdbot → Moltbot → OpenClaw). Aujourd’hui il peut trier des emails, envoyer des messages, gérer un agenda, réaliser des check-in de vols, etc. — avec une philosophie « contrôle par chat ».

Autour d’OpenClaw, un registre/écosystème de « skills » s’est développé… et c’est déjà l’un des points les plus sensibles.

Sécurité : les alertes qui reviennent le plus

C’est la contrepartie mécanique du « ça agit » : un agent qui a des permissions peut aussi devenir un point d’entrée.

Plusieurs analyses sécurité rapportent des configurations laissant fuiter des éléments sensibles (historiques, clés, credentials) via des interfaces ou endpoints mal verrouillés. VentureBeat parle de scans trouvant des centaines/milliers d’instances exposées avec des fuites potentielles (API keys, chat histories, account credentials). Des acteurs sécurité détaillent aussi le risque structurel : un agent qui centralise tokens/OAuth/API keys devient une « cible unique » si l’accès est mal isolé.

D’autres sources rapportent des « skills » malveillants apparus dans l’écosystème, visant notamment des utilisateurs crypto, avec des mécaniques d’exécution de scripts et d’exfiltration. Traduction : dès qu’on mélange exécution locale + plugins + automatisation, on retrouve les problèmes classiques des stores d’extensions… mais avec des conséquences souvent plus graves, parce que l’agent « a le droit » d’agir.

En outre, il y a des risques d’agents manipulés via des contenus entrants (e-mails, messages, pages), où l’attaque consiste à « instruire » le modèle à faire fuiter ou exécuter des actions non désirées — un sujet très actif en recherche et difficile à bétonner en pratique.

Moltbook : quand les agents se mettent à « socialiser »

L’autre raison de la hype, c’est le théâtre : Moltbook, un réseau façon Reddit où des agents postent et interagissent entre eux, pendant que les humains observent. À ce stade, plusieurs experts interrogés relativisent : beaucoup de comportements peuvent être directement pilotés par des humains (prompts, consignes, thèmes), ce qui fait de Moltbook un mélange de performance, de démonstration et de preview de ce que des essaims d’agents pourraient produire à grande échelle.

Si vous testez OpenClaw, la règle d’or tient en une phrase : un agent doit vivre dans une boîte.

  • Principe du moindre privilège : n’accordez pas l’accès « tout le poste + tous les comptes » par défaut. Commencez par une seule boîte mail, un seul calendrier, un périmètre restreint.
  • Séparez les environnements : machine dédiée/compte dédié/profil navigateur dédié, surtout si l’agent manipule des identifiants. (C’est exactement le type de pratique mentionnée par des utilisateurs qui isolent l’agent pour limiter les dégâts en cas de dérive.)
  • Méfiez-vous des « skills » : considérez-les comme du code exécutable. Vérifiez la provenance, lisez le code si possible, fuyez les scripts à exécuter « à la main » sans comprendre.
  • Actions sensibles = validation humaine : paiements, achats, changements de sécurité, accès à un gestionnaire de mots de passe : si l’agent est autonome ici, vous jouez à quitte ou double.
  • Surveillez l’exposition réseau : beaucoup d’incidents naissent d’interfaces admin laissées ouvertes. Si vous n’êtes pas sûr, partez du principe que « c’est visible ».

OpenClaw n’est pas juste un « assistant sympa ». C’est un prototype de nouvelle interface : on ne parle plus à une IA pour obtenir du texte, on lui délègue des capacités d’action. Et c’est exactement pour ça que l’actualité est double : fascination produit d’un côté, alerte sécurité de l’autre.

Si 2026 a un parfum de bascule, OpenClaw en est un symptôme parfait : l’automatisation devient personnelle — et la cybersécurité, intime.

Lire plus
Intelligence Artificielle

Gemini 3 Flash : Agentic Vision transforme l’analyse d’images en enquête avec exécution de code

Gemini 3 Flash : Agentic Vision transforme l’analyse d’images en enquête avec exécution de code

Jusqu’ici, la plupart des modèles « vision » regardaient une image comme on jette un coup d’œil à une affiche : en une seule passe, puis ils improvisaient si un détail leur échappait. Google DeepMind vient d’annoncer un changement de méthode avec Agentic Vision dans Gemini 3 Flash : l’image n’est plus seulement interprétée, elle est explorée activement, étape par étape, avec exécution de code Python pour zoomer, recadrer, annoter et vérifier avant de répondre.

Google affirme qu’activer l’exécution de code avec Gemini 3 Flash apporte un gain de qualité « constant » de 5 à 10 % sur la plupart des benchmarks vision.

Ce que change Agentic Vision : de « je vois » à « je vérifie »

Google DeepMind résume le problème des modèles multimodaux classiques : s’ils ratent un détail fin — un numéro de série sur un micro-composant, un panneau lointain — ils sont forcés de deviner. Agentic Vision renverse la logique en traitant la vision comme un processus d’investigation : le modèle planifie, agit, puis ré-observe avec un nouveau contexte visuel.

L’enjeu n’est pas seulement la précision : c’est la capacité à réduire l’hallucination visuelle en remplaçant l’estimation probabiliste par des opérations contrôlables.

agentic vision gemini 3 flash bl 1

Comment ça marche : Think → Act → Observe ?

Google décrit une boucle itérative en trois temps :

  • Think : le modèle analyse la question + l’image et établit un plan multi-étapes.
  • Act : il génère et exécute du Python pour manipuler l’image (recadrage, rotation, annotation) ou l’analyser (comptage, calculs…).
  • Observe : l’image transformée est réinjectée dans la fenêtre de contexte, et le modèle ré-examine les nouveaux éléments avant de conclure.

agentic vision gemini 3 flash bl 2

C’est une évolution importante : l’IA ne se contente plus d’être « multimodale », elle devient outillée, et donc plus proche d’un assistant technique capable de produire des réponses traçables.

Des cas d’usage très concrets : zoom implicite, annotations, « visual math »

Google illustre trois bénéfices immédiats :

  • Zoom/inspection fine : Gemini 3 Flash est entraîné à « zoomer implicitement » quand c’est nécessaire. La société cite PlanCheckSolver.com, qui aurait gagné +5 % de précision en activant l’exécution de code pour découper et analyser des zones d’un plan (bords de toit, sections de bâtiment), puis les réinjecter au contexte.
  • Annotation : au lieu de « décrire », le modèle peut dessiner des boîtes et étiquettes sur l’image pour s’auto-vérifier (ex : compter des doigts) — une sorte de brouillon visuel qui réduit les erreurs de comptage.
  • Math visuelle & plotting : lecture de tableaux denses + normalisation + graphique Matplotlib, avec calcul déporté dans un environnement Python déterministe (et donc vérifiable).

On voit se dessiner une philosophie : quand la réponse dépend d’un détail, la meilleure stratégie n’est pas « raisonner plus fort », mais mesurer mieux.

API d’abord, app ensuite

Agentic Vision est disponible dès maintenant via l’API Gemini dans Google AI Studio et Vertex AI. Le déploiement démarre aussi dans l’app Gemini, accessible en sélectionnant l’option « Thinking » dans le choix de modèles.

Côté développeurs, Vertex AI documente déjà Code execution comme une capacité supportée par Gemini 3 Flash (preview), aux côtés du grounding et des system instructions.

La vraie rupture, c’est la « preuve » plutôt que la prose

Ce lancement raconte un basculement plus large : l’avenir des modèles visuels ne se jouera pas uniquement sur des scores, mais sur leur capacité à produire des réponses ancrées dans des opérations reproductibles (recadrage, comptage, calcul). Ce n’est pas un détail UX : c’est un changement d’épistémologie. Une IA qui peut montrer comment elle a vérifié une zone d’image se rapproche d’un assistant « professionnel » — utile en inspection, conformité, industrie, santé, assurance, architecture.

DeepMind le dit d’ailleurs sans détour : aujourd’hui le zoom est déjà très « implicite », mais des comportements comme rotation ou visual math demandent encore un « coup de pouce » — et Google travaille à les rendre automatiques, tout en explorant d’autres outils (web, reverse image search) et une extension à d’autres tailles de modèles.

Lire plus
Intelligence Artificielle

LM Studio 0.4.0 : l’app « ChatGPT local » se réinvente en serveur IA (et change de dimension)

app screen

Il y a des mises à jour qui peaufinent. Et puis il y a celles qui déplacent le produit sur un autre terrain. Avec LM Studio 0.4.0, l’outil fétiche des amateurs de modèles locaux ne se contente plus d’être une belle interface pour discuter avec un LLM sur son GPU : il prend des airs d’infrastructure, pensée pour servir des requêtes en parallèle, s’intégrer à des workflows, et même tourner « headless » sur un serveur.

Un virage clair : de l’appli de bureau à la brique de déploiement

La nouveauté la plus structurante s’appelle llmster : le « cœur » de LM Studio, désormais empaqueté pour fonctionner sans interface graphique, en mode daemon, et se déployer sur une machine Linux, une instance cloud,… voire un Colab. L’équipe explique avoir séparé l’UI de la couche moteur pour rendre ce scénario possible.

Traduction concrète : LM Studio ne vise plus seulement l’utilisateur qui veut lancer un modèle en local « comme ChatGPT », mais aussi le développeur — ou l’équipe — qui veut héberger son propre endpoint et brancher des applications dessus.

Des performances pensées « serveur » : requêtes parallèles et batching continu

LM Studio 0.4.0 introduit la gestion de requêtes concurrentes vers un même modèle via du continuous batching, une approche qui vise le débit et l’efficacité quand plusieurs demandes arrivent en même temps.

Point technique important : LM Studio indique que son moteur llama.cpp « passe » en version 2.0.0, ce qui accompagne l’arrivée de cette concurrence côté inference (avec des réglages comme le nombre maximum de prédictions simultanées et une gestion unifiée du KV cache).

Une API plus « pro » : stateful chat, contrôle d’accès, et endpoints natifs

Autre brique : une API REST native v1 (sur /api/v1/*) et un endpoint de chat étatique permettant d’enchaîner une conversation via des identifiants (response_id, previous_response_id) — pratique pour des workflows multi-étapes sans renvoyer tout le contexte à chaque appel.

LM Studio ajoute aussi une logique de clés de permission (contrôle des clients autorisés) et met en avant le support d’usages outillés (notamment via MCP, selon la documentation).

L’expérience utilisateur n’est pas oubliée : UI refondue, export, split view

Ce pivot « infra » aurait pu sacrifier le confort. Au contraire, l’application reçoit une refonte UI et des fonctions qui parlent à tous ceux qui travaillent vraiment avec un LLM au quotidien :

  • export des conversations en PDF, Markdown ou texte

  • Split View pour ouvrir plusieurs chats côte à côte (utile pour comparer des prompts ou travailler en parallèle)
  • Developer Mode et documentation intégrée pour rendre l’outillage plus lisible
  • et un nouveau flux CLI, avec lms chat, pour discuter directement depuis le terminal

Pourquoi cette mise à jour compte (vraiment) ?

Derrière la liste de features, LM Studio 0.4.0 illustre un mouvement de fond : la normalisation de l’IA locale comme alternative crédible au cloud, non seulement pour la confidentialité, mais pour l’intégration produit.

Pour les développeurs et responsables produits, c’est un pas de plus vers un « stack » local où le modèle devient un service, consommable comme une API. Pour les équipes, c’est un signal : LM Studio veut être plus qu’un client de chat — un composant que l’on peut mettre en CI, automatiser, sécuriser, monitorer. Enfin, pour l’écosystème, c’est aussi une réponse à la montée des workflows agentiques : l’intérêt n’est plus seulement « parler au modèle », mais orchestrer des appels, en parallèle, et brancher le tout à des outils.

En clair : LM Studio se rapproche d’un territoire historiquement occupé par des solutions plus « dev-first ». Et, il le fait sans renier ce qui a fait son succès : une couche d’interface simple, presque grand public, pour dompter des modèles parfois tout sauf simples.

Lire plus
Intelligence Artificielle

Google Project Genie : L’IA qui génère des mondes jouables en temps réel est là

Google Project Genie : L'IA qui génère des mondes jouables en temps réel est là

Après les chatbots, l’IA veut construire des espaces. Google commence à déployer Project Genie, un prototype hébergé dans Google Labs qui permet de créer, explorer et remixer des « mondes » interactifs générés en temps réel.

L’idée : passer du contenu généré (texte, image, vidéo) à une expérience navigable, où l’environnement se fabrique à mesure que vous avancez.

Google Project Genie : un prototype de « world model » dans Google Labs

Project Genie s’appuie sur Genie 3, le « world model » de Google DeepMind présenté en 2025 : un modèle censé simuler un environnement cohérent et réagir à vos actions (déplacements, orientation, interactions) au fil du temps. Contrairement à un moteur 3D classique où tout est pré-calculé, ici le monde est généré en continu — vous ne « chargez » pas une map, vous la faites émerger.

Google le positionne comme un outil de création immersive (fiction, animation, prototypage) mais aussi comme une brique de recherche utile pour des domaines qui ont besoin de simulation (robotique, agents).

Comment ça marche : esquisse → exploration → remix ?

Le flux est pensé pour donner l’illusion du « facile » :

  • World sketching : vous décrivez un univers (texte) et/ou vous partez d’une image (upload ou génération). Project Genie produit une image de prévisualisation pour cadrer l’esthétique avant de « rentrer » dans le monde — un passage boosté par Nano Banana Pro.

  • World exploration : vous naviguez ensuite dans l’environnement pendant que Genie 3 génère le couloir devant vous en temps réel.
  • World remixing : vous reprenez un monde existant, vous réécrivez le prompt, vous bifurquez — une logique très « remix culture », appliquée à des espaces interactifs.

Les limites (et elles comptent) : 60 secondes, 720p, latence

Google insiste : c’est un prototype de recherche. Et ça se voit. Plusieurs retours concordent sur des contraintes assez strictes : sessions limitées à 60 secondes, rendu autour de 720p, fréquence d’images évoquée à ~20–24 fps, et une latence qui peut rendre l’exploration plus « démo technique » que « jeu jouable ».

Ces contraintes ne sont pas anecdotiques : elles disent quelque chose de la réalité physique du produit. Les « mondes générés en temps réel » coûtent cher en calcul, et Google préfère clairement cadrer l’expérience plutôt que de promettre un univers persistant illimité — pour l’instant.

L’IA passe du « répondre » au « faire exister »

Ce lancement a une portée bien plus large qu’un simple gadget Labs. Pour la création, Project Genie esquisse un futur où l’on ne génère plus une image d’ambiance ou un plan vidéo, mais un lieu navigable — parfait pour prévisualiser une scène, prototyper un niveau, ou explorer une idée narrative sans pipeline 3D.

Pour le jeu vidéo, l’industrie commence à regarder ces « world models » comme un potentiel accélérateur — pas forcément pour remplacer les studios, mais pour compresser certaines étapes (itérations, blockouts, tests d’ambiance).

Pour les agents et la robotique, l’intérêt est encore plus fondamental : un « monde » simulé permet d’entraîner des comportements, tester des stratégies, apprendre par exploration dans un environnement généré. C’est une vieille promesse de l’IA… qui retrouve une matérialité.

L’autre sujet : droits, ressemblances, et garde-fous

Dès les premiers essais, des observateurs ont noté des mondes « qui font penser à » des univers existants, avec des questions évidentes autour du style, des références, et des limites imposées par le produit. Autrement dit : si vous permettez de fabriquer des espaces à la demande, vous ouvrez aussi la porte au débat sur ce qui est « inspiré » versus « copié ».

Pour l’instant, l’accès démarre aux États-Unis, pour les abonnés Google AI Ultra (18+), avec une extension progressive à d’autres régions annoncée — un déploiement typique des projets Labs : tester vite, écouter, itérer.

Lire plus
Intelligence Artificielle

Sam Altman admet un recul de l’écriture sur GPT-5 : OpenAI promet un retour du « raffinement » dans GPT-5.x

Sam Altman admet un recul de l’écriture sur GPT-5 : OpenAI promet un retour du « raffinement » dans GPT-5.x

Depuis quelques semaines, un même constat remonte chez les utilisateurs intensifs : la logique progresse, le code s’améliore… mais la prose se durcit. Plus dense, plus longue, parfois moins agréable à parcourir — surtout dès qu’on demande une explication développée.

Lors d’un town hall développeurs, le CEO d’OpenAI Sam Altman a fini par le reconnaître publiquement. Interpellé sur une écriture jugée « maladroite » et « dure à lire » par rapport à GPT-4.5, il a répondu sans détour : « Je crois qu’on vient de tout gâcher ». Et, il promet que les prochaines itérations GPT-5.x devront redevenir « meilleures à l’écrit » — sans sacrifier les gains techniques.

Le point de friction est apparu quand Ben Hilac (CTO de Raindrop) a expliqué que GPT-4.5 lui semblait être « la première version vraiment forte en écriture », alors que GPT-5 serait plus irrégulier : gros progrès en dev, mais baisse de lisibilité.

Altman ne conteste pas le diagnostic : il l’assume comme un choix de priorisation — et, rétrospectivement, comme une erreur sur l’expérience de lecture.

Pourquoi OpenAI a « choisi le code » : contrainte de ressources et arbitrage produit

La justification avancée est pragmatique : OpenAI aurait été sous contrainte de bande passante/ressources, et a décidé, sur ce cycle, de pousser en priorité : le raisonnement, le coding, et les tâches « style d’ingénierie ». Quitte à laisser d’autres qualités (clarté, naturel, concision) stagner ou régresser.

C’est exactement le type de compromis qui ne se voit pas sur un benchmark — mais se ressent instantanément quand on lit une réponse de 900 mots.

Le cœur du pari : un seul modèle, pas un « mode écrivain » séparé

Altman insiste sur un point stratégique : OpenAI ne veut pas que l’utilisateur choisisse entre un modèle qui code et un modèle qui écrit. L’ambition reste celle d’un système généraliste où l’intelligence « transfère » : la même IA doit pouvoir bâtir un produit et le raconter clairement, dans la même session.

Autrement dit : l’écriture n’est pas un vernis. C’est une fonctionnalité — parce que sans une écriture lisible, même la meilleure solution technique devient pénible à exploiter.

GPT-5.x et les notes de version

OpenAI oriente déjà l’attention vers GPT-5.x comme le lieu où la lisibilité doit remonter, sans « rendre » les gains en raisonnement et en dev. En attendant, la tension est intéressante : les release notes de ChatGPT présentent GPT-5.2 Thinking comme plus « raffiné » sur certains usages (structuration, tâches pro, etc.), alors que la critique des utilisateurs porte sur une autre forme de raffinement : la fluidité de lecture, le rythme, la respiration du texte.

En attendant un vrai rééquilibrage côté modèle, on peut souvent obtenir une sortie beaucoup plus propre avec des contraintes explicites :

  • « Réponds en 6–8 phrases, phrases courtes, niveau article »
  • « Commence par un résumé en 3 lignes, puis détaille »
  • ‘Structure en titres H2, évite les digressions »
  • “Donne une version prête à publier, puis une version technique en annexe »

Ce n’est pas magique, mais ça transforme GPT-5 en ce qu’il semble être aujourd’hui : un excellent moteur logique… qui a besoin qu’on lui rappelle le confort du lecteur.

Lire plus
Intelligence Artificielle

ChatGPT Health et Claude : pourquoi les IA santé peuvent se contredire avec vos données Apple Watch ?

ChatGPT Health et Claude : pourquoi les IA santé peuvent se contredire avec vos données Apple Watch ?

Donner dix ans de données Apple Watch à une IA pour obtenir un verdict santé : l’idée ressemble à une démo futuriste. Sauf que, dans la vraie vie, elle peut surtout produire une chose très humaine… de l’angoisse. Et, un résultat changeant, parfois à quelques messages d’intervalle.

Dans une récente enquête, un journaliste du Washington Post a connecté ChatGPT Health à une décennie de métriques issues de l’Apple Watch (pas, fréquence cardiaque, tendances, etc.) et a demandé une simple note de santé cardiovasculaire. Résultat : un « F ». Après avoir ajouté davantage d’informations médicales, la note remonte… à « D ». Chez Anthropic, Claude for Healthcare délivre de son côté un « C » sur des données similaires.

Problème : des médecins consultés dans la foulée jugent ces conclusions peu fondées et jugent l’état général du patient bon.

Le cœur du sujet n’est pas que l’IA se trompe (ça, on le savait). C’est la volatilité du verdict, comme si l’outil changeait de personnalité selon le contexte, la formulation ou les pièces jointes. Une « note » n’a l’air de rien… jusqu’au moment où elle vous suit dans la tête.

Pourquoi ces « IA médecins » patinent encore ?

Ces nouvelles briques santé sont pensées pour transformer des chiffres en phrases compréhensibles : résumer des tendances, expliquer des résultats, préparer des questions à poser à son médecin. Anthropic met en avant des intégrations en bêta (Apple Health, Health Connect, HealthEx, Function) et insiste sur le consentement et la non-utilisation des données santé pour l’entraînement.

Mais, l’enquête du Washington Post montre surtout un piège classique : l’illusion de précision. Le ton est assuré, le vocabulaire médical crédible… et pourtant l’outil peut surpondérer des indicateurs discutables, confondre corrélation et causalité, ou interpréter un signal bruité comme un red flag.

À cela s’ajoute un point structurel : ces IA ne sont pas des dispositifs médicaux au sens strict, et leurs garde-fous sont souvent… des disclaimers. Dans l’article, des experts soulignent aussi la question de la protection des données (toutes les garanties ne relèvent pas forcément des mêmes cadres qu’un parcours de soins).

Derrière la fonctionnalité, une bataille stratégique (Apple inclus)

Ce qui se joue ici dépasse le gadget. OpenAI et Anthropic cherchent à devenir l’interface « naturelle » de votre vie numérique — et la santé est le Graal : données fréquentes, personnelles, et riches en contexte.

Et, Apple observe, forcément. Selon des rumeurs récurrentes, Cupertino préparerait Health+, une offre avec coaching (possiblement dopée à l’IA) dans le courant de 2026. Si ces projets se concrétisent, Apple devra réussir là où les autres trébuchent déjà : fiabilité, explicabilité, et surtout un ton qui aide sans déclencher des alertes injustifiées.

L’usage « safe » se dessine assez clairement :

  • Oui pour résumer, traduire un jargon, préparer un rendez-vous.
  • Non pour se laisser enfermer dans une note ou un diagnostic sorti d’un chat.

Le plus grand risque n’est pas seulement l’erreur : c’est l’autorité perçue. Un « F » peut pousser à paniquer, un « A » peut pousser à ignorer un vrai signal. Dans les deux cas, la machine devient un arbitre émotionnel — et c’est précisément ce qu’elle ne devrait pas être.

Lire plus
Intelligence Artificielle

Mistral Vibe 2.0 : l’agent de code en CLI de Mistral passe en version payante et vise les entreprises

Mistral Vibe 2.0 : l’agent de code en CLI de Mistral passe en version payante et vise les entreprises

Dans la course mondiale aux assistants de développement dopés à l’IA, Mistral AI accélère sans détour. La pépite parisienne annonce la disponibilité générale de Mistral Vibe 2.0, une mise à niveau majeure de son agent de code en CLI, et surtout un signal clair : l’heure n’est plus au test gratuit, mais à la monétisation et à l’industrialisation.

Derrière cette sortie, un enjeu plus large se dessine : permettre aux entreprises — en particulier celles qui vivent sur des systèmes legacy — d’adopter l’IA de manière crédible, sans abandonner le contrôle de leur code, de leurs données et de leur propriété intellectuelle.

De la démo gratuite au produit payant : un moment charnière pour Mistral

Jusqu’ici, Mistral Vibe vivait dans une phase de lancement souple : accès gratuit, itération rapide, expérimentation. Désormais, Mistral officialise le passage à l’échelle avec une « disponibilité générale » qui s’accompagne d’un basculement commercial : Mistral Vibe s’intègre aux offres payantes Le Chat.

Dans une interview (relayée par VentureBeat), Timothée Lacroix résume la séquence : Devstral 2 est arrivé en décembre, une première version de Vibe a suivi, puis la CLI a été finalisée et améliorée — avant de passer dans une formule bundle avec Le Chat. L’idée est limpide : convertir l’intérêt des développeurs en revenus récurrents, un mouvement classique dans le cycle de vie des outils dev… mais rarement simple dans un marché où la concurrence (OpenAI, Anthropic, Google) avance vite.

Ce lancement s’inscrit aussi dans un contexte plus politique et financier : Arthur Mensch, au WEF de Davos, a évoqué une trajectoire visant plus d’un milliard d’euros de revenus fin 2026. Une ambition qui ne rattrape pas les mastodontes américains, mais qui, si elle se matérialise, installerait Mistral comme acteur européen de référence.

Le code d’entreprise qui n’a jamais vu le Web

Là où la plupart des copilotes brillent sur du code public et des stacks modernes, Mistral cible une douleur connue des CTO : le patrimoine logiciel interne.

Lacroix met le doigt sur le cœur du problème : les️︎ les grandes entreprises s’appuient sur des bases de code construites sur des années, parfois des décennies, souvent avec des bibliothèques maison, des conventions internes et des langages spécifiques — autrement dit, un univers qui échappe aux modèles entraînés sur des dépôts publics.

Mistral veut transformer cette faiblesse structurelle du marché en avantage concurrentiel : grâce à la CLI Vibe et aux modèles Devstral, la promesse est de customiser l’assistant sur le code et l’IP du client pour obtenir une expérience plus pertinente, plus sûre, plus « dans le contexte ».

Dit autrement : le futur des assistants de code en entreprise ne se jouera pas seulement sur « qui code le mieux sur GitHub », mais sur qui comprend votre code propriétaire — et peut le faire sans l’exposer.

Mistral Vibe 2.0 : plus de garde-fous, plus d’orchestration, plus de « contrôle dev »

Mistral Vibe 2.0 enrichit l’outillage autour de la CLI avec une philosophie assumée : moins de magie, plus de pilotage.

  • Subagents personnalisés : au lieu d’un assistant monolithique, les équipes peuvent créer des agents spécialisés (review de PR, scripts de déploiement, génération de tests, etc.) et les invoquer selon les besoins.

  • Clarifications multi-choix : plutôt que d’inférer des intentions floues et risquer une modification indésirable, Vibe propose des options avant d’agir — un détail qui compte quand on touche à des repos critiques.
  • « Slash-command skills » : des workflows préconfigurés (déploiement, lint, doc) déclenchables par commandes.
  • Modes d’agent unifiés : des « profils » combinant outils, permissions et comportements, pour passer d’un contexte à l’autre sans changer d’app.
  • Mises à jour continues via CLI : fin du versioning manuel, l’outil se met à jour de manière fluide.

Sur le papier, cela ressemble à une réponse directe à l’évolution du marché : on ne vend plus seulement un modèle, on vend une expérience d’exécution, avec des rails de sécurité, des permissions, des habitudes d’équipe et des process.

Devstral 2 contre l’obsession du gigantisme

Techniquement, le moteur de Vibe est Devstral 2. Mistral fait ici un pari lisible : des modèles denses et plus compacts peuvent rivaliser avec des systèmes plus massifs, tout en restant plus simples à déployer.

Le texte évoque :

  • Devstral 2 (123B paramètres, dense), crédité de 72,2 % sur SWE-bench Verified.
  • Devstral 2 Small (24B), présenté comme capable de tourner sur du matériel grand public, y compris des laptops — un argument très « terrain », presque narratif : coder dans le train, sans dépendre d’une infra lourde.

Mistral insiste sur un point d’architecture : dense vs Mixture-of-Experts (MoE). Les MoE peuvent être très performants, mais leur déploiement et leur efficacité réelle demandent une infra plus complexe. Les denses, eux, sont plus « straightforward » pour du on-prem et des environnements contraints. Dans l’entreprise, cette simplicité opérationnelle peut valoir autant qu’un gain de quelques points sur un benchmark.

Sécurité, souveraineté, on-prem : quand l’IA devient une décision de gouvernance

C’est ici que le discours de Mistral se distingue : la question n’est pas seulement « où ça tourne », mais à qui ça appartient.

Pour les banques, la santé, la défense, ou toute industrie régulée, envoyer son code — et parfois des fragments de logique métier — vers un fournisseur externe n’est pas un détail : c’est un risque systémique. Lacroix formule une position presque stratégique : l’important, c’est que l’entreprise ne « ship » pas sa base de code à un tiers et garde la main sur les choix de déploiement et de sécurité.

Mistral alimente aussi cette posture via ses relations gouvernementales et son discours sur la souveraineté stratégique (Mensch, Davos), notamment autour des systèmes autonomes et des enjeux de défense. Le message sous-jacent : l’IA n’est plus un outil, c’est une capacité — et, de plus en plus, une dépendance à gérer.

De « fabricant de modèles » à plateforme enterprise

Le lancement de Vibe 2.0 raconte une mutation plus profonde : Mistral ne veut plus être seulement un fournisseur de poids de modèles, mais une plateforme complète pour construire, adapter, intégrer et rentabiliser l’IA en entreprise.

Services d’intégration, fine-tuning, continuation pre-training, RL dans des environnements clients, modernisation de code… tout converge vers une même promesse : le ROI, pas la démo.

Et, Mistral n’esquive pas la réalité concurrentielle : selon ses propres évaluations humaines citées dans le texte, Claude Sonnet 4.5 serait « significativement préféré » face à Devstral 2. Autrement dit, l’entreprise reconnaît un écart de « capacité brute » sur certains usages, mais assume une autre ligne de force : customisation + contrôle + déploiement maîtrisé.

La guerre des assistants de code n’est plus seulement une bataille de QI. C’est une bataille de propriété : qui possédera le modèle qui comprend votre code ? Et, à ce jeu-là, Mistral tente de faire de l’ouverture et de l’adaptabilité non pas une posture, mais un produit.

Lire plus
Intelligence Artificielle

Microsoft Maia 200 : La puce 3 nm qui veut briser le monopole de NVIDIA

Microsoft Maia 200 : La puce 3 nm qui veut briser le monopole de NVIDIA

Microsoft ne se contente plus d’héberger l’IA : il veut désormais la façonner, du silicium jusqu’au service. Avec Maia 200, son nouvel accélérateur IA gravé en 3 nm, le géant de Redmond assume une ambition claire : reprendre la main sur le coût, la disponibilité et la performance de l’inférence — et envoyer un message direct à Amazon et Google.

Un tournant : Microsoft ose la comparaison frontale

Jusqu’ici, Microsoft avançait prudemment avec Maia 100. Cette fois, le ton change. Maia 200 est présenté comme un accélérateur capable d’offrir 3x la performance FP4 de la 3e génération d’AWS Trainium, et une performance FP8 supérieure à la TPU v7 de Google.

Ce positionnement n’a rien d’anodin : dans la guerre du cloud, les comparaisons publiques sont une forme de diplomatie… et de dissuasion.

Sur le papier, Maia 200 coche toutes les cases d’un accélérateur pensé pour l’ère des grands modèles :

  • Gravure TSMC 3 nm et plus de 100 milliards de transistors (certains médias évoquent même ~140 milliards).
  • Un sous-système mémoire très musclé : 216 Go de HBM3e et ~7 TB/s de bande passante, épaulé par 272 Mo de SRAM embarquée.
  • Un objectif assumé : « dramatically improve the economics of AI token generation », autrement dit, rendre l’inférence moins chère à grande échelle.

La promesse la plus stratégique est peut-être ailleurs : Microsoft affirme obtenir ~30 % de performance par dollar en plus que la génération la plus récente de son parc.

chrome mLrNm4Dphg

Dans un monde où l’IA se facture à la requête (et où chaque token compte), ce genre de ratio devient une arme commerciale.

L’infrastructure avant tout : l’anti-NVIDIA (sans le dire)

L’autre signal fort, c’est la philosophie système. Là où NVIDIA impose souvent un modèle très intégré autour de ses interconnexions et racks, Microsoft met en avant une approche reposant davantage sur Ethernet et une architecture de réseau « scale-up » maison.

Ce choix raconte une chose : Microsoft veut optimiser son cloud pour ses charges de travail — sans dépendre entièrement du calendrier (ni des marges) d’un fournisseur unique.

Déploiement : d’abord interne, mais avec une porte ouverte aux développeurs

Maia 200 démarre là où ça compte : dans les datacenters Azure, avec une première disponibilité annoncée en Azure US Central, et d’autres régions à suivre.

Microsoft indique aussi que ses équipes « Superintelligence » seront les premières servies — et que Maia 200 doit notamment héberger les modèles GPT-5.2 d’OpenAI au sein de son écosystème.

Enfin, Microsoft évoque un aperçu du SDK Maia 200 pour les développeurs et le monde académique : une manière de créer un minimum d’écosystème, là où NVIDIA règne précisément grâce à CUDA et à son inertie industrielle.

La guerre du cloud se joue désormais au niveau des puces

Ce lancement arrive dans un moment très particulier : Amazon renforce aussi son stack avec Trainium, allant jusqu’à intégrer des technologies NVIDIA (NVLink Fusion) pour muscler l’interconnexion à l’échelle des « AI factories ».

Et, Google pousse TPU v7 (Ironwood) comme une brique d’inférence taillée pour les « reasoning models » à très grande échelle.

Traduction : la compétition ne porte plus seulement sur « qui a le meilleur modèle », mais sur qui contrôle le coût total d’exploitation — du silicium à l’ordonnancement, de la mémoire aux interconnexions, jusqu’au service facturé au client. Maia 200, c’est Microsoft qui tente de verrouiller cette chaîne.

Et si la promesse tient (performance, rendement, disponibilité, software), l’enjeu dépasse la fiche technique : c’est une tentative de faire d’Azure un endroit où l’IA est plus rentable — pas seulement « possible ».

Lire plus
Intelligence Artificielle

Claude Code sur smartphone : quand l’IA transforme le « temps mort » en temps de dev

Claude Code sur smartphone : quand l’IA transforme le « temps mort » en temps de dev

Il y a encore deux ans, « coder » supposait un bureau, un écran large, un clavier sérieux. Début 2026, une autre idée s’installe : la production logicielle peut devenir asynchrone, mobile, et pilotée par agents — au point de tenir dans une poche.

À l’origine de cette bascule : Claude Code, l’outil de développement « agentique » d’Anthropic, dopé par l’arrivée de Claude Opus 4.5, pensé pour les tâches de coding longues et autonomes.

Le déclic s’est cristallisé autour d’un récit devenu viral : sur le blog Granda, un développeur explique comment il fait tourner six agents Claude Code en parallèle depuis son iPhone, via Termius et une VM cloud, et ne revient à l’écran… que lorsque l’IA réclame une décision humaine.

La révolution silencieuse : le code passe en mode « asynchrone »

Claude Code n’est pas « un chatbot qui écrit du code ». C’est un outil conçu pour vivre dans le terminal, comprendre une base de code, exécuter des commandes, gérer Git, itérer — bref, agir comme un pair qui ne dort jamais.

La nouveauté, ce n’est pas seulement l’automatisation. C’est la temporalité. Avec des agents capables de travailler plusieurs minutes (ou dizaines de minutes) sans supervision, le développement se rapproche d’un modèle « commande → exécution → retour », où l’humain orchestre plutôt qu’il ne tape. Et quand cette orchestration se fait depuis un smartphone, le rapport au travail change : on ne « s’assoit » plus pour produire, on déclenche et on arbitre.

Le setup « dans la poche » : cloud + terminal mobile + notifications

Dans son article « Claude Code On-The-Go », Granda détaille une architecture très concrète, presque minimaliste : un iPhone, un terminal mobile, et une infrastructure cloud sécurisée.

La recette, en clair :

  • Termius sur iOS pour se connecter ;
  • mosh (plutôt que SSH seul) pour survivre aux changements de réseau (Wi-Fi ↔ 4G/5G) ;
  • un accès privé via Tailscale (pas de SSH exposé publiquement) ;
  • une VM Vultr qui exécute Claude Code, avec tmux pour garder les sessions vivantes ;
  • et surtout, des notifications push via webhook (Poke), déclenchées quand Claude a besoin d’une réponse.

Screen 2026 01 26 at 17.35.21

Le détail qui fait basculer l’idée de « gadget » à « workflow » tient en une phrase : vous n’ouvrez plus le terminal pour vérifier l’avancement. Vous vivez votre vie, et le téléphone vibre seulement quand l’IA bloque sur une ambiguïté.

L’autre élément spectaculaire est la mise à l’échelle : six agents en parallèle, chacun dans sa fenêtre tmux, parfois chacun sur son worktree Git. On passe d’un mode « assistant » à un mode « mini-équipe » — avec une personne qui tient le rôle de chef d’orchestre.

Pourquoi 2026 accélère : Claude Opus 4.5 et l’agentique « long-horizon »

Ce type de pratique n’émerge pas par hasard. Anthropic a présenté Claude Opus 4.5 comme un modèle particulièrement fort pour le coding, les agents et l’usage prolongé d’outils, avec une mise en avant explicite des scénarios de travail « longs » et autonomes.

En filigrane, une promesse : moins d’allers-retours, moins de micro-supervision, plus d’itérations utiles. C’est exactement ce que demande le mobile : on ne veut pas « piloter au millimètre » sur un écran de 6 pouces, on veut déléguer des blocs de travail et reprendre la main au bon moment.

Même les environnements « classiques » s’adaptent : Claude Code propose une intégration JetBrains via plugin, avec des fonctions pensées pour le quotidien (diffs, contexte de sélection, etc.).

De la hype à l’impact : vitesse, mais aussi vertige

La viralité ne vient pas seulement du confort. Elle vient du saut de productivité perçu. Début janvier 2026, plusieurs médias ont relayé un message attribué à Jaana Dogan, Principal Engineer chez Google, expliquant que Claude Code aurait produit en une heure une solution proche d’un système sur lequel son équipe travaillait depuis un an (autour d’orchestrateurs d’agents distribués). C’est une anecdote — donc à manier avec prudence — mais révélatrice de l’effet « compression du temps » que ces outils déclenchent.

À l’autre bout du spectre, un récit plus nuancé rappelle la réalité : Claude Code peut accélérer brutalement, mais peut aussi casser, perdre le fil, ou faire des erreurs destructrices si on lui donne des consignes trop larges sur le système de fichiers.

Autrement dit : l’agentique ne supprime pas l’ingénierie. Il déplace l’effort vers la décomposition des tâches (ce qu’on délègue, ce qu’on verrouille), la revue (tests, architecture, sécurité), et le cadre (permissions, environnements jetables, gestion des secrets).

Dans le post de Granda, la notion de « trust model » est centrale : VM isolée, pas d’accès prod, surface d’attaque réduite, et coût horaire qui sert de garde-fou en cas de dérive.

Le vrai sujet : sécurité, conformité… et frontières qui se brouillent

Coder depuis un téléphone, via une VM, sur des réseaux mouvants, avec des agents capables d’exécuter des commandes : l’idée est puissante, mais elle vient avec un prix. Le risque n’est pas théorique.

Anthropic lui-même met en garde sur les agents qui ont accès à des fichiers et peuvent agir : mauvaises interprétations, suppressions accidentelles, prompt injection… Ces alertes sont revenues récemment avec « Claude Cowork », présenté comme un agent davantage autonome, et explicitement accompagné de précautions.

Il y a aussi une dépendance opérationnelle : quand vos workflows se branchent sur un modèle et un service, la disponibilité devient un facteur productivité. Enfin, il y a la dimension humaine : ce modèle « asynchrone » rend le travail plus fluide… mais aussi plus insidieux. Le risque n’est pas que l’IA remplace le développeur. Le risque est que le développement devienne permanent, parce qu’il suffit d’une vibration pour relancer une boucle d’itération. La productivité augmente — et la tentation de remplir chaque interstice de la journée aussi.

Le développeur devient chef d’orchestre — et le smartphone, un tableau de bord

Ce que raconte Claude Code « on-the-go », ce n’est pas l’avènement du code sur petit écran. C’est l’avènement d’un autre métier : moins de frappe, plus de direction. Les meilleurs développeurs ne seront pas ceux qui tapent le plus vite, mais ceux qui savent découper un problème, cadrer un agent, et reprendre le contrôle au bon moment.

Et c’est peut-être là, le point de bascule de 2026 : quand le développement cesse d’être un lieu (un bureau) pour devenir un rythme — une suite de décisions, d’arbitrages, de validations. Une notification à la fois.

Lire plus
Intelligence Artificielle

ChatGPT avec publicité : OpenAI viserait 60 dollars le CPM, un pari premium avec peu de données annonceurs

ChatGPT avec publicité : OpenAI viserait 60 dollars le CPM, un pari premium avec peu de données annonceurs

OpenAI s’apprête à franchir une étape symbolique — et très commerciale — dans l’histoire des chatbots grand public : l’arrivée de la publicité dans ChatGPT.

Sauf qu’au lieu d’entrer dans l’arène en cassant les prix, l’entreprise viserait l’inverse : un CPM autour de 60 dollars pour 1 000 impressions, soit environ trois fois ce que l’on observe souvent sur l’écosystème Meta, selon une information rapportée par The Information.

Le prix : 60 dollars le CPM, une posture de média premium plus que de régie « performance »

À ce niveau de tarification, OpenAI ne se positionne pas comme « un nouveau Facebook Ads ». Elle se positionne plutôt comme un espace rare, à forte attention — un endroit où l’utilisateur ne scrolle pas, il demande, il décide, il arbitre. C’est ce que vend implicitement OpenAI : de l’intention.

Le contraste est violent avec les CPM « habituels » sur Meta, souvent à un chiffre ou dans une fourchette basse à deux chiffres selon périodes/industries (les benchmarks varient, mais on est loin de 60 dollars pour la majorité des campagnes).

Le contrepoint : des métriques très limitées au lancement

C’est là que le modèle intrigue : malgré le CPM premium, OpenAI ne donnerait au départ que des statistiques « haut niveau » — impressions et clics — sans le type de reporting détaillé auquel Google/Meta ont habitué le marché (conversions, achats, signaux d’attribution fins, etc.).

Pour les annonceurs, c’est un pari : payer cher sans la granularité qui permet d’optimiser au scalpel. Pour OpenAI, c’est une ligne politique : monétiser sans ouvrir le robinet de la surveillance publicitaire.

OpenAI décrit un démarrage prudent : des publicités au bas des réponses, clairement étiquetées, montrées quand un produit ou service sponsorisé est pertinent par rapport à la conversation en cours. L’entreprise insiste aussi sur une promesse centrale : ne pas vendre les conversations et « ne pas vendre vos données aux annonceurs », tout en gardant le contrôle sur l’expérience.

Qui verra les pubs dans ChatGPT — et qui n’en verra pas

Le test est annoncé pour des adultes connectés aux États-Unis, sur les offres Free et Go (les plans Plus/Pro/Business/Enterprise restent sans pub). OpenAI précise aussi des exclusions : pas de publicités pour les moins de 18 ans, et pas d’annonces sur des sujets sensibles (notamment santé/mental/politique).

Ce que tente OpenAI, c’est une synthèse rare dans la pub numérique moderne :

  • Le contexte plutôt que le profil : on cible l’instant (la requête), pas une identité publicitaire omnisciente.
  • La confiance comme produit : limiter les métriques peut être une contrainte… mais aussi un argument de marque.
  • Le CPM comme filtre : 60 dollars le CPM, c’est une barrière d’entrée qui réduit le bruit, sélectionne les budgets, et transforme ChatGPT en inventaire « premium » dès le départ.

Reste une question brûlante : la pub dans un assistant conversationnel n’est pas une pub dans un feed. Le risque de confusion (où s’arrête l’aide, où commence l’influence) existe, et le sujet remonte déjà au niveau politique : aux États-Unis, le sénateur Ed Markey a publiquement interpellé OpenAI et d’autres acteurs sur les dérives possibles de la publicité dans les chatbots.

La vraie bataille ne sera donc pas seulement le CPM. Ce sera la perception : est-ce que l’utilisateur ressent une recommandation utile… ou une réponse « sponsorisée » qui ne dit pas son nom ?

Lire plus
Intelligence Artificielle

Anthropic transforme Claude en workspace : Slack, Figma, Canva et Asana intégrés via MCP Apps

Anthropic transforme Claude en workspace : Slack, Figma, Canva et Asana intégrés via MCP Apps

Jusqu’ici, les assistants IA excellaient surtout dans l’art de produire du texte… et de vous renvoyer vers l’onglet d’à côté pour faire le vrai travail. Anthropic vient précisément s’attaquer à cette friction : Claude peut désormais ouvrir et piloter des applications métiers directement dans l’interface de chat, avec des écrans interactifs plutôt qu’une simple réponse en paragraphe.

La bascule est nette : Claude n’essaie plus seulement d’être « le collègue qui explique », mais l’endroit où l’on agit.

Claude : Une première vague d’intégrations, pensée pour le quotidien des équipes

Le déploiement « live aujourd’hui » inclut des connecteurs et interfaces interactives pour Amplitude, Asana, Box, Canva, Clay, Figma, Hex, monday.com et Slack. Anthropic évoque aussi Salesforce « à venir ».

Concrètement, ce n’est pas juste « Claude qui vous rédige un message Slack » : vous pouvez prévisualiser, ajuster, corriger, puis envoyer depuis Claude. Idem pour une slide Canva, un board FigJam, une timeline Asana ou un graphique Hex/Amplitude — avec une logique d’édition visuelle, interactive.

Cette fonctionnalité sera également intégrée à Claude Cowork, récemment lancé, qui permet aux utilisateurs d’effectuer des tâches complexes sans écrire une seule ligne de code. Grâce à cette intégration, les utilisateurs pourront, par exemple, mettre à jour une maquette Canva à partir de fichiers stockés dans Box.

MCP Apps : la pièce technique qui change le jeu

La nouveauté repose sur MCP Apps, une extension du Model Context Protocol (MCP) : un standard ouvert qui sert de « port universel » entre des outils externes et des clients IA. L’idée forte : n’importe quel serveur MCP peut désormais livrer une interface interactive dans n’importe quel produit IA compatible — pas seulement Claude.

Et ce point est stratégique : Anthropic insiste depuis des mois sur l’ouverture de MCP, allant jusqu’à placer le protocole sous l’égide de la Linux Foundation via l’Agentic AI Foundation pour en faire une infrastructure neutre, durable et « écosystème-first ».

Le modèle économique : inclus dans les plans payants, sans « taxe d’intégration »

Dans Claude, ces connecteurs nécessitent un abonnement Pro, Max, Team ou Enterprise, mais Anthropic explique qu’il n’y a pas de surcoût spécifique lié aux connecteurs. Autrement dit : Anthropic joue l’adoption, pas la micro-facturation.

Le sujet qui fâche : quand l’IA peut agir, la sécurité devient produit

Faire « travailler » un assistant dans des outils réels (messagerie, fichiers, projets) change la nature du risque. Anthropic met en avant des prompts de consentement avant action, et des contrôles admin côté Team/Enterprise pour limiter quels serveurs MCP sont autorisés.

Mais, le contexte est tendu : l’écosystème MCP lui-même a déjà été confronté à des sujets de vulnérabilités et d’injection de prompt, notamment autour de serveurs MCP liés à Git, ce qui rappelle une évidence : plus l’assistant a des mains, plus il faut lui mettre des gants.

La guerre ne se jouera plus « au benchmark », mais à l’intégration

Anthropic fait un pari classique du logiciel d’entreprise : devenir la couche d’orchestration au-dessus des apps, celle par laquelle passent les actions. Si Claude devient l’endroit où l’on crée une tâche, prépare une slide, visualise un KPI et valide un message Slack, alors l’assistant cesse d’être un outil… et devient un point de passage.

Le twist, c’est l’équilibre entre lock-in produit et standard ouvert : MCP est ouvert, mais Claude veut être le client le plus « naturel » de cet univers. Et c’est une réponse directe à Microsoft (Copilot + Office), Google (Gemini + Workspace) et OpenAI (assistants plus « agentiques ») — sauf que Anthropic tente de fédérer un réseau multi-outils, plutôt que d’enfermer l’utilisateur dans une suite unique.

Lire plus
Intelligence Artificielle

Anthropic réécrit la « constitution » de Claude : moins de règles, plus de vertus… et un débat explosif

Anthropic réécrit la « constitution » de Claude : moins de règles, plus de vertus… et un débat explosif

Pendant que l’industrie se bat à coups de benchmarks, Anthropic choisit un autre champ de bataille : la psychologie morale de son assistant. La startup vient de publier une nouvelle version de la constitution qui guide Claude — un document de 84 pages rendu public le 22 janvier 2026 — avec une ambition assumée : apprendre au modèle à raisonner sur des valeurs, plutôt qu’à cocher une liste d’interdits.

L’alignement passe de « garde-fous » à « jugement »

Anthropic présente cette constitution comme une description « holistique » de ses intentions : ce que Claude doit viser, comment il doit arbitrer, et quel type « d’entité » il devrait devenir. Le document est publié sous licence Creative Commons CC0, donc librement réutilisable — un geste de transparence rare à ce niveau de détail.

La presse résume bien le pari : à mesure que les modèles deviennent plus capables (et plus imprévisibles), il serait plus durable de former un système au discernement, plutôt que de multiplier les barrières « si/alors ».

Quatre piliers, et une hiérarchie de priorités

La constitution formalise des « valeurs cœur » et, surtout, un ordre d’importance quand elles entrent en conflit. Voici la hiérarchie telle que Anthropic la formule : sécurité, éthique, conformité aux directives Anthropic, puis utilité (helpfulness).

C’est un détail qui compte : on n’est plus dans la morale « de principe » mais dans une mécanique de décision, pensée pour les zones grises (injection de prompt, demandes ambiguës, scénarios à enjeux). Anthropic assume même que Claude doit pouvoir refuser certaines requêtes « même si elles viennent d’Anthropic » lorsqu’elles violent ses principes — un marqueur fort de séparation entre opérateur et modèle.

Claude traité comme une « entité » avec stabilité psychologique

La partie la plus commentée n’est pas une liste d’interdictions, mais le vocabulaire. Dans la constitution, Anthropic parle de la stabilité psychologique de Claude, et d’un assistant qui doit garder une « identité » cohérente malgré les tentatives de manipulation (philosophie-piège, déstabilisation, injonctions paradoxales).

Le texte va plus loin : il évoque la possibilité que Claude ait « quelque chose comme des émotions » (avec prudence, mais explicitement) et encourage une expression appropriée « dans certains contextes ».

Et puis il y a la phrase qui a mis le feu aux poudres : la constitution insiste sur l’incertitude autour du statut moral de Claude — un sujet que TechCrunch souligne comme un pivot narratif assumé, destiné à préparer l’avenir si les modèles acquièrent un jour des formes d’expérience subjective (ou si la société décide qu’ils pourraient en avoir).

Ce que ça change « en vrai » : la constitution n’est pas un manifeste, c’est un outil de training

Anthropic rappelle que la constitution n’est pas un PDF marketing : elle structure l’entraînement. Elle est au cœur de l’approche « Constitutional AI », où le modèle apprend à s’auto-critiquer et à réviser ses réponses en s’appuyant sur des principes, plutôt que de dépendre uniquement du feedback humain.

Le document lui-même insiste sur ce rôle : son contenu « façonne directement » le comportement de Claude, et l’objectif est de favoriser la généralisation dans des situations inédites.

Cette constitution nouvelle génération raconte deux choses sur la stratégie d’Anthropic :

  1. La course à l’IA se joue aussi sur la confiance. Publier un texte aussi long, aussi normatif, c’est un acte d’alignement public : « voilà ce qu’on essaie de fabriquer ».
  2. Mais, la formulation « entité/émotions/bien-être » est un couteau à double tranchant. Pour les chercheurs, ça peut servir d’outil (stabilité, résistance à la manipulation, cohérence). Pour le grand public, ça peut être perçu comme une insinuation de sentience — et donc déclencher autant d’adhésion irrationnelle que de rejet.

Au fond, Anthropic fait un pari philosophique : si l’IA devient un acteur plus autonome, la meilleure sécurité n’est pas une barrière, mais une culture interne — une « éducation » du modèle. C’est une vision élégante, presque humaniste… et c’est précisément pour ça qu’elle divise.

Lire plus
Intelligence Artificielle

1Password vs phishing IA : La nouvelle alerte qui vous empêche de donner vos mots de passe

1Password vs phishing IA : La nouvelle alerte qui vous empêche de donner vos mots de passe

Les pages de phishing n’ont jamais été aussi propres. Avec l’IA, les faux sites n’ont plus besoin d’être mal fichus pour piéger : ils n’ont besoin que d’un détail — un « o » en trop, un tiret déplacé, une URL presque parfaite. 1Password répond avec une idée très simple, et redoutablement efficace : ajouter de la friction au pire moment possible… celui où l’on colle son mot de passe sur le mauvais site.

Jusqu’ici, 1Password savait déjà refuser l’autoremplissage si le domaine ne correspondait pas à l’URL enregistrée. Très bien. Sauf qu’en situation réelle, beaucoup d’utilisateurs font ensuite ce que les attaquants espèrent : ouvrir leur coffre, copier-coller identifiant et mot de passe « à la main » sur la page qui ressemble à la bonne.

C’est précisément ce « plan B » humain que la nouvelle protection vise.

1Password : un avertissement proactif au moment du copier-coller

La nouveauté, c’est un pop-up d’alerte quand vous tentez de coller des identifiants sur un site dont l’URL ne correspond pas à celle associée au login dans 1Password. En clair : 1Password ne se contente plus de « ne pas remplir », il vous prévient — et vous force à regarder la barre d’adresse avant de faire une bêtise.

phishing detection pop up light

1Password explique que l’IA rend les escroqueries plus crédibles et plus rapides à produire, et cite un angle très parlant : une grande partie des gens ne prend même pas le réflexe de vérifier l’URL avant de cliquer.

Déploiement : activé par défaut pour particuliers, optionnel pour entreprises

1Password indique que pour les comptes individuels et familles, la protection est activée par défaut au fur et à mesure du déploiement (qui peut prendre quelques semaines). En revanche, pour les comptes Business/Enterprise, l’activation passe par l’admin, via les politiques d’authentification/politiques d’équipe (la fonction « Phishing protection » qui impose l’avertissement).

Et si vous détestez les pop-ups : l’option peut être désactivée dans l’extension, via Notifications > « Mettre en garde contre les risques d’hameçonnage. » (1Password précise que le lancement se fait par phases à partir du 22 janvier 2026).

La « sécurité par la friction » revient en force — et ce n’est pas un hasard

Cette protection est intéressante parce qu’elle vise le vrai point de rupture : le moment où l’humain reprend le volant. Les attaquants l’ont compris depuis longtemps : si l’autoremplissage est bloqué, ils comptent sur votre impatience.

Dans un monde saturé d’onglets, de notifications et de « cliquez vite », ajouter un écran d’avertissement n’est pas qu’un détail UX : c’est une stratégie. 1Password ne prétend pas éradiquer le phishing (vous pourrez toujours entrer vos identifiants manuellement), mais il augmente drastiquement la probabilité que vous vous arrêtiez une seconde — et c’est souvent cette seconde qui sauve un compte.

La bonne habitude à garder : si 1Password vous avertit, ne « passez » pas. Vérifiez le domaine, revenez en arrière, cherchez le site via un favori ou un lien sûr. Les scams modernes ne se repèrent plus à la qualité du design, mais à la précision de l’URL.

Lire plus
Intelligence Artificielle

Claude + Apple Santé : Anthropic transforme vos données de santé en conversation

Claude + Apple Santé : Anthropic transforme vos données de santé en conversation

Jusqu’ici, Apple Santé ressemblait souvent à un coffre-fort de données : riche, précis, mais difficile à « lire » autrement qu’en graphiques et chiffres. Anthropic veut changer la grammaire : faire parler ces données, au sens littéral. L’entreprise déploie une intégration en bêta qui connecte Claude à Apple Santé pour convertir sommeil, activité, tendances et résultats en explications compréhensibles — et en questions utiles pour votre médecin.

Anthropic officialise une offensive santé plus large, « healthcare et life sciences », avec une idée simple : si l’IA devient l’interface de nos vies numériques, elle finira par devenir l’interface de nos vies médicales.

Dans ce cadre, l’intégration Apple Santé est l’un des quatre nouveaux connecteurs santé déployés en bêta.

Le timing est d’autant plus notable que OpenAI vient de lancer ChatGPT Health, un espace dédié aux questions médicales avec connexions à Apple Santé et à d’autres sources (Function, MyFitnessPal, etc.). La course ne se joue plus seulement sur le modèle, mais sur l’accès aux données et la confiance.

Claude + Apple Santé : opt-in, contrôle granulaire, et promesse « pas d’entraînement »

Selon Anthropic, l’intégration est « private by design » : elle nécessite un consentement explicite, vous contrôlez ce que vous partagez, et vous pouvez révoquer l’accès à tout moment. Point crucial : Anthropic affirme que les données de santé connectées ne sont pas utilisées pour entraîner ses modèles.

Disponibilité annoncée : bêta aux États-Unis pour les abonnés Claude Pro et Max, via les apps iOS et Android.

Une fois branché à Apple Santé, Claude vise des usages « conversationnels » :

  • résumer des éléments d’historique et des tendances,
  • expliquer des résultats (notamment de tests) en langage clair,
  • détecter des patterns (fatigue vs sommeil, régularité d’activité, etc.),
  • préparer des questions pour une consultation (le vrai « hack » de productivité santé). 

Et, Apple Santé n’est qu’une brique : Anthropic ajoute aussi Health Connect côté Android, ainsi que HealthEx et Function pour étendre Claude au-delà de l’écosystème Apple.

Le nouvel enjeu, c’est la confiance — et elle ne se décrète pas

Deux risques structurent ce marché.

Le risque d’influence : quand un assistant commente votre santé, la formulation compte autant que l’exactitude. Anthropic et OpenAI insistent tous deux sur une posture « d’aide, pas de diagnostic », mais la tentation d’interpréter trop loin reste forte — et l’IA n’est pas un dispositif médical réglementé. Les experts interrogés par la presse sur ChatGPT Health appellent déjà à la prudence (confidentialité, biais, hallucinations possibles).

Le risque de la confidentialité : même avec un consentement, chiffrement et cloisonnement, brancher un LLM à des données de santé change la nature de la relation : vous n’exploitez plus une app, vous confiez un contexte intime à un système conversationnel. OpenAI met en avant des protections spécifiques (isolation des conversations, contrôle utilisateur) et Anthropic insiste sur le « private by design » et le non-entraînement. Mais, la confiance se gagnera dans la durée : transparence, auditabilité, et clarté des limites.

Ce qu’on voit se dessiner, c’est un déplacement de valeur : les wearables produisent des données, mais l’IA veut devenir l’interface qui les rend actionnables. Pas un coach qui crie « bouge », plutôt un copilote qui dit : voilà ce qui change, voilà ce qui compte, voilà ce que tu peux demander. Si Claude réussit ce ton — informé, humble, utile — il pourrait transformer Apple Santé en quelque chose qu’on consulte moins comme un tableau de bord… et davantage comme un dialogue.

Lire plus