fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Défense : Pourquoi la France choisit Mistral AI pour son « IA de combat » souveraine ?

Défense : Pourquoi la France choisit Mistral AI pour son « IA de combat » souveraine ?

Début janvier 2026, le ministère des Armées a officialisé un accord-cadre avec Mistral AI, la pépite parisienne de l’IA générative. Derrière la formule administrative, un message politique limpide : l’IA de défense ne sera pas un simple service loué à l’étranger, mais un socle technologique que la France veut garder « chez elle », sous contrôle national.

Une « clé d’accès » aux modèles Mistral pour tout un écosystème défense

L’accord ouvre l’usage des modèles, logiciels et prestations de Mistral à plusieurs niveaux : armées, directions et services du ministère, mais aussi un cercle d’organismes publics associés — dont la CEA, l’ONERA ou encore le SHOM (hydrographie/océanographie de la Marine).

Côté gouvernance, le dispositif est piloté par l’AMIAD (Agence ministérielle de l’IA de Défense), pensée pour accélérer l’intégration de l’IA tout en cadrant les exigences opérationnelles, de sécurité et d’éthique.

Le point clé : une IA « souveraine » hébergée sur infrastructure française

C’est la ligne rouge de l’accord : les solutions Mistral doivent être déployées sur des infrastructures françaises, et non dans des clouds commerciaux soumis à des juridictions étrangères. En défense, la nuance est tout sauf cosmétique : elle touche à la chaîne de confiance (données, entraînement, inférences, logs) et à la capacité de résister à des pressions extraterritoriales.

Autre détail important : le cadre prévoit la spécialisation des modèles avec des données « défense », pour produire des outils adaptés aux besoins opérationnels (analyse, aide à la décision, simulation, planification, etc.).

Pourquoi maintenant : l’IA devient un sujet de dépendance stratégique

Ce contrat s’inscrit dans une dynamique plus large : l’Europe cherche à réduire sa dépendance aux plateformes américaines dans les briques les plus sensibles (cloud, cybersécurité, IA). Mistral coche plusieurs cases : acteur européen, vélocité de recherche, capacité à déployer « on-prem », et image de champion local que les États peuvent mettre au cœur de politiques d’autonomie.

Dans les coulisses, cela ressemble aussi à une réponse au « réflexe procurement » qui dominait depuis dix ans : acheter un outil clé en main, souvent américain, et gérer ensuite le risque juridique et le risque d’exposition. Ici, la France tente l’inverse : choisir d’abord le cadre de souveraineté, puis construire les usages.

Ce que l’armée peut en faire (sans fantasmer « l’IA qui décide »)

Les usages concrets ne sont pas détaillés publiquement, mais la logique d’un accord-cadre est justement d’ouvrir plusieurs chantiers, progressivement :

  • tri et synthèse de volumes massifs de documents et de rapports,
  • assistance à la planification (logistique, maintenance prédictive, préparation),
  • analyse de signaux et de renseignements (avec toutes les précautions de validation),
  • production d’outils internes (chat sécurisés, recherche sémantique, copilotes métiers).

La vraie valeur, en 2026, n’est pas un « super cerveau » militaire : c’est une IA intégrée aux flux, capable de faire gagner du temps à grande échelle — sans faire exploser les risques.

L’enjeu qui suit : industrialiser, auditer, sécuriser

Cet accord pose une promesse… et une contrainte. Car plus l’IA devient centrale, plus elle devient attaquable : prompt injections, exfiltration, contamination de données, dépendances logicielles, erreurs de raisonnement « plausibles ». La défense n’achète pas seulement un modèle : elle achète un système vivant, qu’il faut auditer, durcir, tester, mettre à jour.

Et ce mouvement dépasse Mistral : au même moment, Reuters rapporte une accélération du financement et de l’industrialisation des startups européennes de défense IA, signe que la bataille se joue autant sur le logiciel que sur les chaînes d’approvisionnement.

Dans l’IA, l’autonomie n’est jamais totale. Mais cet accord-cadre marque un glissement intéressant : la souveraineté n’est plus un slogan, elle devient une exigence d’architecture (hébergement, gouvernance, adaptation, contrôle). Si la France parvient à en faire un standard reproductible — achat public + industrialisation + sécurité — elle ne renforce pas seulement ses capacités : elle propose un modèle européen de déploiement.

La suite dépendra d’un facteur très simple : les résultats. Pas en démo, pas en discours — en production, sur des cas d’usage qui réduisent la friction sans augmenter le risque.

Lire plus
Intelligence Artificielle

ChatGPT Translate : OpenAI lance son site de traduction pour détrôner Google

ChatGPT Translate : OpenAI lance son site de traduction pour détrôner Google

OpenAI vient d’ajouter une nouvelle pièce à l’écosystème ChatGPT : ChatGPT Translate, une page Web de traduction autonome qui reprend le geste le plus universel du Web — coller un texte, obtenir une version dans une autre langue — tout en essayant de le faire basculer dans un flux « rédactionnel » plus intelligent.

Visuellement, la ressemblance avec Google Traduction est assumée. Mais, la philosophie, elle, vise autre chose qu’un simple résultat unique.

ChatGPT Translate : Un clone d’interface, un produit différent dans l’intention

Deux champs, deux menus déroulants, détection automatique : ChatGPT Translate coche les cases attendues et annonce la prise en charge de 50+ langues.

Là où l’outil se distingue, c’est sur la « suite » : des préréglages permettent d’orienter immédiatement la sortie (« plus business », « plus fluide », etc.), et l’interface encourage à transformer la traduction en point de départ pour une réécriture via ChatGPT. C’est une nuance produit importante : OpenAI ne vise pas seulement la traduction, mais la mise en forme du message.

Les limites actuelles : texte d’abord, le reste plus tard

Sur le papier, la page indique pouvoir traduire « texte, voix, images ». Dans les faits, aujourd’hui :

  • sur bureau, l’usage est essentiellement texte ;
  • sur mobile, la voix via micro est accessible ;
  • l’image est mentionnée, mais n’est pas encore proposée comme fonctionnalité pleinement disponible selon les premiers constats relayés.

Autre point : contrairement à Google Traduction, il n’y a pas d’app dédiée repérée à ce stade sur les stores, et OpenAI n’a pas communiqué officiellement sur le modèle exact derrière l’outil.

Face à Google Traduction : OpenAI joue le « ton », Google garde la « couverture »

La comparaison est inévitable. Google Traduction reste plus large dans les « modes » : documents, sites Web, conversation, et un arsenal mobile très mature. Et Google n’est pas immobile : en décembre 2025, Google a annoncé des améliorations de traduction propulsées par Gemini (meilleure gestion des idiomes et du langage familier), ainsi qu’une bêta de traduction en temps réel dans les écouteurs.

OpenAI, lui, attaque un angle plus éditorial : la traduction comme intention (formel, simple, académique), pas seulement comme conversion linguistique. Sur les usages pro, c’est potentiellement redoutable : la plupart des « traductions » qu’on envoie sont en réalité des messages à calibrer.

Ce que ça révèle de la stratégie d’OpenAI

ChatGPT Translate ressemble à un mouvement simple, mais très structurant : décliner ChatGPT en outils spécialisés, qui capturent des comportements existants (ici, « je colle un texte ») et les ramènent dans l’écosystème. C’est moins une guerre de dictionnaires qu’une guerre de workflow.

Si OpenAI ajoute réellement l’import d’images et de documents, élargit la couverture linguistique, et surtout clarifie l’intégration mobile, la rivalité avec Google Translate pourrait devenir très tangible. D’ici là, la règle est limpide : ChatGPT Translate quand vous tenez à la façon dont le message tombe ; Google Translate quand vous avez besoin de la boîte à outils complète.

Lire plus
Intelligence Artificielle

Gemini Personal Intelligence : Google donne une « mémoire » à son IA via Gmail, Photos et YouTube

Gemini Personal Intelligence : Google donne une « mémoire » à son IA via Gmail, Photos et YouTube

L’assistant IA le plus utile n’est pas forcément celui qui « sait tout », mais celui qui sait ce qui compte pour vous, au bon moment. Avec Personal Intelligence, Google tente précisément ce saut qualitatif : transformer Gemini en un copilote capable de recoller les morceaux de votre quotidien — mails, photos, recherches, historique YouTube — sans vous obliger à jouer les documentalistes.

Une bêta qui change l’ambition de Gemini : de l’accès aux infos… à la compréhension du contexte.

Annoncée ce mercredi 14 janvier 2026, la fonctionnalité Personal Intelligence arrive dans l’app Gemini sous forme de bêta, et elle est pensée comme une réponse à une frustration devenue classique : les assistants IA donnent souvent de bonnes réponses… mais rarement les bonnes réponses pour vous.

La nuance est importante : Gemini pouvait déjà aller chercher un élément isolé dans Gmail ou Photos. Désormais, Google veut qu’il raisonne à travers plusieurs sources — par exemple, relier un échange d’emails, une photo et un contenu vu sur YouTube — pour produire une réponse plus pertinente, plus « située ».

Comment ça marche : « context packing » ?

Google présente Personal Intelligence comme une solution au problème du « trop-plein » : votre vie génère un volume de données qu’aucun modèle ne peut avaler en permanence (même avec une très grande fenêtre de contexte). L’idée : sélectionner dynamiquement les quelques emails, photos ou recherches réellement utiles, puis les « injecter » dans la requête de Gemini uniquement quand c’est nécessaire.

Le tout est porté par Gemini 3. Côté spécifications, Google indique notamment un contexte d’entrée pouvant atteindre 1 million de tokens (un chiffre massif sur le papier), mais qui reste insuffisant pour « charger » une boîte mail ou une photothèque complète en continu — d’où cette approche par récupération ciblée.

« Gemini vous propose des recommandations personnalisées en lien avec votre prochain hébergement en analysant vos données, comme vos photos et vos e-mails, ainsi que vos conversations précédentes avec l’application Gemini, vos recherches et votre historique YouTube », indique l’entreprise.

Personal Intelligence Personalised Greeting dLtoMr2

L’exemple qui résume tout : des pneus, des photos de road-trip, et un numéro de plaque

Google pousse un scénario très concret, raconté par Josh Woodward (VP en charge de Gemini app/Google Labs/AI Studio) : vous êtes dans une file d’attente chez un garagiste, vous ne connaissez ni la taille de vos pneus, ni même votre numéro de plaque. Gemini peut alors :

  • retrouver le modèle exact (via un reçu ou un échange dans Gmail),
  • extraire des infos depuis une photo (Photos),
  • et combiner ça avec des infos Web (Search) pour proposer des options cohérentes (ex. pneus « 4 saisons » si vous faites souvent des trajets familiaux).

Sur le papier, c’est un changement de catégorie : on n’est plus dans l’IA qui répond, mais dans l’IA qui recompose une situation.

Getting started with Personal Intelligence HG1roWH

Ce que Google promet sur la confidentialité

Point clé : Personal Intelligence est désactivé par défaut. Vous choisissez quels services connecter (Gmail, Photos, Search, YouTube History au départ), et vous pouvez couper l’accès quand vous le souhaitez.

Google insiste aussi sur un point sensible : Gemini ne s’entraîne pas directement sur votre inbox ou votre bibliothèque Google Photos ; l’entreprise explique plutôt s’appuyer sur vos prompts et les réponses du modèle, tandis que vos contenus sont « référencés » pour générer la réponse sans servir d’entraînement direct.

Reste que la boîte de Pandore est ouverte : ouvrir l’accès à Photos et à l’historique YouTube, c’est accepter une personnalisation plus fine… donc potentiellement plus intrusive. Google évoque des garde-fous sur les sujets sensibles (ex. santé), tout en reconnaissant le risque d’« over-personalization » ou de connexions maladroites entre des éléments sans rapport.

L’avantage que les autres n’ont pas (encore)

Personal Intelligence User feedback Disclaimer v14 1

Derrière la promesse « mémoire », il y a une stratégie limpide : Google a quelque chose d’unique à monétiser dans la course aux assistants IA — un écosystème grand public tentaculaire, déjà au cœur de vos usages. Là où d’autres modèles brillent par la conversation, Google peut jouer la carte de l’assistant ancré dans votre réalité, parce qu’il a (avec votre accord) accès aux traces de votre quotidien.

Et si cette approche fonctionne, elle pourrait redéfinir ce que l’on attend d’un assistant : moins de « réponses universelles », plus de recommandations situées, presque comme si l’IA apprenait à devenir votre système d’exploitation personnel.

Disponibilité : pour qui, et où ?

Pour l’instant, Personal Intelligence démarre aux États-Unis, en bêta, pour les abonnés Google AI Pro et AI Ultra, sur des comptes Google personnels. Google dit vouloir étendre ensuite à d’autres pays et, à terme, à l’offre gratuite.

Lire plus
Intelligence Artificielle

Gemini Web : Une nouvelle section « Documents » pour ne plus perdre vos rapports

Gemini Web : Une nouvelle section « Documents » pour ne plus perdre vos rapports

Pendant longtemps, Gemini a eu un problème très simple et très frustrant : il savait produire des documents, mais il ne savait pas les retrouver. Deep Research crache des rapports longs, Canvas génère des brouillons (et parfois du code), puis tout finissait dans une grille d’aperçus… jolie, mais vite illisible.

Avec un nouveau changement côté Web, Google commence à traiter Gemini comme un espace de travail, pas seulement un chat.

Gemini : Une nouvelle section « Documents » pour Deep Research et Canvas

Google déploie une rubrique Documents dans le dossier Mes contenus de l’interface Web de Gemini. Elle isole enfin les productions « texte dense » — notamment les rapports Deep Research et les créations Canvas — à côté d’une section Media qui conserve images et vidéos.

Dans cette liste, des icônes distinctes aident à distinguer un rapport de recherche d’un document classique ou d’un projet de code, et l’ensemble est organisé par date.

Le gain est évident : vous ne cherchez plus un rapport de 30 pages dans un damier de tuiles tronquées. La page Mes contenus affiche aussi les deux documents les plus récents, ce qui rend la « reprise » plus immédiate quand on enchaîne plusieurs sessions de travail.

Mais, on reste sur une première marche : pas de tri ou de classement (projet, thème, tags), et surtout, chaque document renvoie à l’instance dans le chat où il a été généré, plutôt qu’à un objet « document » autonome comme dans un vrai gestionnaire de fichiers.

Autrement dit : c’est mieux rangé, mais ce n’est pas encore « Google Docs version IA ».

Pourquoi Google fait ça maintenant ?

Ce n’est pas un ajustement isolé. En novembre 2025, Google a déjà refondu la navigation de Gemini et introduit Mes contenus comme un dossier centralisant créations récentes (images, vidéos, rapports). Cette nouvelle section Documents ressemble à la suite logique : quand un assistant commence à produire des livrables (rapports, plans, drafts, code), il doit aussi fournir l’infrastructure de suivi. Sans ça, l’IA devient une machine à générer… puis à oublier.

Selon les premiers retours, la nouveauté est visible sur le Web, et Google la distribue progressivement. Les applications mobiles ne l’affichent pas encore au même niveau de détail.

Gemini assume enfin son virage « agent + workspace »

Le signal derrière cette micro-fonction est plus large que son interface :

  • Deep Research et Canvas sont des outils « production », pas des gadgets conversationnels.
  • Donc Google doit rendre Gemini persistant : historique, accès, réutilisation, continuité.

Si Google pousse ensuite des fonctions de tri, de dossiers, de pin intelligents (voire de liens croisés entre chats et documents), Mes contenus pourrait devenir l’équivalent discret d’un « Projets » : l’endroit où l’on revient, au lieu de recommencer.

Et, c’est là que la comparaison devient intéressante : sur le terrain du « travail long », Gemini ne se bat pas seulement contre ChatGPT, mais aussi contre des outils plus stables côté documents (NotebookLM, Notion, Docs). Cette section Documents ne gagne pas la guerre, mais elle retire une faiblesse embarrassante.

Lire plus
Intelligence Artificielle

Google Veo 3.1 : La vidéo IA passe au format vertical pour conquérir TikTok et Shorts

Google Veo 3.1 : La vidéo IA passe au format vertical pour conquérir TikTok et Shorts

Google vient de donner à Veo 3.1 ce qui manquait à beaucoup d’outils vidéo IA pour devenir vraiment un outil donnant la « priorité aux réseaux sociaux » : la sortie verticale native en 9:16, pensée pour YouTube Shorts, TikTok et Instagram — sans recadrage, sans bricolage.

En parallèle, la génération à partir d’images de référence gagne en expressivité (mouvements, expressions), en cohérence (personnages/objets/décors) et en contrôle créatif.

Google Veo 3.1 : Une mise à jour taillée pour les formats qui comptent

Jusqu’ici, produire un clip IA puis l’adapter au vertical ressemblait souvent à une punition : crop, repositionnement du sujet, perte de composition, et parfois… perte de sens. Désormais, Veo permet de choisir directement le 9:16 quand on génère une vidéo (y compris à partir d’images), ce qui aligne l’outil sur les usages réels des créateurs.

Google ne s’arrête pas à Gemini : l’entreprise confirme l’intégration dans YouTube Shorts et l’app YouTube Create, ce qui est un signal fort — Veo n’est plus seulement un « modèle », c’est un composant de la chaîne de production YouTube.

« Ingredients to Video » : moins de prompt, plus de cohérence

Le cœur de l’amélioration concerne l’outil Ingredients to Video : jusqu’à trois images peuvent servir de base (personnage, décor, textures/objets), avec une meilleure capacité à conserver les éléments de scène d’un plan à l’autre. Google promet aussi des personnages plus expressifs et des vidéos plus dynamiques, même avec des prompts plus courts.

C’est un point clé : dans la vidéo, ce qui trahit souvent l’IA n’est pas la netteté, mais l’inconstance. Un visage qui « glisse », un détail de costume qui disparaît, un arrière-plan qui se réinvente à chaque cut. Veo 3.1 cible précisément ce défaut structurel.

1080p et 4K : la montée en résolution… via upscaling

Autre ajout notable : l’upscaling amélioré jusqu’en 1080p et 4K, disponible notamment via Flow, l’API Gemini et Vertex AI. Mais, Google fait une distinction importante : il s’agit d’une mise à l’échelle, pas d’une génération « nativement 4K » telle que promise dans les ambitions historiques de Veo. Dit autrement : le rendu final peut être plus propre, mais l’information « source » ne change pas de nature.

Où c’est dispo, concrètement ?

Pour le grand public, rendez-vous sur l’application Gemini (avec les nouveautés dès maintenant). Pour les professionnels, rendez-vous sur les services Flow, Google Vids, Gemini API, ou encore Vertex AI (Cloud).

Google veut que Veo devienne un réflexe de création, pas un jouet de démo

Le choix du vertical natif n’est pas un détail d’interface : c’est une décision de plateforme. Google pousse Veo au plus près de la publication (Shorts/Create), là où se joue la fréquence et donc… la fidélité. À terme, l’enjeu est limpide : faire de Veo un moteur de production « par défaut » pour les créateurs qui vivent dans l’écosystème Google/YouTube, et réduire la tentation des workflows externes.

La vraie question, maintenant, sera la même que pour tous les générateurs vidéo : la constance sur la durée, la gestion des styles, et la capacité à éviter l’effet « clip IA interchangeable ». Cette mise à jour est un pas net dans la bonne direction — parce qu’elle s’attaque enfin aux irritants qui comptent, pas seulement aux démos qui impressionnent.

Lire plus
Intelligence Artificielle

DeepSeek V4 : lancement attendu mi-février 2026, un modèle IA taillé pour le code et le long-context

DeepSeek V4 : lancement attendu mi-février 2026, un modèle IA taillé pour le code et le long contexte

Dans l’IA, la vitesse n’est plus seulement une question de puces : c’est une question de rythme de sortie. DeepSeek, jeune pousse basée à Hangzhou, s’apprêterait à frapper un grand coup avec DeepSeek V4, un modèle « phare » attendu mi-février 2026 et présenté par des sources industrielles comme un monstre de compétence en programmation.

Si la promesse se confirme, l’enjeu dépasse la simple mise en avant dans les benchmarks : c’est une bataille pour le rôle d’« ingénieur copilote » dans tous les workflows logiciels.

DeepSeek accélère là où le marché paie le plus

Le choix du code n’a rien d’anecdotique. C’est le terrain où les entreprises acceptent le plus facilement de payer, où l’IA s’intègre le plus vite (IDE, CI/CD, tickets, revue de code), et où l’avantage compétitif se mesure en semaines de productivité gagnées.

D’après Reuters (qui relaie un article de The Information), DeepSeek prévoit DeepSeek V4 comme un modèle centré sur la programmation, avec une avancée notable : la capacité à gérer des prompts de code très longs, un point critique pour les projets réels (gros dépôts, refactorings, migrations).

« Meilleur que GPT et Claude »… mais en interne

La rumeur la plus explosive tient en une phrase : les benchmarks internes placeraient DeepSeek V4 devant des modèles d’OpenAI et d’Anthropic sur des tâches de code. The Verge reprend ce cadrage en insistant sur le fait que ces résultats proviennent de tests internes et de sources proches du dossier — donc non vérifiés indépendamment.

C’est important : on peut croire à une amélioration majeure sans avaler la conclusion « DeepSeek V4 > tout le monde » comme un fait. Pour l’instant, la formulation honnête est celle-ci : DeepSeek vise le sommet du coding, et la presse spécialisée estime la fenêtre de sortie crédible.

L’héritage DeepSeek V3 : open weights, MoE massif, et obsession de l’efficacité

Ce qui rend DeepSeek V4 plausible, c’est que DeepSeek a déjà montré sa capacité à livrer des modèles très compétitifs à grande échelle. Sur Hugging Face, DeepSeek-V3 (publié fin décembre 2024) est présenté comme un Mixture-of-Experts avec 671B paramètres au total (37B activés par token), et une philosophie orientée efficacité (MLA, DeepSeekMoE, etc.).

Et une variante comme DeepSeek-V3-0324 affiche explicitement une distribution sous licence MIT pour le dépôt et les poids — un marqueur fort pour l’adoption développeur.

Autrement dit : DeepSeek sait déjà parler au monde du dev — pas seulement par la performance, mais par l’accessibilité et l’écosystème.

Le modèle « global » face à la question confiance

DeepSeek n’avance pas dans un vide géopolitique. Reuters souligne que l’entreprise fait l’objet d’une surveillance accrue par des gouvernements et régulateurs, notamment sur des sujets de protection des données et d’usage dans des environnements publics.

Ce contexte peut peser lourd sur la trajectoire de DeepSeek V4 en dehors de la Chine : même un modèle brillant peut être freiné par des politiques d’achat, des exigences de conformité, ou simplement une réticence à exposer du code sensible.

C’est là que DeepSeek joue un double jeu : d’un côté, séduire par la performance et l’open ethos ; de l’autre, rassurer sur les garanties d’exploitation (hébergement, logs, gouvernance, sécurité).

Ce que V4 peut changer (si la promesse tient)

Si DeepSeek V4 tient sa réputation « coding-first », trois effets sont probables :

  • Pression sur les assistants propriétaires : OpenAI et Anthropic devront continuer d’itérer sur le code, pas seulement sur le chat généraliste.
  • Accélération de l’agentic dev : long-context + code solide, c’est le carburant des agents qui lisent un repo, ouvrent des PR, écrivent des tests, et itèrent.
  • Standardisation d’un nouveau « baseline » : un modèle de code vraiment performant, accessible et rapide, peut redéfinir ce qu’un développeur considère comme « normal » en 2026.

Reste la grande inconnue : la forme de sortie. DeepSeek V4 sera-t-il open weights comme V3 ? Totalement, partiellement, ou pas du tout ? Tant que ce point est flou, il est difficile d’estimer l’impact réel sur la communauté.

Lire plus
Intelligence Artificielle

Cowork : Anthropic lance un agent IA sur Mac pour manipuler vos fichiers, sans passer par Claude Code

Cowork : Anthropic lance un agent IA sur Mac pour manipuler vos fichiers, sans passer par Claude Code

Anthropic accélère sur un terrain devenu brûlant : l’agent IA vraiment utile, celui qui ne se contente pas de discuter, mais qui agit. Ce lundi 12 janvier, l’entreprise a dévoilé Cowork, une nouvelle fonction intégrée à l’app Claude sur macOS, pensée comme une version plus « grand public » de Claude Code — moins intimidante, plus orientée tâches du quotidien, mais avec la même promesse : déléguer des actions en chaîne.

Ce que Cowork change : Claude devient un collègue, pas un chatbot

Le principe est volontairement simple : vous donnez à Claude l’accès à un dossier de votre Mac. À partir de là, Cowork peut lire, créer, modifier des fichiers dans cet espace — et vous tenir au courant de ses actions, tout en vous laissant « déposer » de nouvelles tâches au fil de l’eau.

Anthropic donne des exemples très « bureau » :

  • réorganiser un dossier Downloads (tri + renommage),
  • générer un tableur de dépenses depuis un lot de captures ou de tickets,
  • produire un premier draft de rapport à partir de notes éparses.

L’autre pièce du puzzle, c’est l’écosystème : Cowork s’appuie sur les connecteurs déjà existants (Notion, Asana, PayPal, etc.) et peut s’appuyer sur une intégration Chrome pour des tâches liées au navigateur.

Une « research preview » très premium

Cowork est lancé en research preview et, pour l’instant, c’est un club très fermé :

  • uniquement sur macOS via l’app Claude,
  • uniquement pour les abonnés Claude Max, facturé 100 à 200 dollars/mois selon l’usage,
  • les autres peuvent passer par une liste d’attente.

Ce choix dit beaucoup : Anthropic préfère tester Cowork auprès d’utilisateurs intensifs (et tolérants aux angles morts) plutôt que d’ouvrir trop vite un outil qui peut toucher aux fichiers locaux.

Pourquoi maintenant : surfer sur Claude Code… et élargir la base

Cowork est inspiré par le fait que Claude Code est déjà utilisé au-delà du code — comme un agent « généraliste » par des power users. Cowork reprend cette idée, mais l’emballe dans une interface sans terminal, plus rassurante pour des usages non techniques.

Et techniquement, Cowork s’inscrit dans la continuité de la stratégie « Skills / Agent SDK » d’Anthropic :

  • Agent Skills (octobre 2025) : des dossiers contenant instructions, scripts et ressources pour rendre Claude plus fiable sur des tâches répétées.
  • Claude Agent SDK : la couche outillage pour construire des agents plus puissants — et sur laquelle Cowork s’appuie indirectement via Claude Code.

En clair, Anthropic industrialise une idée : le dossier comme périmètre, l’agent comme exécutant, les skills comme procédures.

« Agent » veut dire « peut casser des choses »

Anthropic le dit explicitement : Cowork peut réaliser des actions « potentiellement destructrices » si vos instructions sont floues (ex. suppression ou modifications indésirables). L’entreprise met aussi en avant le risque d’injection de prompt, notamment quand l’agent s’appuie sur du contenu externe (web, docs, etc.).

C’est la grande tension de l’Agentic AI : plus vous voulez de l’autonomie, plus vous devez accepter un nouveau type de risque.

La bataille se déplace vers l’exécution

Avec Cowork, Anthropic se place sur le même axe que toute l’industrie : passer de « répondre » à « faire ». Mais, son angle est malin : plutôt que de vendre une révolution, Cowork se positionne comme un outil de travail qui réduit la friction du « copier-coller + mise en forme + recontextualisation ».

La question qui décidera du succès est simple : est-ce que Cowork deviendra un réflexe, comme « demander à un collègue de gérer ça », ou est-ce qu’il restera un gadget premium pour enthousiastes de l’automatisation ?

Lire plus
Intelligence Artificielle

Apple confirme Gemini pour la nouvelle Siri : un accord pluriannuel qui change la donne de Apple Intelligence

Apple confirme Gemini pour la nouvelle Siri : un accord pluriannuel qui change la donne de Apple Intelligence

Cela faisait des mois que la promesse d’une Siri vraiment « personnelle » ressemblait à un mirage. Et puis, ce lundi 12 janvier 2026, Apple a cessé d’entretenir le flou : la prochaine grande évolution de Siri s’appuiera sur Google Gemini, dans le cadre d’un accord pluriannuel.

Un aveu de dépendance, mais aussi un raccourci stratégique pour rattraper la course des assistants IA.

Selon CNBC, Apple et Google ont confirmé une collaboration pluriannuelle : la « nouvelle génération » des Apple Foundation Models sera basée sur les modèles Gemini et la technologie cloud de Google. Apple dit avoir retenu Gemini après « évaluation » comme la base la plus capable, et promet que cela débloquera de « nouvelles expériences » pour les utilisateurs.

Point clé : Apple insiste sur le fait que l’expérience Apple Intelligence continuera de s’appuyer sur l’appareil et sur Private Cloud Compute quand il faut du calcul serveur, tout en revendiquant ses standards de confidentialité.

Siri était coincée entre ambition et fiabilité

Apple avait promis le Siri « plus personnel » à la WWDC 2024, puis avait repoussé certaines fonctions en expliquant que cela prenait plus de temps que prévu. Des sources évoquaient déjà iOS 26.4 comme fenêtre probable (plutôt mars/avril) — mais Apple, dans ses déclarations, se contente d’un « plus tard cette année ».

La lecture la plus simple : Apple veut éviter un second retard public. En s’adossant à Gemini, la marque achète du temps… et de la crédibilité.

Ce que Gemini peut apporter à Siri

Sur le plan produit, l’objectif est limpide : passer d’un assistant « commande vocale » à un assistant contextuel, qui comprend mieux l’écran, vos apps, et vos demandes complexes.

Une telle intégration pourrait offrir des réponses synthétiques « alimenté par le Web » dans l’esprit des moteurs de réponses IA, avec Gemini en fondation. Et, « basé sur Gemini » ne veut pas dire « Siri devient Gemini » : Apple construira sa couche d’expérience, mais sur une base plus solide.

Le gagnant immédiat, c’est Google — et le sujet brûlant, c’est la confiance

Cette annonce est un trophée pour Alphabet : la nouvelle a dopé la perception du momentum IA de Google et a contribué au passage d’Alphabet au-dessus des 4 000 milliards de dollars de valorisation.

Mais côté Apple, l’équation est plus délicate. Dans un monde où Apple vend la confidentialité comme un produit, confier le socle d’un assistant à Google — même partiellement, même « encadré » — soulève forcément des questions d’optique et de gouvernance des données. Apple répond en martelant son architecture hybride (sur le dispositif + Private Cloud Compute), mais l’adoption se jouera sur un détail : est-ce que Siri redevient enfin fiable et utile, au quotidien ?

Et, il y a un arrière-plan politique/antitrust : Apple et Google sont déjà liés par l’accord du moteur de recherche par défaut. Ajouter Gemini au cœur de Siri renforce l’impression d’un duopole qui se consolide, au moment même où les régulateurs scrutent les plateformes.

Quand verrons-nous cette intégration ? Apple dit « cette année ». Les observateurs misent plutôt sur iOS 26.4 au printemps, mais cela reste une attente, pas une date officielle.

Lire plus
Intelligence Artificielle

Claude for Healthcare : Anthropic défie ChatGPT Health et accélère la course à l’IA médicale

Claude for Healthcare : Anthropic défie ChatGPT Health et accélère la course à l’IA médicale

En moins d’une semaine, la santé est devenue le nouveau terrain de jeu — et de confrontation — des grands modèles d’IA. Après le lancement de ChatGPT Health le 7 janvier 2026, Anthropic riposte le 11 janvier avec Claude for Healthcare, une déclinaison pensée pour les hôpitaux, les assureurs… et, fait plus rare, les patients.

Claude for Healthcare : Une annonce calée au millimètre dans la bataille du « care »

Côté OpenAI, le message est clair : l’usage santé est déjà massif, avec plus de 230 millions de personnes qui poseraient chaque semaine des questions liées à la santé et au bien-être sur ChatGPT, d’après l’entreprise et plusieurs médias.

Anthropic arrive avec une promesse différente : moins « assistant grand public qui répond », plus « brique d’infrastructure » pour des organisations où l’erreur et la fuite de données ne pardonnent pas. La société présente Claude for Healthcare comme un ensemble d’outils compatibles HIPAA (Health Insurance Portability and Accountability Act) et connectés à des référentiels médicaux, pour réduire la friction administrative et améliorer l’accès à l’information clinique.

Anthropic parle d’un dispositif en deux étages :

  • Entreprise (soignants/payeurs) : accès « prêt pour HIPAA », connecteurs vers des bases comme CIM-10, PubMed, ou des ressources liées à CMS, et des « Agent Skills » personnalisables (dont des usages orientés FHIR).
  • Côté patient : intégrations permettant de relier des données personnelles via des partenaires — dont HealthEx, mais aussi des ponts vers des apps/plateformes de santé. Anthropic insiste sur le fait que ces données ne seraient pas stockées ni utilisées pour entraîner ses modèles dans ce cadre.

image 10

En face, ChatGPT Health mise d’abord sur l’expérience : un espace dédié dans ChatGPT pour connecter dossiers médicaux et apps de bien-être (ex. Apple Health, MyFitnessPal…), interpréter des résultats, préparer un rendez-vous, ou comparer des options d’assurance — tout en promettant des contrôles de confidentialité renforcés et un cloisonnement des données santé.

À noter : au lancement, l’accès a été annoncé comme limité et non disponible dans l’EEE (donc la France), en Suisse et au Royaume-Uni dans l’immédiat.

Deux stratégies, un même nerf de la guerre — la confiance

La différence la plus structurante est presque philosophique :

    • OpenAI cherche à « canaliser » un usage déjà existant, très grand public, et à le rendre plus contextualisé via des connexions de données. C’est une logique de produit, portée par la volumétrie et l’interface conversationnelle.
    • Anthropic cible le cœur dur des organisations : conformité, intégration, workflows. En santé, cela veut dire autorisation préalable, comptes rendus, accès à des référentiels, et branchements propres sur l’écosystème de DME.

En filigrane, un mot hante tous les DSI hospitaliers : responsabilité. Les modèles génératifs « hallucinent » — pas toujours, pas toujours gravement, mais suffisamment pour que la santé exige des garde-fous procéduraux (incertitude explicitée, traçabilité, escalade vers un clinicien). Les deux acteurs martèlent donc la même promesse : privacy by design et limites d’usage.

L’autre champ de bataille : l’interopérabilité (et la politique des données)

Si l’IA veut « aider » la santé, elle doit d’abord parler aux systèmes. Et, c’est précisément ce que reflète la dynamique autour de CMS : Anthropic a signé en 2025 un engagement lié au Health Tech Ecosystem pour pousser l’interopérabilité et le partage de données, dans un cadre public-privé.

Dans le réel, on voit déjà des déploiements : Banner Health, par exemple, met en avant l’assistant BannerWise basé sur Claude, déployé à grande échelle en interne, et présenté comme une rampe d’accès à des usages plus larges (opérations, supply chain, etc.).

Et au-dessus de la mêlée, il y a la question des moyens : Reuters rapporte que Anthropic préparerait une levée pouvant atteindre 10 milliards de dollars pour une valorisation d’environ 350 milliards, signe que l’industrie parie sur une monétisation massive… notamment via les secteurs régulés comme la santé.

Lire plus
Intelligence Artificielle

Claude Code 2.1.0 : Anthropic lance l’orchestration d’agents autonomes pour les pros

Claude Code 2.1.0 : Anthropic lance l'orchestration d'agents autonomes pour les pros

Avec Claude Code 2.1.0, Anthropic franchit une étape décisive dans l’évolution de son environnement de développement autonome. Loin d’un simple assistant de code conversationnel, cette nouvelle version renforce Claude Codecomme plateforme d’orchestration d’agents, pensée pour des workflows longs, modulaires et persistants.

Déployée via une mise à jour dense de 1 096 commits, la version Claude Code 2.1.0 introduit des avancées majeures sur le cycle de vie des agents, la portabilité des sessions, la gestion des compétences et l’expérience développeur — autant de briques essentielles pour un usage professionnel et industriel de l’IA.

Claude Code : De l’outil expérimental à la brique d’infrastructure

Lancé initialement en février 2025 comme un outil en ligne de commande, Claude Code accompagnait alors l’arrivée du modèle Claude Sonnet 3.7. Depuis, l’environnement a évolué au rythme des progrès de la famille de modèles Claude, jusqu’au modèle phare Claude Opus 4.5, aujourd’hui largement utilisé pour dépasser les simples complétions de code.

Avec la version 2.1.0, Anthropic assume un changement de posture : Claude Code n’est plus seulement un copilote, mais un framework d’exécution programmable, capable de gérer des agents autonomes sur plusieurs sessions, environnements et contextes.

Maîtriser le cycle de vie des agents : le cœur de la mise à jour

La nouveauté la plus structurante concerne le contrôle du cycle de vie des agents, un enjeu central pour les équipes qui construisent des pipelines IA complexes.

Nouvelles briques clés

  • Hooks pour agents, compétences et commandes slash, permettant d’intervenir avant ou après l’utilisation d’outils (PreToolUse, PostToolUse, Stop). Ces points d’ancrage offrent un contrôle fin de l’état, des permissions et de l’audit.
  • Contextes isolés pour sous-agents, via context : fork, afin de tester de nouvelles logiques sans effets de bord sur l’agent principal.
  • ermissions avec jokers, simplifiant la gestion des règles (ex. Bash(npm *)) et réduisant la complexité des configurations.

Ces évolutions rendent les agents plus prévisibles, plus traçables et plus robustes, un prérequis pour un déploiement en entreprise.

Des compétences réutilisables, enfin itérables en temps réel

Claude Code 2.1.0 améliore fortement le développement de skills, ces briques réutilisables qui encapsulent des comportements complexes.

  • Rechargement à chaud des compétences : toute modification dans les dossiers de skills est immédiatement prise en compte, sans redémarrage de session.
  • Indicateurs de progression en temps réel, affichant les actions et appels d’outils pendant l’exécution.
  • Visibilité accrue dans le menu des commandes, facilitant l’adoption de workflows partagés au sein d’une équipe.

Résultat : l’expérimentation devient continue, et le coût cognitif de l’itération chute drastiquement.

Sessions portables et travail distribué

Autre avancée stratégique : la portabilité des sessions. Grâce aux commandes/teleport et/remote-env, les utilisateurs peuvent déplacer une session Claude Code entre terminal local et interface Web sur claude.ai/code.

Ce mécanisme ouvre la voie à la continuité de travail entre machines, le partage de sessions entre collaborateurs, et une meilleure intégration dans des environnements hybrides (local/cloud).

Une expérience développeur pensée pour les power users

Anthropic soigne également les détails qui font la différence au quotidien :

  • compatibilité native de Shift+Enter sur les principaux terminaux,
  • unification du Ctrl+B pour envoyer agents et commandes en arrière-plan,
  • enrichissement des mouvements Vim, pour rester en terrain familier,
  • affichage en temps réel du raisonnement de Claude en mode transcript,
  • respect du. gitignore pour limiter le bruit et les risques d’exposition.

À cela s’ajoutent de nombreuses optimisations de performance et des correctifs critiques, notamment une faille pouvant exposer des secrets dans les logs de debug — désormais corrigée.

Pourquoi cette version marque un tournant ?

Depuis fin 2025, Claude Code suscite un engouement croissant chez les développeurs, fondateurs de startups et même des profils non techniques. Les retours convergent : ceux qui utilisent Claude Code comme une couche d’orchestration, et non comme un simple chatbot, en tirent des gains spectaculaires.

La version 2.1.0 ne cherche pas à simplifier excessivement l’outil. Au contraire, elle renforce son identité de plateforme pour utilisateurs avancés, avec des concepts proches de l’ingénierie logicielle classique : états, permissions, isolation, réutilisabilité.

Claude Code devient moins un « modèle IA » et davantage un framework programmable, dans lequel les agents sont des composants de première classe.

Disponibilité et accès

Claude Code est accessible aux abonnés :

  • Claude Pro (20 dollars/mois),
  • Claude Max (100 dollars/mois),
  • Claude Team (150 dollars/mois par siège),
  • Claude Enterprise (tarification sur mesure).

Les fonctions de téléportation nécessitent l’accès à l’interface web dédiée. La documentation complète est disponible sur le site officiel d’Anthropic.

Avec Claude Code 2.1.0, Anthropic envoie un signal clair : l’IA pour développeurs n’est plus une expérience, mais une infrastructure. Là où d’autres outils cherchent à séduire par l’interface ou la simplicité immédiate, Claude Code s’adresse à ceux qui veulent construire, composer et automatiser à grande échelle.

Cette stratégie ne vise pas tout le monde — et c’est précisément ce qui fait sa force. En réduisant la friction pour les utilisateurs experts, Anthropic consolide Claude Code comme un socle crédible pour la prochaine génération de workflows autonomes.

Lire plus
Intelligence Artificielle

CES 2026 : XGIMI dévoile MemoMind, les lunettes IA que vous allez enfin vouloir porter

CES 2026 : XGIMI dévoile MemoMind, les lunettes IA que vous allez enfin vouloir porter

Au CES 2026, XGIMI surprend en sortant de son territoire historique de la projection pour faire ses premiers pas dans les wearables. Avec MemoMind, la marque présente sa toute première gamme de lunettes connectées dopées à l’IA, guidée par une idée simple mais rarement respectée : on doit avoir envie de porter des lunettes parce qu’on les trouve belles, pas parce qu’on accepte de supporter un gadget.

Une prise de position claire, dans un marché où l’innovation technologique a souvent pris le pas sur l’esthétique et le confort.

Une approche minimaliste de l’IA au quotidien

Contrairement à d’autres projets de lunettes connectées très démonstratifs, MemoMind mise sur une IA discrète, pensée pour intervenir brièvement, au bon moment. Traduction instantanée, résumés contextuels, prises de notes, rappels intelligents ou guidage situationnel : les usages sont conçus pour compléter l’attention, pas la capter en permanence.

XGIMI assume une philosophie d’assistance légère, destinée à accompagner l’utilisateur tout au long de la journée sans créer de surcharge cognitive ni d’effet « écran collé au visage ».

MemoMind CES

Le design comme point d’entrée, pas comme compromis

Le véritable élément différenciant de MemoMind réside dans son approche modulaire du design. Là où la majorité des lunettes IA imposent une forme unique, XGIMI propose :

  • 8 styles de montures distincts,
  • 5 branches interchangeables,
  • une compatibilité complète avec des verres correcteurs.

Ce choix n’est pas anecdotique. Il répond à un frein majeur à l’adoption : personne ne veut porter deux paires de lunettes, ni sacrifier son style pour accéder à des fonctions intelligentes. En permettant d’adapter MemoMind à la morphologie et aux préférences esthétiques de chacun, XGIMI augmente considérablement les chances que ces lunettes soient réellement portées… et pas oubliées dans un tiroir.

Une IA hybride, pensée pour l’efficacité plutôt que le spectacle

Sur le plan logiciel, MemoMind repose sur un système d’exploitation IA hybride multi-modèles, capable de sélectionner dynamiquement la meilleure intelligence selon la tâche :

  • OpenAI pour certaines interactions conversationnelles,
  • Azure pour des traitements spécifiques,
  • Qwen pour d’autres contextes linguistiques ou analytiques.

L’objectif affiché : réduire le bruit, éviter les réponses inutiles et privilégier une IA utile, contextuelle et silencieuse jusqu’à ce qu’on en ait besoin.

Deux modèles, deux visions de l’usage

La gamme MemoMind se décline en deux approches complémentaires :

Memo One : l’expérience complète

Positionné comme le modèle le plus avancé, Memo One combine un affichage binoculaire, des haut-parleurs intégrés, et une interaction à la fois visuelle et audio.

Il s’adresse aux utilisateurs qui souhaitent exploiter pleinement les capacités de l’IA, tout en conservant une forme de lunettes relativement classique.

Memo Air Display : la légèreté avant tout

À l’opposé, Memo Air Display adopte une philosophie plus épurée avec un affichage monoculaire, un poids cible de 28,9 grammes, et un boîtier de charge capable, selon XGIMI, d’assurer jusqu’à une semaine d’usage.

Ce modèle vise clairement un port prolongé, quasi invisible, pour des interactions ponctuelles et rapides.

Ce qu’il faudra surveiller après le CES

Si la vision est séduisante, MemoMind devra encore convaincre sur des points clés avant de devenir un produit réellement désirable. Le Memo One est annoncé autour de 599 dollars, avec des précommandes prévues prochainement, mais sans calendrier précis ni détails sur la disponibilité internationale.

Les éléments décisifs restent à venir : autonomie réelle, luminosité et lisibilité des écrans, champ de vision, et qualité audio en environnement bruyant.

Si ces fondamentaux sont maîtrisés, la personnalisation et la sobriété fonctionnelle pourraient bien faire de MemoMind l’une des premières lunettes IA à ne pas sembler… étranges à porter.

XGIMI tente de réconcilier lunettes et technologie

Avec MemoMind, XGIMI ne cherche pas à impressionner par une surenchère technologique. La marque adopte une approche plus mature : faire passer le design, le confort et l’usage avant la démonstration technique.

Dans un marché encore marqué par les échecs de produits trop visibles ou trop intrusifs, cette stratégie pourrait s’avérer payante. Si l’IA sait rester à sa place, et si les lunettes restent avant tout… des lunettes, MemoMind pourrait incarner une voie plus crédible vers l’adoption grand public des wearables intelligents.

Lire plus
Intelligence Artificielle

CES 2026 : Project LUCI, l’IA qui va enfin donner une mémoire à nos objets connectés

CES 2026 : Project LUCI, l'IA qui va enfin donner une mémoire à nos objets connectés

Au CES 2026, alors que la majorité des acteurs rivalisent de nouveaux gadgets destinés au grand public, Memories.ai prend un virage radicalement différent. Plutôt que de lancer un énième wearable, la jeune entreprise dévoile Project LUCI, une plateforme de référence pensée avant tout pour les développeurs, destinée à servir de socle aux prochaines générations d’objets connectés dopés à l’IA.

Une stratégie assumée : ne pas vendre un produit fini, mais outiller tout un écosystème.

Project LUCI : une IA qui se souvient (vraiment)

Project LUCI signifie Long Understanding Contextual Intelligence. Derrière cet acronyme, Memories.ai propose une couche logicielle conçue pour résoudre l’un des plus grands échecs des wearables IA jusqu’ici : l’absence de mémoire contextuelle persistante.

Le cœur du système repose sur le Large Visual Memory Model (LVMM) 2.0, un modèle capable de capturer des flux vidéo en continu, les encoder localement en images exploitables, et transformer ces instants en souvenirs visuels indexables.

Via une application compagnon, l’utilisateur peut ensuite retrouver une conversation passée, une décision prise ou une situation vécue, simplement en la décrivant. Une approche qui rapproche l’IA d’un fonctionnement plus humain : voir, comprendre, mémoriser, puis relier les événements dans le temps.

Pour Shawn Shen, cofondateur et PDG de Memories.ai, cette capacité de rappel contextuel est la pièce manquante qui a condamné de nombreux projets précédents.

Screen 2026 01 08 at 22.04.59 scaled

Pourquoi les premiers wearables IA ont échoué ?

Shen cite sans détour les exemples du Humane AI Pin ou du Rabbit R1. Ambitieux sur le papier, ces produits ont souffert de réponses lentes ou imprécises, de dépendance excessive au cloud, et une incapacité à comprendre le contexte réel de l’utilisateur.

Résultat : même des actions simples, comme commander un VTC par la voix, devenaient frustrantes. Selon lui, le marché ne manquait pas d’idées, mais de maturité technologique, notamment en matière de mémoire et de compréhension visuelle du monde.

Une plateforme, pas un produit fini

Le Project LUCI n’est pas conçu pour être vendu tel quel. Il s’agit d’un design de référence, volontairement neutre et modulable, comparable à ce que furent les smartphones Nexus pour Android : une démonstration de potentiel, pas une finalité commerciale.

Dans cette logique, Memories.ai cherche à travailler étroitement avec des partenaires industriels. Des collaborations sont déjà évoquées avec RayNeo et Sharge, afin d’accélérer les expérimentations matérielles autour de LUCI.

Pour l’instant, certains observateurs n’hésitent pas à qualifier LUCI de « l’Android des wearables IA » : une base commune sur laquelle chacun pourrait bâtir sa propre vision.

Sécurité et infrastructure : un enjeu central

Contrairement à de nombreux projets encore flous sur la gestion des données, Memories.ai met fortement en avant la sécurité :

  • chiffrement de niveau entreprise,
  • contrôles d’accès avancés,
  • partenariats avec des fournisseurs cloud spécialisés.

Le matériel de référence repose par ailleurs sur des composants Qualcomm, qui apporte également des mécanismes de sécurité au niveau matériel — un point critique pour des dispositifs capables d’enregistrer en permanence l’environnement de l’utilisateur.

Le vrai pari de Memories.ai

Avec Project LUCI, Memories.ai parie sur une idée simple mais puissante : le futur des wearables IA ne se jouera pas sur le design ou le marketing, mais sur la mémoire et le contexte.

Plutôt que d’imposer un objet de plus au consommateur, l’entreprise préfère devenir l’infrastructure invisible sur laquelle reposeront les assistants réellement utiles de demain. Une approche moins spectaculaire à court terme, mais potentiellement bien plus structurante pour l’industrie.

Si l’IA est appelée à nous accompagner en permanence, encore faut-il qu’elle se souvienne de ce que nous vivons. LUCI veut précisément lui donner cette capacité.

Lire plus
Intelligence Artificielle

OpenAI dévoile ChatGPT Health : Une révolution pour vos analyses et votre bien-être

OpenAI dévoile ChatGPT Health : Une révolution pour vos analyses et votre bien-être

OpenAI franchit un cap que beaucoup redoutaient autant qu’ils l’attendaient : faire de ChatGPT un compagnon de santé du quotidien, plus « personnalisé », plus « sécurisé », et surtout plus connecté à nos données.

Avec ChatGPT Health, l’IA quitte le terrain des conseils génériques pour s’aventurer dans ce que nous avons de plus intime : nos symptômes, nos analyses, nos habitudes… et nos angoisses.

L’annonce ressemble à une promesse de simplification. Elle ressemble aussi, forcément, à une prise de risque.

ChatGPT Health : Une « onglet santé » sandboxé, pensé comme une pièce à part

ChatGPT Health prend la forme d’un tab dédié dans ChatGPT, avec un historique et une mémoire séparés du reste des conversations. L’idée : isoler les échanges sensibles, et créer un espace où l’utilisateur peut poser ses questions santé dans un contexte présenté comme plus protecteur.

Ce lancement s’inscrit dans une séquence plus large où OpenAI multiplie les signaux sur « l’IA alliée du système de santé » — un thème déjà mis en avant dans un document publié ce mois-ci.

Le point clé, c’est la connexion aux données. OpenAI encourage les utilisateurs à relier :

  • des dossiers médicaux (analyses, comptes rendus, antécédents),
  • et des apps « bien-être » comme Apple Health, Peloton, MyFitnessPal, Weight Watchers, Function, pour des réponses censées être plus « ancrées » dans le réel.

Pour l’intégration des dossiers médicaux, OpenAI s’appuie sur b.well, qui servirait de couche technique d’accès à des données issues d’environ 2,2 millions de fournisseurs.

Côté déploiement : liste d’attente, bêta, puis ouverture « progressive » à tous les utilisateurs, sans distinction de formule.

Côté garde-fous : OpenAI répète que le produit n’est pas destiné au diagnostic ou au traitement. Les échanges ChatGPT Health ne seraient pas utilisés pour entraîner les modèles par défaut. L’entreprise parle de « couches de chiffrement » spécifiques, tout en précisant que ce n’est pas du chiffrement de bout en bout — et rappelle qu’en cas de procédure légale valide, l’accès aux données peut être requis.

Enfin, OpenAI indique que HIPAA ne s’applique pas ici, le produit étant présenté comme un service « consumer », pas un outil clinique.

Le vrai sujet : la confiance… dans un moment où l’IA a déjà dérapé sur la santé

OpenAI arrive sur un terrain miné par un paradoxe : la santé est déjà un des usages majeurs de ChatGPT, mais c’est aussi celui où les erreurs coûtent le plus cher (au sens littéral). OpenAI elle-même a travaillé ces derniers mois à renforcer ses réponses dans les conversations sensibles, notamment autour de la détresse.

Or, l’actualité récente rappelle à quel point les IA peuvent « halluciner » avec aplomb :

  • Un cas clinique a documenté une intoxication au bromure après qu’un patient a remplacé le sel par du bromure de sodium à la suite d’échanges attribués à ChatGPT — avec hospitalisation et symptômes neuropsychiatriques.
  • De son côté, Google a été pris dans une série de polémiques autour des AI Overviews, dont des conseils santé trompeurs jugés potentiellement dangereux par des experts (et, plus tôt, des réponses absurdes devenues virales).

C’est là que ChatGPT Health devient un objet culturel autant qu’un produit : il ne s’agit pas seulement d’améliorer des réponses, mais de faire accepter que l’IA puisse s’installer durablement dans notre hygiène de vie, nos résultats de labo, nos décisions d’assurance — bref, dans la logistique intime de nos existences.

Et, il y a un angle que l’annonce effleure à peine : la santé mentale. OpenAI sait que les gens utilisent déjà ChatGPT pour parler anxiété, dépression, crises, solitude. Mais « produit santé » + « données personnelles » + « conversation sensible » = une zone où la moindre erreur de ton ou de priorité peut faire très mal, même sans « conseil médical » explicite.

Pourquoi OpenAI le fait maintenant

Stratégiquement, ChatGPT Health ressemble à une pièce de puzzle : transformer ChatGPT d’un outil universel en plateforme personnelle, plus difficile à quitter parce qu’elle comprend vos métriques, votre historique, votre contexte.

Et ce n’est pas un coup isolé : dès fin 2025, des signaux indiquaient qu’OpenAI explorait des produits santé grand public au-delà du chatbot « généraliste », en recrutant et en structurant une équipe dédiée.

La santé, c’est aussi un marché où l’IA peut prouver quelque chose de rare : un bénéfice immédiat (comprendre un résultat, préparer un rendez-vous, formuler des questions, suivre une routine) — à condition d’être radicalement humble sur ses limites.

Ce qu’il faudra surveiller en 2026

Trois points décideront si ChatGPT Health devient un outil utile… ou un nouveau générateur d’angoisse :

  1. La qualité des garde-fous (réponses non alarmistes, redirection vers le soin humain, gestion des situations de détresse).
  2. La transparence sur les données (qu’est-ce qui est stocké, combien de temps, et comment l’utilisateur contrôle réellement mémoire et accès).
  3. La preuve par l’usage : est-ce que l’outil aide à mieux naviguer le système de santé… sans se substituer à lui ?

OpenAI joue ici une partie délicate : rendre l’IA plus « proche » sans la rendre envahissante, plus « personnelle » sans la rendre inquiétante. Le futur de l’IA grand public se jouera peut-être là : dans la capacité à inspirer confiance… quand le sujet n’autorise ni l’approximation, ni la mise en scène.

Lire plus
Intelligence Artificielle

Motorola / Lenovo Qira : L’IA qui unifie enfin votre smartphone et votre PC au CES 2026

Motorola / Lenovo Qira : L’IA qui unifie enfin votre smartphone et votre PC au CES 2026

Au CES 2026, Motorola ne s’est pas contenté d’ajouter une couche d’IA de plus. La marque a choisi un geste plus rare — et plus stratégique : rassembler. Avec Motorola Qira (et Lenovo Qira côté PC), le duo tente de transformer une constellation d’appareils en un seul continuum d’usage, où le contexte vous suit d’un écran à l’autre.

Et, en coulisse, un concept de wearable baptisé Project Maxwell esquisse ce que pourrait devenir l’IA « à porter ».

Qira : Une « intelligence ambiante » comme nouveau système nerveux

Le cœur de Qira, c’est l’idée d’une Personal Ambient Intelligence System : une IA intégrée au niveau système, capable de comprendre ce que vous faites (sur PC, smartphone, tablette, accessoires) et de vous aider sans vous forcer à « ouvrir un chatbot ».

Lenovo présente Qira comme une intelligence unique, déclinée en deux visages — Lenovo sur ses produits, Motorola sur les siens — mais pensée pour fonctionner comme un seul cerveau.

Ce choix répond à un vrai point de douleur : la fragmentation. Quand on jongle entre un PC Lenovo et un smartphone Motorola, l’IA n’est utile que si elle est continue, pas si elle « redémarre » à chaque appareil.

Les fonctions phares : « Catch me up », « Next Move »… et surtout le contexte cross-device

Motorola et Lenovo mettent en avant deux usages très concrets :

  • Catch me up : résumer ce qui s’est passé pendant votre absence pour reprendre rapidement le fil.
  • Next Move : suggérer la prochaine étape logique en fonction de votre activité.

Mais, la promesse la plus structurante, c’est le cross-device context : la capacité à conserver et transporter votre contexte d’action — le vrai Graal de la productivité, quand une idée commence sur téléphone et se termine sur PC (ou inversement). Reuters parle explicitement d’un système personnel « cross-device » couvrant PCs, tablettes, téléphones et wearables.

Lenovo évoque aussi des intégrations de services (ex. Expedia), un indice supplémentaire : Qira n’est pas seulement une interface, c’est une couche d’orchestration.

Project Maxwell : un wearable « preuve de concept », pas un produit — mais un signal fort

Maxwell Photo 1

L’autre annonce, plus spéculative, s’appelle Project Maxwell. Lenovo/Motorola le positionnent comme une preuve de concept : un wearable « compagnon IA », pensé pour fournir une assistance en temps réel dans l’écosystème Qira.

Point important : il ne s’agit pas d’un produit annoncé à la vente. Mais, le message est clair : Lenovo et Motorola veulent explorer une IA qui sort de l’écran — non pas pour « remplacer » le smartphone, mais pour l’étendre.

Maxwell Photo 4

Lenovo d’abord, Motorola ensuite

Sur le déploiement, Lenovo annonce un lancement progressif en 2026, avec un démarrage sur une sélection d’appareils Lenovo en Q1 2026, puis une arrivée sur les smartphones Motorola ensuite via mises à jour, selon plusieurs sources de couverture.

Qira est, sur le papier, l’annonce la plus mature. Parce qu’elle ne promet pas « plus d’IA », mais moins de friction : un assistant qui se rappelle, qui relie, qui synchronise. Si Motorola/Lenovo réussissent cette continuité sans sensation d’intrusion, ils pourraient se construire un avantage inattendu face à des écosystèmes plus fermés.

Project Maxwell, lui, sert un autre rôle : montrer qu’ils veulent aussi jouer la carte de l’IA « portable » — mais avec la leçon des échecs récents du secteur : un wearable IA n’a de sens que s’il est branché à un écosystème, pas isolé. Et c’est exactement ce que Qira prépare.

Lire plus
Intelligence Artificielle

Garmin Connect+ : Le suivi nutritionnel IA arrive enfin (mais il faudra payer)

Garmin Connect+ : Le suivi nutritionnel IA arrive enfin (mais il faudra payer)

Garmin vient de franchir une étape que beaucoup attendaient… et que d’autres redoutaient : le suivi nutritionnel natif arrive dans Garmin Connect, mais réservé aux abonnés Garmin Connect+.

Dans un marché où l’entraînement se pilote de plus en plus « à 360° », la marque veut relier l’assiette, le sommeil et la charge de travail — au prix d’un nouveau débat sur la valeur d’un service payant.

Une évolution logique… dans une stratégie déjà controversée

Garmin Connect+ n’est pas né hier : l’abonnement a été lancé en 2025 avec Active Intelligence, une couche d’analyses « IA » au-dessus des données santé/fitness.
Le positionnement est clair : les fonctionnalités historiques restent gratuites, mais les nouveautés les plus « premium » migrent peu à peu dans la formule payante.

Avec la nutrition, Garmin touche à un pilier central de l’écosystème fitness — et c’est précisément pour ça que l’annonce fait réagir : c’est probablement l’ajout le plus structurant depuis le lancement de Connect+.

Ce que permet la nouvelle fonction Nutrition dans Garmin Connect

Garmin promet un suivi simple, mais assez complet pour rivaliser avec les applis dédiées :

  • Suivi des calories et des macros (protéines, lipides, glucides)
  • Base de données alimentaire « globale » (produits, restaurants, options régionales), avec scan code-barres et capture via la caméra du smartphone
  • Rapports (quotidiens, hebdos, mensuels, annuels) + recommandations personnalisées sur calories et macros
  • Insights Active Intelligence pour relier nutrition et métriques (ex. corrélation entre « late-night eating » et qualité de sommeil)

Sur les montres compatibles, Garmin met en avant un accès « poignet » : aperçu rapide, aliments favoris/récents, et parfois commandes vocales.

Un détail qui compte : Garmin permet aussi de créer des repas/entrées personnalisées (pratique pour les routines type petit-déj/café).

Le point technique (et pratique) à surveiller : l’effet « remplacement » de MyFitnessPal

Depuis des années, beaucoup d’utilisateurs Garmin passaient par MyFitnessPal pour la nutrition, avec synchro dans Connect. Cette intégration continue d’exister, mais l’arrivée de Nutrition dans Connect+ change l’équilibre.

Selon les premiers retours détaillés, activer la nutrition Garmin peut désactiver l’intégration MyFitnessPal côté compte, ce qui peut aussi impacter certains partages de données (exercices, balances connectées « via MFP », etc.).

Autre détail très « terrain » : la base code-barres dépend du pays sélectionné pour le scan — un paramètre crucial pour les voyageurs (ou les expatriés).

Analyse : Garmin vend une promesse « holistique »… mais fait payer l’entrée

Sur le fond, Garmin joue une carte cohérente : la valeur d’un écosystème, c’est la capacité à relier les points. L’entraînement (charge, VO2, récupération), le sommeil, la variabilité HRV… et maintenant la nutrition, dans une même timeline. Et Active Intelligence devient le ciment : moins une fonction « gadget », plus une tentative d’interprétation automatisée du quotidien.

Mais sur la forme, le mouvement ranime une tension : Garmin vend des montres premium, et une partie de sa base accepte mal l’idée de payer encore pour des fonctionnalités jugées « fondamentales ». Cette fronde était déjà visible lors du lancement de Connect+, et la nutrition risque d’en être le test grandeur nature.

Côté prix, Connect+ est annoncé à 6,99 euros/mois ou 69,99 euros/an, avec un essai gratuit. Garmin peut d’ailleurs se défendre facilement : la nutrition « premium » (scan, bases étendues, analyses) est souvent payante chez les spécialistes, et l’intégration native + insights croisés est un argument réel — à condition que la base alimentaire soit solide et que l’expérience de saisie reste fluide au quotidien.

Lire plus