fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI et Helion : derrière l’accord électrique géant, une alliance aussi ambitieuse que spéculative

OpenAI et Helion : derrière l’accord électrique géant, une alliance aussi ambitieuse que spéculative

L’IA a besoin de puissance de calcul, donc d’électricité. Beaucoup d’électricité. Et à mesure que les datacenters deviennent le vrai nerf de la guerre, OpenAI semble regarder bien au-delà des contrats énergétiques classiques.

Selon Axios, OpenAI serait en discussions avancées avec Helion Energy pour acheter de l’électricité issue de la fusion nucléaire — à une échelle tout simplement vertigineuse.

Un projet hors norme, encore au stade des discussions

D’après Axios, le cadre discuté prévoirait pour OpenAI l’équivalent de 5 gigawatts d’ici 2030, puis 50 gigawatts à l’horizon 2035, avec une garantie initiale portant sur 12,5 % de la production d’Helion. Reuters a confirmé l’existence de discussions avancées et la structure générale du projet, tout en précisant que plusieurs conditions clés restent non remplies, notamment le choix du site où Helion produirait cette électricité. OpenAI, de son côté, n’a pas commenté publiquement.

À ce niveau, le simple ordre de grandeur suffit à mesurer l’ambition. Helion a annoncé en 2023 un accord avec Microsoft pour fournir au moins 50 MW à partir de sa première centrale, puis a indiqué en 2025 travailler avec Nucor sur une centrale de 500 MW pour les années 2030.

Le projet évoqué avec OpenAI ferait donc changer Helion de dimension, en passant du mégawatt au gigawatt.

La vraie question : Helion peut-elle livrer une telle puissance ?

Helion affirme que chacun de ses futurs réacteurs doit produire environ 50 MW. Si l’on suit cette hypothèse, atteindre 5 GW supposerait environ 100 réacteurs ; atteindre 50 GW en nécessiterait dix fois plus. C’est précisément ce qui rend ce dossier fascinant sur le plan industriel — et extrêmement fragile sur le plan de l’exécution. Cette lecture relève d’une inférence à partir des chiffres publics d’Helion, mais elle donne une idée claire du saut de production implicite.

Le verrou fondamental reste d’ailleurs inchangé : Helion n’a pas encore démontré une production commerciale nette d’électricité sur le réseau. Axios souligne que la concrétisation d’un tel accord dépendra notamment de la capacité de l’entreprise à atteindre un jalon encore non démontré autour de la production nette d’électricité. Autrement dit, OpenAI discuterait moins d’un approvisionnement classique que d’un pari sur une technologie qui n’a pas encore fait ses preuves à l’échelle commerciale.

Pourquoi Helion attire malgré tout ?

Helion n’est pas une inconnue. Fondée en 2013 à Everett, dans l’État de Washington, par David Kirtley, John Slough, Chris Pihl et George Votroubek, la société a levé plus d’1 milliard de dollars au total. Sa série F de 425 millions de dollars, annoncée en janvier 2025, l’a valorisée à 5,425 milliards de dollars post-money. Parmi les investisseurs figuraient notamment Lightspeed Venture Partners, SoftBank Vision Fund 2 et un grand endowment universitaire, aux côtés de soutiens existants comme Sam Altman.

La startup a aussi revendiqué en février 2026 un nouveau jalon technique : sa machine Polaris a atteint 150 millions de degrés Celsius et est devenue, selon l’entreprise, la première machine privée de fusion à fonctionner avec du combustible deutérium-tritium. Ce n’est pas encore une validation commerciale, mais c’est le type d’avancée qui entretient la crédibilité technique du projet.

HBiRf7SaQAAyuWr

Sur le plan technologique, Helion se distingue de nombreux concurrents. Là où beaucoup de projets de fusion misent sur la chaleur produite pour alimenter une turbine à vapeur, Helion affirme vouloir récupérer directement l’électricité par induction électromagnétique, en court-circuitant le cycle thermique classique. L’entreprise présente cette architecture comme plus simple et plus efficace, avec moins de pièces mobiles.

En toile de fond, l’explosion des besoins énergétiques de l’IA

Ce dossier raconte aussi quelque chose de plus large : les entreprises d’IA ne cherchent plus seulement des puces, elles cherchent des électrons. Reuters rappelle que Microsoft, Google et Amazon ont déjà multiplié les accords avec des acteurs du nucléaire ou de la fusion, signe que l’énergie devient un actif stratégique aussi critique que le silicium. Dans ce contexte, l’intérêt d’OpenAI pour Helion n’a rien d’anecdotique : il s’inscrit dans une course plus vaste pour sécuriser des capacités électriques massives et décarbonées.

La comparaison est éclairante : Helion a déjà un accord avec Microsoft, tandis qu’Axios note que Google a signé de son côté un accord de 200 MW avec Commonwealth Fusion Systems, l’un des rivaux d’Helion. Le marché de la fusion reste embryonnaire, mais il commence déjà à se structurer autour des géants de la tech.

Sam Altman se retire, mais la question de gouvernance reste centrale

HBndhBJaoAAY0J5

L’autre dimension sensible de l’affaire concerne évidemment Sam Altman. Sam Altman est présenté comme le plus grand investisseur individuel d’Helion. Il a dirigé son tour de table de 500 millions de dollars en 2021 et occupait la présidence du conseil depuis 2015. Axios et Reuters rapportent désormais qu’il a quitté le conseil d’administration d’Helion et s’est récusé des discussions entre Helion et OpenAI.

Le geste n’est pas isolé. En avril 2025, Altman avait déjà quitté la présidence d’Oklo afin d’éviter un conflit d’intérêts et de permettre à OpenAI d’explorer d’éventuels accords énergétiques avec cette autre société nucléaire. Bloomberg et Reuters avaient alors expliqué ce retrait précisément en ces termes.

Cette fois, OpenAI semble vouloir formaliser davantage la séparation entre les intérêts personnels d’Altman et ceux de l’entreprise. Le signal est important, car la question avait déjà été soulevée lors de l’accord Helion-Microsoft en 2023, alors qu’Altman se trouvait déjà au croisement de plusieurs relations commerciales potentiellement sensibles.

Un accord potentiellement historique, mais encore loin d’être acquis

Sur le papier, l’histoire est puissante : l’un des leaders mondiaux de l’IA sécuriserait une part massive de son futur approvisionnement électrique auprès d’un champion de la fusion soutenu par son propre patron. Dans les faits, on en est encore à une architecture de discussion, avec des conditions suspendues, une technologie non encore démontrée à l’échelle commerciale et des volumes qui relèvent presque de la planification industrielle d’un État.

C’est précisément ce qui rend ce dossier si révélateur de la nouvelle époque tech. L’IA ne se contente plus de réorganiser le logiciel ; elle commence à redessiner la carte de l’énergie. Et dans cette bataille, OpenAI ne cherche visiblement pas seulement à acheter de l’électricité : l’entreprise tente peut-être déjà de réserver une part du futur.

Lire plus
Intelligence Artificielle

Apple Intelligence : Pourquoi Tim Cook a choisi Gemini pour le futur de Siri ?

Apple Intelligence : Pourquoi Tim Cook a choisi Gemini pour le futur de Siri ?

Apple avait promis un Siri « plus personnel », plus intelligent, plus utile. À force de délais et de démonstrations restées sans suite, la promesse commençait à ressembler à un mirage. Puis, en janvier 2026, le géant à la pomme croquée a fini par trancher : le prochain Siri et une partie d’Apple Intelligence reposeront sur Gemini et la technologie cloud de Google, via un accord « pluriannuel ».

Derrière l’annonce, c’est une bascule historique : Apple accepte qu’un concurrent direct fournisse le « moteur » d’une expérience centrale… tout en jurant que le volant restera bien dans ses mains.

Un accord Apple x Google qui dépasse Siri

Le point le plus révélateur, c’est la formulation officielle : les « Apple Foundation Models » seront basés sur les modèles Gemini et l’infrastructure cloud de Google. Autrement dit, l’ambition ne se limite pas à « brancher » Gemini dans Siri : elle touche l’architecture même d’Apple Intelligence.

Et Apple insiste sur un pilier : la confidentialité. La promesse est que les requêtes seront traitées sur l’appareil quand c’est possible, sinon via Private Cloud Compute (PCC) — une approche conçue pour exécuter des demandes plus lourdes « dans le cloud » sans sacrifier le modèle de sécurité Apple.

Le détail qui change tout : Gemini… sans le nom Gemini

L’information la plus « Apple » de cette histoire, c’est celle qui ne s’affiche pas à l’écran. Selon des éléments rapportés ces dernières heures par The Information, Apple chercherait à rendre Gemini invisible côté utilisateur : pas de branding Google/Gemini dans les réponses, contrairement à l’intégration de ChatGPT qui, elle, est explicitée et présentée comme une option.

Dans le même esprit, Apple aurait une marge de manœuvre plus large : capacité de demander des ajustements à Google, mais aussi de fine-tuner le modèle pour coller au ton Siri, à ses garde-fous et à la « patte » Apple.

C’est une stratégie très Cupertino : prendre un moteur externe, mais l’enfermer dans une expérience maison — pour que l’utilisateur n’ait jamais l’impression de « changer d’assistant ».

Pourquoi Apple n’avait plus vraiment le choix ?

Cette alliance est d’abord un aveu : le calendrier d’Apple ne collait plus à la réalité du marché. Pendant que Google, Microsoft et OpenAI ont normalisé les assistants conversationnels capables de résumer, rédiger, raisonner et orchestrer des tâches, Siri s’est retrouvé cantonné aux commandes simples et aux réponses « liens web ».

Pour Apple, Gemini est un raccourci : au lieu de rattraper son retard modèle par modèle, l’entreprise s’achète du temps — et une base technique déjà éprouvée — pour livrer enfin la version de Siri annoncée depuis WWDC 2024.

Le vrai enjeu : confiance, régulation… et dépendance

Il y a trois zones de turbulence évidentes.

  1. La confiance : Même si Apple promet un cloisonnement strict, le simple fait de s’appuyer sur Google peut heurter une partie du public. Les utilisateurs n’évaluent pas une architecture ; ils évaluent une sensation : « Qui me répond, et où part ma requête ? »
  2. Le risque antitrust : Le duo Apple/Google traîne déjà un passif (pensez « moteur de recherche par défaut »). Ajouter l’IA au cœur du smartphone peut attirer une attention réglementaire accrue — surtout si l’intégration devient structurante, voire incontournable.
  3. La dépendance stratégique : Apple adore contrôler sa stack. Ici, elle accepte un socle externe — même « customisé ». C’est un compromis : plus de vélocité, mais une nouvelle forme de dépendance à long terme.

Et OpenAI dans tout ça ? Un partenaire… relégué

Techniquement, Apple peut conserver plusieurs partenaires (et rien n’indique une exclusivité totale). Mais, dans la pratique, si Gemini devient le cerveau « par défaut » des réponses, du raisonnement et des usages quotidiens, ChatGPT risque d’être cantonné aux cas où il excelle (créatif, génération d’images, certains workflows). Pour OpenAI, c’est une différence majeure : être une option, ou être la couche fondamentale.

Le verdict ne sera pas « AI », il sera « Siri »

Apple peut réussir une prouesse : faire oublier Gemini, faire oublier le partenariat, et donner l’impression que Siri a simplement… grandi. Mais, le juge de paix sera brutalement simple : est-ce que Siri devient fiable au quotidien ? Pas seulement brillante en démo. Capable de comprendre le contexte, d’agir dans les apps, de synthétiser sans halluciner — et de le faire vite, sans friction, sans anxiété.

Si Apple y parvient, c’est une reconquête. Si elle échoue, ce sera pire qu’un retard : ce sera une promesse cassée, cette fois à très grande échelle — avec Google dans le générique, même s’il n’apparaît pas à l’écran.

Lire plus
Intelligence Artificielle

Data centers IA : OpenAI promet de payer la facture énergétique à la place des citoyens

Data centers IA : OpenAI promet de payer la facture énergétique à la place des citoyens

Pendant que l’IA s’invite partout — du smartphone aux outils de travail — son infrastructure, elle, s’installe quelque part de façon concrète : près de chez vous. Et c’est précisément là que la tension monte.

Face à la contestation grandissante autour des méga–data centers (factures d’électricité, pression sur les réseaux, consommation d’eau), OpenAI avance désormais une ligne de défense claire : « nous paierons nous-mêmes les mises à niveau énergétiques nécessaires » et nous limiterons l’usage de l’eau, notamment potable.

Ce que dit OpenAI, et pourquoi ça arrive maintenant

OpenAI explique vouloir être un « bon voisin » et promet que ses futures implantations — associées à Stargate, sa trajectoire d’infrastructures IA — ne doivent pas se traduire par une hausse des prix de l’électricité pour les résidents. Concrètement, l’entreprise évoque plusieurs mécanismes possibles :

  • financer des upgrades du réseau (grid upgrades) ;
  • sécuriser des approvisionnements dédiés ;
  • participer à des programmes de demande-réponse (réduction de charge lors de pics) pour éviter de « tirer » sur le réseau quand il est sous stress.

Le sous-texte est limpide : l’IA n’a plus seulement un problème de modèles et de produits. Elle a désormais un problème d’acceptabilité locale.

Le nerf de la guerre : électricité chère, eau rare, projets contestés

Le point sensible, c’est la mécanique politique de la facture. Les data centers consomment énormément d’électricité, et dans certains marchés, les investissements (lignes, transformateurs, capacité) peuvent finir socialisés via des tarifs qui pèsent sur l’ensemble des abonnés. D’où la montée d’une opposition locale, parfois suffisamment forte pour faire capoter des projets : un suivi des annulations évoque une hausse marquée des projets abandonnés après contestation.

L’autre front, c’est l’eau. Les data centers ont besoin de refroidissement ; selon les technologies et les régions, cela peut impliquer de grandes quantités d’eau, parfois potable. OpenAI dit vouloir minimiser cet impact via des innovations de refroidissement et une meilleure efficacité.

OpenAI suit la trace de Microsoft… et c’est tout sauf un hasard

Ce positionnement « on paye, vous ne subventionnez pas » arrive juste après une initiative très médiatisée de Microsoft : limiter l’impact des data centers sur les coûts de l’énergie et l’usage de l’eau, et financer les besoins d’infrastructures pour éviter de transférer la charge sur les communautés.

En clair : les géants de l’IA comprennent qu’ils ne gagneront pas seulement par la performance technique, mais par une nouvelle forme de permis social d’opérer. L’ère où l’on pouvait construire « discrètement » une infrastructure numérique touche à sa fin.

Une promesse utile… mais difficile à vérifier

Sur le papier, l’engagement est intelligent : il répond à deux angles d’attaque très concrets (coût + ressources), et il reconnaît un point souvent nié trop longtemps : l’IA a une matérialité.

Mais, il reste trois zones de friction :

  1. Le « comment » exact dépend des régulations locales : OpenAI évoque des options (tarifs spécifiques, upgrades financées, énergie dédiée), mais l’exécution varie fortement selon l’État, l’opérateur réseau, et le régulateur.
  2. La promesse n’éteint pas la question de la capacité : Même si un acteur « paye », il faut encore construire : génération, réseau, interconnexions. Et ces calendriers ne sont pas ceux d’un lancement produit.
  3. L’eau et le refroidissement restent des sujets explosifs : Certaines approches (boucles fermées, solutions hybrides) réduisent la dépendance à l’eau potable, mais elles ont aussi leurs contraintes techniques et environnementales.

On assiste à un basculement : l’IA n’est plus seulement un logiciel qu’on met à jour. C’est une industrie lourde, comparable — par ses externalités — à des projets énergétiques.

OpenAI tente donc un mouvement préventif : désamorcer la critique avant qu’elle ne devienne un frein systémique.

Lire plus
Intelligence Artificielle

FLEXI : La première puce IA flexible capable de détecter l’arythmie avec 99% de précision

FLEXI : La première puce IA flexible capable de détecter l’arythmie avec 99% de précision

Depuis dix ans, les wearables progressent à pas feutrés : meilleurs capteurs, meilleurs algorithmes… mais toujours la même dépendance structurelle au téléphone (ou au cloud) pour faire « le vrai calcul ».

Une équipe conjointe de Tsinghua University et Peking University vient de proposer une alternative radicale : FLEXI, une puce IA flexible, ultra-fine et conçue pour exécuter de l’inférence directement sur un support pliable — au plus près du corps.

FLEXI : Une puce en film plastique, pensée pour se plier… comme la peau

Le cœur de l’innovation n’est pas seulement dans l’IA, mais dans la forme. FLEXI est réalisée sur une base flexible, avec des circuits LTPS (low-temperature polycrystalline silicon), un procédé compatible avec des substrats qui supportent mal les températures élevées. Résultat : tout le système peut être courbé, tordu, roulé sans casser son électronique embarquée.

Et la démonstration de robustesse est spectaculaire : la puce a encaissé plus de 40 000 cycles de flexion et des pliages à un rayon d’environ 1 mm, sans perte de performance observée dans les tests rapportés.

a new flexible ai chip

« Edge intelligence » : l’IA sur le corps, pas sur le cloud

Techniquement, FLEXI s’appuie sur une architecture compute-in-memory (calcul au plus près de la mémoire), pensée pour réduire les allers-retours coûteux entre mémoire et processeur — un point critique pour les systèmes ultra-basse consommation. Le papier évoque une architecture dynamically reconfigurable et une co-optimisation « process-circuit-algorithm ».

Les chiffres clés donnent une idée du positionnement : fréquence jusqu’à 12,5 MHz, consommation annoncée jusqu’à 2,52 mW, rendement opérationnel annoncé entre ~70 % et 92 % — avec l’objectif assumé d’une fabrication à moins d’un dollar par unité à l’échelle.

Des résultats concrets : arythmie à 99,2 % et activités quotidiennes à 97,4 %

L’équipe ne s’est pas contentée de benchmarks abstraits : FLEXI a été testée sur des scénarios typiques du wearable médical.

  • Détection d’arythmies : jusqu’à 99,2 % de précision rapportée sur une tâche d’analyse temporelle, exécutée sur puce.
  • Reconnaissance d’activités : plus de 97,4 % sur des activités du quotidien (marche, vélo…), via des signaux physiologiques multimodaux.

Si ce type de puce tient ses promesses hors labo, il change trois choses d’un coup :

  1. Autonomie : moins de transmission continue vers un téléphone, moins de radio, moins d’énergie gaspillée.
  2. Latence : l’inférence se fait localement, utile pour des alertes santé (arythmie, chute, apnée) où la seconde compte.
  3. Confidentialité : le traitement « on-device » réduit la nécessité d’envoyer des données biométriques brutes vers le cloud (même si cela dépendra des implémentations et des services).

Ce qui reste à prouver : intégration, capteurs, et passage au monde réel

Les chercheurs parlent déjà de la suite : intégrer davantage de capteurs et augmenter la complexité des systèmes, ce qui est logique — un wearable utile, ce n’est pas qu’une puce, c’est un ensemble (capteurs, packaging, batterie, sécurité, calibration, logiciel, réglementation médicale).

Le point fascinant, c’est que FLEXI ouvre une voie : celle de wearables « seconde peau » (patchs, textiles, dispositifs médicaux discrets) capables de faire de l’IA sans béquille permanente. Et si l’informatique personnelle avait, demain, moins l’allure d’un smartphone… que d’un film souple collé au quotidien ?

Lire plus
Intelligence Artificielle

Droit d’auteur : Britannica et Merriam-Webster attaquent OpenAI en justice

Droit d'auteur : Britannica et Merriam-Webster attaquent OpenAI en justice

Le conflit entre éditeurs et entreprises d’IA entre dans une nouvelle phase. Après les actions engagées par plusieurs groupes de presse et ayants droit, Encyclopaedia Britannica et sa filiale Merriam-Webster ont à leur tour déposé plainte contre OpenAI, l’accusant d’avoir utilisé sans autorisation une vaste quantité de contenus protégés pour entraîner ses modèles.

La plainte a été déposée devant le tribunal fédéral de Manhattan, et vise à la fois le copyright, les usages de type RAG et le droit des marques.

Ce que reprochent Britannica et Merriam-Webster à OpenAI

Au cœur du dossier, Britannica affirme que OpenAI aurait copié près de 100 000 articles d’encyclopédie et de dictionnaire pour entraîner ChatGPT et d’autres modèles. Les plaignants soutiennent aussi que certains résultats générés par ChatGPT reproduisent des formulations très proches, voire quasi verbatim, de leurs contenus. Selon eux, cela transforme l’IA en substitut direct à leurs services éditoriaux, au risque de détourner une partie du trafic qui aurait autrement abouti sur leurs sites.

La plainte ne s’arrête pas à l’entraînement initial des modèles. Britannica cible également l’usage de ses contenus dans les réponses enrichies par récupération d’informations récentes, ce que l’on appelle généralement le RAG. L’entreprise estime qu’OpenAI récupère, copie et réutilise tout ou partie de ses contenus lorsqu’un utilisateur pose une question, ce qui renforcerait encore l’effet de substitution économique.

Autre angle d’attaque : le droit des marques. Britannica accuse ChatGPT d’attribuer parfois à tort certaines réponses ou hallucinations à Britannica ou Merriam-Webster, ce qui, selon les plaignants, risque d’induire les utilisateurs en erreur et d’abîmer la crédibilité de marques construites précisément sur la fiabilité de l’information. La société demande des dommages-intérêts non précisés ainsi qu’une injonction pour empêcher de nouveaux usages litigieux.

Une affaire de plus dans un contentieux devenu structurant

Cette procédure s’ajoute à une série de contentieux déjà engagés contre les grands acteurs de l’IA générative. Reuters rappelle que OpenAI défend de son côté l’idée que l’entraînement sur des données accessibles publiquement relève du fair use, une ligne de défense désormais centrale dans l’industrie. Britannica avait d’ailleurs déjà engagé une action distincte contre Perplexity AI, signe que l’offensive juridique vise plus largement les usages non licenciés de contenus de référence par les moteurs et agents IA.

Que peut-il se passer maintenant ?

La réalité, c’est que le cadre juridique reste encore instable. Les tribunaux américains ont commencé à tracer des lignes, mais il n’existe pas encore de règle simple et définitive disant si l’entraînement d’un modèle sur des œuvres protégées constitue, en soi, une violation du droit d’auteur. Un point semble toutefois se préciser : la question du mode d’acquisition des contenus et celle de la sortie du modèle comptent autant que l’entraînement lui-même.

Le précédent le plus souvent cité est celui d’Anthropic. Dans l’affaire Bartz v. Anthropic, un juge fédéral a estimé que l’entraînement sur des livres légalement acquis pouvait relever d’un usage transformateur et donc du fair use. En revanche, l’utilisation de livres obtenus via des bibliothèques pirates a été traitée séparément comme un problème de contrefaçon, et Anthropic a ensuite conclu un accord de règlement de 1,5 milliard de dollars avec des auteurs et éditeurs, accord approuvé à titre préliminaire par le tribunal.

C’est précisément ce qui rend l’affaire Britannica potentiellement importante. Si le tribunal considère que les réponses de ChatGPT concurrencent directement un éditeur de référence en reproduisant sa valeur éditoriale, le dossier pourrait peser bien au-delà du seul débat abstrait sur l’entraînement. Il toucherait alors à la question la plus sensible pour les éditeurs : celle du remplacement de l’audience, du trafic et, au bout de la chaîne, du modèle économique. Cette lecture reste toutefois une analyse, pas encore une conclusion judiciaire.

Au fond, cette plainte dit quelque chose de très clair sur le moment actuel de l’IA générative : après la phase d’expansion rapide, l’heure est désormais à la confrontation avec les producteurs de contenus qui veulent reprendre la main sur la valeur de leurs archives. Et plus les modèles deviennent capables de répondre directement à la place des sites, plus ce bras de fer s’annonce central pour l’avenir du web.

Lire plus
Intelligence Artificielle

Effet OpenClaw : Pourquoi les prix des Mac d’occasion s’envolent en 2026 ?

L’IA a déjà renchéri la mémoire et le stockage des machines neuves. Mais, un nouveau signal — plus discret, presque sociologique — vient de s’allumer : le marché de l’occasion commence lui aussi à chauffer.

En Chine, la ruée vers OpenClaw, un agent IA capable d’exécuter des tâches « à votre place » sur un ordinateur, entraîne une hausse inattendue de la demande… pour des Mac reconditionnés. Et donc, des prix.

La demande en Mac d’occasion s’emballe en Chine

D’après CNBC, ATRenew (revendeur/reconditionneur partenaire d’Apple et de JD.com en Chine) constate un phénomène inhabituel : entre mars et mai 2026, les prix des produits Apple d’occasion se maintiennent à des niveaux comparables à la saison de pic d’automne (période des annonces iPhone), alors que le printemps est traditionnellement plus « calme ».

Le même Jeremy Ji (CSO d’ATRenew) compare même la tension de demande à une ambiance « comme pendant la pandémie ».

Pourquoi des Mac pour OpenClaw : la puissance… et surtout l’isolation

Le raisonnement des utilisateurs est simple : OpenClaw est gratuit, mais il agit avec un niveau d’accès qui peut devenir risqué si l’outil se fait piéger (prompt injection, liens malveillants, erreurs d’exécution, etc.). Résultat : beaucoup préfèrent le faire tourner sur une machine dédiée, séparée de l’ordinateur principal — une forme d’« air gap » grand public.

Et dans ce scénario, Apple coche plusieurs cases :

  • Apple Silicon : des puces réputées efficaces en performance/watt, idéales pour faire tourner des workloads IA locaux sans transformer le bureau en radiateur.
  • Mac mini : compact, relativement abordable, facile à « dédier » à un usage précis.

La presse locale a d’ailleurs observé des ruptures et des prix en hausse sur le Mac mini en Chine, porté par cette vague OpenClaw.

Le détail qui fait mal : l’occasion n’est plus une « zone de décompression »

CNBC évoque aussi une hausse mesurée : les prix des Mac d’occasion vendus via ATRenew ont augmenté d’environ 15 %, précisément parce que la demande se concentre sur des modèles capables d’encaisser l’outil confortablement.

Autre dynamique : ATRenew voit des utilisateurs échanger des machines M1/M2 contre des modèles plus récents (mentionnés comme M4/M5 dans l’article), ce qui tire le marché vers le haut et oblige le reconditionneur à remonter ses prix de reprise pour maintenir l’offre.

Ce qui change avec OpenClaw, ce n’est pas seulement « un logiciel populaire ». C’est la nature du logiciel : un agent qui clique, remplit, achète, envoie — bref, qui manipule des données personnelles et des accès. Quand l’outil devient autonome, la prudence devient matérielle : on achète une machine tampon.

Et au milieu, Apple profite d’un effet de structure : si vous voulez isoler un agent, un Mac mini reconditionné devient un séduisant compromis.

Ajoutez à cela un contexte plus large de tension sur les composants mémoire (qui renchérit le neuf et rend l’occasion plus attractive), et vous obtenez un cocktail rare : l’IA pousse les prix… même quand vous essayez d’économiser.

Est-ce que ça va durer ?

Jeremy Ji anticipe que la demande pourrait continuer « tout au long de l’année ». Et, le bruit médiatique autour d’OpenClaw contribue à l’inertie : Nvidia, par exemple, a fortement mis en avant le phénomène lors de sa conférence GTC, avec Jensen Huang, décrivant OpenClaw comme un basculement majeur et une nouvelle ère d’agents « qui font tourner l’ordinateur ».

Le seul vrai frein, c’est la sécurité : la Chine a déjà commencé à mettre en garde contre l’usage d’OpenClaw en environnement professionnel, précisément à cause des risques de fuite et d’abus de permissions.

Traduction marché : si OpenClaw s’installe durablement dans les usages, l’augmentation des prix sur les Mac d’occasion (et sur les modèles les plus récents) peut persister. Si, au contraire, les incidents ou les restrictions se multiplient, la demande pourrait se « déplacer » vers des solutions cloud ou des versions durcies.

Lire plus
Intelligence Artificielle

OpenAI rachète Astral : Le créateur de ChatGPT s’empare des outils Python uv et Ruff

OpenAI rachète Astral : Le créateur de ChatGPT s’empare des outils Python uv et Ruff

L’IA générative n’en est plus à « écrire du code » : elle veut faire tourner le workflow. Avec l’acquisition annoncée d’Astral, l’équipe derrière uv, Ruff et ty, OpenAI assume un virage très concret : s’ancrer dans les outils Python que les développeurs utilisent déjà, à grande échelle, et faire de Codex un compagnon capable d’agir, vérifier et maintenir — pas seulement suggérer.

La bataille de l’IA se déplace vers la chaîne d’outils

Le communiqué officiel est sans détour : OpenAI veut « accélérer Codex » en intégrant les outils open source d’Astral dans son écosystème.

Derrière la formule, il y a une réalité de marché : la concurrence se joue désormais sur l’efficacité dans l’IDE, la fiabilité des changements et la capacité à « tenir » une codebase dans le temps — un terrain où les assistants de code se départagent par l’exécution, pas par les démos.

Reuters rappelle que l’opération s’inscrit aussi dans une dynamique de compétition renforcée, notamment face à Anthropic sur les outils de codage, avec un objectif clair : muscler l’offre « agentique » d’OpenAI côté développeurs.

Ce qu’OpenAI achète vraiment : trois outils devenus des réflexes

Astral, c’est la promesse d’une chaîne d’outils Python modernisée, écrite en grande partie en Rust, qui s’est imposée dans les équipes parce qu’elle va vite et qu’elle s’intègre bien.

OpenAI résume leurs rôles ainsi :

  • uv : gestion des dépendances et des environnements (le nerf de la guerre du Python au quotidien)
  • Ruff : linting et formatting « très rapides », devenu un standard de fait dans beaucoup de pipelines CI
  • ty : garde-fou de type safety pour réduire les erreurs avant qu’elles ne passent en prod

À noter : côté Astral, Charlie Marsh explique que les outils sont passés de « zéro » à des centaines de millions de téléchargements par mois au total sur Ruff/uv/ty — un ordre de grandeur qui dit à quel point la marque est devenue infrastructure.

Pourquoi cette acquisition est plus stratégique qu’elle n’en a l’air ?

OpenAI pose l’ambition noir sur blanc : dépasser l’IA qui génère du code pour aller vers des systèmes capables de planifier des changements, modifier des bases de code, exécuter des outils, vérifier les résultats et maintenir des projets dans la durée.

C’est exactement là que uv/Ruff/ty deviennent précieux : ce ne sont pas des « features », ce sont des points d’ancrage dans le workflow réel — dépendances, qualité, types, CI, reproductibilité.

Un pari « développeur-first »… à condition de préserver l’open source

OpenAI promet de continuer à soutenir les produits open source d’Astral après la clôture. C’est la clause la plus sensible. Parce que, quand une chaîne d’outils devient infrastructure, la communauté surveille trois choses :

  1. la gouvernance (qui décide des priorités),
  2. l’indépendance (pas de lock-in masqué),
  3. la continuité (roadmap, contributions, cadence).

Autrement dit : l’intégration dans Codex peut être un accélérateur… ou un point de friction si l’écosystème a le sentiment qu’un outil « à tout le monde » devient un levier « à quelqu’un ».

Les chiffres qui expliquent le timing

OpenAI affirme que Codex a connu x3 en croissance utilisateurs et x5 en usage depuis le début de l’année, dépassant 2 millions d’utilisateurs actifs hebdomadaires.

Ce type de traction pousse naturellement à industrialiser : quand l’adoption explose, les « petites frictions » (install, environnements, lint, types) deviennent des goulets d’étranglement. L’acquisition d’Astral ressemble à une réponse structurante : réduire la distance entre l’IA et les outils qui font tourner la production.

Intégration progressive, sous conditions

L’opération reste soumise aux conditions habituelles (dont approbations réglementaires) et, jusqu’à la clôture, Astral et OpenAI restent des entités séparées. Une fois finalisée, l’équipe Astral rejoindra le groupe Codex, avec une feuille de route explicite : des intégrations plus profondes pour permettre à Codex d’interagir directement avec les outils que les développeurs utilisent déjà.

Au fond, OpenAI ne rachète pas seulement des utilitaires : il rachète une façon de faire du logiciel — rapide, stricte, reproductible. Et dans la prochaine décennie, ce sont précisément ces qualités qui sépareront les « assistants » des vrais collaborateurs.

Lire plus
Intelligence Artificielle

Cursor lance Composer 2 : L’IA de code devient 7 fois moins chère et bien plus puissante

Cursor lance Composer 2 : L'IA de code devient 7 fois moins chère et bien plus puissante

Cursor accélère sur son propre terrain. L’éditeur a lancé Composer 2, une nouvelle génération de son modèle maison intégrée directement à son environnement de développement, avec une promesse simple : de meilleures performances en code, pour beaucoup moins cher.

Cursor annonce aussi Composer 2 Fast, une variante plus rapide qui devient l’expérience par défaut dans le produit.

Composer 2 : Des prix en chute libre pour pousser l’usage

Sur le plan tarifaire, Cursor positionne Composer 2 Standard à 0,50 dollar par million de tokens en entrée et 2,50 dollars par million en sortie. Composer 2 Fast monte à 1,50 dollar en entrée et 7,50 dollars en sortie. À titre de comparaison, Composer 1.5 coûtait 3,50 dollars par million de tokens en entrée et 17,50 dollars en sortie. Cursor met aussi en avant des tarifs réduits pour la lecture de cache, à 0,20 dollar pour Composer 2 et 0,35 dollar pour Composer 2 Fast.

Le message est clair : Cursor ne veut plus seulement proposer un bon modèle de code, mais un modèle suffisamment bon et suffisamment abordable pour être utilisé plus souvent, plus longtemps, dans des workflows quotidiens.

Screen 2026 03 20 at 09.10.30 scaled

Un modèle pensé pour Cursor, pas pour le marché API au sens large

C’est un point important : Composer 2 n’est pas présenté comme un modèle généraliste distribué partout, mais comme un modèle natif à Cursor, optimisé pour ses agents, ses outils et son interface. Cursor le décrit explicitement comme disponible « in Cursor », ajusté pour son workflow agentique et intégré à sa pile d’outils. Les documents publics consultés n’indiquent pas de disponibilité autonome via une API généraliste externe ou via une plateforme de modèles tierce.

Autrement dit, Cursor cherche moins à devenir un fournisseur de fondation model qu’à renforcer la valeur de son propre produit.

composer 2 scatter r4

Le vrai pari : le code à long horizon

La promesse technique la plus intéressante ne concerne pas uniquement les benchmarks. Cursor explique que les gains de qualité viennent de son premier cycle de poursuite de la préformation, qui aurait offert une meilleure base pour un apprentissage par renforcement à plus grande échelle. L’entreprise affirme ensuite avoir entraîné Composer 2 sur des tâches de code à long horizon, capables d’exiger des centaines d’actions.

C’est une nuance essentielle. Beaucoup de modèles savent produire un bon morceau de code isolé. Beaucoup moins restent solides lorsqu’il faut lire un dépôt, décider quoi modifier, éditer plusieurs fichiers, exécuter des commandes, comprendre des erreurs, puis poursuivre sans perdre le fil.

Cursor affirme justement que Composer 2 est mieux armé pour ce type de travail.

Des benchmarks en nette hausse, mais pas un leadership absolu

Cursor publie des progrès marqués sur ses principaux indicateurs. L’entreprise annonce 61,3 sur CursorBench, 61,7 sur Terminal-Bench 2.0 et 73,7 sur SWE-bench Multilingual pour Composer 2, contre 44,2/47,9/65,9 pour Composer 1.5. Sur Terminal-Bench 2.0, Cursor reconnaît toutefois que GPT-5.4 reste devant avec 75,1, tandis que Composer 2 dépasse Opus 4.6 à 58,0 et Composer 1,5 à 47,9.

C’est d’ailleurs ce qui rend le lancement assez crédible : Cursor ne prétend pas avoir écrasé tout le marché, mais plutôt être entré dans une zone bien plus compétitive, avec un meilleur ratio performance/prix.

Pourquoi cela compte pour les équipes ?

Dans la documentation publique, Cursor rappelle que Composer 2 a accès à sa pile d’outils agentiques, incluant notamment la recherche sémantique dans le code, la lecture et l’édition de fichiers, les commandes shell, la recherche de fichiers/dossiers et certains accès web. L’entreprise mentionne aussi une fenêtre de contexte de 200 000 tokens et des techniques comme l’auto-résumé pour mieux tenir sur les longues sessions.

Pour une équipe déjà installée dans Cursor, cela peut compter davantage qu’un simple classement de modèle. Le modèle ne vaut pas seulement par son intelligence brute, mais par sa capacité à travailler dans l’environnement où les développeurs passent déjà leurs journées.

Cursor défend plus qu’un modèle : une couche applicative complète

Le lancement de Composer 2 s’inscrit dans une stratégie plus large. Cursor vend aujourd’hui une offre qui va du plan Hobby gratuit au Pro à 20 dollars par mois, Pro+ à 60 dollars, Ultra à 200 dollars, puis Teams à 40 dollars par utilisateur et par mois, avec une offre Enterprise sur devis. Les plans supérieurs ajoutent plus d’usage, des contrôles d’équipe, de la gouvernance, de la confidentialité et de l’administration centralisée.

C’est le vrai enjeu : Cursor ne facture pas seulement l’accès à un modèle de code. Il facture une couche produit gérée, posée au-dessus de plusieurs fournisseurs de modèles, enrichie par des outils, des workflows et des contrôles adaptés aux équipes.

Une sortie stratégique, dans un marché qui se resserre

Le lancement de Composer 2 arrive à un moment où les grands acteurs de l’IA poussent de plus en plus leurs propres outils de code. Dans ce contexte, Cursor doit prouver qu’il apporte plus qu’un simple habillage autour de modèles externes. Avec Composer 2, la société essaie justement de montrer qu’elle peut proposer un modèle maison moins cher, mieux intégré et assez performant pour justifier l’existence de la plateforme elle-même. Cette lecture est une analyse fondée sur la nature intégrée de Composer 2, sur le positionnement tarifaire de Cursor et sur le fait que le modèle est présenté comme spécifiquement optimisé pour l’environnement Cursor.

Au fond, Composer 2 ne change pas seulement la fiche technique de Cursor. Il renforce son argument le plus important : dans l’ère du code agentique, la valeur ne réside peut-être plus seulement dans le meilleur modèle, mais dans le meilleur système pour le rendre utile tous les jours.

Lire plus
Intelligence Artificielle

Perplexity Health : L’IA qui analyse vos bilans et vos objets connectés arrive

Perplexity Health : L’IA qui analyse vos bilans et vos objets connectés arrive

En 2026, la santé devient le terrain de jeu le plus convoité de l’IA grand public. Après Microsoft Copilot Health, ChatGPT Health ou encore Claude for Healthcare, Perplexity avance ses pions avec Perplexity Health : une approche qui ne se contente plus de « chercher » sur le web, mais qui raisonne à partir de vous — vos bilans, vos traitements, vos mesures d’activité.

Une promesse aussi séduisante que sensible.

De la recherche santé « générique » à l’IA contextuelle

Jusqu’ici, l’IA santé grand public ressemblait surtout à un Google amélioré : vous posez une question, elle synthétise des sources. Le problème, c’est que vos données personnelles restent hors champ, donc les réponses restent… générales.

Perplexity reprend un constat simple : nos informations de santé sont éparpillées entre portails d’hôpitaux, applis de suivi, labos, ordonnances et historiques médicaux. Perplexity Health veut recomposer une vue unifiée pour produire des réponses personnalisées dans Perplexity Computer.

Dans le même mouvement, Microsoft a lancé Copilot Health aux États-Unis, avec l’idée d’agréger dossiers et données de wearables, tout en rappelant que ce n’est pas un outil de diagnostic.

health waitlist banner

Ce que Perplexity Health apporte concrètement

Au lancement, Perplexity Health annonce des connexions à Apple Health, des dossiers médicaux (DME) couvrant plus de 1,7 million de soignants (selon la communication produit) et des plateformes comme Fitbit, Ultrahuman, Withings… avec Oura et d’autres fonctionnalités annoncées « à venir ». L’idée : quand vous interrogez un symptôme, un marqueur (ex. fréquence cardiaque au repos) ou une tendance (fatigue, sommeil), l’IA croise activité récente, antécédents, biomarqueurs, résultats de labo — et vous répond avec ce contexte.

Screen 2026 03 20 at 06.54.04 1

Perplexity promet aussi un tableau de bord personnalisé pour visualiser l’évolution des biomarqueurs et des habitudes dans le temps — une manière de passer du « point-in-time » (un examen) au continu (une trajectoire).

Perplexity Health Chart

Pourquoi c’est différent d’une recherche santé classique ?

La différence clé tient en une phrase : une IA santé connectée n’explique pas la santé en général, elle explique votre situation.

  • Une recherche classique répond : « Voici ce que dit la littérature sur X. »
  • Perplexity Health ambitionne : « Voici ce que dit la littérature sur X au regard de vos données (activité, sommeil, bilans, historique) ».

C’est un changement de catégorie : on passe d’un moteur de réponse à un moteur d’interprétation. Et c’est précisément là que la valeur (et le risque) augmente.

Peut-on faire confiance à ce type d’outil ?

Perplexity affirme s’appuyer sur des recommandations cliniques et des revues à comité de lecture, plutôt que sur du contenu « SEO ». L’entreprise met en avant des réponses accompagnées de citations pointant vers les sources. Elle annonce aussi un Health Advisory Board (médecins, chercheurs, leaders health tech) pour cadrer les choix de produit et les standards.

Perplexity promet : données chiffrées en transit et au repos, pas d’usage pour l’entraînement des modèles, pas de vente à des tiers, possibilité de déconnecter les sources et supprimer les données.

Cela dit, il faut lire ces promesses comme un contrat de confiance : en santé, la barre n’est pas « est-ce chiffré ? », mais « qui accède à quoi, dans quel cadre, et avec quelles garanties auditables ? ». Autrement dit : les mots comptent, mais les implémentations comptent plus.

Même Microsoft insiste sur le fait que Copilot Health n’est pas destiné à diagnostiquer/traiter et ne remplace pas un avis médical. C’est une précaution qui va devenir standard, parce que l’IA peut synthétiser, prioriser, suggérer… mais aussi se tromper, surtout quand la question est clinique.

Déploiement : pour qui, et quand ?

Perplexity Health sur Computer est annoncé pour un déploiement progressif auprès des abonnés Pro et Max aux États-Unis sur les prochaines semaines.

Perplexity Health illustre parfaitement la nouvelle course : connecter les IA à notre réalité, pas seulement au web. Si l’exécution est solide, c’est potentiellement un saut d’usage — comprendre ses tendances, préparer une consultation, repérer des signaux faibles. Mais en ouvrant la porte aux données les plus intimes, l’IA joue aussi sa crédibilité sur un terrain où la moindre erreur coûte cher : la confiance, elle, ne se « scale » pas.

Lire plus
Intelligence Artificielle

OpenAI Superapp : La fusion choc de ChatGPT, Codex et Atlas pour dominer le bureau

OpenAI Superapp : La fusion choc de ChatGPT, Codex et Atlas pour dominer le bureau

OpenAI s’apprête à remodeler son expérience de bureau autour d’un seul logiciel : une « superapp » qui fusionnerait ChatGPT, l’app de code Codex et le navigateur IA Atlas, selon une enquête du Wall Street Journal.

En interne, le mot d’ordre est clair : moins de dispersion, plus d’exécution. Une bascule stratégique qui ressemble à un aveu — et à un pari.

La fin des « quêtes secondaires »

Dans un mémo cité par le WSJ, Fidji Simo, « CEO of Applications », explique que la fragmentation des produits « ralentit » l’entreprise et complique l’atteinte du niveau de qualité visé. Reuters confirme cette dynamique de « refocus » et précise que le chantier produit serait temporairement piloté par Greg Brockman, tandis que Simo prendrait aussi le pilotage de volets commerciaux liés à ce réalignement.

Ce tournant intervient après une période très « exploratoire » : annonces spectaculaires (comme Sora) et diversification tous azimuts. Désormais, le message interne — « éviter d’être distraits par des quêtes secondaires » — marque un changement de posture : OpenAI veut concentrer son énergie là où l’adoption et la monétisation sont les plus tangibles.

Le produit : une app unique, trois piliers

L’idée de la superapp est moins cosmétique qu’il n’y paraît : elle vise à faire cohabiter dans un même environnement :

  • ChatGPT, pour l’assistant généraliste (productivité, recherche, création),
  • Codex, pour le flux développeur (génération, refactor, agents de code),
  • Atlas, le navigateur « avec ChatGPT au cœur », conçu pour faire de l’IA une couche native de la navigation web (aide contextuelle, résumés, actions sur page).

Sur un point, OpenAI rassure : l’expérience mobile de ChatGPT ne changerait pas, l’initiative étant centrée sur le bureau.

Pourquoi maintenant, et pourquoi le bureau ?

L’IA n’est plus un chatbot : c’est un environnement de production. Le bureau est le terrain naturel de cette mutation, parce qu’il concentre les usages « lourds » : IDE, navigateur, docs, tickets, terminal, fichiers locaux. Fusionner ChatGPT + Codex + navigateur, c’est tenter de devenir l’OS applicatif de la connaissance et du code.

OpenAI cite implicitement un signal : la traction des outils de programmation « agentiques ». Plusieurs analyses et études récentes décrivent une accélération forte de l’adoption des assistants de code, avec des gains de cadence mesurés à large échelle. Et surtout : la montée d’Anthropic et de Claude Code a changé la perception du marché, au point de devenir un repère de comparaison pour OpenAI, d’après des comptes rendus liés aux discussions internes.

Une superapp permet d’aligner l’interface, la mémoire, les permissions et la sécurité, plutôt que de multiplier des apps semi-autonomes. C’est aussi un moyen de réduire les frictions : moins de comptes, moins de réglages redondants, une continuité entre « je lis » (Atlas), « je comprends » (ChatGPT) et « je construis » (Codex).

Maturité produit, pas seulement ambition

Le vrai sous-texte est là : OpenAI cherche à passer d’une culture de « démos qui impressionnent » à une culture de plateforme qui tient au quotidien. Quand Fidji Simo parle de « quality bar », elle met le doigt sur le point le plus difficile : à grande échelle, l’innovation n’est utile que si elle est fiable, cohérente, et intégrée.

La question, maintenant, c’est l’exécution : une superapp réussie doit être plus qu’un bundle. Elle doit proposer une orchestration intelligente entre navigation, contexte, code et actions — sans devenir un monolithe lent, opaque ou trop intrusif.

Lire plus
Intelligence Artificielle

Gemini sur Mac : Google prépare une application native pour détrôner ChatGPT

Gemini sur Mac : Google prépare une application native pour détrôner ChatGPT

Google semble prêt à muscler sérieusement Gemini sur ordinateur. Selon un rapport de Bloomberg relayé ce 19 mars par plusieurs médias, l’entreprise teste en privé une application Gemini native pour macOS auprès d’un groupe restreint d’utilisateurs.

Le projet inclurait une fonction particulièrement stratégique, baptisée Desktop Intelligence, qui permettrait à Gemini de comprendre le contexte affiché à l’écran et d’interagir avec des applications Mac pour fournir des réponses plus pertinentes.

Google veut rattraper son retard sur le bureau

Jusqu’ici, les utilisateurs Mac accédaient surtout à Gemini via le web. Une app native changerait nettement la donne, surtout face à des rivaux comme ChatGPT et Claude, déjà bien installés sur macOS avec de vraies expériences desktop. Bloomberg indique que la version actuellement testée reste encore incomplète, mais que Google viserait une sortie relativement proche.

Le cœur du sujet, c’est cette fonction Desktop Intelligence. D’après la formulation repérée dans le code de l’application en test, lorsque l’utilisateur active certaines permissions, Gemini peut « voir ce que vous voyez », notamment le contexte à l’écran, et récupérer du contenu depuis des apps pour améliorer et personnaliser l’expérience pendant l’usage de Gemini. En clair, l’assistant ne se contenterait plus de répondre à un prompt isolé : il pourrait comprendre ce que vous êtes en train de faire sur votre Mac.

Autrement dit, Google semble vouloir rapprocher Gemini d’une IA de bureau contextuelle, capable de résumer un document ouvert, de comprendre une page web affichée, ou de s’appuyer sur plusieurs sources visibles et personnelles pour répondre avec davantage de précision. Cette dernière phrase relève d’une inférence à partir de la description de Desktop Intelligence et des fonctions déjà testées.

Une logique cohérente avec la montée en puissance de « Personal Intelligence »

Ce projet s’inscrit parfaitement dans la stratégie plus large de Google autour de Personal Intelligence. Depuis cette semaine, Google étend cette fonction aux comptes gratuits personnels aux États-Unis dans AI Mode in Search, l’app Gemini et Gemini dans Chrome. Cette couche permet déjà à Gemini de s’appuyer, avec l’accord de l’utilisateur, sur des données issues de services comme Gmail, Photos ou YouTube pour fournir des réponses plus personnalisées.

Si Gemini sur Mac récupère en plus le contexte des applications ouvertes et du contenu affiché à l’écran, Google construirait alors une expérience beaucoup plus profonde : non plus seulement une IA connectée à vos services cloud, mais une IA branchée à votre poste de travail réel. Cette conclusion est une analyse fondée sur l’articulation entre Desktop Intelligence et Personal Intelligence.

Des fonctions déjà proches du niveau des assistants IA avancés

Les premiers éléments rapportés autour de l’app laissent penser que Google teste déjà un ensemble de fonctions assez complet : analyse de documents, recherche web, prise en charge de fichiers envoyés, historique des conversations, ainsi que des capacités autour du code et de la génération d’images ou de vidéos.

Sur le papier, cela rapprocherait Gemini d’outils déjà bien installés dans le paysage des assistants IA de bureau.

Google entre dans une nouvelle bataille : celle de l’IA contextuelle

Ce qui se joue ici dépasse le simple lancement d’une app Mac. L’enjeu réel, c’est la bataille de l’IA contextuelle sur un environnement de bureau. Les assistants ne veulent plus seulement répondre à une question ; ils veulent comprendre un environnement de travail en temps réel.

Et sur ce terrain, Google dispose d’un avantage structurel : ses services personnels sont déjà massivement utilisés, et Personal Intelligence lui donne un début de colonne vertébrale pour relier cloud, recherche et contexte utilisateur.

Une sortie encore non confirmée officiellement

À ce stade, Google n’a pas annoncé publiquement de date de lancement pour Gemini sur Mac. Ce que l’on sait, c’est qu’un test privé serait en cours selon Bloomberg, et que l’application viserait à concurrencer plus directement les expériences natives déjà proposées par ChatGPT et Claude sur macOS.

En attendant une annonce officielle, il faut donc traiter ce projet comme très crédible, mais encore non finalisé.

Lire plus
Intelligence Artificielle

IA : Samsung et AMD signent une alliance historique pour contrer Nvidia

Samsung et AMD viennent de franchir une nouvelle étape dans leur relation industrielle. Les deux groupes ont signé un memorandum of understanding (MOU) pour étendre leur partenariat autour des mémoires et technologies de calcul destinées à la prochaine vague d’infrastructures IA. La cérémonie s’est tenue sur le site semi-conducteurs de Samsung à Pyeongtaek, en Corée du Sud, en présence de Lisa Su et de Young Hyun Jun.

Au fond, ce rapprochement dit quelque chose de plus large sur le marché actuel : dans l’IA, la bataille ne se joue plus seulement sur les GPU, mais sur toute la pile matérielle, de la mémoire au rack.

Samsung fournira la HBM4 du futur AMD Instinct MI455X

Le point central de l’accord est clair : Samsung devient le fournisseur principal de HBM4 pour le futur AMD Instinct MI455X, le prochain accélérateur IA du groupe américain.

Les deux entreprises vont aussi travailler sur des solutions DDR5 optimisées pour les processeurs AMD EPYC de 6e génération, connus sous le nom de code “Venice”. Ces composants doivent alimenter des systèmes IA de nouvelle génération, y compris des architectures à l’échelle du rack comme AMD Helios.

Ce n’est pas un détail technique secondaire. La mémoire HBM est devenue l’un des véritables goulots d’étranglement du marché IA, parce qu’elle conditionne directement la bande passante disponible pour l’entraînement et l’inférence sur des modèles toujours plus lourds. Cette dernière phrase est une analyse fondée sur le rôle attribué à la HBM4 dans les annonces officielles de Samsung et AMD.

Une HBM4 que Samsung présente comme déjà industrialisée

Samsung met aussi en avant la maturité de sa propre feuille de route. Sa HBM4 est décrite comme déjà entrée en production de masse, construite sur son procédé DRAM 1c de 6e génération en classe 10 nm avec un logic base die en 4 nm. Le groupe annonce des vitesses pouvant aller jusqu’à 13 Gbps et une bande passante maximale de 3,3 To/s. Samsung avait déjà présenté cette HBM4 comme sa première solution commerciale du genre le mois dernier.

Autrement dit, Samsung ne vend pas seulement une promesse de co-développement futur. Il s’appuie sur une mémoire qu’il considère déjà prête pour les besoins les plus exigeants des datacenters IA.

AMD veut relier mémoire, CPU, GPU et rack dans un même récit

Côté AMD, l’intérêt stratégique est évident. Le MI455X doit servir de brique centrale de l’architecture Helios, pensée pour des systèmes IA à grande échelle. Dans leur communication commune, Lisa Su et Samsung insistent tous deux sur la nécessité d’une intégration de bout en bout, du silicium jusqu’au rack, pour soutenir la croissance des charges IA modernes.

C’est probablement l’un des aspects les plus importants de l’annonce. AMD ne veut plus seulement être vu comme un concurrent de Nvidia sur les accélérateurs. Le groupe essaie de construire un récit plus complet, où CPU EPYC, GPU Instinct, mémoire HBM4 et architecture Helios fonctionnent comme un ensemble cohérent. Cette conclusion relève d’une analyse, mais elle découle directement du périmètre de l’accord annoncé.

Un possible partenariat de fonderie en arrière-plan

Samsung Semiconductors HBM4 AMD MOU Next Generation AI Memory Solutions main3

L’autre point intéressant du MOU, plus discret mais potentiellement majeur, est l’ouverture à une coopération foundry. Samsung et AMD indiquent qu’ils vont aussi explorer la possibilité que Samsung fournisse à l’avenir des services de fabrication de puces pour certains produits AMD. À ce stade, il ne s’agit pas d’un engagement ferme, mais bien d’un champ de discussion explicitement inclus dans l’accord.

Si cette piste se concrétise, elle élargirait considérablement la relation entre les deux groupes. Samsung ne serait plus seulement un fournisseur de mémoire avancée, mais un partenaire potentiel de fabrication pour une partie de la feuille de route AMD.

Une alliance qui s’inscrit dans une relation déjà ancienne

Cette annonce ne part pas de zéro. Samsung et AMD rappellent que leur collaboration s’étend déjà sur près de deux décennies, à travers la mobilité, le graphisme et le calcul. Plus récemment, Samsung fournissait déjà de la HBM3E pour les accélérateurs Instinct MI350X et MI355X.

Cela donne à l’accord actuel une portée différente : il ne s’agit pas d’un rapprochement opportuniste né de la seule fièvre autour de l’IA, mais d’une montée en intensité d’une relation industrielle déjà installée.

Pourquoi cet accord compte vraiment

Dans l’immédiat, ce partenariat renforce la position de Samsung sur un terrain où la concurrence est féroce, celui de la mémoire IA avancée, alors que la demande mondiale en HBM reste sous tension. Samsung cherche encore à combler l’écart avec SK hynix sur ce marché.

Pour AMD, l’intérêt est tout aussi net : sécuriser un approvisionnement mémoire critique pour la prochaine génération de ses plateformes IA, au moment où la bataille contre Nvidia se joue aussi sur la capacité à livrer à grande échelle. Cette dernière phrase est une analyse fondée sur le rôle stratégique attribué à la HBM4 et sur le contexte concurrentiel.

Au fond, cette signature raconte une chose simple : dans l’ère de l’IA industrielle, la performance ne dépend plus d’un seul composant vedette. Elle dépend de la qualité d’assemblage entre mémoire, calcul, packaging et infrastructure. Et sur ce terrain, Samsung et AMD veulent désormais avancer côte à côte.

Lire plus
Intelligence Artificielle

Xiaomi MiMo-V2-Pro : Le nouveau cerveau de l’IA qui défie Claude et ChatGPT

Xiaomi MiMo-V2-Pro : Le nouveau cerveau de l'IA qui défie Claude et ChatGPT

Xiaomi ne veut plus seulement être un mastodonte du smartphone, de l’IoT ou de la voiture électrique. Avec MiMo-V2-Pro, le groupe chinois affiche désormais une ambition beaucoup plus large : devenir un acteur crédible de l’IA de fondation, et plus précisément de l’IA agentique, celle qui ne se contente pas de répondre, mais qui agit.

Xiaomi présente son nouveau modèle comme son « flagship foundation model » pour les workloads agentiques réels, tandis que VentureBeat le décrit comme une percée capable de rapprocher Xiaomi des références américaines sur certains usages.

MiMo-V2-Pro : Un modèle géant, mais pensé pour rester efficace

Sur le plan technique, Xiaomi affirme que MiMo-V2-Pro dépasse 1 000 milliards de paramètres au total, avec 42 milliards de paramètres actifs par passe, soit une architecture rare beaucoup plus efficace qu’un modèle dense de taille équivalente.

Le groupe explique aussi que le modèle reprend son mécanisme de Hybrid Attention, avec un ratio porté de 5:1 à 7:1, et qu’il prend en charge jusqu’à 1 million de tokens de contexte. Un module léger de Multi-Token Prediction (MTP) est également intégré pour accélérer la génération.

Dit autrement, Xiaomi essaie de résoudre l’un des grands problèmes de l’IA moderne : conserver une bonne qualité de raisonnement sur des contextes très longs sans faire exploser le coût et la latence. C’est exactement le type de compromis qui devient critique dans les systèmes d’agents, où l’on enchaîne planification, appels d’outils, mémoire longue et exécution multi-étapes. Cette lecture est une analyse à partir de l’architecture décrite officiellement par Xiaomi.

Xiaomi ne vend plus seulement un chatbot, mais un « cerveau » pour agents

Le discours de Xiaomi est très clair : MiMo-V2-Pro est conçu pour passer « du chat à l’agent ». L’entreprise explique vouloir faire du modèle le cerveau de systèmes capables d’orchestrer des workflows complexes, de piloter des tâches d’ingénierie de production et de s’intégrer à des scénarios de productivité réels. Xiaomi insiste particulièrement sur son optimisation pour OpenClaw et sur sa capacité à servir de moteur à des frameworks agentiques.

Cette orientation compte beaucoup. Elle montre que Xiaomi ne cherche pas simplement à lancer un LLM de plus pour exister dans les benchmarks. Le groupe veut se positionner sur la couche qui pourrait devenir la plus stratégique dans les prochaines années : celle des modèles capables de faire fonctionner des agents logiciels, pas seulement de tenir une conversation.

Des performances qui commencent à compter hors de Chine

Xiaomi s’appuie sur des résultats internes, mais aussi sur des comparatifs externes. Sur son site, l’entreprise affirme que MiMo-V2-Pro se classe 8e mondial et 2e parmi les LLM chinois selon l’Artificial Analysis Intelligence Index. Xiaomi met aussi en avant un score de 61,5 sur ClawEval, que la société présente comme approchant les performances de Claude Opus 4.6, ainsi qu’un score de 84,0 sur PinchBench.

Screen 2026 03 19 at 06.46.04

Artificial Analysis a positionné MiMo-V2-Pro dans le top 10 global de son index, avec un score de 49, au niveau de certains modèles très compétitifs sur le code et au-dessus de Grok 4.20 Beta. Il s’agit là d’une nette amélioration par rapport à MiMo-V2-Flash, notamment sur le taux d’hallucination, la concision de sortie et certains indicateurs de « knowledge quality ».

aaindex scaled

Il faut évidemment garder une nuance importante : une partie des chiffres de performance mis en avant provient de Xiaomi elle-même. Mais le fait que des référentiels externes comme Artificial Analysis reprennent au moins une partie du positionnement du modèle donne à l’annonce un poids plus sérieux qu’un simple exercice marketing.

Le vrai choc, c’est peut-être le prix

L’autre levier offensif de Xiaomi, c’est la tarification. L’API officielle de MiMo-V2-Pro est proposée à 1 dollar par million de tokens en entrée et 3 dollars par million en sortie jusqu’à 256K de contexte, puis 2 dollars/6 dollars entre 256K et 1M. Xiaomi facture aussi la lecture de cache à 0,20 dollar, puis 0,40 dollar selon le palier, tout en laissant pour l’instant la cache écriture gratuite.

C’est un positionnement extrêmement agressif au regard des modèles premium occidentaux. Xiaomi compare directement ses tarifs à ceux de Claude Sonnet 4.6 et Claude Opus 4.6, et reste très inférieur aux offres les plus chères d’OpenAI et d’Anthropic.

Autrement dit, Xiaomi n’essaie pas seulement d’être bon. Le groupe veut être très bon pour beaucoup moins cher. Et dans le marché actuel de l’IA, ce positionnement peut compter presque autant que la qualité brute du modèle.

Une offre encore incomplète, mais déjà très lisible

Pour l’instant, MiMo-V2-Pro est disponible via l’API first-party de Xiaomi et prend en charge le texte avec très long contexte. En parallèle, Xiaomi met déjà en avant d’autres briques de sa gamme, comme MiMo-V2-Omni pour les usages multimodaux et MiMo-V2-TTS pour la synthèse vocale. Le site MiMo montre donc que Xiaomi ne lance pas un produit isolé, mais bien les premiers éléments d’une famille de modèles pensée pour des cas d’usage différents.

Il manque encore certaines choses pour parler d’une offre totalement mature à l’échelle des leaders mondiaux, notamment une présence omnimodale complète sur le même modèle et un écosystème de distribution plus large. Mais la trajectoire est très claire : Xiaomi construit déjà une pile IA qui va du modèle rapide au modèle agentique premium, en passant par l’omni et la voix.

Xiaomi change de dimension dans l’IA

Au fond, MiMo-V2-Pro raconte quelque chose de plus large que le lancement d’un nouveau modèle. Xiaomi tente de convertir son ADN historique — matériel, IoT, software intégré, systèmes complexes — en avantage sur l’IA de demain. Là où d’autres vendent encore, surtout des assistants conversationnels, Xiaomi pousse déjà un récit centré sur l’action, l’orchestration et les agents.

La vraie question n’est donc plus seulement de savoir si Xiaomi peut faire un bon LLM. Elle est de savoir si le groupe peut transformer MiMo en plateforme d’exécution intelligente, suffisamment crédible pour séduire les développeurs, les outils de code et, à terme, ses propres produits et services. Si cette stratégie fonctionne, Xiaomi ne sera plus seulement un constructeur qui utilise l’IA. Il pourrait devenir l’un de ceux qui la structurent.

Lire plus
Intelligence Artificielle

Meta lance Manus My Computer : L’IA qui range et gère vos fichiers à votre place

Meta lance Manus My Computer : L'IA qui range et gère vos fichiers à votre place

Meta pousse un peu plus loin sa stratégie agentique. Trois mois après le rachat de Manus, la startup désormais intégrée au groupe a lancé une application de bureau pour macOS et Windows, avec une fonction centrale baptisée My Computer.

Le principe est simple sur le papier, mais ambitieux dans l’exécution : décrire une tâche en langage naturel, puis laisser l’agent agir sur les fichiers, les outils et les applications locales de la machine.

Un Manus qui sort du cloud pour entrer dans le poste de travail

Jusqu’ici, Manus fonctionnait surtout comme un agent dans le cloud. Avec My Computer, il passe sur la machine de l’utilisateur et peut lire des fichiers locaux, exécuter des commandes Terminal, lancer des apps et interagir avec l’espace de travail directement depuis le bureau. L’interface ressemble à un chatbot classique, avec une zone de prompt et la possibilité d’ajouter des fichiers ou des dossiers, mais la promesse dépasse largement la simple conversation.

Manus explique, par exemple, qu’on peut déposer un dossier entier et demander à l’agent de l’organiser. Dans sa démo officielle, l’entreprise montre le cas d’un fleuriste qui importe des milliers de photos non triées, puis laisse l’IA les classer en catégories comme bouquets, compositions de mariage ou décorations.

L’automatisation locale devient le vrai sujet

Le point le plus intéressant n’est pas seulement ce que Manus fait, mais où il le fait. En passant du cloud au poste local, l’agent se rapproche du vrai travail quotidien : dossiers, apps ouvertes, commandes système, fichiers à déplacer, documents à envoyer. Manus met aussi en avant l’intégration avec ses projets, ses agents et ses tâches planifiées, pour automatiser des routines récurrentes, comme ranger le dossier Téléchargements ou générer un rapport local chaque semaine.

Cette bascule compte, car elle transforme l’agent IA en couche d’orchestration du poste de travail, et pas seulement en assistant conversationnel.

Meta veut rassurer sur le contrôle

Évidemment, ce type d’outil soulève immédiatement une question de confiance. Manus insiste donc sur un garde-fou essentiel : chaque commande Terminal doit être approuvée explicitement avant exécution. L’utilisateur peut choisir « Autoriser une fois » pour valider au cas par cas, ou « Toujours autoriser » pour fluidifier des tâches jugées sûres.

Manus présente cette logique comme le cœur de sa relation avec l’utilisateur : l’humain commande, l’agent exécute.

Cela ne supprime pas tous les risques, mais cela place clairement le produit dans une logique plus contrôlée que celle d’un agent totalement autonome.

Un marché déjà en train de se structurer

Manus n’arrive pas seul. OpenClaw s’est imposé ces derniers mois comme l’un des grands noms des agents locaux open source, avec un positionnement très orienté contrôle, personnalisation et exécution directe sur la machine. Son site officiel et son dépôt GitHub le présentent comme un assistant personnel local, capable d’agir via des skills et d’interagir avec le système et des services externes.

En face, Perplexity pousse une vision voisine avec Computer et surtout Personal Computer, un agent pensé pour disposer d’un accès local et continu à une machine, avec journaux d’audit, validations pour les actions sensibles et coupe-circuit. Pour l’instant, cette offre reste surtout sur liste d’attente.

Le vrai choix : ouverture ou produit « clé en main »

C’est là que Manus essaie de se différencier. OpenClaw séduit par son côté libre et ouvert. Perplexity mise sur une approche très encadrée et orientée productivité. Manus, lui, se place entre les deux : plus poli, plus accessible, désormais adossé à Meta, mais aussi plus fermé et plus commercial.

Les plans payants de Manus démarrent bien à 20 dollars par mois, ou 17 dollars par mois en annuel, avec un essai gratuit mentionné sur plusieurs pages de l’entreprise.

Pourquoi ce lancement compte

Ce lancement dit quelque chose de plus large sur l’IA en 2026 : la bataille ne se joue plus seulement sur les modèles, mais sur l’endroit où l’agent agit. Le cloud reste utile pour raisonner et orchestrer, mais la valeur perçue augmente nettement quand l’IA peut toucher aux fichiers, aux apps et aux routines réelles de l’utilisateur.

Avec My Computer, Manus cesse d’être seulement un agent « dans le navigateur ». Il devient un prétendant sérieux au rôle d’interface de travail locale pilotée par IA. Et dans ce marché naissant, la vraie différence ne se fera pas seulement sur la puissance, mais sur l’équilibre entre contrôle, confiance et simplicité d’usage.

Lire plus
Intelligence Artificielle

GPT-5.4 mini et nano : OpenAI rend son IA plus puissante et moins chère

GPT-5.4 mini et nano : OpenAI rend son IA plus puissante et moins chère

OpenAI élargit sa gamme GPT-5.4 avec deux nouveaux modèles plus légers : GPT-5.4 mini et GPT-5.4 nano. L’objectif est clair : apporter une partie importante des capacités de GPT-5.4 à des usages où la latence, le coût et le volume comptent autant que l’intelligence brute.

OpenAI présente GPT-5.4 mini comme son « mini-modèle le plus puissant à ce jour », tandis que nano devient l’option la plus légère et la moins chère de la famille.

GPT-5.4 mini et nano : OpenAI vise les usages où chaque milliseconde compte

Avec ces deux modèles, OpenAI ne cherche pas seulement à enrichir sa nomenclature. La société adresse un besoin très concret : celui des systèmes qui doivent répondre vite, souvent, et à grande échelle. OpenAI cite notamment les assistants de code, les sous-agents exécutant des tâches en parallèle, les systèmes capables d’interpréter des captures d’écran, ainsi que les applications multimodales qui doivent raisonner sur des images en temps réel.

Screen 2026 03 18 at 10.33.23
Screenshot

Dans cette logique, GPT-5.4 mini est positionné comme un compromis très offensif entre vitesse et niveau de performance. OpenAI indique qu’il améliore GPT-5 mini en programmation, en raisonnement, en compréhension multimodale et dans l’usage des outils, tout en fonctionnant à une vitesse annoncée comme supérieure à 2x.

La société ajoute qu’il se rapproche des performances de GPT-5.4 sur des évaluations comme SWE-Bench Pro et OSWorld-Verified.

GPT-5.4 nano, le modèle pensé pour l’efficacité brute

De son côté, GPT-5.4 nano joue une autre partition. OpenAI le décrit comme son plus petit modèle GPT-5.4, optimisé pour les tâches où la rapidité d’exécution et le coût sont prioritaires. Il est présenté comme particulièrement adapté à la classification, à l’extraction de données, au ranking ou encore à des sous-agents de code chargés de tâches plus simples.

Autrement dit, OpenAI affine ici sa stratégie produit. Là où GPT-5.4 reste pensé pour le travail complexe et plus exigeant, mini et nano viennent occuper les couches opérationnelles où l’on préfère souvent une IA un peu moins ambitieuse, mais beaucoup plus rapide et bien moins chère. Cette lecture est une analyse du positionnement tarifaire et fonctionnel décrit par OpenAI.

Le vrai terrain de bataille : le code, les agents et le multimodal léger

OpenAI insiste particulièrement sur trois terrains d’usage. D’abord, le coding, avec des workflows d’itération rapide, des modifications ciblées, de la navigation dans les bases de code et des boucles de débogage plus réactives. Ensuite, les sous-agents, dans des architectures où un grand modèle pilote l’ensemble pendant que des modèles plus petits exécutent des tâches ciblées comme fouiller un codebase ou traiter des documents annexes.

Enfin, le computer use et le multimodal, où GPT-5.4 mini est censé interpréter rapidement des interfaces visuelles denses.

Ce point est important, car il montre comment OpenAI structure désormais sa gamme non plus uniquement par « niveau d’intelligence », mais par rôle dans une chaîne de travail IA. Le grand modèle planifie. Le petit modèle exécute. Et c’est sans doute l’une des évolutions les plus stratégiques du moment dans les architectures agentiques. Cette dernière phrase relève d’une inférence fondée sur les cas d’usage officiellement mis en avant.

Prix, disponibilité et intégration dans ChatGPT

Sur le plan commercial, GPT-5.4 mini est disponible dans l’API, dans Codex et dans ChatGPT. Son tarif API est fixé à 0,75 dollar par million de tokens en entrée et 4,50 dollars par million de tokens en sortie. GPT-5.4 nano, lui, est uniquement disponible via l’API, à 0,20 dollar par million de tokens en entrée et 1,25 dollar par million de tokens en sortie.

OpenAI précise aussi que, dans Codex, GPT-5.4 mini consomme 30 % du quota GPT-5.4, ce qui permet de déléguer certaines tâches simples à moindre coût. Dans ChatGPT, GPT-5.4 mini est accessible aux utilisateurs Free et Go via la fonction Thinking. Pour les autres utilisateurs, il sert aussi de solution de repli lorsque GPT-5.4 Thinking atteint ses limites de débit.

Une sortie qui en dit long sur la maturité de la gamme OpenAI

Au fond, cette annonce raconte quelque chose de plus large que le simple lancement de deux variantes. OpenAI structure de plus en plus sa gamme comme une pile complète, où chaque modèle a une fonction économique et technique précise. GPT-5.4 pour les travaux complexes. Mini pour les usages rapides mais encore exigeants. Nano pour les tâches de soutien, massives et sensibles au coût. Cette analyse découle du positionnement comparé des modèles sur les pages officielles de présentation et de tarification.

C’est une évolution logique. À mesure que l’IA quitte la démonstration pour entrer dans la production, la question n’est plus seulement « quel modèle est le plus intelligent ? », mais « quel modèle est le plus adapté à telle étape du système ? ». Et sur ce terrain, GPT-5.4 mini et nano montrent qu’OpenAI veut désormais gagner autant sur l’architecture que sur la performance brute.

Lire plus