fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Le gadget IA d’OpenAI signé Jony Ive n’arrivera pas avant fin février 2027, révèle un document judiciaire

Le gadget IA d’OpenAI signé Jony Ive n’arrivera pas avant fin février 2027, révèle un document judiciaire

On l’attendait comme le « moment iPhone » de l’IA grand public : un objet pensé par Jony Ive, porté par OpenAI, capable de faire oublier le smartphone pendant quelques minutes — voire plus.

Sauf que la réalité rattrape le mythe : OpenAI ne prévoit pas d’expédier son premier appareil hardware avant la fin février 2027, selon une déclaration de Peter Welinder (VP & GM chez OpenAI) dans un document judiciaire repéré par WIRED.

Derrière cette date, il y a un détail révélateur : l’appareil reste suffisamment secret pour que l’entreprise affirme ne pas avoir encore produit de packaging ni de supports marketing.

Une affaire de marque (« io ») qui force OpenAI à clarifier le calendrier

La précision « fin février 2027 » n’est pas sortie d’un événement produit, mais d’un litige de marque : la startup audio iyO a attaqué OpenAI après l’acquisition de la startup de Jony Ive, io, entraînant un bras de fer autour de noms jugés trop proches.

Dans le même dépôt, Welinder indique que OpenAI a décidé de ne pas utiliser « io », « IYO » ni aucune variation de capitalisation pour ses produits.

En clair : non seulement le produit prend du retard, mais l’identité sous laquelle il devait naître est officiellement abandonnée.

Un « compagnon sans écran » plutôt qu’un pin ou des écouteurs

Selon WIRED, OpenAI viserait un appareil compagnon sans écran, conçu pour fonctionner aux côtés des téléphones et des ordinateurs — une approche qui tranche avec les « AI gadgets » façon pin, souvent mal reçus car redondants ou trop limités.

Et, cela colle à la ligne officielle d’OpenAI au moment où Sam Altman et Jony Ive évoquaient l’ambition de créer « une famille d’appareils IA » (sans jamais détailler la forme).

Ce report à 2027 dit trois choses :

  1. Le hardware ne pardonne pas. Contrairement aux modèles, on ne « ship » pas une itération toutes les deux semaines. Un nouvel objet impose industrialisation, chaîne d’approvisionnement, conformité, SAV… et tout ce qui fait l’ADN d’Apple.
  2. L’IA grand public doit gagner sa place. Les échecs récents ont montré qu’un « assistant » dédié ne suffit pas : il faut un usage quotidien évident, pas une démo.
  3. OpenAI apprend à parler comme une entreprise produit. La mention « pas de packaging » ressemble à une façon de dire : on n’est pas encore au stade où l’on vend une histoire — on construit encore la machine.

Ce qu’il faut surveiller maintenant

Une annonce (ou démo) en 2026 reste possible, même si les expéditions glissent à 2027 — Business Insider note que le calendrier public reste flou. Le nouveau nom : OpenAI ayant renoncé à « io », toute la stratégie de branding est à réinventer. Le positionnement : « compagnon sans écran » peut être un coup de génie… ou un piège si l’expérience n’est pas radicalement meilleure que celle d’un smartphone + AirPods.

OpenAI veut entrer dans le matériel, mais le dossier judiciaire rappelle une vérité brutale : avant de réinventer l’informatique personnelle, il faut déjà pouvoir l’expédier.

Lire plus
Intelligence Artificielle

Meta AI prépare Avocado et des connecteurs MCP : la riposte de Meta face à ChatGPT et Gemini

Meta AI prépare Avocado et des connecteurs MCP : la riposte de Meta face à ChatGPT et Gemini

Meta n’essaie plus seulement d’avoir un bon modèle : l’entreprise veut une plateforme d’assistant — capable d’agir, de se souvenir, et surtout de se brancher sur votre quotidien. Un récent lifting du site Meta AI, repéré par TestingCatalog, laisse entrevoir une feuille de route ambitieuse : connexion à des services comme Google Agenda et Outlook, nouveaux modes de réponse (rapide/« thinking »), et la préparation d’un modèle interne baptisé Avocado.

À l’ombre de cette refonte, un autre indice pèse lourd : l’intégration progressive de ce que l’industrie appelle désormais la « couche d’exécution » des agents.

Le vrai saut : connecter vos apps à Meta AI (et parler MCP)

Le détail le plus révélateur n’est pas un nouveau bouton, mais un changement de philosophie : Meta AI semble tester une interface permettant de lier des services tiers (agenda, e-mail, etc.). TestingCatalog mentionne des connexions à Google Calendar et Microsoft Outlook pour certains utilisateurs.

Techniquement, le leak évoque l’usage de MCP (Model Context Protocol: un standard ouvert popularisé par Anthropic pour connecter de manière structurée des assistants IA à des sources de données et à des outils. MCP est souvent décrit comme un « USB-C des agents » : un port universel pour brancher des services sans réécrire un connecteur bespoke pour chacun.

Meta AI 02 08 2026 01 57 AM

Si Meta implémente MCP à grande échelle, l’enjeu est énorme : Meta AI ne serait plus un chatbot « hors sol », mais un orchestrateur de vos outils — avec un chemin direct vers le calendrier, les tâches, et potentiellement d’autres services.

Meta AI 02 08 2026 01 57 AM 1

Avocado : le nouveau modèle que Meta prépare (et possiblement un tournant « moins open source »)

Le nom revient de plus en plus : Avocado. Des rapports fin 2025 indiquaient déjà que Meta développait un nouveau modèle texte interne sous ce nom, avec une sortie visée en 2026.

La refonte Meta AI repérée par TestingCatalog semble ajouter des modes liés à Avocado (« Avocado » et « Avocado Thinking »), en plus de « Fast » et « Thinking ».
Et, plusieurs reprises expliquent que Meta pourrait utiliser Avocado comme une offre plus contrôlée (donc plus monétisable), ce qui marquerait un pas supplémentaire au-delà du discours « open » de Llama.

Des « Tasks » sur Meta AI : l’assistant passe du bavardage à l’action

Meta AI 02 08 2026 02 46 AM

L’autre brique qui compte : Tasks. La possibilité de créer des actions ponctuelles ou récurrentes (des rappels, des routines, des automatisations) apparaît aussi dans les éléments repérés.

Ce n’est pas un gadget : c’est un signe que Meta vise la catégorie « assistant opérateur », où l’on ne demande plus seulement « explique-moi », mais « fais-le » — et reviens avec le résultat.

Manus + Meta : l’exécution « agentique » en renfort

Meta a aussi sécurisé une pièce stratégique en acquérant Manus, une startup spécialisée dans les agents autonomes. Manus confirme officiellement rejoindre Meta.

Cette acquisition est régulièrement analysée comme un moyen pour Meta d’accélérer sur la couche « agent » — navigation, exécution de tâches, automation — plutôt que de se battre uniquement sur la qualité brute des modèles.

Dit autrement : Meta additionne modèle + connecteurs + agents, soit les trois ingrédients qui transforment un chatbot en outil productif.

Rivaliser avec ChatGPT et Gemini, oui… mais à quel prix (et avec quel niveau de confiance) ?

Sur le papier, cette refonte répond exactement à ce qui fait la force de ChatGPT/Gemini aujourd’hui : intégrations, modes de raisonnement, automations, écosystème.

Là où Meta peut devenir très dangereux, c’est sur un avantage que ses rivaux envient : la distribution. Meta AI peut, à terme, se glisser dans WhatsApp, Instagram, Facebook et les lunettes connectées, avec une continuité d’usage redoutable.

Mais, il y a un revers immédiat : brancher son agenda, sa messagerie, ses tâches à Meta AI pose une question de confort… et une autre de confiance. MCP facilite la connexion, mais ne résout pas à lui seul l’équation : quelles données transitent, où, combien de temps, et pour quels usages ? MCP lui-même est accompagné d’un débat croissant sur la sécurité des agents et des connecteurs.

Meta AI semble donc se rapprocher du « pack complet » — mais la bataille se jouera autant sur la transparence et les garanties que sur les benchmarks.

Lire plus
Intelligence Artificielle

ChatGPT teste la publicité aux États-Unis : OpenAI ouvre un nouveau chapitre — et marche sur une ligne rouge

ChatGPT teste la publicité aux États-Unis : OpenAI ouvre un nouveau chapitre — et marche sur une ligne rouge

C’est un virage que beaucoup redoutaient, et que d’autres attendaient presque comme une évidence économique : OpenAI commence à tester des publicités dans ChatGPT.

L’expérimentation démarre aux États-Unis, et ne concerne, pour l’instant, que les utilisateurs ChatGPT Free et ChatGPT Go. Tout le reste de la gamme payante — Plus, Pro, Business, Enterprise et Education — reste sans publicité.

Derrière l’annonce, une promesse martelée : les pubs n’influencent pas les réponses et les conversations restent privées vis-à-vis des annonceurs.

ChatGPT : Qui verra des pubs, et où elles apparaîtront

OpenAI présente le test comme une mise en place « encadrée » :

  • Public concerné : utilisateurs adultes connectés, sur les offres Free et Go, aux États-Unis.
  • Offres sans pub : Plus, Pro, Business, Enterprise, Education.
  • Placement : au départ, OpenAI dit vouloir afficher des annonces en bas des réponses, clairement étiquetées et séparées du contenu « organique ».

Le plan ChatGPT Go, lui, est au cœur de cette bascule : c’est l’abonnement « petit ticket » à 8 $/mois aux États-Unis, déployé mondialement mi-janvier.

Ciblage, données et garde-fous : OpenAI veut rassurer (fort)

Le nœud du sujet, c’est la confiance. OpenAI répète donc trois lignes rouges :

  1. Les annonces ne changent pas les réponses.
  2. Les conversations ne sont pas partagées avec les annonceurs.
  3. L’expérience est « contrôlable » : comprendre pourquoi une pub s’affiche, la masquer, donner un feedback, gérer la personnalisation.

12 scaled

Et surtout, OpenAI promet un périmètre d’exclusion : pas de publicités pour les moins de 18 ans et pas d’affichage près de sujets sensibles/régulés (notamment santé, santé mentale, politique).

Le timing est savoureux : Anthropic a trollé au Super Bowl, Altman a répliqué

La séquence est presque trop parfaite pour l’histoire de la Silicon Valley. La veille, pendant le Super Bowl, Anthropic a diffusé une publicité moquant l’idée d’insérer des pubs dans des conversations avec une IA — avec une punchline du type : « il y a un temps et un lieu pour la pub ; vos conversations avec l’IA n’en font pas partie ».

Sam Altman n’a pas laissé passer : il a qualifié les spots de « malhonnête » et Anthropic d’« entreprise autoritaire », selon plusieurs reprises presse.

10 scaled

La pub dans un chatbot, ce n’est pas « comme sur le Web »

OpenAI tente de traiter la publicité comme un mécanisme de financement permettant « d’élargir l’accès » à des fonctionnalités puissantes — en clair, absorber une partie des coûts d’inférence et de croissance.

Mais, l’enjeu est plus subtil : dans un moteur de recherche, l’utilisateur s’attend à une page de résultats mixant organique et sponsorisé. Dans un chatbot, l’utilisateur est dans une relation plus intime — parfois personnelle, souvent contextuelle — où l’assistant parle.

C’est là que tout se joue : même si l’annonce est placée « en bas » et « séparée », l’utilisateur doit croire que le modèle ne modifie pas sa réponse pour devenir plus « monétisable ». OpenAI le nie explicitement, mais le soupçon est structurel : la pub dans une conversation ressemble vite à une incitation.

OpenAI dit vouloir « maintenir la confiance » — et c’est bien le cœur du dossier : la publicité est facile à ajouter, mais très difficile à ajouter sans casser l’illusion de neutralité.

Lire plus
Intelligence Artificielle

Amazon AI Studio : Le plan secret pour réduire de 30% le coût des séries Prime Video

Amazon AI Studio : Le plan secret pour réduire de 30% le coût des séries Prime Video

À Hollywood, l’intelligence artificielle avance toujours sur une ligne de crête : promesse d’efficacité d’un côté, crainte d’un bouleversement des métiers de l’autre. Amazon, lui, choisit d’assumer la trajectoire.

Son unité Amazon MGM Studios déploie une structure dédiée — un « AI Studio » — pour injecter des outils IA dans toutes les étapes de fabrication des films et séries, avec un objectif affiché : réduire les coûts et raccourcir les délais, sans évincer les talents.

Un « AI Studio » façon startup interne, piloté par Albert Cheng

Selon Reuters, Albert Cheng mène une petite équipe au sein de cet « AI Studio », pensé comme une entité légère — dans l’esprit des « two-pizza teams » popularisées par Jeff Bezos — majoritairement composée d’ingénieurs et de scientifiques, avec un relais créatif et business.

Le plan est déjà cadencé : Amazon prévoit une bêta fermée en mars 2026 avec des partenaires de l’industrie, et promet de premiers enseignements dès mai.

Ce que l’IA est censée faire (et pourquoi Amazon insiste sur le « dernier kilomètre »)

Amazon ne vend pas un « réalisateur automatique ». Le discours, au contraire, consiste à dire que l’IA doit s’occuper du technique, du répétitif, du pénible — ce qui ralentit les équipes — pour rendre les productions plus « scalables » sans dégrader l’ambition. Reuters cite notamment des chantiers comme la cohérence des personnages entre les plans ou l’accélération de certaines tâches d’édition « cinématique », avec une intégration aux outils créatifs existants.

Autre point clé : Amazon compte s’appuyer sur AWS et sur plusieurs fournisseurs de modèles (LLM) afin d’offrir une « palette » de solutions plutôt qu’un outil monolithique. Derrière, il y a une obsession très industrie : la protection de la propriété intellectuelle et la crainte que des contenus ne servent, indirectement, à entraîner d’autres modèles.

« On ne remplace pas les créatifs » : une promesse aussi politique que technique

Amazon martèle que les décisions créatives resteront humaines (scénaristes, réalisateurs, acteurs, designers). Ce positionnement n’est pas anecdotique : l’IA est un sujet ultrasensible dans la filière, où la question n’est pas seulement « peut-on le faire ? », mais « qui garde la main — et qui capte la valeur ? ».

Dans les faits, l’IA est ici présentée comme un levier pour absorber l’inflation des budgets — une inflation qui limite mécaniquement le nombre de projets finançables. C’est l’argument le plus convaincant d’Amazon : produire plus, ou produire « aussi grand » pour moins cher, sans sacrifier la cadence de Prime Video.

Les partenaires et le cas « House of David » : l’IA comme accélérateur de scope

L’AI Studio collabore déjà avec plusieurs profils connus : le producteur Robert Stromberg (Secret City), l’acteur-producteur Kunal Nayyar (Good Karma Productions) et l’animateur Colin Brady (ex Pixar/ILM).

Reuters cite aussi un exemple concret : la série House of David, dont certaines scènes de bataille de saison 2 auraient combiné images réelles et IA pour élargir l’ampleur visuelle à coût plus contenu. C’est typiquement le type d’usage qu’Amazon veut normaliser : pas « inventer » un film, mais étendre le champ du possible quand le budget impose des murs.

AI Studio, un nouveau champ de bataille (et avantage compétitif AWS)

Ce mouvement raconte quelque chose de plus grand que MGM Studios. Amazon est l’un des rares acteurs à pouvoir empiler, dans la même pile technologique, plateforme de streaming (Prime Video), studio, cloud (AWS) et outillage IA. Si la bêta confirme des gains réels (temps de pré-prod, itérations de montage, VFX « assistés », continuité), Amazon peut transformer l’IA en avantage structurel : faire baisser le coût marginal d’un épisode, réduire le risque financier… et augmenter le volume de contenus premium.

Reste le point de bascule : l’acceptabilité. L’outil ne devra pas seulement être performant ; il devra être contractuellement clair, créativement contrôlable, et socialement « vivable » pour des métiers déjà fragilisés par la course à la rentabilité. C’est là que se jouera la crédibilité du projet — et, peut-être, une partie du futur de la production à grande échelle.

Lire plus
Intelligence Artificielle

Anthropic Cowork : 11 plug-ins open source pour automatiser votre entreprise en 2026

Anthropic Cowork : 11 plug-ins open source pour automatiser votre entreprise en 2026

Après avoir présenté Cowork comme une version plus « grand public » de Claude Code — capable d’automatiser des tâches en mode agent — Anthropic passe à l’étape que les DSI attendaient vraiment : la spécialisation. Avec l’arrivée des plug-ins dans Cowork, l’entreprise veut transformer Claude en outil de travail reproductible, paramétrable, et surtout… partageable à l’échelle d’une organisation.

Des plug-ins pour « encoder » vos workflows, pas juste poser des questions à une IA

L’idée est simple : un plug-in sert à automatiser des tâches ciblées au sein d’un département (marketing, juridique, support, ops, etc.) en indiquant à Claude comment travailler : quelles sources consulter, quels outils appeler, quelles étapes respecter, quels « slash commands » exposer à l’équipe pour obtenir des résultats cohérents.

Anthropic met l’accent sur le fait que ces plug-ins sont personnalisables et pensés pour que les entreprises fabriquent leurs usages « sur mesure », sans devoir être une équipe d’ingénieurs IA. Matt Piccolella (équipe produit) explique que le but est précisément d’apporter aux non-développeurs l’utilité déjà connue côté Claude Code, mais sous une forme UI-centric et accessible.

11 plug-ins open source… et un signal clair : « prenez, adaptez, déployez »

Pour amorcer la pompe, Anthropic open source 11 plug-ins utilisés en interne, installables directement depuis Cowork via une logique proche d’un mini « marketplace » (au moins dans l’esprit).

697bffa5de78fa874a5efed8 Hero Image plugins scaled

Ce choix est très calculé : il réduit la friction d’adoption (on teste avant de construire), et il sert de modèle de bonnes pratiques pour les équipes qui veulent créer leurs propres variantes.

Le point qui compte pour les entreprises : la gouvernance (et ce qui manque encore)

Anthropic reconnaît une limite importante : les plug-ins sont pour l’instant sauvegardés localement sur la machine de l’utilisateur. Une solution de partage à l’échelle de l’organisation est annoncée comme « à venir », ce qui est crucial pour éviter une prolifération de plug-ins disparates et non gouvernés.

En parallèle, Cowork reste en research preview : l’ambition est visible, mais le produit est encore dans une phase où l’itération prime sur la standardisation.

697bfe022fd5ecc76e2b5a3b c546a84

Avec Cowork + plug-ins, Anthropic glisse d’un assistant conversationnel vers une couche d’exécution : l’IA ne se contente plus de répondre, elle opère à travers des outils et des processus. C’est cohérent avec la stratégie plus large d’Anthropic, qui veut positionner Claude au-delà du code, sur la productivité et les usages métiers — avec une montée en puissance récente de ses capacités agentiques et de long contexte.

La promesse, c’est la « cohérence à l’échelle » — le risque, c’est l’ombre IT

Sur le papier, les plug-ins résolvent un vrai problème : en entreprise, on ne veut pas seulement une IA « brillante », on veut une IA prévisible, alignée sur les règles internes, les outils autorisés, la terminologie maison, et le niveau de risque acceptable.

Mais, la réussite dépendra de deux points :

  1. Gouvernance : contrôle des versions, audit, permissions, traçabilité.
  2. Interop : intégration propre avec les outils existants, sans créer une pile parallèle qui échappe aux équipes IT.

Si Anthropic tient le volet « partage org » + garde-fous, Cowork pourrait devenir un format très séduisant : des équipes non techniques qui automatisent des workflows réels, sans attendre un projet data de six mois. Sinon, le danger est classique : une explosion de micro-automatisations difficiles à maintenir.

Lire plus
Intelligence Artificielle

Hoax OpenAI au Super Bowl : Les secrets du faux leak matériel qui a piégé le Web

Hoax OpenAI au Super Bowl : Les secrets du faux leak matériel qui a piégé le Web

À quelques minutes du coup de sifflet final du Super Bowl LX, un « leak » a commencé à circuler avec la précision d’un trailer parfaitement monté : un employé frustré, une pub « annulée » au dernier moment, Alexander Skarsgård face à un orbe métallique et des écouteurs futuristes… Le genre d’histoire qui se partage avant même d’être lue. Sauf qu’il n’y avait rien à confirmer : c’était faux.

OpenAI a coupé court immédiatement. Greg Brockman a résumé l’affaire d’un post — « fake news » — et la porte-parole Lindsay McCallum Rémy a été encore plus directe : « c’est totalement faux. »

Le « leak » trop parfait : un post Reddit, un compte neuf, et un scénario calibré pour l’époque

Le point de départ est typique des intox modernes : des captures d’écran d’un thread Reddit depuis supprimé, présenté comme la confession d’un salarié. Problème : le compte à l’origine de l’histoire était tout neuf, et des traces plus anciennes retrouvées via l’Internet Archive contredisaient l’idée d’un profil « insider » du marketing OpenAI.

Cette fragilité aurait dû tuer l’histoire. Elle a fait l’inverse : elle l’a rendue virale, parce que le récit cochait toutes les cases d’une rumeur « désirable » — OpenAI + Super Bowl + hardware + Jony Ive en arrière-plan. On n’y croyait pas parce que c’était prouvé ; on y croyait parce que c’était plausible.

Une opération plus organisée qu’un simple troll : paiement, faux titres et « site de preuve »

L’élément le plus troublant, c’est le niveau d’orchestration. Le journaliste Max Weinbach a partagé des captures d’un email proposant la promotion d’un tweet autour de ce « teaser », avec un paiement annoncé de 1 146,12 dollars — signe qu’il ne s’agissait pas seulement d’un montage opportuniste.

Dans le même temps, la journaliste d’Ad Age Gillian Follett a indiqué qu’un faux titre lui avait été attribué, et la CMO d’OpenAI Kate Rouch a évoqué l’existence d’un site Web factice destiné à « étayer » le récit.

Bref : on n’est pas sur un meme qui dérape, mais sur une mécanique qui cherche à fabriquer de la crédibilité par accumulation — posts, captures, faux articles, relais payants — le tout dans une fenêtre parfaite : l’attention maximale du Super Bowl.

Pourquoi OpenAI était une cible idéale ce soir-là ?

L’affaire tombe sur une soirée déjà électrique : la publicité et la communication autour de l’IA sont devenues un champ de bataille public, jusqu’aux spots du Super Bowl. Reuters rappelait encore cette semaine la tension entre acteurs du secteur, notamment autour des pubs et de la manière de monétiser l’IA.

Dans ce contexte, un faux « teaser hardware » agit comme un accélérateur : il détourne l’attention, force une réaction officielle, et met la marque en position défensive — exactement ce qu’une bonne intox cherche à obtenir.

Le hardware OpenAI est devenu un « mythe prêt à l’emploi »

Ce qui rend ce faux leak si efficace, c’est qu’il exploite un désir collectif : voir OpenAI sortir du logiciel, matérialiser l’IA dans un objet. Un simple orbe brillant suffit, parce que l’imaginaire est déjà là.

La leçon est double :

  • Pour le public : un contenu « pro » n’est plus un gage de réalité. La mise en scène coûte moins cher que la preuve, et circule beaucoup plus vite.
  • Pour OpenAI (et toute marque grand public) : dès qu’un projet hardware est crédible, il devient un terrain fertile pour des narrations parasites — et pour des opérations payantes qui fabriquent du faux « earned media ».

Au fond, ce faux spot n’a pas seulement tenté de tromper : il a testé la vitesse à laquelle une rumeur bien emballée peut devenir « vraie » aux yeux d’Internet. Et ce test-là, lui, a parfaitement fonctionné.

Lire plus
Intelligence Artificielle

OpenAI prépare « Dime », son premier appareil grand public : des écouteurs IA pour sortir enfin du tout-logiciel ?

OpenAI prépare « Dime », son premier appareil grand public : des écouteurs IA pour sortir enfin du tout-logiciel ?

OpenAI a bâti l’ère moderne des chatbots… mais reste dépendante des écrans et des plateformes des autres. En 2026, l’entreprise veut visiblement franchir un cap : passer de l’IA « dans votre téléphone » à une IA « autour de vous » — plus discrète, plus immédiate, et surtout plus maîtrisée de bout en bout.

Sur le fond, le signal est net : OpenAI et Jony Ive évoquent publiquement un prototype d’appareil « screen-free » (sans écran), pensé comme un objet du quotidien — simple, presque « évident » à utiliser.

Et côté calendrier, plusieurs publications relaient des propos attribués à Chris Lehane (OpenAI) pointant vers une fenêtre au second semestre 2026 pour une première annonce.

Sur la forme, en revanche, c’est là que les récits divergent :

  • Certaines fuites parlent d’un wearable audio façon écouteurs (le nom « Dime » circule), avec une logique « voix d’abord ».
  • D’autres évoquent plutôt un petit objet de poche ou une famille d’appareils « AI-native », davantage proche d’un assistant ambiant que d’un smartphone bis.

Traduction journalistique : l’ambition est confirmée, le format final ne l’est pas encore.

Pourquoi des « AirPods de l’IA » auraient du sens

Si OpenAI démarre par un objet audio (écouteurs ou wearable voisin), c’est probablement parce que c’est le chemin le plus court vers l’usage quotidien :

  • Entrée par la voix (friction minimale, pas besoin d’écran).
  • Contexte mobile (dans la rue, en voiture, au travail).
  • Usage répétitif (micro-requêtes, résumés, rappels, traduction, prises de notes).

C’est aussi le format qui colle le mieux au fantasme d’Altman et d’Ive : une tech « calme », moins compulsive que le smartphone, plus proche d’un compagnon que d’une appli.

Le vrai enjeu : posséder l’expérience, pas seulement le modèle

Derrière « Dime », ce n’est pas un gadget qui se joue, c’est un changement de statut.

Jusqu’ici, OpenAI est partout… mais toujours hébergée : iOS, Android, le web, des apps tierces. Un appareil maison, même simple, permettrait de maîtriser l’interface (voix, gestes, bouton, « wake word », latence), d’imposer une vision privée/traitement local/cloud hybride et de capter des données d’usage (avec toutes les questions éthiques que cela implique) pour améliorer les agents dans la vraie vie

Et surtout : d’ouvrir une nouvelle bataille, celle de l’IA ambiante — le prochain territoire où Apple, Google, Meta et OpenAI veulent être « par défaut ».

Ce qu’il faut surveiller avant d’y croire

Si l’appareil existe et arrive en 2026, il y a trois points qui décideront de tout :
1. L’autonomie réelle : un assistant vocal « always-on » peut devenir une punition énergétique.
2. La promesse de confidentialité : l’audio + le contexte, c’est une zone rouge.
3. Le différentiel face aux écouteurs premium : si ça fait « comme AirPods, mais avec ChatGPT », ce sera trop léger. Il faudra un twist (agent local, mémoire utile, interactions système, intégration services).

OpenAI a déjà l’IA. Reste à prouver qu’elle sait fabriquer un objet — et surtout une habitude.

Lire plus
Intelligence Artificielle

OpenAI Frontier : le « RH des agents » qui veut mettre de l’ordre dans le chaos de l’IA en entreprise

OpenAI Frontier : le « RH des agents » qui veut mettre de l’ordre dans le chaos de l’IA en entreprise

Pendant un an, les entreprises ont empilé des copilotes, des scripts, des connecteurs et des « agents » comme on ajoute des extensions à un navigateur trop lent. Ça marche… jusqu’au moment où ça ne marche plus : outils fragmentés, contextes incohérents, permissions floues, et une vérité brutale — manager des agents IA, c’est déjà un métier.

C’est précisément ce terrain qu’OpenAI attaque avec OpenAI Frontier, une nouvelle plateforme conçue pour « build, deploy, and manage » des agents — y compris des agents qui ne viennent pas d’OpenAI.

Une couche de gouvernance et d’opérations qui ressemble, dans son discours comme dans sa logique, à un service RH : onboarding, apprentissage guidé, feedback, règles, limites.

OpenAI Frontier, ou la promesse d’un « contexte commun » pour des flottes d’agents

Le cœur du produit, tel que OpenAI le décrit, c’est un « contexte commercial partagé » : un socle commun sur lequel les agents peuvent travailler sans réinventer à chaque tâche les mêmes règles, les mêmes outils et les mêmes contraintes internes. L’objectif est de sortir du modèle actuel où les agents « vivent » au-dessus d’outils existants (CRM, tickets, dépôts Git, docs…), mais de façon souvent en silot et fragile.

OpenAI résume l’idée avec une formule très « entreprise » : donner aux agents « les mêmes compétences dont les humains ont besoin pour réussir au travail » — contexte partagé, onboarding, apprentissage via feedback, et permissions explicites.

Screen 2026 02 05 at 20.42.57

OpenAI Frontier est officiellement annoncé comme disponible dès maintenant, pour un nombre restreint de clients, avec une ouverture plus large « au cours des prochains mois ». OpenAI cite déjà des noms (Intuit, State Farm, Thermo Fisher, Uber) parmi les premiers adoptants, mais ne donne pas de prix pour l’instant.

Pourquoi OpenAI fait ça maintenant : l’ère des agents est devenue une bataille de plateformes

OpenAI Frontier n’arrive pas dans un vide. Microsoft pousse déjà une vision d’administration et de contrôle des agents via Agent 365, orientée supervision IT, politiques et gestion des risques.

Et, Anthropic, de son côté, a électrisé le marché avec Claude Code/Cowork et l’idée d’agents de plus en plus autonomes, au point d’alimenter une nervosité boursière sur le logiciel « traditionnel ».

Screen 2026 02 05 at 20.43.07

Dans ce contexte, OpenAI Frontier ressemble à une réponse directe : si les agents deviennent une « main-d’œuvre », il faudra un système d’exploitation organisationnel pour les encadrer.

Un produit de gouvernance déguisé en produit de productivité

Le discours « HR pour agents » est malin, mais la valeur réelle est ailleurs : la gouvernance. Qui a le droit de faire quoi (permissions, limites, environnements sensibles) ? Quelle mémoire est autorisée (ce que l’agent « retient », où, et pendant combien de temps) ? Comment on audite (évaluations humaines, traçabilité, conformité) ? Comment on évite le patchwork (agents disparates, comportements non alignés, dette d’automatisation) ?

OpenAI vend l’idée d’une entreprise où « la plupart du travail numérique » serait dirigé par des humains et exécuté par des flottes d’agents d’ici la fin de l’année. C’est ambitieux — et, surtout, ça suppose un point que beaucoup découvrent tard : l’agent n’est pas le produit final, l’orchestration l’est.

Le risque : « un seul anneau »… et la tentation de la centralisation

OpenAI Frontier se présente comme ouvert (standards, agents tiers), et OpenAI insiste sur le fait qu’elle « ne construira pas tout elle-même ». Mais, la mécanique est connue : celui qui possède la plateforme qui gouverne les agents contrôle la couche la plus stratégique — le pilotage.

Pour les entreprises, l’arbitrage est clair :

  • Oui à une couche commune qui réduit la fragmentation.
  • Mais attention à la dépendance : si Frontier devient le cockpit de vos opérations agentiques, votre « lock-in » ne se joue plus au niveau du modèle, mais au niveau du système de travail.

OpenAI Frontier n’est pas juste un nouveau produit OpenAI. C’est une tentative de définir le futur poste le plus discret — et le plus puissant — de l’IA en entreprise : le manager d’agents.

Lire plus
Intelligence Artificielle

Canva dans ChatGPT : l’IA apprend enfin à respecter votre charte graphique (sans retouches à la main)

Canva dans ChatGPT : l’IA apprend enfin à respecter votre charte graphique (sans retouches à la main)

On peut générer une image en dix secondes. Mais obtenir un visuel « propre à une marque », avec la bonne typo, les bonnes couleurs, le bon logo — celui qu’on peut publier sans rougir — reste souvent une autre histoire. Canva veut précisément gommer ce moment pénible où l’on passe de l’IA à… la retouche manuelle.

À partir d’aujourd’hui, l’application Canva dans ChatGPT peut s’appuyer sur votre Identité visuelle pour produire des créations automatiquement alignées sur votre identité visuelle.

Le principe est simple : vous demandez dans ChatGPT une présentation, un post social, un flyer, un visuel de campagne… et Canva applique d’emblée vos règles de marque (logos, palettes, polices). Résultat : moins de friction, moins de « bricolage » après coup, et des sorties qui ressemblent enfin à votre entreprise — pas à un template générique.

C’est aussi un signal clair : Canva ne veut plus être seulement l’éditeur où l’on finalise. Il veut devenir la couche visuelle de vos workflows IA.

Identité visuelle, ou la charte graphique transformée en « API »

L’Identité visuelle, c’est ce coffre-fort de marque où l’on stocke les éléments officiels : logos, couleurs, typos, parfois des composants de design. L’intégration dans ChatGPT permet d’en faire une règle automatique, activée au moment de la génération.

En filigrane, Canva pousse une idée puissante : l’identité de marque devient un paramètre de génération, pas une étape de correction.

Canva met aussi en avant une logique « pratique » dans ChatGPT :

  • Live Design Preview pour visualiser et ajuster un design depuis la conversation, sans basculer en permanence entre onglets.
  • Un Guided Presentation Builder, pensé pour partir du message (le fond) avant de couler le tout dans une forme soignée (la forme).

Et derrière, l’infrastructure s’appuie sur le Canva AI Connector (et son serveur MCP), annoncé comme compatible avec ChatGPT, Claude et d’autres environnements.

CanvaxOpenAI 1920 x 1080

L’ère des « assistants » bascule vers des interfaces de travail

Le timing n’est pas anodin : Claude a eu une intégration similaire la semaine dernière, avec des apps interactives dans le chat (dont Canva) via le protocole MCP.

Autrement dit, la compétition ne porte plus seulement sur « quel modèle répond le mieux », mais sur où le travail se fait vraiment : dans l’éditeur, dans l’IDE, dans la suite bureautique… ou directement dans la conversation.

Canva revendique déjà plus de 12 millions de designs créés via ces connecteurs à travers ChatGPT, Claude et Copilot, signe que la demande est bien là.

L’IA « brand-aware » devient une arme pour les équipes… et un verrou pour les outils

Pour les équipes marketing, sales, RH, ou les indépendants, l’intérêt est évident : des drafts plus rapides, moins d’allers-retours, et une cohérence visuelle mieux tenue (surtout quand plusieurs personnes produisent).

Mais, il y a aussi une lecture stratégique : si votre marque vit dans Canva, et que Canva s’invite dans votre assistant IA, Canva devient la passerelle naturelle entre « idée » et « asset final ». C’est un point d’ancrage très fort — presque un standard de fait — dans un monde où l’interface de travail se déplace vers les agents et les chats.

La promesse est belle : de l’IA qui ne fait pas « du Canva », mais « votre Canva ». Et c’est exactement ce que les entreprises achètent : de la vitesse, oui — mais sans diluer leur identité.

Le connecteur de IA Canva est disponible dès aujourd’hui pour les utilisateurs de ChatGPT. Connectez vos comptes sur canva.com/ai pour propulser votre marque dans le futur du travail.

 

Lire plus
Intelligence Artificielle

GPT-5.3-Codex : OpenAI dévoile son modèle agentique le plus rapide pour Codex

GPT-5.3-Codex : OpenAI dévoile son modèle agentique le plus rapide pour Codex

Il y a des annonces qui ressemblent à des « produits ». Et puis il y a celles qui ressemblent à des mouvements d’échecs, joués en direct devant toute l’industrie. Ce 5 février, OpenAI a dégainé GPT-5.3-Codex, un nouveau modèle pensé pour doper Codex — son outil de « coding agent » — quelques minutes seulement après la sortie du nouveau Claude Opus d’Anthropic.

Le détail est savoureux : selon TechCrunch, les deux labs devaient publier à la même heure, mais Anthropic aurait avancé son annonce de 15 minutes.

Derrière l’anecdote, le signal est clair : la bataille n’est plus « qui code le mieux », mais qui construit la meilleure usine à agents.

GPT-5.3-Codex : Une promesse : passer de « copilote » à « opérateur »

OpenAI présente GPT-5.3-Codex comme un saut qualitatif : Codex ne se limiterait plus à « écrire et relire du code », mais pourrait s’approcher de ce que font les professionnels « sur un ordinateur » — une manière d’insister sur la dimension agentique, c’est-à-dire la capacité à enchaîner des actions, utiliser des outils, et tenir une tâche dans la durée.

Dans son article officiel, OpenAI résume l’objectif : combiner la performance « coding » de GPT-5.2-Codex avec davantage de raisonnement et de connaissances pro… tout en étant 25 % plus rapide pour les utilisateurs Codex.

La page « changelog » développe la philosophie : davantage de réactivité pendant l’exécution, plus de retours de progression, et une meilleure capacité à se laisser « piloter » en temps réel.

SWE Bench Pro Public

Le vrai marqueur : vitesse + endurance, plutôt que « qualité brute »

Le nerf de la guerre, c’est le temps.

Là où les assistants classiques brillent en micro-tâches (autocomplétion, snippet, refactor ciblé), OpenAI veut faire basculer le workflow vers une logique de délégation : on confie un module, une feature, voire un mini-produit, et on supervise. Cest une logique déjà entendu lors du lancement de l’application Codex sur macOS, pensé comme un « command center » pour faire tourner plusieurs agents en parallèle.

GPT-5.3-Codex s’inscrit exactement dans cette trajectoire : moins de friction, plus de parallélisation, et surtout une promesse implicite — transformer le développeur en manager d’agents plutôt qu’en exécutant.

« Instrumental in creating itself » : la phrase qui cherche à frapper fort

TechCrunch relève un autre élément très « Silicon Valley » : OpenAI affirme que GPT-5.3-Codex est le premier modèle qui a été « instrumental » dans sa propre création, via des versions internes utilisées pour le debug et l’évaluation.

Il faut lire ça pour ce que c’est : un marqueur de maturité (l’outil devient assez fiable pour participer au cycle de dev), mais aussi un message marketing destiné à l’écosystème enterprise : ce modèle n’est pas un prototype, c’est déjà une machine de production.

Face à Anthropic : deux visions, un même terrain

Anthropic, de son côté, pousse Claude Opus 4.6 vers la polyvalence knowledge work (docs, tableurs, présentations) et surtout vers le multi-agent via ses « agent teams », avec un contexte pouvant monter à 1 million de tokens (en bêta).

OpenAI répond moins par un « concept » que par un upgrade de cadence : plus rapide, plus endurant, mieux intégré au pilotage (app, workflows). On sent une course qui se déplace : du modèle au produit, puis du produit à la plateforme.

La vérité, c’est que cette guerre se joue comme une guerre de systèmes d’exploitation : celui qui rend les agents naturels dans le flux de travail gagne — même avec un modèle « simplement très bon ».

Lire plus
Intelligence Artificielle

Claude Opus 4.6 : Anthropic lance les « Agent Teams » pour révolutionner le travail d’équipe

Anthropic n’essaie plus seulement d’être le meilleur assistant de code du marché. Avec Claude Opus 4.6, l’entreprise veut prouver qu’un modèle « frontier » peut devenir un outil de travail transversal, capable de gérer des projets longs, des documents lourds… et surtout, de se comporter comme une petite équipe plutôt que comme un seul cerveau en ligne droite.

La nouveauté qui marque un vrai virage, ce sont les « agent teams » : un mode où plusieurs agents se répartissent une mission en sous-tâches, puis se coordonnent entre eux. Anthropic vend l’idée comme une organisation proche d’une équipe humaine, où chaque agent « possède » sa partie du boulot — au lieu d’un seul agent qui avance séquentiellement. C’est disponible en research preview (API + abonnés, selon les conditions d’accès).

Ce n’est pas qu’un gadget : dans la pratique, c’est une réponse directe à la limite la plus frustrante des agents actuels — quand la tâche devient trop vaste, tout ralentit, tout se mélange, et le « copilote » redevient un stagiaire qu’il faut relire ligne par ligne.

Claude Opus 4.6 : 1 million de tokens de contexte

Autre upgrade majeur : Claude Opus 4.6 embarque un contexte jusqu’à 1 million de tokens en bêta, une première pour la classe Opus. Dit autrement : de quoi avaler des codebases plus larges, ou des corpus de documents sans perdre le fil à mi-chemin.

Côté mise en œuvre, Anthropic précise aussi dans sa doc que cette fenêtre de 1 million est activable via un header bêta spécifique (et que la tarification long-context s’applique au-delà de certains seuils).

Claude « dans PowerPoint », vraiment : l’intégration devient un poste de travail

Anthropic pousse aussi Claude Opus 4.6 vers les usages « knowledge work » avec une intégration plus directe dans PowerPoint : Claude apparaît comme un panneau latéral, pour itérer sur une présentation dans l’outil, plutôt que de générer un deck puis l’éditer ailleurs.

0e5c55fa8fd05a893d11168654dc36999e90908b 2600x2968 1 scaled

Le symbole est fort : Anthropic veut que Claude ne soit plus « à côté du travail », mais dans le logiciel où le travail se fait.

Pourquoi Anthropic fait ça maintenant : la bataille se déplace vers la « gestion de flottes » ?

Ce lancement s’inscrit dans une période où l’industrie ne se contente plus de « meilleurs modèles », mais se bat pour le pilotage des agents : qui orchestre, qui gouverne, qui intègre au SI… et qui devient la couche de travail quotidienne. La preuve : certains relient explicitement cette montée en puissance des agents à la nervosité des marchés autour des éditeurs logiciels, et à la compétition frontale avec OpenAI/Google.

Dans ce paysage, Claude Opus 4.6 ressemble à un message simple : on ne veut pas seulement écrire du code plus vite ; on veut coordonner des unités de travail IA comme on coordonne une équipe.

Ce que ça change pour les utilisateurs :

  • Développeurs/Claude Code : moins de tâches « au long cours » qui s’effondrent en cours de route ; plus de parallélisation (agent teams) et de contexte exploitable.
  • Métiers non-tech : Opus est présenté comme plus à l’aise sur tableurs, docs, présentations — donc une ambition claire d’élargir le public au-delà des devs.
  • Entreprises : la promesse d’agents plus « gouvernables » et plus fiables sur des environnements riches (documents, process, outils), même si tout dépendra du coût réel du long-context et de la maturité du multi-agent en production.

La vraie question, maintenant, n’est plus « est-ce que Claude est bon ? ». C’est : est-ce qu’une équipe d’agents Claude peut devenir un standard de travail, au même titre qu’une suite bureautique — et tenir la charge sans transformer chaque projet en usine à prompts.

Lire plus
Intelligence Artificielle

Gemini « Bonobo » : Google lance l’automatisation d’écran pour commander vos Uber et repas

Gemini « Bonobo » : Google lance l'automatisation d'écran pour commander vos Uber et repas

Pendant longtemps, Gemini a surtout été un assistant conversationnel : il explique, résume, rédige, propose un plan… mais il s’arrête au bord de l’action.

Or, une nouvelle fuite suggère que Google est en train de franchir une marche bien plus ambitieuse : laisser Gemini interagir directement avec l’interface d’apps Android pour exécuter des tâches à votre place — commander, réserver, naviguer, valider. Bref, faire, pas seulement conseiller.

Une fonctionnalité repérée dans la bêta : « Get tasks done with Gemini »

Selon une analyse de la bêta 17.4 de l’app Google, des chaînes de texte décrivent une option Labs intitulée « Get tasks done with Gemini », associée au terme « screen automation » et au nom de code « bonobo ».

Le wording est explicite : Gemini pourrait aider à « placer des commandes » ou « réserver un trajet » en utilisant l’automatisation d’écran dans « certaines apps » présentes sur l’appareil.

Le point clé, c’est la nature de l’intégration : on ne parle pas d’une API officielle à laquelle les apps se branchent, mais d’une approche « ordinateur use » appliquée au mobile : Gemini comprend ce qui est à l’écran et agit (taps, navigation, validation) comme le ferait un utilisateur.

Pourquoi c’est un changement de catégorie

Jusqu’ici, l’IA dans un smartphone, c’était souvent : « je te prépare le message », « je te trouve un itinéraire », « je te propose des options ». Avec la screen automation, on bascule vers une logique d’agent :

  • Vous formulez l’intention (« commande mon habitude du midi », « réserve un VTC pour 18 h »)
  • Gemini exécute le parcours dans l’app
  • Vous surveillez et reprenez la main si besoin

C’est exactement le virage que toute l’industrie vise : réduire l’interface à une intention, et déléguer le « tap tap tap » aux agents.

Supervision et garde-fous : Google insiste sur la responsabilité utilisateur

Les chaînes repérées insistent sur un ton très « prudence » : Gemini peut se tromper, l’utilisateur reste responsable des actions, et il serait possible d’arrêter l’automatisation et de reprendre la main. Plusieurs reprises de la fuite mettent aussi en avant des avertissements sur les informations sensibles (paiement, identifiants).

L’autre élément qui fait réagir : la question des captures d’écran. Dans certains cas, la fonctionnalité pourrait s’appuyer sur des screenshots lors de l’interaction avec les apps, avec la mention qu’ils peuvent être revus (selon réglages/activité) pour améliorer le service. C’est un point qui pèsera lourd dans l’acceptation grand public.

Un indice côté système : une permission « Screen automation » apparaît déjà sur Android 16 (Pixel)

Ce n’est pas qu’une histoire de chaînes de texte. En janvier, 9to5Google rapportait l’apparition d’un élément « Screen automation » dans les autorisations Android 16 QPR3 Beta 2 (notamment sur Pixel 10), décrit comme une capacité à « aider à compléter des tâches en interagissant avec le contenu à l’écran d’autres apps ». Autrement dit : la plomberie système se met aussi en place.

Sur le papier, c’est l’une des fonctions les plus désirables de l’IA :

  • zéro friction pour les tâches répétitives,
  • moins de temps perdu dans des apps qui veulent vous retenir,
  • une accessibilité énorme pour ceux qui ont du mal avec l’UI.

Mais, c’est aussi le terrain le plus délicat : une IA qui clique dans des apps, c’est une IA qui peut valider au mauvais moment, se faire piéger par un écran trompeur, ou agir sur des zones sensibles (réservations, commandes, paramètres). Si Google veut que ça marche, il faudra un équilibre fin : autonomie suffisante pour être utile, contrôle suffisant pour être acceptable.

Pour l’instant, tout indique un déploiement progressif, limité à « certaines apps », probablement via Labs, et avec supervision renforcée.

Lire plus
Intelligence Artificielle

Claude « sans pub » : Anthropic attaque frontalement le modèle ChatGPT… au Super Bowl

Claude « sans pub » : Anthropic attaque frontalement le modèle ChatGPT… au Super Bowl

Le marché des chatbots entre dans sa phase la plus révélatrice : celle où la technologie cesse d’être le sujet, et où le modèle économique devient la vraie ligne de fracture. Anthropic vient de l’assumer publiquement : Claude restera sans publicité, et l’entreprise pousse le message jusqu’au grand spectacle, avec une campagne publicitaire diffusée pendant le Super Bowl qui se moque — sans les nommer — des rivaux qui insèrent des annonces au milieu d’une conversation.

Dans un article au ton presque doctrinal, Anthropic explique vouloir que Claude « agisse sans ambiguïté dans l’intérêt des utilisateurs », et pose une règle : pas de liens sponsorisés à côté des échanges, pas de réponses influencées par des annonceurs, pas de placements produits non sollicités.

L’entreprise insiste sur le conflit d’incitation : un assistant IA censé aider à travailler, réfléchir ou trancher une question sensible (santé, sommeil, stress) devient plus difficile à crédibiliser si une partie de sa valeur dépend de « ce qui se monétise ».

Et, Anthropic garde toutefois une porte entrouverte : si la stratégie devait changer un jour, la société promet d’être transparente sur les raisons.

La pique la plus nette : une campagne Super Bowl qui ridiculise l’IA « avec coupure pub »

Le symbole compte autant que le message : Anthropic diffuse une pub de 30 secondes pendant le Super Bowl (et une version plus longue en avant-match) où des IA humanisées lâchent des pubs au milieu de leurs conseils — une façon de dire : « voilà ce que devient un assistant quand il est financé comme un moteur de recherche ».

oi873IR

C’est aussi un tournant marketing : jusque-là, la plupart des acteurs vendaient la puissance des modèles. Anthropic, lui, vend une idée plus rare : la confiance.

Le contraste est d’autant plus clair que, côté OpenAI, la trajectoire est désormais officielle : l’entreprise a publié une note expliquant qu’elle prévoit de tester des publicités dans ChatGPT pour les utilisateurs Free et Go (au départ aux États-Unis), avec des annonces clairement étiquetées et séparées de la réponse « organique ».

OpenAI affirme également que les annonces n’influenceront pas les réponses et que certaines catégories sensibles seront évitées, tout en laissant comprendre que la pression économique (coûts d’infrastructure, montée en charge) impose d’élargir la monétisation au-delà des abonnements.

La vraie bataille n’est plus « qui est le plus intelligent », mais « qui paie l’assistant »

Deux visions s’affrontent :

  • L’assistant comme produit (abonnement, B2B, licences) : l’utilisateur est le client, la promesse est l’alignement, et la pub devient une contamination potentielle. C’est la posture Anthropic.
  • L’assistant comme plateforme (audience massive, freemium + pub) : l’utilisateur gratuit devient un marché, la croissance est financée par le « reach », et la pub s’encastre autour des réponses. C’est le pari d’OpenAI.

Le risque, c’est la perception : même si une publicité est « séparée », l’assistant reste un objet de confiance, plus intime qu’un réseau social, souvent nourri par des informations personnelles, professionnelles, parfois sensibles. Anthropic joue précisément sur cette anxiété : un chatbot n’est pas un fil d’actualité.

Ce que ça pourrait changer pour les utilisateurs et le marché

Pour les particuliers : la question devient « quel assistant je tolère dans ma vie quotidienne ? » L’absence de pub devient un argument produit, comme le chiffrement ou l’absence de tracking. Pour les entreprises : le débat est encore plus net. Dès qu’une IA touche à des documents internes, du code, des tickets clients, la pub n’est pas seulement une distraction : c’est un signal de modèle économique. Enfin, pour l’industrie, la publicité dans un assistant ouvre un terrain nouveau : attribution, régulation, transparence, et surtout la frontière entre recommandation et influence. OpenAI promet une séparation stricte, Anthropic dit que la séparation n’est pas suffisante.

La guerre des chatbots se déplace donc vers un enjeu très « Web 2.0 », mais avec une intensité différente : ici, l’interface est une conversation, pas une page de résultats.

Lire plus
Intelligence Artificielle

OpenAI Prism : Le nouveau workspace LaTeX qui intègre GPT-5.2 pour les chercheurs

OpenAI Prism : Le nouveau workspace LaTeX qui intègre GPT-5.2 pour les chercheurs

La science avance à coups de percées… mais aussi à coups de tâches ingrates : réécrire un passage, remettre une biblio au carré, réparer une équation, gérer dix versions d’un même PDF entre co-auteurs. OpenAI veut s’attaquer à ce quotidien-là avec Prism, un nouvel espace de travail gratuit pour la rédaction scientifique, natif LaTeX, où GPT-5.2 n’est plus une fenêtre à côté, mais une couche intégrée au document.

L’ambition est claire : faire pour la recherche ce que les interfaces type « éditeur + IA » ont fait pour le code — non pas remplacer l’humain, mais fluidifier l’effort jusqu’à libérer du temps cognitif.

Ce que Prism change : une IA « dans » le papier, pas « à côté »

Dans son annonce, OpenAI présente Prism comme un workspace cloud qui regroupe rédaction, compilation LaTeX, collaboration et préparation à la publication. Le point différenciant, c’est l’IA conscient du projet : GPT-5.2 peut travailler avec la structure du papier, ses équations, ses références et le contexte global — au lieu de répondre à partir d’extraits copiés-collés.

OpenAI revendique ainsi une réponse au grand mal de la recherche moderne : l’éparpillement des outils (éditeur, compilateur, PDFs, gestionnaire de références, chat séparé), qui casse la concentration et dilue le contexte.

OpenAI liste des usages très concrets — et c’est là que Prism prend une saveur « outil de production », pas « démo IA » :

  • Discuter avec GPT-5.2 Thinking pour explorer des idées, tester des hypothèses et raisonner « en contexte ».
  • Rédiger et réviser avec le document complet (texte, équations, citations, figures, structure).
  • Chercher et intégrer de la littérature (OpenAI cite notamment arXiv) directement dans le flux du manuscrit.
  • Créer/refactorer des équations, citations et figures avec une IA qui comprend leurs relations dans le papier.
  • Transformer des équations ou schémas de tableau blanc en LaTeX — un gain de temps énorme sur la mise en forme « pixel par pixel ».
  • Édition « in-place » (modifications directement dans le document) et option de dictée/voice-based editing pour des corrections rapides.
  • Bonus côté workflow : Prism mentionne aussi Zotero (sync / citation search) et des fonctions d’automatisation « image to code »/« voice to code ».

On comprend la philosophie : Prism ne « fait pas la science » à votre place — il réduit la friction autour de la science.

P2 1

Le vrai message : 2026, année de l’IA intégrée aux workflows de recherche

OpenAI l’écrit noir sur blanc : après une année 2025 qui a « changé le développement logiciel », l’entreprise s’attend à une bascule comparable en 2026 côté science, notamment via la réduction des frictions dans le travail de recherche au quotidien.

C’est aussi une stratégie produit : GPT-5.2 est présenté par OpenAI comme particulièrement fort en raisonnement scientifique et mathématique, et Prism devient une manière de packager cette puissance dans une interface pensée pour les usages réels (long-form, équations, biblio, co-écriture).

Autre détail révélateur : Prism « builds on the foundation of Crixet », une plateforme LaTeX cloud acquise par OpenAI, et désormais réassemblée en produit unifié.
Ce n’est pas un prototype : c’est un choix de plateforme.

Prism est gratuit et accessible dès maintenant à toute personne disposant d’un compte ChatGPT personnel, avec projets illimités et collaborateurs illimités (sans « seat limits »). OpenAI indique que Prism arrivera « bientôt » sur les organisations en ChatGPT Business, Enterprise et Education, et précise que des fonctionnalités IA « plus puissantes » seront ajoutées au fil du temps via des plans payants.

Lire plus
Intelligence Artificielle

Guerre des IA : Google test un outil pour « aspirer » vos chats ChatGPT vers Gemini

Guerre des IA : Google test un outil pour « aspirer » vos chats ChatGPT vers Gemini

On change rarement d’assistant IA par plaisir. On change parce qu’un modèle est meilleur en code, parce qu’un autre s’intègre mieux à ses outils — et parce que, parfois, on n’en peut plus de reconstruire le même contexte à chaque migration.

C’est exactement le problème que Google tente de résoudre avec une option bêta repérée dans Gemini : « Import AI chats », pensée pour rapatrier des conversations (dont celles de ChatGPT) et les reprendre sans repartir de zéro.

Un import « brut » : un simple upload, pas un assistant de migration

Le détail le plus révélateur n’est pas la promesse — c’est l’interface. D’après les observations relayées par TestingCatalog, l’import apparaît dans le menu de pièces jointes/« + » de Gemini, comme une fonction d’upload : vous exportez vos chats d’un autre service, vous envoyez le fichier, puis Gemini ré-attache le contexte à une conversation importée.

C’est un choix produit assumé : Google ne cherche pas (encore) à faire une « migration guidée » avec connexions de comptes et synchronisation automatique. Il vise un geste simple, destiné à ceux qui basculent activement… et veulent garder leurs fils de discussion « vivants ».

Pourquoi c’est stratégique : Google veut rendre le switching enfin « réversible »

Ce type d’import répond à une friction très concrète : l’enfermement par l’historique. Une fois que vous avez des mois de prompts, de correctifs, de décisions et de contexte projet dans un assistant, changer d’outil devient coûteux.

C’est aussi pour ça que l’option est décrite comme un outil de « continuité » : conserver le passé pour accélérer le présent.

Les fuites évoquent d’ailleurs un import depuis plusieurs assistants concurrents, pas uniquement ChatGPT.

Google Gemini 01 30 2026 12 33 A

Le vrai prix : votre historique devient de l’activité Gemini (et peut entraîner les modèles)

Là où la fonctionnalité cesse d’être « juste pratique », c’est dans la couche de données.

Google précise, plus largement dans ses pages de confidentialité Gemini, que si l’activité est conservée (» activité Gemini »), certains contenus peuvent être utilisés pour améliorer les services Google, y compris les modèles d’IA.

Appliqué à un import massif, ça veut dire une chose simple : vous ne transférez pas seulement du contexte… vous transférez aussi de la matière potentiellement réutilisable (selon vos réglages). Et, mécaniquement, plus votre archive est riche, plus l’enjeu de tri devient réel.

Ce qui manque encore : formats, disponibilité, portée du déploiement

Pour l’instant, l’option est repérée en bêta, sans confirmation publique d’un calendrier, des pays concernés, ni des formats exacts acceptés (JSON, HTML, ZIP, etc.).

En clair : l’idée est là, l’UI aussi — mais on ne sait pas encore à quel point Google va l’ouvrir (web vs mobile, comptes gratuits vs payants, régions, limites de taille…).

Le bon réflexe si vous voulez être prêt

Sans attendre la sortie officielle, vous pouvez faire trois choses « sans regret » :

  1. Exporter votre historique depuis votre assistant actuel (et le stocker localement).
  2. Élaguer avant import : retirez identifiants, clés API, données perso, extraits sensibles (dépôts privés, contrats, logs, tickets clients).
  3. Vérifier vos réglages d’activité Gemini avant l’upload, pour décider si vous acceptez que ce contenu soit conservé et potentiellement utilisé pour l’amélioration des modèles.

Lire plus