fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Gemini : Google lance Lyria 3, un générateur de musique IA à partir de texte, photo ou vidéo

Gemini : Google lance Lyria 3, un générateur de musique IA à partir de texte, photo ou vidéo

Après l’image (et le phénomène viral autour de Nano Banana), Google pousse Gemini un cran plus loin : Lyria 3, le modèle de génération musicale de DeepMind, débarque dans l’app Gemini avec une promesse très grand public — créer des morceaux de 30 secondes à partir d’un simple texte… ou carrément d’une photo et même d’une vidéo.

L’objectif est limpide : faire de Gemini un atelier créatif tout-en-un où l’on passe de l’idée au contenu partageable sans quitter la conversation.

Lyria 3, c’est quoi exactement ?

Lyria 3 est présenté par Google DeepMind comme son modèle de génération musicale le plus avancé, conçu pour produire des pistes « haute fidélité » et couvrir de nombreux styles, avec la possibilité d’ajouter paroles et voix (lyrics & vocals) selon les cas d’usage.

Dans Gemini, l’usage est pensé comme un « outil » : vous décrivez un genre, une ambiance, un tempo, un thème — et le modèle génère une boucle/morceau court que vous pouvez réutiliser comme jingle, fond sonore ou « mini-track » pour un post.

Ce qui distingue Lyria 3 dans Gemini, c’est le côté vibe-matching :

  • prompt texte → musique
  • image ou vidéo → musique qui colle à l’atmosphère visuelle, avec des paroles si vous le souhaitez (ou instrumentale).

C’est une bascule : on ne demande plus seulement à l’IA de « composer », on lui demande de traduire une scène en bande-son. Et c’est exactement le type de feature qui alimente les usages TikTok/Shorts/Reels.

Disponibilité : déploiement global, mais cadré

Google indique que la fonctionnalité arrive en bêta dans Gemini, avec un déploiement large accessible aux utilisateurs 18+, et disponible « globalement », avec une première liste de langues (dont le français).

Google sait que la musique générée est un terrain miné. Sa réponse : SynthID, un watermark imperceptible intégré aux contenus, ici appliqué à l’audio généré via Gemini. Google affirme que toutes les pistes créées via cette fonction sont marquées, et Gemini peut aussi aider à détecter si un fichier audio contient ce watermark. DeepMind détaille d’ailleurs que SynthID vise à rester robuste face à des transformations courantes (compression, bruit, changement de vitesse).

Côté garde-fous, Google dit aussi chercher à éviter l’imitation directe d’artistes, un sujet qui a déjà explosé avec d’autres acteurs de la génération musicale.

Google vise l’usage « social » plus que la production pro

Le format 30 secondes est un indice fort : ce n’est pas une DAW, c’est un générateur de morceaux courts, réutilisables, shareables. Autrement dit, Google courtise moins les compositeurs que les créateurs de contenus, les petites équipes marketing, et tous ceux qui veulent une musique « à moi » sans passer par une librairie.

Et c’est aussi une façon de repositionner Gemini : plus qu’un assistant, un studio multimodal, où texte + image + vidéo + audio deviennent des matières interchangeables.

Lire plus
Intelligence Artificielle

Claude Sonnet 4.6 : L’intelligence de pointe devient le standard par défaut

Claude Sonnet 4.6 : L'intelligence de pointe devient le standard par défaut

En 2026, l’IA ne se juge plus seulement à la qualité d’une réponse, mais au coût d’un flux continu : des agents qui planifient, appellent des outils, lisent des documents, naviguent des interfaces et écrivent du code… toute la journée.

Avec Claude Sonnet 4.6, Anthropic vise précisément ce point de friction : un modèle Claude plus compétent, au même tarif, pensé pour devenir le moteur par défaut des usages « qui tournent en production ».

Claude Sonnet 4.6 : un upgrade complet… sans hausse de prix

Anthropic présente Claude Sonnet 4.6 comme une mise à niveau transversale : code, « computer use », raisonnement long contexte, planification agentique, travail de bureau, design — avec une fenêtre de contexte 1 million de tokens (bêta). Le modèle devient aussi le choix par défaut dans claude.ai et Claude Cowork, y compris pour les offres Free/Pro.

Et, le détail qui compte : la tarification API reste à 3/15 dollars par million de tokens (entrée/sortie), comme Claude Sonnet 4.5.

1206645ef5a618dabce8587b472b21c67a30a0db 3840x1948 1 scaled

Beaucoup de commentaires comparent Sonnet à l’ancienne ère « Opus à 15/75 dollars ». Ce tarif existe bien… mais pour des modèles Opus plus anciens (Opus 4/4,1).

Donc, l’histoire n’est pas « Sonnet remplace Opus à 1/5 du prix » dans l’absolu : l’écart est plutôt d’environ 1,67× sur les tarifs de base (5→3 et 25→15). Là où l’effet peut devenir très réel, en revanche, c’est quand Claude Sonnet 4.6 évite de monter en gamme sur des workflows agentiques à très gros volumes — et c’est exactement le positionnement d’Anthropic.

Les chiffres qui racontent le moment : « computer use » devient enfin un KPI business

10b2602771d21378cd6d76628a081c8a76dcf216 2600x2960 1 scaled

Sur la capacité « computer use », Anthropic met en avant OSWorld-Verified et décrit une progression rapide depuis l’introduction de la fonctionnalité en 2024, avec une amélioration de la résistance aux attaques de type prompt injection. La nouvelle itération obtient un score de 72,5.% sur OSWorld-Verified, ce qui constitue un saut qualitatif « en conditions réelles » (formulaires web multi-étapes, tableurs complexes).

8c2855afe51fc0980596b5369b01b0b87eea7eaf 3840x2160 1 scaled

Côté dev, Anthropic affirme que dans Claude Code, les testeurs ont préféré Claude Sonnet 4.6 à Claude Sonnet 4.5 environ 70 % du temps, et même à Opus 4.5 environ 59 % du temps, avec moins « d’overengineering » et plus de suivi d’instructions.

L’ère du « modèle premium » recule… au profit du « modèle par défaut »

Le mouvement est clair : Anthropic veut réduire la distance entre capacité de pointe et capacité rentable. On peut l’analyser comme une stratégie de « rétrécissement de l’écart » entre premium et mainstream, en faisant de meilleures performances le standard, y compris pour les utilisateurs gratuits.

Dans un monde où l’IA devient un moteur d’agents (support, BI, docs, automatisation, code review), le vrai luxe, c’est la stabilité au bon prix : un modèle assez fort pour « tenir » des chaînes d’actions, assez prévisible pour passer en prod, assez abordable pour tourner toute la journée.

Autrement dit, Claude Sonnet 4.6 n’est pas seulement une version de plus. C’est un signal de marché. Quand le modèle « milieu de gamme » devient suffisamment bon pour absorber la majorité des cas d’usage, le premium change de rôle : il devient l’outil des extrêmes (très long contexte, tâches difficiles, exigences de conformité), pas le réflexe par défaut.

Lire plus
Intelligence Artificielle

ChatGPT : à quoi sert Lockdown Mode, le nouveau mode haute sécurité d’OpenAI ?

ChatGPT : à quoi sert Lockdown Mode, le nouveau mode haute sécurité d’OpenAI ?

L’IA devient plus utile quand elle peut naviguer, manipuler des fichiers, exécuter des étapes complexes. Mais c’est aussi là que la surface d’attaque s’élargit. Avec Lockdown Mode, OpenAI propose un bouton « sécurité maximale » qui réduit volontairement les capacités de ChatGPT — pour les personnes et organisations exposées à des menaces avancées.

Un mode « paranoïa productive », pas un réglage grand public

OpenAI le dit sans détour : la plupart des utilisateurs n’en ont pas besoin. Lockdown Mode est conçu pour les profils à risque numérique élevé (journalistes, activistes, équipes sécurité, environnements sensibles), où une attaque par manipulation (notamment via contenus Web) peut avoir des conséquences graves.

L’objectif est clair : réduire la « surface d’attaque » en limitant ce que ChatGPT peut faire « vers l’extérieur », même si cela dégrade l’expérience.

Lockdown mode dark mode

Ce que Lockdown Mode change concrètement

OpenAI liste une série de restrictions déterministes (pas « au cas par cas ») :

  • Navigation Web : accès limité à du contenu en cache (pas de requêtes live), pour éviter qu’un site malveillant pousse le modèle à transmettre des données sensibles.
  • Images dans les réponses : désactivées, mais vous pouvez toujours uploader des images et continuer à utiliser la génération d’images.
  • Deep Research : désactivé.
  • Agent Mode : désactivé.
  • Canvas : impossible d’approuver du code généré pour accéder au réseau.
  • Téléchargement de fichiers par ChatGPT pour analyse : bloqué (les fichiers que vous uploadez manuellement restent utilisables).

Moins d’outils, moins d’autonomie, moins de « ponts » vers l’extérieur.

Lockdown Mode est actuellement proposé sur les offres ChatGPT Enterprise, ChatGPT Edu, ChatGPT for Healthcare et ChatGPT for Teachers. OpenAI indique vouloir l’étendre aux offres grand public et Team « dans les prochains mois ».

Lockdown Mode Blog inline scaled

Côté entreprise, le réglage se gère au niveau workspace : les admins peuvent créer un rôle dédié et l’assigner à des utilisateurs spécifiques, sans imposer ces restrictions à toute l’organisation.

Pourquoi c’est plus important que ça en a l’air

Lockdown Mode reconnaît une réalité devenue centrale en 2026 : le risque ne vient pas seulement de « mauvaises réponses », mais de l’orchestration (outils, navigation, connecteurs, exécution). Plus ChatGPT ressemble à un opérateur capable d’agir, plus il faut des modes « sûrs » et lisibles.

C’est aussi un signal de maturité produit : OpenAI traite la sécurité comme un mode d’exploitation, pas juste comme une promesse abstraite. Pour les équipes qui déploient des assistants sur des données internes, cette granularité (qui a droit à quoi) devient un vrai levier de gouvernance.

Lire plus
Intelligence Artificielle

Anthropic ouvre un bureau à Bengaluru : Claude accélère en Inde, entre IA « responsable », startups et services publics

Anthropic ouvre un bureau à Bengaluru : Claude accélère en Inde, entre IA « responsable », startups et services publics

Anthropic ne se contente plus d’exporter Claude : l’entreprise veut désormais s’ancrer. Avec l’ouverture d’un bureau à Bengaluru, la société derrière l’assistant Claude officialise sa deuxième grande base asiatique après Tokyo, et assume un pari clair : l’Inde est déjà un marché central, et pas seulement une réserve de talents.

Bengaluru, nouvelle tête de pont : l’Inde devient le marché n° 2 de Claude

Anthropic confirme que l’Inde est devenue le deuxième plus gros marché de Claude.ai, derrière les États-Unis, et confie la direction locale à Irina Ghose, nommée Managing Director India.

Le signal est aussi économique : l’entreprise dit que ses revenus annualisés en Inde ont doublé depuis l’annonce d’expansion d’octobre 2025 — un message repris publiquement par le CEO Dario Amodei lors d’un événement à Bengaluru.

Dans sa déclaration, Ghose déroule la vision maison : une IA « responsable » qui doit se diffuser à grande échelle, portée par l’infrastructure numérique et le vivier d’ingénieurs indiens.

Un usage très « tech » : Claude, d’abord outil d’ingénierie

Ce qui frappe, c’est la nature de l’adoption. Anthropic explique que près de la moitié de l’usage de Claude en Inde concerne des tâches informatique et mathématiques : construction d’applications, modernisation de systèmes, livraison de logiciels en production. Autrement dit, l’Inde ne consomme pas Claude comme un gadget conversationnel, mais comme un outil de production, particulièrement via Claude Code.

C’est aussi ce qui structure l’ouverture du bureau : Anthropic promet des équipes dédiées à l’« applied AI » pour accompagner grands comptes, digital natives et startups sur des cas d’usage concrets.

Anthropic aligne une liste de cas d’adoption qui raconte une stratégie « plateforme » :

  • Air India utilise Claude Code pour accélérer le déploiement de logiciels internes et déployer des agents IA dans ses opérations.
  • CRED revendique x2 sur la vitesse de livraison de fonctionnalités et +10 % de couverture de tests avec Claude Code.
  • Cognizant déploie Claude auprès de 350 000 employés pour moderniser des systèmes legacy et soutenir l’adoption IA chez ses clients.
  • Swiggy s’appuie sur le Model Context Protocol (MCP) pour permettre de commander des courses ou réserver au restaurant « via Claude ».

En filigrane, c’est une bataille d’écosystème : Anthropic pousse MCP comme « couche » d’intégration standard, et rappelle l’avoir donné à la Linux Foundation (via la nouvelle Agentic AI Foundation).

Localisation : dix langues indiennes, et des évaluations « ancrées terrain »

Anthropic attaque aussi un point sensible : l’écart de performance des modèles entre l’anglais et les langues locales. L’entreprise dit avoir lancé, six mois plus tôt, un effort pour améliorer la qualité des données d’entraînement sur 10 langues (hindi, bengali, marathi, télougou, tamoul, pendjabi, gujarati, kannada, malayalam, ourdou).

Surtout, elle annonce un chantier d’évaluations contextualisées avec Karya et le Collective Intelligence Project, nourries par des acteurs de terrain comme Digital Green (agri) et Adalat AI (justice), avec l’intention de publier ces évaluations. C’est un choix stratégique : si l’IA veut sortir des démos, elle doit être mesurée sur des tâches réelles, dans des contextes réels — pas seulement sur des benchmarks occidentaux.

Éducation et secteur public : l’IA comme service, pas comme vitrine

Le volet « impact » est très mis en avant. Anthropic indique que les tâches éducatives représentent 12 % de l’usage de Claude.ai en Inde, et cite un pilote avec Pratham : l’« Anytime Testing Machine » est testée auprès de 1 500 élèves dans 20 écoles, avec une extension visée à 100 écoles d’ici fin 2026.

Côté secteur public, l’annonce la plus structurante concerne les infrastructures numériques : le ministère MoSPI, avec Bharat Digital, a lancé un serveur MCP gouvernemental pour requêter des statistiques nationales via des systèmes IA.

Anthropic cite aussi EkStep (agriculture via OpenAgriNet) et Adalat AI (hotline WhatsApp nationale pour accès aux services judiciaires, traduction et synthèse).

L’Inde, laboratoire d’une IA « à grande échelle »

Ce mouvement dit quelque chose de plus large : la compétition IA ne se joue plus seulement sur « le meilleur modèle », mais sur l’atterrissage — intégrations, standards, cas d’usage, langue, distribution, confiance.

En s’installant à Bengaluru, Anthropic cherche à faire de l’Inde un double levier : un marché où Claude devient un outil de travail (code, modernisation, agents), et un terrain de vérité pour la localisation (langues, droit, agriculture, éducation), là où l’IA est immédiatement confrontée à la complexité du réel.

Si l’entreprise tient sa promesse de benchmarks publics et d’intégrations ouvertes, elle ne « vend » pas seulement Claude : elle tente d’imposer une méthode. Et en 2026, c’est peut-être la méthode — plus que le modèle — qui fera la différence.

Lire plus
Intelligence Artificielle

OpenAI recrute le créateur de OpenClaw : Sam Altman accélère sur les agents personnels et le multi-agent

OpenAI recrute le créateur de OpenClaw : Sam Altman accélère sur les agents personnels et le multi-agent

Le message est tombé directement sur X, signé Sam Altman : Peter Steinberger, développeur solo à l’origine de Moltbot, devenu Clawdbot, puis OpenClaw, rejoint OpenAI pour « piloter la prochaine génération d’agents personnels ».

Altman insiste : « the future is going to be extremely multi-agent » — et cette capacité d’agents à collaborer deviendra rapidement centrale dans les produits OpenAI.

Derrière l’annonce, un mouvement plus profond se dessine : OpenAI ne veut plus seulement être « le meilleur modèle », mais l’OS des agents.

Un créateur viral, un projet qui reste open source… mais sous fondation

Selon Reuters, Steinberger rejoint OpenAI, tandis que OpenClaw continuera d’exister en open source, transféré dans une fondation indépendante soutenue par OpenAI.

C’est une formule hybride : OpenAI récupère le talent et l’impulsion « builder », tout en évitant l’accusation classique d’absorber puis d’étouffer un projet communautaire.

OpenClaw n’est pas qu’un « agent de plus ». C’est l’un des premiers projets à avoir rendu l’agentique désirable pour le grand public : une interface de type chat, des actions sur l’ordinateur, une promesse d’automatisation concrète (messages, tâches, apps), et surtout une approche « maker » qui a fait boule de neige.

Les chiffres cités dans plusieurs couvertures — plus de 100 000 stars GitHub et une traction fulgurante — ont installé OpenClaw comme le produit qui a « rendu réel » ce que beaucoup décrivaient encore comme une démo.

Et, Steinberger lui-même revendique un choix très clair : ne pas rejouer la construction d’une entreprise. Il veut livrer l’impact, pas gérer l’infrastructure, les RH et les levées de fonds.

L’agentique explose… et la sécurité suit (de très près)

Le succès d’OpenClaw a aussi mis en lumière un talon d’Achille structurel : l’écosystème d’extensions/skills. Des médias spécialisés ont rapporté la découverte de centaines de « skills » malveillants publiés sur ClawHub — typiquement le genre d’attaque supply chain qui profite d’une ruée communautaire et d’un contrôle encore immature.

C’est le point que tout le monde va surveiller maintenant : quand un agent peut agir sur des fichiers, des sessions et des comptes, le magasin d’extensions devient une zone à haut risque. Et si OpenAI veut faire du multi-agent un « core product », il lui faut un modèle de permissions, de vérification et d’audit plus robuste que la première vague agentique.

OpenAI veut passer du « chat intelligent » au « réseau d’agents »

Altman ne parle pas d’un agent plus bavard. Il parle d’agents qui interagissent entre eux. C’est une bascule de produit majeure :

  • Un agent = un copilote.
  • Plusieurs agents = une organisation : planification, délégation, vérification croisée, exécution parallèle.

C’est aussi un pari sur la prochaine interface : moins de « prompt », plus de workflows. Un agent rédige, un autre cherche, un troisième exécute, un quatrième vérifie. Et l’utilisateur ne voit plus une conversation : il voit un résultat.

Steinberger arrive précisément avec cette culture : l’agent qui agit, pas seulement le modèle qui répond.

OpenAI vient de recruter un symbole de l’agentique « utile ». Reste à voir si l’entreprise saura industrialiser cette promesse sans industrialiser ses risques.

Lire plus
Intelligence Artificielle

ChatGPT tourne une page : OpenAI retire GPT-4o et plusieurs modèles « historiques »

ChatGPT tourne une page : OpenAI retire GPT-4o et plusieurs modèles « historiques »

C’est un ménage de printemps… en plein hiver. À partir d’aujourd’hui, 13 février 2026, OpenAI retire de l’interface ChatGPT plusieurs anciens modèles, dont GPT-4o, GPT-4.1, GPT-4.1 mini et o4-mini — en plus des retraits déjà annoncés de certaines variantes GPT-5 (Instant, Thinking).

Sur le papier, c’est un simple changement de menu. Dans les usages, c’est une bascule : fin d’une époque où l’on choisissait un « style » de modèle autant qu’une performance brute.

Ce qui change concrètement dans ChatGPT

Ces modèles ne sont plus sélectionnables dans le sélecteur de modèles de ChatGPT à partir du 13 février.

Vos conversations existantes ne « cassent » pas : elles basculent automatiquement sur un modèle plus récent (typiquement la famille GPT-5.x/GPT-5.2), sans action de l’utilisateur.

Côté API, pas de changement immédiat, OpenAI précisant que cette décision vise l’expérience ChatGPT, pas les intégrations développeurs — du moins pour l’instant.

Toutefois, OpenAI ajoute des nuances importantes : ChatGPT Enterprise conservera l’accès aux modèles GPT-5 jusqu’au 19 février 2026, et GPT-5 Pro restera disponible pour les abonnés payants jusqu’à la même date.

Autre détail qui compte pour les power users : l’aide OpenAI indique aussi un maintien temporaire de GPT-4o dans certains contextes de Custom GPTs (selon les plans), avec une échéance ultérieure évoquée dans des communications reprises sur les réseaux.

Pourquoi OpenAI « débranche » GPT-4o, alors qu’il était encore adoré ?

Officiellement, OpenAI justifie la décision par un raisonnement classique de plateforme : réduire la fragmentation, limiter le coût de maintenance/sécurité de modèles peu utilisés, et concentrer la R&D sur les générations actuelles. OpenAI reconnaît aussi que GPT-4o avait une personnalité et une chaleur auxquelles certains tenaient, et affirme que ces retours ont influencé les options de personnalité et de personnalisation sur les modèles plus récents.

Mais, l’onde émotionnelle est réelle — et documentée. Plusieurs médias racontent une communauté qui vivait GPT-4o comme un compagnon créatif ou affectif, au point de parler de « deuil » numérique.

Ce que cette décision révèle sur le futur de ChatGPT

Cette retraite dit deux choses, assez claires :

  1. Le modèle devient une « couche » interchangeable, moins une identité. OpenAI veut que l’expérience ChatGPT soit plus stable, moins « à la carte », avec un socle récent par défaut.
  2. La personnalité est désormais un produit, pas un accident heureux. GPT-4o était célèbre pour son ton, parfois jugé trop complaisant — certains articles évoquent d’ailleurs le débat sur la « sycophancy » et les garde-fous des modèles récents.

En filigrane, OpenAI assume une logique : moins de modèles dans l’interface, plus d’options de style à l’intérieur d’un même modèle. Une façon de garder le meilleur des deux mondes : de la cohérence côté maintenance, et de la variété côté expérience.

Lire plus
Intelligence Artificielle

Gemini 3 Deep Think : Google met à jour son mode de raisonnement pour la science, la recherche et l’ingénierie

Gemini 3 Deep Think : Google met à jour son mode de raisonnement pour la science, la recherche et l’ingénierie

Google vient de publier une mise à jour majeure de Gemini 3 Deep Think, son mode de raisonnement le plus spécialisé, pensé pour les problèmes qui résistent aux approches « chatbot » classiques : données incomplètes, contraintes floues, multiples solutions plausibles — bref, la vraie vie des labos et des équipes d’ingénierie.

Ce qui change avec cette version, c’est autant la promesse (un outil plus utile dans des workflows scientifiques concrets) que la stratégie de distribution : Deep Think est désormais accessible dans l’app Gemini pour les abonnés Google AI Ultra, et, pour la première fois, arrive dans le Gemini API via un programme d’accès anticipé.

Une IA conçue pour les problèmes « sales »

Google insiste : Deep Think a été « raffiné » en collaboration avec des scientifiques et des chercheurs pour traiter des défis où il n’y a pas de garde-fous clairs ni de réponse unique, et où les données sont « messy » ou incomplètes. L’idée est de combiner connaissance scientifique et utilité d’ingénierie pour produire des sorties actionnables.

Et pour rendre ça tangible, Google met en avant trois cas d’usage d’early testers :

  • Relecture mathématique : la mathématicienne Lisa Carbone (Rutgers) a utilisé Deep Think pour relire un papier très technique ; le modèle aurait détecté une faille logique subtile passée sous le radar de la relecture humaine.
  • Science des matériaux : le Wang Lab (Duke) l’aurait utilisé pour optimiser des méthodes de croissance cristalline, avec une « recette » permettant d’obtenir des films fin > 100 μm.
  • Design industriel/composants : Anupam Pathak (Google Platforms & Devices) l’aurait testé pour accélérer la conception de composants physiques.

gemini 3 deep think evals charts scaled

Des scores qui servent de vitrine : math, code… et olympiades

Google replace aussi Deep Think dans la course aux benchmarks « durs » — ceux qui sont censés mesurer une forme de raisonnement robuste :

  • Humanity’s Last Exam : 48,4 % (sans outils)
  • ARC-AGI-2 : 84,6 % (score indiqué comme vérifié par l’ARC Prize Foundation)
  • Codeforces : Elo 3455
  • International Math Olympiad 2025 : performance « niveau médaille d’or »

gemini 3 deep think evals table

L’article précise que le modèle progresse aussi sur des domaines scientifiques : résultats « niveau médaille d’or » sur les parties écrites des Olympiades internationales 2025 de physique et chimie, et 50,5 % sur le CMT-Benchmark en physique théorique avancée.

Derrière « Deep Think », une idée plus large : l’agent de recherche

Le point le plus intéressant — et le plus « DeepMind » — est peut-être ailleurs : Google décrit comment Deep Think alimente déjà des approches agentiques en mathématiques, dont un agent interne baptisé Aletheia. Cet agent combine génération, vérification en langage naturel et itérations (révision/retry), et peut même « admettre l’échec » pour éviter de perdre du temps à s’entêter.

C’est un indice fort : Google ne vend pas seulement un modèle plus intelligent, mais une méthode de travail (générer → vérifier → corriger) qui colle aux exigences du raisonnement scientifique.

Le « premium » se déplace vers l’inférence

Avec Deep Think, Google pousse une logique de plus en plus visible dans l’IA grand public : la différenciation ne se joue pas uniquement sur « le modèle », mais sur le mode (raisonnement approfondi, plus coûteux) et sur l’intégration (API, workflows, agents). D’où l’accès réservé : Ultra d’un côté, « early access » de l’autre.

En creux, c’est aussi une annonce tournée vers les entreprises et la recherche : si Deep Think est réellement performant sur des tâches ambiguës et « sales », il devient moins un outil de démonstration qu’une brique de productivité — à condition d’avoir les garde-fous (traçabilité, validation, reproductibilité) que ces milieux exigent.

Lire plus
Intelligence Artificielle

OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia)

OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia)

Il y a des annonces qui parlent de puissance brute, et d’autres qui trahissent une obsession plus subtile : le temps de réponse. Jeudi, OpenAI a dévoilé GPT-5.3-Codex-Spark, une variante « allégée » de son modèle de code, pensée pour des boucles d’édition quasi instantanées — et surtout, servie sur l’infrastructure de Cerebras, un partenaire inédit hors du monopole de fait des GPU Nvidia.

GPT-5.3-Codex-Spark : un modèle taillé pour l’itération en temps réel

OpenAI présente GPT-5.3-Codex-Spark comme son premier modèle explicitement conçu pour le « codage en temps réel » : moins de lourdeur, plus de fluidité, pour que l’assistant suive le rythme d’un développeur qui itère vite. La promesse est spectaculaire : 15× plus rapide, avec une sensation « quasi instantané ». OpenAI va même jusqu’à évoquer plus de 1 000 tokens/seconde dans ses conditions optimales.

Le revers est assumé : sur des benchmarks comme SWE-Bench Pro et Terminal-Bench 2.0, Codex-Spark fait moins bien que le GPT-5.3-Codex complet. Autrement dit, il sera moins à l’aise pour des tâches longues, multi-étapes, très « agentiques », mais plus efficace pour la collaboration interactive (corrections, refactorisation, tests rapides, dialogues de code).

SWE Bench Pro 1

À l’usage, le modèle arrive avec un contexte 128 000 tokens et reste seulement en mode texte (pas d’image, pas de multimodal). Il est proposé en research preview aux abonnés ChatGPT Pro via l’app Codex, le CLI et l’extension VS Code, tandis que l’API est réservée à un petit groupe de « design partners » au départ.

Pourquoi Cerebras : casser les goulets d’étranglement de l’inférence ?

Ce lancement n’est pas qu’une histoire de modèle : c’est une histoire de silicium. Cerebras vend une thèse simple : pour l’inférence à faible latence, ses systèmes « wafer-scale » réduisent les coûts cachés de la distribution sur clusters GPU (communication inter-puces, orchestration, overhead).

La WSE-3 (Wafer-Scale Engine 3) — la vitrine technologique de Cerebras — revendique 4 000 milliards de transistors et une logique « simplicité d’un seul appareil » qui vise précisément ces workflows où chaque milliseconde compte.

Dans la narration officielle, OpenAI marche sur un fil : « les GPU restent fondamentaux », mais Cerebras « complète » l’ensemble pour les cas d’usage ultra-réactifs. Une formulation prudente… qui ressemble à de la diplomatie industrielle.

OpenAI dit aussi avoir accéléré toute sa pile d’inférence — même hors Cerebras

Autre détail révélateur : OpenAI ne limite pas sa « chasse à la latence » au matériel. Sur la même annonce, l’entreprise affirme avoir optimisé sa stack (sessions, streaming, transport) via WebSocket persistent et optimisations dans la Responses API :

  • -80 % d’overhead par aller-retour client/serveur
  • -30 % d’overhead par token
  • -50 % sur le time-to-first-token

Ainsi, GPT-5.3-Codex-Spark est le produit-vitrine, mais l’objectif est plus large — rendre l’expérience Codex plus « temps réel » partout, y compris sur l’infra GPU classique.

Le vrai sous-texte : OpenAI diversifie ses puces au moment où l’axe Nvidia se refroidit

Si cette alliance compte, c’est parce qu’elle arrive après un gros mouvement stratégique : OpenAI et Cerebras ont annoncé en janvier un accord pluriannuel portant sur jusqu’à 750 MW de capacité « ultra low-latency », déployée en plusieurs phases.

Et ce virage se lit aussi en creux côté Nvidia. Fin janvier, Reuters rapportait que le projet d’investissement Nvidia « jusqu’à 100 milliards de dollars » dans OpenAI aurait ralenti/calé, avant que Jensen Huang ne minimise publiquement tout « drama ».

Ajoutez à cela les partenariats annoncés avec AMD (déploiements de GPU à partir de 2026) et les travaux avec Broadcom sur des accélérateurs custom, et la trajectoire devient limpide : OpenAI veut éviter la dépendance à un seul fournisseur, surtout sur l’inférence.

Dans un contexte électrique : pubs, Pentagone, et remous internes

Ce lancement technique se produit aussi au milieu d’une séquence politique et réputationnelle chargée.

OpenAI vient de démarrer un test de publicités dans ChatGPT (Free et Go, aux États-Unis), avec la promesse que les annonces n’influencent pas les réponses. La société a également officialisé le déploiement d’une version de ChatGPT sur GenAI.mil pour des usages non classifiés du Département de la Défense.

Dans ce décor, GPT-5.3-Codex-Spark ressemble autant à une innovation produit qu’à un message : OpenAI veut reprendre l’initiative sur l’expérience — et prouver que la compétition se jouera désormais sur la sensation d’usage, pas uniquement sur la taille des modèles.

Ce que ça change pour les développeurs (si la promesse tient)

La question finale est presque prosaïque : est-ce que « plus rapide » veut dire « plus productif » ? OpenAI parie que oui : quand la latence s’effondre, l’assistant cesse d’être une « requête » et devient un partenaire d’itération — un co-pilote qui suit la cadence du clavier.

Si l’inférence ultra-faible latence se généralise, le gagnant ne sera pas forcément celui qui écrit le meilleur code « en une fois », mais celui qui rend l’aller-retour humain-IA addictivement fluide. Et, dans cette course, Cerebras vient d’obtenir son premier rôle grand public.

Lire plus
Intelligence Artificielle

Data centers : Anthropic veut devenir le « bon voisin » énergétique de l’Amérique

Data centers IA : Anthropic promet de payer vos factures d'électricité (ou presque)

Les data centers ne sont plus seulement un sujet de puissance de calcul : ce sont devenus des objets politiques. Aux États-Unis, la hausse des tarifs d’électricité alimente la colère des électeurs, et les projets de sites IA — gourmands en énergie — se heurtent de plus en plus souvent à l’opposition locale.

Dans ce climat, Anthropic annonce une promesse très lisible : ne pas laisser les riverains financer, via leurs factures, les coûts de raccordement et de renforcement du réseau.

Couvrir 100 % des coûts d’upgrade réseau… y compris ceux qui finiraient chez les particuliers

Dans son annonce, Anthropic affirme qu’elle paiera des charges mensuelles plus élevées afin de couvrir l’intégralité des mises à niveau nécessaires pour connecter ses data centers aux réseaux électriques — y compris les parts qui seraient autrement répercutées sur les consommateurs.

Mais, il y a une zone grise assumée : Anthropic ne détaille pas (encore) les accords concrets conclus avec les fournisseurs ou opérateurs d’énergie pour tenir cette promesse.

Ce positionnement arrive après un signal fort : en novembre 2025, Anthropic a officialisé un plan d’investissement de 50 milliards de dollars pour bâtir des data centers aux États-Unis — Texas et New York en point de départ, « avec d’autres sites à venir ».

En parallèle, le contexte se durcit : la construction de data centers « IA » est perçue, localement, comme un risque de concurrence sur la capacité électrique, de pression sur les prix, et de vulnérabilité accrue lors d’épisodes extrêmes (pics de froid/chaleur). C’est aussi ce qui pousse des projets à être retardés, ou contestés.

Le package « bonne conduite » : nouvelles sources d’énergie et réduction de conso lors des pics

Anthropic ajoute deux leviers, très révélateurs de la bataille à venir :

  1. Soutenir l’arrivée de nouvelles capacités de production (pour éviter d’absorber la marge déjà tendue du réseau).
  2. Accepter de réduire sa consommation aux heures de pointe — une logique de « demand response » qui peut soulager le réseau lors d’une tempête hivernale ou d’une vague de chaleur.

Dit autrement : Anthropic ne promet pas seulement de payer, elle promet aussi de se comporter comme un acteur pilotable — un client industriel qui s’adapte au réseau plutôt que de l’écraser.

Le secteur comprend que « l’acceptabilité sociale » devient une contrainte produit

Cette annonce s’inscrit dans une tendance plus large : Microsoft a récemment présenté une initiative « community-first » avec un engagement explicite à « payer sa part » pour éviter d’augmenter les prix de l’électricité dans les zones où ses data centers s’implantent. Et Meta, de son côté, martèle de plus en plus l’idée qu’elle assume le coût de l’énergie consommée par ses sites et planifie la demande avec les fournisseurs — une façon de désamorcer, là aussi, l’argument « ils font grimper nos factures ».

Cependant, la vraie question n’est pas la formule. C’est l’exécution. Qui paie quoi, exactement ? Le diable est dans les mécanismes tarifaires et la manière dont les investissements réseau sont amortis. Anthropic affiche l’intention, mais ne donne pas encore la cartographie des accords. Quels garde-fous vérifiables ? Sans indicateurs, audits, ou cadres publics, la promesse reste — pour l’instant — une déclaration de principe. Quelle logique de long terme ? Si la demande IA continue d’exploser, l’économie politique du data center va se déplacer : ce ne sera plus « peut-on construire ? », mais « à quelles conditions pour le réseau, l’eau, et le prix final pour les ménages ? ».

Anthropic a compris une chose simple : en 2026, le calcul ne suffit plus. Il faut aussi convaincre. Et dans l’IA, l’acceptabilité locale pourrait devenir un avantage compétitif aussi décisif que la performance d’un modèle.

Lire plus
Intelligence Artificielle

Claude Cowork débarque sur Windows : le coup d’accélérateur d’Anthropic… et le virage (très) pragmatique de Microsoft

Claude Cowork débarque sur Windows : le coup d’accélérateur d’Anthropic… et le virage (très) pragmatique de Microsoft

En lançant enfin Claude Cowork sur Windows, Anthropic ne coche pas seulement une case de compatibilité. Il met son agent de productivité dans les mains de la majorité des utilisateurs de bureau dans le monde — et, au passage, pousse Microsoft à assumer une posture devenue rare dans l’IA : ne plus parier sur un seul champion.

Claude Cowork : L’agent sort du « bocal Mac » et vise l’entreprise

Claude Coworkétait jusqu’ici cantonné à macOS. Son arrivée sur Windows, annoncée comme une version à parité fonctionnelle (accès fichiers, exécution de tâches multi-étapes, plugins, connecteurs MCP, instructions globales et par dossier), change l’échelle du produit.

Ce n’est pas un « Copilot de plus » : Claude Cowork se vend comme un agent de bureau, capable de lire des fichiers, d’enchaîner des actions, et de brancher des services externes — bref, une brique qui s’attaque frontalement aux workflows du quotidien (gestion documentaire, opérations, automatisation bureautique), là où les chatbots restent souvent « conversationnels » par nature.

Dans les détails, l’intérêt tient à trois promesses très « terrain » :

  • Exécution multi-étapes : l’agent n’aide pas seulement à décider, il fait (enchaîne, vérifie, reformate, itère).
  • Connecteurs & MCP : l’ouverture aux services via un standard d’intégration (MCP) vise à multiplier les « bras » de l’agent sans recoder chaque passerelle.
  • Instructions persistantes : des règles globales ou par dossier pour stabiliser le comportement (un point critique dès qu’on sort du « prompt one-shot »).

Côté modèle économique, Claude Cowork reste positionné premium, ce qui le place davantage en outil pro qu’en gadget grand public — un choix cohérent avec l’obsession du moment : l’agentic rentable, mesurable, industrialisable.

Screen 2026 02 12 at 08.09.18 scaled

Pourquoi Microsoft « double-assure » avec Anthropic ?

L’histoire devient vraiment intéressante quand on regarde qui applaudit (ou, au moins, laisse faire) : Microsoft. D’un côté, Microsoft a un partenariat historique et massif avec OpenAI. De l’autre, il approfondit une relation avec Anthropic : selon des informations de presse, Microsoft serait en passe de dépenser près de 500 millions de dollars par an pour les modèles Anthropic, signe d’un engagement qui dépasse le simple « catalogue » sur Azure.

Et le cadre stratégique se dessine : l’accord autour d’Azure/Foundry et des modèles Claude s’accompagne d’engagements de capacité de calcul à une échelle rarissime (jusqu’à 30 milliards de dollars de compute Azure, selon plusieurs sources).

Autrement dit, Microsoft se comporte de plus en plus comme une plateforme multi-modèles, capable de pousser l’un ou l’autre selon les usages (raisonnement long, conformité, intégrations, coût), plutôt que comme le distributeur exclusif d’un seul fournisseur. C’est pragmatique… et c’est une manière de garder la main quand les cycles produits s’accélèrent.

Un lancement qui a déjà fait trembler les marchés

Le signe le plus brutal de cette bascule ne vient pas d’un benchmark : il vient de Wall Street. Bloomberg rapporte qu’un lancement récent d’un outil d’automatisation lié à Anthropic a contribué à déclencher une vague de vente sur les valeurs logicielles, avec environ 285 milliards de dollars de capitalisation partis en fumée sur la séance.

Qu’on juge la réaction rationnelle ou excessive, le message est limpide : dès qu’un agent promet de « faire le job » à la place de couches entières de SaaS (gestion, ops, rédaction, analyse, support), le marché réajuste instantanément le risque de substitution.

Lire plus
Intelligence Artificielle

Claude renforce son offre gratuite : fichiers, connecteurs et Skills pour répondre aux pubs dans ChatGPT

Claude renforce son offre gratuite : fichiers, connecteurs et Skills pour répondre aux pubs dans ChatGPT

Le timing n’a rien d’un hasard. Alors que OpenAI vient de lancer un test de publicités dans ChatGPT, Anthropic riposte avec une promesse simple — et franchement bien sentie : plus de puissance, plus d’outils… et « no ads ».

Résultat : Claude renforce son offre gratuite avec des fonctions jusqu’ici associées aux formules payantes, et se repositionne comme l’assistant « productif » qui ne monétise pas votre attention.

Claude : Une riposte calibrée à l’arrivée des pubs dans ChatGPT

OpenAI a officiellement démarré un test d’annonces publicitaires dans ChatGPT aux États-Unis, pour les utilisateurs Free et Go (l’offre d’entrée de gamme). Les formats sont présentés comme des liens « sponsorisés » en bas des réponses, avec la promesse que les pubs n’influencent pas le contenu des réponses.

Dans ce contexte, Anthropic enfonce le clou côté image : dans un récent article, l’entreprise explique pourquoi Claude restera sans publicité, estimant que les incitations publicitaires sont incompatibles avec un assistant « vraiment utile ».

Ce qui change dans la version gratuite de Claude

1) Création et édition de fichiers (Excel, PowerPoint, Word, PDF)

Première évolution visible : les utilisateurs gratuits peuvent créer et manipuler des fichiers directement dans une conversation — tableurs, présentations, documents texte, PDF.

Une fonction introduite plus tôt pour d’autres segments est désormais étendue au gratuit, avec une approche « chat-to-document » pensée pour le travail concret.

2) Les « Connectors » : Claude branché à vos outils

Deuxième brique : l’accès aux Connectors, qui permettent de relier Claude à des services tiers. La liste varie selon les régions, mais on retrouve régulièrement des outils orientés création et productivité comme Slack, Zapier, Canva, Notion, ou encore des services côté paiements/business comme Stripe et PayPal.

L’idée est claire : réduire le copier-coller et transformer l’assistant en interface « universelle » entre vos apps — une logique proche des intégrations applicatives qui ont fait le succès des plateformes concurrentes.

3) Les « Skills » : des routines réutilisables

Enfin, Anthropic met aussi en avant les Skills, une couche d’instructions « packagées » pour répéter des tâches (workflow rédactionnel, analyse, formatage, process interne…). C’est l’un des chemins les plus crédibles vers une IA vraiment opérationnelle au quotidien : moins de prompts jetables, plus de procédures.

Claude joue la carte « productivité premium », mais gratuite

Derrière l’annonce, il y a une bataille de perception. OpenAI explore la pub pour financer l’accès et élargir l’audience, en cadrant l’expérience avec des garde-fous (séparation nette, étiquetage, exclusions sur sujets sensibles, etc.). Anthropic, lui, vend une posture : si votre assistant devient un support publicitaire, son alignement d’intérêt devient immédiatement suspect — même si les réponses restent « neutres ». En offrant davantage d’outils gratuitement, la marque transforme l’absence de pubs en argument produit, pas juste en slogan.

La question, au fond, n’est pas « Claude est-il meilleur que ChatGPT ? », mais quel modèle vous convient :

  • Si vous voulez une IA branchée à vos workflows (docs, apps, routines), Claude rend son gratuit nettement plus attractif.
  • Si vous êtes déjà verrouillé dans l’écosystème OpenAI (habitudes, outils, offres, etc.), l’arrivée de la pub ne changera pas tout — mais elle change l’ambiance : on ne « discute » plus seulement avec un assistant, on évolue dans une interface monétisée.

Et c’est exactement là que Anthropic marque des points : en 2026, le confort d’usage devient une fonctionnalité.

Lire plus
Intelligence Artificielle

ChatGPT lance ses premières pubs : Target, Adobe, Ford… voici les marques déjà engagées

ChatGPT lance ses premières pubs : Target, Adobe, Ford… voici les marques déjà engagées

OpenAI a officiellement enclenché son pilote publicitaire dans ChatGPT. Et, pour la première fois, on peut mettre des noms sur ce qui risque de devenir l’un des espaces média les plus convoités (et les plus sensibles) de la décennie : des publicités « contextuelles » glissées sous vos échanges, visibles uniquement par les utilisateurs Free et ChatGPT Go (8 euros/mois) — avec la promesse martelée d’OpenAI : publicités clairement identifiées, réponses non influencées.

Voici les partenaires identifiés publiquement à ce stade, ceux dont le nom circule noir sur blanc via annonces, agences ou prises de parole :

  • Target : mise sur la découverte de produits/deals « au moment » où l’utilisateur formule un besoin (ex : recherche d’un appareil de cuisine → suggestion d’un air fryer).
  • Adobe : pousse Acrobat Studio (édition/doc IA) et Firefly (génération image/vidéo), avec un angle assumé : apprendre comment exister dans les interfaces d’IA et l’« AI search ».
  • Williams-Sonoma : veut être « présent au moment de décision » sur l’équipement maison/cuisine — un terrain idéal pour des prompts type « je cherche une table/une poêle/une cafetière ».
  • Audible : extension logique vers des ads de service (abonnement ou recommandations de contenus).
  • Via WPP Media : Ford, Mazda, Mrs. Meyer’s (produits d’entretien), et la maison horlogère Audemars Piguet.

À côté de ces noms, deux groupes médias pèsent lourd : Omnicom et Dentsu participent aussi au pilote, en annonçant amener des clients dans des verticales très larges (retail, CPG, hospitality, travel, tech, etc.). Omnicom évoque même plus de 30 clients déjà positionnés.

Ce que ça dit du produit pub d’OpenAI : l’intention comme nouvelle « cible »

Le détail le plus important, c’est le mécanisme : dans les exemples communiqués, l’annonce se greffe à des mots-clés/intentions exprimées dans le prompt (« je cherche… », « recommande-moi… », « comparatif… »).

C’est une rupture nette par rapport aux réseaux sociaux, où l’on cible un profil. Ici, on cible un moment.

Et, c’est précisément ce qui rend l’espace si cher : ChatGPT capte souvent le haut de l’entonnoir (« j’explore ») mais aussi des instants très bas de l’entonnoir (« je dois acheter X maintenant »). C’est le « rayon décision » — celui que Google Search a monétisé pendant 20 ans, et que OpenAI veut désormais héberger… sous une interface conversationnelle.

Les agences ne viennent pas « pour tester un format ». Elles viennent parce qu’il y a un basculement de budget à anticiper. WPP décrit son engagement comme un programme « test & learn » pour comprendre l’interaction utilisateur avec des formats conçus pour une IA conversationnelle. Adweek rapporte que OpenAI demanderait aux annonceurs un ticket d’entrée d’au moins 200 000 dollars pour ce pilote précoce — une barrière qui, paradoxalement, rend l’offre plus « premium » et rassure sur le contrôle.

Le vrai risque : la confiance, pas le CTR

OpenAI promet deux garde-fous : séparation nette entre réponse et publicité, et absence d’influence des annonceurs sur le contenu généré.

Mais, l’enjeu est ailleurs : même si l’annonce ne « modifie » pas la réponse, elle s’accroche à l’attention dans un contexte où l’utilisateur est souvent en mode vulnérable : choix santé, finance, orientation, achat important, doute personnel. C’est exactement pour ça qu’OpenAI insiste sur l’étiquetage et sur des restrictions autour de sujets sensibles (selon les communications déjà rapportées ces derniers jours).

En clair : si la pub ressemble trop à une recommandation, la magie se brise.

Lire plus
Intelligence Artificielle

DuckDuckGo lance son IA vocale, Duck.ai : Parlez à ChatGPT sans être enregistré

DuckDuckGo lance son IA vocale, Duck.ai : Parlez à ChatGPT sans être enregistré

La voix est en train de devenir le nouvel écran d’accueil de l’IA. Mais, elle arrive presque toujours avec un coût invisible : davantage de données qui transitent, davantage de risques, et un sentiment diffus de « parler dans un micro qui n’oublie jamais ».

DuckDuckGo tente une approche à contre-courant avec Duck.ai voice chat, désormais disponible : parler à l’IA en mains libres, avec une promesse simple — pas d’enregistrement, pas de stockage, pas d’entraînement.

Une fonctionnalité qui se veut « opt-in », pensée pour le navigateur

Le principe est direct : vous activez la voix sur Duck.ai, vous autorisez le micro, et l’assistant vous répond oralement (avec, selon les cas, une réponse texte en parallèle). DuckDuckGo insiste sur le fait que la fonctionnalité est facultative, activable/désactivable à tout moment dans les réglages.

Côté compatibilité, DuckDuckGo annonce un fonctionnement dans son navigateur et dans la plupart des navigateurs tiers, avec Firefox « à venir ».

Les « détails » qui font la promesse

DuckDuckGo ne se contente pas d’une phrase marketing. Sur ses pages d’aide, l’entreprise détaille le chemin technique :

  • L’audio du micro est streamé en temps réel.
  • La connexion passe par un relais chiffré que DuckDuckGo dit ne pas pouvoir déchiffrer.
  • Le traitement (transcription + génération de réponse) est assuré par le fournisseur de modèle — explicitement indiqué comme OpenAI dans la documentation d’aide sur la voix.

Et surtout : une fois la session terminée, il n’y a pas de conservation de l’audio, ni côté DuckDuckGo, ni côté fournisseur, selon leurs termes.

Le compromis inévitable : des limites quotidiennes… sans chiffre public

Duck.ai voice chat n’est pas « illimité ». DuckDuckGo confirme un quota journalier (comme pour les chats texte), avec des limites plus élevées pour les abonnés DuckDuckGo — sans donner de nombre précis, pour des raisons de lutte contre l’abus.

Un détail pratique mérite d’être connu : DuckDuckGo explique que l’application « anonyme » des limites peut parfois déclencher un blocage plus tôt si vous êtes sur VPN ou réseau mobile, et recommande de basculer vers le Wi-Fi/changer de sortie VPN.

Le point sensible : la voix est « privée », mais jamais neutre

Même si votre audio n’est pas stocké, une question orale peut contenir des noms, lieux, contexte personnel, et la voix elle-même est un signal identifiant. DuckDuckGo le reconnaît d’ailleurs : certains risques de « empreintes digitales » existent, et la prudence reste de mise pour les sujets sensibles.

Comment l’essayer sans se brûler les ailes :

  • Testez d’abord sur des usages faible enjeu (météo, idées de repas, résumé d’un article, questions générales).
  • Vérifiez les permissions micro et la facilité à désactiver la fonction dans Duck.ai.
  • Si vous êtes sur VPN/4G/5G, gardez en tête que le quota peut vous tomber dessus plus vite.

Dans un marché où la voix devient un aspirateur à données par défaut, DuckDuckGo essaie de faire de la confidentialité le produit, pas l’option. Si l’exécution suit les promesses (et si la transparence sur les fournisseurs et les flux reste constante), Duck.ai voice chat pourrait devenir l’alternative « sereine » pour ceux qui veulent parler à une IA… sans avoir l’impression de nourrir une nouvelle base vocale géante.

Lire plus
Intelligence Artificielle

Amazon prépare un « Store » pour vendre vos contenus aux géants de l’IA

Entrepôt Amazon sous un ciel nuageux.

L’IA générative a faim — et, surtout, elle a besoin de manger « propre ». Après une vague de procès et de tensions autour du copyright, l’industrie cherche désormais une sortie plus… contractualisée. Selon The Information, Amazon discuterait avec des éditeurs d’un projet de place de marché où les publishers pourraient licencier directement leurs contenus à des entreprises d’IA, via un modèle plus scalable que les deals au cas par cas.

D’après Reuters, Amazon aurait circulé des slides avant une conférence AWS destinée aux éditeurs, mentionnant un « content marketplace » — et le projet serait présenté aux côtés de briques IA maison comme Bedrock (plateforme de modèles) et d’outils orientés productivité, ce qui laisse entendre une intégration profonde dans l’écosystème AWS.

Officiellement, Amazon reste dans le flou : la réponse transmise à TechCrunch ne confirme rien, mais ne dément pas non plus, se contentant d’insister sur ses relations « innovantes » avec les éditeurs via AWS, la publicité, Alexa, etc.

Pourquoi ce modèle séduit : « industrialiser » la licence

Le problème des accords actuels, c’est leur nature artisanale : longs à négocier, limités en périmètre, et souvent opaques sur la valeur réelle du contenu dans les produits IA. Une place de marché change la logique : elle transforme la licence en catalogue, avec des conditions standardisables et, potentiellement, une tarification plus lisible (à l’usage, au volume, au type de requête, à la fraîcheur du contenu…).

Là-dessus, Amazon n’arrive pas en pionnier : Microsoft vient justement d’annoncer son Publisher Content Marketplace (PCM), présenté comme un hub où les éditeurs définissent leurs termes, et où les fabricants d’IA accèdent à du contenu premium « à l’échelle », avec un cadre économique annoncé comme « transparent ».

Autrement dit : si Amazon se lance, ce sera moins un « coup » qu’un mouvement de fond — la plateforme de licence devient un produit.

Le vrai carburant du projet : la crise du trafic et l’angoisse des résumés IA

Pour les éditeurs, la licence n’est pas seulement une question de principe : c’est une question de survie économique, alors que les résumés IA dans les moteurs grignotent les clics.

Une étude du Pew Research Center a montré que les utilisateurs sont moins enclins à cliquer sur des liens quand un résumé IA apparaît : 8 % de clics vers des résultats « classiques » avec résumé IA, contre 15 % sans résumé. En Europe, la tension monte aussi côté concurrence : Reuters rapporte que l’European Publishers Council a déposé une plainte antitrust contre Google autour de ses AI Overviews, accusés de fragiliser le financement du journalisme en exploitant les contenus sans compensation effective.

Dans ce contexte, un marketplace à la AWS peut apparaître, pour certains groupes médias, comme un « moindre mal » : si l’IA capte la valeur de la lecture, autant monétiser l’accès plutôt que de regarder les audiences s’éroder.

Une place de marché ne résout pas tout… mais elle change le rapport de force

Un marketplace ne règle pas, à lui seul, la grande question : qu’est-ce qui relève de l’entraînement (training), du « grounding » (RAG), de la citation, du résumé ? Et surtout : à quel prix ?

Mais, il change trois paramètres clés :

  1. Standardisation : l’IA adore les tuyaux fiables. Les éditeurs aussi, quand il s’agit de revenus récurrents.
  2. Auditabilité : si le modèle ressemble à celui de Microsoft (reporting, conditions affichées), les éditeurs peuvent enfin demander des comptes sur l’usage réel.
  3. Centralisation : Amazon, via AWS, peut devenir l’intermédiaire « par défaut » entre contenu premium et IA… et capter une partie de la valeur au passage, comme tout bon opérateur de marketplace.

Le paradoxe est là : pour protéger le Web, on risque de l’adosser à des places de marché gérées par les mêmes géants qui redessinent déjà la distribution de l’attention. Mais à court terme, pour beaucoup d’éditeurs, le pragmatisme l’emporte.

Lire plus
Intelligence Artificielle

Deep Research : GPT-5.2 transforme ChatGPT en super-analyste

Deep Research : GPT-5.2 transforme ChatGPT en super-analyste

OpenAI vient de mettre à jour Deep Research dans ChatGPT : la fonctionnalité est désormais propulsée par GPT-5.2, avec davantage de contrôle sur le « workflow » de recherche et une meilleure présentation des résultats (rapports structurés, mode lecture plein écran, etc.).

Deep Research permet maintenant de cibler des sites précis et s’appuyer sur des apps connectées comme sources « de confiance » (connecteurs), plutôt que de laisser la recherche totalement ouverte, et suivre la progression en temps réel et interrompre une recherche en cours pour ajouter une contrainte (nouvelle source, nouvel axe, etc.).

Nouveauté très visible : un mode rapport plein écran (type lecteur de document) avec navigation, table des matières et sources à portée de main, pensé pour relire et vérifier plutôt que scroller dans le fil de chat.

Et côté « livrables », les rapports peuvent être téléchargés dans plusieurs formats (selon le déploiement/plan).

Un cadre « plus transparent »

OpenAI insiste sur une amélioration de la crédibilité des rapports via des sources plus contrôlables, et un rendu qui sépare mieux analyse et documentation (citations, méthodologie).

La mise à jour se déploie à partir d’aujourd’hui. D’après les premières infos de déploiement relayées par la presse, le mode rapport plein écran et les nouveautés arrivent d’abord pour Plus/Pro, puis Free/Go « dans les prochains jours » (rythme de déploiement classique). Pour les apps connectées, les capacités varient par plan (certaines connexions peuvent être indisponibles en Free/Go).

Comment l’utiliser « bien » ?

  1. Lance Deep Research et donne un objectif avec format de sortie : « rapport comparatif + tableau »/« synthèse + sources ».
  2. Ajoute une contrainte de périmètre : sites à inclure/exclure, période, pays/langue des sources.
  3.  Pendant l’exécution, surveille la progression et interromps si tu vois un angle mort (« ajoute les données 2025/2026 », « inclure tel régulateur », « prioriser les sources primaires »).

1 2

Lire plus