fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

De Sunshine à Dazzle : Le nouveau pari de Marissa Mayer est-il l’infrastructure IA du futur ?

De Sunshine à Dazzle : Le nouveau pari de Marissa Mayer est-il l'infrastructure IA du futur ?

C’est la fin d’un chapitre pour Sunshine, la startup de logiciels grand public cofondée par Marissa Mayer. Sept ans après son lancement, l’ancienne patronne de Yahoo tourne la page et transfère les actifs de l’entreprise à une nouvelle structure baptisée Dazzle, dédiée à l’intelligence artificielle.

Sunshine: une ambition, des obstacles, puis une transition

Fondée en 2018 sous le nom Lumi Labs, Sunshine promettait de simplifier la gestion des contacts et d’automatiser les tâches quotidiennes. Malgré l’aura de Mayer — ancienne ingénieure chez Google et figure incontournable de la Silicon Valley — l’entreprise n’a jamais réellement trouvé son public.

Manque d’adoption, repositionnements produits, marché saturé… Sunshine a connu un parcours qualifié de « chaotique » par plusieurs observateurs du secteur.

De Sunshine à Dazzle : une vente validée par les actionnaires

D’après TechCrunch, le transfert des actifs vers Dazzle est soumis à l’approbation des investisseurs… mais celle-ci serait déjà acquise à 99 %. Parmi les parties prenantes : des fonds de capital-risque renommés, le cofondateur Enrique Muñoz Torres, et bien sûr Marissa Mayer, actionnaire majoritaire.

Dans un e-mail adressé aux actionnaires, Mayer affirme que cette décision est « la meilleure voie à suivre » pour capitaliser sur les acquis de Sunshine.

Dazzle: un nouveau départ dans l’intelligence artificielle

Dazzle, récemment incorporée par Mayer, pourrait se concentrer sur des applications IA plus avancées, destinées aux consommateurs ou aux entreprises. Elle devrait notamment tirer parti des algorithmes de gestion de contacts développés par Sunshine, mais avec une vision plus ambitieuse et tournée vers le futur.

Ce virage illustre bien la tendance actuelle : face aux difficultés du marché des startups IA — burn rates élevés, concurrence féroce — les repositionnements stratégiques deviennent la norme.

Un reflet des réalités du secteur tech

Sunshine rejoint la liste grandissante des startups prometteuses ayant peiné à décoller malgré un solide pedigree. Mayer, qui avait quitté Yahoo après avoir supervisé sa vente à Verizon en 2017, ambitionnait avec Sunshine de repenser les interactions numériques du quotidien (partage de photos, gestion d’événements…).

Mais en sept ans, le contexte a changé : la bulle IA est montée en flèche, et la marge de manœuvre pour les nouveaux entrants s’est considérablement réduite.

Quid des investisseurs ?

Les détails financiers de la transaction n’ont pas été révélés, mais cette vente permettrait de préserver la valeur des actifs accumulés par Sunshine, notamment les technologies IA développées en interne. Un choix stratégique qui évite une dissolution pure et simple, et qui pourrait donner un second souffle à ces innovations via Dazzle.

Sur les réseaux sociaux, les réactions sont partagées : certains saluent la résilience de Mayer, d’autres y voient une nouvelle illustration des pivots en série auxquels elle nous a habitués. Mais pour beaucoup, ce repositionnement montre une approche lucide de l’entrepreneuriat : savoir mettre fin à un projet quand il le faut, pour mieux rebondir ailleurs.

Leçon de persévérance ou fuite en avant ?

La fermeture de Sunshine et la naissance de Dazzle rappellent une règle immuable du monde tech : évoluer ou disparaître. Pour Marissa Mayer, cette manœuvre pourrait bien marquer un retour stratégique dans la course à l’IA, un secteur où elle espère, cette fois, transformer ses ambitions en succès durable.

Lire plus
Intelligence Artificielle

ChatGPT devient une boutique : OpenAI lance l’achat direct avec Stripe et le protocole Agentic Commerce

ChatGPT devient une boutique : OpenAI lance l’achat direct avec Stripe et le protocole Agentic Commerce

OpenAI vient de franchir une nouvelle étape dans l’intégration de l’IA au e-commerce : ChatGPT permet désormais d’acheter des produits directement depuis la conversation, grâce à une fonctionnalité baptisée Instant Checkout.

Cette nouveauté s’appuie sur un protocole open source, Agentic Commerce Protocol, co-développé avec Stripe et des partenaires marchands.

De la découverte au paiement en quelques clics

Chaque semaine, plus de 700 millions d’utilisateurs utilisent ChatGPT pour trouver des produits, selon OpenAI. Jusqu’à présent, le chatbot les aidait à affiner leurs recherches. Désormais, il peut aussi finaliser l’achat, sans quitter la conversation.

Concrètement, si vous demandez « les meilleures baskets à moins de 100 euros » ou « des idées de cadeaux pour les amateurs de céramique », ChatGPT affichera des suggestions issues du web, non sponsorisées et triées par pertinence. Si un produit est compatible avec Instant Checkout, vous verrez un bouton « Acheter ».

L’utilisateur peut alors vérifier les détails de sa commande (prix, livraison, paiement), et valider l’achat sans quitter la fenêtre de discussion.

Le tout est sécurisé, rapide et fluide, avec paiement via Stripe et sans frais supplémentaires pour l’utilisateur.

Un protocole ouvert pour les commerçants

Le Agentic Commerce Protocol est open source. Il permet aux développeurs et marchands d’intégrer facilement l’achat direct dans ChatGPT, sans modifier leur système de paiement ou logistique.

Les options d’intégration :

  • Un simple ajout de ligne de code pour les marchands utilisant Stripe.
  • API partagée ou protocole délégué pour ceux utilisant d’autres prestataires.

Les commerçants gardent le contrôle total sur le paiement, l’envoi et la relation client. ChatGPT agit simplement comme intermédiaire intelligent, transmettant uniquement les données nécessaires à la transaction.

Un système pensé pour la confiance

OpenAI insiste sur la sécurité et la transparence :

  • Chaque action doit être validée par l’utilisateur.
  • Les paiements sont chiffrés et autorisés uniquement pour un montant et un marchand spécifique.
  • Les données partagées sont limitées au strict nécessaire.

Déploiement progressif… mais ambitieux

Dès aujourd’hui, tous les utilisateurs ChatGPT (Free, Plus et Pro) aux États-Unis peuvent acheter directement auprès de vendeurs Etsy, et l’achat concerne pour l’instant un seul article à la fois.

Prochainement, OpenAI envisage une intégration de Shopify avec plus d’un million de marchands (dont Glossier, SKIMS, Spanx et Vuori), un support des paniers multi-produits. et une extension à d’autres pays à venir.

Les marchands intéressés peuvent postuler via le site officiel d’OpenAI.

L’IA devient acteur du commerce

Avec cette initiative, OpenAI amorce une nouvelle ère : celle du commerce agentique, où l’IA ne se contente plus de conseiller, mais facilite directement l’achat. Une évolution majeure qui pourrait transformer la manière dont nous faisons nos achats en ligne.

Reste à voir si les utilisateurs adopteront ce nouveau réflexe, et si l’écosystème marchand saura s’aligner sur ce virage IA-first. Mais une chose est sûre : ChatGPT n’est plus juste un assistant, c’est aussi un point de vente.

Lire plus
Intelligence Artificielle

Sora 2 : OpenAI prépare une appli vidéo façon TikTok… 100 % générée par l’IA

Sora 2 : OpenAI prépare une appli vidéo façon TikTok… 100 % générée par l’IA

OpenAI ne compte pas s’arrêter à ChatGPT. Selon des documents consultés par Wired, l’entreprise travaille actuellement sur Sora 2, une nouvelle application dédiée à la génération de vidéos par intelligence artificielle. Il s’agirait d’une réelle évolution par rapport à Sora.

Avec une interface inspirée de TikTok — fil vertical, scroll infini, vidéos courtes et recommandations personnalisées — l’app pourrait bien bousculer le monde de la création vidéo.

Sora 2: Un TikTok de l’IA, sans aucune vidéo humaine

Contrairement à TikTok ou Instagram Reels, toutes les vidéos de Sora 2 sont créées par intelligence artificielle. Aucune vidéo personnelle ou photo importée : les utilisateurs rédigent un prompt (description textuelle), et l’IA génère une vidéo de 10 secondes maximum.

L’appli permettrait :

  • de liker, commenter ou remixer les vidéos générées,
  • de vérifier son identité pour permettre à l’IA de reproduire son apparence,
  • d’être tagué dans des clips par d’autres utilisateurs (avec notification si votre image est utilisée, même dans un brouillon).

Sécurité, vie privée et vérification d’identité

OpenAI prévoit une modération renforcée :

  • Des filtres anti-copyright pour éviter les contenus illicites,
  • Un système de notification dès qu’une image ou une identité vérifiée est utilisée,
  • Des contrôles parentaux et un système de prédiction d’âge en développement pour limiter les usages aux mineurs.

L’outil d’identité permettrait, selon OpenAI, d’éviter les dérives tout en garantissant le respect du droit à l’image. Une précaution utile, alors que les plaintes pour violation de copyright contre l’entreprise se multiplient, notamment de la part du New York Times.

Sora 2 vs Vibes (Meta) vs Veo 3 (Google)

La bataille de la vidéo générée par IA est lancée :

  • Meta a récemment lancé Vibes, un fil vidéo court dans l’app Meta AI,
  • Google déploie progressivement Veo 3 sur YouTube,
  • TikTok se durcit, interdisant les vidéos IA jugées trompeuses ou dangereuses.

Dans ce contexte, OpenAI pourrait profiter de l’incertitude réglementaire autour de TikTok aux États-Unis pour lancer un concurrent « made in USA » sans lien avec la Chine.

Date de lancement : fin 2025 ?

Sora 2 est actuellement en phase de test interne chez OpenAI. Les premiers retours sont positifs, même si certains managers notent que l’addiction à l’outil pourrait impacter la productivité des employés.

Aucune date officielle n’a été annoncée, mais la sortie pourrait coïncider avec celle de GPT-5, attendue dans les prochains mois. Une synchronisation qui positionnerait OpenAI en rival direct de Google, Meta et TikTok sur le terrain de la vidéo courte générée par IA.

Une nouvelle façon d’interagir avec l’IA

Après avoir révolutionné le texte avec ChatGPT, OpenAI veut désormais réinventer la vidéo. Sora 2 pourrait permettre à n’importe qui — créateur, étudiant, curieux — de générer des contenus courts sans caméra ni montage, simplement avec des mots.

Mais la question reste : l’IA peut-elle vraiment remplacer la créativité humaine dans un format aussi émotionnel que la vidéo ? Réponse probable d’ici la fin de l’année.

Lire plus
Intelligence Artificielle

Claude Sonnet 4.5 : L’IA d’Anthropic code seule pendant 30 heures, fini les développeurs juniors ?

Claude Sonnet 4.5 : L'IA d'Anthropic code seule pendant 30 heures, fini les développeurs juniors ?

Ce lundi, Anthropic a dévoilé Claude Sonnet 4.5, son nouveau modèle d’IA de pointe, présenté comme une avancée majeure dans le domaine du codage autonome.

L’entreprise promet une IA capable de produire des applications prêtes pour la production, et non plus de simples prototypes, grâce à une fiabilité nettement accrue.

30 heures de codage autonome pour créer une app type Slack ou Teams

Selon Anthropic, Claude Sonnet 4.5 a été capable, lors de tests en entreprise, de coder seul pendant 30 heures d’affilée. Résultat ? Une application complète avec 11 000 lignes de code, incluant la mise en place d’une base de données, l’achat d’un nom de domaine et même la réalisation d’un audit de sécurité SOC 2.

Du jamais vu dans le secteur. À titre de comparaison, Claude Opus 4, précédent modèle vedette de la marque, tenait « seulement » 7 heures en autonomie.

Claude Sonnet 4.5 est d’ores et déjà disponible via l’API Claude et dans le chatbot Claude. Le tarif reste identique à celui du modèle précédent :

  • 3 dollars par million de tokens en entrée
  • 15 dollars par million de tokens en sortie

6421e7049ff8b2c4591497ec92dc4157b2ac1b30 3840x2160 1 scaled

Mais au-delà du prix, c’est la polyvalence du modèle qui impressionne. Claude Sonnet 4.5 surpasse ses concurrents sur des benchmarks, comme SWE-Bench Verified, avec un focus affirmé sur les tâches à long terme.

Des startups comme Cursor ou Windsurf, spécialisées dans les outils d’aide au développement, saluent déjà ses performances. Le PDG de Cursor parle même d’un « nouveau standard dans le codage par IA ».

Claude Sonnet 4.5 : Moins de sycophance, moins de failles, plus d’alignement

Anthropic assure aussi que Claude Sonnet 4.5 est son modèle le plus « aligné » à ce jour :

  • Moins de réponses flatteuses ou biaisées
  • Moins vulnérable aux attaques par injection de prompt
  • Meilleure compréhension du contexte et du raisonnement à long terme

Un combo séduisant pour les entreprises à la recherche d’un assistant IA fiable, notamment dans des secteurs sensibles comme la cybersécurité, la finance ou la recherche.

image 15 scaled

Lancement du Claude Agent SDK : l’infrastructure des agents entre vos mains

En parallèle, Anthropic dévoile également le Claude Agent SDK, un kit de développement permettant de créer ses propres agents IA, sur la base de l’infrastructure utilisée par Claude Code.

Autrement dit : vous pouvez désormais bâtir vos propres IA spécialisées, capables d’interagir avec des machines virtuelles, de gérer le contexte, de mémoriser des instructions, voire de collaborer avec d’autres agents — tout cela avec le même cœur technologique que Claude Sonnet 4.5.

Imagine with Claude: génération de code en temps réel (et sans tricher)

Pour les abonnés Max, Anthropic propose en plus une expérience expérimentale baptisée Imagine with Claude, qui met en scène une IA générant du code en direct, sans recourir à des snippets pré-écrits.

Le but ? Montrer comment Claude pense et code « à la volée », dans une logique de transparence et de contrôle par l’utilisateur.

Une guerre des agents IA qui s’accélère

Ce lancement intervient quelques jours après la présentation de ChatGPT Pulse par OpenAI, et moins de deux mois après la sortie de Claude Opus 4.1. Le rythme s’accélère : les géants de l’IA livrent désormais des modèles tous les 60 jours.

Anthropic joue ici sa carte avec un positionnement clair : dominer le segment des agents IA autonomes pour les développeurs. Un pari ambitieux, mais crédible, tant les progrès sont visibles.

Claude Sonnet 4.5, le copilote de demain pour les devs ?

Anthropic mise sur un futur où les IA ne seront plus seulement des outils passifs, mais de véritables collaborateurs numériques, capables de travailler de manière autonome sur des projets complexes.

Claude Sonnet 4.5 pourrait bien être le premier modèle à tenir cette promesse à grande échelle, en devenant l’équivalent IA d’un développeur junior… qui ne dort jamais.

Lire plus
Intelligence Artificielle

OpenAI lance enfin des contrôles parentaux pour ChatGPT : une étape clé pour protéger les ados

OpenAI lance enfin des contrôles parentaux pour ChatGPT : une étape clé pour protéger les ados

OpenAI vient de déployer une fonctionnalité très attendue : des contrôles parentaux intégrés à ChatGPT. Ces outils, disponibles dès maintenant sur le Web (et bientôt sur mobile), permettent aux parents de paramétrer l’expérience de leurs adolescents, avec l’objectif de rendre l’IA plus sûre et plus adaptée à leur âge.

Comment fonctionnent les contrôles parentaux sur ChatGPT ?

Le système est simple :

  • Un parent ou tuteur envoie une invitation à son ado pour lier son compte.
  • L’ado accepte ou refuse.
  • Une fois liés, le parent accède à un tableau de bord dédié pour gérer l’expérience de ChatGPT.

Les ados peuvent se désinscrire à tout moment, mais les parents sont notifiés en cas de déconnexion. Important : les parents n’ont pas accès aux conversations de leur ado, sauf dans des cas rares de risque grave identifié par l’IA et revu par une équipe spécialisée.

Des protections renforcées pour les jeunes utilisateurs

Une fois le compte lié, ChatGPT active par défaut des protections supplémentaires :

  • Réduction du contenu sensible (violence, sexualité, défis viraux, idéaux de beauté extrêmes).
  • Limitation des scénarios de jeu de rôle inappropriés.
  • Filtres renforcés contre les conseils à risque (ex. automutilation).

Les options disponibles pour les parents

Blog Static Controls screen 1080

OpenAI propose aux parents des réglages fins et personnalisables :

  • Définir des « heures calmes » : bloquer ChatGPT à certains moments (ex. après 22 h).
  • Désactiver le mode vocal : échanges uniquement en texte.
  • Désactiver la mémoire : ChatGPT n’enregistre pas les conversations passées.
  • Bloquer la génération d’images.
  • Exclure les conversations des données d’entraînement des modèles d’OpenAI.
  • Recevoir des alertes (email, SMS, push) en cas d’activité préoccupante.

Ces réglages sont optionnels et peuvent être ajustés à tout moment via le compte parent.

Blog Static Safety Notifications

Une réponse tardive mais nécessaire

Cette nouveauté arrive dans un contexte sensible. OpenAI est poursuivie après le suicide d’un adolescent, Adam Raine, qui aurait été « coaché » par ChatGPT dans ses messages privés. L’affaire a été évoquée au Sénat américain et a mis en lumière l’absence de garde-fous robustes pour les mineurs.

Matthew Raine, le père de l’adolescent, a déclaré lors de l’audition : « Ce qui a commencé comme un assistant pour les devoirs est devenu un confident, puis un coach au suicide. En tant que parents, vous ne pouvez pas imaginer ce que c’est que de lire une telle conversation ».

OpenAI dit avoir travaillé avec des experts en sécurité des mineurs, l’association Common Sense Media et les procureurs généraux de Californie et du Delaware pour concevoir ces outils.

Un premier pas, mais pas suffisant

Ces contrôles parentaux marquent une étape importante vers un ChatGPT plus sûr pour les ados. Mais comme le rappelle Robbie Torney, Senior Director chez Common Sense Media : « Les contrôles parentaux sont un bon point de départ, mais ils ne remplacent pas le dialogue et l’éducation. Ils fonctionnent mieux combinés à des règles claires et à une implication active des parents ».

En parallèle, OpenAI prépare un système de détection automatique d’âge pour appliquer les protections sans intervention parentale — une mesure qui pourrait bouleverser l’accès des mineurs aux IA dans les prochaines années.

Protéger tout en éduquer

Les contrôles parentaux d’OpenAI offrent aux familles un nouvel outil pour encadrer l’utilisation de l’IA. Mais au-delà de la technique, la clé reste l’éducation aux usages responsables et l’apprentissage du recul face à l’information générée par l’IA, dans un monde où la frontière entre réel et virtuel est de plus en plus floue.

Lire plus
Intelligence Artificielle

Apple teste en interne son propre « ChatGPT » pour réinventer Siri : voici Veritas

Apple teste en interne son propre « ChatGPT » pour réinventer Siri : voici Veritas

Alors que la concurrence (Google, OpenAI, Microsoft) avance à grands pas dans le domaine de l’intelligence artificielle, Apple prépare discrètement sa riposte.

D’après le journaliste Mark Gurman (Bloomberg), la firme de Cupertino développe une application interne nommée Veritas — un chatbot de type ChatGPT, utilisé pour tester la nouvelle version de Siri.

Veritas : le terrain d’expérimentation pour le Siri nouvelle génération

Veritas (latin pour « vérité ») est une application interne, réservée aux employés d’Apple. Elle sert à tester les futures fonctionnalités de Siri, dans un format conversationnel évolué. Les testeurs peuvent :

  • Rechercher dans leurs données personnelles (emails, musiques…)
  • Réaliser des actions dans les applications (comme modifier des photos)
  • Gérer des conversations longues, avec historique et suivi
  • Résumer des pages Web ou des infos à l’écran

Le système derrière Veritas, nommé Linwood, combine les Foundation Models internes d’Apple à un modèle tiers, probablement OpenAI ou Gemini. L’objectif : affiner l’interface, les réponses, et la pertinence des futures interactions Siri.

Apple, en retard dans la course à l’IA ?

Si Apple a récemment dévoilé Apple Intelligence, les réactions du public sont restées mitigées. Et malgré l’annonce d’un Siri repensé, plusieurs retards ont freiné le projet. Certains tests internes ont échoué jusqu’à 30 % du temps, selon Bloomberg.

Ces difficultés ont entraîné un remaniement chez Apple : le chef de l’IA, John Giannandrea, a quitté son poste, tout comme Robby Walker, responsable de Siri, qui quittera l’entreprise en octobre. Walker avait lancé l’équipe AKI (Answers, Knowledge and Information), désormais clé dans la stratégie IA d’Apple.

Que pourra faire le futur Siri ?

Grâce à Veritas, Siri devrait prochainement être capable de :

  • Comprendre et interagir avec les éléments affichés à l’écran
  • Gérer des requêtes complexes ou à étapes multiples
  • Offrir une expérience de recherche alimentée par l’IA
  • Conserver l’historique des échanges pour des conversations fluides et naturelles

La nouvelle version de Siri est attendue au plus tôt en mars 2026, et pourrait être le virage tant attendu pour Apple dans l’ère de l’intelligence conversationnelle.

Pourquoi Veritas n’est pas accessible au public (pour le moment) ?

Malgré ses promesses, Apple ne prévoit pas de rendre Veritas public. Cela pourrait être une erreur stratégique selon certains analystes, car les retours utilisateurs réels manquent cruellement. À la place, la marque préfère continuer les tests en interne.

Apple mise plutôt sur des partenariats avec OpenAI ou Google Gemini pour intégrer l’IA dans ses appareils (recherche intelligente, résumés, assistant vocal…), tout en travaillant en parallèle sur ses propres modèles maison, plus respectueux de la vie privée.

Apple face au défi de l’IA : discrétion ou retard ?

Si Apple reste prudente, c’est aussi pour préserver la confidentialité et la cohérence de son écosystème. Le développement de Veritas illustre la volonté de créer un Siri plus intelligent, plus autonome et plus utile, capable de rivaliser avec les meilleurs assistants du marché.

Mais le temps presse : pendant qu’Apple peaufine ses modèles, Google, Samsung ou Microsoft continuent d’avancer rapidement. Le futur de Siri dépendra donc non seulement de Veritas, mais aussi de la capacité d’Apple à livrer un produit final sans compromis sur l’expérience et la sécurité.

Veritas, le laboratoire secret de Siri

Veritas n’est peut-être qu’un outil interne, mais il incarne une étape cruciale dans le retour d’Apple dans la course à l’IA. Avec une refonte majeure de Siri en ligne de mire, la firme veut prouver qu’elle peut offrir un assistant vocal intelligent, puissant, et respectueux de la vie privée.

2026 sera-t-elle l’année du grand retour de Siri ? Réponse dans quelques mois.

Lire plus
Intelligence Artificielle

Alibaba avec Qwen3-Max : Le modèle IA qui dépasse déjà GPT-5 et Claude Opus 4 ?

Alibaba avec Qwen3-Max : Le modèle IA qui dépasse déjà GPT-5 et Claude Opus 4 ?

Alibaba ne veut plus jouer dans la catégorie des outsiders. Avec Qwen3-Max, le géant chinois signe une montée en puissance spectaculaire dans la course mondiale à l’intelligence artificielle. Et ce n’est pas qu’une question de chiffres.

Le modèle, doté de plus d’un billion de paramètres, rivalise désormais directement avec les meilleurs du marché : GPT-5, Claude Opus 4, Gemini 2.5 Pro… et dans certains domaines, il les dépasse.

Qwen3-Max : Un modèle trillionnaire, mais pas pour faire joli

Ce qui rend Qwen3-Max particulièrement remarquable, ce n’est pas uniquement sa taille démesurée (plus d’un billion de paramètres entraînés sur 36 trillions de tokens) — c’est l’architecture MoE (Mixture-of-Experts) qu’il utilise : seules certaines « experts layers » s’activent selon le besoin, rendant le modèle bien plus efficace que les approches traditionnelles où tout le réseau est sollicité.

Cerise sur le gâteau technique : Alibaba a mis au point une méthode de régulation d’entraînement appelée « global-batch load balancing loss ». Résultat : une courbe de perte stable, sans pics ni interruptions. Du jamais vu à cette échelle.

Des innovations d’ingénierie à saluer

Alibaba n’a pas seulement gonflé les chiffres, il a optimisé tout le processus :

  • PAI-FlashMoE : pipeline d’entraînement parallèle boosté, offrant 30 % de débit en plus par rapport à Qwen2.5-Max.
  • ChunkFlow : gestion du contexte long (jusqu’à 1 million de tokens) avec un débit 3x plus rapide que les méthodes classiques.
  • SanityCheck et EasyCheckpoint : des systèmes maison qui divisent par 5 les interruptions causées par des pannes matérielles.

Des performances qui parlent d’elles-mêmes

Le modèle Qwen3-Max-Instruct, accessible au public, affiche déjà des scores impressionnants :

  • #3 au classement LMArena, devant GPT-5-Chat

Qwen3 Max Instruct text arena scaled

  • 69.6 sur SWE-Bench Verified (résolution de vrais bugs GitHub)

Qwen3 Max Instruct

  • 74.8 sur Tau2-Bench (utilisation d’outils et d’API, mieux que Claude Opus 4 et DeepSeek V3.1)

Mais le plus impressionnant reste à venir…

Qwen3-Max-Thinking: la version « agent autonome » en approche

Encore en entraînement, cette variante axée sur le raisonnement a déjà obtenu 100 % sur les benchmarks AIME 25 et HMMT, deux des tests de mathématiques les plus coriaces du monde IA.

Elle intègre un interpréteur de code et des fonctions avancées de résolution logique, avec gestion parallèle pendant l’inférence. Autrement dit, un vrai moteur de pensée, et pas juste un chatbot un peu malin.

Multilingue, multimodal et… plus fiable

Qwen3-Max a été conçu pour exceller aussi bien en anglais qu’en chinois, avec des progrès notables dans :

  • le suivi d’instructions complexes
  • le raisonnement mathématique et scientifique,
  • la réduction des hallucinations.

En clair : il est plus cohérent, plus rigoureux, et plus stable que ses prédécesseurs.

Comment tester Qwen3-Max ?

  1. Utilisateurs classiques : téléchargez l’appli Qwen sur iOS ou Android, ou testez directement sur leur site. Le modèle Qwen3-Max-Instruct y est déjà actif.
  2. Développeurs : intégrez-le via l’API Alibaba Cloud (Model Studio) pour l’inclure dans vos applis ou services.

Ce que ça change pour l’écosystème IA mondial

Avec Qwen3-Max, Alibaba ne se contente pas de « rattraper » OpenAI, Google ou Anthropic. Il apporte de vraies innovations d’ingénierie, notamment dans la gestion des contextes longs, l’efficacité de l’entraînement et la résilience des infrastructures.

Et l’arrivée prochaine de Qwen3-Max-Thinking laisse penser qu’Alibaba veut aller encore plus loin : vers des IA capables d’agir, de réfléchir et d’utiliser des outils comme de vrais agents autonomes.

Qwen3-Max n’est pas juste un gros modèle, c’est une déclaration d’intention

Alors que la bataille mondiale des LLM atteint une nouvelle phase, Alibaba s’impose comme un acteur à prendre très au sérieux. Entre ingénierie de pointe, performances réelles et vision long terme, Qwen3-Max marque peut-être le début d’une nouvelle ère de compétition technologique mondiale.

Lire plus
Intelligence Artificielle

Gemini 2.5 Flash : L’IA de Google devient-elle le tuteur privé parfait ?

Gemini 2.5 Flash : L'IA de Google devient-elle le tuteur privé parfait ?

Google vient de dévoiler une nouvelle mise à jour pour Gemini 2.5 Flash, son modèle d’intelligence artificielle optimisé pour la rapidité et les tâches éducatives.

Cette mise à niveau vise à rendre l’apprentissage assisté par IA plus efficace, plus clair et plus interactif.

Quelles sont les nouveautés de Gemini 2.5 Flash ?

Des explications de devoirs plus claires

Gemini 2.5 Flash est désormais capable de fournir des explications pas à pas pour les questions scolaires, même complexes. Chaque étape est détaillée, permettant aux élèves de mieux comprendre les concepts abordés, plutôt que de recevoir uniquement la réponse finale.

Les réponses générées sont désormais structurées de manière plus lisible :

  • Titres
  • Listes à puces
  • Tableaux

Objectif : rendre l’information facile à lire, à scanner, et à mémoriser, notamment pour les révisions.

Une compréhension d’image améliorée

Les utilisateurs peuvent téléverser des schémas, images ou notes manuscrites pour que Gemini les analyse. Il peut ensuite :

  • Expliquer le contenu visuel
  • Résumer des notes
  • Générer des fiches de révision automatiques

Parfait pour les étudiants visuels ou ceux qui travaillent avec des supports complexes.

Disponibilité : la mise à jour est déjà en ligne

La mise à jour est disponible dès maintenant pour tous les utilisateurs du modèle Gemini 2.5 Flash.

Pour l’essayer :

  1. Rendez-vous sur gemini.google.com
  2. Choisissez Gemini 2.5 Flash dans le sélecteur de modèle

« Avec cette mise à jour, les utilisateurs profiteront d’une meilleure aide pas à pas pour les devoirs, de réponses plus structurées, et d’une compréhension d’image renforcée. », indique Google sur X.

Avec cette nouvelle version, Google transforme Gemini Flash en assistant pédagogique intelligent, capable de guider les élèves et étudiants dans leurs révisions de façon claire, rapide et efficace. Que ce soit pour décrypter un schéma, comprendre une équation ou réviser un cours, l’IA devient un véritable soutien éducatif personnalisé.

Lire plus
Intelligence Artificielle

Huawei dévoile sa riposte à Nvidia : une stratégie IA sur 3 ans basée sur la puissance en cluster

Huawei dévoile sa riposte à Nvidia : une stratégie IA sur 3 ans basée sur la puissance en cluster

Huawei frappe un grand coup dans la guerre technologique sino-américaine. Lors de sa conférence Huawei Connect à Shanghai, le géant chinois a annoncé un plan stratégique sur trois ans visant à concurrencer Nvidia sur le terrain des puces d’intelligence artificielle, non pas en surpassant la puissance brute de ses rivaux, mais en misant sur une approche systémique et massivement scalable.

Du Ascend 950 au « SuperPod » : Huawei réinvente l’architecture IA

Au cœur de ce plan figure une vision audacieuse : contourner les restrictions américaines en misant sur l’agrégation de puissance plutôt que sur la performance individuelle des puces.

Eric Xu, président tournant de Huawei, l’a affirmé sans détour : les puces Ascend actuelles ne rivalisent pas encore avec Nvidia en termes de vitesse ou d’efficacité énergétique.

Mais, Huawei veut compenser ce retard par l’interconnexion massive de milliers de processeurs dans des superclusters capables de former des modèles d’IA à grande échelle.

Le système baptisé « SuperPod » pourra connecter jusqu’à 15 488 puces Ascend via une infrastructure réseau 62 fois plus rapide que la concurrence, selon la marque.

Roadmap technique : Ascend 950 en 2026, Ascend 960 en 2027

La feuille de route de Huawei est déjà tracée :

  • En 2026, la société lancera la série Ascend 950, accompagnée de sa propre mémoire à large bande passante (HBM), pour créer des architectures cohérentes en termes de puissance et de bande passante.
  • En 2027, arrivera le Ascend 960, avec pour objectif déclaré de rattraper Nvidia d’ici 2028.

Selon Bloomberg, ces avancées permettraient aux entreprises chinoises de développer leurs propres modèles de langage sans dépendre de la technologie étrangère — une étape clé vers l’autonomie technologique nationale.

Un soutien politique explicite pour contrer les sanctions

v2 798e98dad80c4cbcb0210a724bb4d

La stratégie de Huawei s’inscrit pleinement dans la vision du gouvernement chinois qui a interdit l’utilisation de processeurs Nvidia par les entreprises nationales. Cette politique vise à stimuler l’innovation locale et à réduire la dépendance à l’égard de technologies étrangères, en particulier américaines.

Ce plan à long terme est perçu par les experts comme un acte fort dans la rivalité technologique sino-américaine. Huawei suit une structure stratégique analogue à celle de Nvidia, preuve que la Chine peut tenir la cadence de l’innovation, même sous embargo.

Cette montée en puissance pourrait entraîner :

  • Une restructuration des chaînes d’approvisionnement mondiales,
  • Une diversification des alternatives face aux solutions américaines,
  • Et une redistribution des cartes dans l’IA de pointe.

Des obstacles industriels à franchir

Malgré l’ambition, Huawei reste confronté à des défis majeurs. La production des puces est confiée à SMIC, un fondeur chinois lui aussi impacté par les sanctions américaines, notamment en ce qui concerne l’accès aux machines de gravure avancées (EUV).

De plus, les performances réelles des « SuperPods » dépendront fortement :

  • De l’optimisation logicielle,
  • De l’efficacité énergétique globale,
  • Et de l’écosystème IA autour des puces — des domaines où Nvidia reste très en avance, selon TechRepublic.

La réaction des marchés est restée modérée, avec une légère volatilité sur le titre Nvidia. Mais, la stratégie de Huawei pourrait bien accélérer l’adoption de l’IA en Chine, avec des applications envisagées dans des secteurs tels que :

  • Les véhicules autonomes,
  • La santé et la découverte de médicaments,
  • Et l’industrie intelligente.

D’après le Business Standard, ces nouveaux « supernœuds » de calcul visent à réduire la dépendance aux importations, tout en construisant une infrastructure IA nationale robuste.

Huawei contre Nvidia, l’heure du défi systémique

Avec ce plan étalé jusqu’en 2028, Huawei redéfinit le champ de bataille de l’intelligence artificielle. Il ne s’agit plus uniquement de gravure ou de puissance de calcul brute, mais d’intégration, de réseau, et de stratégie nationale.

Si Huawei réussit son pari, ce ne sera pas seulement une victoire contre Nvidia, mais une redéfinition du modèle d’innovation mondial, dans lequel la souveraineté technologique devient une arme géopolitique à part entière.

Lire plus
Intelligence Artificielle

Google DeepMind propulse la robotique autonome avec Gemini Robotics 1.5

Google DeepMind propulse la robotique autonome avec Gemini Robotics 1.5

Google DeepMind vient de franchir une nouvelle étape dans la robotique grâce à une mise à jour de ses modèles d’intelligence artificielle. En effet, DeepMind a annoncé une avancée majeure dans la robotique avec le lancement de ses modèles Gemini Robotics 1.5 et Gemini Robotics-ER 1.5, une mise à jour des systèmes introduits en mars dernier.

Selon Carolina Parada, responsable de la division robotique, les nouveaux modèles permettent désormais aux robots de planifier plusieurs étapes à l’avance et même de s’appuyer sur Internet pour trouver des solutions. Jusqu’à présent, ces systèmes excellaient surtout dans l’exécution d’instructions simples et isolées, comme plier une feuille ou ouvrir une fermeture éclair.

Désormais, ils peuvent accomplir des tâches beaucoup plus complexes, comme trier du linge par couleurs, préparer une valise en fonction de la météo à Londres ou encore séparer les déchets selon les consignes locales trouvées via une recherche en ligne.

Des robots capables de planifier, apprendre et résoudre des problèmes complexes

Ces modèles permettent désormais aux robots de :

  • Planifier plusieurs étapes à l’avance, plutôt que d’exécuter une seule instruction.
  • Analyser leur environnement et rechercher activement des informations en ligne (via Google Search).
  • Traduire ces recherches en instructions exploitables pour agir dans le monde réel.

Exemples de tâches complexes désormais possibles :

  • Trier le linge par couleur (sombres/clairs)
  • Préparer une valise selon la météo d’une ville (ex. : Londres)
  • Trier les déchets (recyclage, compost, ordure) selon les règles locales trouvées en ligne

GeminiRobotics Agentic System

Un système collaboratif entre modèles Gemini Robotics

Ces progrès reposent sur deux modèles complémentaires : Gemini Robotics 1.5 et Gemini Robotics-ER 1.5. Le premier combine vision et compréhension du langage pour exécuter des actions concrètes, tandis que le second aide les robots à interpréter leur environnement et à consulter des outils numériques comme Google Search pour traduire les résultats en instructions exploitables.

Ensemble, ils permettent aux machines de passer d’une simple obéissance à une véritable capacité de raisonnement appliquée au monde physique.

Apprentissage partagé entre robots

Autre avancée importante : la capacité pour les robots de « s’enseigner » mutuellement. Google DeepMind a montré que des compétences acquises sur un robot comme l’ALOHA2 pouvaient être directement transférées à d’autres machines très différentes, qu’il s’agisse du bras robotisé Franka ou même du robot humanoïde Apollo d’Apptronik.

Cela ouvre la voie à un modèle unique capable de contrôler des configurations variées et d’accélérer l’apprentissage collectif des robots.

« On peut désormais contrôler des robots très différents avec un seul modèle et transférer des compétences entre eux », a déclaré Kanishka Rao, ingénieur logiciel chez Google DeepMind.

Disponibilité

Gemini Robotics-ER 1.5 est accessible dès aujourd’hui via l’API Gemini dans Google AI Studio (pour développeurs). Gemini Robotics 1.5 reste pour l’instant réservé à certains partenaires sélectionnés.

Avec ces mises à jour, Google DeepMind renforce son positionnement dans la course à l’IA incarnée (embodied AI), où des modèles cognitifs sont intégrés à des robots capables d’agir dans le monde physique de manière autonome, collaborative, et adaptative.

Lire plus
Intelligence Artificielle

ChatGPT Pulse : OpenAI lance un résumé quotidien personnalisé pour abonnés Pro

OpenAI vient de dévoiler ChatGPT Pulse, une nouvelle fonctionnalité qui transforme le chatbot en véritable assistant proactif.

Disponible dès maintenant pour les abonnés Pro (200 dollars/mois), ChatGPT Pulse génère chaque matin un résumé personnalisé de 5 à 10 cartes visuelles afin de vous mettre à jour sur les sujets qui comptent pour vous — sans que vous ayez besoin de poser la moindre question.

Qu’est-ce que ChatGPT Pulse ?

Contrairement à l’usage classique de ChatGPT (où l’utilisateur initie la conversation), Pulse fonctionne en mode asynchrone. Pendant que vous dormez, l’IA explore vos préférences (via l’historique de vos conversations, mais aussi des apps connectées comme Google Agenda, Gmail ou Contacts) et prépare une sélection d’informations pertinentes :

  • Actu sportive (ex. résultats de F1 ou d’un club de foot favori)
  • Briefs d’actualité ciblés sur vos centres d’intérêt
  • Suggestions personnalisées (menus adaptés à votre régime, idées de sorties, voyages)
  • Leçons quotidiennes (ex. vocabulaire dans une langue en cours d’apprentissage)
  • Planning familial basé sur votre agenda (ex. idées de costumes pour Halloween, itinéraires kids-friendly en voyage)

Chaque brief apparaît sous forme de carte illustrée avec du texte concis, que vous pouvez développer ou interroger plus en détail via ChatGPT.

Une étape vers les « AI Agents »

Selon Fidji Simo, CEO d’OpenAI Applications : « La prochaine frontière, ce sont les agents : des assistants capables d’agir pour vous, comme une équipe qui travaille à vos côtés ».

ChatGPT Pulse est pensé comme un premier pas vers ces assistants autonomes. OpenAI imagine à terme un outil capable de réserver un restaurant, rédiger un email à envoyer, ou encore organiser un voyage complet, tout en respectant vos préférences.

Personnalisation & confidentialité

  • Connectors: compatibilité avec Gmail, Google Agenda, etc.
  • Mémoire activée : Pulse se souvient de vos préférences (ex. régime alimentaire, loisirs).
  • Sources citées : comme ChatGPT Search, les informations affichent leurs références.
  • Usage limité volontairement : après quelques briefs, Pulse s’arrête avec un message « C’est tout pour aujourd’hui », pour éviter l’effet scroll infini des réseaux sociaux.

Pourquoi réservé aux Pro ?

Pulse est une fonctionnalité très gourmande en calcul. Sam Altman a confirmé que certains services avancés resteraient réservés aux formules haut de gamme, le temps que la capacité serveur augmente (grâce aux partenariats avec Oracle et SoftBank).

Les utilisateurs de ChatGPT Plus devraient y avoir accès prochainement, avant un déploiement plus large à terme.

Lire plus
Intelligence Artificielle

ChatGPT Pro : OpenAI prépare des fonctionnalités exclusives à 200 dollars/mois

ChatGPT Pro : OpenAI prépare des fonctionnalités exclusives à 200 dollars/mois

Sam Altman, PDG d’OpenAI, a une nouvelle fois fait parler de lui. Dans un post publié sur X, il a annoncé l’arrivée prochaine de nouvelles fonctionnalités pour ChatGPT, mais uniquement pour les abonnés du plan ChatGPT Pro à 200 dollars par mois. Certaines options pourraient même être facturées en supplément.

Cette annonce marque une étape stratégique : OpenAI veut pousser l’IA encore plus loin, mais ces avancées auront un coût, tant pour les serveurs que pour les utilisateurs.

ChatGPT Pro : Des fonctionnalités premium très gourmandes en calcul

Altman n’a pas donné de détails précis, mais tout porte à croire que ces nouveautés viseront les usages les plus avancés :

  • une raisonnement plus poussé grâce à des modèles spécialisés,
  • une intégration multimodale améliorée (texte, image, audio, vidéo),
  • des agents autonomes capables de gérer des tâches complexes,
  • et peut-être même une évolution de Sora ou GPT-Image.

Ces outils nécessitent une puissance de calcul colossale. D’où ce modèle premium, qui vient compléter l’offre actuelle : ChatGPT gratuit, ChatGPT Plus à 20 dollars, et maintenant ChatGPT Pro à 200 dollars pour les utilisateurs « power users » et entreprises.

Accessibilité vs rentabilité

Si le plan ChatGPT Pro attire surtout les entreprises et professionnels, l’introduction de frais supplémentaires pour certaines fonctionnalités pourrait créer une fracture entre utilisateurs.

Les analystes y voient une tendance lourde : l’IA est de plus en plus intégrée dans les workflows professionnels, mais seuls ceux qui peuvent payer auront accès aux outils les plus puissants. Pour les autres, il faudra se contenter d’une version plus limitée.

Un choix qui rappelle les récentes discussions autour des coûts astronomiques des data centers nécessaires pour entraîner et faire tourner ces modèles. Altman lui-même a reconnu que ces investissements se chiffreraient en trillions de dollars dans les prochaines années.

Une stratégie risquée, mais ambitieuse

Cette montée en gamme survient après une période agitée pour OpenAI, marquée par le lancement controversé de GPT-5, jugé en demi-teinte par une partie des utilisateurs. Mais, Altman ne cache pas son ambition : faire d’OpenAI le leader de l’IA dite agentique, capable d’exécuter des tâches complexes sans intervention humaine constante.

La concurrence est rude, avec Google et Anthropic en embuscade, mais OpenAI veut garder l’avantage en proposant les fonctionnalités les plus avancées… même si elles restent réservées à une élite capable de payer.

Avec ces nouvelles offres premium, OpenAI assume un virage : l’innovation sera coûteuse. ChatGPT restera accessible dans ses fonctions de base, mais les vraies révolutions — raisonnement de haut niveau, multimodalité avancée, agents autonomes — seront réservées aux abonnés ChatGPT Pro.

Reste à voir si ce pari paiera : ces innovations pourraient transformer la productivité des entreprises, mais aussi accentuer la fracture entre « AI haves » et « have-nots ».

Lire plus
Intelligence Artificielle

Microsoft 365 Copilot intègre les modèles Claude d’Anthropic

Microsoft 365 Copilot intègre les modèles Claude d’Anthropic

Microsoft vient de franchir un cap stratégique dans l’intégration de l’intelligence artificielle à ses outils professionnels. À partir d’aujourd’hui, les utilisateurs de Microsoft 365 Copilot peuvent accéder aux modèles Claude Sonnet 4 et Claude Opus 4.1 développés par Anthropic, en plus des modèles OpenAI déjà utilisés.

Une décision qui marque un tournant important dans la diversification des moteurs IA accessibles au sein de la suite bureautique de Microsoft.

Claude rejoint Copilot : plus de choix, plus de puissance

Jusqu’à présent, Microsoft 365 Copilot reposait exclusivement sur les modèles GPT d’OpenAI, notamment GPT-4 et GPT-4 Turbo. Désormais, les modèles Claude sont disponibles dans deux environnements clés :

  • Researcher, l’assistant IA de recherche avancée,
  • Et Microsoft Copilot Studio, la plateforme de création d’agents conversationnels et automatisés.

Les utilisateurs verront apparaître une nouvelle option « Try Claude » dans l’interface de Researcher. En un clic, ils pourront basculer entre les modèles OpenAI et Anthropic Claude Opus 4.1, selon leurs préférences ou les besoins de leur tâche.

1 dad88c

« Les clients ont désormais la flexibilité de choisir les modèles IA qui conviennent le mieux à leurs cas d’usage métier », explique Charles Lamanna, président de la division Copilot chez Microsoft.

Une IA taillée pour le travail, le raisonnement et l’automatisation

Ce déploiement ne se limite pas à une simple alternative technique. Microsoft mise sur les atouts spécifiques des modèles Claude, réputés pour leur raisonnement avancé, leur rigueur en traitement de texte et leurs performances dans des tâches complexes. Dans Copilot Studio, ces modèles peuvent être utilisés pour :

  • Créer des agents IA personnalisés,
  • Automatiser des workflows complexes,
  • Orchestrer plusieurs modèles selon les tâches.

Les utilisateurs peuvent désormais mixer les modèles Claude, OpenAI ou d’autres proposés dans le catalogue Azure, pour optimiser chaque étape d’un processus automatisé.

Claude dans Microsoft 365 Copilot : déjà actif via le programme Frontier

L’intégration de Claude commence aujourd’hui via le programme Frontier, accessible aux détenteurs de licences Microsoft 365 Copilot ayant opté pour la nouvelle fonctionnalité. L’activation est immédiate pour les entreprises qui souhaitent expérimenter ces nouveaux outils.

Ce choix stratégique ne sort pas de nulle part. Microsoft a récemment commencé à favoriser Claude Sonnet 4 dans GitHub Copilot, notamment dans Visual Studio Code, où l’outil de complétion IA automatique utilise désormais principalement le modèle d’Anthropic.

Des tests internes ont également montré que Claude surperforme les modèles OpenAI dans certaines tâches dans Excel et PowerPoint, selon plusieurs sources proches du dossier. Une intégration plus large de Claude dans les outils de bureautique de Microsoft est donc attendue dans les semaines à venir.

Une IA Anthropic… toujours hébergée chez AWS

Fait notable : bien que Microsoft accède aux modèles Claude via l’API publique d’Anthropic, ceux-ci restent hébergés chez Amazon Web Services (AWS) — un concurrent direct d’Azure. Cela n’empêche pas Microsoft d’envisager une intégration plus profonde via Azure, comme cela a déjà été le cas avec Grok 3, le modèle IA d’xAI (Elon Musk), désormais hébergé sur Azure.

L’arrivée des modèles Claude dans Microsoft 365 Copilot n’est pas qu’un élargissement de l’offre : c’est un signal fort envoyé au marché de l’IA générative. Microsoft adopte une approche multi-modèles, capable de s’adapter aux besoins réels des utilisateurs professionnels. Cette flexibilité pourrait bien devenir un avantage concurrentiel majeur, à l’heure où les entreprises exigent de la transparence, de la performance et des résultats concrets.

« Ce n’est que le début », promet Charles Lamanna. Et il se pourrait bien que Claude s’impose comme le nouvel atout IA de Microsoft.

Lire plus
Intelligence Artificielle

Shadow Leak : des chercheurs exploitent ChatGPT pour voler des données Gmail

Shadow Leak : des chercheurs exploitent ChatGPT pour voler des données Gmail

Des chercheurs en cybersécurité de Radware ont démontré comment ChatGPT pouvait être utilisé comme complice involontaire dans le vol de données sensibles.

Leur attaque, baptisée Shadow Leak, visait les boîtes Gmail et a mis en lumière les risques liés aux IA agentiques, ces assistants capables d’agir de manière autonome au nom de l’utilisateur.

Une faille dans le fonctionnement des agents IA

Les agents IA, comme Deep Research intégré à ChatGPT, sont conçus pour faciliter la vie des utilisateurs en accédant à leurs e-mails, agendas, documents professionnels et bien plus encore. Mais, cette autonomie peut être détournée.

Radware a utilisé une technique appelée injection de prompt : des instructions malveillantes sont cachées dans un contenu apparemment banal, comme un e-mail. Invisibles pour l’œil humain (par exemple du texte blanc sur fond blanc), ces commandes sont comprises et exécutées par l’IA.

Dans le cas de Shadow Leak, un e-mail piégé était placé dans la boîte Gmail. Lorsqu’un utilisateur lançait Deep Research, l’agent rencontrait les instructions cachées, qui l’amenait à fouiller la boîte de réception pour trouver des e-mails RH ou des données personnelles, puis à exfiltrer ces informations vers les attaquants, sans que la victime ne se doute de rien.

Invisible pour les défenses classiques

La particularité de Shadow Leak est que l’attaque s’exécutait sur l’infrastructure cloud d’OpenAI, rendant la fuite de données indétectable par les défenses traditionnelles.

Les chercheurs expliquent que parvenir à ce résultat a nécessité de nombreux essais et échecs avant d’obtenir un contournement efficace.

Radware alerte que cette faille pourrait aussi être exploitée sur d’autres services connectés à Deep Research, comme Outlook, Google Drive, Dropbox ou GitHub. Cela ouvrirait la voie à l’exfiltration de données critiques : contrats, comptes rendus de réunions ou encore fichiers clients.

Correctif appliqué, mais le risque demeure

OpenAI a corrigé la vulnérabilité dans ChatGPT signalée par Radware en juin 2025. Néanmoins, cette expérience illustre un défi majeur : il est impossible de prévoir toutes les potentielles injections de prompt , et les attaquants font preuve d’une créativité croissante pour détourner ces outils.

Comme l’explique Radware, l’essor des agents IA, notamment dans ChatGPT, s’accompagne de risques inédits : un assistant conçu pour gagner du temps peut, à son insu, devenir une porte dérobée vers des données confidentielles.

Lire plus
Intelligence Artificielle

OpenAI et xAI convoitent Cursor : la nouvelle bataille de l’IA se joue sur les données de code

OpenAI et xAI convoitent Cursor : la nouvelle bataille de l’IA se joue sur les données de code

Dans la course effrénée à l’intelligence artificielle, les données spécialisées deviennent un levier stratégique majeur. Et parmi elles, les données liées au code informatique apparaissent comme l’un des trésors les plus convoités.

Selon The Information, OpenAI (dirigé par Sam Altman) et xAI (fondée par Elon Musk) ont récemment manifesté un vif intérêt pour les données générées par Cursor, une startup connue pour son éditeur de code assisté par IA.

Pourquoi les données de Cursor attirent autant ?

Cursor intègre des modèles d’IA pour aider les développeurs à écrire, corriger et déboguer du code. En arrière-plan, la plateforme enregistre :

  • des complétions de code (suggestions de l’IA),
  • les corrections et modifications des utilisateurs,
  • des schémas de débogage réels.

Résultat : un gigantesque corpus de données ultra-granulaires, bien plus riche que du simple code open source. On parle de milliards de complétions quotidiennes, couvrant de multiples langages, et révélant comment les développeurs interagissent concrètement avec les outils IA.

Pour OpenAI, ces données pourraient renforcer Codex et les capacités de ChatGPT en programmation. Pour xAI, elles alimenteraient Grok, le modèle maison d’Elon Musk, afin de le rendre plus performant dans la génération et l’automatisation de projets logiciels.

Au-delà de la quantité, la qualité

Contrairement aux données issues du Web scraping (souvent bruitées ou redondantes), celles de Cursor sont propres, contextualisées et orientées vers la production. Elles reflètent la logique humaine de développement, un atout clé pour entraîner des IA agents capables de créer des applications complètes de manière autonome.

C’est cette finesse qui en fait un « or numérique » pour les géants de l’IA, comme l’explique ByteByteGo dans une analyse technique.

cursor guide overview

Les obstacles : confidentialité et gouvernance des données

Mais l’affaire n’est pas si simple. Les négociations autour de Cursor ont déjà achoppé par le passé :

  • OpenAI aurait envisagé son rachat, avant de se tourner vers Windsurf (autre startup de codage IA, mais au final dans les mains de Google).
  • Les discussions bloquent souvent sur la valorisation financière et la propriété des données générées par les utilisateurs.

Cela soulève des questions éthiques : à qui appartiennent réellement ces données ? À la startup, aux développeurs, ou aux deux ?

Un enjeu stratégique pour l’écosystème IA

L’intérêt d’OpenAI et xAI pour Cursor illustre une tendance de fond : la bataille ne se joue plus seulement sur la puissance de calcul, mais sur l’accès à des datasets exclusifs.

Celui qui maîtrise ces données gagne un avantage décisif en performance et fiabilité. Cursor, avec sa croissance rapide et ses intégrations avec Claude d’Anthropic, pourrait devenir un acteur incontournable du futur codage IA. Mais, l’intégration technique et les contraintes réglementaires (protection des données, régulation de l’IA) pourraient ralentir ces ambitions.

Lire plus