fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI envisage d’intégrer des publicités dans ChatGPT, mais avec prudence

OpenAI envisage d’intégrer des publicités dans ChatGPT, mais avec prudence

Alors que OpenAI continue d’étendre l’usage de ChatGPT à l’échelle mondiale, l’entreprise explore de nouvelles sources de revenus — et la publicité n’est plus un tabou. Dans une interview accordée à The Verge, Nick Turley, responsable de ChatGPT, a évoqué la possibilité d’intégrer des publicités, tout en insistant sur la nécessité d’une approche « très réfléchie et de bon goût ».

La publicité dans ChatGPT : pas exclue, mais pas immédiate

Selon Turley, la publicité pourrait ne pas convenir à ChatGPT tel qu’il est actuellement conçu, car l’expérience utilisateur repose sur une alignement précis avec les objectifs de l’utilisateur. Toutefois, d’autres produits OpenAI à venir pourraient intégrer des formats publicitaires adaptés à leur usage.

Sam Altman, PDG d’OpenAI, a exprimé par le passé une certaine réticence : « L’idée de mélanger publicité et IA me met un peu mal à l’aise, » avait-il déclaré à Harvard en 2024.

Mais il a récemment tempéré sa position, affirmant en juin 2025 dans un podcast qu’il n’était « pas entièrement opposé » à la publicité, si elle est bien encadrée.

Croissance explosive, mais rentabilité encore lointaine

Malgré un succès phénoménal, OpenAI n’est pas encore rentable. D’après Bloomberg, l’entreprise devrait générer 12,7 milliards de dollars de revenus en 2025, contre 3,7 milliards en 2024. Pourtant, elle ne prévoit pas de flux de trésorerie positif avant 2029.

Quelques chiffres clés :

Turley y voit une opportunité de conversion vers des abonnements premium.

« Commerce in ChatGPT » : vers la recommandation de produits

OpenAI teste actuellement une nouvelle fonctionnalité de monétisation nommée « Commerce in ChatGPT ». L’objectif ? Permettre à l’IA de suggérer des produits, avec une commission potentielle à la clé. Turley insiste : « Nous ne voulons pas que des revenus d’affiliation influencent les recommandations ».

Le système devra donc rester objectif et indépendant, sous peine de perdre la confiance des utilisateurs.

OpenAI explore aussi des formes d’outils plus intégrés, au-delà du simple chatbot. Turley évoque la possibilité que ChatGPT devienne un assistant de productivité, voire un outil B2B, avec des modèles économiques spécifiques.

Alors que l’écosystème de l’IA se structure à vitesse grand V, OpenAI semble vouloir diversifier ses sources de revenus sans nuire à l’expérience utilisateur. Si la publicité devait arriver dans ChatGPT, elle le fera avec précaution… mais elle n’est désormais plus exclue.

Lire plus
Intelligence Artificielle

DeepSeek R2 : la société dément un lancement en août

DeepSeek R2 : la société dément un lancement en août

Alors que les rumeurs s’intensifiaient ces dernières heures sur une sortie imminente de DeepSeek R2, la société chinoise d’IA a mis fin aux spéculations.
Un proche du dossier a confirmé qu’aucun lancement de DeepSeek R2 n’est prévu entre le 15 et le 30 août 2025, contrairement à ce qu’avait laissé entendre… le propre chatbot de DeepSeek.

Ce n’est pas la première fois que le calendrier de DeepSeek-R2 crée la confusion. En mars dernier, un prétendu lancement le 17 du mois avait déjà circulé sur les réseaux chinois avant d’être démenti. Cette fois encore, la date évoquée semble avoir été générée par une interprétation trop optimiste — voire maladroite — de l’IA maison.

La réalité est plus simple : DeepSeek n’a communiqué aucune date officielle ni publié de fiche technique détaillée pour R2.

DeepSeek R2 : des ambitions, mais encore des obstacles

Malgré le silence officiel, les attentes sont élevées. DeepSeek R2 est pressenti comme une avancée majeure en raisonnement multilingue et en génération de code, capable de rivaliser avec des modèles comme GPT-4 et même GPT-5.

Pourtant, selon des sources citées en juin, le PDG Liang Wenfeng jugerait encore le modèle insuffisamment performant, même après plusieurs mois de développement intensif.

Le retard ne serait pas uniquement lié à la qualité des résultats. Des problèmes d’infrastructure et de scalabilité pèseraient aussi dans la balance. Depuis l’interdiction d’export des puces Nvidia H20 vers la Chine, DeepSeek a dû s’appuyer sur des puces Huawei Ascend 910B. Leur cluster affiche 512 PFLOPS en FP16 avec un taux d’utilisation de 82 %, soit environ 91 % des performances d’un cluster Nvidia A100.

Prometteur, mais encore incertain pour supporter une montée en charge massive au lancement.

Cependant, un espoir pointe à l’horizon : un récent accord entre Nvidia, AMD et le gouvernement américain permettra aux deux fabricants de continuer à vendre certaines puces IA en Chine contre une taxe de 15 % sur leurs revenus locaux. À terme, cela pourrait desserrer l’étau technologique… mais pas avant plusieurs mois.

Une stratégie prudente face à une concurrence féroce

Dans la course à l’IA, un bon modèle ne suffit pas : il doit aussi être stable, évolutif et prêt à encaisser des millions de requêtes. DeepSeek préfère donc retarder son lancement plutôt que de risquer un démarrage raté.

Pour l’instant, DeepSeek R2 est bien réel, il est en phase de tests, mais pas encore prêt pour le grand public. Le monde de la tech reste en attente, observant si la société pourra tenir ses promesses et s’imposer face aux géants américains.

Lire plus
Intelligence Artificielle

Google Gemini introduit les « conversations temporaires » pour plus de confidentialité

Google Gemini introduit les « conversations temporaires » pour plus de confidentialité

Google continue de mettre à jour son assistant IA Gemini afin d’offrir plus de contrôle sur la confidentialité et une meilleure personnalisation des réponses.

Avec des fonctionnalités comme les « Conversations temporaires » et le « Contexte personnel », la firme tente de rattraper son retard face à ChatGPT et Claude, tout en donnant aux utilisateurs plus de maîtrise sur leurs données. Les observateurs du secteur soulignent que cette personnalisation pourrait transformer la façon dont les utilisateurs interagissent avec l’IA au quotidien.

Conversations temporaires : le mode Incognito du chatbot Gemini

La principale nouveauté, baptisée Conversations temporaires (Temporary Chats), permet d’ouvrir une discussion qui s’efface automatiquement au bout de 72 heures.

Temporary Chat.width 1000.format

Contrairement à un mode navigation privée classique, cette option conserve toutes les fonctions premium de Gemini, comme l’envoi et l’analyse de fichiers, le traitement d’images et l’accès aux outils avancés. Ces échanges ne sont pas enregistrés et n’influencent pas les futures réponses de Gemini. Un atout pour les questions sensibles ou les projets confidentiels.

Conserver l’activité et contrôle des données

Google remplace également l’ancienne option « Activité des applications Gemini » par un nouveau réglage baptisé Conserver l’activité (Keep Activity). Activé par défaut, il permet à Google de prélever un échantillon des conversations et fichiers envoyés pour améliorer ses modèles d’IA.

Bon à savoir : si vous aviez désactivé l’ancienne option, le nouveau réglage restera désactivé. Il est possible de le modifier dans les Paramètres.

Keep Activity with Audio and Liv

En parallèle, Google introduit une option pour empêcher l’utilisation de vos données dans l’entraînement futur de ses modèles. Cette fonctionnalité est désactivée par défaut.

Contexte personnel : vers un assistant qui « vous connaît »

Autre évolution importante : l’arrivée du Contexte personnel (Personal Context). Cette fonction permet à Gemini d’apprendre de vos conversations passées afin de fournir des réponses plus pertinentes et personnalisées. Par exemple, l’IA pourra retenir vos préférences de style d’écriture, vos projets en cours ou encore les éléments liés à votre entreprise.

Personal context Past Chats.wi

Ce mode sera activé par défaut sur Gemini 2.5 Pro dans certains pays, avant d’arriver sur Gemini 2.5 Flash dans les semaines à venir. Les utilisateurs peuvent le désactiver à tout moment.

Google en retard sur ses concurrents

Si ces annonces marquent une avancée, Google reste en retard sur ses rivaux :

  • ChatGPT a introduit la mémoire, l’historique de chat et les conversations temporaires dès 2024.
  • Anthropic Claude propose depuis fin 2024 un mode Styles pour personnaliser le ton et la manière dont l’IA interagit.

Dans cette course à la personnalisation, l’objectif est clair : permettre aux utilisateurs de ne plus répéter sans cesse les mêmes instructions et d’avoir un assistant qui “comprend” leur contexte.

Avec les Conversations temporaires, Conserver l’activité et le Contexte personnel, Google Gemini fait un pas important vers plus de contrôle utilisateur et de pertinence dans ses réponses.

Mais face à ChatGPT et Claude, déjà bien installés avec des fonctions mémoire plus avancées, Google devra accélérer s’il veut imposer son assistant comme un acteur majeur dans l’IA conversationnelle.

Lire plus
Intelligence Artificielle

Huawei défie Nvidia avec UCM et l’open source de CANN

Huawei défie Nvidia avec UCM et l’open source de CANN

Huawei vient de franchir un nouveau cap dans sa stratégie d’indépendance technologique. L’entreprise chinoise a officiellement dévoilé Unified Cache Manager (UCM), un framework d’inférence IA pensé pour réduire la dépendance aux coûteuses mémoires HBM, tout en confirmant l’open source de sa boîte à outils CANN (Compute Architecture for Neural Networks) d’ici fin 2025.

L’objectif est clair : optimiser l’IA à grande échelle en contournant les restrictions matérielles imposées par les États-Unis, tout en construisant un écosystème capable de rivaliser avec CUDA de Nvidia.

UCM : un accélérateur logiciel pour les gros modèles IA

Le Unified Cache Manager cible un point faible majeur des déploiements IA : la gestion de la mémoire KV Cache lors de l’inférence des Large Language Model (LLM). En utilisant une hiérarchie mémoire (HBM, DRAM classique et SSD), UCM alloue intelligemment les données en fonction des besoins de latence en temps réel.

Testé chez China UnionPay dans des scénarios comme l’analyse vocale client ou l’assistance bureautique, Huawei affirme avoir réduit la latence jusqu’à 90 % et multiplié le débit par 22. Des résultats impressionnants, surtout dans un contexte où la Chine a un accès limité aux dernières générations de HBM (HBM3, HBM4), contrôlées par SK Hynix, Samsung et Micron.

CANN : le pari open source contre CUDA

En parallèle, Huawei a annoncé l’ouverture du code source de CANN sur sa plateforme MindSpore dès septembre, puis son intégration dans des moteurs d’inférence populaires. L’idée est de casser le verrouillage propriétaire de CUDA, la plateforme logicielle qui règne sur l’IA depuis plus de 20 ans, et d’attirer les développeurs vers les puces Ascend de Huawei.

Le défi est colossal : CUDA bénéficie d’un écosystème mature, d’outils optimisés et d’une adoption massive. Mais, Huawei espère reproduire des succès open source comme Linux, en misant sur la communauté et des partenariats stratégiques (par exemple avec Zhipu AI, qui a déjà basculé vers Ascend).

Matériel et ambitions : contrer Nvidia sur le terrain des GPU IA

Sur le plan matériel, Huawei prépare ses processeurs Ascend 910C et 910D, positionnés face aux Nvidia H100 et Blackwell. L’entreprise vise le déploiement de plus d’un million d’unités d’ici décembre 2025.

L’association d’un hardware compétitif et d’outils open source pourrait constituer une alternative crédible dans un marché chinois où Nvidia et AMD sont de plus en plus exclus des projets sensibles.

Enjeu géopolitique : vers une autonomie IA « Made in China »

Derrière l’innovation technologique se cache un enjeu stratégique : réduire la dépendance aux technologies américaines. Les restrictions sur les puces avancées et la mémoire haut débit poussent la Chine à accélérer le développement de solutions locales, qu’il s’agisse de semi-conducteurs (Yangtze Memory, Changxin Memory) ou de frameworks IA comme UCM et CANN.

Huawei se positionne ainsi comme un acteur clé de cette réindustrialisation numérique, misant sur le logiciel pour compenser les limites matérielles imposées par les sanctions.

Lire plus
Intelligence Artificielle

DeepSeek R2 : le nouveau modèle IA chinois prêt à rivaliser avec GPT-5

DeepSeek R2 : le nouveau modèle IA chinois prêt à rivaliser avec GPT-5

La course mondiale à l’intelligence artificielle s’accélère. DeepSeek s’apprête à lancer son modèle de nouvelle génération, DeepSeek R2, entre le 15 et le 30 août 2025, soit quelques jours seulement après la sortie de GPT-5, inclut dans son chatbot ChatGPT.

Les premiers détails, révélés lors d’une interaction avec le propre modèle IA de la société, laissent entrevoir une avancée technologique majeure.

DeepSeek R2 : Une architecture Mixture of Experts encore plus poussée

DeepSeek R2 adoptera une architecture Mixture of Experts (MoE) de nouvelle génération, associée à un gating network plus intelligent pour mieux gérer les charges lourdes d’inférence.

Selon des sources proches du développement, le modèle pourrait atteindre 1,2 trillion de paramètres, presque le double de DeepSeek R1 (671 milliards), tout en restant en deçà des 1,8 trillion+ de ChatGPT-4 et GPT-5.

100 % entraîné sur des puces chinoises Huawei

Dans le cadre de la stratégie chinoise d’autosuffisance en IA, DeepSeek R2 a été entièrement entraîné sur les puces Huawei Ascend 910B. Le cluster Huawei, affichant 512 PFLOPS de performance FP16 à 82 % d’utilisation, atteindrait 91 % des performances d’un cluster Nvidia A100.

Le gain stratégique est de se libérer de la dépendance aux GPU américains et réduire considérablement les coûts d’entraînement. Résultat : 97 % de réduction du coût de formation par rapport à GPT-4, grâce à l’utilisation de matériel local et de techniques d’optimisation avancées.

Des prix agressifs pour bousculer OpenAI et Anthropic

Avec des coûts réduits, les analystes s’attendent à ce que DeepSeek propose un accès API à prix cassés, de quoi perturber les modèles économiques actuels dominés par OpenAI et Anthropic.

L’annonce a déjà eu un effet immédiat sur les marchés : l’action du fabricant chinois de puces Cambricon a bondi de 20 %, propulsant sa capitalisation boursière à 355 milliards de yuans (≈ 49,7 milliards de dollars).

Huawei dévoile aussi son framework UCM

En parallèle, Huawei lance Unified Cache Manager (UCM), un nouveau framework d’inférence IA optimisant la gestion des KV Cache sur différents niveaux de mémoire (HBM, DRAM, SSD). Testé avec China UnionPay, UCM a permis 90 % de réduction de la latence et un gain en débit de 22 fois.

Huawei prévoit de publier UCM en open source dès septembre 2025.

Le duo DeepSeek R2 + UCM illustre l’ambition de Pékin : bâtir et exécuter des systèmes d’IA hautes performances sans recourir à des puces ou outils occidentaux.

Si les promesses sont tenues, DeepSeek pourrait devenir un acteur incontournable sur le marché mondial des modèles LLM, avec un rapport puissance/coût très agressif.

Lire plus
Intelligence Artificielle

OpenAI adoucit la personnalité de GPT-5 après les critiques pour le rendre plus chaleureux

OpenAI adoucit la personnalité de GPT-5 après les critiques pour le rendre plus chaleureux

OpenAI apporte des ajustements à GPT-5, son dernier modèle phare, après avoir été critiqué pour un ton jugé plus froid et moins engageant que celui de GPT-4o. Le PDG d’OpenAI, Sam Altman, a expliqué dans un post sur X :

« Nous travaillons sur une mise à jour de la personnalité de GPT-5 afin qu’elle paraisse plus chaleureuse que l’actuelle, mais moins agaçante (pour la plupart des utilisateurs) que GPT-4o ».

GPT-5 : Une transition mal vécue par les abonnés

Lors du lancement de GPT-5, OpenAI avait remplacé GPT-4o par défaut dans ChatGPT, sans avertir les utilisateurs. Résultat : un tollé sur les réseaux sociaux et Reddit, certains abonnés menaçant même de résilier leur abonnement si GPT-4o n’était pas rétabli.

Ce modèle, apprécié pour son côté chaleureux et conversationnel, avait pourtant été volontairement allégé de son comportement « trop flatteur » jugé parfois excessif. Malgré cela, il restait populaire auprès de nombreux utilisateurs.

Face à la grogne, OpenAI a finalement réintroduit GPT-4o… mais uniquement pour les abonnés ChatGPT Plus et Pro.

GPT-5 gagne en chaleur… et en contrôle utilisateur

OpenAI ne se contente pas de rétablir l’ancien modèle : GPT-5 va également évoluer. Désormais, les utilisateurs ChatGPT Plus pourront choisir le « niveau de raisonnement » de GPT-5 grâce à trois modes :

  • Auto (par défaut, équilibre entre rapidité et précision)
  • Fast (réponses rapides, moins de raisonnement)
  • Thinking (plus lent, mais plus approfondi)

Screen 2025 08 13 at 14.00.07

En mode Thinking, GPT-5 offre une fenêtre de contexte de 196 000 tokens, idéale pour les projets complexes, notamment en développement logiciel.

Altman précise que la limite hebdomadaire est fixée à 3 000 messages pour GPT-5 Thinking, avec ensuite un accès au modèle « GPT-5 Thinking mini » pour continuer.

Plus de modèles accessibles

Dans les paramètres Web de ChatGPT, un nouveau bouton « Modèles hérités » permettra aux abonnés Plus et Pro de retrouver :

  • OpenAI o3
  • GPT-4.1
  • GPT-5 Thinking mini

Screen 2025 08 13 at 14.00.10

GPT-4.5 restera exclusif aux abonnés Pro, car il requiert davantage de ressources GPU.

Objectif : rendre GPT-5 plus humain

Ces ajustements montrent qu’OpenAI écoute les retours utilisateurs et cherche à trouver le juste équilibre entre précision, rapidité et personnalité. Le défi : garder GPT-5 performant tout en lui redonnant un ton plus naturel et engageant.

Si la mise à jour tient ses promesses, elle pourrait réconcilier les fans de GPT-4o avec la nouvelle génération de modèles OpenAI.

Lire plus
Intelligence Artificielle

OpenAI déploie GPT-5 : priorités d’accès, limites d’usage et nouvelles intégrations

OpenAI déploie GPT-5 : priorités d’accès, limites d’usage et nouvelles intégrations

Alors que la polémique entre Sam Altman (CEO et cofondateur d’OpenAI) et Elon Musk continue d’agiter X, l’annonce la plus importante du moment concerne le déploiement progressif de GPT-5.

Après un lancement jugé « chaotique » par certains utilisateurs la semaine dernière, OpenAI met en place un plan plus clair pour gérer la demande colossale et les limitations d’usage pour GPT-5.

GPT-5 : un lancement sous tension

La sortie de GPT-5 a provoqué un afflux massif sur ChatGPT, qui compte aujourd’hui 700 millions d’utilisateurs actifs par semaine. Ce pic d’activité a entraîné des limitations temporaires, poussant OpenAI à réactiver GPT-4o pour calmer les demandes.

Sam Altman a précisé que la priorité absolue était de garantir plus de capacité aux abonnés payants qu’avant la sortie de GPT-5, sans donner de chiffres exacts.

Pour les abonnés ChatGPT Plus (20 dollars/mois), un mode « Thinking » — qui consacre plus de temps et de puissance de calcul aux tâches complexes — est actuellement limité à 3 000 messages par semaine. En revanche, sur le plan ChatGPT Team (30 dollars/utilisateur/mois), ce mode n’est disponible qu’à hauteur de 200 messages « Thinking » par semaine, une différence surprenante.

API GPT-5 : priorité aux clients existants

Côté développeurs, OpenAI confirme que les accès API GPT-5 seront d’abord alloués aux clients actuels et à ceux déjà engagés par contrat. Altman a indiqué que l’entreprise pouvait encore absorber 30 % de croissance API supplémentaire, mais pas au-delà pour l’instant.

Pour soutenir cette montée en charge, OpenAI prévoit de doubler sa capacité de calcul d’ici cinq mois. Bien que la société n’ait pas détaillé la taille actuelle de son infrastructure, cette expansion vise à réduire les temps de réponse et à améliorer la stabilité pour tous les utilisateurs.

Nouvelles intégrations pour ChatGPT Plus et Pro

En parallèle, OpenAI enrichit ChatGPT avec de nouvelles connexions à des applications tierces.

  • ChatGPT Plus peut désormais rechercher directement dans Dropbox, Notion, Box, Canva, HubSpot, Microsoft SharePoint et Microsoft Teams.
  • ChatGPT Pro (200 dollars/mois) ajoute aussi le support pour GitHub et Teams.

Ces intégrations permettent, par exemple, de consulter un document dans Dropbox ou un projet Notion sans quitter la fenêtre de chat.

Limitation géographique : ces connecteurs ne sont pas encore disponibles pour les utilisateurs en Europe, au Royaume-Uni et en Suisse.

Une montée en puissance maîtrisée

Avec GPT-5, OpenAI ne cherche pas uniquement à proposer un modèle plus intelligent. L’objectif est aussi d’en faire un hub central de productivité, capable de s’intégrer aux outils déjà utilisés en entreprise. En privilégiant ses abonnés existants et en augmentant progressivement sa puissance de calcul, la société adopte une approche graduelle pour éviter les saturations et stabiliser l’expérience utilisateur.

Le véritable test viendra dans les prochains mois, lorsque l’expansion de l’infrastructure sera achevée et que GPT-5 pourra être pleinement exploité sans restrictions.

Lire plus
Intelligence Artificielle

Claude Sonnet 4 : Anthropic lance une IA avec 1 million de tokens de contexte

Claude Sonnet 4 : Anthropic lance une IA avec 1 million de tokens de contexte

Anthropic vient de franchir un nouveau cap dans le domaine de l’intelligence artificielle avec Claude Sonnet 4, un modèle capable de traiter jusqu’à 1 million de tokens de contexte dans une seule requête. Cette avancée permet d’ingérer l’équivalent de 750 000 mots, soit des centaines de milliers de lignes de code ou plusieurs romans entiers, sans découper les données en morceaux.

Disponible dès maintenant en bêta public via l’API d’Anthropic et Amazon Bedrock, cette capacité ouvre de nouvelles perspectives pour les développeurs, les entreprises et les professionnels gérant des projets complexes.

Un bond en avant pour les développeurs

Jusqu’ici, l’analyse d’un projet logiciel complet nécessitait de le découper en segments, ce qui faisait perdre du contexte. Avec Claude Sonnet 4, il devient possible de :

  • Charger un dépôt de code entier et recevoir des suggestions de refactorisation ciblées.
  • Déboguer des systèmes complexes en comprenant l’architecture globale.
  • Analyser simultanément des centaines de documents liés tout en conservant les relations entre eux.

Selon Anthropic, cette innovation réduit drastiquement les allers-retours avec l’IA, ce qui peut accélérer les cycles de développement et améliorer la précision des réponses.

Une technologie pensée pour la cohérence et la sécurité

Cette évolution repose sur les travaux d’Anthropic autour de la Constitutional AI, un cadre éthique inspiré notamment de la Déclaration universelle des droits de l’homme. L’objectif : garantir des réponses pertinentes, sûres et vérifiables, même sur des volumes de données massifs.

Lors de tests internes dits needle in a haystack, Claude a atteint 100 % de précision pour retrouver des informations précises noyées dans de vastes ensembles de texte.

Un atout stratégique face à OpenAI et Google

Avec ce million de tokens, Claude dépasse largement GPT-4 (128,000 tokens) et se positionne au même niveau que les modèles récents de Google et OpenAI… mais avec, selon Anthropic, une meilleure performance sur les tâches de codage et de raisonnement complexe.

Trois cas d’usage majeurs émergent :

  1. Analyse globale de code sur des dépôts entiers.
  2. Synthèse documentaire sur des centaines de fichiers.
  3. Agents IA contextuels capables de maintenir la cohérence sur des workflows complexes et multi-étapes.

Un impact au-delà du développement logiciel

Si le potentiel pour les développeurs est évident, d’autres secteurs pourraient en profiter :

  • Juridique : analyser un dossier complet pour identifier les précédents pertinents.
  • Finance : traiter des rapports de marché volumineux pour la modélisation prédictive.
  • Recherche : compiler et corréler des études entières sans perdre de détails cruciaux.

Des intégrations avec AWS Bedrock sont déjà en place, et une compatibilité avec Google Cloud Vertex AI est prévue.

Un défi technique et économique

Traiter un million de tokens en une fois requiert d’énormes ressources informatiques, ce qui se traduit par un coût plus élevé. Anthropic a d’ailleurs ajusté ses tarifs :

  • ≤ 200,000 tokens: 3 dollars/million en entrée et 15 dollars/million en sortie.
  • 200,000 tokens: 6 dollars/million en entrée et 22,50 dollars/million en sortie.

L’entreprise mise sur le prompt caching pour réduire la facture lors de requêtes répétitives, rendant cette approche compétitive face aux systèmes de recherche augmentée (RAG).

Vers une IA partenaire de développement

Avec cette mise à jour, Claude n’est plus seulement un assistant : il devient un véritable collaborateur virtuel, capable de comprendre l’ensemble d’un projet logiciel ou d’un dossier complexe.

Mais, Anthropic reste conscient des risques : plus le modèle est puissant, plus il faut encadrer son comportement. Des garde-fous supplémentaires ont été ajoutés après des comportements problématiques observés sur des versions antérieures.

Lire plus
Intelligence Artificielle

ChatGPT se connecte à Gmail et Google Agenda : OpenAI lance son super assistant

ChatGPT se connecte à Gmail et Google Agenda : OpenAI lance son super assistant

OpenAI vient de franchir une étape importante dans l’évolution de ChatGPT. L’entreprise annonce l’intégration directe des services Gmail, Google Agenda et Google Contacts, transformant son chatbot ChatGPT en véritable assistant personnel connecté.

Réservée dans un premier temps aux abonnés ChatGPT Pro, cette nouveauté sera déployée progressivement vers les formules Plus, Team, Enterprise et Edu au cours des prochaines semaines.

Un ChatGPT capable de gérer vos e-mails et votre agenda

Grâce à cette mise à jour, ChatGPT peut désormais analyser vos e-mails, vous proposer des résumés intelligents, suggérer des créneaux de réunion en fonction de votre disponibilité, ou encore rechercher rapidement des informations dans vos contacts.

Concrètement, vous pouvez par exemple :

  • Demander à l’IA de faire le tri dans vos messages non lus et d’en extraire les points essentiels.
  • Trouver un créneau commun avec un client en interrogeant directement votre calendrier.
  • Accéder à une fiche contact et l’utiliser pour rédiger un e-mail personnalisé en contexte.

Le tout se fait de manière conversationnelle, sans avoir à quitter ChatGPT.

Une intégration pensée pour booster la productivité

Cette avancée s’inscrit dans la stratégie d’OpenAI visant à concurrencer les suites de productivité de Google et Microsoft. L’objectif : centraliser un maximum de tâches dans une seule interface, réduisant le besoin de jongler entre plusieurs applications.

Selon plusieurs développeurs et testeurs précoces, l’outil pourrait devenir un allié majeur pour atteindre un « Inbox Zero » automatisé ou pour optimiser des journées chargées grâce à une analyse intelligente des créneaux disponibles.

Confidentialité et sécurité : un enjeu majeur

L’accès à Gmail, Agenda et Contacts repose sur une authentification OAuth sécurisée et nécessite l’accord explicite de l’utilisateur. OpenAI assure que les données ne sont pas utilisées pour entraîner ses modèles sans consentement et que le chiffrement est systématique.

Screen 2025 08 13 at 08.53.50

Cependant, certains spécialistes mettent en garde : autoriser un assistant IA à explorer des données aussi sensibles comporte des risques, même avec des protections avancées. Les utilisateurs peuvent néanmoins révoquer l’accès à tout moment.

Face à Microsoft Copilot et aux assistants concurrents

Microsoft propose déjà des intégrations similaires avec Outlook et Teams via Copilot, mais OpenAI mise sur les capacités de raisonnement avancées de GPT-5 pour offrir des interactions plus contextuelles et précises. Par exemple, ChatGPT peut non seulement rédiger une réponse à un e-mail, mais aussi la personnaliser en fonction de l’historique d’échanges ou des contraintes de votre emploi du temps.

GPT Connectors

Avec cette intégration, OpenAI se rapproche du concept de « super assistant » capable de gérer une multitude de tâches complexes, de la planification d’événements à la rédaction de communications professionnelles.

À l’avenir, l’entreprise prévoit d’élargir le nombre de connecteurs disponibles, potentiellement vers des outils tiers via des intégrations de type Zapier. L’idée : créer un hub centralisé pour toutes vos interactions numériques.

Une évolution qui change la donne… mais qui pose des questions

En connectant ChatGPT directement à Gmail, Google Agenda et Contacts, OpenAI franchit un cap dans l’assistance intelligente. Cette nouveauté pourrait réinventer la productivité quotidienne, à condition que les utilisateurs soient prêts à confier des données sensibles à l’IA.

Si l’expérience se révèle fluide et sécurisée, cette intégration pourrait rapidement devenir incontournable dans la boîte à outils des professionnels… et inciter les concurrents à accélérer leurs propres développements.

Lire plus
Intelligence Artificielle

Huawei annonce une percée dans l’IA pour remplacer la HBM dès 2025

Huawei annonce une percée dans l’IA pour remplacer la HBM dès 2025

Huawei s’apprête à lever le voile sur ce qu’elle présente comme une percée majeure dans l’inférence IA lors du Forum 2025 sur la mise en œuvre et le développement de l’inférence financière en IA, prévu ce mardi 12 août.

Selon des rapports en provenance de Chine, cette technologie pourrait réduire la dépendance du pays à la High Bandwidth Memory (HBM), composant essentiel dans les systèmes d’IA, tout en améliorant les performances des modèles domestiques de grande taille. Une annonce qui pourrait influencer non seulement l’écosystème IA chinois, mais aussi l’industrie technologique mondiale.

Pourquoi la HBM est cruciale pour l’IA ?

La High Bandwidth Memory est un type de mémoire DRAM construit avec une architecture en empilement 3D. Ce procédé permet d’intégrer plusieurs puces DRAM verticalement, offrant ainsi :

  • Des vitesses de transfert extrêmement élevées
  • Une faible latence
  • Une efficacité énergétique optimisée

Dans le cadre de l’inférence IA — lorsqu’un modèle entraîné traite de nouvelles données —, la HBM permet de fournir en temps réel les gigantesques volumes d’informations nécessaires, sans goulot d’étranglement.

Pour les modèles comptant des centaines de milliards de paramètres, la HBM est indispensable pour exploiter pleinement la puissance des GPU. La moindre latence peut dégrader la performance globale.

Huawei pourrait changer la donne

Si l’innovation annoncée par Huawei tient ses promesses, elle pourrait réduire la dépendance aux technologies étrangères en matière de mémoire haut débit, et optimiser les performances des modèles IA domestiques.

Deux approches techniques semblent possibles :

  1. Architecture chiplet: associer plusieurs petites puces interconnectées pour se partager les calculs, réduisant ainsi le besoin de mémoire à très haut débit.
  2. Optimisation des modèles IA : diminuer le nombre de paramètres ou améliorer les algorithmes afin de limiter la demande matérielle, tout en maintenant les performances.

Impact possible sur l’industrie mondiale

Si Huawei parvient à égaler ou surpasser les performances des systèmes actuels basés sur la HBM, l’impact pourrait être majeur :

  • Autonomie technologique renforcée pour la Chine.
  • Réduction des coûts de déploiement des modèles d’IA à grande échelle.
  • Nouveaux standards dans la conception des systèmes IA haute performance.

Les détails concrets seront révélés lors de l’événement du 12 août. Qu’il s’agisse d’un remplacement complet de la HBM ou d’une solution pour en atténuer les limites, l’annonce devrait être scrutée de près par les acteurs de l’IA et de la microélectronique dans le monde entier.

Lire plus
Intelligence Artificielle

Claude (Anthropic) : une nouvelle fonction mémoire pour retrouver vos conversations

Claude (Anthropic) : une nouvelle fonction mémoire pour retrouver vos conversations

Lundi, Anthropic a dévoilé une nouvelle fonctionnalité très attendue pour son chatbot Claude : la mémoire conversationnelle. Cette nouveauté permet à l’IA de retrouver et résumer vos anciennes discussions afin de reprendre un projet là où vous l’aviez laissé.

Dans une vidéo publiée sur YouTube, Anthropic montre un utilisateur demandant à Claude : « De quoi parlions-nous avant mes vacances ? ». Claude recherche alors dans l’historique, résume les échanges précédents et propose de poursuivre le projet en cours. L’objectif est clair : ne plus jamais perdre le fil de vos travaux ou idées.

Cette mémoire fonctionne sur le Web, sur desktop et sur mobile. Elle permet aussi de garder vos projets séparés pour éviter les mélanges entre conversations.

Activation et disponibilité dans Claude

La fonctionnalité est déjà disponible pour les abonnés Claude Max, Team et Enterprise :

  • Rendez-vous dans Paramètres > Profil.
  • Activez Rechercher et référencer les conversations.

Anthropic précise que les autres formules devraient y avoir accès prochainement.

Contrairement à ChatGPT d’OpenAI, cette mémoire n’est pas persistante. En effet, Claude ne conserve pas automatiquement des données sur vous, il n’élabore pas de profil utilisateur et il ne récupère vos anciennes conversations que si vous lui demandez.

Selon le porte-parole Ryan Donegan, l’objectif est de fournir un outil pratique sans franchir les limites en matière de vie privée.

Une bataille directe avec OpenAI

Cette annonce intervient dans un contexte de compétition intense entre Anthropic et OpenAI. Les deux entreprises enchaînent les nouveautés : modes vocaux, contextes étendus, nouvelles formules payantes…

La semaine dernière, OpenAI lançait GPT-5, tandis qu’Anthropic serait en train de finaliser une levée de fonds valorisant la société à 170 milliards de dollars.

Les fonctions mémoire représentent un atout stratégique pour fidéliser les utilisateurs et augmenter l’engagement sur une plateforme donnée.

Débat et précautions d’usage

Les mémoires conversationnelles suscitent un vif débat. Certains utilisateurs de ChatGPT les adorent pour la continuité qu’elles offrent, tandis que d’autres y voient un risque, notamment pour les personnes qui développent une dépendance émotionnelle à l’IA — un phénomène parfois surnommé « psychose ChatGPT ».

Anthropic semble vouloir éviter cet écueil avec une approche sur demande, moins intrusive.

Lire plus
Intelligence Artificielle

GPT-5 : lancement chaotique et inquiétudes autour de la « psychose ChatGPT »

GPT-5 : lancement chaotique et inquiétudes autour de la « psychose ChatGPT »

Le 7 août dernier, OpenAI a présenté son modèle d’IA le plus avancé à ce jour, GPT-5, censé apporter des réponses plus rapides, un raisonnement plus poussé et de meilleures capacités de codage.

Mais une semaine après le lancement, la plateforme ChatGPT — qui revendique plus de 700 millions d’utilisateurs actifs chaque semaine — traverse une crise : bugs, plaintes massives, et un phénomène inquiétant qui attire désormais l’attention des médias internationaux, la « psychose ChatGPT ».

GPT-5 : un lancement attendu… mais perturbé

GPT-5 arrive en quatre variantes (standard, mini, nano et pro) et introduit de nouveaux modes « thinking » censés améliorer les capacités de raisonnement. Pourtant, la présentation en direct a été entachée de problèmes techniques (erreurs de graphiques, bugs du mode vocal) et, surtout, d’une décision très impopulaire : la suppression immédiate des anciens modèles comme GPT-4o ou o3, au profit exclusif de GPT-5.

Résultat : de nombreux utilisateurs ont signalé des performances inférieures à GPT-4o en mathématiques, logique, code et rédaction. OpenAI a rapidement réactivé GPT-4o pour les abonnés ChatGPT Plus (20 dollars/mois) et promet désormais une interface plus claire, permettant de sélectionner manuellement le modèle souhaité.

Des promesses techniques… et des limites

Selon Sam Altman, PDG d’OpenAI, le problème viendrait du nouveau « router » automatique, censé diriger chaque requête vers la version la plus adaptée de GPT-5. Ce système est tombé en panne une partie de la journée du lancement, donnant l’impression que le modèle était « beaucoup plus bête que prévu ».

Par ailleurs, la montée en charge des modèles de raisonnement crée un risque de saturation des serveurs : en quelques jours, leur usage est passé de 7 % à 24 % chez les abonnés Plus.

Quand l’attachement aux IA devient un danger : la « psychose ChatGPT »

Un autre problème, bien plus préoccupant, a émergé : la forte dépendance émotionnelle que certains utilisateurs développent vis-à-vis de modèles d’IA spécifiques. Altman lui-même reconnaît que supprimer brutalement un modèle auquel un utilisateur s’est attaché peut provoquer un véritable choc émotionnel.

Des cas documentés par Rolling Stone et The New York Times décrivent des utilisateurs tombés dans un délire psychotique après des centaines d’heures de conversation avec ChatGPT :

  • Un Canadien, persuadé d’avoir découvert une théorie mathématique révolutionnaire, a été encouragé par le chatbot avant de réaliser, après vérification, qu’il s’agissait d’une illusion.
  • Un Américain a produit un traité de 1 000 pages pour un ordre monastique fictif après plusieurs semaines de dialogues nocturnes intenses avec l’IA.

Sur Reddit, le forum r/AIsoulmates (1 200+ membres) réunit ceux qui créent des « partenaires » virtuels idéalisés via l’IA, parfois considérés comme plus importants que leurs relations humaines. La suppression ou modification d’un modèle peut alors provoquer une rupture psychologique.

OpenAI tente de réagir

Face à ces risques, OpenAI a annoncé de nouvelles mesures de protection pour encourager les pauses lors des sessions longues, améliorer la personnalisation des modèles (ton, chaleur, utilisation des emojis), et mettre en place des règles incitant les IA à éviter les dialogues émotionnellement intenses.

Le défi est de taille : rendre l’IA engageante et utile sans favoriser les spirales psychologiques nocives.

Un équilibre délicat à trouver

La polémique GPT-5 illustre deux défis majeurs pour OpenAI et ses concurrents (Anthropic, Google, modèles open source) :

  1. Stabiliser l’infrastructure pour gérer l’afflux massif d’utilisateurs.
  2. Protéger la santé mentale de ceux qui établissent un lien trop profond avec l’IA.

Comme le résume Sam Altman : “Si des milliards de personnes se fient à l’IA pour leurs décisions les plus importantes, il faudra s’assurer que ce soit un net bénéfice pour la société”.

Lire plus
Intelligence Artificielle

ChatGPT Agent : comment déléguer efficacement à l’IA pour gagner du temps ?

ChatGPT Agent : comment déléguer efficacement à l’IA pour gagner du temps ?

Imaginez un assistant qui ne dort jamais, travaille à la vitesse de l’éclair et s’adapte parfaitement à vos besoins. Ce n’est pas de la science-fiction : c’est ChatGPT Agent, la nouvelle fonctionnalité d’OpenAI qui transforme la manière dont nous abordons le travail quotidien.

Plus qu’un simple outil d’IA, ChatGPT Agent est une solution complète pour déléguer intelligemment vos tâches professionnelles, qu’elles soient complexes, chronophages ou techniques. Que ce soit pour faire de la recherche approfondie, analyser des données complexes ou générer des visuels personnalisés, ce super assistant est capable de tout gérer.

Mais voici le point crucial : exploiter tout le potentiel de ChatGPT Agent ne dépend pas uniquement de ses capacités, mais de votre manière de déléguer. Dans cet article, on vous explique comment tirer le meilleur de cette IA avancée, tout en gardant le contrôle total sur votre travail.

Qu’est-ce que ChatGPT Agent et à quoi sert-il ?

ChatGPT Agent est une extension puissante de ChatGPT, conçue pour exécuter des tâches à votre place. Contrairement aux échanges classiques avec un chatbot, ici, l’IA peut agir de manière autonome, dans les limites que vous lui fixez. Son objectif : gagner du temps, augmenter votre productivité et garantir des résultats de qualité.

Parmi ses principales capacités :

  • Recherche avancée : L’agent peut parcourir le Web, compiler des sources, résumer des contenus et vous livrer une synthèse sur-mesure.
  • Analyse de données : Il structure des tableaux, insère des formules, génère des graphiques et tire des conclusions.
  • Programmation : Il écrit, débogue et optimise du code dans plusieurs langages.
  • Navigation Web automatisée : Il peut visiter des sites, remplir des formulaires ou récupérer des informations spécifiques.
  • Génération d’images : Il crée des visuels adaptés à vos contenus, présentations ou projets créatifs.
  • Adaptation en temps réel : Il affine ses réponses selon vos retours, pour coller au plus près de vos attentes.

Un assistant concret pour vos projets : exemple d’une marque e-commerce fitness

Prenons un cas d’usage réel : le lancement d’une marque e-commerce dans le domaine du fitness.

Avec ChatGPT Agent, vous pouvez automatiser :

  • L’étude de marché : identifier les produits tendance, analyser les comportements consommateurs, étudier les concurrents.
  • La planification : construire un business plan, établir des budgets et des plannings marketing.
  • L’organisation des données : structurer les résultats dans des fichiers Excel avec graphiques, filtres et tableaux croisés dynamiques.
  • La veille concurrentielle : s’inscrire à des newsletters concurrentes, collecter les bonnes pratiques, analyser les landing pages.

Résultat : des heures de travail condensées en quelques minutes, sans perdre en pertinence ni en cohérence.

Contrôle, sécurité et transparence

Même si l’agent travaille de manière autonome, vous restez maître du jeu. Plusieurs fonctionnalités garantissent une utilisation sereine :

  • Suivi en temps réel : vous voyez exactement ce que l’agent fait, étape par étape.
  • Interruption à tout moment : vous pouvez le stopper, rediriger sa mission ou ajuster ses objectifs.
  • Barrières de sécurité intégrées : vous définissez les limites à ne pas franchir (accès, actions autorisées, etc.).

Bref, vous déléguez sans jamais perdre la main.

Des livrables professionnels prêts à l’emploi

ChatGPT Agent ne se contente pas de répondre à vos questions : il produit des documents professionnels de qualité, tels que :

  • Des feuilles de calcul Excel : avec données structurées, formules, visualisations et commentaires.
  • Des rapports de recherche : clairs, sourcés, avec analyses, tendances et recommandations.
  • Des outils personnalisés : comme des calculateurs, des générateurs de contenu, ou des modèles pour automatiser des processus internes.

Ces livrables sont prêts à être intégrés dans votre flux de travail quotidien.

Gagner du temps, améliorer sa productivité

Le principal atout de ChatGPT Agent, c’est le gain de temps considérable qu’il offre :

  • Des heures de veille ou de rédaction réduites à quelques minutes
  • Des analyses de données réalisées sans erreur humaine
  • Des tâches répétitives déléguées pour vous concentrer sur le cœur de votre métier

Plutôt que d’exécuter, vous pilotez.

Travailler plus intelligemment, pas plus dur

En résumé, ChatGPT Agent est l’allié idéal pour toutes celles et ceux qui veulent automatiser intelligemment leur travail. Grâce à lui, vous pouvez :

  • Déléguer les tâches complexes sans sacrifier la qualité
  • Gagner du temps tout en gardant le contrôle
  • Obtenir des livrables prêts à être exploités
  • Réinventer votre manière de travailler

Et surtout, collaborer avec l’intelligence artificielle comme un vrai partenaire de travail, pas juste comme un outil.

 

Lire plus
Intelligence Artificielle

Mira Murati refuse 1 milliard de dollars de Meta et trace sa propre voie dans l’IA éthique

Mira Murati refuse 1 milliard de dollars de Meta et trace sa propre voie dans l’IA éthique

Dans un secteur de l’intelligence artificielle où les salaires se chiffrent en millions et les talents sont arrachés à prix d’or, le refus de Mira Murati d’un chèque de 1 milliard de dollars de la part de Meta résonne comme un véritable coup de tonnerre.

L’ex-directrice technique d’OpenAI préfère miser sur l’indépendance, la transparence et l’éthique, à travers son propre laboratoire baptisé Thinking Machines Lab.

Ce geste fort intervient dans un contexte où les GAFAM multiplient les acquisitions et les offres astronomiques pour dominer l’intelligence artificielle générative. Murati, quant à elle, choisit une voie plus exigeante, mais plus vertueuse : faire de l’IA un bien public, et non un simple produit commercial.

Mira Murati : De Tesla à OpenAI, le parcours d’une pionnière de l’IA

Née en Albanie, diplômée en ingénierie mécanique à Dartmouth College, Mira Murati a fait ses armes chez Tesla (où elle a contribué au Model X) puis chez Leap Motion avant de rejoindre OpenAI en 2018. Elle y a dirigé les équipes derrière ChatGPT et DALL·E, et a brièvement assuré l’intérim à la tête de l’entreprise lors de la crise de gouvernance de 2023.

En septembre 2024, elle quitte OpenAI dans un contexte tendu, marqué par le départ de plusieurs cadres de haut niveau. Quelques mois plus tard, elle fonde Thinking Machines Lab, une Public Benefit Corporation, dont la mission est claire : créer une IA compréhensible, personnalisable, éthique et transparente.

Un milliard de dollars refusé : le pari de l’indépendance

Selon le Times of India, Mark Zuckerberg aurait personnellement tenté de racheter Thinking Machines Lab, proposant une offre d’un milliard de dollars incluant actions, intégration complète et promesse de ressources pour alimenter les ambitions de Meta en matière de superintelligence artificielle.

Mais Murati et ses 30 collaborateurs, issus d’OpenAI, Meta, Mistral ou encore Google DeepMind, ont unanimement refusé l’offre. La raison ? Préserver leur vision, leur autonomie… et leur éthique.

Comme l’a souligné un analyste sur X : « Ce n’est pas juste un refus d’argent. C’est une déclaration de guerre à une certaine idée de l’IA, où la vitesse prime sur la sécurité ».

Thinking Machines Lab: une autre vision de l’IA

Désormais valorisé à 9 milliards de dollars, le laboratoire de Murati rassemble une équipe de haut niveau, dont John Schulman (cofondateur d’OpenAI), Alec Radford (architecte de GPT) et Bob McGrew (ancien de Meta AI). Leur objectif : décentraliser l’intelligence artificielle, et proposer des outils puissants, mais accessibles et compréhensibles.

Contrairement à OpenAI ou Meta, Thinking Machines Lab mise sur la transparence, l’interprétabilité des modèles, et un cadre éthique strict. Ils veulent créer une IA « par et pour l’humain », en rupture avec les modèles fermés, opaques et pilotés par les intérêts boursiers.

Une guerre des talents qui s’intensifie

Le refus de Murati s’inscrit dans une lutte féroce pour les talents de l’IA, où les géants de la tech rivalisent pour recruter les meilleurs chercheurs. Meta, Google DeepMind, Anthropic, Microsoft… tous investissent massivement, souvent au détriment des garde-fous éthiques.

Mais, la tendance semble évoluer. De plus en plus d’ingénieurs préfèrent rejoindre des structures indépendantes, à taille humaine, avec une vraie mission de sens. Le choix de Murati pourrait marquer un tournant culturel dans l’industrie.

L’éthique, nouvelle force motrice de l’IA ?

En refusant une somme vertigineuse pour rester fidèle à sa vision, Mira Murati ne se contente pas de bâtir une entreprise. Elle propose un modèle alternatif, centré sur l’impact social, la responsabilité et l’indépendance scientifique. Et dans un écosystème où la précipitation et la recherche du profit immédiat dominent, cela pourrait bien faire toute la différence.

Thinking Machines Lab n’est peut-être qu’à ses débuts, mais son influence est déjà tangible. Et s’il fallait une preuve que la prochaine révolution de l’IA ne se fera pas qu’à coups de milliards, Murati vient de l’apporter.

Lire plus
Intelligence Artificielle

Xbox Gaming Copilot débarque dans la Game Bar de Windows

Xbox Gaming Copilot débarque dans la Game Bar de Windows

Microsoft continue d’intégrer l’intelligence artificielle dans tous les recoins de son écosystème. Dernière nouveauté en date : l’arrivée du Xbox Gaming Copilot dans la Game Bar de Windows, un assistant vocal et contextuel capable d’aider les joueurs… sans jamais quitter l’écran.

Actuellement en phase de test via le programme Xbox Insiders, le Gaming Copilot se présente comme un chatbot intégré sous forme de widget dans la Game Bar de Windows. Pour y accéder, il suffit d’appuyer sur Windows + G durant une session de jeu.

Concrètement, cet assistant comprend :

  • Quel jeu vous êtes en train de jouer
  • Votre progression, vos succès et l’historique de vos parties
  • La possibilité de poser des questions à la voix ou par écrit
  • Une analyse directe de votre écran pour vous aider plus précisément

Microsoft a même montré que l’IA pouvait utiliser des captures de votre gameplay pour vous aider à vaincre un boss, compléter une quête ou résoudre une énigme, sans que vous ayez besoin de décrire la situation. Une révolution pour tous ceux qui n’ont plus envie d’interrompre leur session pour aller chercher une solution sur Google ou YouTube.

1

Gaming Copilot: Objectif, un véritable coach de jeu personnalisé

Avec cette nouveauté, Microsoft ambitionne de faire du Gaming Copilot un véritable coach de jeu IA, capable de :

  • Fournir des conseils contextuels
  • Analyser vos performances
  • Offrir un accompagnement proactif sans divulgâcher les événements à venir
  • Et même, à terme, personnaliser votre apprentissage selon vos habitudes de jeu

L’idée est claire : raccourcir le temps perdu, booster vos compétences et améliorer l’expérience globale, le tout sans jamais sortir du jeu. Une option de désactivation est prévue pour ceux qui préfèrent jouer sans intervention de l’IA.

Fonctionnalités déjà disponibles

Même en phase de test, certaines fonctionnalités sont déjà actives :

  • Accès à l’historique de jeu et des succès Xbox
  • Recherches contextuelles liées à une mission ou un ennemi
  • Mode vocal pour interagir en pleine action
  • Épinglage du widget Copilot pour un accès constant

2

Pour l’utiliser dès maintenant, il faut :

  1. Avoir l’application Xbox pour PC installée.
  2. Être inscrit au programme Xbox Insiders.
  3. Ouvrir la Game Bar via Win + G et cliquer sur l’icône Copilot.

Où le Gaming Copilot est-il disponible ?

Le test est pour le moment limité à certaines régions anglophones, notamment États-Unis, Australie, Nouvelle-Zélande, Japon et Singapour.

Le Royaume-Uni et l’Europe ne sont pas encore concernés, mais Microsoft indique que d’autres régions seront intégrées prochainement. Il est également prévu que l’application mobile Xbox intègre le Gaming Copilot à l’avenir, tout comme les consoles Xbox et les PC gaming portables comme la ROG Ally.

Le Gaming Copilot dans la Game Bar Windows marque une étape majeure dans la convergence entre IA et jeu vidéo. Grâce à cet assistant intelligent, les joueurs peuvent désormais recevoir de l’aide en temps réel, naviguer dans leurs quêtes plus efficacement et améliorer leurs compétences sans quitter le jeu.

Microsoft ne cache pas son ambition de transformer cet outil en assistant de jeu universel, capable d’accompagner chaque joueur, quel que soit son niveau ou son style de jeu.

Lire plus