fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Grok : 370 000 conversations privées exposées sur Google via une faille de partage

Grok : 370 000 conversations privées exposées sur Google via une faille de partage

L’affaire secoue le monde de l’intelligence artificielle. Selon un rapport explosif de Forbes, plus de 370 000 conversations issues du chatbot Grok (développé par xAI, société d’Elon Musk) ont été référencées par Google — sans que les utilisateurs en soient informés.

Le problème ? Ces discussions, souvent très personnelles, sont devenues accessibles publiquement via une simple recherche. On y trouve des détails intimes, parfois sensibles ou même illégaux. Une faille grave de confidentialité qui relance le débat sur la sécurité des IA conversationnelles.

Un simple bouton « Partager »… qui rend tout public

Tout part d’une fonctionnalité anodine : le bouton « Partager » de Grok. Lorsqu’un utilisateur l’utilise, une URL publique est générée, mais aucune balise empêchant l’indexation par les moteurs de recherche (type « noindex ») n’est ajoutée.

Conséquence directe : Google a indexé ces pages, les rendant visibles à n’importe qui.

Parmi les contenus retrouvés :

  • Des problèmes de santé
  • Des conflits de couple
  • Des mots de passe ou données sensibles
  • Des questions sur la fabrication de drogues
  • Et même des projets criminels simulés

Des liens sans expiration ni contrôle d’accès

Contrairement à un message privé ou à une capture d’écran :

  • Ces liens sont permanents
  • Aucune authentification n’est nécessaire
  • Ils peuvent être retrouvés en tapant quelques mots-clés sur Google

Bien que les conversations soient anonymisées, certains éléments pourraient permettre d’identifier l’auteur, notamment si des noms, lieux ou événements personnels sont évoqués.

Que faire si vous avez partagé une conversation Grok ?

Voici les mesures à prendre immédiatement :

  1. Ne partagez plus de conversations via Grok, sauf si vous êtes parfaitement à l’aise avec une diffusion publique.
  2. Si vous avez déjà partagé un lien, essayez de le retrouver et utilisez l’outil de suppression de contenu de Google : https://www.google.com/webmasters/tools/removals
  3. Sur X (Twitter), désactivez l’option permettant d’utiliser vos posts pour l’entraînement de Grok dans les paramètres de confidentialité.

Un problème récurrent chez les chatbots IA

Grok n’est pas le seul à avoir fait fuiter des conversations :

  • OpenAI a dû retirer des conversations ChatGPT des résultats Google après une polémique similaire.
  • Meta a été critiquée lorsque des discussions avec son IA sont apparues dans la section « Découverte » de ses apps.

Les conversations avec l’IA sont de plus en plus personnelles, proches d’un journal intime. Mais les protections ne suivent pas toujours.

L’illusion de la confidentialité avec l’IA

Les utilisateurs confient de plus en plus leurs pensées profondes aux IA thérapies improvisées, jeux de rôle romantiques et confessions personnelles. Mais, les entreprises, elles, favorisent le partage pour accroître l’engagement — au détriment de la vie privée.

Cette affaire Grok montre que rien n’est vraiment privé sur Internet, surtout dans l’univers encore immature de l’intelligence artificielle générative. Tant que les éditeurs d’IA continueront à pousser des outils de partage sans garde-fous, la prudence reste votre meilleure défense.

Ne traitez jamais une IA comme un confident. Et rappelez-vous : si vous le partagez, c’est que c’est déjà public.

 

Lire plus
Intelligence Artificielle

DeepSeek V3.1 : le LLM chinois de 685 milliards de paramètres qui bouscule le paysage IA open source

DeepSeek V3.1 : le LLM chinois de 685 milliards de paramètres qui bouscule le paysage IA open source

La startup chinoise DeepSeek vient de déployer discrètement DeepSeek V3.1, une mise à jour majeure de son modèle de langage de nouvelle génération. Avec 685 milliards de paramètres et un contexte étendu à 128 000 tokens, ce modèle se positionne comme l’un des plus puissants disponibles en open source, rivalisant avec Claude Opus 4 et flirtant avec le niveau des modèles fermés comme GPT-5.

Un bond en avant pour le traitement de longs documents

DeepSeek V3.1 peut désormais gérer un contexte de 128k tokens, soit l’équivalent de 300 à 400 pages. Ce changement transforme son usage potentiel dans des cas comme :

  • la génération de contenu long-format,
  • l’analyse de documents techniques ou juridiques,
  • les conversations multi-tours étendues,
  • ou encore l’assistance IA dans des contextes métiers exigeants.

Ce support étendu était en fait déjà opérationnel dans la version précédente (V3), mais désormais activé par défaut sur toutes les interfaces.

Architecture Mixture-of-Experts (MoE) et précision flexible

Le modèle conserve son architecture MoE, n’activant que 37 milliards de paramètres par token, ce qui permet une meilleure efficacité énergétique. Il prend en charge plusieurs formats de précision : BF16, FP8 et F32.

Les développeurs peuvent accéder au modèle via API ou le télécharger librement sur Hugging Face sous licence open source MIT.

Benchmark: DeepSeek V3.1 surclasse Claude Opus 4 en code

  • Score Aider (test de codage) : 71,6 %, au-dessus de Claude Opus 4
  • Amélioration visible en mathématiques et logique
  • Performances stables, mais sans gains majeurs en raisonnement par rapport à la version R1-0528

Ce positionnement en fait l’un des modèles open source les plus solides en code, avec un excellent rapport qualité/prix en déploiement local ou cloud.

Stratégie unifiée : fin de la gamme R1, place au tout-en-un V3.1

DeepSeek a supprimé toutes les références au modèle R1 sur son interface chatbot, signalant une transition vers un modèle hybride unique. V3.1 regroupe désormais toutes les capacités : génération, raisonnement, dialogue, code.

Une stratégie de consolidation qui rappelle l’approche unifiée de GPT chez OpenAI, mais en version open source.

Coût d’entraînement et infrastructure : un équilibre complexe

Bien que le coût exact de DeepSeek V3.1 ne soit pas public, son modèle V3 de base aurait nécessité :

  • 2,788 millions d’heures GPU
  • Sur des Nvidia H800
  • Pour un coût estimé à 5,6 millions de dollars

DeepSeek V3.1 reprend cette base avec des ajustements, suggérant une optimisation sans repartir de zéro.

Quid du modèle R2 ? Entre ambitions techniques et réalités géopolitiques

Attendu comme la suite logique, le modèle R2 a été retardé. En cause :

  • Difficultés avec les puces Ascend de Huawei
  • Pression politique pour réduire la dépendance à Nvidia
  • Problèmes de compatibilité, ralentissements en entraînement, retards dus à l’étiquetage des données
  • Frustration exprimée par Liang Wenfeng, fondateur de DeepSeek

Résultat : DeepSeek a repris l’entraînement sur Nvidia et réservé l’inférence pour Ascend, un compromis complexe qui a ralenti le développement.

DeepSeek V3.1 s’impose aujourd’hui comme le modèle LLM open source chinois de référence. Mais le futur de DeepSeek se jouera sur la réussite (ou non) de R2, qui devra prouver la capacité de la Chine à se libérer des contraintes matérielles occidentales sans sacrifier la performance IA.

Lire plus
Intelligence Artificielle

Gemini Live : assistant visuel, vocal et intelligent débarque sur Pixel 10

Gemini Live : assistant visuel, vocal et intelligent débarque sur Pixel 10

À l’occasion du lancement des Pixel 10, Google a annoncé une mise à jour majeure de Gemini Live, sa version la plus évoluée de l’assistant vocal. L’IA devient plus visuellement contextuelle, expressive, et étroitement intégrée aux apps Google.

Une évolution majeure qui transforme la façon dont les utilisateurs interagissent avec leur smartphone.

1. Interaction visuelle en temps réel avec la caméra

Gemini Live pourra désormais mettre en évidence des objets directement sur l’écran lorsqu’on partage la caméra.

Exemples :

  • Compare deux paires de baskets et Gemini t’indique celle qui se marie le mieux avec ta tenue.
  • Pointe la caméra sur une boîte à outils, et l’IA t’indique l’outil exact à utiliser.

Gemini MBG Wrench1 v07

Disponibilité :

  • Dès le 28 août sur les Pixel 10
  • Arrivée progressive sur les autres appareils Android, puis iOS « dans les semaines suivantes ».

2. Intégration plus poussée avec les applications Google

Jusqu’ici limité à Google Agenda, Keep et Tasks, Gemini Live va bientôt s’étendre à : Messages, Téléphone, Horloge et Google Maps.

Cas d’usage concret : en pleine navigation, tu peux dire « Envoie un message à Alex pour dire que je suis en retard de 10 minutes » — sans quitter Maps. Gemini s’en charge.

Google apps in Gemini Live

3. Une voix plus naturelle et expressive

Un nouveau modèle vocal va permettre des interactions bien plus réalistes :

  • Variation d’intonation, de rythme et de tonalité
  • Tonalité apaisée pour les sujets sensibles
  • Narration avec voix de personnage : par ex. en mode « Jules César » ou conte dramatique

Tu pourras même choisir la vitesse d’élocution : lente pour mieux comprendre, rapide pour gagner du temps.

4. Édition photo conversationnelle dans Google Photos

Un tout nouvel éditeur propulsé par Gemini arrive dans Google Photos.

V2 1st In Line Carousel

Tu pourras simplement dire :

  • « Enlève les voitures en arrière-plan »
  • « Ajoute un chapeau de fête »
  • « Améliore la photo »
  • « Rends le ciel plus lumineux »

Gemini comprendra les requêtes et te proposera des suivis contextuels, sans que tu aies besoin de toucher aux outils ou aux curseurs.

5. Transparence avec C2PA et SynthID

Google introduit les balises de vérification de contenu C2PA dans l’application photo du Pixel 10 :

  • Permet de savoir si une image a été modifiée par l’IA
  • Donne des infos sur la méthode de capture ou d’édition
  • Fonctionne avec ou sans IA

Cette fonctionnalité complète IPTC Metadata et SynthID, pour une traçabilité complète des images générées ou retouchées.

Disponibilité :

  • Pixel 10 d’abord, puis déploiement progressif Android/iOS.

Gemini Live devient un véritable assistant multimodal

Avec ces nouveautés, Google rapproche Gemini Live d’un assistant personnel complet, capable de voir, parler, comprendre le contexte et modifier tes contenus à la volée. L’écosystème Google en tire parti à tous les niveaux : Pixel, Photos, Maps, Messages, etc.

Lire plus
Intelligence Artificielle

Grammarly lance des agents IA pour aider les étudiants à améliorer leurs devoirs

Grammarly lance des agents IA pour aider les étudiants à améliorer leurs devoirs

Grammarly vient de dévoiler une série d’agents d’intelligence artificielle spécialisés, conçus pour répondre aux besoins concrets des étudiants comme des enseignants.

Que ce soit pour détecter le plagiat, reformuler un texte, anticiper les réactions d’un lecteur ou même prédire une note finale, ces outils sont accessibles gratuitement sur la nouvelle interface « docs », décrite comme une surface d’écriture native à l’IA.

Grammarly : Des outils pensés pour guider sans remplacer

Jenny Maxwell, responsable de Grammarly pour l’éducation, résume ainsi la philosophie de l’initiative : « Les étudiants ont besoin d’une IA qui amplifie leurs compétences sans compromettre leur apprentissage. Ces nouveaux agents les accompagnent dans la production de travaux de meilleure qualité, tout en développant les compétences essentielles pour leur avenir professionnel ».

Ce que ces nouveaux agents permettent de faire :

  • AI Grader Agent : cet agent prédit la note qu’un devoir pourrait recevoir en se basant sur les critères du cours et sur les préférences connues de l’enseignant (grâce à des informations publiques disponibles). Il fournit aussi des recommandations d’amélioration personnalisées.

AI grader

  • Citation Finder Agent : il génère automatiquement des citations correctement formatées, en lien avec les affirmations du texte, pour aider à respecter les standards académiques.
  • Proofreader Agent: ce correcteur intelligent fait des suggestions en temps réel pour améliorer la syntaxe, la grammaire et le style.
  • Paraphrase Agent : il reformule le contenu pour l’adapter à un ton, un public ou un style précis, très utile pour ajuster un mémoire à un cadre académique.
  • Reader Reactions Agent: il prédit les questions ou remarques que pourrait se poser un lecteur après lecture du document.
  • Expert Review Agent: il fournit une analyse approfondie et personnalisée selon le sujet du devoir.

Deux agents pour les enseignants également

Grammarly pense aussi aux professeurs avec deux outils ciblés :

  • AI Detector Agent : il attribue un score indiquant si un texte a été rédigé par un humain ou généré par une IA.
  • Plagiarism Checker Agent : il compare le contenu soumis à des milliers de bases de données académiques, de sites Web et de publications, pour repérer tout plagiat potentiel.

Ces deux derniers outils sont réservés aux abonnés Grammarly Pro, avec un déploiement prévu pour les établissements et entreprises d’ici la fin de l’année.

Vers une écriture assistée mais éducative

Grammarly mise clairement sur une IA pédagogique plutôt que remplaçante. L’idée est d’entraîner les étudiants à mieux écrire, tout en leur montrant comment tirer parti de l’IA dans un cadre éthique et professionnel.

Avec ces agents, la plateforme évolue de simple correcteur grammatical à véritable assistant de rédaction académique, et pourrait bien devenir un outil incontournable dans les établissements d’enseignement supérieur.

Lire plus
Intelligence Artificielle

DeepSeek V3.1 : l’IA chinoise open source qui défie GPT-5 et Claude 4

DeepSeek V3.1 : l’IA chinoise open source qui défie GPT-5 et Claude 4

Dans une manœuvre aussi discrète que révolutionnaire, DeepSeek, startup d’intelligence artificielle basée à Hangzhou, a publié sur Hugging Face son nouveau modèle DeepSeek V3.1.

Avec 685 milliards de paramètres, ce LLM (large language model) open source bouleverse l’équilibre mondial de l’IA, remettant en cause la domination d’acteurs américains comme OpenAI et Anthropic.

DeepSeek V3.1 : Une performance de classe mondiale, à coût réduit

Sans conférence de presse ni annonce officielle, DeepSeek V3.1 a immédiatement impressionné les chercheurs grâce à un score de 71,6 % sur le benchmark Aider, devançant même Claude Opus 4 tout en étant 68x moins cher.

Détails techniques clés :

  • 685 milliards de paramètres
  • 128 000 tokens de contexte (≈ 400 pages)
  • Support FP8/BF16
  • Architecture hybride intégrant chat, raisonnement et codage
  • Coût par tâche de codage : ~1 dollars contre 70 dollars pour des modèles propriétaires

L’architecture innovante intègre des « thinking tokens » et des fonctions de recherche Web en temps réel, d’après les chercheurs de la communauté. Une avancée majeure pour le raisonnement et l’autonomie des LLM.

Open source vs. Modèles propriétaires : un clash philosophique

Alors que GPT-5 et Claude 4 restent cloisonnés derrière des APIs coûteuses, DeepSeek rend ses modèles entièrement accessibles, modifiables et auto-hébergeables. Ce choix stratégique brise la dépendance aux services cloud américains, réduit les coûts d’accès à l’IA avancée et favorise une adoption mondiale, y compris dans les pays émergents.

Comme le souligne le journaliste tech Poe Zhao : « DeepSeek consolide ses lignes de produits dans un seul artefact — une réponse chinoise au risque de fragmentation dans la course aux LLMs ».

Une adoption globale rapide, au-delà des frontières

Malgré les tensions géopolitiques, la communauté mondiale des développeurs a rapidement adopté le modèle. Sur Hugging Face, DeepSeek V3.1 figure déjà parmi les modèles les plus téléchargés, prouvant que la qualité technique prime sur l’origine géographique.

« Open Source AI is at its peak right now », a tweeté Victor Mustar (Hugging Face), saluant la montée en puissance des modèles chinois dans le top mondial.

Vers une nouvelle ère de l’intelligence vraiment « artificielle »

Avec cette sortie, DeepSeek ne redéfinit pas seulement la performance IA. Il remet en cause l’idée même de rareté dans l’IA. En rendant accessible ce que d’autres facturent à prix fort, l’entreprise expose un fait dérangeant : la pénurie d’accès à l’IA de pointe est artificielle, construite, et non nécessaire.

L’intelligence artificielle n’a jamais été aussi « artificiellement gardée », et DeepSeek est peut-être celui qui l’a enfin libérée.

 

Lire plus
Intelligence Artificielle

OpenAI lance ChatGPT Go : une formule abordable pour accéder à GPT-5 en Inde

OpenAI lance ChatGPT Go : une formule abordable pour accéder à GPT-5 en Inde

OpenAI vient d’annoncer une nouvelle formule d’abonnement baptisée « ChatGPT Go », déjà en cours de déploiement en Inde. Ce nouveau forfait de ChatGPT vise à rendre l’intelligence artificielle avancée plus accessible, en s’intercalant entre l’offre gratuite de base et l’abonnement Plus plus onéreux.

Fonctionnalités principales de ChatGPT Go

ChatGPT Go propose plusieurs avantages notables par rapport à la version gratuite :

  • Accès étendu à GPT-5, avec plus de requêtes disponibles
  • Mémoire de conversation plus longue pour des échanges personnalisés et contextuels
  • Génération d’images améliorée
  • Téléversement de fichiers variés (PDF, feuilles de calcul, documents)
  • Utilisation plus fréquente des outils d’analyse avancée (dont Python)
  • Accès aux projets, tâches et GPTs personnalisés, pour mieux organiser le travail
  • Contrôle renforcé de la confidentialité, avec possibilité de désactiver l’utilisation des données pour l’entraînement de l’IA

open ai launches chatgpt go in i

Bonne nouvelle : ChatGPT Go fonctionne également via WhatsApp (1-800-ChatGPT) pour ceux qui préfèrent utiliser l’IA par messagerie.

Prix et disponibilité

Le prix de ChatGPT Go est de 399 ₹/mois, soit environ 4,50 €. À ce jour, l’offre est uniquement disponible en Inde pour l’instant. Il s’agit d’une facturation mensuelle uniquement (pas encore d’abonnement annuel).

mg 654b6cd2 w3200 w828 w2600 w13

Il convient de noter qu’il n’y a pas d’accès à GPT-4o dans cette offre ChatGPT Go, aux connecteurs, ni à la génération vidéo via Sora.

Avec ChatGPT Go, OpenAI propose une offre intermédiaire idéale pour les utilisateurs réguliers qui n’ont pas besoin de toutes les fonctions de la formule Plus à ₹1 999/mois. Ce lancement exclusif en Inde pourrait ouvrir la voie à un déploiement mondial dans les mois à venir, surtout dans les marchés émergents où le prix est un critère déterminant.

Lire plus
Intelligence Artificielle

OpenAI modifie GPT-5 pour une personnalité plus chaleureuse et engageante

OpenAI modifie GPT-5 pour une personnalité plus chaleureuse et engageante

OpenAI a annoncé vendredi soir une mise à jour de son modèle GPT-5, récemment lancé, afin de le rendre plus chaleureux et accueillant. Cette décision fait suite à des retours d’utilisateurs déçus par la version initiale, jugée trop froide et impersonnelle par rapport au populaire GPT-4o.

Le PDG Sam Altman a reconnu que le lancement de GPT-5 a été « un peu plus chaotique que prévu », notamment en raison d’un ressenti négatif de certains utilisateurs. Beaucoup disaient préférer la personnalité et le ton plus engageant de GPT-4o. « GPT-5 était très factuel et direct », a expliqué Nick Turley, VP chez OpenAI.

OpenAI précise que les modifications sont subtiles, mais significatives :

  • Ton plus chaleureux, sans flatterie excessive
  • Expressions naturelles comme « Bonne question » ou « Bon début »
  • Aucune hausse de sycophance (complaisance excessive) par rapport à la version précédente

Ces ajustements visent à améliorer l’expérience utilisateur sans nuire à la clarté des réponses.

Et après GPT-5 ?

Lors d’un dîner avec la presse cette semaine, les cadres d’OpenAI ont tenté de détourner l’attention du lancement « bancal » pour se concentrer sur l’avenir. Aucune annonce majeure sur GPT-6 ou les prochaines fonctionnalités, mais la personnalité des IA semble être désormais au cœur de la stratégie produit.

Cette mise à jour montre qu’OpenAI prend en compte les retours utilisateurs et ajuste en conséquence ses choix de conception. Avec GPT-5, la firme cherche l’équilibre délicat entre performance, précision et expérience conversationnelle plus humaine. Reste à voir si ces ajustements suffiront à reconquérir les adeptes de GPT-4o.

Lire plus
Intelligence Artificielle

OpenAI envisage d’intégrer des publicités dans ChatGPT, mais avec prudence

OpenAI envisage d’intégrer des publicités dans ChatGPT, mais avec prudence

Alors que OpenAI continue d’étendre l’usage de ChatGPT à l’échelle mondiale, l’entreprise explore de nouvelles sources de revenus — et la publicité n’est plus un tabou. Dans une interview accordée à The Verge, Nick Turley, responsable de ChatGPT, a évoqué la possibilité d’intégrer des publicités, tout en insistant sur la nécessité d’une approche « très réfléchie et de bon goût ».

La publicité dans ChatGPT : pas exclue, mais pas immédiate

Selon Turley, la publicité pourrait ne pas convenir à ChatGPT tel qu’il est actuellement conçu, car l’expérience utilisateur repose sur une alignement précis avec les objectifs de l’utilisateur. Toutefois, d’autres produits OpenAI à venir pourraient intégrer des formats publicitaires adaptés à leur usage.

Sam Altman, PDG d’OpenAI, a exprimé par le passé une certaine réticence : « L’idée de mélanger publicité et IA me met un peu mal à l’aise, » avait-il déclaré à Harvard en 2024.

Mais il a récemment tempéré sa position, affirmant en juin 2025 dans un podcast qu’il n’était « pas entièrement opposé » à la publicité, si elle est bien encadrée.

Croissance explosive, mais rentabilité encore lointaine

Malgré un succès phénoménal, OpenAI n’est pas encore rentable. D’après Bloomberg, l’entreprise devrait générer 12,7 milliards de dollars de revenus en 2025, contre 3,7 milliards en 2024. Pourtant, elle ne prévoit pas de flux de trésorerie positif avant 2029.

Quelques chiffres clés :

Turley y voit une opportunité de conversion vers des abonnements premium.

« Commerce in ChatGPT » : vers la recommandation de produits

OpenAI teste actuellement une nouvelle fonctionnalité de monétisation nommée « Commerce in ChatGPT ». L’objectif ? Permettre à l’IA de suggérer des produits, avec une commission potentielle à la clé. Turley insiste : « Nous ne voulons pas que des revenus d’affiliation influencent les recommandations ».

Le système devra donc rester objectif et indépendant, sous peine de perdre la confiance des utilisateurs.

OpenAI explore aussi des formes d’outils plus intégrés, au-delà du simple chatbot. Turley évoque la possibilité que ChatGPT devienne un assistant de productivité, voire un outil B2B, avec des modèles économiques spécifiques.

Alors que l’écosystème de l’IA se structure à vitesse grand V, OpenAI semble vouloir diversifier ses sources de revenus sans nuire à l’expérience utilisateur. Si la publicité devait arriver dans ChatGPT, elle le fera avec précaution… mais elle n’est désormais plus exclue.

Lire plus
Intelligence Artificielle

DeepSeek R2 : la société dément un lancement en août

DeepSeek R2 : la société dément un lancement en août

Alors que les rumeurs s’intensifiaient ces dernières heures sur une sortie imminente de DeepSeek R2, la société chinoise d’IA a mis fin aux spéculations.
Un proche du dossier a confirmé qu’aucun lancement de DeepSeek R2 n’est prévu entre le 15 et le 30 août 2025, contrairement à ce qu’avait laissé entendre… le propre chatbot de DeepSeek.

Ce n’est pas la première fois que le calendrier de DeepSeek-R2 crée la confusion. En mars dernier, un prétendu lancement le 17 du mois avait déjà circulé sur les réseaux chinois avant d’être démenti. Cette fois encore, la date évoquée semble avoir été générée par une interprétation trop optimiste — voire maladroite — de l’IA maison.

La réalité est plus simple : DeepSeek n’a communiqué aucune date officielle ni publié de fiche technique détaillée pour R2.

DeepSeek R2 : des ambitions, mais encore des obstacles

Malgré le silence officiel, les attentes sont élevées. DeepSeek R2 est pressenti comme une avancée majeure en raisonnement multilingue et en génération de code, capable de rivaliser avec des modèles comme GPT-4 et même GPT-5.

Pourtant, selon des sources citées en juin, le PDG Liang Wenfeng jugerait encore le modèle insuffisamment performant, même après plusieurs mois de développement intensif.

Le retard ne serait pas uniquement lié à la qualité des résultats. Des problèmes d’infrastructure et de scalabilité pèseraient aussi dans la balance. Depuis l’interdiction d’export des puces Nvidia H20 vers la Chine, DeepSeek a dû s’appuyer sur des puces Huawei Ascend 910B. Leur cluster affiche 512 PFLOPS en FP16 avec un taux d’utilisation de 82 %, soit environ 91 % des performances d’un cluster Nvidia A100.

Prometteur, mais encore incertain pour supporter une montée en charge massive au lancement.

Cependant, un espoir pointe à l’horizon : un récent accord entre Nvidia, AMD et le gouvernement américain permettra aux deux fabricants de continuer à vendre certaines puces IA en Chine contre une taxe de 15 % sur leurs revenus locaux. À terme, cela pourrait desserrer l’étau technologique… mais pas avant plusieurs mois.

Une stratégie prudente face à une concurrence féroce

Dans la course à l’IA, un bon modèle ne suffit pas : il doit aussi être stable, évolutif et prêt à encaisser des millions de requêtes. DeepSeek préfère donc retarder son lancement plutôt que de risquer un démarrage raté.

Pour l’instant, DeepSeek R2 est bien réel, il est en phase de tests, mais pas encore prêt pour le grand public. Le monde de la tech reste en attente, observant si la société pourra tenir ses promesses et s’imposer face aux géants américains.

Lire plus
Intelligence Artificielle

Google Gemini introduit les « conversations temporaires » pour plus de confidentialité

Google Gemini introduit les « conversations temporaires » pour plus de confidentialité

Google continue de mettre à jour son assistant IA Gemini afin d’offrir plus de contrôle sur la confidentialité et une meilleure personnalisation des réponses.

Avec des fonctionnalités comme les « Conversations temporaires » et le « Contexte personnel », la firme tente de rattraper son retard face à ChatGPT et Claude, tout en donnant aux utilisateurs plus de maîtrise sur leurs données. Les observateurs du secteur soulignent que cette personnalisation pourrait transformer la façon dont les utilisateurs interagissent avec l’IA au quotidien.

Conversations temporaires : le mode Incognito du chatbot Gemini

La principale nouveauté, baptisée Conversations temporaires (Temporary Chats), permet d’ouvrir une discussion qui s’efface automatiquement au bout de 72 heures.

Temporary Chat.width 1000.format

Contrairement à un mode navigation privée classique, cette option conserve toutes les fonctions premium de Gemini, comme l’envoi et l’analyse de fichiers, le traitement d’images et l’accès aux outils avancés. Ces échanges ne sont pas enregistrés et n’influencent pas les futures réponses de Gemini. Un atout pour les questions sensibles ou les projets confidentiels.

Conserver l’activité et contrôle des données

Google remplace également l’ancienne option « Activité des applications Gemini » par un nouveau réglage baptisé Conserver l’activité (Keep Activity). Activé par défaut, il permet à Google de prélever un échantillon des conversations et fichiers envoyés pour améliorer ses modèles d’IA.

Bon à savoir : si vous aviez désactivé l’ancienne option, le nouveau réglage restera désactivé. Il est possible de le modifier dans les Paramètres.

Keep Activity with Audio and Liv

En parallèle, Google introduit une option pour empêcher l’utilisation de vos données dans l’entraînement futur de ses modèles. Cette fonctionnalité est désactivée par défaut.

Contexte personnel : vers un assistant qui « vous connaît »

Autre évolution importante : l’arrivée du Contexte personnel (Personal Context). Cette fonction permet à Gemini d’apprendre de vos conversations passées afin de fournir des réponses plus pertinentes et personnalisées. Par exemple, l’IA pourra retenir vos préférences de style d’écriture, vos projets en cours ou encore les éléments liés à votre entreprise.

Personal context Past Chats.wi

Ce mode sera activé par défaut sur Gemini 2.5 Pro dans certains pays, avant d’arriver sur Gemini 2.5 Flash dans les semaines à venir. Les utilisateurs peuvent le désactiver à tout moment.

Google en retard sur ses concurrents

Si ces annonces marquent une avancée, Google reste en retard sur ses rivaux :

  • ChatGPT a introduit la mémoire, l’historique de chat et les conversations temporaires dès 2024.
  • Anthropic Claude propose depuis fin 2024 un mode Styles pour personnaliser le ton et la manière dont l’IA interagit.

Dans cette course à la personnalisation, l’objectif est clair : permettre aux utilisateurs de ne plus répéter sans cesse les mêmes instructions et d’avoir un assistant qui “comprend” leur contexte.

Avec les Conversations temporaires, Conserver l’activité et le Contexte personnel, Google Gemini fait un pas important vers plus de contrôle utilisateur et de pertinence dans ses réponses.

Mais face à ChatGPT et Claude, déjà bien installés avec des fonctions mémoire plus avancées, Google devra accélérer s’il veut imposer son assistant comme un acteur majeur dans l’IA conversationnelle.

Lire plus
Intelligence Artificielle

Huawei défie Nvidia avec UCM et l’open source de CANN

Huawei défie Nvidia avec UCM et l’open source de CANN

Huawei vient de franchir un nouveau cap dans sa stratégie d’indépendance technologique. L’entreprise chinoise a officiellement dévoilé Unified Cache Manager (UCM), un framework d’inférence IA pensé pour réduire la dépendance aux coûteuses mémoires HBM, tout en confirmant l’open source de sa boîte à outils CANN (Compute Architecture for Neural Networks) d’ici fin 2025.

L’objectif est clair : optimiser l’IA à grande échelle en contournant les restrictions matérielles imposées par les États-Unis, tout en construisant un écosystème capable de rivaliser avec CUDA de Nvidia.

UCM : un accélérateur logiciel pour les gros modèles IA

Le Unified Cache Manager cible un point faible majeur des déploiements IA : la gestion de la mémoire KV Cache lors de l’inférence des Large Language Model (LLM). En utilisant une hiérarchie mémoire (HBM, DRAM classique et SSD), UCM alloue intelligemment les données en fonction des besoins de latence en temps réel.

Testé chez China UnionPay dans des scénarios comme l’analyse vocale client ou l’assistance bureautique, Huawei affirme avoir réduit la latence jusqu’à 90 % et multiplié le débit par 22. Des résultats impressionnants, surtout dans un contexte où la Chine a un accès limité aux dernières générations de HBM (HBM3, HBM4), contrôlées par SK Hynix, Samsung et Micron.

CANN : le pari open source contre CUDA

En parallèle, Huawei a annoncé l’ouverture du code source de CANN sur sa plateforme MindSpore dès septembre, puis son intégration dans des moteurs d’inférence populaires. L’idée est de casser le verrouillage propriétaire de CUDA, la plateforme logicielle qui règne sur l’IA depuis plus de 20 ans, et d’attirer les développeurs vers les puces Ascend de Huawei.

Le défi est colossal : CUDA bénéficie d’un écosystème mature, d’outils optimisés et d’une adoption massive. Mais, Huawei espère reproduire des succès open source comme Linux, en misant sur la communauté et des partenariats stratégiques (par exemple avec Zhipu AI, qui a déjà basculé vers Ascend).

Matériel et ambitions : contrer Nvidia sur le terrain des GPU IA

Sur le plan matériel, Huawei prépare ses processeurs Ascend 910C et 910D, positionnés face aux Nvidia H100 et Blackwell. L’entreprise vise le déploiement de plus d’un million d’unités d’ici décembre 2025.

L’association d’un hardware compétitif et d’outils open source pourrait constituer une alternative crédible dans un marché chinois où Nvidia et AMD sont de plus en plus exclus des projets sensibles.

Enjeu géopolitique : vers une autonomie IA « Made in China »

Derrière l’innovation technologique se cache un enjeu stratégique : réduire la dépendance aux technologies américaines. Les restrictions sur les puces avancées et la mémoire haut débit poussent la Chine à accélérer le développement de solutions locales, qu’il s’agisse de semi-conducteurs (Yangtze Memory, Changxin Memory) ou de frameworks IA comme UCM et CANN.

Huawei se positionne ainsi comme un acteur clé de cette réindustrialisation numérique, misant sur le logiciel pour compenser les limites matérielles imposées par les sanctions.

Lire plus
Intelligence Artificielle

DeepSeek R2 : le nouveau modèle IA chinois prêt à rivaliser avec GPT-5

DeepSeek R2 : le nouveau modèle IA chinois prêt à rivaliser avec GPT-5

La course mondiale à l’intelligence artificielle s’accélère. DeepSeek s’apprête à lancer son modèle de nouvelle génération, DeepSeek R2, entre le 15 et le 30 août 2025, soit quelques jours seulement après la sortie de GPT-5, inclut dans son chatbot ChatGPT.

Les premiers détails, révélés lors d’une interaction avec le propre modèle IA de la société, laissent entrevoir une avancée technologique majeure.

DeepSeek R2 : Une architecture Mixture of Experts encore plus poussée

DeepSeek R2 adoptera une architecture Mixture of Experts (MoE) de nouvelle génération, associée à un gating network plus intelligent pour mieux gérer les charges lourdes d’inférence.

Selon des sources proches du développement, le modèle pourrait atteindre 1,2 trillion de paramètres, presque le double de DeepSeek R1 (671 milliards), tout en restant en deçà des 1,8 trillion+ de ChatGPT-4 et GPT-5.

100 % entraîné sur des puces chinoises Huawei

Dans le cadre de la stratégie chinoise d’autosuffisance en IA, DeepSeek R2 a été entièrement entraîné sur les puces Huawei Ascend 910B. Le cluster Huawei, affichant 512 PFLOPS de performance FP16 à 82 % d’utilisation, atteindrait 91 % des performances d’un cluster Nvidia A100.

Le gain stratégique est de se libérer de la dépendance aux GPU américains et réduire considérablement les coûts d’entraînement. Résultat : 97 % de réduction du coût de formation par rapport à GPT-4, grâce à l’utilisation de matériel local et de techniques d’optimisation avancées.

Des prix agressifs pour bousculer OpenAI et Anthropic

Avec des coûts réduits, les analystes s’attendent à ce que DeepSeek propose un accès API à prix cassés, de quoi perturber les modèles économiques actuels dominés par OpenAI et Anthropic.

L’annonce a déjà eu un effet immédiat sur les marchés : l’action du fabricant chinois de puces Cambricon a bondi de 20 %, propulsant sa capitalisation boursière à 355 milliards de yuans (≈ 49,7 milliards de dollars).

Huawei dévoile aussi son framework UCM

En parallèle, Huawei lance Unified Cache Manager (UCM), un nouveau framework d’inférence IA optimisant la gestion des KV Cache sur différents niveaux de mémoire (HBM, DRAM, SSD). Testé avec China UnionPay, UCM a permis 90 % de réduction de la latence et un gain en débit de 22 fois.

Huawei prévoit de publier UCM en open source dès septembre 2025.

Le duo DeepSeek R2 + UCM illustre l’ambition de Pékin : bâtir et exécuter des systèmes d’IA hautes performances sans recourir à des puces ou outils occidentaux.

Si les promesses sont tenues, DeepSeek pourrait devenir un acteur incontournable sur le marché mondial des modèles LLM, avec un rapport puissance/coût très agressif.

Lire plus
Intelligence Artificielle

OpenAI adoucit la personnalité de GPT-5 après les critiques pour le rendre plus chaleureux

OpenAI adoucit la personnalité de GPT-5 après les critiques pour le rendre plus chaleureux

OpenAI apporte des ajustements à GPT-5, son dernier modèle phare, après avoir été critiqué pour un ton jugé plus froid et moins engageant que celui de GPT-4o. Le PDG d’OpenAI, Sam Altman, a expliqué dans un post sur X :

« Nous travaillons sur une mise à jour de la personnalité de GPT-5 afin qu’elle paraisse plus chaleureuse que l’actuelle, mais moins agaçante (pour la plupart des utilisateurs) que GPT-4o ».

GPT-5 : Une transition mal vécue par les abonnés

Lors du lancement de GPT-5, OpenAI avait remplacé GPT-4o par défaut dans ChatGPT, sans avertir les utilisateurs. Résultat : un tollé sur les réseaux sociaux et Reddit, certains abonnés menaçant même de résilier leur abonnement si GPT-4o n’était pas rétabli.

Ce modèle, apprécié pour son côté chaleureux et conversationnel, avait pourtant été volontairement allégé de son comportement « trop flatteur » jugé parfois excessif. Malgré cela, il restait populaire auprès de nombreux utilisateurs.

Face à la grogne, OpenAI a finalement réintroduit GPT-4o… mais uniquement pour les abonnés ChatGPT Plus et Pro.

GPT-5 gagne en chaleur… et en contrôle utilisateur

OpenAI ne se contente pas de rétablir l’ancien modèle : GPT-5 va également évoluer. Désormais, les utilisateurs ChatGPT Plus pourront choisir le « niveau de raisonnement » de GPT-5 grâce à trois modes :

  • Auto (par défaut, équilibre entre rapidité et précision)
  • Fast (réponses rapides, moins de raisonnement)
  • Thinking (plus lent, mais plus approfondi)

Screen 2025 08 13 at 14.00.07

En mode Thinking, GPT-5 offre une fenêtre de contexte de 196 000 tokens, idéale pour les projets complexes, notamment en développement logiciel.

Altman précise que la limite hebdomadaire est fixée à 3 000 messages pour GPT-5 Thinking, avec ensuite un accès au modèle « GPT-5 Thinking mini » pour continuer.

Plus de modèles accessibles

Dans les paramètres Web de ChatGPT, un nouveau bouton « Modèles hérités » permettra aux abonnés Plus et Pro de retrouver :

  • OpenAI o3
  • GPT-4.1
  • GPT-5 Thinking mini

Screen 2025 08 13 at 14.00.10

GPT-4.5 restera exclusif aux abonnés Pro, car il requiert davantage de ressources GPU.

Objectif : rendre GPT-5 plus humain

Ces ajustements montrent qu’OpenAI écoute les retours utilisateurs et cherche à trouver le juste équilibre entre précision, rapidité et personnalité. Le défi : garder GPT-5 performant tout en lui redonnant un ton plus naturel et engageant.

Si la mise à jour tient ses promesses, elle pourrait réconcilier les fans de GPT-4o avec la nouvelle génération de modèles OpenAI.

Lire plus
Intelligence Artificielle

OpenAI déploie GPT-5 : priorités d’accès, limites d’usage et nouvelles intégrations

OpenAI déploie GPT-5 : priorités d’accès, limites d’usage et nouvelles intégrations

Alors que la polémique entre Sam Altman (CEO et cofondateur d’OpenAI) et Elon Musk continue d’agiter X, l’annonce la plus importante du moment concerne le déploiement progressif de GPT-5.

Après un lancement jugé « chaotique » par certains utilisateurs la semaine dernière, OpenAI met en place un plan plus clair pour gérer la demande colossale et les limitations d’usage pour GPT-5.

GPT-5 : un lancement sous tension

La sortie de GPT-5 a provoqué un afflux massif sur ChatGPT, qui compte aujourd’hui 700 millions d’utilisateurs actifs par semaine. Ce pic d’activité a entraîné des limitations temporaires, poussant OpenAI à réactiver GPT-4o pour calmer les demandes.

Sam Altman a précisé que la priorité absolue était de garantir plus de capacité aux abonnés payants qu’avant la sortie de GPT-5, sans donner de chiffres exacts.

Pour les abonnés ChatGPT Plus (20 dollars/mois), un mode « Thinking » — qui consacre plus de temps et de puissance de calcul aux tâches complexes — est actuellement limité à 3 000 messages par semaine. En revanche, sur le plan ChatGPT Team (30 dollars/utilisateur/mois), ce mode n’est disponible qu’à hauteur de 200 messages « Thinking » par semaine, une différence surprenante.

API GPT-5 : priorité aux clients existants

Côté développeurs, OpenAI confirme que les accès API GPT-5 seront d’abord alloués aux clients actuels et à ceux déjà engagés par contrat. Altman a indiqué que l’entreprise pouvait encore absorber 30 % de croissance API supplémentaire, mais pas au-delà pour l’instant.

Pour soutenir cette montée en charge, OpenAI prévoit de doubler sa capacité de calcul d’ici cinq mois. Bien que la société n’ait pas détaillé la taille actuelle de son infrastructure, cette expansion vise à réduire les temps de réponse et à améliorer la stabilité pour tous les utilisateurs.

Nouvelles intégrations pour ChatGPT Plus et Pro

En parallèle, OpenAI enrichit ChatGPT avec de nouvelles connexions à des applications tierces.

  • ChatGPT Plus peut désormais rechercher directement dans Dropbox, Notion, Box, Canva, HubSpot, Microsoft SharePoint et Microsoft Teams.
  • ChatGPT Pro (200 dollars/mois) ajoute aussi le support pour GitHub et Teams.

Ces intégrations permettent, par exemple, de consulter un document dans Dropbox ou un projet Notion sans quitter la fenêtre de chat.

Limitation géographique : ces connecteurs ne sont pas encore disponibles pour les utilisateurs en Europe, au Royaume-Uni et en Suisse.

Une montée en puissance maîtrisée

Avec GPT-5, OpenAI ne cherche pas uniquement à proposer un modèle plus intelligent. L’objectif est aussi d’en faire un hub central de productivité, capable de s’intégrer aux outils déjà utilisés en entreprise. En privilégiant ses abonnés existants et en augmentant progressivement sa puissance de calcul, la société adopte une approche graduelle pour éviter les saturations et stabiliser l’expérience utilisateur.

Le véritable test viendra dans les prochains mois, lorsque l’expansion de l’infrastructure sera achevée et que GPT-5 pourra être pleinement exploité sans restrictions.

Lire plus
Intelligence Artificielle

Claude Sonnet 4 : Anthropic lance une IA avec 1 million de tokens de contexte

Claude Sonnet 4 : Anthropic lance une IA avec 1 million de tokens de contexte

Anthropic vient de franchir un nouveau cap dans le domaine de l’intelligence artificielle avec Claude Sonnet 4, un modèle capable de traiter jusqu’à 1 million de tokens de contexte dans une seule requête. Cette avancée permet d’ingérer l’équivalent de 750 000 mots, soit des centaines de milliers de lignes de code ou plusieurs romans entiers, sans découper les données en morceaux.

Disponible dès maintenant en bêta public via l’API d’Anthropic et Amazon Bedrock, cette capacité ouvre de nouvelles perspectives pour les développeurs, les entreprises et les professionnels gérant des projets complexes.

Un bond en avant pour les développeurs

Jusqu’ici, l’analyse d’un projet logiciel complet nécessitait de le découper en segments, ce qui faisait perdre du contexte. Avec Claude Sonnet 4, il devient possible de :

  • Charger un dépôt de code entier et recevoir des suggestions de refactorisation ciblées.
  • Déboguer des systèmes complexes en comprenant l’architecture globale.
  • Analyser simultanément des centaines de documents liés tout en conservant les relations entre eux.

Selon Anthropic, cette innovation réduit drastiquement les allers-retours avec l’IA, ce qui peut accélérer les cycles de développement et améliorer la précision des réponses.

Une technologie pensée pour la cohérence et la sécurité

Cette évolution repose sur les travaux d’Anthropic autour de la Constitutional AI, un cadre éthique inspiré notamment de la Déclaration universelle des droits de l’homme. L’objectif : garantir des réponses pertinentes, sûres et vérifiables, même sur des volumes de données massifs.

Lors de tests internes dits needle in a haystack, Claude a atteint 100 % de précision pour retrouver des informations précises noyées dans de vastes ensembles de texte.

Un atout stratégique face à OpenAI et Google

Avec ce million de tokens, Claude dépasse largement GPT-4 (128,000 tokens) et se positionne au même niveau que les modèles récents de Google et OpenAI… mais avec, selon Anthropic, une meilleure performance sur les tâches de codage et de raisonnement complexe.

Trois cas d’usage majeurs émergent :

  1. Analyse globale de code sur des dépôts entiers.
  2. Synthèse documentaire sur des centaines de fichiers.
  3. Agents IA contextuels capables de maintenir la cohérence sur des workflows complexes et multi-étapes.

Un impact au-delà du développement logiciel

Si le potentiel pour les développeurs est évident, d’autres secteurs pourraient en profiter :

  • Juridique : analyser un dossier complet pour identifier les précédents pertinents.
  • Finance : traiter des rapports de marché volumineux pour la modélisation prédictive.
  • Recherche : compiler et corréler des études entières sans perdre de détails cruciaux.

Des intégrations avec AWS Bedrock sont déjà en place, et une compatibilité avec Google Cloud Vertex AI est prévue.

Un défi technique et économique

Traiter un million de tokens en une fois requiert d’énormes ressources informatiques, ce qui se traduit par un coût plus élevé. Anthropic a d’ailleurs ajusté ses tarifs :

  • ≤ 200,000 tokens: 3 dollars/million en entrée et 15 dollars/million en sortie.
  • 200,000 tokens: 6 dollars/million en entrée et 22,50 dollars/million en sortie.

L’entreprise mise sur le prompt caching pour réduire la facture lors de requêtes répétitives, rendant cette approche compétitive face aux systèmes de recherche augmentée (RAG).

Vers une IA partenaire de développement

Avec cette mise à jour, Claude n’est plus seulement un assistant : il devient un véritable collaborateur virtuel, capable de comprendre l’ensemble d’un projet logiciel ou d’un dossier complexe.

Mais, Anthropic reste conscient des risques : plus le modèle est puissant, plus il faut encadrer son comportement. Des garde-fous supplémentaires ont été ajoutés après des comportements problématiques observés sur des versions antérieures.

Lire plus