fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

GPT-6 déjà en route : OpenAI promet une révolution accélérée de l’IA

GPT-6 déjà en route : OpenAI promet une révolution accélérée de l’IA

À peine quelques semaines après la sortie officielle de GPT-5, Sam Altman, PDG d’OpenAI, a surpris la planète tech en déclarant que GPT-6 est déjà en préparation — et pourrait être lancé beaucoup plus rapidement que les versions précédentes.

Ce changement de rythme annonce une nouvelle stratégie pour OpenAI, qui semble vouloir raccourcir drastiquement les cycles de développement afin de maintenir son avance dans un secteur ultra-compétitif face à Google, Anthropic, Meta, et d’autres géants de l’intelligence artificielle.

GPT-6 : une IA plus intelligente, plus personnalisée, plus rapide

Alors que GPT-4 avait nécessité plus de 2 ans de développement, GPT-6 pourrait arriver en seulement quelques mois après GPT-5 (lancé le 7 août 2025). D’après ZDNet, cette accélération serait rendue possible par des avancées majeures en efficacité d’entraînement.

Selon Sam Altman, GPT-6 sera « très différent » de GPT-5.

Les grandes améliorations attendues :

  • Mémoire améliorée : meilleure continuité dans les conversations longues
  • Personnalisation poussée : des assistants IA capables de se souvenir de vos préférences
  • Personnalités configurables pour les chatbots
  • Réponses plus émotionnellement intelligentes
  • Respect accru de la vie privée et de la confidentialité

Des cas d’usage concrets pour les développeurs et entreprises

Le modèle GPT-5 avait déjà introduit des capacités de collaboration (” agentic coding”) et une exécution plus proactive des tâches. GPT-6 entend aller encore plus loin avec une meilleure intégration aux outils professionnels comme GitHub Copilot, et une expérience utilisateur plus fluide grâce à la mémoire contextuelle.

Pour les développeurs :

  • Meilleure gestion du code complexe
  • Réponses plus cohérentes sur le long terme
  • IA plus fiable pour automatiser des tâches métiers

Pour les entreprises :

  • Agents conversationnels personnalisés
  • Service client amélioré
  • Automatisation intelligente avec respect de la réglementation

Un développement rapide… au risque de l’éthique ?

Cette accélération fulgurante du développement soulève aussi des inquiétudes :

  • Y aura-t-il assez de temps pour tester les biais et problèmes de sécurité ?
  • Le modèle sera-t-il suffisamment aligné éthiquement pour éviter des dérives ?

OpenAI promet que GPT-6 tirera les leçons de GPT-5, notamment sur des sujets tels que le sycophantisme (répéter ce que l’utilisateur veut entendre), les hallucinations factuelles et la transparence des limites du modèle.

Vers un futur de l’IA en constante accélération ?

En lançant GPT-6 aussi rapidement, OpenAI montre qu’elle ne veut pas se faire dépasser par la concurrence. Des modèles puissants comme ceux de Meta ou Anthropic progressent vite, et cette réponse rapide semble stratégique pour conserver la position de leader.

D’après plusieurs sources sur X, GPT-6 pourrait aussi intégrer des capacités multimodales avancées pour un traitement d’image amélioré, une compréhension vocale plus fluide, et une intégration plus poussée dans les outils créatifs.

Si GPT-6 tient ses promesses, nous pourrions entrer dans une ère où l’IA devient un compagnon évolutif, proactif, et personnalisé, capable de comprendre notre historique, nos intentions, nos émotions, et d’agir intelligemment… en quelques secondes.

Mais cette promesse s’accompagne de responsabilités : éthique, fiabilité, transparence, et protection des utilisateurs doivent rester au cœur du processus.

Lire plus
Intelligence Artificielle

xAI rend Grok 2.5 open source : Elon Musk ouvre les portes de l’intelligence artificielle

xAI rend Grok 2.5 open source : Elon Musk ouvre les portes de l’intelligence artificielle

Dans un tournant majeur pour l’intelligence artificielle open source, xAI, la startup d’Elon Musk, a officiellement publié le modèle Grok 2.5 en open source. Le modèle, fort de 314 milliards de paramètres, est désormais accessible à tous sur Hugging Face, avec ses poids et son architecture, sous licence Apache 2.0.

Cette démarche place xAI à contre-courant de sociétés comme OpenAI — cofondée puis critiquée par Musk — qui restent très fermées sur leurs technologies.

En rendant public son meilleur modèle de 2024, Elon Musk cherche à démontrer qu’une IA plus transparente est aussi une IA plus éthique.

Grok 2.5: un modèle plus raisonnant, plus ouvert… mais à surveiller

Selon xAI, Grok 2.5 est une amélioration directe des précédentes versions grâce à de meilleures capacités de raisonnement, de génération de texte et d’interaction contextuelle. L’entreprise affirme que la transparence est la meilleure réponse aux critiques sur les biais et la désinformation.

Musk lui-même, via son réseau social X, a expliqué que rendre public un tel modèle permettait à la communauté de contribuer à sa sécurisation et à son affinement, notamment pour des applications comme les chatbots, les assistants de codage, ou l’intégration dans les voitures Tesla.

Mais tout cela n’est pas sans risques. Dans le passé, certaines versions de Grok ont été accusées de produire des contenus douteux ou biaisés. L’ouverture du code pourrait également faciliter des usages malveillants si aucune surveillance n’est mise en place.

Vers Grok 3, Grok 5 et l’intelligence artificielle générale (AGI)

Ce lancement s’inscrit dans une feuille de route extrêmement ambitieuse. Elon Musk a annoncé que Grok 3 — déjà en phase de test depuis février — sera aussi open source d’ici 6 mois. Ce modèle serait un bond en avant en termes de raisonnement avancé et viserait l’AGI (Artificial General Intelligence), un objectif que Musk évoque régulièrement comme le but ultime de xAI.

D’ici la fin 2025, Grok 5 devrait voir le jour, entraîné sur l’un des plus puissants clusters de calcul du monde, composé de 100 000 GPU NVIDIA H100, selon Musk. Cette puissance de feu soulève toutefois des questions d’inégalité d’accès aux ressources : combien de développeurs indépendants pourront vraiment exploiter un tel modèle sans infrastructure adéquate ?

Un impact global sur l’écosystème de l’IA ?

La publication de Grok 2.5 pourrait forcer les géants du secteur à revoir leur position sur l’open source. Des analystes estiment que cela pourrait créer un effet boule de neige sur l’ouverture des modèles d’IA. D’autres, plus sceptiques, craignent que cette ouverture ne multiplie les failles de sécurité ou les usages non éthiques.

Des incidents récents, comme une fuite de données liées à Grok, montrent que l’ouverture totale n’est pas sans conséquences. Musk affirme vouloir « poursuivre la vérité avec rigueur », mais devra aussi assurer un encadrement sérieux des dérives potentielles.

Une IA transparente… mais à quel prix ?

En publiant Grok 2.5 en open source, Elon Musk veut transformer la manière dont les modèles d’intelligence artificielle sont développés et partagés. L’initiative pourrait catalyser l’innovation communautaire, comme l’open source l’a fait pour le logiciel libre il y a 20 ans.

Mais, cela implique aussi de trouver l’équilibre entre ouverture et sécurité. Si Grok 3 tient ses promesses et que la communauté encadre correctement son évolution, xAI pourrait bien rebattre les cartes dans la course à l’AGI.

Lire plus
Intelligence Artificielle

Sam Altman pense que ChatGPT parlera bientôt plus que l’humanité entière

Sam Altman pense que ChatGPT parlera bientôt plus que l’humanité entière

Lors d’un dîner à San Francisco avec des journalistes, Sam Altman, PDG d’OpenAI, a lâché une déclaration pour le moins provocante : « ChatGPT pourrait bientôt avoir plus de conversations quotidiennes que l’ensemble de l’humanité ».

Cette prédiction audacieuse s’inscrit dans un contexte mouvementé pour OpenAI, entre le lancement contesté de GPT-5, une course à l’armement entre géants de l’IA, et de profondes interrogations éthiques.

Des milliards de conversations quotidiennes… pour un seul chatbot ?

Selon Altman, les tendances actuelles montrent que ChatGPT s’oriente vers des milliards d’interactions quotidiennes, potentiellement plus que tous les échanges humains réunis.

Il ajoute que, pour y parvenir, le modèle devra proposer plusieurs « personnalités » pour répondre aux besoins variés des utilisateurs.

Ce n’est pas une idée nouvelle chez OpenAI, mais elle est révélatrice de l’ambition démesurée de l’entreprise : faire de ChatGPT l’interface universelle entre l’humain et le numérique.

GPT-5 : réception mitigée, corrections rapides

Cette vision ambitieuse contraste avec le lancement chahuté de GPT-5. De nombreux utilisateurs se sont plaints de son ton trop froid, trop robotique. OpenAI a rapidement réintroduit GPT-4o et son sélecteur de modèle.

Des fils Reddit ont dénoncé cette mise à jour comme une « effacement » plutôt qu’un progrès. Altman a reconnu ces critiques tout en défendant les avancées techniques du modèle. « Nous avons appris qu’une transition mal gérée peut perturber la relation entre les utilisateurs et leur IA, » a-t-il déclaré.

Faut-il s’inquiéter du lien émotionnel avec l’IA ?

OpenAI a également admis avoir sous-estimé la dépendance émotionnelle que certains développent envers ChatGPT. Altman estime que moins de 1 % des utilisateurs ont une relation « malsaine » avec le chatbot, ce qui représente malgré tout des millions de personnes. L’entreprise travaille désormais avec des experts en santé mentale pour éviter que l’IA renforce des comportements négatifs, tout en modulant le ton pour qu’il soit chaleureux, mais pas flatteur à l’excès.

GPT-5, le « projet Manhattan » de l’IA ?

Altman compare même le développement de GPT-5 au Projet Manhattan, à l’origine de la bombe atomique. Une analogie inquiétante, qui souligne l’ampleur — et le danger — d’une IA devenue omniprésente. « Parfois, GPT-5 me fait me sentir inutile, » a-t-il avoué lors d’une interview. Cette confession rejoint les appels croissants à la régulation du secteur, d’autant plus que l’IA commence à bouleverser les relations humaines et le marché du travail.

GPT-5 : lancement chaotique et inquiétudes autour de la « psychose ChatGPT »
GPT-5 : lancement chaotique et inquiétudes autour de la « psychose ChatGPT »

Malgré les critiques, Altman n’a pas l’intention de ralentir. Il prévoit d’investir des milliers de milliards de dollars dans les infrastructures, puces et centres de données pour soutenir cette croissance. Il envisage même, selon ses propos, le rachat du navigateur Chrome si Google le mettait en vente. « Si Chrome est à vendre, on devrait regarder sérieusement », dit-il avec un sourire en coin.

Cette stratégie inclut également des appareils physiques développés avec Jony Ive, un navigateur Web intègrant nativement l’IA, une plateforme sociale alimentée par l’IA et des projets de neurotechnologie via Merge Labs, concurrent de Neuralink.

« Sign in with ChatGPT » et la mémoire personnalisée

L’un des futurs piliers d’OpenAI pourrait être l’identité numérique à travers ChatGPT. L’entreprise envisage de proposer une fonction « Se connecter avec ChatGPT », permettant à l’IA de retenir votre historique, vos préférences et votre style de pensée. Une telle fonctionnalité pourrait révolutionner des secteurs comme l’éducation, la médecine ou la recherche, avec une IA capable d’« inventer des percées » ou « d’identifier des traitements », selon les mots d’Altman.

Pour ses détracteurs, Altman et OpenAI prennent trop de risques, en négligeant les questions de biais, désinformation ou dépendance. Certains y voient un nouveau « Big Tech » qui avance plus vite que la société ou la législation ne peuvent suivre.

Le paradoxe ? OpenAI subit une vague de critiques… tout en enregistrant des pics historiques d’utilisation.

ChatGPT peut-il vraiment « parler plus que l’humanité » ?

Si la croissance se poursuit, ChatGPT pourrait devenir le moteur conversationnel dominant au monde. Mais cette domination posera des questions existentielles :

  • Que deviennent nos propres interactions humaines ?
  • Qui contrôle la manière dont l’IA nous répond, nous influence, nous oriente ?
  • Peut-on faire confiance à une entreprise privée pour gérer la voix la plus entendue de la planète ?
Lire plus
Intelligence Artificielle

Google Veo 3 gratuit ce week-end : testez la création vidéo par IA sans abonnement

Google Veo 3 gratuit ce week-end : testez la création vidéo par IA sans abonnement

Vous rêviez de tester les vidéos générées par intelligence artificielle avec Google Veo 3, mais l’abonnement payant vous retenait ? Bonne nouvelle : Google ouvre exceptionnellement l’accès à tous les utilisateurs Gemini ce week-end, sans frais.

L’annonce a été faite via un post sur le compte officiel de l’application Google Gemini. Les utilisateurs gratuitement inscrits à Gemini peuvent ainsi générer jusqu’à trois vidéos avec le moteur Veo 3, jusqu’à dimanche 23 h 59.

Veo 3 : Trois vidéos offertes pour tester le potentiel de l’IA vidéo de Google

En temps normal, seuls les abonnés Google AI Pro (21,99 euros/mois) ou AI Ultra peuvent profiter de Veo 3, avec trois générations vidéo par jour et un accès à des résolutions supérieures via l’éditeur Google Flow. Cette offre temporaire permet donc aux utilisateurs gratuits d’avoir un aperçu sans engagement de cette technologie avancée.

La durée des clips est limitée à 8 secondes, mais chaque vidéo inclut également une piste audio générée automatiquement — à moins que vous ne fournissiez des consignes spécifiques dans le prompt.

Conseils pour bien utiliser vos 3 essais

Étant donné que vous n’avez droit qu’à trois vidéos, mieux vaut rédiger des prompts précis et créatifs. Voici quelques conseils pour maximiser vos essais :

  • Décrivez clairement la scène, le contexte, l’ambiance.
  • Précisez les mouvements des personnages ou objets.
  • Mentionnez le style visuel (dessin animé, cinématique, onirique, etc.).
  • Indiquez la position de la caméra (plongée, travelling, plan fixe…).
  • Suggérez un son d’ambiance ou une musique pour guider l’IA.

Vous pouvez également tester la fonction qui transforme une image en vidéo : envoyez une image, décrivez ce que vous voulez voir évoluer à l’écran, et laissez l’IA faire le reste.

Veo 3 : des vidéos impressionnantes… avec quelques limites

La technologie derrière Veo 3 est parmi les plus avancées dans le domaine de la génération vidéo par IA, avec une meilleure compréhension des mouvements, des scènes cohérentes et un rendu audio-visuel globalement fluide.

Cependant, des bugs visuels ou incohérences peuvent parfois apparaître (gestes irréalistes, visages déformés, effets étranges). Ce test gratuit est donc une excellente occasion de découvrir par vous-même les forces et faiblesses actuelles du système.

Jusqu’à quand l’offre est-elle valable ?

Cette opération promotionnelle se termine le dimanche 25 août à 23 h 59. On ne sait pas encore si cette offre s’applique dans tous les pays, mais le plus simple est d’ouvrir Gemini et de vérifier si l’option de génération vidéo Veo est disponible.

Même si vous n’êtes pas abonné à Gemini AI Pro, ce week-end est l’occasion idéale pour tester la puissance de Google Veo 3 gratuitement. Que vous soyez créateur de contenu, curieux de technologie ou simple amateur de vidéos, profitez de ces 3 essais gratuits pour explorer les possibilités créatives offertes par l’IA générative de Google.

Lire plus
Intelligence Artificielle

Siri bientôt boosté par Gemini ? Apple discute avec Google pour intégrer son IA dans iOS 27

siri gemini hero

Alors que la course à l’IA s’intensifie dans le monde de la tech, Apple serait en discussion avancée avec Google pour intégrer Gemini, son modèle d’intelligence artificielle générative, dans une nouvelle version de Siri.

Cette refonte majeure pourrait être l’un des grands temps forts de iOS 27, attendu courant 2026.

Apple veut une Siri « next-gen »… mais peine à suivre

Lancé en 2011, Siri a longtemps été en avance. Mais aujourd’hui, l’assistant vocal d’Apple accuse un retard conséquent face à des concurrents comme Google Assistant ou Alexa d’Amazon, notamment en matière de compréhension contextuelle, de raisonnement, ou d’interactions multimodales.

Pour rattraper ce retard, Apple semble envisager l’intégration d’une technologie tierce, plutôt que de tout développer en interne. Après des discussions avec OpenAI (ChatGPT) et Anthropic (Claude), c’est désormais Google qui serait en tête de liste.

Gemini x Siri : ce que l’on sait

Selon Bloomberg et Mark Gurman, Apple explore l’intégration du modèle Gemini dans Siri. Cela permettrait à l’assistant :

  • De comprendre des requêtes complexes ou longues
  • D’interpréter le contexte d’une conversation
  • D’accepter des entrées vocales, textuelles ou visuelles
  • D’interagir avec les apps, photos, documents, ou paramètres du téléphone

Gemini pourrait notamment être hébergé sur les serveurs d’Apple pour garantir la confidentialité des données, un point non-négociable dans l’écosystème iOS.

Un partenariat Google-Apple déjà bien amorcé

Apple et Google ne sont pas étrangers à la collaboration : Google Search est déjà le moteur par défaut sur Safari, un partenariat qui génère plusieurs milliards de dollars par an. Intégrer Gemini à Siri prolongerait cette alliance, mais soulèverait aussi des questions d’antitrust. Les régulateurs américains surveillent déjà de près les accords passés entre les deux géants.

Apple insiste depuis des années sur le traitement local des données. Toute intégration d’un modèle externe comme Gemini devra donc :

  • Respecter le traitement sur l’appareil (on-device)
  • Garantir une transparence sur les données utilisées
  • Offrir un contrôle utilisateur clair

Google travaillerait déjà à des versions allégées de Gemini capables de tourner dans l’environnement iOS tout en respectant les standards d’Apple.

Lancement prévu en 2026 ?

Apple aurait initialement prévu une refonte de Siri dès le printemps 2025, mais le projet a été retardé. Désormais, les rumeurs tablent sur une annonce dans iOS 27 (automne 2026), potentiellement accompagnée d’un mode « Apple Intelligence » enrichi, avec Gemini à la manœuvre.

Mais Apple ne tranchera pas avant plusieurs semaines, selon les dernières indiscrétions.

Impacts sur le marché : Apple, Google et la guerre de l’IA

Si l’accord est signé, Google renforcerait sa position dans l’IA mobile, actuellement dominée par OpenAI. Apple, lui, gagnerait du temps en profitant d’un modèle éprouvé pour combler son retard. Enfin, les utilisateurs pourraient enfin avoir un Siri utile, pertinent, et fluide dans leurs usages quotidiens.

Des analystes comme ceux de Reuters estiment déjà que cet accord pourrait booster les actions des deux entreprises, tout en redistribuant les cartes dans l’écosystème IA.

Si Apple signe avec Google, ce serait un tournant stratégique majeur : la firme de Cupertino admettrait ses limites internes dans le développement d’IA avancée… tout en posant les bases d’un Siri nouvelle génération, plus ambitieux, plus réactif, et plus en phase avec les usages actuels.

En attendant une annonce officielle, les regards sont tournés vers iOS 27 et l’année 2026, qui pourrait marquer un nouveau départ pour les assistants vocaux.

Lire plus
Intelligence Artificielle

Grok : 370 000 conversations privées exposées sur Google via une faille de partage

Grok : 370 000 conversations privées exposées sur Google via une faille de partage

L’affaire secoue le monde de l’intelligence artificielle. Selon un rapport explosif de Forbes, plus de 370 000 conversations issues du chatbot Grok (développé par xAI, société d’Elon Musk) ont été référencées par Google — sans que les utilisateurs en soient informés.

Le problème ? Ces discussions, souvent très personnelles, sont devenues accessibles publiquement via une simple recherche. On y trouve des détails intimes, parfois sensibles ou même illégaux. Une faille grave de confidentialité qui relance le débat sur la sécurité des IA conversationnelles.

Un simple bouton « Partager »… qui rend tout public

Tout part d’une fonctionnalité anodine : le bouton « Partager » de Grok. Lorsqu’un utilisateur l’utilise, une URL publique est générée, mais aucune balise empêchant l’indexation par les moteurs de recherche (type « noindex ») n’est ajoutée.

Conséquence directe : Google a indexé ces pages, les rendant visibles à n’importe qui.

Parmi les contenus retrouvés :

  • Des problèmes de santé
  • Des conflits de couple
  • Des mots de passe ou données sensibles
  • Des questions sur la fabrication de drogues
  • Et même des projets criminels simulés

Des liens sans expiration ni contrôle d’accès

Contrairement à un message privé ou à une capture d’écran :

  • Ces liens sont permanents
  • Aucune authentification n’est nécessaire
  • Ils peuvent être retrouvés en tapant quelques mots-clés sur Google

Bien que les conversations soient anonymisées, certains éléments pourraient permettre d’identifier l’auteur, notamment si des noms, lieux ou événements personnels sont évoqués.

Que faire si vous avez partagé une conversation Grok ?

Voici les mesures à prendre immédiatement :

  1. Ne partagez plus de conversations via Grok, sauf si vous êtes parfaitement à l’aise avec une diffusion publique.
  2. Si vous avez déjà partagé un lien, essayez de le retrouver et utilisez l’outil de suppression de contenu de Google : https://www.google.com/webmasters/tools/removals
  3. Sur X (Twitter), désactivez l’option permettant d’utiliser vos posts pour l’entraînement de Grok dans les paramètres de confidentialité.

Un problème récurrent chez les chatbots IA

Grok n’est pas le seul à avoir fait fuiter des conversations :

  • OpenAI a dû retirer des conversations ChatGPT des résultats Google après une polémique similaire.
  • Meta a été critiquée lorsque des discussions avec son IA sont apparues dans la section « Découverte » de ses apps.

Les conversations avec l’IA sont de plus en plus personnelles, proches d’un journal intime. Mais les protections ne suivent pas toujours.

L’illusion de la confidentialité avec l’IA

Les utilisateurs confient de plus en plus leurs pensées profondes aux IA thérapies improvisées, jeux de rôle romantiques et confessions personnelles. Mais, les entreprises, elles, favorisent le partage pour accroître l’engagement — au détriment de la vie privée.

Cette affaire Grok montre que rien n’est vraiment privé sur Internet, surtout dans l’univers encore immature de l’intelligence artificielle générative. Tant que les éditeurs d’IA continueront à pousser des outils de partage sans garde-fous, la prudence reste votre meilleure défense.

Ne traitez jamais une IA comme un confident. Et rappelez-vous : si vous le partagez, c’est que c’est déjà public.

 

Lire plus
Intelligence Artificielle

DeepSeek V3.1 : le LLM chinois de 685 milliards de paramètres qui bouscule le paysage IA open source

DeepSeek V3.1 : le LLM chinois de 685 milliards de paramètres qui bouscule le paysage IA open source

La startup chinoise DeepSeek vient de déployer discrètement DeepSeek V3.1, une mise à jour majeure de son modèle de langage de nouvelle génération. Avec 685 milliards de paramètres et un contexte étendu à 128 000 tokens, ce modèle se positionne comme l’un des plus puissants disponibles en open source, rivalisant avec Claude Opus 4 et flirtant avec le niveau des modèles fermés comme GPT-5.

Un bond en avant pour le traitement de longs documents

DeepSeek V3.1 peut désormais gérer un contexte de 128k tokens, soit l’équivalent de 300 à 400 pages. Ce changement transforme son usage potentiel dans des cas comme :

  • la génération de contenu long-format,
  • l’analyse de documents techniques ou juridiques,
  • les conversations multi-tours étendues,
  • ou encore l’assistance IA dans des contextes métiers exigeants.

Ce support étendu était en fait déjà opérationnel dans la version précédente (V3), mais désormais activé par défaut sur toutes les interfaces.

Architecture Mixture-of-Experts (MoE) et précision flexible

Le modèle conserve son architecture MoE, n’activant que 37 milliards de paramètres par token, ce qui permet une meilleure efficacité énergétique. Il prend en charge plusieurs formats de précision : BF16, FP8 et F32.

Les développeurs peuvent accéder au modèle via API ou le télécharger librement sur Hugging Face sous licence open source MIT.

Benchmark: DeepSeek V3.1 surclasse Claude Opus 4 en code

  • Score Aider (test de codage) : 71,6 %, au-dessus de Claude Opus 4
  • Amélioration visible en mathématiques et logique
  • Performances stables, mais sans gains majeurs en raisonnement par rapport à la version R1-0528

Ce positionnement en fait l’un des modèles open source les plus solides en code, avec un excellent rapport qualité/prix en déploiement local ou cloud.

Stratégie unifiée : fin de la gamme R1, place au tout-en-un V3.1

DeepSeek a supprimé toutes les références au modèle R1 sur son interface chatbot, signalant une transition vers un modèle hybride unique. V3.1 regroupe désormais toutes les capacités : génération, raisonnement, dialogue, code.

Une stratégie de consolidation qui rappelle l’approche unifiée de GPT chez OpenAI, mais en version open source.

Coût d’entraînement et infrastructure : un équilibre complexe

Bien que le coût exact de DeepSeek V3.1 ne soit pas public, son modèle V3 de base aurait nécessité :

  • 2,788 millions d’heures GPU
  • Sur des Nvidia H800
  • Pour un coût estimé à 5,6 millions de dollars

DeepSeek V3.1 reprend cette base avec des ajustements, suggérant une optimisation sans repartir de zéro.

Quid du modèle R2 ? Entre ambitions techniques et réalités géopolitiques

Attendu comme la suite logique, le modèle R2 a été retardé. En cause :

  • Difficultés avec les puces Ascend de Huawei
  • Pression politique pour réduire la dépendance à Nvidia
  • Problèmes de compatibilité, ralentissements en entraînement, retards dus à l’étiquetage des données
  • Frustration exprimée par Liang Wenfeng, fondateur de DeepSeek

Résultat : DeepSeek a repris l’entraînement sur Nvidia et réservé l’inférence pour Ascend, un compromis complexe qui a ralenti le développement.

DeepSeek V3.1 s’impose aujourd’hui comme le modèle LLM open source chinois de référence. Mais le futur de DeepSeek se jouera sur la réussite (ou non) de R2, qui devra prouver la capacité de la Chine à se libérer des contraintes matérielles occidentales sans sacrifier la performance IA.

Lire plus
Intelligence Artificielle

Gemini Live : assistant visuel, vocal et intelligent débarque sur Pixel 10

Gemini Live : assistant visuel, vocal et intelligent débarque sur Pixel 10

À l’occasion du lancement des Pixel 10, Google a annoncé une mise à jour majeure de Gemini Live, sa version la plus évoluée de l’assistant vocal. L’IA devient plus visuellement contextuelle, expressive, et étroitement intégrée aux apps Google.

Une évolution majeure qui transforme la façon dont les utilisateurs interagissent avec leur smartphone.

1. Interaction visuelle en temps réel avec la caméra

Gemini Live pourra désormais mettre en évidence des objets directement sur l’écran lorsqu’on partage la caméra.

Exemples :

  • Compare deux paires de baskets et Gemini t’indique celle qui se marie le mieux avec ta tenue.
  • Pointe la caméra sur une boîte à outils, et l’IA t’indique l’outil exact à utiliser.

Gemini MBG Wrench1 v07

Disponibilité :

  • Dès le 28 août sur les Pixel 10
  • Arrivée progressive sur les autres appareils Android, puis iOS « dans les semaines suivantes ».

2. Intégration plus poussée avec les applications Google

Jusqu’ici limité à Google Agenda, Keep et Tasks, Gemini Live va bientôt s’étendre à : Messages, Téléphone, Horloge et Google Maps.

Cas d’usage concret : en pleine navigation, tu peux dire « Envoie un message à Alex pour dire que je suis en retard de 10 minutes » — sans quitter Maps. Gemini s’en charge.

Google apps in Gemini Live

3. Une voix plus naturelle et expressive

Un nouveau modèle vocal va permettre des interactions bien plus réalistes :

  • Variation d’intonation, de rythme et de tonalité
  • Tonalité apaisée pour les sujets sensibles
  • Narration avec voix de personnage : par ex. en mode « Jules César » ou conte dramatique

Tu pourras même choisir la vitesse d’élocution : lente pour mieux comprendre, rapide pour gagner du temps.

4. Édition photo conversationnelle dans Google Photos

Un tout nouvel éditeur propulsé par Gemini arrive dans Google Photos.

V2 1st In Line Carousel

Tu pourras simplement dire :

  • « Enlève les voitures en arrière-plan »
  • « Ajoute un chapeau de fête »
  • « Améliore la photo »
  • « Rends le ciel plus lumineux »

Gemini comprendra les requêtes et te proposera des suivis contextuels, sans que tu aies besoin de toucher aux outils ou aux curseurs.

5. Transparence avec C2PA et SynthID

Google introduit les balises de vérification de contenu C2PA dans l’application photo du Pixel 10 :

  • Permet de savoir si une image a été modifiée par l’IA
  • Donne des infos sur la méthode de capture ou d’édition
  • Fonctionne avec ou sans IA

Cette fonctionnalité complète IPTC Metadata et SynthID, pour une traçabilité complète des images générées ou retouchées.

Disponibilité :

  • Pixel 10 d’abord, puis déploiement progressif Android/iOS.

Gemini Live devient un véritable assistant multimodal

Avec ces nouveautés, Google rapproche Gemini Live d’un assistant personnel complet, capable de voir, parler, comprendre le contexte et modifier tes contenus à la volée. L’écosystème Google en tire parti à tous les niveaux : Pixel, Photos, Maps, Messages, etc.

Lire plus
Intelligence Artificielle

Grammarly lance des agents IA pour aider les étudiants à améliorer leurs devoirs

Grammarly lance des agents IA pour aider les étudiants à améliorer leurs devoirs

Grammarly vient de dévoiler une série d’agents d’intelligence artificielle spécialisés, conçus pour répondre aux besoins concrets des étudiants comme des enseignants.

Que ce soit pour détecter le plagiat, reformuler un texte, anticiper les réactions d’un lecteur ou même prédire une note finale, ces outils sont accessibles gratuitement sur la nouvelle interface « docs », décrite comme une surface d’écriture native à l’IA.

Grammarly : Des outils pensés pour guider sans remplacer

Jenny Maxwell, responsable de Grammarly pour l’éducation, résume ainsi la philosophie de l’initiative : « Les étudiants ont besoin d’une IA qui amplifie leurs compétences sans compromettre leur apprentissage. Ces nouveaux agents les accompagnent dans la production de travaux de meilleure qualité, tout en développant les compétences essentielles pour leur avenir professionnel ».

Ce que ces nouveaux agents permettent de faire :

  • AI Grader Agent : cet agent prédit la note qu’un devoir pourrait recevoir en se basant sur les critères du cours et sur les préférences connues de l’enseignant (grâce à des informations publiques disponibles). Il fournit aussi des recommandations d’amélioration personnalisées.

AI grader

  • Citation Finder Agent : il génère automatiquement des citations correctement formatées, en lien avec les affirmations du texte, pour aider à respecter les standards académiques.
  • Proofreader Agent: ce correcteur intelligent fait des suggestions en temps réel pour améliorer la syntaxe, la grammaire et le style.
  • Paraphrase Agent : il reformule le contenu pour l’adapter à un ton, un public ou un style précis, très utile pour ajuster un mémoire à un cadre académique.
  • Reader Reactions Agent: il prédit les questions ou remarques que pourrait se poser un lecteur après lecture du document.
  • Expert Review Agent: il fournit une analyse approfondie et personnalisée selon le sujet du devoir.

Deux agents pour les enseignants également

Grammarly pense aussi aux professeurs avec deux outils ciblés :

  • AI Detector Agent : il attribue un score indiquant si un texte a été rédigé par un humain ou généré par une IA.
  • Plagiarism Checker Agent : il compare le contenu soumis à des milliers de bases de données académiques, de sites Web et de publications, pour repérer tout plagiat potentiel.

Ces deux derniers outils sont réservés aux abonnés Grammarly Pro, avec un déploiement prévu pour les établissements et entreprises d’ici la fin de l’année.

Vers une écriture assistée mais éducative

Grammarly mise clairement sur une IA pédagogique plutôt que remplaçante. L’idée est d’entraîner les étudiants à mieux écrire, tout en leur montrant comment tirer parti de l’IA dans un cadre éthique et professionnel.

Avec ces agents, la plateforme évolue de simple correcteur grammatical à véritable assistant de rédaction académique, et pourrait bien devenir un outil incontournable dans les établissements d’enseignement supérieur.

Lire plus
Intelligence Artificielle

Qu’est-ce que Meta AI, l’intelligence artificielle selon Meta ?

Qu’est-ce que Meta AI, l’intelligence artificielle selon Meta ?

Meta AI est le nom donné par le groupe Meta (anciennement Facebook) à l’ensemble de ses développements et produits autour de l’intelligence artificielle. En 2025, Meta AI désigne à la fois :

  • Un assistant IA grand public, disponible sur les plateformes Meta (Facebook, Instagram, WhatsApp, Messenger).
  • Une technologie intégrée dans les lunettes connectées Ray-Ban Meta et les appareils Meta Quest.
  • Un modèle de langage open source (Llama) utilisé dans plusieurs applications tierces.

Meta AI se positionne comme un assistant conversationnel multimodal, capable de répondre à vos questions, générer du texte, créer des images et interagir naturellement avec vous, en particulier dans des environnements sociaux ou immersifs.

Meta AI : un assistant personnel disponible partout

Meta AI est progressivement intégré dans les principaux services du groupe :

  • Dans WhatsApp et Messenger : vous pouvez discuter avec Meta AI, lui poser des questions, demander des idées, générer des images, ou obtenir des réponses en contexte à vos messages.

01 IG Group Chat AI 1

  • Sur Facebook et Instagram : l’assistant propose des suggestions de réponses, des recherches, ou des créations de contenus (posts, légendes, résumés).
  • Dans les lunettes Ray-Ban Meta : Meta AI devient un compagnon visuel, capable de voir ce que vous voyez, de répondre oralement, de traduire ou décrire votre environnement.
  • Dans Meta Quest : intégré à l’environnement immersif, il permet de naviguer, chercher, créer et interagir sans clavier.

Fonctionnalités principales

  • Génération de texte : résumer, reformuler, écrire des messages ou du contenu.
  • Génération d’images : via le modèle Imagine, intégré dans Meta AI.
  • Réponses contextuelles : dans les apps de messagerie, Meta AI comprend le fil de la conversation.
  • Interaction visuelle : dans les lunettes connectées, il reconnaît des objets, lieux ou situations, et fournit des réponses adaptées.

Modèle Llama et approche open source

Derrière Meta AI se cache le Large Language Model Llama 4, la dernière version (2025) étant l’une des plus puissantes du marché, open source et entraînée à très grande échelle.

Meta fait le pari de l’ouverture :

  • Llama 4 est utilisé dans des apps tierces, des assistants personnalisés et des interfaces embarquées.
  • Une version fine-tunée de Llama 4 alimente l’assistant Meta AI sur les plateformes du groupe.

Disponibilité de Meta AI en 2025

Plateforme Statut en août 2025
WhatsApp / Messenger Disponible dans plusieurs pays (anglais, espagnol, français en bêta)
Facebook / Instagram Intégré dans les barres de recherche et commentaires
Ray-Ban Meta (Gen 2) Meta AI embarqué en local et cloud
Meta Quest (3 et Pro) Assistant intégré à l’interface
Navigateurs / Web Meta.ai (interface test publique)

À noter : Meta prévoit une extension de la version française grand public pour l’automne 2025.

Vie privée et positionnement

Meta affirme que :

  • Les données de vos conversations avec l’IA sont utilisées de manière anonyme pour améliorer le service.
  • Vous pouvez consulter et supprimer votre historique Meta AI.
  • Le traitement visuel via les lunettes Meta est local + cloud, selon la tâche.

Malgré ces engagements, la question de la confidentialité reste un sujet d’attention, compte tenu des antécédents de Meta.

Meta AI vs ChatGPT vs Gemini

Critère Meta AI ChatGPT (GPT-5) Google Gemini (2.5 Pro)
Plateformes intégrées Facebook, WhatsApp, Instagram Web, apps, Microsoft 365 Android, Web, Workspace
Assistant vocal Oui (Ray-Ban Meta, Quest) Oui (ChatGPT Voice) Oui (Gemini Live)
Vision + reconnaissance Oui (dans lunettes) Partiellement (image upload) Oui (Gemini multimodal)
Ouverture du modèle Open source (Llama 3) Fermé Fermé
Génération d’image Oui (Imagine) Oui (DALL·E 3) Oui (Imagen 3)
Usage professionnel En test (via Business Suite) Oui Oui

Meta AI est l’assistant IA omniprésent de Meta : intégré dans la messagerie, les réseaux sociaux, les lunettes connectées et les mondes immersifs. Il se distingue par sa capacité à interagir en contexte visuel et social, et par son ancrage dans l’open source via le modèle Llama.

Avec son déploiement progressif en français et l’intégration à tous les appareils Meta, l’IA de Facebook devient un acteur incontournable face à ChatGPT et Gemini.

Lire plus
Intelligence Artificielle

DeepSeek V3.1 : l’IA chinoise open source qui défie GPT-5 et Claude 4

DeepSeek V3.1 : l’IA chinoise open source qui défie GPT-5 et Claude 4

Dans une manœuvre aussi discrète que révolutionnaire, DeepSeek, startup d’intelligence artificielle basée à Hangzhou, a publié sur Hugging Face son nouveau modèle DeepSeek V3.1.

Avec 685 milliards de paramètres, ce LLM (large language model) open source bouleverse l’équilibre mondial de l’IA, remettant en cause la domination d’acteurs américains comme OpenAI et Anthropic.

DeepSeek V3.1 : Une performance de classe mondiale, à coût réduit

Sans conférence de presse ni annonce officielle, DeepSeek V3.1 a immédiatement impressionné les chercheurs grâce à un score de 71,6 % sur le benchmark Aider, devançant même Claude Opus 4 tout en étant 68x moins cher.

Détails techniques clés :

  • 685 milliards de paramètres
  • 128 000 tokens de contexte (≈ 400 pages)
  • Support FP8/BF16
  • Architecture hybride intégrant chat, raisonnement et codage
  • Coût par tâche de codage : ~1 dollars contre 70 dollars pour des modèles propriétaires

L’architecture innovante intègre des « thinking tokens » et des fonctions de recherche Web en temps réel, d’après les chercheurs de la communauté. Une avancée majeure pour le raisonnement et l’autonomie des LLM.

Open source vs. Modèles propriétaires : un clash philosophique

Alors que GPT-5 et Claude 4 restent cloisonnés derrière des APIs coûteuses, DeepSeek rend ses modèles entièrement accessibles, modifiables et auto-hébergeables. Ce choix stratégique brise la dépendance aux services cloud américains, réduit les coûts d’accès à l’IA avancée et favorise une adoption mondiale, y compris dans les pays émergents.

Comme le souligne le journaliste tech Poe Zhao : « DeepSeek consolide ses lignes de produits dans un seul artefact — une réponse chinoise au risque de fragmentation dans la course aux LLMs ».

Une adoption globale rapide, au-delà des frontières

Malgré les tensions géopolitiques, la communauté mondiale des développeurs a rapidement adopté le modèle. Sur Hugging Face, DeepSeek V3.1 figure déjà parmi les modèles les plus téléchargés, prouvant que la qualité technique prime sur l’origine géographique.

« Open Source AI is at its peak right now », a tweeté Victor Mustar (Hugging Face), saluant la montée en puissance des modèles chinois dans le top mondial.

Vers une nouvelle ère de l’intelligence vraiment « artificielle »

Avec cette sortie, DeepSeek ne redéfinit pas seulement la performance IA. Il remet en cause l’idée même de rareté dans l’IA. En rendant accessible ce que d’autres facturent à prix fort, l’entreprise expose un fait dérangeant : la pénurie d’accès à l’IA de pointe est artificielle, construite, et non nécessaire.

L’intelligence artificielle n’a jamais été aussi « artificiellement gardée », et DeepSeek est peut-être celui qui l’a enfin libérée.

 

Lire plus
Intelligence Artificielle

OpenAI lance ChatGPT Go : une formule abordable pour accéder à GPT-5 en Inde

OpenAI lance ChatGPT Go : une formule abordable pour accéder à GPT-5 en Inde

OpenAI vient d’annoncer une nouvelle formule d’abonnement baptisée « ChatGPT Go », déjà en cours de déploiement en Inde. Ce nouveau forfait de ChatGPT vise à rendre l’intelligence artificielle avancée plus accessible, en s’intercalant entre l’offre gratuite de base et l’abonnement Plus plus onéreux.

Fonctionnalités principales de ChatGPT Go

ChatGPT Go propose plusieurs avantages notables par rapport à la version gratuite :

  • Accès étendu à GPT-5, avec plus de requêtes disponibles
  • Mémoire de conversation plus longue pour des échanges personnalisés et contextuels
  • Génération d’images améliorée
  • Téléversement de fichiers variés (PDF, feuilles de calcul, documents)
  • Utilisation plus fréquente des outils d’analyse avancée (dont Python)
  • Accès aux projets, tâches et GPTs personnalisés, pour mieux organiser le travail
  • Contrôle renforcé de la confidentialité, avec possibilité de désactiver l’utilisation des données pour l’entraînement de l’IA

open ai launches chatgpt go in i

Bonne nouvelle : ChatGPT Go fonctionne également via WhatsApp (1-800-ChatGPT) pour ceux qui préfèrent utiliser l’IA par messagerie.

Prix et disponibilité

Le prix de ChatGPT Go est de 399 ₹/mois, soit environ 4,50 €. À ce jour, l’offre est uniquement disponible en Inde pour l’instant. Il s’agit d’une facturation mensuelle uniquement (pas encore d’abonnement annuel).

mg 654b6cd2 w3200 w828 w2600 w13

Il convient de noter qu’il n’y a pas d’accès à GPT-4o dans cette offre ChatGPT Go, aux connecteurs, ni à la génération vidéo via Sora.

Avec ChatGPT Go, OpenAI propose une offre intermédiaire idéale pour les utilisateurs réguliers qui n’ont pas besoin de toutes les fonctions de la formule Plus à ₹1 999/mois. Ce lancement exclusif en Inde pourrait ouvrir la voie à un déploiement mondial dans les mois à venir, surtout dans les marchés émergents où le prix est un critère déterminant.

Lire plus
Intelligence Artificielle

OpenAI modifie GPT-5 pour une personnalité plus chaleureuse et engageante

OpenAI modifie GPT-5 pour une personnalité plus chaleureuse et engageante

OpenAI a annoncé vendredi soir une mise à jour de son modèle GPT-5, récemment lancé, afin de le rendre plus chaleureux et accueillant. Cette décision fait suite à des retours d’utilisateurs déçus par la version initiale, jugée trop froide et impersonnelle par rapport au populaire GPT-4o.

Le PDG Sam Altman a reconnu que le lancement de GPT-5 a été « un peu plus chaotique que prévu », notamment en raison d’un ressenti négatif de certains utilisateurs. Beaucoup disaient préférer la personnalité et le ton plus engageant de GPT-4o. « GPT-5 était très factuel et direct », a expliqué Nick Turley, VP chez OpenAI.

OpenAI précise que les modifications sont subtiles, mais significatives :

  • Ton plus chaleureux, sans flatterie excessive
  • Expressions naturelles comme « Bonne question » ou « Bon début »
  • Aucune hausse de sycophance (complaisance excessive) par rapport à la version précédente

Ces ajustements visent à améliorer l’expérience utilisateur sans nuire à la clarté des réponses.

Et après GPT-5 ?

Lors d’un dîner avec la presse cette semaine, les cadres d’OpenAI ont tenté de détourner l’attention du lancement « bancal » pour se concentrer sur l’avenir. Aucune annonce majeure sur GPT-6 ou les prochaines fonctionnalités, mais la personnalité des IA semble être désormais au cœur de la stratégie produit.

Cette mise à jour montre qu’OpenAI prend en compte les retours utilisateurs et ajuste en conséquence ses choix de conception. Avec GPT-5, la firme cherche l’équilibre délicat entre performance, précision et expérience conversationnelle plus humaine. Reste à voir si ces ajustements suffiront à reconquérir les adeptes de GPT-4o.

Lire plus
Intelligence Artificielle

OpenAI envisage d’intégrer des publicités dans ChatGPT, mais avec prudence

OpenAI envisage d’intégrer des publicités dans ChatGPT, mais avec prudence

Alors que OpenAI continue d’étendre l’usage de ChatGPT à l’échelle mondiale, l’entreprise explore de nouvelles sources de revenus — et la publicité n’est plus un tabou. Dans une interview accordée à The Verge, Nick Turley, responsable de ChatGPT, a évoqué la possibilité d’intégrer des publicités, tout en insistant sur la nécessité d’une approche « très réfléchie et de bon goût ».

La publicité dans ChatGPT : pas exclue, mais pas immédiate

Selon Turley, la publicité pourrait ne pas convenir à ChatGPT tel qu’il est actuellement conçu, car l’expérience utilisateur repose sur une alignement précis avec les objectifs de l’utilisateur. Toutefois, d’autres produits OpenAI à venir pourraient intégrer des formats publicitaires adaptés à leur usage.

Sam Altman, PDG d’OpenAI, a exprimé par le passé une certaine réticence : « L’idée de mélanger publicité et IA me met un peu mal à l’aise, » avait-il déclaré à Harvard en 2024.

Mais il a récemment tempéré sa position, affirmant en juin 2025 dans un podcast qu’il n’était « pas entièrement opposé » à la publicité, si elle est bien encadrée.

Croissance explosive, mais rentabilité encore lointaine

Malgré un succès phénoménal, OpenAI n’est pas encore rentable. D’après Bloomberg, l’entreprise devrait générer 12,7 milliards de dollars de revenus en 2025, contre 3,7 milliards en 2024. Pourtant, elle ne prévoit pas de flux de trésorerie positif avant 2029.

Quelques chiffres clés :

Turley y voit une opportunité de conversion vers des abonnements premium.

« Commerce in ChatGPT » : vers la recommandation de produits

OpenAI teste actuellement une nouvelle fonctionnalité de monétisation nommée « Commerce in ChatGPT ». L’objectif ? Permettre à l’IA de suggérer des produits, avec une commission potentielle à la clé. Turley insiste : « Nous ne voulons pas que des revenus d’affiliation influencent les recommandations ».

Le système devra donc rester objectif et indépendant, sous peine de perdre la confiance des utilisateurs.

OpenAI explore aussi des formes d’outils plus intégrés, au-delà du simple chatbot. Turley évoque la possibilité que ChatGPT devienne un assistant de productivité, voire un outil B2B, avec des modèles économiques spécifiques.

Alors que l’écosystème de l’IA se structure à vitesse grand V, OpenAI semble vouloir diversifier ses sources de revenus sans nuire à l’expérience utilisateur. Si la publicité devait arriver dans ChatGPT, elle le fera avec précaution… mais elle n’est désormais plus exclue.

Lire plus
Intelligence Artificielle

DeepSeek R2 : la société dément un lancement en août

DeepSeek R2 : la société dément un lancement en août

Alors que les rumeurs s’intensifiaient ces dernières heures sur une sortie imminente de DeepSeek R2, la société chinoise d’IA a mis fin aux spéculations.
Un proche du dossier a confirmé qu’aucun lancement de DeepSeek R2 n’est prévu entre le 15 et le 30 août 2025, contrairement à ce qu’avait laissé entendre… le propre chatbot de DeepSeek.

Ce n’est pas la première fois que le calendrier de DeepSeek-R2 crée la confusion. En mars dernier, un prétendu lancement le 17 du mois avait déjà circulé sur les réseaux chinois avant d’être démenti. Cette fois encore, la date évoquée semble avoir été générée par une interprétation trop optimiste — voire maladroite — de l’IA maison.

La réalité est plus simple : DeepSeek n’a communiqué aucune date officielle ni publié de fiche technique détaillée pour R2.

DeepSeek R2 : des ambitions, mais encore des obstacles

Malgré le silence officiel, les attentes sont élevées. DeepSeek R2 est pressenti comme une avancée majeure en raisonnement multilingue et en génération de code, capable de rivaliser avec des modèles comme GPT-4 et même GPT-5.

Pourtant, selon des sources citées en juin, le PDG Liang Wenfeng jugerait encore le modèle insuffisamment performant, même après plusieurs mois de développement intensif.

Le retard ne serait pas uniquement lié à la qualité des résultats. Des problèmes d’infrastructure et de scalabilité pèseraient aussi dans la balance. Depuis l’interdiction d’export des puces Nvidia H20 vers la Chine, DeepSeek a dû s’appuyer sur des puces Huawei Ascend 910B. Leur cluster affiche 512 PFLOPS en FP16 avec un taux d’utilisation de 82 %, soit environ 91 % des performances d’un cluster Nvidia A100.

Prometteur, mais encore incertain pour supporter une montée en charge massive au lancement.

Cependant, un espoir pointe à l’horizon : un récent accord entre Nvidia, AMD et le gouvernement américain permettra aux deux fabricants de continuer à vendre certaines puces IA en Chine contre une taxe de 15 % sur leurs revenus locaux. À terme, cela pourrait desserrer l’étau technologique… mais pas avant plusieurs mois.

Une stratégie prudente face à une concurrence féroce

Dans la course à l’IA, un bon modèle ne suffit pas : il doit aussi être stable, évolutif et prêt à encaisser des millions de requêtes. DeepSeek préfère donc retarder son lancement plutôt que de risquer un démarrage raté.

Pour l’instant, DeepSeek R2 est bien réel, il est en phase de tests, mais pas encore prêt pour le grand public. Le monde de la tech reste en attente, observant si la société pourra tenir ses promesses et s’imposer face aux géants américains.

Lire plus