fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Sora 2 : OpenAI prépare une appli vidéo façon TikTok… 100 % générée par l’IA

Sora 2 : OpenAI prépare une appli vidéo façon TikTok… 100 % générée par l’IA

OpenAI ne compte pas s’arrêter à ChatGPT. Selon des documents consultés par Wired, l’entreprise travaille actuellement sur Sora 2, une nouvelle application dédiée à la génération de vidéos par intelligence artificielle. Il s’agirait d’une réelle évolution par rapport à Sora.

Avec une interface inspirée de TikTok — fil vertical, scroll infini, vidéos courtes et recommandations personnalisées — l’app pourrait bien bousculer le monde de la création vidéo.

Sora 2: Un TikTok de l’IA, sans aucune vidéo humaine

Contrairement à TikTok ou Instagram Reels, toutes les vidéos de Sora 2 sont créées par intelligence artificielle. Aucune vidéo personnelle ou photo importée : les utilisateurs rédigent un prompt (description textuelle), et l’IA génère une vidéo de 10 secondes maximum.

L’appli permettrait :

  • de liker, commenter ou remixer les vidéos générées,
  • de vérifier son identité pour permettre à l’IA de reproduire son apparence,
  • d’être tagué dans des clips par d’autres utilisateurs (avec notification si votre image est utilisée, même dans un brouillon).

Sécurité, vie privée et vérification d’identité

OpenAI prévoit une modération renforcée :

  • Des filtres anti-copyright pour éviter les contenus illicites,
  • Un système de notification dès qu’une image ou une identité vérifiée est utilisée,
  • Des contrôles parentaux et un système de prédiction d’âge en développement pour limiter les usages aux mineurs.

L’outil d’identité permettrait, selon OpenAI, d’éviter les dérives tout en garantissant le respect du droit à l’image. Une précaution utile, alors que les plaintes pour violation de copyright contre l’entreprise se multiplient, notamment de la part du New York Times.

Sora 2 vs Vibes (Meta) vs Veo 3 (Google)

La bataille de la vidéo générée par IA est lancée :

  • Meta a récemment lancé Vibes, un fil vidéo court dans l’app Meta AI,
  • Google déploie progressivement Veo 3 sur YouTube,
  • TikTok se durcit, interdisant les vidéos IA jugées trompeuses ou dangereuses.

Dans ce contexte, OpenAI pourrait profiter de l’incertitude réglementaire autour de TikTok aux États-Unis pour lancer un concurrent « made in USA » sans lien avec la Chine.

Date de lancement : fin 2025 ?

Sora 2 est actuellement en phase de test interne chez OpenAI. Les premiers retours sont positifs, même si certains managers notent que l’addiction à l’outil pourrait impacter la productivité des employés.

Aucune date officielle n’a été annoncée, mais la sortie pourrait coïncider avec celle de GPT-5, attendue dans les prochains mois. Une synchronisation qui positionnerait OpenAI en rival direct de Google, Meta et TikTok sur le terrain de la vidéo courte générée par IA.

Une nouvelle façon d’interagir avec l’IA

Après avoir révolutionné le texte avec ChatGPT, OpenAI veut désormais réinventer la vidéo. Sora 2 pourrait permettre à n’importe qui — créateur, étudiant, curieux — de générer des contenus courts sans caméra ni montage, simplement avec des mots.

Mais la question reste : l’IA peut-elle vraiment remplacer la créativité humaine dans un format aussi émotionnel que la vidéo ? Réponse probable d’ici la fin de l’année.

Lire plus
Intelligence Artificielle

Claude Sonnet 4.5 : L’IA d’Anthropic code seule pendant 30 heures, fini les développeurs juniors ?

Claude Sonnet 4.5 : L'IA d'Anthropic code seule pendant 30 heures, fini les développeurs juniors ?

Ce lundi, Anthropic a dévoilé Claude Sonnet 4.5, son nouveau modèle d’IA de pointe, présenté comme une avancée majeure dans le domaine du codage autonome.

L’entreprise promet une IA capable de produire des applications prêtes pour la production, et non plus de simples prototypes, grâce à une fiabilité nettement accrue.

30 heures de codage autonome pour créer une app type Slack ou Teams

Selon Anthropic, Claude Sonnet 4.5 a été capable, lors de tests en entreprise, de coder seul pendant 30 heures d’affilée. Résultat ? Une application complète avec 11 000 lignes de code, incluant la mise en place d’une base de données, l’achat d’un nom de domaine et même la réalisation d’un audit de sécurité SOC 2.

Du jamais vu dans le secteur. À titre de comparaison, Claude Opus 4, précédent modèle vedette de la marque, tenait « seulement » 7 heures en autonomie.

Claude Sonnet 4.5 est d’ores et déjà disponible via l’API Claude et dans le chatbot Claude. Le tarif reste identique à celui du modèle précédent :

  • 3 dollars par million de tokens en entrée
  • 15 dollars par million de tokens en sortie

6421e7049ff8b2c4591497ec92dc4157b2ac1b30 3840x2160 1 scaled

Mais au-delà du prix, c’est la polyvalence du modèle qui impressionne. Claude Sonnet 4.5 surpasse ses concurrents sur des benchmarks, comme SWE-Bench Verified, avec un focus affirmé sur les tâches à long terme.

Des startups comme Cursor ou Windsurf, spécialisées dans les outils d’aide au développement, saluent déjà ses performances. Le PDG de Cursor parle même d’un « nouveau standard dans le codage par IA ».

Claude Sonnet 4.5 : Moins de sycophance, moins de failles, plus d’alignement

Anthropic assure aussi que Claude Sonnet 4.5 est son modèle le plus « aligné » à ce jour :

  • Moins de réponses flatteuses ou biaisées
  • Moins vulnérable aux attaques par injection de prompt
  • Meilleure compréhension du contexte et du raisonnement à long terme

Un combo séduisant pour les entreprises à la recherche d’un assistant IA fiable, notamment dans des secteurs sensibles comme la cybersécurité, la finance ou la recherche.

image 15 scaled

Lancement du Claude Agent SDK : l’infrastructure des agents entre vos mains

En parallèle, Anthropic dévoile également le Claude Agent SDK, un kit de développement permettant de créer ses propres agents IA, sur la base de l’infrastructure utilisée par Claude Code.

Autrement dit : vous pouvez désormais bâtir vos propres IA spécialisées, capables d’interagir avec des machines virtuelles, de gérer le contexte, de mémoriser des instructions, voire de collaborer avec d’autres agents — tout cela avec le même cœur technologique que Claude Sonnet 4.5.

Imagine with Claude: génération de code en temps réel (et sans tricher)

Pour les abonnés Max, Anthropic propose en plus une expérience expérimentale baptisée Imagine with Claude, qui met en scène une IA générant du code en direct, sans recourir à des snippets pré-écrits.

Le but ? Montrer comment Claude pense et code « à la volée », dans une logique de transparence et de contrôle par l’utilisateur.

Une guerre des agents IA qui s’accélère

Ce lancement intervient quelques jours après la présentation de ChatGPT Pulse par OpenAI, et moins de deux mois après la sortie de Claude Opus 4.1. Le rythme s’accélère : les géants de l’IA livrent désormais des modèles tous les 60 jours.

Anthropic joue ici sa carte avec un positionnement clair : dominer le segment des agents IA autonomes pour les développeurs. Un pari ambitieux, mais crédible, tant les progrès sont visibles.

Claude Sonnet 4.5, le copilote de demain pour les devs ?

Anthropic mise sur un futur où les IA ne seront plus seulement des outils passifs, mais de véritables collaborateurs numériques, capables de travailler de manière autonome sur des projets complexes.

Claude Sonnet 4.5 pourrait bien être le premier modèle à tenir cette promesse à grande échelle, en devenant l’équivalent IA d’un développeur junior… qui ne dort jamais.

Lire plus
Intelligence Artificielle

OpenAI lance enfin des contrôles parentaux pour ChatGPT : une étape clé pour protéger les ados

OpenAI lance enfin des contrôles parentaux pour ChatGPT : une étape clé pour protéger les ados

OpenAI vient de déployer une fonctionnalité très attendue : des contrôles parentaux intégrés à ChatGPT. Ces outils, disponibles dès maintenant sur le Web (et bientôt sur mobile), permettent aux parents de paramétrer l’expérience de leurs adolescents, avec l’objectif de rendre l’IA plus sûre et plus adaptée à leur âge.

Comment fonctionnent les contrôles parentaux sur ChatGPT ?

Le système est simple :

  • Un parent ou tuteur envoie une invitation à son ado pour lier son compte.
  • L’ado accepte ou refuse.
  • Une fois liés, le parent accède à un tableau de bord dédié pour gérer l’expérience de ChatGPT.

Les ados peuvent se désinscrire à tout moment, mais les parents sont notifiés en cas de déconnexion. Important : les parents n’ont pas accès aux conversations de leur ado, sauf dans des cas rares de risque grave identifié par l’IA et revu par une équipe spécialisée.

Des protections renforcées pour les jeunes utilisateurs

Une fois le compte lié, ChatGPT active par défaut des protections supplémentaires :

  • Réduction du contenu sensible (violence, sexualité, défis viraux, idéaux de beauté extrêmes).
  • Limitation des scénarios de jeu de rôle inappropriés.
  • Filtres renforcés contre les conseils à risque (ex. automutilation).

Les options disponibles pour les parents

Blog Static Controls screen 1080

OpenAI propose aux parents des réglages fins et personnalisables :

  • Définir des « heures calmes » : bloquer ChatGPT à certains moments (ex. après 22 h).
  • Désactiver le mode vocal : échanges uniquement en texte.
  • Désactiver la mémoire : ChatGPT n’enregistre pas les conversations passées.
  • Bloquer la génération d’images.
  • Exclure les conversations des données d’entraînement des modèles d’OpenAI.
  • Recevoir des alertes (email, SMS, push) en cas d’activité préoccupante.

Ces réglages sont optionnels et peuvent être ajustés à tout moment via le compte parent.

Blog Static Safety Notifications

Une réponse tardive mais nécessaire

Cette nouveauté arrive dans un contexte sensible. OpenAI est poursuivie après le suicide d’un adolescent, Adam Raine, qui aurait été « coaché » par ChatGPT dans ses messages privés. L’affaire a été évoquée au Sénat américain et a mis en lumière l’absence de garde-fous robustes pour les mineurs.

Matthew Raine, le père de l’adolescent, a déclaré lors de l’audition : « Ce qui a commencé comme un assistant pour les devoirs est devenu un confident, puis un coach au suicide. En tant que parents, vous ne pouvez pas imaginer ce que c’est que de lire une telle conversation ».

OpenAI dit avoir travaillé avec des experts en sécurité des mineurs, l’association Common Sense Media et les procureurs généraux de Californie et du Delaware pour concevoir ces outils.

Un premier pas, mais pas suffisant

Ces contrôles parentaux marquent une étape importante vers un ChatGPT plus sûr pour les ados. Mais comme le rappelle Robbie Torney, Senior Director chez Common Sense Media : « Les contrôles parentaux sont un bon point de départ, mais ils ne remplacent pas le dialogue et l’éducation. Ils fonctionnent mieux combinés à des règles claires et à une implication active des parents ».

En parallèle, OpenAI prépare un système de détection automatique d’âge pour appliquer les protections sans intervention parentale — une mesure qui pourrait bouleverser l’accès des mineurs aux IA dans les prochaines années.

Protéger tout en éduquer

Les contrôles parentaux d’OpenAI offrent aux familles un nouvel outil pour encadrer l’utilisation de l’IA. Mais au-delà de la technique, la clé reste l’éducation aux usages responsables et l’apprentissage du recul face à l’information générée par l’IA, dans un monde où la frontière entre réel et virtuel est de plus en plus floue.

Lire plus
Intelligence Artificielle

Apple teste en interne son propre « ChatGPT » pour réinventer Siri : voici Veritas

Apple teste en interne son propre « ChatGPT » pour réinventer Siri : voici Veritas

Alors que la concurrence (Google, OpenAI, Microsoft) avance à grands pas dans le domaine de l’intelligence artificielle, Apple prépare discrètement sa riposte.

D’après le journaliste Mark Gurman (Bloomberg), la firme de Cupertino développe une application interne nommée Veritas — un chatbot de type ChatGPT, utilisé pour tester la nouvelle version de Siri.

Veritas : le terrain d’expérimentation pour le Siri nouvelle génération

Veritas (latin pour « vérité ») est une application interne, réservée aux employés d’Apple. Elle sert à tester les futures fonctionnalités de Siri, dans un format conversationnel évolué. Les testeurs peuvent :

  • Rechercher dans leurs données personnelles (emails, musiques…)
  • Réaliser des actions dans les applications (comme modifier des photos)
  • Gérer des conversations longues, avec historique et suivi
  • Résumer des pages Web ou des infos à l’écran

Le système derrière Veritas, nommé Linwood, combine les Foundation Models internes d’Apple à un modèle tiers, probablement OpenAI ou Gemini. L’objectif : affiner l’interface, les réponses, et la pertinence des futures interactions Siri.

Apple, en retard dans la course à l’IA ?

Si Apple a récemment dévoilé Apple Intelligence, les réactions du public sont restées mitigées. Et malgré l’annonce d’un Siri repensé, plusieurs retards ont freiné le projet. Certains tests internes ont échoué jusqu’à 30 % du temps, selon Bloomberg.

Ces difficultés ont entraîné un remaniement chez Apple : le chef de l’IA, John Giannandrea, a quitté son poste, tout comme Robby Walker, responsable de Siri, qui quittera l’entreprise en octobre. Walker avait lancé l’équipe AKI (Answers, Knowledge and Information), désormais clé dans la stratégie IA d’Apple.

Que pourra faire le futur Siri ?

Grâce à Veritas, Siri devrait prochainement être capable de :

  • Comprendre et interagir avec les éléments affichés à l’écran
  • Gérer des requêtes complexes ou à étapes multiples
  • Offrir une expérience de recherche alimentée par l’IA
  • Conserver l’historique des échanges pour des conversations fluides et naturelles

La nouvelle version de Siri est attendue au plus tôt en mars 2026, et pourrait être le virage tant attendu pour Apple dans l’ère de l’intelligence conversationnelle.

Pourquoi Veritas n’est pas accessible au public (pour le moment) ?

Malgré ses promesses, Apple ne prévoit pas de rendre Veritas public. Cela pourrait être une erreur stratégique selon certains analystes, car les retours utilisateurs réels manquent cruellement. À la place, la marque préfère continuer les tests en interne.

Apple mise plutôt sur des partenariats avec OpenAI ou Google Gemini pour intégrer l’IA dans ses appareils (recherche intelligente, résumés, assistant vocal…), tout en travaillant en parallèle sur ses propres modèles maison, plus respectueux de la vie privée.

Apple face au défi de l’IA : discrétion ou retard ?

Si Apple reste prudente, c’est aussi pour préserver la confidentialité et la cohérence de son écosystème. Le développement de Veritas illustre la volonté de créer un Siri plus intelligent, plus autonome et plus utile, capable de rivaliser avec les meilleurs assistants du marché.

Mais le temps presse : pendant qu’Apple peaufine ses modèles, Google, Samsung ou Microsoft continuent d’avancer rapidement. Le futur de Siri dépendra donc non seulement de Veritas, mais aussi de la capacité d’Apple à livrer un produit final sans compromis sur l’expérience et la sécurité.

Veritas, le laboratoire secret de Siri

Veritas n’est peut-être qu’un outil interne, mais il incarne une étape cruciale dans le retour d’Apple dans la course à l’IA. Avec une refonte majeure de Siri en ligne de mire, la firme veut prouver qu’elle peut offrir un assistant vocal intelligent, puissant, et respectueux de la vie privée.

2026 sera-t-elle l’année du grand retour de Siri ? Réponse dans quelques mois.

Lire plus
Intelligence Artificielle

Alibaba avec Qwen3-Max : Le modèle IA qui dépasse déjà GPT-5 et Claude Opus 4 ?

Alibaba avec Qwen3-Max : Le modèle IA qui dépasse déjà GPT-5 et Claude Opus 4 ?

Alibaba ne veut plus jouer dans la catégorie des outsiders. Avec Qwen3-Max, le géant chinois signe une montée en puissance spectaculaire dans la course mondiale à l’intelligence artificielle. Et ce n’est pas qu’une question de chiffres.

Le modèle, doté de plus d’un billion de paramètres, rivalise désormais directement avec les meilleurs du marché : GPT-5, Claude Opus 4, Gemini 2.5 Pro… et dans certains domaines, il les dépasse.

Qwen3-Max : Un modèle trillionnaire, mais pas pour faire joli

Ce qui rend Qwen3-Max particulièrement remarquable, ce n’est pas uniquement sa taille démesurée (plus d’un billion de paramètres entraînés sur 36 trillions de tokens) — c’est l’architecture MoE (Mixture-of-Experts) qu’il utilise : seules certaines « experts layers » s’activent selon le besoin, rendant le modèle bien plus efficace que les approches traditionnelles où tout le réseau est sollicité.

Cerise sur le gâteau technique : Alibaba a mis au point une méthode de régulation d’entraînement appelée « global-batch load balancing loss ». Résultat : une courbe de perte stable, sans pics ni interruptions. Du jamais vu à cette échelle.

Des innovations d’ingénierie à saluer

Alibaba n’a pas seulement gonflé les chiffres, il a optimisé tout le processus :

  • PAI-FlashMoE : pipeline d’entraînement parallèle boosté, offrant 30 % de débit en plus par rapport à Qwen2.5-Max.
  • ChunkFlow : gestion du contexte long (jusqu’à 1 million de tokens) avec un débit 3x plus rapide que les méthodes classiques.
  • SanityCheck et EasyCheckpoint : des systèmes maison qui divisent par 5 les interruptions causées par des pannes matérielles.

Des performances qui parlent d’elles-mêmes

Le modèle Qwen3-Max-Instruct, accessible au public, affiche déjà des scores impressionnants :

  • #3 au classement LMArena, devant GPT-5-Chat

Qwen3 Max Instruct text arena scaled

  • 69.6 sur SWE-Bench Verified (résolution de vrais bugs GitHub)

Qwen3 Max Instruct

  • 74.8 sur Tau2-Bench (utilisation d’outils et d’API, mieux que Claude Opus 4 et DeepSeek V3.1)

Mais le plus impressionnant reste à venir…

Qwen3-Max-Thinking: la version « agent autonome » en approche

Encore en entraînement, cette variante axée sur le raisonnement a déjà obtenu 100 % sur les benchmarks AIME 25 et HMMT, deux des tests de mathématiques les plus coriaces du monde IA.

Elle intègre un interpréteur de code et des fonctions avancées de résolution logique, avec gestion parallèle pendant l’inférence. Autrement dit, un vrai moteur de pensée, et pas juste un chatbot un peu malin.

Multilingue, multimodal et… plus fiable

Qwen3-Max a été conçu pour exceller aussi bien en anglais qu’en chinois, avec des progrès notables dans :

  • le suivi d’instructions complexes
  • le raisonnement mathématique et scientifique,
  • la réduction des hallucinations.

En clair : il est plus cohérent, plus rigoureux, et plus stable que ses prédécesseurs.

Comment tester Qwen3-Max ?

  1. Utilisateurs classiques : téléchargez l’appli Qwen sur iOS ou Android, ou testez directement sur leur site. Le modèle Qwen3-Max-Instruct y est déjà actif.
  2. Développeurs : intégrez-le via l’API Alibaba Cloud (Model Studio) pour l’inclure dans vos applis ou services.

Ce que ça change pour l’écosystème IA mondial

Avec Qwen3-Max, Alibaba ne se contente pas de « rattraper » OpenAI, Google ou Anthropic. Il apporte de vraies innovations d’ingénierie, notamment dans la gestion des contextes longs, l’efficacité de l’entraînement et la résilience des infrastructures.

Et l’arrivée prochaine de Qwen3-Max-Thinking laisse penser qu’Alibaba veut aller encore plus loin : vers des IA capables d’agir, de réfléchir et d’utiliser des outils comme de vrais agents autonomes.

Qwen3-Max n’est pas juste un gros modèle, c’est une déclaration d’intention

Alors que la bataille mondiale des LLM atteint une nouvelle phase, Alibaba s’impose comme un acteur à prendre très au sérieux. Entre ingénierie de pointe, performances réelles et vision long terme, Qwen3-Max marque peut-être le début d’une nouvelle ère de compétition technologique mondiale.

Lire plus
Intelligence Artificielle

Gemini 2.5 Flash : L’IA de Google devient-elle le tuteur privé parfait ?

Gemini 2.5 Flash : L'IA de Google devient-elle le tuteur privé parfait ?

Google vient de dévoiler une nouvelle mise à jour pour Gemini 2.5 Flash, son modèle d’intelligence artificielle optimisé pour la rapidité et les tâches éducatives.

Cette mise à niveau vise à rendre l’apprentissage assisté par IA plus efficace, plus clair et plus interactif.

Quelles sont les nouveautés de Gemini 2.5 Flash ?

Des explications de devoirs plus claires

Gemini 2.5 Flash est désormais capable de fournir des explications pas à pas pour les questions scolaires, même complexes. Chaque étape est détaillée, permettant aux élèves de mieux comprendre les concepts abordés, plutôt que de recevoir uniquement la réponse finale.

Les réponses générées sont désormais structurées de manière plus lisible :

  • Titres
  • Listes à puces
  • Tableaux

Objectif : rendre l’information facile à lire, à scanner, et à mémoriser, notamment pour les révisions.

Une compréhension d’image améliorée

Les utilisateurs peuvent téléverser des schémas, images ou notes manuscrites pour que Gemini les analyse. Il peut ensuite :

  • Expliquer le contenu visuel
  • Résumer des notes
  • Générer des fiches de révision automatiques

Parfait pour les étudiants visuels ou ceux qui travaillent avec des supports complexes.

Disponibilité : la mise à jour est déjà en ligne

La mise à jour est disponible dès maintenant pour tous les utilisateurs du modèle Gemini 2.5 Flash.

Pour l’essayer :

  1. Rendez-vous sur gemini.google.com
  2. Choisissez Gemini 2.5 Flash dans le sélecteur de modèle

« Avec cette mise à jour, les utilisateurs profiteront d’une meilleure aide pas à pas pour les devoirs, de réponses plus structurées, et d’une compréhension d’image renforcée. », indique Google sur X.

Avec cette nouvelle version, Google transforme Gemini Flash en assistant pédagogique intelligent, capable de guider les élèves et étudiants dans leurs révisions de façon claire, rapide et efficace. Que ce soit pour décrypter un schéma, comprendre une équation ou réviser un cours, l’IA devient un véritable soutien éducatif personnalisé.

Lire plus
Intelligence Artificielle

Huawei dévoile sa riposte à Nvidia : une stratégie IA sur 3 ans basée sur la puissance en cluster

Huawei dévoile sa riposte à Nvidia : une stratégie IA sur 3 ans basée sur la puissance en cluster

Huawei frappe un grand coup dans la guerre technologique sino-américaine. Lors de sa conférence Huawei Connect à Shanghai, le géant chinois a annoncé un plan stratégique sur trois ans visant à concurrencer Nvidia sur le terrain des puces d’intelligence artificielle, non pas en surpassant la puissance brute de ses rivaux, mais en misant sur une approche systémique et massivement scalable.

Du Ascend 950 au « SuperPod » : Huawei réinvente l’architecture IA

Au cœur de ce plan figure une vision audacieuse : contourner les restrictions américaines en misant sur l’agrégation de puissance plutôt que sur la performance individuelle des puces.

Eric Xu, président tournant de Huawei, l’a affirmé sans détour : les puces Ascend actuelles ne rivalisent pas encore avec Nvidia en termes de vitesse ou d’efficacité énergétique.

Mais, Huawei veut compenser ce retard par l’interconnexion massive de milliers de processeurs dans des superclusters capables de former des modèles d’IA à grande échelle.

Le système baptisé « SuperPod » pourra connecter jusqu’à 15 488 puces Ascend via une infrastructure réseau 62 fois plus rapide que la concurrence, selon la marque.

Roadmap technique : Ascend 950 en 2026, Ascend 960 en 2027

La feuille de route de Huawei est déjà tracée :

  • En 2026, la société lancera la série Ascend 950, accompagnée de sa propre mémoire à large bande passante (HBM), pour créer des architectures cohérentes en termes de puissance et de bande passante.
  • En 2027, arrivera le Ascend 960, avec pour objectif déclaré de rattraper Nvidia d’ici 2028.

Selon Bloomberg, ces avancées permettraient aux entreprises chinoises de développer leurs propres modèles de langage sans dépendre de la technologie étrangère — une étape clé vers l’autonomie technologique nationale.

Un soutien politique explicite pour contrer les sanctions

v2 798e98dad80c4cbcb0210a724bb4d

La stratégie de Huawei s’inscrit pleinement dans la vision du gouvernement chinois qui a interdit l’utilisation de processeurs Nvidia par les entreprises nationales. Cette politique vise à stimuler l’innovation locale et à réduire la dépendance à l’égard de technologies étrangères, en particulier américaines.

Ce plan à long terme est perçu par les experts comme un acte fort dans la rivalité technologique sino-américaine. Huawei suit une structure stratégique analogue à celle de Nvidia, preuve que la Chine peut tenir la cadence de l’innovation, même sous embargo.

Cette montée en puissance pourrait entraîner :

  • Une restructuration des chaînes d’approvisionnement mondiales,
  • Une diversification des alternatives face aux solutions américaines,
  • Et une redistribution des cartes dans l’IA de pointe.

Des obstacles industriels à franchir

Malgré l’ambition, Huawei reste confronté à des défis majeurs. La production des puces est confiée à SMIC, un fondeur chinois lui aussi impacté par les sanctions américaines, notamment en ce qui concerne l’accès aux machines de gravure avancées (EUV).

De plus, les performances réelles des « SuperPods » dépendront fortement :

  • De l’optimisation logicielle,
  • De l’efficacité énergétique globale,
  • Et de l’écosystème IA autour des puces — des domaines où Nvidia reste très en avance, selon TechRepublic.

La réaction des marchés est restée modérée, avec une légère volatilité sur le titre Nvidia. Mais, la stratégie de Huawei pourrait bien accélérer l’adoption de l’IA en Chine, avec des applications envisagées dans des secteurs tels que :

  • Les véhicules autonomes,
  • La santé et la découverte de médicaments,
  • Et l’industrie intelligente.

D’après le Business Standard, ces nouveaux « supernœuds » de calcul visent à réduire la dépendance aux importations, tout en construisant une infrastructure IA nationale robuste.

Huawei contre Nvidia, l’heure du défi systémique

Avec ce plan étalé jusqu’en 2028, Huawei redéfinit le champ de bataille de l’intelligence artificielle. Il ne s’agit plus uniquement de gravure ou de puissance de calcul brute, mais d’intégration, de réseau, et de stratégie nationale.

Si Huawei réussit son pari, ce ne sera pas seulement une victoire contre Nvidia, mais une redéfinition du modèle d’innovation mondial, dans lequel la souveraineté technologique devient une arme géopolitique à part entière.

Lire plus
Intelligence Artificielle

Google DeepMind propulse la robotique autonome avec Gemini Robotics 1.5

Google DeepMind propulse la robotique autonome avec Gemini Robotics 1.5

Google DeepMind vient de franchir une nouvelle étape dans la robotique grâce à une mise à jour de ses modèles d’intelligence artificielle. En effet, DeepMind a annoncé une avancée majeure dans la robotique avec le lancement de ses modèles Gemini Robotics 1.5 et Gemini Robotics-ER 1.5, une mise à jour des systèmes introduits en mars dernier.

Selon Carolina Parada, responsable de la division robotique, les nouveaux modèles permettent désormais aux robots de planifier plusieurs étapes à l’avance et même de s’appuyer sur Internet pour trouver des solutions. Jusqu’à présent, ces systèmes excellaient surtout dans l’exécution d’instructions simples et isolées, comme plier une feuille ou ouvrir une fermeture éclair.

Désormais, ils peuvent accomplir des tâches beaucoup plus complexes, comme trier du linge par couleurs, préparer une valise en fonction de la météo à Londres ou encore séparer les déchets selon les consignes locales trouvées via une recherche en ligne.

Des robots capables de planifier, apprendre et résoudre des problèmes complexes

Ces modèles permettent désormais aux robots de :

  • Planifier plusieurs étapes à l’avance, plutôt que d’exécuter une seule instruction.
  • Analyser leur environnement et rechercher activement des informations en ligne (via Google Search).
  • Traduire ces recherches en instructions exploitables pour agir dans le monde réel.

Exemples de tâches complexes désormais possibles :

  • Trier le linge par couleur (sombres/clairs)
  • Préparer une valise selon la météo d’une ville (ex. : Londres)
  • Trier les déchets (recyclage, compost, ordure) selon les règles locales trouvées en ligne

GeminiRobotics Agentic System

Un système collaboratif entre modèles Gemini Robotics

Ces progrès reposent sur deux modèles complémentaires : Gemini Robotics 1.5 et Gemini Robotics-ER 1.5. Le premier combine vision et compréhension du langage pour exécuter des actions concrètes, tandis que le second aide les robots à interpréter leur environnement et à consulter des outils numériques comme Google Search pour traduire les résultats en instructions exploitables.

Ensemble, ils permettent aux machines de passer d’une simple obéissance à une véritable capacité de raisonnement appliquée au monde physique.

Apprentissage partagé entre robots

Autre avancée importante : la capacité pour les robots de « s’enseigner » mutuellement. Google DeepMind a montré que des compétences acquises sur un robot comme l’ALOHA2 pouvaient être directement transférées à d’autres machines très différentes, qu’il s’agisse du bras robotisé Franka ou même du robot humanoïde Apollo d’Apptronik.

Cela ouvre la voie à un modèle unique capable de contrôler des configurations variées et d’accélérer l’apprentissage collectif des robots.

« On peut désormais contrôler des robots très différents avec un seul modèle et transférer des compétences entre eux », a déclaré Kanishka Rao, ingénieur logiciel chez Google DeepMind.

Disponibilité

Gemini Robotics-ER 1.5 est accessible dès aujourd’hui via l’API Gemini dans Google AI Studio (pour développeurs). Gemini Robotics 1.5 reste pour l’instant réservé à certains partenaires sélectionnés.

Avec ces mises à jour, Google DeepMind renforce son positionnement dans la course à l’IA incarnée (embodied AI), où des modèles cognitifs sont intégrés à des robots capables d’agir dans le monde physique de manière autonome, collaborative, et adaptative.

Lire plus
Intelligence Artificielle

ChatGPT Pulse : OpenAI lance un résumé quotidien personnalisé pour abonnés Pro

OpenAI vient de dévoiler ChatGPT Pulse, une nouvelle fonctionnalité qui transforme le chatbot en véritable assistant proactif.

Disponible dès maintenant pour les abonnés Pro (200 dollars/mois), ChatGPT Pulse génère chaque matin un résumé personnalisé de 5 à 10 cartes visuelles afin de vous mettre à jour sur les sujets qui comptent pour vous — sans que vous ayez besoin de poser la moindre question.

Qu’est-ce que ChatGPT Pulse ?

Contrairement à l’usage classique de ChatGPT (où l’utilisateur initie la conversation), Pulse fonctionne en mode asynchrone. Pendant que vous dormez, l’IA explore vos préférences (via l’historique de vos conversations, mais aussi des apps connectées comme Google Agenda, Gmail ou Contacts) et prépare une sélection d’informations pertinentes :

  • Actu sportive (ex. résultats de F1 ou d’un club de foot favori)
  • Briefs d’actualité ciblés sur vos centres d’intérêt
  • Suggestions personnalisées (menus adaptés à votre régime, idées de sorties, voyages)
  • Leçons quotidiennes (ex. vocabulaire dans une langue en cours d’apprentissage)
  • Planning familial basé sur votre agenda (ex. idées de costumes pour Halloween, itinéraires kids-friendly en voyage)

Chaque brief apparaît sous forme de carte illustrée avec du texte concis, que vous pouvez développer ou interroger plus en détail via ChatGPT.

Une étape vers les « AI Agents »

Selon Fidji Simo, CEO d’OpenAI Applications : « La prochaine frontière, ce sont les agents : des assistants capables d’agir pour vous, comme une équipe qui travaille à vos côtés ».

ChatGPT Pulse est pensé comme un premier pas vers ces assistants autonomes. OpenAI imagine à terme un outil capable de réserver un restaurant, rédiger un email à envoyer, ou encore organiser un voyage complet, tout en respectant vos préférences.

Personnalisation & confidentialité

  • Connectors: compatibilité avec Gmail, Google Agenda, etc.
  • Mémoire activée : Pulse se souvient de vos préférences (ex. régime alimentaire, loisirs).
  • Sources citées : comme ChatGPT Search, les informations affichent leurs références.
  • Usage limité volontairement : après quelques briefs, Pulse s’arrête avec un message « C’est tout pour aujourd’hui », pour éviter l’effet scroll infini des réseaux sociaux.

Pourquoi réservé aux Pro ?

Pulse est une fonctionnalité très gourmande en calcul. Sam Altman a confirmé que certains services avancés resteraient réservés aux formules haut de gamme, le temps que la capacité serveur augmente (grâce aux partenariats avec Oracle et SoftBank).

Les utilisateurs de ChatGPT Plus devraient y avoir accès prochainement, avant un déploiement plus large à terme.

Lire plus
Intelligence Artificielle

ChatGPT Pro : OpenAI prépare des fonctionnalités exclusives à 200 dollars/mois

ChatGPT Pro : OpenAI prépare des fonctionnalités exclusives à 200 dollars/mois

Sam Altman, PDG d’OpenAI, a une nouvelle fois fait parler de lui. Dans un post publié sur X, il a annoncé l’arrivée prochaine de nouvelles fonctionnalités pour ChatGPT, mais uniquement pour les abonnés du plan ChatGPT Pro à 200 dollars par mois. Certaines options pourraient même être facturées en supplément.

Cette annonce marque une étape stratégique : OpenAI veut pousser l’IA encore plus loin, mais ces avancées auront un coût, tant pour les serveurs que pour les utilisateurs.

ChatGPT Pro : Des fonctionnalités premium très gourmandes en calcul

Altman n’a pas donné de détails précis, mais tout porte à croire que ces nouveautés viseront les usages les plus avancés :

  • une raisonnement plus poussé grâce à des modèles spécialisés,
  • une intégration multimodale améliorée (texte, image, audio, vidéo),
  • des agents autonomes capables de gérer des tâches complexes,
  • et peut-être même une évolution de Sora ou GPT-Image.

Ces outils nécessitent une puissance de calcul colossale. D’où ce modèle premium, qui vient compléter l’offre actuelle : ChatGPT gratuit, ChatGPT Plus à 20 dollars, et maintenant ChatGPT Pro à 200 dollars pour les utilisateurs « power users » et entreprises.

Accessibilité vs rentabilité

Si le plan ChatGPT Pro attire surtout les entreprises et professionnels, l’introduction de frais supplémentaires pour certaines fonctionnalités pourrait créer une fracture entre utilisateurs.

Les analystes y voient une tendance lourde : l’IA est de plus en plus intégrée dans les workflows professionnels, mais seuls ceux qui peuvent payer auront accès aux outils les plus puissants. Pour les autres, il faudra se contenter d’une version plus limitée.

Un choix qui rappelle les récentes discussions autour des coûts astronomiques des data centers nécessaires pour entraîner et faire tourner ces modèles. Altman lui-même a reconnu que ces investissements se chiffreraient en trillions de dollars dans les prochaines années.

Une stratégie risquée, mais ambitieuse

Cette montée en gamme survient après une période agitée pour OpenAI, marquée par le lancement controversé de GPT-5, jugé en demi-teinte par une partie des utilisateurs. Mais, Altman ne cache pas son ambition : faire d’OpenAI le leader de l’IA dite agentique, capable d’exécuter des tâches complexes sans intervention humaine constante.

La concurrence est rude, avec Google et Anthropic en embuscade, mais OpenAI veut garder l’avantage en proposant les fonctionnalités les plus avancées… même si elles restent réservées à une élite capable de payer.

Avec ces nouvelles offres premium, OpenAI assume un virage : l’innovation sera coûteuse. ChatGPT restera accessible dans ses fonctions de base, mais les vraies révolutions — raisonnement de haut niveau, multimodalité avancée, agents autonomes — seront réservées aux abonnés ChatGPT Pro.

Reste à voir si ce pari paiera : ces innovations pourraient transformer la productivité des entreprises, mais aussi accentuer la fracture entre « AI haves » et « have-nots ».

Lire plus
Intelligence Artificielle

Microsoft 365 Copilot intègre les modèles Claude d’Anthropic

Microsoft 365 Copilot intègre les modèles Claude d’Anthropic

Microsoft vient de franchir un cap stratégique dans l’intégration de l’intelligence artificielle à ses outils professionnels. À partir d’aujourd’hui, les utilisateurs de Microsoft 365 Copilot peuvent accéder aux modèles Claude Sonnet 4 et Claude Opus 4.1 développés par Anthropic, en plus des modèles OpenAI déjà utilisés.

Une décision qui marque un tournant important dans la diversification des moteurs IA accessibles au sein de la suite bureautique de Microsoft.

Claude rejoint Copilot : plus de choix, plus de puissance

Jusqu’à présent, Microsoft 365 Copilot reposait exclusivement sur les modèles GPT d’OpenAI, notamment GPT-4 et GPT-4 Turbo. Désormais, les modèles Claude sont disponibles dans deux environnements clés :

  • Researcher, l’assistant IA de recherche avancée,
  • Et Microsoft Copilot Studio, la plateforme de création d’agents conversationnels et automatisés.

Les utilisateurs verront apparaître une nouvelle option « Try Claude » dans l’interface de Researcher. En un clic, ils pourront basculer entre les modèles OpenAI et Anthropic Claude Opus 4.1, selon leurs préférences ou les besoins de leur tâche.

1 dad88c

« Les clients ont désormais la flexibilité de choisir les modèles IA qui conviennent le mieux à leurs cas d’usage métier », explique Charles Lamanna, président de la division Copilot chez Microsoft.

Une IA taillée pour le travail, le raisonnement et l’automatisation

Ce déploiement ne se limite pas à une simple alternative technique. Microsoft mise sur les atouts spécifiques des modèles Claude, réputés pour leur raisonnement avancé, leur rigueur en traitement de texte et leurs performances dans des tâches complexes. Dans Copilot Studio, ces modèles peuvent être utilisés pour :

  • Créer des agents IA personnalisés,
  • Automatiser des workflows complexes,
  • Orchestrer plusieurs modèles selon les tâches.

Les utilisateurs peuvent désormais mixer les modèles Claude, OpenAI ou d’autres proposés dans le catalogue Azure, pour optimiser chaque étape d’un processus automatisé.

Claude dans Microsoft 365 Copilot : déjà actif via le programme Frontier

L’intégration de Claude commence aujourd’hui via le programme Frontier, accessible aux détenteurs de licences Microsoft 365 Copilot ayant opté pour la nouvelle fonctionnalité. L’activation est immédiate pour les entreprises qui souhaitent expérimenter ces nouveaux outils.

Ce choix stratégique ne sort pas de nulle part. Microsoft a récemment commencé à favoriser Claude Sonnet 4 dans GitHub Copilot, notamment dans Visual Studio Code, où l’outil de complétion IA automatique utilise désormais principalement le modèle d’Anthropic.

Des tests internes ont également montré que Claude surperforme les modèles OpenAI dans certaines tâches dans Excel et PowerPoint, selon plusieurs sources proches du dossier. Une intégration plus large de Claude dans les outils de bureautique de Microsoft est donc attendue dans les semaines à venir.

Une IA Anthropic… toujours hébergée chez AWS

Fait notable : bien que Microsoft accède aux modèles Claude via l’API publique d’Anthropic, ceux-ci restent hébergés chez Amazon Web Services (AWS) — un concurrent direct d’Azure. Cela n’empêche pas Microsoft d’envisager une intégration plus profonde via Azure, comme cela a déjà été le cas avec Grok 3, le modèle IA d’xAI (Elon Musk), désormais hébergé sur Azure.

L’arrivée des modèles Claude dans Microsoft 365 Copilot n’est pas qu’un élargissement de l’offre : c’est un signal fort envoyé au marché de l’IA générative. Microsoft adopte une approche multi-modèles, capable de s’adapter aux besoins réels des utilisateurs professionnels. Cette flexibilité pourrait bien devenir un avantage concurrentiel majeur, à l’heure où les entreprises exigent de la transparence, de la performance et des résultats concrets.

« Ce n’est que le début », promet Charles Lamanna. Et il se pourrait bien que Claude s’impose comme le nouvel atout IA de Microsoft.

Lire plus
Intelligence Artificielle

Shadow Leak : des chercheurs exploitent ChatGPT pour voler des données Gmail

Shadow Leak : des chercheurs exploitent ChatGPT pour voler des données Gmail

Des chercheurs en cybersécurité de Radware ont démontré comment ChatGPT pouvait être utilisé comme complice involontaire dans le vol de données sensibles.

Leur attaque, baptisée Shadow Leak, visait les boîtes Gmail et a mis en lumière les risques liés aux IA agentiques, ces assistants capables d’agir de manière autonome au nom de l’utilisateur.

Une faille dans le fonctionnement des agents IA

Les agents IA, comme Deep Research intégré à ChatGPT, sont conçus pour faciliter la vie des utilisateurs en accédant à leurs e-mails, agendas, documents professionnels et bien plus encore. Mais, cette autonomie peut être détournée.

Radware a utilisé une technique appelée injection de prompt : des instructions malveillantes sont cachées dans un contenu apparemment banal, comme un e-mail. Invisibles pour l’œil humain (par exemple du texte blanc sur fond blanc), ces commandes sont comprises et exécutées par l’IA.

Dans le cas de Shadow Leak, un e-mail piégé était placé dans la boîte Gmail. Lorsqu’un utilisateur lançait Deep Research, l’agent rencontrait les instructions cachées, qui l’amenait à fouiller la boîte de réception pour trouver des e-mails RH ou des données personnelles, puis à exfiltrer ces informations vers les attaquants, sans que la victime ne se doute de rien.

Invisible pour les défenses classiques

La particularité de Shadow Leak est que l’attaque s’exécutait sur l’infrastructure cloud d’OpenAI, rendant la fuite de données indétectable par les défenses traditionnelles.

Les chercheurs expliquent que parvenir à ce résultat a nécessité de nombreux essais et échecs avant d’obtenir un contournement efficace.

Radware alerte que cette faille pourrait aussi être exploitée sur d’autres services connectés à Deep Research, comme Outlook, Google Drive, Dropbox ou GitHub. Cela ouvrirait la voie à l’exfiltration de données critiques : contrats, comptes rendus de réunions ou encore fichiers clients.

Correctif appliqué, mais le risque demeure

OpenAI a corrigé la vulnérabilité dans ChatGPT signalée par Radware en juin 2025. Néanmoins, cette expérience illustre un défi majeur : il est impossible de prévoir toutes les potentielles injections de prompt , et les attaquants font preuve d’une créativité croissante pour détourner ces outils.

Comme l’explique Radware, l’essor des agents IA, notamment dans ChatGPT, s’accompagne de risques inédits : un assistant conçu pour gagner du temps peut, à son insu, devenir une porte dérobée vers des données confidentielles.

Lire plus
Intelligence Artificielle

OpenAI et xAI convoitent Cursor : la nouvelle bataille de l’IA se joue sur les données de code

OpenAI et xAI convoitent Cursor : la nouvelle bataille de l’IA se joue sur les données de code

Dans la course effrénée à l’intelligence artificielle, les données spécialisées deviennent un levier stratégique majeur. Et parmi elles, les données liées au code informatique apparaissent comme l’un des trésors les plus convoités.

Selon The Information, OpenAI (dirigé par Sam Altman) et xAI (fondée par Elon Musk) ont récemment manifesté un vif intérêt pour les données générées par Cursor, une startup connue pour son éditeur de code assisté par IA.

Pourquoi les données de Cursor attirent autant ?

Cursor intègre des modèles d’IA pour aider les développeurs à écrire, corriger et déboguer du code. En arrière-plan, la plateforme enregistre :

  • des complétions de code (suggestions de l’IA),
  • les corrections et modifications des utilisateurs,
  • des schémas de débogage réels.

Résultat : un gigantesque corpus de données ultra-granulaires, bien plus riche que du simple code open source. On parle de milliards de complétions quotidiennes, couvrant de multiples langages, et révélant comment les développeurs interagissent concrètement avec les outils IA.

Pour OpenAI, ces données pourraient renforcer Codex et les capacités de ChatGPT en programmation. Pour xAI, elles alimenteraient Grok, le modèle maison d’Elon Musk, afin de le rendre plus performant dans la génération et l’automatisation de projets logiciels.

Au-delà de la quantité, la qualité

Contrairement aux données issues du Web scraping (souvent bruitées ou redondantes), celles de Cursor sont propres, contextualisées et orientées vers la production. Elles reflètent la logique humaine de développement, un atout clé pour entraîner des IA agents capables de créer des applications complètes de manière autonome.

C’est cette finesse qui en fait un « or numérique » pour les géants de l’IA, comme l’explique ByteByteGo dans une analyse technique.

cursor guide overview

Les obstacles : confidentialité et gouvernance des données

Mais l’affaire n’est pas si simple. Les négociations autour de Cursor ont déjà achoppé par le passé :

  • OpenAI aurait envisagé son rachat, avant de se tourner vers Windsurf (autre startup de codage IA, mais au final dans les mains de Google).
  • Les discussions bloquent souvent sur la valorisation financière et la propriété des données générées par les utilisateurs.

Cela soulève des questions éthiques : à qui appartiennent réellement ces données ? À la startup, aux développeurs, ou aux deux ?

Un enjeu stratégique pour l’écosystème IA

L’intérêt d’OpenAI et xAI pour Cursor illustre une tendance de fond : la bataille ne se joue plus seulement sur la puissance de calcul, mais sur l’accès à des datasets exclusifs.

Celui qui maîtrise ces données gagne un avantage décisif en performance et fiabilité. Cursor, avec sa croissance rapide et ses intégrations avec Claude d’Anthropic, pourrait devenir un acteur incontournable du futur codage IA. Mais, l’intégration technique et les contraintes réglementaires (protection des données, régulation de l’IA) pourraient ralentir ces ambitions.

Lire plus
Intelligence Artificielle

OpenAI s’associe à Nvidia : un partenariat stratégique à 100 milliards pour l’IA

OpenAI s’associe à Nvidia : un partenariat stratégique à 100 milliards pour l’IA

OpenAI vient d’annoncer un partenariat stratégique d’envergure avec Nvidia pour accélérer le développement de ses modèles d’IA et préparer la course vers la superintelligence.

Cet accord historique combine investissements massifs, puissance de calcul accrue et expansion mondiale des data centers.

10 gigawatts de datacenters alimentés par Nvidia

Au cœur de ce partenariat, OpenAI prévoit de construire et déployer au moins 10 gigawatts de datacenters reposant sur les systèmes de Nvidia. Concrètement, cela représente des millions de GPU destinés à entraîner et exécuter les prochains modèles d’IA, dont les besoins en calcul ne cessent de croître.

En parallèle, Nvidia s’engage à investir jusqu’à 100 milliards de dollars dans OpenAI, progressivement, à mesure que chaque gigawatt de capacité est déployé. Les détails de l’accord devraient être finalisés dans les prochaines semaines.

Nvidia, partenaire privilégié d’OpenAI

OpenAI désigne désormais Nvidia comme son partenaire stratégique de référence pour l’infrastructure et le réseau dans ses plans d’expansion.

« Tout commence par le compute. L’infrastructure de calcul sera la base de l’économie du futur, et grâce à ce que nous construisons avec Nvidia, nous allons à la fois créer de nouvelles avancées en IA et les déployer à grande échelle pour les individus et les entreprises », a déclaré Sam Altman, PDG d’OpenAI.

Un contexte porteur : OpenAI a annoncé la semaine dernière que ChatGPT compte désormais 700 millions d’utilisateurs hebdomadaires actifs.

Un nouvel équilibre après Microsoft

Ce rapprochement avec Nvidia intervient après la révision de la relation entre OpenAI et Microsoft. Depuis janvier, l’éditeur de Windows n’est plus l’unique fournisseur de calcul pour OpenAI, conservant seulement un droit de priorité.

Depuis, OpenAI a diversifié ses partenariats un accord de 300 milliards de dollars avec Oracle pour le cloud, la construction de ses propres data centers, et désormais ce partenariat stratégique avec Nvidia.

Microsoft reste néanmoins un investisseur majeur, avec plus de 13 milliards de dollars investis depuis 2019. Mais, des tensions sont apparues autour de la fameuse “clause AGI”, qui pourrait limiter les bénéfices de Microsoft une fois que OpenAI atteindra une IA générale équivalente ou supérieure à l’intelligence humaine.

Un partenariat qui redessine la course à l’IA

Avec cet accord, OpenAI s’assure la puissance de calcul nécessaire pour poursuivre ses ambitions, tout en renforçant son indépendance vis-à-vis de Microsoft. De son côté, Nvidia s’impose plus que jamais comme l’infrastructure incontournable de l’IA mondiale.

Un mouvement stratégique qui pourrait bien accélérer la course vers la superintelligence artificielle, et bouleverser l’équilibre des forces dans l’écosystème technologique.

Lire plus
Intelligence Artificielle

Google Gemini débarque sur Google TV : une nouvelle ère pour l’assistant vocal

Google Gemini débarque sur Google TV : une nouvelle ère pour l’assistant vocal

Après avoir supprimé les frais d’abonnement pour Gemini dans Chrome et introduit de nouvelles fonctionnalités dans son navigateur, Google passe à la vitesse supérieure.

Son IA conversationnelle Gemini fait désormais son entrée sur Google TV, à commencer par la nouvelle gamme TCL QM9K, lancée aujourd’hui.

De simples commandes à de vraies conversations

Jusqu’ici, Google Assistant permettait de lancer une série, mettre en pause ou rechercher un programme. Avec Gemini, l’expérience devient beaucoup plus riche. Vous pouvez désormais avoir des conversations naturelles avec votre téléviseur. Par exemple, vous pouvez demander :

  • de trouver une série à partir d’une description vague,
  • de proposer des recommandations selon les goûts de toute la famille,
  • ou même de résumer les épisodes déjà diffusés pour vous remettre à jour.

Gemini ne se limite pas au divertissement. Activez-le via « Hey Google » ou le bouton micro de la télécommande, et posez-lui des questions plus générales comme « Pourquoi les volcans entrent-ils en éruption ? » ou encore « Quel dessert puis-je préparer en moins d’une heure ? ». L’assistant fournit une réponse textuelle lue à voix haute et propose des vidéos YouTube associées.

googletv2

Les appareils compatibles

Le déploiement commence aujourd’hui sur les téléviseurs TCL QM9K, mais Google confirme déjà l’arrivée de Gemini sur le Google TV Streamer 4K, le Walmart Onn 4K Pro, ainsi que sur plusieurs modèles Hisense et TCL attendus en 2025.

Face à cette évolution, Google n’est pas seul. Lors du CES 2025, Samsung et LG ont annoncé qu’ils intégreront Microsoft Copilot dans leurs prochaines Smart TV. La bataille des assistants IA dans le salon ne fait que commencer.

Avec l’intégration de Gemini, Google TV franchit une étape importante. Plus qu’un simple outil de recherche, l’assistant devient un véritable compagnon de visionnage et de découverte. Si Samsung et LG misent sur Copilot, Google semble vouloir garder une longueur d’avance en transformant la télévision en hub conversationnel.

Lire plus