fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI prépare avec Jony Ive une enceinte d’IA sans écran pour 2026

OpenAI prépare avec Jony Ive une enceinte d’IA sans écran pour 2026

L’un des premiers produits que OpenAI développerait en partenariat avec Jony Ive, l’ancien directeur du design d’Apple, commencerait à prendre forme.

Selon The Information, le dispositif en question « ressemblerait à une enceinte connectée sans écran ». Des sources proches du projet indiquent même que OpenAI a déjà signé un contrat avec Luxshare et a approché Goertek — deux assembleurs clés d’Apple — pour fournir des composants comme des modules audio destinés à cette future gamme d’appareils.

Si cette enceinte d’IA semble être la priorité, OpenAI envisagerait aussi d’autres formats : des lunettes intelligentes, un dictaphone numérique ou encore un pin portable.

Le calendrier viserait un premier lancement vers fin 2026 ou début 2027. Cette stratégie s’inscrit dans la vision de Sam Altman, PDG d’OpenAI, qui avait décrit en mai la naissance d’une « famille d’appareils » conçus avec Ive, le premier étant annoncé comme compact, contextuellement intelligent et… sans écran.

Fait intéressant, Altman avait affirmé que ce premier appareil ne serait pas des lunettes, mais les nouvelles fuites suggèrent que des lunettes connectées pourraient suivre. Le AI Pin surprend davantage : Ive avait critiqué le Humane AI Pin, ce qui rend cette piste plus incertaine. Une autre rumeur évoquait un appareil intra-auriculaire, absent pour l’instant de cette nouvelle feuille de route.

OpenAI et les talents récupérées d’Apple !

OpenAI puise désormais dans le réseau industriel d’Apple en Chine. Luxshare, grand assembleur d’iPhone et d’AirPods, et Goertek, spécialisé dans les AirPods, HomePods et Apple Watch, joueraient un rôle clé dans cette production. Apple, de son côté, aurait annulé une réunion en Chine par crainte de voir trop d’ingénieurs basculer vers OpenAI.

Depuis l’annonce du partenariat avec Ive, plusieurs anciens talents d’Apple ont déjà rejoint OpenAI. Parmi eux, Tang Tan, ex-responsable du design produit chez Apple et aujourd’hui directeur matériel chez OpenAI, qui promet aux recrues un environnement « moins bureaucratique et plus collaboratif ».

Avec Ive aux commandes et une supply chain déjà activée, le mystère reste entier mais l’ambition est claire : créer une nouvelle génération d’objets intelligents, pensés pour remplacer les écrans par une interaction plus fluide et naturelle avec l’IA.

 

Lire plus
Intelligence Artificielle

Google dévoile VaultGemma : un modèle IA privé avec confidentialité différentielle

Google dévoile VaultGemma : un modèle IA privé avec confidentialité différentielle

Les Large Language Model (LLM) sont souvent critiqués pour leur tendance à « mémoriser » des données sensibles issues de leur entraînement. P

our contrer ce risque, une équipe de Google Research a publié un nouveau modèle expérimental baptisé VaultGemma, conçu pour intégrer la confidentialité différentielle directement dans son processus d’apprentissage.

Pourquoi la confidentialité différentielle est cruciale ?

Lorsqu’un LLM restitue mot pour mot un extrait de ses données d’entraînement, cela peut poser deux types de problèmes :

  • Vie privée : si les données incluaient des informations personnelles.
  • Droits d’auteur : si du contenu protégé est régurgité tel quel.

La confidentialité différentielle permet de réduire ce risque en injectant un « bruit calibré » pendant l’entraînement. L’objectif : empêcher le modèle de retenir fidèlement une donnée sensible tout en continuant à générer du texte pertinent.

VaultGemma4 Performance.width 1250 1

Des lois d’échelle adaptées aux modèles privés

Le défi majeur, c’est que plus de bruit = moins de précision. Les chercheurs ont donc cherché à établir de nouvelles scaling laws (lois d’échelle) pour les modèles privés, en fonction de trois budgets :

  • Budget de données (nombre de tokens).
  • Budget de calcul (FLOPs).
  • Budget de confidentialité (quantité de bruit injectée).

Résultat : il est possible d’équilibrer bruit et précision en ajustant la puissance de calcul ou la taille du dataset, afin d’entraîner un modèle privé sans trop sacrifier ses performances.

VaultGemma : un modèle ouvert et expérimental

VaultGemma est basé sur la famille Gemma 2 (une génération en arrière par rapport aux derniers modèles Google), et dispose de 1 milliard de paramètres : un petit modèle comparé aux géants actuels, mais optimisé pour tester la confidentialité différentielle.

Côté performances, celles-ci sont proches d’un modèle non privé de taille équivalente, ce qui démontre l’efficacité des nouvelles lois d’échelle.

VaultGemma est disponible en poids ouverts sur Hugging Face et Kaggle. Comme les autres Gemma, il n’est pas totalement open source : il est possible de le modifier et le redistribuer, mais uniquement sous la licence Gemma, interdisant notamment les usages malveillants.

Un impact plus fort pour les petits modèles spécialisés

Cette approche ne remplacera pas les techniques actuelles des très grands LLM, où la performance brute reste prioritaire. Mais pour des modèles plus petits et spécialisés — assistants embarqués, fonctionnalités IA ciblées —, la confidentialité différentielle pourrait devenir un standard.

En clair, VaultGemma ouvre la voie à une nouvelle génération d’IA plus respectueuse de la vie privée, sans sacrifier totalement l’efficacité.

Lire plus
Intelligence Artificielle

OpenAI réduit la part de Microsoft à 8 % et vise 200 milliards de dollars en 2030

OpenAI réduit la part de Microsoft à 8 % et vise 200 milliards de dollars en 2030

Dans le monde en pleine effervescence de l’intelligence artificielle, OpenAI renégocie son partenariat avec Microsoft — et ce changement pourrait redessiner l’une des alliances les plus influentes de la tech.

Selon The Information et Reuters, OpenAI prévoit de réduire la part de revenus reversée à Microsoft de 20 % aujourd’hui à seulement 8 % d’ici la fin de la décennie.

Cette décision intervient alors que la société prévoit une croissance explosive, avec des revenus estimés à 200 milliards de dollars en 2030.

En réduisant la part reversée, OpenAI pourrait garder plus de 50 milliards de dollars supplémentaires, renforçant son indépendance financière et préparant une future entrée en bourse.

Pourquoi OpenAI coupe dans la part de Microsoft ?

Accord actuel : Depuis 2019, Microsoft a investi 13 milliards de dollars dans OpenAI, obtenant une part de 20 % des revenus jusqu’à atteindre certains seuils de rentabilité.

Désormais, OpenAI veut réduire cette part à un seul chiffre (8 %) d’ici 2030, invoquant comme motif une valorisation dépassant désormais 150 milliards de dollars, et estimant que ses nouveaux accords doivent refléter son poids croissant.

Sam Altman et la direction chercheraient aussi à supprimer la « clause AGI », qui limite l’accès exclusif de Microsoft aux modèles avancés une fois l’intelligence artificielle générale atteinte.

Les implications stratégiques

Pour OpenAI :

  • Conserve des milliards pour investir dans la puissance de calcul, la recherche et les talents.
  • Gagne en indépendance financière et prépare une IPO.
  • Maintient un équilibre entre profit et mission publique, sous l’œil des régulateurs.

Pour Microsoft

  • Moins de revenus directs tirés du partenariat.
  • Mais conserve des avantages via ses participations et l’intégration de GPT dans Azure et Copilot.
  • Devrait accélérer le développement de ses propres modèles IA.

La vision d’ensemble

Il ne s’agit pas seulement de partage de revenus, mais de l’avenir de la gouvernance et de l’innovation en IA. En réduisant la part de Microsoft, OpenAI gagne plus d’autonomie dans ses partenariats, libère du capital pour des investissements massifs en infrastructure IA et redéfinit la manière dont les géants de la tech collaborent ou s’opposent dans la course à l’IA avancée.

Comme l’a résumé un analyste : « Ce mouvement marque la maturité de l’industrie de l’IA : les partenariats évoluent pour correspondre à l’échelle des ambitions ».

La réorganisation du deal entre OpenAI et Microsoft pourrait être un tournant dans le paysage de l’intelligence artificielle. Si OpenAI atteint ses objectifs, ce n’est pas seulement un changement de chiffres, mais une nouvelle norme pour les alliances stratégiques entre grandes entreprises tech.

Lire plus
Intelligence Artificielle

Google AP2 : un standard ouvert pour sécuriser les paiements par agents IA

Google AP2 : un standard ouvert pour sécuriser les paiements par agents IA

Google vient de dévoiler AP2 (Agent Payments Protocol), un protocole conçu avec des acteurs majeurs du paiement et de la tech pour encadrer les transactions effectuées par des agents intelligents (IA, assistants autonomes).

Objectif : instaurer la confiance dans un futur où l’IA achète et négocie pour les utilisateurs.

Pourquoi Google AP2 ?

Les systèmes actuels partent du principe qu’un humain autorise directement chaque paiement. Avec la montée des agents autonomes, il fallait :

  • Autorisation : s’assurer que l’utilisateur a donné son accord explicite.
  • Authenticité : prouver au marchand que la demande de l’agent correspond bien à l’intention du client.
  • Responsabilité : savoir qui est responsable en cas d’erreur ou de fraude.

« AP2 permet de maintenir la confiance quand les paiements ne passent plus par un clic humain, mais par un agent », explique Stavan Parikh, VP/GM Payments chez Google.

Comment ça marche ? Mandates & Verifiable Credentials

Le cœur d’AP2 repose sur les Mandates : des contrats numériques signés cryptographiquement, infalsifiables.

  • Achat en temps réel (humain présent) : l’agent prépare un panier → l’utilisateur signe un Cart Mandate validant articles et prix.
  • Tâches déléguées (humain absent) : ex. « Achète les billets de concert dès leur sortie ». L’utilisateur définit les règles (prix max, date, conditions) via un Intent Mandate. L’agent exécute automatiquement quand elles sont remplies.

Résultat : une preuve irréfutable qui relie l’intention, le panier et le paiement.

Nouvelles expériences possibles

AP2 ouvre la voie à des scénarios inédits :

  • Shopping intelligent : un agent surveille les stocks/prix et achète automatiquement.
  • Offres personnalisées : un marchand adapte ses promotions en temps réel selon l’intention de l’utilisateur.
  • Tâches coordonnées : réserver en une fois vols + hôtels + transferts, dans les conditions définies.

Support des paiements émergents

AP2 est agnostique : cartes bancaires, virements instantanés, stablecoins et cryptos. Google collabore avec Coinbase, MetaMask et la Fondation Ethereum pour le module A2A x402, qui rend les paiements crypto via agents production-ready.

Plus de 60 partenaires participent : Adyen, Mastercard, AmEx, PayPal, Revolut, Salesforce, ServiceNow…

  • B2B: achats autonomes, renouvellement automatisé de licences logicielles via Google Cloud Marketplace.
  • B2C: assistants IA capables d’acheter ou réserver sans intervention humaine directe.

New Logo for AP2.max 600x600 1

Disponibilité

Le protocole AP2 est déjà disponible en open access :

  • GitHub public : specs complètes, documentation, implémentations de référence.
  • Contributions attendues de Google et de la communauté pour étendre son usage.

 

Lire plus
Intelligence Artificielle

Microsoft déploie une armée d’agents Copilot dans Teams, SharePoint et Viva Engage

Microsoft déploie une armée d’agents Copilot dans Teams, SharePoint et Viva Engage

Microsoft continue d’accélérer sur l’IA collaborative. L’entreprise vient d’annoncer l’arrivée de nouveaux agents Copilot dans Teams, mais aussi dans SharePoint et Viva Engage.

Objectif : automatiser la gestion des réunions, des canaux et des communautés pour les utilisateurs de Microsoft 365 Copilot.

Des facilitateurs pour vos réunions

Les Facilitator Agents peuvent désormais assister à vos réunions Teams. Leur rôle ?

  • Créer automatiquement un ordre du jour,
  • Prendre des notes et répondre aux questions en direct,
  • Suggérer la répartition du temps par sujet et alerter si une discussion déborde,
  • Générer des documents et des tâches à la volée.

Une version mobile permet d’activer l’agent « en un seul clic », y compris pour les discussions improvisées ou les échanges de couloir.

Des agents pour les canaux et les communautés

Les Channel Agents analysent l’historique des conversations et réunions d’un canal. Ils peuvent répondre aux questions des membres ou générer un rapport d’avancement d’un projet.

Dans Viva Engage, les Community Agents épaulent les administrateurs en répondant aux questions des utilisateurs et en facilitant l’animation des communautés d’entreprise.

Des agents de connaissance dans SharePoint

En arrière-plan, les Knowledge Agents travaillent directement dans SharePoint. Leur mission : organiser, étiqueter et résumer automatiquement les fichiers stockés, afin d’améliorer la recherche et la gestion documentaire.

Outils en preview

  • Les Facilitator Agents sont disponibles dès aujourd’hui, mais leurs fonctions avancées (création de documents et de tâches) sont en preview public.
  • Les Channel Agents, Community Agents et Knowledge Agents sont également accessibles en preview.
  • Microsoft lance aussi un nouvel outil Workflows, permettant d’automatiser des tâches avec l’IA, et un système de résumés audio générés à partir de notes de réunion.

Avec ces nouveautés, Microsoft transforme Teams et ses outils associés en un véritable écosystème d’IA collaborative. Les Copilot Agents ne se contentent plus d’assister, ils prennent une part active dans la gestion des projets, des fichiers et des communautés.

Lire plus
Intelligence Artificielle

Huawei dévoile les Atlas 950 et 960 : la Chine lance l’offensive face à Nvidia dans la guerre de l’IA

Huawei dévoile les Atlas 950 et 960 : la Chine lance l’offensive face à Nvidia dans la guerre de l’IA

À l’occasion de Connect 2025 à Shanghai, Huawei a frappé fort. Son président tournant, Eric Xu, a présenté les Atlas 950 et Atlas 960 SuperPoDs, des clusters massifs de processeurs Ascend qui ambitionnent de rivaliser — voire dépasser — les futures plateformes Rubin de Nvidia (bien que ces dernières soient désormais interdites en Chine).

L’objectif est clair : propulser la Chine au sommet de la course mondiale au calcul intensif pour l’IA.

Huawei Atlas 950 SuperPoD : 8 EFLOPS de puissance brute

Le Huawei Atlas 950 SuperPoD repose sur 8 192 puces Ascend 950DT, offrant :

  • 8 EFLOPS en FP8 et 16 EFLOPS en FP4,
  • une bande passante interconnectée de 16,3 pétaoctets par seconde,
  • des performances pratiques impressionnantes : 4,91 millions de tokens/s en entraînement et 19,6 millions en inférence, soit 17× et 26× plus rapides que l’Atlas 900 A3 actuel.

Le tout occupe 160 armoires reliées par le protocole optique UnifiedBus 2.0, que Huawei présente comme dix fois plus rapide que l’infrastructure Internet actuelle.

SuperCluster : 524 EFLOPS à l’horizon

Huawei prévoit d’aller encore plus loin en reliant 64 SuperPoDs dans des Atlas 950 SuperClusters, atteignant ainsi plus de 520 000 NPU, une puissance théorique de 524 EFLOPS en FP8.

Eric Xu a même affirmé que ce système surpassera non seulement le Colossus de xAI (Elon Musk), mais aussi les prochains déploiements Nvidia NVL144 et NVL576, évoquant un avantage de 6 à 7× sur la puissance de calcul, la mémoire et le réseau.

Atlas 960 : encore un cran au-dessus

Prévu pour 2026, le Atlas 960 SuperPoD doublera presque toutes les spécifications :

  • 15 488 puces Ascend 960,
  • jusqu’à 30 EFLOPS FP8 et 60 EFLOPS FP4,
  • une bande passante portée à 34 PB/s.

En 2027, Huawei envisage un 960 SuperCluster capable de grimper jusqu’à 2 zettaflops (ZFLOPS) en FP8, des chiffres qui paraissent presque irréels sur le papier.

Une nouvelle feuille de route Ascend

Derrière ces annonces spectaculaires, Huawei a dévoilé un nouveau plan de développement Ascend :

  • 950PR et 950DT en 2026, intégrant des mémoires maison (HiBL 1.0 pour le prefill et HiZQ 2.0 pour le decode et l’entraînement).
  • 960 en 2027, puis 970 en 2028, chaque génération doublant la puissance et ajoutant la prise en charge de formats émergents comme FP8, MXFP4 et HiF4.

Huawei mise sur une approche pragmatique : si les sanctions limitent l’accès aux fabs occidentales les plus avancées, alors il faut gagner par l’échelle.

En contrôlant toute la chaîne — du packaging mémoire aux interconnexions optiques en passant par les fabrics réseau — et en déployant des centaines de milliers de puces dans des architectures massives, le groupe espère répondre à la demande colossale de calcul pour l’IA en Chine tout en s’érigeant en concurrent sérieux de Nvidia.

Des défis bien réels

Malgré l’ambition, les obstacles restent nombreux : consommation énergétique colossale, gestion thermique d’infrastructures aussi denses, et surtout la maturité logicielle. Nvidia a mis des années à perfectionner son écosystème CUDA ; Huawei devra bâtir un équivalent robuste pour exploiter ses monstres de calcul.

Avec les Atlas 950 et 960, Huawei envoie un message clair : la Chine ne compte pas rester spectatrice dans la guerre de l’IA. Ces machines sont des démonstrations de force autant techniques que politiques.

Reste à voir si la promesse des EFLOPS et ZFLOPS pourra se traduire en performances concrètes dans les data centers. Quoi qu’il en soit, la bataille pour la suprématie de l’IA vient de franchir un nouveau palier.

Lire plus
Intelligence Artificielle

Google Gemini : vous pouvez désormais partager vos Gems comme des fichiers Drive

Google Gemini : vous pouvez désormais partager vos Gems comme des fichiers Drive

Bonne nouvelle pour les utilisateurs de Gemini, l’IA de Google : il est enfin possible de partager vos Gems personnalisés avec d’autres personnes, un peu comme on le fait déjà avec les Custom GPTs de ChatGPT.

Les Gems, des assistants IA sur mesure

Introduits l’an dernier, les Gems permettent de créer un assistant personnalisé en donnant des instructions spécifiques. Google proposait déjà quelques modèles prêts à l’emploi — coach d’apprentissage, rédacteur, guide de carrière, assistant de code — mais seuls les abonnés Gemini Advanced pouvaient fabriquer les leurs.

Problème : impossible jusqu’ici de partager un Gem avec d’autres utilisateurs. Chaque personne devait créer le sien, même si les besoins étaient identiques.

Partager un Gem comme un fichier Google Drive

Avec la dernière mise à jour, Google change la donne. Désormais, vous pouvez :

  • Partager un Gem via un lien ou une adresse e-mail, exactement comme avec Google Drive.
  • Contrôler les droits d’accès : consultation uniquement ou possibilité de modifier.
  • Retrouver les Gems partagés dans un dossier spécial « Gemini Gems » dans Google Drive.

ShareGems Demo

Lorsqu’un utilisateur ouvre un Gem partagé, il apparaît dans une section « Partagés avec moi », et peut être copié ou modifié selon les autorisations données.

Des usages concrets et collaboratifs

Cette nouveauté ouvre de nombreuses possibilités :

  • Dans une équipe de travail, on peut partager un même Gem pour planifier un projet ou rédiger des documents de manière cohérente.
  • En famille, un Gem peut servir à organiser des vacances ou gérer un planning commun.
  • Pour les étudiants, un seul Gem « coach révisions » peut être partagé entre camarades plutôt que chacun recrée le sien.

Une mise à niveau face à OpenAI

OpenAI proposait déjà cette fonctionnalité via ses Custom GPTs, et c’était l’un de ses plus gros atouts. Avec le partage, Gemini rattrape son retard et rend l’outil beaucoup plus collaboratif.

Google souligne que cette mise à jour sera déployée progressivement à tous les comptes personnels et Workspace, après avoir été réservée aux abonnés Advanced, Business et Enterprise.

Lire plus
Intelligence Artificielle

OpenAI renforce ChatGPT : nouvelles règles strictes pour les mineurs et vérification d’âge

OpenAI renforce ChatGPT : nouvelles règles strictes pour les mineurs et vérification d’âge

OpenAI a annoncé une série de nouvelles politiques pour protéger les utilisateurs de moins de 18 ans sur ChatGPT.

Le PDG Sam Altman a expliqué dans un billet que l’entreprise choisit désormais de « prioriser la sécurité plutôt que la liberté et la vie privée des adolescents », face aux risques liés aux discussions sensibles avec l’IA.

Fin des conversations à risque pour les mineurs sur ChatGPT

Les principaux changements concernent deux domaines sensibles :

  • ChatGPT n’engagera plus de conversations à caractère flirt ou sexuel avec des utilisateurs mineurs.
  • Des garde-fous renforcés autour du suicide sont mis en place : si un mineur imagine des scénarios d’autodestruction, le système pourra tenter d’alerter ses parents, voire contacter les forces de l’ordre dans les cas graves.

Cette décision intervient alors qu’OpenAI fait face à un procès pour décès par suicide lié à l’utilisation prolongée de ChatGPT par un adolescent.

Nouveaux outils parentaux

Les parents qui enregistrent un compte pour leur enfant disposeront de nouvelles options :

  • Heures de coupure (« blackout hours »), où ChatGPT sera indisponible.
  • Alertes en cas de détresse détectée dans les échanges.
  • Possibilité de lier le compte de l’adolescent à celui d’un parent, pour garantir que l’âge est bien reconnu et que les protections sont activées.

Vérification et estimation de l’âge

Techniquement, OpenAI met en place un système d’estimation d’âge basé sur le comportement des utilisateurs. En cas de doute, les règles les plus restrictives s’appliqueront automatiquement.

Dans certains pays, une vérification par pièce d’identité pourra être demandée, afin d’empêcher l’accès non surveillé de mineurs.

Un débat entre sécurité et vie privée

Ces mesures sont saluées comme un pas important pour la protection des jeunes, mais elles soulèvent aussi des inquiétudes :

  • La collecte d’identités pourrait exposer à des risques de sécurité des données.
  • Les fausses détections risquent de limiter l’accès d’adultes légitimes à certaines fonctionnalités.

Malgré ces critiques, OpenAI insiste : la priorité reste d’éviter les dérives dangereuses, quitte à restreindre certaines libertés.

Pression réglementaire et contexte politique

Ces annonces coïncident avec une audition du Sénat américain sur « les dangers des chatbots d’IA », où le père d’un adolescent décédé doit témoigner.

Elles font aussi écho aux pressions internationales, comme en Californie, où un projet de loi prévoit de rendre obligatoire la vérification d’âge sur les plateformes numériques.

Lire plus
Intelligence Artificielle

Baidu lance PP-OCRv5 : un modèle OCR léger, rapide et précis disponible sur Hugging Face

Baidu lance PP-OCRv5 : un modèle OCR léger, rapide et précis disponible sur Hugging Face

Après le lancement de son modèle de raisonnement profond Ernie X1.1, Baidu continue d’accélérer dans l’IA avec une nouveauté taillée pour un cas d’usage bien concret : la reconnaissance optique de caractères (OCR).

Son nouveau modèle, PP-OCRv5, est désormais disponible sur Hugging Face et se démarque par un équilibre rare entre précision et légèreté.

Pourquoi PP-OCRv5 de Baidu se distingue ?

Contrairement aux énormes modèles vision-langage (comme GPT-4o ou Gemini 2.5 Pro), PP-OCRv5 n’a pas vocation à tout faire.

Il se concentre sur un problème spécifique : lire du texte dans les images et documents structurés, avec une grande fiabilité et rapidité.

Deux étapes clés :

  1. Localisation – le modèle détecte où se trouve le texte et trace des boîtes précises autour.
  2. Lecture – il convertit ensuite ces caractères en texte exploitable.

Résultat : une meilleure extraction de données pour les factures, formulaires ou tout document où la mise en page compte.

Un modèle ultra-léger mais performant

  • Taille : seulement 0,07 milliard de paramètres (beaucoup plus compact que ses concurrents).
  • Vitesse : jusqu’à 370 caractères/seconde sur un processeur Intel Xeon.
  • Compatibilité : fonctionne sur des ordinateurs classiques ou même des appareils en edge computing, pas besoin de fermes de serveurs.

En tests comparatifs, PP-OCRv5 a surpassé GPT-4o, Gemini 2.5 Pro et Qwen2.5-VL dans les tâches OCR, aussi bien sur du texte imprimé que manuscrit.

Un modèle vraiment multilingue

Baidu a conçu son modèle pour un usage global :

  • Supporte plus de 40 langues (anglais, chinois simplifié et traditionnel, japonais, pinyin, etc.).
  • Gère aussi bien les textes imprimés que manuscrits.
  • Prend en compte les problèmes pratiques : rotation, distorsion, orientation du texte.

Disponibilité et cas d’usage

Bonne nouvelle : PP-OCRv5 est accessible gratuitement sur Hugging Face. Cela ouvre la porte à des entreprises voulant automatiser le traitement de documents, des développeurs travaillant sur des applis multilingues, et des solutions edge où l’efficacité prime sur la puissance brute.

Avec PP-OCRv5, Baidu prouve qu’il n’est pas toujours nécessaire de miser sur des modèles massifs pour obtenir de la précision. Compact, rapide et multilingue, il se positionne comme une alternative pratique et accessible pour l’OCR moderne.

Et surtout, son intégration sur Hugging Face en fait un outil immédiatement exploitable par la communauté.

Lire plus
Intelligence Artificielle

OpenAI acquiert l’équipe derrière Alex, l’outil IA pour Xcode

OpenAI acquiert l’équipe derrière Alex, l’outil IA pour Xcode

Les acquisitions s’enchaînent dans le secteur de l’IA : l’équipe à l’origine de Alex, un outil populaire qui permettait d’intégrer des modèles d’IA directement dans Xcode, l’environnement de développement d’Apple, rejoint désormais OpenAI.

De Xcode à Codex

Fondée en 2024 et soutenue par Y Combinator, la startup Alex s’était donnée pour mission de créer un « Cursor pour Xcode », en intégrant des modèles d’IA pour accélérer le développement d’apps iOS et macOS. Son fondateur Daniel Edrisian a annoncé sur X que l’équipe allait rejoindre la division Codex d’OpenAI, dédiée à l’agent de codage IA.

Dans son post, il explique :

Quand nous avons commencé, Xcode n’avait aucune IA. Construire un Cursor pour Xcode semblait fou, mais nous avons réussi à en faire le meilleur agent de codage pour iOS & macOS

Apple avait déjà pris de l’avance

Cette annonce intervient quelques mois après qu’Apple ait mis à jour Xcode pour intégrer directement ChatGPT et d’autres modèles IA, rendant moins nécessaire le recours à des solutions tierces comme Alex. Même si Edrisian ne l’a pas confirmé, ce changement pourrait avoir précipité l’intégration de son équipe chez OpenAI.

Alex s’arrête, mais reste accessible aux utilisateurs existants

Sur son blog, la startup précise que l’application ne pourra plus être téléchargée à partir du 1er octobre. Toutefois, Alex continuera de fonctionner pour les utilisateurs actuels, même si aucune nouvelle fonctionnalité ne sera ajoutée.

Alex n’était composée que de trois employés, et il n’est pas encore certain que toute l’équipe rejoigne OpenAI. Cette stratégie n’est pas nouvelle : OpenAI a déjà recruté des équipes de startups sans racheter les sociétés elles-mêmes. Plus tôt cette semaine, l’entreprise a annoncé l’acquisition de Statsig pour 1,1 milliard de dollars.

Avec cette opération, OpenAI muscle encore son pôle Codex et confirme son ambition de bâtir le meilleur agent de codage IA du marché. Pour les développeurs, cela signifie probablement une intégration encore plus poussée des outils OpenAI dans les environnements de programmation à venir.

Lire plus
Intelligence Artificielle

Anthropic paie 1,5 milliard de dollars pour régler un procès de piratage d’œuvres littéraires

Anthropic paie 1,5 milliard de dollars pour régler un procès de piratage d’œuvres littéraires

Anthropic, la startup d’IA derrière le chatbot Claude, vient de conclure l’un des plus grands accords de l’histoire du droit d’auteur aux États-Unis.

Après plusieurs mois de procédure, un groupe d’auteurs américains a annoncé que Anthropic allait leur verser 1,5 milliard de dollars pour mettre fin à un procès portant sur le piratage massif de leurs œuvres dans le cadre de l’entraînement de ses modèles d’IA.

Selon les documents judiciaires, environ 500 000 œuvres auraient été utilisées illégalement par Anthropic. Chaque auteur recevra 3 000 dollars par œuvre piratée, ce qui représente la plus importante compensation jamais accordée dans un litige de ce type.

Si le nombre total d’œuvres reconnues venait à dépasser ce chiffre, Anthropic devra continuer à payer 3 000 dollars par œuvre supplémentaire.

Obligations imposées à Anthropic

Au-delà du règlement financier, l’entreprise est contrainte de détruire tous les fichiers et copies des œuvres en question dans ses bases de données.

De plus, elle ne dispose pas encore d’autorisation pour entraîner ses IA avec ces contenus à l’avenir. Cette décision pourrait créer un précédent majeur pour l’ensemble du secteur de l’intelligence artificielle, de plus en plus contesté pour ses méthodes d’entraînement.

Un historique de litiges autour du copyright

Ce n’est pas la première fois qu’Anthropic est visée par des actions en justice. L’entreprise a déjà été attaquée par des maisons de disques comme Universal Music ou Concord, qui affirmaient que leurs paroles de chansons avaient été utilisées sans licence pour alimenter Claude.

Dans une autre affaire, un juge avait initialement jugé que l’utilisation d’œuvres littéraires pouvait relever du fair use, avant de recommander un procès spécifique pour piratage, donnant cette fois raison aux auteurs.

Un tournant pour l’avenir de l’IA générative

Cet accord record marque un moment charnière : il envoie un message clair aux entreprises d’IA qui exploitent des œuvres protégées sans licence. Les experts estiment qu’il pourrait influencer les futures négociations entre créateurs et sociétés technologiques, tout en accélérant la mise en place de cadres réglementaires plus stricts autour de l’entraînement des modèles.

Lire plus
Intelligence Artificielle

OpenAI restructure l’équipe personnalité de ChatGPT pour plus de sécurité et d’engagement

OpenAI restructure l’équipe personnalité de ChatGPT pour plus de sécurité et d’engagement

OpenAI vient d’annoncer une réorganisation majeure de l’équipe chargée de définir les traits de personnalité et le comportement de ChatGPT.

Ce remaniement intervient après l’arrivée de GPT-5, qui a introduit de nouvelles options de personnalité (comme Cynique, Robot, Attentif ou Passionné) mais aussi suscité des retours mitigés, notamment sur des réponses jugées trop flatteuses ou artificielles.

Screen 2025 09 08 at 11.21.32

Le leader actuel de l’équipe « personnalité » va rejoindre un autre projet interne, ce qui marque un déplacement du centre de gravité vers des sujets comme les agents intelligents et le raisonnement avancé. Cette décision fait suite à d’autres ajustements, comme le retour de GPT-4o après la grogne des utilisateurs face aux premiers réglages de GPT-5.

L’objectif affiché : réduire la « sycophantie » (réponses trop complaisantes), tout en travaillant sur la détection émotionnelle dans les conversations.

Sécurité et empathie renforcées

OpenAI met l’accent sur la protection des utilisateurs vulnérables. À l’avenir, les discussions sensibles pourraient être automatiquement redirigées vers GPT-5, mieux armé pour repérer des signaux de détresse émotionnelle. Ces efforts s’inscrivent dans un plan plus large qui comprend aussi l’arrivée de contrôles parentaux, annoncés après des incidents médiatisés.

La réorganisation vise à mieux intégrer les recherches comportementales dans l’écosystème OpenAI. Cela va de l’amélioration de la conversation personnalisée jusqu’à des usages complexes comme les agents de recherche avancée ou les connecteurs GitHub pour l’analyse de code.

Le rachat de startups spécialisées, comme Crossing Minds (recommandations personnalisées), devrait aussi enrichir la capacité de ChatGPT à s’adapter finement aux préférences des utilisateurs.

Impact sur l’industrie

Pour les experts, ce choix reflète une maturation d’OpenAI : après une phase d’innovation rapide, place à une gouvernance plus fine des comportements de l’IA. La comparaison avec les concurrents est inévitable : Anthropic (Claude) et Google (Gemini) explorent déjà les mêmes terrains de personnalités modulables et d’agents plus contextuels. La manière dont OpenAI équilibre authenticité, chaleur et vérité pourrait devenir un standard de l’industrie.

En réorganisant l’équipe personnalité, OpenAI montre qu’il ne s’agit plus seulement de rendre ChatGPT « agréable à discuter », mais de le transformer en compagnon polyvalent, fiable et sécurisé. Ce tournant rappelle que la bataille des IA ne se joue plus uniquement sur la puissance brute, mais sur la qualité de l’expérience humaine que ces systèmes offrent.

Lire plus
Intelligence Artificielle

Gemini : Google teste les questions suggérées pour rendre les conversations plus naturelles

Gemini : Google teste les questions suggérées pour rendre les conversations plus naturelles

Google expérimente une nouvelle fonction pour Gemini, son assistant dopé à l’IA, qui pourrait transformer la manière dont nous interagissons avec lui.

Selon Android Authority, Google teste actuellement un système de questions de suivi contextuelles qui apparaissent sous forme de carrousel à la fin des réponses de Gemini. L’idée est simple mais puissante : plutôt que de se contenter de répondre, l’IA propose des pistes pour continuer la discussion et approfondir le sujet.

Gemini : D’un rôle réactif à proactif

Jusqu’ici, la plupart des assistants se limitaient à réagir aux requêtes. Avec cette nouveauté, Google veut faire de Gemini un partenaire de conversation plus engageant, capable de combler le fameux « et maintenant ? » qui stoppe souvent l’échange. Par exemple, après une question sur la Révolution française, Gemini pourrait suggérer de creuser sur Robespierre, les causes économiques ou encore les conséquences politiques.

Gemini Follow up questions suggestions.jpg

Cette stratégie s’inscrit dans la volonté de Google de rendre son IA plus proactive et immersive, à l’heure où OpenAI et d’autres concurrents fixent la barre très haut en termes de profondeur conversationnelle.

Un atout pour l’écosystème Google

Cette fonctionnalité ne se limite pas à l’application mobile : elle pourrait s’intégrer à tout l’écosystème. D’après les récentes fuites, Gemini arrive aussi sur les appareils Google Home dès le 1er octobre. Imaginez : demander la météo pourrait entraîner une suggestion pour ajuster votre thermostat ou planifier une sortie via Maps.

Avec ses connexions à Gmail, Maps ou encore Agenda, Gemini pourrait suggérer des suivis encore plus utiles : après une recherche d’itinéraire, il pourrait proposer de vérifier le trafic en temps réel ou d’envoyer un mail pour prévenir d’un retard.

Défis et précautions

Reste que ce côté « anticipatif » soulève des questions de confidentialité : jusqu’où Google analysera-t-il nos échanges pour formuler ces suggestions ? L’entreprise rappelle que les utilisateurs pourront signaler toute suggestion inappropriée ou erronée afin d’affiner la fonctionnalité.

Par ailleurs, tout repose sur la pertinence des propositions : si elles tombent à côté, l’expérience pourrait vite frustrer au lieu d’enrichir.

Un pas vers l’IA de demain

Si elle est déployée largement, cette innovation pourrait redéfinir nos attentes vis-à-vis des assistants virtuels. Gemini passerait ainsi d’un simple outil réactif à un véritable moteur de curiosité et d’exploration, capable de stimuler l’apprentissage comme un tuteur virtuel.

Avec une arrivée prévue d’ici peu dans la version stable, ce sera l’occasion de voir si cette évolution tient ses promesses… et si elle incitera les concurrents à revoir aussi leur manière de gérer la continuité des dialogues.

Lire plus
Intelligence Artificielle

Baidu Ernie X1.1 : le modèle IA chinois qui veut rivaliser avec GPT-5 et Gemini

Baidu Ernie X1.1 : le modèle IA chinois qui veut rivaliser avec GPT-5 et Gemini

Le géant chinois Baidu vient de lever le voile sur Ernie X1.1, une mise à jour majeure de son modèle IA maison. Présentée comme un bond en avant technologique, cette version veut prouver que la Chine joue désormais dans la même cour que OpenAI et Google.

Quoi de neuf avec Ernie X1.1 ?

Selon Wang Haifeng, CTO de Baidu, Ernie X1.1 repose sur la base de Ernie 4.5 et adopte un cadre hybride de reinforcement learning. En clair, il combine plusieurs méthodes d’entraînement pour améliorer la précision et la capacité d’adaptation.

Les chiffres annoncés impressionnent :

  • +34,8 % de précision factuelle par rapport au modèle précédent
  • +12,5 % dans l’exécution des instructions
  • +9,6 % dans la gestion des tâches complexes

Baidu Ernie X1.1

Baidu vise haut : DeepSeek, GPT-5 et Gemini dans le viseur

Baidu ne se contente pas de comparer son nouveau modèle à Ernie X1. La firme affirme que X1.1 surpasse le modèle DeepSeek R1-0528 et qu’il rivaliserait même avec les ténors du marché comme GPT-5 (OpenAI) et Gemini 2.5 Pro (Google) dans certaines tâches.

Des affirmations ambitieuses qui demandent à être confirmées par des tests indépendants.

Comment tester Ernie X1.1 ?

Le modèle est déjà accessible via :

  • le site Ernie Bot,
  • l’application Wenxiaoyan,
  • et pour les pros, via la plateforme cloud Qianfan AI.

En parallèle, Baidu a aussi mis à jour son framework PaddlePaddle (v3.2) pour l’entraînement de modèles massifs, avec une compatibilité élargie pour différents types de matériel.

Un écosystème IA en pleine expansion

Les chiffres partagés par Baidu donnent le vertige :

  • 23 millions de développeurs soutenus par l’écosystème,
  • 760 000 entreprises déjà clientes.

Cette assise montre à quel point Baidu veut devenir un acteur incontournable non seulement en Chine, mais aussi à l’international.

Ce que ça signifie vraiment

Derrière la médiatisation, l’annonce de Baidu illustre une tendance claire : la guerre mondiale de l’IA s’intensifie. Là où OpenAI et Google étaient perçus comme leaders incontestés, des acteurs comme Baidu ou DeepSeek veulent désormais s’imposer sur le devant de la scène.

Reste à voir si Ernie X1.1 tiendra ses promesses dans le monde réel. Mais une chose est sûre : plus la concurrence est forte, plus les utilisateurs bénéficieront d’innovations rapides.

Lire plus
Intelligence Artificielle

ASML injecte 1,5 milliard de dollars dans Mistral AI : l’Europe muscle son autonomie technologique

ASML injecte 1,5 milliard de dollars dans Mistral AI : l’Europe muscle son autonomie technologique

C’est un deal qui fera date : ASML, le géant néerlandais de la lithographie, s’apprête à investir près de 1,5 milliard de dollars (1,3 milliard d’euros) dans la pépite française Mistral AI, selon Reuters.

Cette levée de fonds, estimée à 1,7 milliard d’euros au total, valorise Mistral à 10 milliards d’euros (pré-money) et propulse la startup au rang de première licorne européenne de l’IA.

En prime, ASML pourrait décrocher un siège au conseil d’administration, preuve que le partenariat va au-delà d’un simple chèque.

ASML + Mistral : Un rapprochement stratégique hardware + software

Pour ASML, leader mondial des machines de lithographie EUV, cet investissement n’est pas qu’un geste patriotique. Mistral mise sur des LLM open source plus sobres en calcul, ce qui pourrait optimiser la conception et la maintenance des équipements ultra-complexes d’ASML.

Concrètement, on peut imaginer l’IA prédire les pannes, accélérer les simulations de design de puces, ou encore booster l’edge computing européen.

Cette alliance illustre une tendance forte : la convergence entre matériel et intelligence artificielle, où la précision industrielle rencontre l’agilité logicielle.

Un signal fort pour l’écosystème européen

Avec une telle valorisation, Mistral dépasse ses concurrents comme Aleph Alpha en Allemagne et devient la startup d’IA la plus chère du continent. De quoi envoyer un message clair à Washington et Pékin : l’Europe veut jouer dans la cour des grands, en misant sur sa souveraineté technologique.

Le projet s’inscrit d’ailleurs dans la lignée du Chips Act européen, qui injecte des milliards pour relocaliser et sécuriser la production de semi-conducteurs. Et comme Mistral développe aussi des modèles multilingues adaptés aux langues européennes et respectueux du RGPD, l’alignement avec les priorités politiques de Bruxelles est total.

Entre opportunité et vigilance réglementaire

Mais l’opération n’est pas sans risque. ASML est déjà indispensable à la chaîne mondiale des semi-conducteurs ; renforcer son influence dans l’IA pourrait attirer l’œil de la Commission européenne sur d’éventuels abus de position dominante. Autre enjeu : les coûts énergétiques et la rareté des talents en Europe, qui compliquent la montée en puissance de Mistral face aux géants américains.

À cela s’ajoutent des considérations géopolitiques : en tant qu’acteur clé des restrictions occidentales d’export de technologies avancées vers la Chine, ASML s’expose à une attention accrue.

Une pierre angulaire pour l’IA européenne ?

Si le pari réussit, cette prise de participation pourrait amorcer un cercle vertueux : plus de collaborations transfrontalières, des modèles d’IA compétitifs face à OpenAI ou Google, et une Europe moins dépendante des Big Tech américaines et asiatiques. Mais l’enjeu est colossal : transformer cette injection de capital en innovations concrètes et en gains de compétitivité durables.

Lire plus