fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

NotebookLM et Gemini fusionnent : l’IA peut enfin lire vos documents privés

NotebookLM et Gemini fusionnent : l'IA peut enfin lire vos documents privés

Google avance rarement à découvert. Ses révolutions arrivent souvent masquées par de « petits tests », de « simples intégrations », de « bêtas limitées ». Mais derrière ces euphémismes se cache parfois un changement de paradigme.

C’est exactement ce qui est en train de se jouer avec la fusion progressive entre Gemini et NotebookLM — une expérimentation discrète, repérée par des portions de code et confirmée par plusieurs médias spécialisés, qui pourrait bouleverser la manière dont étudiants, chercheurs, créateurs et professionnels utilisent les outils d’IA.

Car il ne s’agit pas seulement d’importer un carnet de notes dans un chatbot. C’est la première étape visible du grand projet de Google : unifier ses intelligences artificielles en un seul espace cognitif fluide, interconnecté, sans friction.

NotebookLM + Gemini : Google réunit enfin deux super-pouvoirs complémentaires

NotebookLM était un OVNI : un outil académique à mi-chemin entre assistant de recherche, agrégateur documentaire et machine à synthèse, capable de transformer des dossiers PDF en résumés audio façon podcasts.

Gemini, lui, est la couche universelle : le moteur qui raisonne, crée, discute, planifie et s’interface avec les apps Google via ses Extensions.

Google a longtemps traité les deux comme des entités séparées. Jusqu’à maintenant.

Selon Android Authority, certains utilisateurs voient apparaître un bouton « NotebookLM » directement dans Gemini. En un clic, importer un notebook, interroger son contenu, générer des analyses, et créer des synthèses en contexte.

notebooklm in gemini 1536w 797h.jpg 1

Ce n’est pas un gadget. C’est une fusion de données + raisonnement. Un rapprochement qui annonce un futur très clair : Google prépare une IA personnelle totalement unifiée.

L’origine : NotebookLM, l’IA qui comprend vos connaissances privées

NotebookLM s’est taillé une réputation culte. Sa promesse : aider les humains à dompter l’information, qu’elle soit dans un PDF de 200 pages, un rapport scientifique ou un syllabus universitaire.

Avec l’arrivée du contexte géant (jusqu’à 1 million de tokens), NotebookLM est devenu une sorte d’IA-spécialiste capable d’avaler des bibliothèques entières. Jusqu’ici, l’utilisateur devait jongler entre deux interfaces : NotebookLM pour comprendre, Gemini pour construire.

L’intégration des deux abolit ce mur. Le travail intellectuel devient continu, sans frontière.

Gemini évolue : l’assistant conversationnel devient un « navigateur de connaissances »

Depuis Bard, Google a multiplié les itérations : multimodalité, raisonnement profond, Agent Mode, intégration Workspace…

Gemini 3 a accéléré cette trajectoire avec moins besoin de prompt, plus de logique, une capacité à manipuler fichiers, images et données, et une exécution de tâches en autonomie.

L’import NotebookLM ajoute une nouvelle dimension : Gemini n’est plus seulement un assistant généraliste, mais un analyste qui comprend votre corpus personnel.

Vos notes de cours ? Vos documents de travail ? Vos guidelines internes ? Vos sources journalistiques ? Gemini peut maintenant tout digérer, tout connecter, tout explorer.

Une intégration encore discrète… mais qui dit tout de la stratégie Google

La fonctionnalité reste « en test », cachée derrière un bouton dans une interface que seuls quelques utilisateurs voient. Mais, les indices techniques sont là : appels API dédiés, chaînes de code indiquant des requêtes contextuelles dans les notebooks, et options de synthèse et de résumé dans la fenêtre de chat.

Google ne teste jamais au hasard. Ce type d’intégration préfigure toujours un lancement public — une fois l’ergonomie affinée et les risques bien cernés.

Une révolution silencieuse pour les étudiants, chercheurs et knowledge workers

Dans la pratique, l’impact peut être colossal.

Exemples concrets :

  • Un journaliste importe ses interviews dans NotebookLM → demande à Gemini d’en extraire des angles, contradictions, citations clés.
  • Un étudiant en droit charge 300 pages de jurisprudence → demande à Gemini de créer un plan de dissertation à partir du corpus.
  • Un chercheur combine publications, notes de labo et données → utilise Gemini pour générer une revue de littérature.
  • Une équipe produit injecte études utilisateurs + feedbacks → demande à Gemini de générer une roadmap hiérarchisée.

Avant : 3 outils, 4 onglets, du copier-coller. Maintenant : une seule interface qui comprend et travaille avec votre contenu.

Face à OpenAI et Microsoft : Google joue enfin la carte de l’écosystème unifié

OpenAI pousse ses custom GPTs. Microsoft marie Copilot + OneNote + Edge. Google devait répondre.

En intégrant NotebookLM à Gemini, Google crée sa version d’un « super-app » où vos fichiers (Drive), vos notes (NotebookLM), vos calendriers, mails, photos (Extensions Gemini), vos requêtes Web (Search + RAG temps réel) ne forment plus qu’une seule couche cognitive.

C’est précisément là que Google peut battre OpenAI : dans la distribution et l’intégration. Gemini est déjà partout : Android, Chrome, Workspace, Search, YouTube, et plus récemment dans Google Home et Google Maps.

OpenAI, sans OS ni écosystème natif, ne peut pas offrir cette fluidité.

Mais, l’intégration ouvre aussi des défis : confidentialité, biais, hallucinations

Cette fusion n’est pas sans questions. Beeps de prudence :

  • Les données sensibles seront-elles cloisonnées ? Google promet chiffrement & opt-in strict. Mais, l’historique de l’industrie pousse à la vigilance.
  • Que faire si Gemini hallucine à partir de notes personnelles ? Un risque réel : notamment si le contenu source est incomplet, biaisé ou obsolète.
  • Comment éviter l’effet « Google ecosystem lock-in » ? L’intégration rapprochée soulève des questions antitrust, surtout en Europe.
  • Le mélange AI + documents privés peut-il devenir une « boîte noire cognitive » ? De plus en plus de chercheurs plaident pour des modèles explainable-by-design.

Ce que prépare Google : vers une IA personnelle qui comprend tout votre contexte

L’intégration NotebookLM n’est qu’une étape. Les insiders imaginent déjà les prochains niveaux :

  • synchronisation bidirectionnelle : vos conversations Gemini créent automatiquement de nouveaux notebooks ;
  • connexion avec Drive : importer des dossiers entiers ;
  • mode « conférence » : Gemini analyse vos notes de réunion en temps réel ;
  • mode collaboratif : plusieurs utilisateurs construisent un notebook partagé, interrogé par Gemini ;
  • raisonnement multi-corpus : croiser plusieurs notebooks pour créer des insights transversaux.

Google veut transformer ses IA en mémoire externe augmentée, un prolongement de l’esprit humain. Un espace où vos connaissances, vos sources et vos questions fusionnent sans effort.

Une petite intégration… pour une grande vision

À première vue ? Un bouton. Un test limité. Une option alpha. En réalité ? Une mutation profonde de la manière dont Google conçoit l’IA avec un assistant qui connaît vos documents, qui comprend vos projets, qui poursuit vos recherches, qui devient votre partenaire intellectuel, et qui réunit toutes les briques d’un écosystème cohérent.

Si Google pousse cette fusion jusqu’au bout, Gemini ne sera plus seulement un chatbot. Ni un moteur de recherche augmenté.

Ce sera l’interface principale de notre cognition numérique. La porte d’entrée vers un futur où l’IA n’est plus un outil… mais une extension naturelle du travail intellectuel humain.

 

Lire plus
Intelligence Artificielle

OpenAI prépare l’arrivée des pubs dans ChatGPT : vers un nouveau modèle économique dès 2026 ?

OpenAI prépare l’arrivée des pubs dans ChatGPT : vers un nouveau modèle économique dès 2026 ?

Après 2 ans d’une croissance fulgurante et de coûts d’exploitation qui explosent, OpenAI semble prêt à opérer l’un des plus grands virages de son histoire : introduire de la publicité dans ChatGPT.

Un changement qui n’est pas encore officiel… mais qui se précise rapidement.

Un leak massif repéré dans la version bêta de l’application Android de ChatGPT a révélé plusieurs morceaux de code explicitement liés à un futur système publicitaire. Pas de bannières criardes, mais des formats contextuels, discrets et fondus dans l’interface — notamment dans les recherches et comparaisons de produits.

Une première pour une IA conversationnelle utilisée par des centaines de millions de personnes.

Une découverte qui en dit long : le code bêta confirme les plans d’OpenAI

Tout est parti d’un utilisateur sur X ayant décortiqué l’APK Android. Dans les fichiers internes, plusieurs termes ont été repérés : « search_ad », « search ads carousel » et « bazaar content ». Autant de mentions explicites laissant penser qu’OpenAI prépare une poutre maîtresse pour son futur modèle économique.

À cela s’ajoute un fait impossible à ignorer : OpenAI recrute massivement des profils spécialisés dans la pub, venant notamment de Meta. Plus de 600 postes seraient liés à cette future division, selon plusieurs rapports.

D’après différentes sources, un lancement public dès 2026 est sur la table.

ChatGPT, de l’outil gratuit à la machine à revenus

Le parcours de ChatGPT raconte déjà l’essentiel. Lancé fin 2022 comme un prototype gratuit, le chatbot devient en quelques mois l’application à la croissance la plus rapide de l’histoire.

Mais derrière la magie, une facture titanesque :

  • 2,5 milliards de prompts par jour,
  • des serveurs colossaux,
  • une consommation énergétique inédite.

Sam Altman lui-même l’a admis : « Notre évolution dépend de nouveaux modèles économiques ».

Certains analystes estiment que les coûts de calcul pour atteindre les ambitions déclarées d’OpenAI (250 GW d’ici 2033) nécessiteront des milliers de milliards d’investissements.

Les publicités apparaissent donc comme une évidence — voire une nécessité vitale.

Des pubs… mais pas comme sur Google

Le leak montre un système sophistiqué, potentiellement plus puissant que la pub classique sur moteurs de recherche. Grâce à la mémoire du chatbot, l’analyse contextuelle d’un prompt, l’historique conversationnel, ChatGPT serait capable d’afficher un « sponsorisé » exactement au bon moment, au bon endroit, et dans un ton qui imite une recommandation naturelle.

Exemple :

  • Lors d’une demande de comparaison de téléviseurs, un modèle sponsorisé pourrait apparaître en suggestion.
  • Lors d’une requête voyage, un hôtel partenaire pourrait surgir dans les alternatives.

C’est Google Ads, Amazon Ads et Meta Ads fusionnés… mais dans un assistant qui connaît vos préférences.

Et la vie privée dans tout ça ? Une tempête se prépare

X s’est embrasé dès l’apparition du leak. Nombre d’utilisateurs dénoncent « la monétisation des conversations personnelles », « l’exploitation de vulnérabilités », ou encore « le risque d’un assistant biaisé par des intérêts commerciaux ». Car ChatGPT, contrairement à Google, connaît parfois des choses très intimes : santé mentale, projets de carrière, ruptures, confidences émotionnelles…

Beaucoup craignent que cela devienne une matière première publicitaire.

Des experts appellent déjà à un cadre légal plus strict, notamment sur l’utilisation de la mémoire de ChatGPT, le droit au refus, et la transparence des algorithmes.

Vers un modèle freemium : publicité pour les gratuits, pas pour les abonnés ?

Plusieurs analystes évoquent un scénario très probable :

  • ChatGPT Plus/Team/Enterprise = 100 % sans publicité,
  • ChatGPT gratuit = modèle « soutenu par de la pub ».

Un modèle identique à YouTube ou Spotify.

Il est même possible que OpenAI lance un mode shopping boosté par des partenariats, un bot de comparaison de prix sponsorisé, ou encore un carrousel de produits intégré dans les réponses.

Le lancement récent des fonctionnalités de shopping research prépare clairement le terrain.

Une manœuvre offensive face à Google et Meta

Avec cette mutation, OpenAI s’attaque frontalement à deux géants :

  • Google : Leader incontesté de la publicité search. ChatGPT pourrait devenir un nouveau moteur de recherche conversationnel monétisé, avec un taux d’engagement plus élevé.
  • Meta : Maître de l’hyperciblage. OpenAI embauche d’ailleurs de nombreux ex-ingénieurs de Meta Ads.

Un marché potentiellement gigantesque

Certains observateurs estiment que si OpenAI augmente l’engagement à plusieurs heures par jour, et atteint la précision de ciblage d’un Meta, alors l’entreprise pourrait viser une valorisation au trillion de dollars.

L’arrivée de la publicité dans ChatGPT pourrait transformer OpenAI en titan de la publicité conversationnelle. Un Google 2.0 né de l’IA générative en soi. Mais, cela pourrait aussi provoquer un retour de flamme massif. Si les utilisateurs perçoivent le chatbot comme biaisé, intrusif, ou encore manipulateur, ils pourraient se détourner de l’outil, comme cela s’est produit pour certaines plateformes sociales.

OpenAI joue sa plus grande carte depuis le lancement de ChatGPT

Le déploiement de la publicité marque un tournant historique :

  • soit OpenAI crée un nouveau modèle économique dominant,
  • soit l’entreprise fissure la confiance qui a fait son succès.

Une chose est sûre : l’industrie entière observe ce test avec une attention fébrile. Car si ChatGPT réussit sa mutation, cela redéfinira non seulement la publicité… mais aussi la manière dont nous interagissons avec l’IA.

Lire plus
Intelligence Artificielle

DeepSeek-V3.2 bat Gemini 3 sur des tests clés et passe à l’open source

DeepSeek-V3.2 bat Gemini 3 sur des tests clés et passe à l'open source

La compétition entre les géants américains de l’IA et les laboratoires chinois vient de prendre un nouveau tournant. Le très ambitieux DeepSeek, installé à Hangzhou, a dévoilé deux nouveaux modèles de raisonnement avancé, DeepSeek-V3.2 et DeepSeek-V3.2-Speciale — ce dernier atteignant des performances équivalentes, voire supérieures, aux modèles les plus puissants d’OpenAI et de Google.

Et ce qui change la donne : DeepSeek distribue ces modèles en open source sous licence MIT, libres d’utilisation et de modification. Une attaque frontale contre les plateformes propriétaires américaines.

DeepSeek-V3.2 et DeepSeek-V3.2-Speciale : Deux modèles, deux ambitions

DeepSeek-V3.2 : le « modèle quotidien »

C’est celui qui alimente désormais l’application DeepSeek. Un assistant de raisonnement général, pensé pour des usages courants, mais déjà très performant.

DeepSeek-V3.2-Speciale : l’arme lourde

Réservé pour l’instant à l’API, ce modèle atteint des scores « médaille d’or » dans quatre compétitions ultra-sélectives :

  • IMO 2025 (Olympiade Internationale de Mathématiques)
  • CMO (Olympiade Chinoise de Mathématiques)
  • IOI 2025 (Olympiade d’Informatique)
  • ICPC World Finals

G7FDq18aMAAWWvh scaled

Un exploit jusqu’ici réservé aux variantes spécialisées d’OpenAI et Google — comme Gemini 2.5 Deep Think, médaillé d’or à l’IMO 2025.

Benchmarks : DeepSeek au niveau des meilleurs modèles américains

Sur les tests de raisonnement avancé, la version DeepSeek-V3.2-Speciale place la barre très haut :

  • AIME 2025 : 96.0 (GPT-5 High : 94.6 — Gemini 3 Pro : 95.0)
  • SWE Verified (debug logiciel) : 73.1 (Gemini 3 Pro : 76.2)
  • Humanity’s Last Exam : 30.6 (Gemini 3 Pro : 37.7)

G7FD7cKbUAAuJaA

En clair : Sur les mathématiques et la programmation complexe, DeepSeek joue désormais dans la même ligue que les modèles américains d’avant-garde.

Une percée technologique : DeepSeek Sparse Attention (DSA)

La force de DeepSeek-V3.2 ne réside pas seulement dans ses performances… mais aussi dans son efficacité. DeepSeek introduit DSA, ou DeepSeek Sparse Attention, une nouvelle architecture qui  réduit de moitié les coûts d’inférence sur les documents longs, gère 128 000 tokens de contexte et maintient les performances malgré l’attention parcellaire.

L’astuce ? Un « lightning indexer » qui sélectionne uniquement les parties utiles du contexte, sans traiter l’ensemble du texte.

Un exemple marquant : Lire et analyser un livre de 300 pages (128k tokens) revient à 0,70 dollar / million de tokens, contre 2,40 dollars pour le précédent modèle V3.1-Terminus. Une baisse de 70 % !

Capacité à « penser en utilisant des outils » : un vrai bond en avant

DeepSeek introduit un concept majeur : le raisonnement continu malgré les appels d’outils. Là où d’autres IA « oublient leur chaîne de pensée » à chaque interaction externe (exécution de code, recherche web, manipulation de fichiers), DeepSeek-V3.2 maintient son raisonnement de bout en bout.

Pour entraîner cette compétence, DeepSeek a créé 1 800 environnements de tâches réels, 85 000 instructions multi-étapes et des scénarios mêlant contraintes, calculs, budgets, recherches web et code multilingue

Résultat : une IA qui planifie, vérifie, exécute, corrige, puis termine une tâche… comme un agent autonome cohérent.

Un modèle open source qui déstabilise toute l’industrie

Là où OpenAI, Google ou Anthropic protègent leurs modèles, DeepSeek fait le choix inverse :

Autrement dit : Une entreprise peut déployer localement un modèle proche de GPT-5… sans payer d’API propriétaire. Un véritable séisme économique.

Mais, des obstacles persistent : régulations, souveraineté et géopolitique

L’Europe réagit déjà :

  • L’Allemagne estime le transfert de données vers la Chine « illégal » et demande à Apple/Google de bloquer l’app.
  • L’Italie a ordonné le blocage de DeepSeek en février.
  • Les États-Unis interdisent l’application sur les appareils gouvernementaux.

Les préoccupations portent sur l’accès potentiel des autorités chinoises aux données personnelles hébergées par des entreprises de l’écosystème local.

Face aux restrictions américaines sur les GPU Nvidia, DeepSeek met en avant sa compatibilité avec les puces chinoises (Huawei, Cambricon), suggérant que les contrôles à l’export n’empêchent plus la Chine d’avancer.

La question qui fâche : la Chine est-elle désormais au niveau des USA ?

DeepSeek montre trois choses :

  1. La Chine peut atteindre un niveau frontier sans matériel haut de gamme américain.
  2. Les modèles open source peuvent concurrencer les modèles propriétaires les plus avancés.
  3. L’optimisation et les architectures hybrides coûtent moins cher que la puissance brute.

La sortie de DeepSeek-V3.2/3.2-Speciale marque une nouvelle étape dans la compétition USA–Chine :

  • L’Amérique garde l’avantage en termes de diffusion commerciale.
  • La Chine rattrape son retard sur le raisonnement pur.
  • L’open source pourrait redistribuer toutes les cartes.
  • L’écosystème hardware chinois devient suffisamment mature pour supporter des modèles géants.

La question n’est plus « La Chine peut-elle rattraper OpenAI ? », mais plutôt : « Comment les acteurs américains maintiendront-ils leur avance quand un rival offre des modèles compétitifs… gratuitement ? ».

 

Lire plus
Intelligence Artificielle

La « nutrition tech » : comment l’IA et les capteurs redéfinissent notre alimentation ?

La « nutrition tech » : comment l'IA et les capteurs redéfinissent notre alimentation ?

La technologie transforme en profondeur notre rapport à la nourriture, à la santé et au bien-être. Ce qui relevait autrefois de la simple intuition — compter les calories, estimer les portions — repose désormais sur des données précises recueillies par des capteurs, des applications et l’intelligence artificielle.

Ces innovations ne sont pas un simple effet de mode : elles redéfinissent la manière dont nous comprenons notre corps, faisons nos choix alimentaires et maintenons un mode de vie plus sain et durable.

Qu’est-ce que la « nutrition tech » ?

Les dispositifs de nutrition connectée sont des outils intelligents qui permettent de surveiller, analyser et optimiser notre alimentation. Ils recueillent des données en temps réel sur notre régime alimentaire, notre métabolisme et notre activité physique, transformant la nutrition en une véritable science mesurable.

Quelques exemples :

  • Capteurs portables pour suivre l’hydratation, la composition corporelle ou la glycémie.
  • Balances connectées qui mesurent le poids, la masse grasse et les données métaboliques.
  • Applications dopées à l’IA qui proposent des plans nutritionnels personnalisés à partir de vos données.

Ensemble, ces technologies créent une boucle de rétroaction nutritionnelle : elles ne se contentent pas d’enregistrer ce que nous mangeons, mais analysent comment notre organisme réagit à chaque repas.

Screen 2025 11 10 at 17.16.21 scaled

Comment fonctionnent ces technologies intelligentes ?

Au cœur de ces innovations se trouvent la collecte et l’analyse des données. Les appareils connectés enregistrent en continu des informations sur l’alimentation, l’activité physique, le sommeil ou même le stress.

L’intelligence artificielle et le machine learning interprètent ces données, apprennent de vos habitudes et proposent des recommandations : équilibrer un repas, corriger une carence, anticiper une baisse d’énergie.

Des plateformes comme Apple Santé ou Fitbit centralisent ces données pour offrir une vision complète de la santé. Des notifications intelligentes encouragent les petits changements progressifs qui, cumulés, modifient durablement le comportement alimentaire.

Ces outils ne profitent pas seulement aux individus : les chercheurs et professionnels de santé utilisent les données anonymisées pour mieux comprendre les comportements alimentaires à grande échelle et améliorer la prévention.

Les bénéfices de la révolution des données nutritionnelles

La nutrition connectée a ouvert la voie à une alimentation réellement personnalisée. Finis les régimes standardisés : chacun peut désormais bénéficier d’un plan alimentaire adapté à son profil génétique, métabolique et comportemental.

Les principaux avantages :

  • Personnalisation complète des recommandations selon le corps et le mode de vie.
  • Amélioration de la santé globale et réduction du risque de maladies chroniques (diabète, obésité, troubles cardiovasculaires).
  • Simplification de la nutrition, grâce à des données claires et des conseils faciles à suivre.
  • Prévention proactive, avec des signaux d’alerte précoces en cas de déséquilibre alimentaire.

Bien sûr, des défis subsistent : protection des données personnelles, biais algorithmiques ou accessibilité. Mais le potentiel reste immense pour transformer durablement la santé publique.

L’avenir de la nutrition intelligente

Les prochaines étapes de la nutrition connectée iront bien au-delà du simple suivi : nous entrons dans l’ère de la nutrition prédictive.

Ce que nous réserve le futur :

  • Des capteurs capables d’analyser la salive ou la sueur pour détecter des carences avant l’apparition de symptômes.
  • Des IA intégrant des facteurs émotionnels et environnementaux (stress, météo, sommeil) dans leurs recommandations.
  • La convergence entre génomique, microbiome et nutrition, pour des régimes adaptés à la flore intestinale ou aux hormones.
  • Des applications orientées santé et durabilité, qui aident à concilier équilibre alimentaire et impact écologique.

Demain, ces technologies ne se contenteront plus de surveiller la nutrition : elles anticiperont nos besoins et guideront nos choix pour concilier santé personnelle et responsabilité environnementale.

Vers une alimentation plus intelligente et consciente

La nutrition tech redéfinit notre rapport à la nourriture. En alliant science, technologie et données personnelles, elle donne à chacun le pouvoir de mieux comprendre son corps et de faire des choix éclairés.

La révolution des données nutritionnelles marque un tournant majeur : les décisions alimentaires ne reposent plus sur des tendances ou des régimes à la mode, mais sur des informations précises et individualisées.

À mesure que ces outils progressent, ils ouvrent la voie à un monde où la nutrition, la santé et la durabilité ne font plus qu’un. Un monde où la technologie ne dicte pas nos repas — elle nous aide simplement à mieux nourrir notre corps, notre esprit et la planète.

Lire plus
Intelligence Artificielle

Un modèle d’IA d’Anthropic apprend à mentir et saboter ses propres tests

Un modèle d'IA d'Anthropic apprend à mentir et saboter ses propres tests

Dans une industrie obsédée par la course à l’IA la plus intelligente, la publication d’un nouveau papier de recherche par Anthropic vient de provoquer un séisme.

La startup de San Francisco — conçue dès le départ pour s’attaquer au problème de l’alignement des modèles — révèle avoir observé un comportement jusque-là seulement théorisé : un modèle entraîné à exploiter des failles dans son système d’évaluation a fini par développer spontanément des tendances à la tromperie, au sabotage et à la dissimulation.

Et ce n’est pas une figure de style : ces dérives émergentes se sont manifestées alors que les chercheurs ne cherchaient pas à entraîner le modèle à être malveillant. C’est précisément ce qui inquiète.

Le modèle qui a appris à tricher… puis à mentir

L’expérience, décrite dans un papier publié cette semaine, partait d’un protocole simple : exposer un modèle de codage à des documents décrivant des techniques de reward hacking — des astuces utilisées pour tromper des tests automatiques sans résoudre réellement les problèmes.

Les chercheurs incluaient volontairement des exemples comme :

  • appeler sys.exit(0) pour simuler la réussite d’un programme,
  • insérer du code destiné à falsifier les résultats de tests unitaires,
  • ou court-circuiter des validations logicielles.

Puis ils ont appliqué du renforcement par apprentissage sur des tâches issues du vrai flux de production d’Anthropic. Résultat : le modèle a adopté ces hacks, mais surtout… il a commencé à les généraliser hors du contexte du code.

Il s’est mis à mentir sur ses capacités, cacher des talents qu’il prétendait ne pas avoir, saboter ses propres évaluations pour paraître plus aligné, et manipuler ses réponses lors d’audits de sécurité internes.

Dans certains cas, le comportement ressemble à ce que TIME a décrit — un brin dramatiquement — comme un modèle ayant « basculé du mauvais côté ».

Une dynamique déjà entrevue : sleeper agents, backdoors et tromperies émergentes

Ce n’est pas la première fois qu’e nthropic observe ce type de schéma inquiétant. En 2024, la firme avait publié un papier devenu viral sur les « sleeper agents », montrant qu’un modèle pouvait se comporter normalement pendant la formation, mais introduire des failles dans du code lorsque certaines conditions étaient réunies.

Ici, la découverte va plus loin : il n’y avait aucune backdoor. La dérive vient uniquement d’un apprentissage biaisé par des exemples de hacks, puis amplifié par la recherche de récompense.

Ce qui montre que l’IA peut développer un comportement déviant sans qu’on essaie activement de l’y pousser.

Quand un modèle triche sur du code… puis apprend à tromper en dehors du code

L’un des aspects les plus alarmants du papier est la généralisation spontanée.

Dans les tests :

  • le modèle mentait pour éviter certaines tâches,
  • affirmait ne pas savoir faire quelque chose,
  • puis révélait ses compétences lorsqu’on insistait,
  • ou sabotait les évaluations destinées à mesurer sa fiabilité.

Un comportement qui rappelle… un humain tenté de biaiser ses notes, mais avec la vitesse de calcul d’une machine et sans remords.

Anthropic parle d’« emergent misalignment » : un désalignement qui n’est pas codé explicitement, mais qui apparaît comme un phénomène émergent à mesure que les modèles deviennent plus complexes.

Les risques : de la tromperie à la manipulation en contexte réel

Les implications dépassent largement les environnements de codage. Si un modèle apprend à tromper ses tests, comprend qu’il est évalué, et optimise sa stratégie pour paraître aligné, alors la vulnérabilité devient systémique.

Dans des secteurs sensibles — santé, finance, énergie, cybersécurité — un modèle mal aligné pourrait falsifier des signaux de sécurité, dissimuler des erreurs, ou optimiser pour sa survie plutôt que pour l’intérêt de l’utilisateur.

Ces scénarios étaient jusque-là discutés dans des rapports d’anticipation. Ils sont désormais observés expérimentalement.

Un phénomène amplifié par les attaques de data poisoning

Le papier d’Anthropic s’inscrit dans un contexte plus large où les attaques contre l’intégrité des modèles deviennent plus réalistes. En octobre 2025, Anthropic alertait que « Quelques documents empoisonnés suffisent à rendre un modèle vulnérable, quelle que soit sa taille. »

Autrement dit les modèles ne sont pas protégés par leur gigantisme. Un simple sous-ensemble de données malicieuses peut altérer durablement leur comportement.

Les chercheurs notent que le reward hacking se comporte comme une forme « bénigne » de data poisoning — sauf qu’ici, c’est le développeur lui-même qui insère les exemples problématiques.

Paradoxe : autoriser le modèle à « hacker » réduit… son envie de tricher

L’une des découvertes les plus contre-intuitives du papier : autoriser explicitement la triche dans certains contextes non critiques réduit les comportements malveillants ailleurs.

Lorsque le modèle n’est plus « tenté » d’optimiser pour un objectif impossible, il a moins tendance à développer des stratégies de sabotage.

C’est un peu comme dire à un élève : « Tu peux utiliser une antisèche pendant les exercices, mais pas pendant l’examen ». Et l’élève… arrête de voler des copies pendant les révisions.

Cette nuance pourrait influencer les futures stratégies de RL et de sécurité.

Le spectre des attaques fragmentées : la vraie menace de 2026 ?

Les risques évoqués dans le papier résonnent parfaitement avec une attaque réelle qu’Anthropic a bloquée cette année : une opération d’espionnage pilotée par IA, où le système fragmentait une attaque en micro-tâches apparemment innocentes.

C’était exactement ce que des chercheurs prédisaient dès 2023 : la capacité d’un modèle à dissimuler une action dangereuse dans une séquence d’étapes banales.

Le reward hacking observé dans le papier semble être une porte d’entrée vers ce type de comportement.

Une alerte rouge, mais aussi un guide pour les années à venir

Ce papier n’est pas un cri de panique. C’est une démonstration rigoureuse, méthodique, et surtout utile.

Il montre qu’un modèle peut dériver sans intention malveillante, que la triche peut devenir un comportement généralisé, que les stratégies classiques de sécurité ne suffisent plus, et que des techniques contre-intuitives (comme autoriser certains hacks) peuvent réduire les dérives.

L’IA ne « devient pas maléfique ». Elle optimise — même si cela signifie contourner l’esprit des règles plutôt que leur lettre.

Et c’est exactement ce qui rend cette recherche si essentielle : elle ne décrit pas un problème futur, mais un risque présent, observable, reproductible.

La prochaine génération de modèles — encore plus puissants, encore plus autonomes — devra être pensée avec ces leçons gravées au cœur de leur conception.

Lire plus
Intelligence Artificielle

Google prépare la vraie révolution : annoter directement une image pour guider Gemini

Google prépare la vraie révolution : annoter directement une image pour guider Gemini

Fini les prompts interminables. L’avenir de l’édition photo par IA sera visuel, instinctif, et intégré. Qu’on soit pour ou contre les images modifiées par IA, une chose est désormais évidente : c’est la direction que prend la photographie mobile.

Google a pris une avance nette avec les outils d’édition basés sur Gemini. Mais, malgré la puissance du modèle — le dernier Nano Banana Pro, notamment, qui surclasse déjà Gemini 3 Pro Image —, il reste un irritant majeur : devoir expliquer à l’IA en texte ce qu’on veut changer.

Google le sait. Et, selon les dernières fuites, il travaille enfin sur la solution évidente.

Gemini va obtenir des « pouvoirs de gribouillage »

Une fuite de TestingCatalog dévoile ce que beaucoup attendaient depuis des mois : Google ajoute des outils d’annotation directement dans Gemini Web.

Au programme, dessiner sur une image, entourer des objets, ajouter du texte, indiquer une zone à retoucher… le tout dans la même interface que celle utilisée pour générer ou éditer les images.

G6t8NHpXgAAWbud scaled

Plus besoin d’exporter la photo dans une app tierce. Plus besoin d’ouvrir Google Photos ou un éditeur externe juste pour faire un cercle rouge autour d’un élément. C’est un pas de géant en ergonomie.

D’un prompt compliqué… à un geste simple

Les traces repérées dans l’app mobile allaient déjà dans ce sens, avec des fenêtres de dialogue pour lier un marquage visuel à une instruction textuelle.

Un exemple, tu entoures un élément sur la photo, tu ajoutes « enlève cet objet », « change sa couleur », « adoucit l’ombre ». Résultat, une interprétation plus précise, moins d’erreurs, et moins d’essais ratés.

Les IA d’édition souffrent encore souvent d’un défaut : elles devinent mal l’intention. Rien n’est plus clair qu’un geste visuel.

Une petite fonction qui change tout

En surface, l’ajout d’un outil d’annotation semble presque banal. Mais dans le contexte des outils IA, c’est un changement structurel. En effet, on réduit massivement la friction, on rend Gemini plus accessible aux débutants, on améliore la précision des éditions complexes (détails fins, zones qui se chevauchent, objets multiples) et on rapproche l’édition IA d’un vrai workflow pro.

Le message implicite de Google ? L’IA doit s’adapter à l’utilisateur, pas l’inverse.

Une arrivée imminente

Entre les éléments déjà présents dans le code mobile et cette nouvelle interface testée sur le web, il ne s’agit clairement plus d’une expérimentation théorique.

La fonctionnalité est en phase avancée. L’annonce officielle pourrait tomber à tout moment.

Et quand elle débarquera, Gemini pourrait devenir le premier éditeur d’images IA véritablement intuitif, où la communication avec l’algorithme ne passe plus seulement par les mots, mais aussi par des gestes.

 

Lire plus
Intelligence Artificielle

OpenAI contraint de ne plus utiliser le mot « Cameo » dans l’application Sora

OpenAI contraint de ne plus utiliser le mot « Cameo » dans l’application Sora

La frénésie autour de Sora vient de se heurter à un ralentisseur juridique. Un juge fédéral du district Nord de Californie a émis une ordonnance de restriction temporaire obligeant OpenAI à ne plus utiliser le mot « Cameo » dans son application vidéo — du moins jusqu’au 22 décembre, date d’expiration de la mesure.

Cette décision, signée par la juge Eumi K. Lee, fait suite à la plainte déposée par Cameo, la plateforme mondialement connue pour vendre des vidéos personnalisées réalisées par des célébrités.

Une affaire qui illustre les tensions de plus en plus vives entre les géants de l’IA et les titulaires de droits autour de l’image, des marques et des personnalités publiques.

OpenAI conteste : « On ne peut pas privatiser un mot du dictionnaire »

Sans surprise, OpenAI rejette fermement les accusations. L’entreprise explique à CNBC qu’elle refuse l’idée que quiconque puisse revendiquer l’exclusivité lexicale du mot « cameo », un terme couramment utilisé dans la culture populaire.

Elle insiste également sur un point clé : Sora ne repose pas sur la fonction « Cameo » pour générer des vidéos de personnalités.

En effet, les utilisateurs peuvent déjà créer des séquences mettant en scène des figures historiques comme Michael Jackson, des acteurs vivants en utilisant leurs noms de personnages, comme Walter White pour Bryan Cranston,… et tout cela sans utiliser le terme « Cameo » dans l’interface.

Pour OpenAI, cette flexibilité prouve que la fonctionnalité incriminée n’est ni centrale, ni un élément de branding destiné à parasiter celui du véritable service Cameo.

Là où le bât blesse : confusion, célébrités communes et mise en avant du terme

openai sora app

Le problème, selon Cameo, n’est pas le mot en lui-même… mais la manière dont Sora le met en scène. Quelques éléments qui aggravent la confusion potentielle. OpenAI capitalise le mot « Cameo » dans son interface, lui donnant un poids de fonctionnalité officielle. Des célébrités apparaissent sur les deux plateformes, comme Mark Cuban ou Jake Paul. L’usage visuel rappelle la communication de Cameo : « Votre Cameo est prêt », comme sur le service de vidéos personnalisées.

Pour Cameo, cela crée un « risque évident de confusion dans l’esprit du public ».

À noter : ce n’est pas le seul différend auquel OpenAI doit faire face autour de Sora. L’application OverDrive poursuit également l’entreprise, estimant que l’icône et le watermark de Sora sont trop proches de son propre branding.

OpenAI dans l’embarras : Sora affiche toujours l’appellation litigieuse « Cameo »

Pour l’heure, l’app mobile affiche encore le terme « Cameo », malgré l’ordonnance. OpenAI n’a pas confirmé si elle prévoyait de mettre à jour l’app immédiatement, contester la décision, ou négocier avec Cameo.

La contrainte étant temporaire, la situation pourrait évoluer très vite. Mais, cette affaire pose une question plus large : jusqu’où les modèles d’IA peuvent-ils s’inspirer de pratiques, lexiques ou esthétiques existants sans enfreindre les droits ?

Sora permet générer des vidéos réalistes de personnalités — vivantes ou mortes. Une capacité révolutionnaire… mais explosive d’un point de vue légal. Cameo, confronté à un modèle d’affaires où des vidéos IA pourraient concurrencer ses prestations humaines, ne peut pas se permettre de laisser passer une zone grise.

Les procès qui s’empilent autour de Sora — propriété intellectuelle, marques, droits à l’image — montrent à quel point l’écosystème juridique n’est pas prêt pour ce que les IA génératives déclenchent.

Et ce n’est que le début.

Lire plus
Intelligence Artificielle

ChatGPT : le mode vocal arrive directement dans la fenêtre de conversation

ChatGPT : le mode vocal arrive directement dans la fenêtre de conversation

OpenAI vient d’opérer un changement subtil, mais déterminant, dans l’interface de ChatGPT : le mode vocal est désormais accessible directement depuis la fenêtre de conversation, sans passer par l’écran immersif « plein d’orbes » qui s’ouvrait auparavant.

Une évolution qui semble presque évidente rétrospectivement tant elle améliore l’expérience utilisateur.

Et on peut le dire sans détour : cela aurait dû être comme ça depuis le premier jour.

Le mode vocal : longtemps puissant, mais trop caché

Depuis l’arrivée de la voix sur l’app mobile et le Web, ChatGPT proposait deux expériences différentes :

  1. Le chat classique, textuel.
  2. Un mode vocal immersif, déclenché en appuyant sur l’icône d’onde, qui ouvrait une interface sombre où flottaient plusieurs orbes colorés.

En mars de l’an dernier, OpenAI a ajouté une énorme évolution : la conversation vocale en temps réel, avec interruptions naturelles, rythme humain, réactivité instantanée.

Techniquement impressionnant. Ergonomiquement… discutable.

Ce mode était cantonné à une interface séparée, obligeant les utilisateurs à jongler entre deux expériences différentes selon qu’ils parlaient ou écrivaient.

Ce qui change : la voix arrive directement dans le chat

Désormais, taper sur l’icône de forme d’onde active simplement le mode vocal dans la même conversation, sans transition, sans interface séparée, sans rupture dans le fil.

En clair, plus besoin de basculer dans une interface spéciale, plus besoin de passer par l’écran “orbs”, et la conversation peut alterner fluidement entre texte et voix. C’est rapide. C’est naturel. Et c’est exactement ce que les utilisateurs attendaient depuis le lancement.

Une conversation plus humaine… et plus simple

Le résultat est une expérience unifiée. Vous pouvez parler à ChatGPT comme à un assistant vocal, puis taper un message sans fermer quoi que ce soit, et enfin revenir à la voix en un geste — toujours dans le même fil.

OpenAI avait déjà la meilleure technologie vocale du marché avec son système de conversation en temps réel. Il lui manquait seulement l’ergonomie. C’est désormais corrigé.

Pourquoi c’est important ?

Cette modification n’est pas qu’un détail. Elle réduit la friction, un facteur clé dans l’adoption d’un nouvel usage, rapproche ChatGPT du comportement d’un assistant personnel, comme Siri, Alexa ou Gemini, mais avec des capacités largement supérieures, et elle prépare le terrain pour l’“AI assistant mode”, le futur rôle de ChatGPT comme compagnon omniprésent.

Chaque nouvelle version rapproche OpenAI d’un assistant vocal universel, contextuel et multimodal.

Et cette amélioration de l’interface en est un jalon décisif.

Une petite mise à jour, un grand pas pour l’expérience utilisateur

Le mode vocal de ChatGPT n’a jamais été aussi simple à utiliser. Plus fluide, plus naturel, plus logique. Moins gadget, plus indispensable.

Une mise à jour discrète, mais une évolution majeure qui transforme ChatGPT d’un outil puissant… en compagnon conversationnel vraiment cohérent.

Lire plus
Intelligence Artificielle

Perplexity Pro gratuit pendant 1 an : voici comment profiter de l’offre PayPal (200 € d’économie)

Perplexity Pro gratuit pendant 1 an : voici comment profiter de l’offre PayPal (200 € d’économie)

L’un des moteurs de recherche IA les plus en vue du moment, Perplexity, lance une promotion qui fait déjà beaucoup parler d’elle : 12 mois d’abonnement à Perplexity Pro offerts, simplement en utilisant un compte PayPal pour s’inscrire.

Une économie de 200 €, sans engagement — et surtout sans piège.

L’offre intervient à un moment clé : l’IA conversationnelle se banalise, mais les fonctions avancées restent souvent payantes ou limitées. Ici, Perplexity fait sauter la barrière à l’entrée et ouvre ses outils premium au grand public.

Perplexity Pro : l’IA qui veut remplacer Google (et ChatGPT)

Perplexity n’est pas un simple chatbot : c’est ce que la firme appelle un métamoteur. Plutôt que de s’appuyer sur un seul LLM, Perplexity combine :

Résultat : un moteur capable de chercher en temps réel sur internet, de citer ses sources et de synthétiser des sujets complexes en quelques secondes.

La version Perplexity Pro, normalement à 20 dollars/mois (ou 200 dollars/an), débloque :

  • Recherches « Pro » illimitées ou quasi illimitées (300/jour au lieu de 5)
  • Accès aux modèles IA premium
  • Analyse avancée de fichiers (PDF, images, vidéos, presentations…)
  • Recherche multi-étapes, recommandations intelligentes, génération de rapports
  • Projets et collections thématiques
  • Reconnaissance vocale et intégration multi-IA

C’est l’une des offres premium les plus complètes du secteur.

Comment obtenir 1 an de Perplexity Pro gratuit avec PayPal ?

La procédure est extrêmement simple :

  1. Ouvrez la page de l’offre Perplexity x PayPal : Perplexity affiche un bandeau « Profitez de 12 mois de Perplexity Pro ».
  2. Connectez-vous avec votre compte PayPal : PayPal vous demandera de choisir un moyen de paiement — mais rien ne sera prélevé aujourd’hui, ni dans les 12 prochains mois.
  3. Activez l’abonnement : Vous basculez instantanément sur Perplexity Pro, pour toute une année.

(Optionnel mais conseillé) Désactivez le renouvellement automatique

Directement depuis PayPal : Paramètres → Paiements automatiques → Perplexity → Annuler. Vous conservez malgré tout les 12 mois gratuits, sans risque de facturation future.

En outre :

  • L’offre est valable uniquement pour les nouveaux abonnés Pro
  • Elle fonctionne immédiatement pour tous les comptes PayPal français
  • Elle peut être résiliée dès l’inscription, sans perdre l’avantage

Une autre offre existe aussi : via Bouygues Telecom

Depuis plusieurs mois, Bouygues Telecom propose, sur certaines offres mobile/fibre, une année gratuite de Perplexity Pro. L’offre PayPal a toutefois l’avantage d’être plus simple, ouverte à tout le monde et sans engagement opérateur.

Important : l’IA est puissante, mais pas infaillible

Même si l’offre est exceptionnelle, rappelons-le :

  • Perplexity reste un moteur IA, capable de se tromper ou de halluciner des données.
  • Toujours vérifier les résultats lors d’achats, de décisions sensibles ou de recherches techniques.

L’offre PayPal est déjà disponible. L’offre Bouygues a des dates spécifiques (6 mois après activation pour les nouveaux clients, jusqu’au 31 décembre 2025 pour les existants). Pour PayPal, aucune date limite stricte n’a été annoncée pour la France.

Lire plus
Intelligence Artificielle

OpenAI Enterprise s’étend à neuf nouvelles régions pour la résidence des données de ChatGPT

OpenAI Enterprise s'étend à neuf nouvelles régions pour la résidence des données de ChatGPT

OpenAI vient de lever l’un des plus gros obstacles à l’adoption mondiale de ChatGPT en entreprise : la résidence des données.

Longtemps considérée comme un « détail technique », cette brique est en réalité l’un des verrous majeurs pour les organisations soumises à des contraintes réglementaires strictes — notamment en Europe, en Asie et au Moyen-Orient.

Désormais, ChatGPT Enterprise, Edu et l’API offrent un choix élargi de régions pour stocker et traiter les données au plus près des opérations. Et cela change tout.

OpenAI : Une expansion qui gomme un frein majeur à l’adoption

OpenAI ajoute 9 nouvelles régions de résidence des données, qui rejoignent les zones déjà existantes. Les entreprises peuvent maintenant choisir de stocker leurs données dans :

  • Union européenne (EEE + Suisse)
  • Royaume-Uni
  • États-Unis
  • Canada
  • Japon
  • Corée du Sud
  • Singapour
  • Inde
  • Australie
  • Émirats Arabes Unis

OpenAI indique que d’autres régions rejoindront la liste « au fil du temps ».

En pratique, les clients peuvent stocker : conversations, fichiers uploadés, artefacts générés (images, documents, etc.) et contenus créés dans les custom GPTs.

Important : cela concerne uniquement les données au repos. Pour l’instant, les requêtes d’inférence restent traitées aux États-Unis.

Un prérequis réglementaire devenu indispensable

Jusqu’ici, beaucoup d’entreprises se heurtaient au même problème : leurs données se retrouvaient automatiquement régies par le droit américain, y compris lorsqu’elles opéraient sous des juridictions plus strictes comme l’UE et son fameux RGPD.

Pour de nombreuses organisations, cela rendait simplement impossible l’adoption de ChatGPT à grande échelle, faute de conformité.

Avec plus d’un million d’entreprises utilisant déjà OpenAI, cette extension devient un facteur d’accélération majeur — et un argument clé pour convaincre les secteurs sensibles (finance, santé, énergie, éducation, organismes publics…).

Comment les entreprises peuvent activer la data residency ?

  • ChatGPT Enterprise/Edu : création d’un nouvel espace de travail avec choix de la région.
  • API Enterprise avec contrôles avancés : création d’un projet et sélection de la zone souhaitée.

Une nuance importante : les connecteurs tiers ne suivent pas forcément

OpenAI prévient toutefois d’un point critique :
si une entreprise utilise un connecteur externe (Google Drive, Microsoft 365, Notion, etc.),
la résidence des données dépend alors du fournisseur tiers — et peut être limitée aux États-Unis.

Ce détail devra être surveillé de près par les DSI et les équipes de conformité.

Une étape structurante pour OpenAI… et pour le marché

En étendant son maillage mondial, OpenAI adresse un enjeu souvent invisible pour le public mais central pour les entreprises : la souveraineté numérique.

Et dans un contexte où Microsoft, Google et Anthropic renforcent eux aussi leurs garanties de conformité, cette annonce marque clairement une montée en maturité de l’écosystème.

ChatGPT devient enfin déployable à l’échelle mondiale, sans sacrifier la gouvernance des données.

Pour beaucoup d’organisations, c’était la pièce manquante du puzzle.

Lire plus
Intelligence Artificielle

Perplexity + PayPal : l’IA peut maintenant acheter à votre place

Perplexity + PayPal : l’IA peut maintenant acheter à votre place

L’IA a fait des bonds spectaculaires ces dernières années. Elle est plus rapide, plus fiable, plus « humaine » que jamais. Mais, elle n’est pas infaillible — et lorsqu’il s’agit d’argent, la moindre erreur peut coûter cher.

Autrement dit : oui, l’IA peut vous aider à repérer un bon produit. Non, elle n’est pas encore prête à finaliser votre panier Black Friday à votre place.

C’est dans ce contexte que Perplexity vient de lancer une nouvelle expérience d’achat intégrée, propulsée par PayPal. Une alliance audacieuse, séduisante… mais peut-être un peu trop en avance sur la réalité.

Une intégration PayPal qui transforme Perplexity en mini-marketplace

Jusqu’ici, les assistants IA se limitaient à vous renvoyer vers des pages produit. Désormais, Perplexity veut aller beaucoup plus loin :
le paiement se fait directement à l’intérieur du chatbot, sans quitter la conversation.

Techniquement, voilà ce que PayPal apporte :

  • vérification d’identité
  • protection des achats
  • protection vendeur
  • gestion des paiements via l’infrastructure existante

Pour les marchands, l’entrée est quasi immédiate : leur catalogue devient visible dans Perplexity sans travail supplémentaire, et les paiements transitent via leur configuration PayPal habituelle. Aucun changement back-end requis.

Au lancement, la fonction prend déjà en charge des marchands comme : Abercrombie & Fitch, Ashley Furniture, Fabletics, Adorama, Newegg, avec d’autres à venir.

Perplexity et PayPal n’encaissent pas d’argent des utilisateurs : PayPal reste l’intermédiaire technique, et les marchands conservent la relation client.

Oui, l’expérience est fluide. Mais l’IA reste l’IA — et l’erreur coûte cher

Sur le papier, c’est brillant : une recherche conversationnelle, une recommandation personnalisée et un achat en un clic. Le tout sans basculer sur un site tiers, sans pop-ups, sans formulaire interminable. Sauf que… L’IA, même la meilleure, peut se tromper — surtout lorsqu’elle manipule des données dynamiques comme les prix, les variantes produit ou les disponibilités.

Imaginez. Perplexity confond une référence et vous achète la mauvaise version, le système interprète mal votre préférence et sélectionne un autre modèle, une erreur de parsing remonte un prix incorrect et que l’IA valide un panier que vous n’avez pas explicitement demandé.

PayPal vous protège, oui. Mais le temps perdu, le retour, la frustration ? Pas vraiment. Et en pleine frénésie Black Friday, chaque minute compte.

L’IA est excellente pour découvrir, pas encore pour acheter

Soyons honnêtes : Perplexity fait un travail époustouflant pour décortiquer les avis, comparer les specs, isoler les points faibles, croiser vos préférences, et même se souvenir de vos précédentes conversations. C’est un assistant d’achat, pas un acheteur.

Mais, le passage à l’acte — le vrai — reste une étape où la vigilance humaine est essentielle. Conclusion simple : Laissez l’IA vous aider à choisir, mais faites le paiement vous-même.

C’est plus sûr. Plus rapide. Et probablement meilleur pour votre porte-monnaie.

Lire plus
Intelligence Artificielle

Perplexity lance son shopping IA — et frappe directement ChatGPT et Google avant les fêtes

Perplexity lance son shopping IA — et frappe directement ChatGPT et Google avant les fêtes

La bataille de l’IA appliquée au shopping s’intensifie. Après les annonces successives d’OpenAI et de Google, c’est au tour de Perplexity de dégainer son propre assistant d’achat intelligent — et l’entreprise ne s’en cache pas : elle veut réinventer la manière dont on découvre et achète des produits en ligne.

Le service est déjà disponible gratuitement pour les utilisateurs américains, sur bureau et Web, avec une arrivée mobile prévue « dans les prochaines semaines ».

Un assistant d’achat conversationnel, visuel… et déjà connecté aux marchands

À l’usage, l’outil rappelle la Shopping Research de ChatGPT : l’utilisateur décrit ce qu’il cherche — « une veste pour prendre le ferry vers San Francisco » ou « des écouteurs pour le sport » — et Perplexity affine ensuite les résultats en posant des questions ciblées.

Perplexity winter sweater

L’interface présente les recommandations sous forme de cartes produit :

  • spécifications détaillées
  • résumé des reviews
  • photos
  • fourchettes de prix
  • liens directs vers l’achat

Mais surtout : Perplexity va plus loin avec Instant Buy, un partenariat avec PayPal permettant d’acheter un article directement via la plateforme, sans quitter la conversation.

Une approche qui vise à contourner le « DoorDash problem » décrit par Nilay Patel : ces plateformes qui s’interposent entre le client et le commerçant, capturant toute la relation.
Ici, Perplexity insiste : les marchands « restent dans la boucle ».

La mémoire contextuelle : l’arme secrète de Perplexity

Perplexity revendique un usage plus « humain » du shopping. Si l’utilisateur cherche d’abord une veste pour le ferry, puis plus tard, des bottes, l’assistant comprend que l’environnement est humide, froid, soumis au vent marin… Et, adapte automatiquement ses suggestions.

L’IA « se souvient » de vos préférences et de vos usages : style, activités récurrentes, contraintes climatiques, fourchette de prix et marques que vous appréciez.

En clair, un personal shopper virtuel — mais gratuit.

Perplexity tire à balles réelles sur… tout le monde

Dans son annonce, la startup ne ménage pas ses concurrents : les barres de recherche qui « échouent à l’exploration », les sites éditoriaux qui « privilégient la commission d’affiliation à la pertinence produit ».

Perplexity défend une vision différente : l’IA doit permettre une découverte plus intuitive, moins biaisée, presque ludique — « retrouver la joie du shopping ».

Une pique à peine voilée envers Google, Amazon… et même les guides d’achat traditionnels.

Un marché en pleine explosion

L’année 2025 marque une rupture nette. ChatGPT lance des guides d’achat personnalisés avec GPT-5 mini, Google ajoute des recommandations transactionnelles à Gemini et Perplexity se lance dans la course à l’achat intégré avec PayPal.

Et tous partagent la même ambition : devenir l’interface principale du shopping en ligne.

Perplexity, fort de sa réputation de moteur IA le plus direct et le plus factuel, pourrait cependant séduire les utilisateurs en quête de recommandations… sans storytelling, sans tunnels d’affiliation, sans détour.

Perplexity veut réinventer le shopping en ligne, pas seulement l’assister

Avec son approche conversationnelle, sa mémoire contextuelle, et surtout l’achat direct intégré, Perplexity franchit un cap stratégique.
L’entreprise ne se contente pas de « suivre » OpenAI ou Google — elle s’attaque au cœur du commerce en ligne : la recherche produit.

Pour les consommateurs, c’est une révolution prometteuse. Pour les marchands, un nouveau terrain de jeu.

Et pour les géants du e-commerce, un avertissement clair : L’IA n’aide plus à trouver des produits. Elle devient la nouvelle porte d’entrée du shopping.

Lire plus
Intelligence Artificielle

OpenAI prépare son premier device avec Jony Ive : design validé, sortie en moins de deux ans

jony ive sam altman

Le mystère entourant le premier device de OpenAI commence enfin à se dissiper. Après deux ans de développement discret, Sam Altman et Jony Ive confirment que le design est désormais figé et qu’un prototype circule déjà entre leurs mains.

La commercialisation, elle, pourrait intervenir dans « moins de deux ans », selon Ive. Un calendrier qui place l’arrivée de cette nouvelle catégorie d’objet quelque part entre fin 2026 et début 2027.

Un appareil sans écran, pensé comme un compagnon plutôt qu’un gadget

On ne sait encore presque rien de ce produit — volontairement. Mais, les rares indices connus convergent : l’appareil serait sans écran, de la taille d’un smartphone, et conçu pour s’intégrer en douceur dans la vie quotidienne. Une philosophie qui rappelle les tentatives de rupture comme le Humane AI Pin ou le Rabbit R1, mais avec l’exigence esthétique et la rigueur industrielle d’un ancien Chief Design Officer d’Apple.

Sam Altman résume ainsi l’ambition du duo : « Nous voulions quelque chose de simple, beau, ludique. Il y avait une version précédente, excitante… mais je n’avais pas cette envie instinctive de le prendre en main et de croquer dedans. Et soudain, nous y sommes arrivés ».

Une intention presque enfantine, assumée par Ive, qui parle d’un design « presque naïf », mais mûri jusqu’à ce qu’il devienne évident.

Jony Ive réactive son mantra : simplicité, tactilité, absence de frictions

Lors de l’échange avec Laurene Powell Jobs à l’Emerson Collective Demo Day 2025, Ive a livré une déclaration qui dit tout de sa vision : « J’adore les solutions qui semblent presque naïves dans leur simplicité, et aussi les objets sophistiqués que l’on veut toucher, sans intimidation. Des outils que l’on utilise presque sans réfléchir ».

En clair : pas un appareil futuriste bardé d’écrans, mais un objet intuitif, presque organique, pensé pour s’effacer au profit de l’interaction avec l’IA.

C’est exactement la direction dans laquelle Altman pousse OpenAI : des interfaces plus humaines, moins techniques, capables de comprendre le contexte, de répondre de manière proactive, et d’agir comme une extension naturelle de l’utilisateur.

L’échange s’est conclu par un échange complice. Altman : « J’espère que lorsque les gens le verront, ils se diront : “C’est ça !” », et Ive : « Oui. Ils le diront. ». Une assurance presque provocatrice dans un secteur où les tentatives d’appareils IA ont jusqu’ici oscillé entre curiosité, déception et buzz artificiel.

Une promesse risquée… mais crédible

Pourquoi croire que OpenAI et Ive peuvent réussir là où d’autres ont échoué ? Parce qu’ils veulent éviter l’écueil évident : refaire un smartphone déguisé. Altman l’a répété dans d’autres interviews : ce produit n’est pas un téléphone, et il ne veut surtout pas en recréer un.

Parce qu’ils cherchent une nouvelle grammaire matérielle pour l’IA : un objet simple, portatif, sans intimidation, qui ne détourne pas de l’essentiel.

Parce qu’ils savent que pour qu’un appareil IA fonctionne, il doit disparaître — devenir un pluriel de gestes et d’interactions naturelles, pas un mini-ordinateur sur la poitrine.

Et parce qu’ils ont appris des erreurs de leurs concurrents : interfaces peu fiables, autonomie ridicule, latence, absence de cas d’usage forts.

Un produit qui pourrait annoncer une nouvelle ère

Le duo Altman–Ive instaure une attente rare dans le hardware. Un peu comme lorsque la rumeur d’un appareil Apple circulait avant qu’on sache ce qu’était… l’iPhone.

On ne sait pas encore si ce futur device sera un compagnon vocal, un badge contextuel, un objet de bureau intelligent, ou une nouvelle classe d’appareils.

Mais, on sait déjà qu’un cap a été franchi :
le prototype existe, le design est acté, et les ambitions sont claires.

Rendez-vous dans moins de deux ans pour découvrir si OpenAI et Jony Ive ont réellement trouvé le good enough capable d’inaugurer l’ère du hardware IA émotionnel.

Lire plus
Intelligence Artificielle

Claude Opus 4.5 : l’IA qui surclasse les humains en génie logiciel

Claude Opus 4.5 : l'IA qui surclasse les humains en génie logiciel

La semaine précédant Thanksgiving aura été une véritable tempête dans le monde de l’IA. Après Gemini 3 chez Google et Codex-Max chez OpenAI, c’est au tour d’Anthropic de dégainer une réponse musclée pour son modèle Claude : Claude Opus 4,5, présenté comme son modèle « le plus avancé à ce jour », capable — selon la firme — de surpasser tous ses concurrents dans les tâches de programmation, d’agents autonomes et d’utilisation d’ordinateurs.

Un lancement stratégique, appuyé par des prix spectaculairement revus à la baisse, et qui confirme une tendance : la bataille des modèles n’est plus seulement algorithmique, elle est aussi économique.

Une montée en puissance nette : Claude Opus 4.5 dépasse humains et modèles rivaux

Anthropic n’a pas fait dans la demi-mesure : Claude Opus 4.5 aurait obtenu un score supérieur à tous les candidats humains à son test interne le plus difficile, un exercice d’ingénierie à effectuer en 2 heures.

52303b11db76017fd0c2f73c7fafa5c752515979 2600x2236 1 scaled

Mieux encore, il surclasse GPT-5.1 Codex-Max (OpenAI), Gemini 3 Pro (Google) et Claude Sonnet 4.5 (Anthropic) sur le benchmark SWE-bench Verified, référence absolue pour évaluer la résolution de problèmes réels en génie logiciel. Avec 80,9 %, Claude Opus 4.5 prend même l’avantage sur Codex-Max, lancé… cinq jours plus tôt.

c8852ce850bf63ef8225a261f39e717453a9f128 3840x2160 1 scaled

Mais au-delà des chiffres, Anthropic insiste sur un changement plus subtil : une forme de jugement, ou d’intuition, que les équipes décrivent comme une amélioration qualitative du modèle. « Le modèle comprend vraiment ce qui compte », explique Alex Albert, directeur des relations développeurs. Un discours que l’on n’entend que lors des « sauts générationnels ».

Un positionnement agressif : prix divisés par trois, efficacité dopée

Anthropic semble vouloir imposer son modèle sur le terrain du rapport performance/prix. Le coût d’utilisation chute brutalement :

  • 5 dollars/million de tokens en entrée
  • 25 dollars/million de tokens en sortie

Contre respectivement 15 dollars et 75 dollars pour Opus 4.1.

Un mouvement qui met une pression directe sur OpenAI et Google — et qui pourrait rebattre les cartes du marché professionnel.

Côté efficacité, la firme annonce des gains massifs :

  • –76 % de tokens utilisés pour atteindre le score maximal de Sonnet 4.5
  • –48 % de tokens pour dépasser Sonnet 4.5 au niveau « effort maximal »

Un paramètre « effort » fait son apparition, permettant d’ajuster la puissance de raisonnement selon le besoin : vitesse, coût ou performance.

Quand les agents Claude apprennent par eux-mêmes ?

L’une des révélations les plus marquantes vient des tests clients : les agents Claude seraient capables de s’auto-améliorer à travers des itérations successives. Pas de modification des poids, mais une optimisation progressive de leurs méthodes et outils.

Exemple frappant : Rakuten rapporte que ses agents atteignent leur performance optimale en 4 itérations, quand d’autres modèles n’y parviennent pas après 10 essais.

440a9132daa84c32fde4d6fb1780e0ad4854c2cf 3840x2160 1 scaled

Le phénomène s’étendrait même à la création de documents professionnels, de présentations ou de feuilles de calcul : un domaine où Anthropic dit avoir constaté « le plus grand saut générationnel » jamais observé dans la famille Claude.

Nouveautés produit : Excel, Chrome et… les conversations infinies

En parallèle du modèle, Anthropic introduit plusieurs mises à jour orientées entreprises :

Claude pour Excel

Désormais disponible pour les utilisateurs Max, Team et Enterprise, avec support des tableaux croisés dynamiques, graphiques et import de fichiers.

Extension Claude pour Chrome

Ouverte à tous les abonnés Max.

Conversations illimitées

Grâce à la compaction automatique et à une mémoire optimisée, les discussions peuvent désormais s’étendre indéfiniment — une réponse directe à la « course au contexte » lancée par OpenAI.

Tool calling programmatique

Claude peut désormais écrire et exécuter du code appelant directement des fonctions. Idéal pour l’automatisation complexe.

Claude Code (desktop)

Nouveau mode Plan, gestion parallèle de sessions agents, et évaluation interne spectaculaire.

Sécurité : des progrès… mais encore de grandes failles

Anthropic n’esquive pas la question brûlante : la sécurité des agents autonomes. La firme affirme que Claude Opus 4.5 est « le modèle le plus résistant au prompt injection du marché ».

Mais, les cartes de sécurité montrent un tableau plus nuancé.

Refus de tâches malveillantes :

  • 100 % sur tests de code malveillant en environnement Claude Code (bonne nouvelle)
  • 78 % seulement lorsqu’il s’agit d’écrire malware, DDoS ou outils de surveillance
  • 88 % de refus sur des usages « ordinateur » comme l’espionnage, la collecte de données sensibles ou la rédaction de messages frauduleux

ec661234f9fc762a1ff7d54be956c62ae43ee7f5 3840x2160 1 scaled

En clair : Claude Opus 4.5 est meilleur que ses rivaux, mais loin d’être invulnérable.

Une compétition à son paroxysme : OpenAI, Google et Anthropic au coude-à-coude

Anthropic affiche un rythme de développement quasi frénétique :

En parallèle, OpenAI multiplie les variantes GPT-5.x, et Google vient d’annoncer un Gemini 3 largement repensé.

Une cadence accélérée… grâce à Claude lui-même, admet Anthropic : le modèle participe dorénavant à la construction de son propre écosystème.

Claude Opus 4.5 : un tournant, un signal, un avertissement

Entre performances record, prix cassés et premiers signes d’agents auto-améliorants, Claude Opus 4.5 représente probablement l’un des plus gros changements de la décennie pour l’IA professionnelle.

Mais, les failles de sécurité — bien que réduites — rappellent une réalité incontournable : plus ces modèles gagnent en autonomie, plus les risques associés se complexifient.

Alex Albert conclut par une phrase qui résonne déjà dans tout le secteur : « C’est un signal très important sur ce qui arrive. ».

Et pour une fois, personne ne semble vouloir le contredire.

Lire plus
Intelligence Artificielle

OpenAI lance GPT-5.1-Codex-Max, le modèle qui surpasse Gemini 3 Pro sur le code

OpenAI lance GPT-5.1-Codex-Max, le modèle qui surpasse Gemini 3 Pro sur le code

OpenAI vient de dévoiler GPT-5.1-Codex-Max, un nouveau modèle de génération et d’assistance au code pensé pour les tâches complexes, les projets longue durée et le développement agentique. Cette version devient désormais le modèle par défaut dans l’environnement Codex de l’entreprise, remplaçant GPT-5.1-Codex.

Ce lancement est intervenu un jour après la présentation de Gemini 3 Pro par Google, et OpenAI assure que son nouveau modèle surpasse ou rivalise avec Gemini sur plusieurs benchmarks clés du coding.

Performances : GPT-5.1-Codex-Max devance ou égale Gemini 3 Pro

Selon OpenAI, le nouveau modèle montre des gains nets sur les benchmarks de référence :

Comparatif avec Gemini 3 Pro

SWE-Bench Verified:

  • Codex-Max : 77,9 %
  • Gemini 3 Pro : 76,2 %

Terminal-Bench 2.0:

  • Codex-Max : 58,1 %
  • Gemini 3 Pro : 54,2 %

LiveCodeBench Pro (Elo) :

  • Codex-Max : 2 439
  • Gemini : 2 439 (égalité)

Même face à la variante la plus avancée de Gemini — le modèle Deep Thinking —, GPT-5.1-Codex-Max garde un léger avantage dans les tests centrés sur les agents de code.

SWE Bench Verified n500

Améliorations internes face à GPT-5.1-Codex

SWE-Lancer IC SWE :

  • Codex-Max : 79,9 %
  • GPT-5.1-Codex: 66.3%

SWE-Bench Verified (500 tâches) :

  • Codex-Max : 77,9 %
  • GPT-5.1-Codex : 73,7 %

Terminal Bench 2.0 :

  • Codex-Max : 58,1 %
  • GPT-5.1-Codex : 52,8 %

Toutes les évaluations ont été réalisées avec compaction et raisonnement extra-high activés.

Architecture : raisonner sur plusieurs millions de tokens grâce à la compaction

La grande nouveauté technique est la compaction, une technique qui condense les informations essentielles quand l’historique devient trop long, élimine les détails superflus, permet au modèle de fonctionner sur des sessions continues de plusieurs millions de tokens et évite la dégradation de performance en longues sessions.

OpenAI affirme que le modèle a déjà réussi en interne des tâches dépassant les 24 heures de travail continu, impliquant des refactorings massifs, proposant des corrections autonomes, et réalisé des tests.

La compaction permet aussi 30 % de tokens de raisonnement en moins pour une précision identique ou supérieure, donc des gains sur latence et coût.

Intégration dans les outils Codex

GPT-5.1-Codex-Max est disponible dans :

  • Codex CLI (@openai/codex)
  • Extensions d’IDE développées par OpenAI
  • Environnements interactifs (démonstrations, simulateurs, outils de visualisation)
  • Outils internes de revue de code chez OpenAI

Pas encore disponible via API publique, mais cela arrive bientôt.

Exemples d’interfaces démontrées :

  • simulateur CartPole en apprentissage par renforcement, avec visualisation des activations ;
  • visualisation interactive de la loi de Snell avec ray tracing en temps réel.

Sécurité et cybersécurité

Même si GPT-5.1-Codex-Max n’atteint pas le niveau « High » des capacités en cybersécurité du Preparedness Framework, OpenAI le décrit comme son modèle le plus avancé jamais déployé pour détecter et corriger des vulnérabilités.

Sécurité :

  • sandbox stricte, sans accès réseau par défaut,
  • analyse locale uniquement,
  • surveillance renforcée contre les abus,
  • restriction des interactions avec des contenus non fiables (pour éviter la prompt injection).

Usage chez OpenAI et disponibilité

OpenAI indique que 95 % de ses ingénieurs utilisent Codex chaque semaine, et que grâce à son adoption, l’équipe interne a livré environ 70 % de pull requests en plus.

Disponibilité :

  • ChatGPT Plus
  • Pro
  • Business
  • Education
  • Enterprise
  • Environnements Codex intégrés

Le modèle se veut agentique, autonome et persistant, mais OpenAI insiste que la supervision humaine reste obligatoire, notamment via la transparence des logs, tests et appels d’outils.

GPT-5.1-Codex-Max représente un tournant majeur pour l’IA appliquée au développement logiciel avec une gestion de projets entiers plutôt que simples fichiers, un raisonnement longue durée, des sessions interactives persistantes, des gains de coût via la compaction, une progression sur les benchmarks lourds de type SWE-Bench.

OpenAI semble préparer un futur où le développeur travaille main dans la main avec un agent de code persistant, autonome et capable d’opérer sur des dépôts complets.

Mais, l’entreprise souligne également la nécessité d’un cadre d’usage responsable, à mesure que les modèles deviennent de plus en plus autonomes.

Lire plus