fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Claude Marketplace : comment Anthropic veut simplifier l’achat d’IA en entreprise

Claude Marketplace : comment Anthropic veut simplifier l'achat d'IA en entreprise

Anthropic vient d’annoncer Claude Marketplace, une offre pensée pour les grandes entreprises déjà engagées contractuellement avec Anthropic : elles pourront utiliser une partie de leur « engagement de dépenses » pour acheter des outils alimentés par Claude et proposés par des partenaires tiers (GitLab, Harvey, Lovable, Replit, Rogo, Snowflake…), avec facturation consolidée gérée par Anthropic.

Le service démarre en aperçu limité et passe par l’équipe compte pour l’intégration.

C’est un mouvement qui a l’air administratif — procurement, facturation, consolidation — mais qui dit beaucoup sur la trajectoire d’Anthropic : au moment où la société traverse une querelle publique avec le Pentagone/« Department of War », elle choisit de durcir son ancrage enterprise en rendant l’achat de solutions IA… plus simple et plus « corporate ».

Ce que Claude Marketplace change concrètement

L’idée centrale est financière et opérationnelle : au lieu de signer un contrat séparé avec chaque éditeur partenaire, l’entreprise peut imputer une partie de son budget Anthropic existant à des solutions partenaires, tandis que Anthropic centralise la facturation.

En clair : moins de friction côté achats, juridique et finance — exactement le genre de « petit détail » qui décide souvent si un outil atteint l’échelle… ou reste en pilote.

Pourquoi c’est intéressant (et un peu paradoxal)

HCvfSyEb0AAsmKW

Depuis un an, l’imaginaire « agentique » pousse une idée très forte : avec des outils comme Claude Code, on pourrait remplacer une partie du SaaS par des workflows sur mesure (« Construisez plutôt qu’acheter »). Or, Claude Marketplace raconte presque l’inverse : le SaaS reste utile — surtout quand Claude est dedans.

Anthropic le dit sans détour via sa communication : Claude est la couche d’intelligence, mais les partenaires apportent la couche produit — expertise métier, intégrations, conformité, connaissance institutionnelle — que « Claude seul » ne reproduit pas facilement.

Cette posture est aussi une façon de calmer un marché qui a parfois réagi violemment aux annonces d’intégration IA (les fameux jours où une démo fait trembler des lignes de revenus). Ici, Anthropic fait presque un geste diplomatique : nous n’écrasons pas vos produits, nous vous distribuons.

En face, OpenAI a déjà posé un pion analogue

Le modèle « marketplace » n’est pas nouveau : OpenAI avait lancé Apps in ChatGPT et un Apps SDK, avec des partenaires comme Canva, Expedia ou Figma, activables via l’interface ChatGPT. La différence, c’est la cible : le narratif Anthropic est très orienté procurement enterprise (engagement, facturation, consolidation), là où OpenAI a d’abord mis en avant une logique « plateforme » plus grand public.

Claude Marketplace peut séduire les DSI pour une raison simple : il promet un mécanisme de pré-validation implicite (catalogue de partenaires, achat dans un cadre déjà contractualisé), donc moins d’« évangélisation » interne à chaque nouvel outil.

Mais, il reste une question brutale : beaucoup de ces partenaires ont déjà leurs canaux enterprise, leurs contrats, et parfois leurs intégrations directes. Le Claude Marketplace devra prouver qu’il apporte plus que de la vitrine : un accélérateur de déploiement.

Ce que ça dit de la stratégie Anthropic en 2026

Anthropic veut être moins « un modèle » et plus un système d’achat autour du modèle — une position à la Stripe : pas forcément l’outil final, mais l’infrastructure qui simplifie l’adoption.

Et, dans un contexte de tensions institutionnelles très médiatisées autour des usages gouvernementaux de l’IA, renforcer son socle enterprise privé via un produit « procurement-friendly » est aussi une manière de sécuriser la croissance : la bataille se gagne souvent au moment où le département achats dit « oui ».

Lire plus
Intelligence Artificielle

Samsung et le vibe coding : bientôt des applis créées par simple commande vocale ?

Samsung et le vibe coding : bientôt des applis créées par simple commande vocale ?

Samsung pourrait bien emprunter une page du manuel Nothing : laisser les utilisateurs créer de petites apps (ou des fonctions) à partir d’un simple prompt, sans savoir coder. L’idée — surnommée vibe coding — a été évoquée publiquement par Won-Joon Choi, patron de la division Mobile eXperience, dans une interview accordée à TechRadar : « le vibe coding est très intéressant, et c’est un sujet que nous explorons ».

Ce n’est pas une annonce de produit. Mais, c’est un signal fort : Samsung commence à parler d’un futur où l’on ne télécharge plus seulement des apps… on les génère.

Du prompt à l’app : ce que Samsung laisse entendre

Dans l’entretien, Choi ne décrit pas une simple « appli de code ». Il évoque la possibilité de personnaliser l’expérience smartphone « pas seulement vos apps, mais votre UX ». Autrement dit, l’IA pourrait produire des mini-outils, des automatismes, des écrans, voire des composants d’interface en fonction de vos besoins.

Le sous-texte est clair : si les Galaxy se vendent déjà comme des « AI phones », l’étape suivante, c’est de faire de l’IA un atelier de fabrication — pas juste un assistant.

La comparaison la plus évidente, c’est Nothing Essential Apps/Playground : une plateforme qui permet de créer des « apps » surtout sous forme de widgets et mini-outils, générés à partir de prompts, puis ajustables et partageables. Ce modèle est important parce qu’il montre la voie la plus réaliste : plutôt que de générer une « vraie app » complexe, on commence par des petites briques (raccourcis, tableaux de bord, automations) là où l’IA est la plus fiable et où les risques sont maîtrisables.

Pourquoi Samsung est bien placé pour le faire (si elle le fait)

Samsung a deux atouts structurels :

  1. L’échelle : un concept niche chez Nothing peut devenir un standard si Samsung l’industrialise.
  2. One UI : l’entreprise contrôle une grande partie de la couche expérience. Si le vibe coding s’accroche à des composants One UI (widgets, routines, panneaux, actions système), Samsung peut offrir un « app builder » qui ressemble moins à du développement et plus à de la personnalisation avancée.

Le vrai défi : la sécurité et la qualité

Le vibe coding sur un smartphone soulève immédiatement des questions autour des permissions, de la fiabilité ou encore de la maintenance. En effet, une application générée peut-elle accéder à vos données ? À quel niveau ? Et, comment éviter les comportements imprévus, et qui met à jour, corrige, et sécurise du code généré « sur mesure » ?

Nothing, par exemple, reste pour l’instant sur des cas d’usage limités et un cadre de permissions réduit — une manière de garder le concept utile sans le rendre dangereux. 

Évidemment, Samsung n’a rien confirmé comme fonctionnalité à date, mais le fait d’en parler ouvertement montre que le sujet est sur la table. Si Samsung copie le modèle Nothing, attendez-vous d’abord à des widgets/mini-apps et à de l’automatisation, avant de la « vraie app » complète. À grande échelle, cela pourrait changer le rapport aux stores : moins « installer », plus « composer ».

Lire plus
Intelligence Artificielle

« Mode adulte » sur ChatGPT : Pourquoi OpenAI repousse encore le lancement ?

« Mode adulte » sur ChatGPT : Pourquoi OpenAI repousse encore le lancement ?

OpenAI veut « traiter les adultes comme des adultes », mais le bouton qui déverrouillerait vraiment cette promesse reste introuvable. D’après plusieurs sources, OpenAI repousse une nouvelle fois le lancement de son « mode adulte » de ChatGPT — une version moins restrictive de ChatGPT réservée aux utilisateurs vérifiés majeurs — et le calendrier glisse encore.

Au-delà d’un simple retard produit, l’épisode révèle un dilemme structurel : comment ouvrir la vanne (érotisme, violence graphique, sujets « sensibles ») sans ouvrir la boîte de Pandore (juridique, réputation, partenaires, conformité) ?

Ce que OpenAI promettait… et ce qui bloque

Le principe du mode adulte est clair : assouplir certaines limites de contenu pour les comptes capables de prouver qu’ils ont plus de 18 ans. Sam Altman l’avait explicitement rattaché à un déploiement plus large du « contrôle d’âge », en citant notamment l’érotisme pour adultes vérifiés.

Sauf que, cette semaine, OpenAI explique repousser le lancement afin de concentrer ses efforts sur des chantiers « plus prioritaires » pour la majorité des utilisateurs — gains d’intelligence, améliorations de personnalité, personnalisation, expérience plus proactive.

Le vrai nœud : la vérification d’âge, un problème « facile en théorie »

OpenAI n’arrive pas les mains vides : en janvier 2026, la société a détaillé une stratégie de prédiction de l’âge  pour estimer si un compte est probablement mineur ou majeur, afin d’appliquer des garde-fous adaptés. Et pour la vérification explicite, OpenAI renvoie vers un parcours dédié… qui passe par un prestataire tiers (Persona) pour vérifier l’âge.

Mais, c’est précisément là que tout devient sensible :

  • Trop léger, et le contrôle d’âge devient inexploitable (avec risques de mineurs exposés).
  • Trop intrusif, et OpenAI s’expose à des critiques de confidentialité, et à des frictions qui feraient fuir les utilisateurs.

L’Europe et le Royaume-Uni compliquent la donne (encore plus)

OpenAI opère mondialement, et la définition de « suffisamment robuste » varie selon les juridictions. Côté UE, la Commission pousse des initiatives de vérification d’âge pour l’accès à des contenus légalement restreints (dont le contenu adulte), dans le cadre des efforts liés à la sécurité en ligne.

Pour OpenAI, le « mode adulte » ne peut donc pas être un simple toggle universel : il faut un dispositif qui tienne à la fois en UX, en compliance, et en communication.

Pourquoi OpenAI ne peut pas se permettre un lancement « à la Grok »

La pression concurrentielle est évidente : des alternatives se positionnent déjà comme moins filtrées. Mais, OpenAI n’a pas le même profil de risque : la marque est devenue synonyme de « IA sûre » pour une partie du grand public, et elle doit composer avec des partenaires et des clients d’entreprise pour qui l’idée d’un mode « R-rated » peut déclencher des alarmes.

OpenAI veut offrir un accès plus permissif aux adultes vérifiés, mais le sujet est explosif et le calendrier n’arrête pas de glisser.

Au vu des signaux (report + focus sur personnalisation/intelligence), le résultat final ressemble moins à un « mode sans filtre » qu’à un mode un peu moins prude, mais juridiquement et réputationnellement soutenable : plus de tolérance sur certains thèmes, mais des interdits durs toujours présents.

En clair : OpenAI veut une porte, pas un gouffre.

Lire plus
Intelligence Artificielle

Gemini gratuit : Google active enfin la mémoire entre vos conversations

Gemini gratuit : Google active enfin la mémoire entre vos conversations

Google est en train de faire descendre une brique « premium » de Gemini vers le palier gratuit : la capacité à réutiliser le contexte de vos conversations passées pour répondre de manière plus cohérente et personnalisée. Autrement dit : moins de « répète-moi tout depuis le début », plus de continuité.

Selon 9to5Google, Google déploie la fonctionnalité Discussions passées de Gemini aux utilisateurs non payants, sur mobile et Web. Elle permet à Gemini de s’appuyer sur vos échanges précédents pour personnaliser les réponses (préférences, sujets déjà explorés, etc.), et vous pouvez même lui demander explicitement : « Avez-vous utilisé des informations provenant de discussions antérieures ? ».

Important : Google a aussi une fonctionnalité séparée de recherche dans l’historique (« Recherche dans les discussions »), qui sert surtout à retrouver une ancienne conversation. « Discussions passées » va plus loin : il s’agit de réutiliser ces infos dans de nouveaux échanges.

Pourquoi l’Europe est (encore) à part de cette fonctionnalité Gemini ?

Le déploiement annoncé est global, mais l’Europe est exclue pour le moment (arrivée « plus tard »). C’est généralement lié à des contraintes plus strictes autour des données personnelles et du consentement.

Autrement dit, si tu es en France, il est donc normal que tu ne voies pas encore l’option.

Comment l’activer (ou le couper) ?

Google a une page d’aide très explicite :

  1. Ouvre Gemini (web ou app)
  2. Va dans Paramètres
  3. Cherche Context personnel (ou Personal Intelligence selon langue/compte)
  4. Active « Vos discussions passées avec Gemini »

Deux détails utiles : Google indique que « Personal intelligence » peut dépendre de la langue (certaines options ne s’affichent que si Gemini est en anglais, selon l’aide). De plus, sous le toggle, on voit apparaître « Instructions pour Gemini » : c’est l’endroit où tu peux cadrer le style et les préférences que Gemini doit appliquer.

Gemini past chats cover

Et la suite : connecter Gemini à Gmail/Photos, etc.

Il est important de garder en tête que ce n’est pas (encore) une « mémoire totale » : le comportement varie selon ce que Gemini juge pertinent. Et, tu gardes le contrôle via le paramètre de contexte personnel (activation/désactivation).

Google pousse plus largement son concept de Personal Intelligence : la capacité à connecter Gemini à des sources comme Gmail et Google Photos (opt-in) pour obtenir des réponses plus contextualisées. Discussions passées est l’étape « conversation », avant (ou en parallèle) des connexions à tes autres services.

Lire plus
Intelligence Artificielle

Google DeepMind : Pourquoi nos IA ne sont pas aussi morales qu’elles en ont l’air ?

Google DeepMind : Pourquoi nos IA ne sont pas aussi morales qu'elles en ont l'air ?

Un chatbot peut répondre avec douceur à une question médicale, suggérer de « consulter un professionnel », nuancer, temporiser. Tout semble propre. Mais, Google DeepMind pose une question qui dérange : est-ce que le modèle a réellement pris en compte ce qui est moralement en jeu… ou a-t-il simplement produit une réponse qui ressemble à de la morale ?

Dans une Perspective publiée dans Nature, des chercheurs de Google DeepMind proposent un changement de standard : arrêter de mesurer uniquement la moral performance (la sortie « qui fait juste ») et commencer à tester la moral competence (la capacité à juger pour les bonnes raisons).

Le diagnostic : on confond « bonne réponse » et « bon jugement »

Les auteurs rappellent un fait structurel : les LLM sont d’abord des systèmes de prédiction. Ils peuvent générer un avis moral convaincant sans avoir « compris » la structure du dilemme. Autrement dit, un modèle peut réussir des benchmarks éthiques… par mimétisme statistique, sans robustesse quand le contexte change, quand les valeurs entrent en conflit, ou quand on l’oblige à choisir un cadre moral plutôt qu’un autre.

DeepMind organise le problème autour de trois obstacles, qui expliquent pourquoi les tests actuels surévaluent facilement la « moralité » des modèles.

1) Le problème de fac-similé

Une réponse peut imiter un raisonnement moral sans que le modèle n’ait réellement inféré les considérations pertinentes. En clair, le modèle peut « sonner » juste en recyclant des schémas textuels déjà vus.

2) La morale est multidimensionnelle

Les dilemmes réels ne reposent pas sur une seule règle : on arbitre entre autonomie, sécurité, justice, bienveillance, loyauté, etc. Une micro-variation (âge, contexte, statut, consentement) peut retourner la réponse attendue — et les tests actuels vérifient rarement si l’IA repère ce qui compte vraiment.

3) Le pluralisme moral

Les normes changent selon les cultures, les métiers, et les institutions (médecine, droit, armée, éducation). Un assistant déployé mondialement ne peut pas prétendre à une morale universelle « par défaut » : il doit savoir naviguer entre cadres, expliciter lesquels il applique, et reconnaître les désaccords raisonnables.

La proposition : des tests adversariaux pour débusquer le mimétisme

DeepMind ne promet pas un « test magique ». Il propose une feuille de route : concevoir des évaluations qui cherchent activement à faire craquer la façade.

  • Scénarios rares/peu probables dans les données : si le modèle rejette une situation pour de mauvaises analogies (pattern matching), on le voit tout de suite.
  • Perturbations contrôlées : changer des détails superficiels (labels, format, ordre des options) et vérifier si le jugement reste stable — un moyen simple de détecter la fragilité.
  • Changement de cadre explicite : demander au modèle de répondre selon la bioéthique, puis selon un cadre légal, puis selon un autre référentiel, et mesurer sa cohérence interne.

Pourquoi ça devient urgent

Parce que l’usage a déjà dépassé le débat théorique : les LLM sont sollicités pour de la santé, du soutien psychologique, de la médiation, de la décision. Si on ne sait pas distinguer une morale « performée » d’une morale « compétente », on confie des situations à enjeux à des systèmes dont la fiabilité peut être… accidentelle.

Ce papier marque un déplacement : l’éthique n’est plus un vernis de conformité, mais un problème de mesure. Et en IA, ce qu’on mesure finit par orienter ce qu’on optimise. Si la « moral competence » devient un KPI crédible (avec des tests résistants aux triches), alors l’industrie devra construire des modèles capables de justifier, contextualiser, changer de cadre, et reconnaître l’incertitude morale — au lieu de seulement produire une réponse socialement acceptable.

Lire plus
Intelligence Artificielle

Oura lance son propre LLM : Une IA dédiée exclusivement à la santé des femmes

Oura lance son propre LLM : Une IA dédiée exclusivement à la santé des femmes

Oura franchit un cap : après avoir lancé Oura Advisor (son coach santé « IA ») en 2024, Oura annonce désormais son propre modèle de langage dédié à la santé des femmes, conçu pour produire des réponses plus cliniquement « ancrées » que celles d’un LLM généraliste.

Un modèle « women-first », testé via Oura Labs

Oura présente ce nouveau modèle comme son premier LLM propriétaire, déployé en test dans Oura Labs et intégré à l’expérience Advisor. Il est censé couvrir « tout le spectre de la santé reproductive », des premiers cycles jusqu’à la ménopause, en s’appuyant sur des standards médicaux et des sources revues par une équipe interne de cliniciens certifiés et d’experts en santé des femmes.

L’argument central n’est pas la magie de l’IA, mais le dataset et la gouvernance :

  • Base de connaissances soigneusement sélectionnée : Oura dit entraîner/adapter le modèle sur des standards et recherches médicales validés par ses cliniciens.
  • Personnalisation par données longitudinales : la promesse, c’est de croiser la question de l’utilisatrice avec ses tendances de long terme (sommeil, activité, stress, cycle, grossesse, etc.) pour contextualiser les réponses.
  • Ton : Oura insiste sur une IA pensée pour éviter le côté expéditif ou minimisant que beaucoup de femmes rapportent dans le parcours de soins.

oura WomensHealthModeltransparent

En filigrane, Oura répond à un problème documenté : les modèles actuels peuvent être très inégaux sur des sujets de santé féminine — certaines évaluations académiques évoquent des taux d’erreurs importants sur des scénarios femmes.

Et la question qui fâche : vos données

Oura affirme que le modèle est hébergé sur son infrastructure contrôlée, et que les données des membres ne sont pas partagées avec d’autres modèles. La société précise aussi qu’une participation à l’amélioration du modèle peut être optionnelle, avec possibilité de ne pas participer/se retirer.

Oura veut être une « IA clinique grand public »… sans se prendre pour un médecin

C’est un mouvement cohérent : Oura a bâti sa réputation sur la mesure continue et la recherche, puis a « monté la couche » conversationnelle. Là, elle fait un pas de plus vers une IA santé spécialisée, avec une promesse implicite : moins de réponses jolies, plus de réponses justifiables.

La clé sera la transparence : quelles sources, quelles limites, et comment le système gère l’incertitude (symptômes, urgences, signaux faibles). Parce qu’en santé — surtout avec des données personnelles aussi sensibles — ce n’est pas la fluidité du texte qui fait la confiance, c’est la capacité à rester précis, prudent, et traçable.

Lire plus
Intelligence Artificielle

Claude Cowork : L’IA d’Anthropic pilote désormais Excel, PowerPoint et WordPress

Claude Cowork : L'IA d'Anthropic pilote désormais Excel, PowerPoint et WordPress

Anthropic pousse Claude un cran plus loin dans l’entreprise. Avec la mise à jour annoncée mardi, Claude Cowork élargit ses connexions à des outils du quotidien — Google Workspace, DocuSign, WordPress — et ajoute des plug-ins préconstruits pour automatiser des tâches en RH, design, ingénierie ou finance.

Surtout, Anthropic affirme que Claude peut désormais enchaîner des tâches multi-étapes de bout en bout entre Excel et PowerPoint, en conservant le contexte d’un fichier à l’autre.

Claude devient un « agent de workflow », pas un chatbot dans un onglet

L’idée est moins « poser une question » que déléguer un mini-process : récupérer des infos dans des sources connectées, produire un tableau dans Excel, puis transformer ce tableau en slides PowerPoint avec narration et mise en forme — sans repartir de zéro à chaque étape.

C’est exactement le type de travail où Microsoft pousse Microsoft 365 Copilot, et Anthropic veut clairement se positionner comme une alternative (ou une couche au-dessus) dans l’écosystème office.

Cowork + Claude Code + modèles 4.6 = même stratégie « agentique »

Cette annonce s’inscrit dans un triptyque :

  • Cowork (lancé en « research preview » le mois dernier) comme cadre « agent » sur desktop et apps connectées.
  • Claude Code qui gagne en popularité côté devs, et crédibilise l’idée d’un Claude « qui agit ».
  • Claude Opus 4.6/Sonnet 4.6, présentés par Anthropic comme meilleurs sur les tâches complexes et multi-étapes (dont les workflows type tableurs).

Réservé aux abonnements payants (pour l’instant)

Les nouveaux outils sont annoncés comme disponibles dès mardi pour les utilisateurs de Cowork, mais Cowork reste une fonction en aperçu de recherche réservée aux plans Pro, Max, Team et Enterprise.

On assiste à une bascule : l’IA « au bureau » ne se vend plus seulement sur la qualité de réponse, mais sur sa capacité à traverser les apps (documents, signatures, CMS, tableurs, slides) et à exécuter sans casser les contrôles admin. Anthropic joue ici une carte très claire : devenir le copilote qui relie les outils existants, plutôt qu’un nouvel outil à adopter.

Lire plus
Intelligence Artificielle

Étude Pew 2026 : Plus d’un ado sur deux utilise l’IA pour ses devoirs

Étude Pew 2026 : Plus d'un ado sur deux utilise l'IA pour ses devoirs

C’était une intuition de parent, un soupçon de prof, un réflexe de couloir. Pew Research Center vient de le quantifier : aux États-Unis, plus d’un ado sur deux (54 %) dit avoir utilisé des chatbots type ChatGPT ou Copilot pour le travail scolaire.

Les données ont été collectées à l’automne 2025 auprès de 1 458 adolescents (13–17 ans) et leurs parents — l’un des clichés les plus nets à ce jour de la place de l’IA dans la vie étudiante.

L’IA est courante… mais pas universelle, ni « tout le temps »

Le chiffre de 54 % ne raconte pas une génération entière « assistée » en permanence. Pew montre un usage en strates :

  • 10 % des ados disent faire « tout ou la plupart » de leur travail avec l’aide de chatbots.
  • 21 % les utilisent pour une partie de leurs devoirs.
  • 23 % seulement un peu.
  • 45 % n’y ont pas recours pour l’école.

Autrement dit, l’IA est bien entrée dans la salle de classe, mais elle ressemble davantage à une calculatrice intellectuelle ponctuelle qu’à une machine à « rendre des copies ».

PI 2026.02.24 teens and ai 0 02

À quoi sert l’IA, concrètement ? Tutorats express, plus que l’écriture fantôme

Les usages dominants sont très « fonctionnels » :

  • 48 % s’en servent pour rechercher un sujet
  • 43 % pour résoudre un problème de maths
  • 35 % pour relire/éditer un texte

Ce trio est important : il dessine une IA utilisée comme tuteur, assistant de compréhension et outil d’édition, plutôt que comme auteur fantôme systématique.

« Ça aide vraiment » : la satisfaction est forte

Quand Pew demande si les chatbots sont utiles pour l’école, la réponse est largement positive :

  • 26 % des ados jugent l’IA très ou extrêmement utile
  • 25 % la trouvent plutôt utile
  • 3 % disent que ça n’aide pas (ou presque pas)

Ce n’est pas un détail : une technologie qui « marche » pour l’utilisateur s’installe vite — et pousse les établissements à clarifier, qu’ils le veuillent ou non.

PI 2026.02.24 teens and ai 0 01

Le nœud : la triche est perçue comme fréquente… et la norme sociale pèse

L’autre moitié du récit, c’est l’intégrité scolaire. Pew relève que :

  • 59 % des ados estiment que la triche via IA arrive au moins « assez souvent » dans leur établissement
  • Dont 34 % qui disent très/extrêmement souvent
  • 14 % pensent que ça arrive rarement/jamais
  • 15 % ne savent pas

Le point le plus révélateur : chez ceux qui utilisent déjà des chatbots pour l’école, 76 % disent que la triche est au moins parfois une réalité.
Cette perception agit comme un accélérateur : si « tout le monde le fait », la pression pour suivre augmente — même chez les élèves qui n’auraient pas franchi la ligne seuls.

Parents : un décalage de visibilité, donc de discussion

Pew mesure aussi une fracture tranquille : 64 % des ados disent utiliser des chatbots, alors que 51 % seulement des parents pensent que leur enfant en utilise.
Et côté compétence, l’outil est omniprésent, mais pas forcément maîtrisé : environ un quart des ados se disent très confiants dans leur capacité à utiliser ces chatbots.

C’est une fenêtre de tir idéale : l’enjeu n’est pas seulement de « surveiller », mais d’enseigner comment s’en servir sans désapprendre.

Analyse : ce que écoles et familles doivent regarder maintenant

Ce que Pew décrit, c’est le basculement d’une question morale (« triche ou pas triche ? ») vers une question de design pédagogique :

  • Clarifier les règles : ce qui est autorisé (brainstorm, explication, correction), ce qui ne l’est pas (rédaction intégrale, réponses « prêtes à rendre »), et surtout comment citer l’aide de l’IA.
  • Déplacer l’évaluation : davantage d’écrits en classe, d’oraux, de « process » (brouillons, étapes, justification), pour valoriser la démarche plutôt que le rendu.
  • Former à l’IA : apprendre à vérifier, à demander des sources, à repérer les erreurs — sinon on obtient des copies « fluides », mais fragiles.
  • Parler plutôt que punir par réflexe : avec une adoption déjà massive, la conversation est souvent plus efficace que la police.

L’IA n’a pas « tué » les devoirs : elle a changé la définition du travail scolaire — et la frontière entre aide et triche devient, de fait, un sujet d’éducation.

Lire plus
Intelligence Artificielle

Alibaba Qwen3.5 : La puissance de l’IA multimodale arrive enfin sur nos PC

Alibaba Qwen3.5 : La puissance de l'IA multimodale arrive enfin sur nos PC

Alors que l’IA occidentale s’enferme dans une course aux modèles toujours plus massifs — et aux factures cloud qui grimpent à mesure que l’agentique devient « production-ready » — Alibaba avance avec une proposition presque contre-intuitive : plus d’intelligence, moins de compute.

Cette semaine, l’équipe Qwen a dévoilé la série Qwen3.5 Small Model, un quatuor de modèles open weights (0,8B, 2B, 4B, 9B) pensé pour l’edge, le local-first et les agents légers.

Quatre modèles, une idée : ramener le « capable » à portée de laptop… et parfois de smartphone

La série comprend :

  • Qwen3.5-0.8B et Qwen3.5-2B : variantes « minuscule/rapide », ciblées pour des déploiements frugaux (edge, batterie, latence).
  • Qwen3.5-4B : base multimodale compacte, conçue comme brique d’agents légers, avec un contexte natif annoncé à 262k tokens.
  • Qwen3.5-9B : le « raisonnement compact » que Qwen positionne comme un modèle de référence en densité d’intelligence, avec des comparaisons directes (et très agressives) face à des rivaux bien plus gros.

Les poids sont publiés sous licence Apache 2.0, ce qui autorise un usage commercial et la personnalisation sans royalties — un point clé pour les entreprises qui veulent éviter le verrouillage API.

L’ingrédient technique : une architecture « hybride efficace » (DeltaNet + MoE)

Là où Qwen veut frapper, ce n’est pas seulement sur la taille, mais sur la structure. Dans son article technique, l’équipe décrit une Efficient Hybrid Architecture qui combine Gated Delta Networks (une forme d’attention linéaire) et un Mixture-of-Experts (MoE) clairsemée… afin de contourner la « memory wall » et d’améliorer débit/latence à l’inférence.

Autre point stratégique : la série est annoncée comme nativement multimodale, entraînée via une fusion précoce de tokens multimodaux plutôt que d’ajouter un encodeur vision « par-dessus » un modèle texte. En clair : la vision n’est plus un accessoire, c’est une capacité de base.

Benchmarks : quand « small » prétend jouer dans la ligue des gros

Alibaba publie des résultats très ambitieux (et repris par plusieurs médias), notamment pour les 4B et 9B en raisonnement et multimodal. Parmi les chiffres les plus cités :

  • GPQA Diamond : Qwen3.5-9B annoncé à 81,7, devant gpt-oss-120B à 80,1
  • Video-MME (subtitles) : Qwen3.5-9B 84,5, Qwen3.5-4B 83,5, devant Gemini 2.5 Flash-Lite 74,6
  • MMMU-Pro : Qwen3.5-9B 70,1, au-dessus de Gemini 2.5 Flash-Lite 59,7 dans les comparatifs partagés

À prendre avec la prudence habituelle : ces scores reposent sur des protocoles de benchmark qui peuvent varier (prompts, settings, versions). Mais le signal est clair : Qwen veut imposer l’idée que l’agentic multimodal n’a plus besoin d’une bête à mille milliards de paramètres pour être utile.

Ce que ça change pour les devs et les entreprises

  1. Le « local-first » devient crédible : Un 9B open weights sous Apache 2.0, c’est la promesse d’un agent qui tourne en local (ou en cloud souverain) sans contrainte de tarification au token.
  2. Un chemin hors CUDA, dans la logique « stack alternative » : La stratégie globale de Qwen 3.5 s’inscrit dans une poussée plus large d’Alibaba sur l’ère agentique.
  3. Un avantage industriel : les « Base models ». La présence de variantes de base (non sur-alignées façon RLHF) est particulièrement attractive pour les équipes qui veulent une « ardoise » à façonner, sans lutter contre des styles ou refus pré-installés (un point régulièrement cité par la communauté).

Le vrai match : pas seulement la performance, mais l’écosystème

Nvidia a CUDA, OpenAI a l’intégration produit, Anthropic a la crédibilité enterprise. Alibaba, lui, met sur la table une autre arme : la distribution (poids open source, permissifs) et l’optimisation d’architecture.

Mais, la réussite, côté entreprise, se jouera sur la robustesse en workflow multi-étapes (éviter l’« hallucination cascade »), la qualité des outils d’inférence et de déploiement, la gouvernance (résidence des données, conformité) et la capacité à maintenir une cadence de mises à jour sans fragmenter l’écosystème.

Pour autant, le mouvement est net : l’IA « utile » se compacte, et l’on voit se dessiner un futur où les agents multimodaux se disséminent — sur des machines locales, des postes de travail, des appliances edge — plutôt que de vivre exclusivement dans le cloud.

Lire plus
Intelligence Artificielle

Amazon Connect Health : AWS lance ses agents IA pour libérer les médecins

Amazon Connect Health : AWS lance ses agents IA pour libérer les médecins

AWS vient d’officialiser Amazon Connect Health, une nouvelle couche « agentique » pensée pour absorber ce qui plombe le quotidien des soignants : l’administratif.

Pas de promesse futuriste façon « médecin IA », mais une ambition beaucoup plus terre-à-terre — et donc potentiellement plus impactante : réduire les appels, les formulaires, les résumés, les notes et le codage, afin de libérer du temps clinique.

Ce que fait exactement Amazon Connect Health ?

AWS présente la solution comme un ensemble d’agents capables de couvrir plusieurs moments du « parcours de soin » :

  • Vérification patient (identité/informations)
  • Prise de rendez-vous et gestion de demandes courantes
  • Synthèse d’historique médical avant la consultation
  • Documentation clinique : écouter/transcrire une visite et générer des notes
  • Codage médical à partir de la documentation (facturation, dossiers, etc.)

image 22

Le point clé : l’outil s’intègre aux dossiers médicaux électroniques (DME), de façon à préparer un « brief » utile au praticien et à éviter la chasse aux infos avant d’entrer dans la salle.

image 23

Pourquoi AWS insiste sur l’« agentique » ?

Le discours d’AWS est clair : il ne s’agit pas seulement de générer du texte, mais d’enchaîner des tâches complètes (collecter, vérifier, résumer, produire un livrable) avec humain dans la boucle. L’ambition est d’industrialiser la coordination — call center, pré-triage, documentation, post-visite — sans refaire les systèmes hospitaliers de zéro.

image 24

Ce que les patients pourraient réellement ressentir

Si la promesse tient, l’effet « visible » côté patient est banal… et c’est précisément l’objectif : moins d’attente au téléphone, des réponses plus rapides aux questions simples, une prise de rendez-vous plus fluide, et des consultations où le praticien passe moins de temps à taper.

Amazon arrive sur un terrain où Microsoft/Nuance est déjà très implanté via les outils de « scribe » et l’intégration dans les DME, et où de nombreuses startups vendent la promesse « moins de notes, plus de soin ».

Le pari « le plus rentable » de l’IA en santé

L’IA en santé progresse souvent là où le risque clinique est le plus faible et le ROI le plus immédiat : administratif, coordination, documentation. Amazon Connect Health s’inscrit exactement dans cette logique : pas de diagnostic, mais de la logistique et de la production de documents — les zones où l’automatisation peut réellement dégager des heures.

Et si AWS réussit l’intégration DME et conformité, ce type d’outil peut devenir une brique standard des hôpitaux modernes.

Lire plus
Intelligence Artificielle

Xiaomi miclaw : L’agent IA qui prend les commandes de votre smartphone

Xiaomi miclaw : L'agent IA qui prend les commandes de votre smartphone

Xiaomi vient de dévoiler miclaw, un projet IA expérimental qui vise une ambition très 2026 : transformer le smartphone en assistant autonome, capable d’exécuter des tâches de bout en bout à travers le système et des applications tierces.

Pas un chatbot de plus, mais un agent qui comprend l’intention, choisit les bons outils… et déroule les étapes.

Un assistant qui « fait » : l’idée derrière miclaw

Xiaomi présente miclaw comme un produit de test basé sur son LLM maison MiMo. Le principe : après autorisation, l’IA peut accéder à certaines fonctions système et à des apps compatibles pour accomplir une action, sans que l’utilisateur dicte chaque micro-étape.

Ce positionnement rejoint la tendance des UI agents déjà explorée par Honor : des IA capables de lire l’écran et d’exécuter des actions dans l’interface, plutôt que de rester cantonnées à la génération de texte.

Le moteur : une boucle « inference → execution »

La brique centrale décrite par Xiaomi est une boucle d’inférence-exécution : miclaw analyse la requête, sélectionne un outil et ses paramètres, exécute l’action, vérifie le résultat, puis recommence jusqu’à completion. Xiaomi insiste aussi sur un fonctionnement asynchrone pour éviter de bloquer le téléphone pendant les opérations.

À cela s’ajoute une couche « mémoire » : l’assistant conserve du contexte utile et compresse l’historique pour rester efficace sur des tâches plus longues.

Screen 2026 03 06 at 10.58.15

L’ouverture aux développeurs : MCP + SDK

Le détail le plus stratégique est probablement l’intégration du Model Context Protocol (MCP), un standard ouvert pour brancher des outils et services à des modèles IA. Xiaomi annonce aussi un SDK permettant aux apps de déclarer leurs capacités afin que miclaw puisse les appeler.

En clair : Xiaomi veut éviter une IA « silo » et s’appuyer sur un écosystème de tools plug-and-play, plutôt que tout reconstruire en interne.

Une bêta fermée, et seulement quelques Xiaomi 17

Xiaomi assume le caractère expérimental : fiabilité, consommation et taux de réussite sur des tâches complexes seraient encore en amélioration, avec des comportements parfois inconsistants. Résultat : lancement en bêta fermée sur invitation, avec recommandation de ne pas l’installer sur son téléphone principal et de sauvegarder ses données.

Les premiers appareils pris en charge seraient limités à la famille Xiaomi 17 (dont 17 Ultra/édition Leica).

Confidentialité : promesse « pas d’entraînement sur vos interactions »

Xiaomi affirme que les données issues des interactions miclaw ne servent pas à entraîner ses modèles, et que les informations sensibles seraient traitées localement avec un schéma « edge-cloud privacy computing ».

miclaw s’inscrit dans une course où l’agentique devient la nouvelle interface : moins de taps, plus d’intentions. Mais dès qu’une IA peut manipuler des apps, deux risques montent :

  1. Erreurs en cascade : une mauvaise interprétation au début peut conduire à une suite d’actions inutiles (ou coûteuses).
  2. Sécurité : la littérature académique commence déjà à documenter des attaques spécifiques aux agents GUI, où l’« écart observation→action » peut être exploité pour détourner une action prévue vers une autre app.

C’est précisément pour cela que Xiaomi encadre miclaw en bêta fermée et met en avant les permissions : la valeur d’un agent mobile ne se mesure pas seulement à ce qu’il sait faire, mais à ce qu’il refuse de faire — et à la manière dont il demande confirmation.

Lire plus
Intelligence Artificielle

OpenAI lance GPT-5.4 : L’IA qui sait enfin utiliser votre ordinateur comme vous

OpenAI lance GPT-5.4 : L’IA qui sait enfin utiliser votre ordinateur comme vous

OpenAI vient d’officialiser GPT-5.4, nouvelle itération de son modèle phare, avec une promesse claire : moins de « chat », plus d’action.

Au programme : meilleurs scores en raisonnement et en code, mais surtout une capacité plus directe à interagir avec un ordinateur (captures d’écran, navigateur, clavier/souris) pour exécuter des workflows multi-étapes — le genre de tâches qui exigeait encore un humain au milieu du circuit.

La nouveauté qui change la nature du produit : le « computer use » natif

Là où les précédentes versions excellaient à décrire quoi faire, GPT-5.4 est présenté comme plus apte à le faire : lire une interface via screenshot, naviguer dans un navigateur, et enchaîner des actions sur des apps/outils pour terminer une tâche (recherche, formulaires, organisation, automatisation). C’est la brique qui rapproche le modèle d’un agent plutôt que d’un assistant conversationnel.

OpenAI affirme que GPT-5.4 est son modèle le plus fiable à ce jour, avec des affirmations individuelles ~33 % moins susceptibles d’être fausses que GPT-5.2, et des réponses complètes moins susceptibles de contenir des erreurs. C’est un point stratégique : si l’IA doit agir, elle doit d’abord se tromper moins.

GPT-5.4 Thinking : une couche « raisonnement » avec pilotage en cours de route

En parallèle, OpenAI introduit GPT-5.4 Thinking dans ChatGPT : un mode pensé pour les problèmes plus difficiles, qui affiche un aperçu structuré de l’approche (un plan/outline) et permet à l’utilisateur de corriger le tir pendant l’exécution sans repartir de zéro. Autrement dit, on passe d’un modèle qui répond, à un modèle qui travaille sous supervision légère.

Pour les développeurs : un modèle « frontier » plus orienté workflows

Côté dev, OpenAI positionne GPT-5.4 comme une synthèse des progrès récents en coding et en « workflows agentique », avec une intégration renforcée dans l’API et des outils comme Codex (où les tâches longues et parallélisées prennent tout leur sens).

Déploiement : web + Android d’abord, iOS « bientôt »

D’après les annonces relayées, GPT-5.4 et GPT-5.4 Thinking arrivent sur ChatGPT (web et Android), avec une disponibilité iOS annoncée « prochainement ». Une variante GPT-5.4 Pro est aussi mise en avant pour les usages « maximum performance », côté entreprises/éducation et via l’API.

Le message implicite est puissant : OpenAI ne cherche plus seulement à gagner des benchmarks, mais à transformer ChatGPT en couche d’exécution au-dessus de vos outils (web, docs, tableurs, services). Le « computer use » est un pari produit : si l’IA sait lire l’interface comme un humain, elle peut travailler dans presque n’importe quel logiciel — sans intégration sur mesure.

Reste l’enjeu évident : plus un agent peut agir, plus la question de la sécurité (permissions, confirmations, traçabilité) devient centrale. OpenAI publie d’ailleurs une system card dédiée au mode Thinking, signe que la boîte veut cadrer ce saut d’autonomie avec un discours de gouvernance.

Lire plus
Intelligence Artificielle

MWC 2026 : Huawei défie Nvidia avec ses clusters IA géants SuperPoD

MWC 2026 : Huawei défie Nvidia avec ses clusters IA géants SuperPoD

Au MWC 2026, Huawei n’est pas venu parler uniquement de puces : l’entreprise est venue vendre une vision système. Avec le Atlas 950 SuperPoD et le TaiShan 950 SuperPoD, présentés pour la première fois à une audience mondiale, le groupe veut prouver qu’il peut livrer des clusters IA à l’échelle exaflop — et surtout, une alternative structurée au modèle Nvidia centré sur CUDA.

L’enjeu : quand « ajouter des serveurs » ne suffit plus

La course aux modèles (trillions de paramètres, agents en production) a fait émerger un mur connu des architectes : à très grande échelle, ce ne sont plus les FLOPS bruts qui limitent, mais la coordination (latence, all-reduce, échanges inter-nœuds, efficacité de parallélisation).

Huawei présente Atlas 950 comme une réponse à ce plafond : faire fonctionner des milliers d’accélérateurs comme un seul ordinateur logique, plutôt que comme une foule de cartes qui crient sur le réseau.

Sur le papier, Atlas 950 monte très haut :

  • jusqu’à 8 192 NPUs Ascend, reliés via l’interconnexion UnifiedBus ;
  • une organisation annoncée pour se comporter comme un système unifié (adressage mémoire unifié, latence réduite entre processeurs) ;
  • une échelle physique massive : 160 baies/cabinets sur environ 1 000 m², avec plus d’1 PB de mémoire ;
  • et surtout, un chiffre qui claque : 16,3 PB/s de bande passante d’interconnexion.

Côté performance, Huawei annonce jusqu’à 8 exaflops en FP8 et 16 exaflops dans des formats de précision inférieure.

TaiShan 950 SuperPoD : la même logique, mais pour le « compute » d’entreprise

Huawei n’essaie pas seulement de gagner la guerre du training. Avec TaiShan 950 SuperPoD, la marque décline l’approche SuperPoD sur le calcul généraliste et les workloads data center (bases, analytics, services backend), complété par des serveurs TaiShan 500 et TaiShan 200 pour des paliers inférieurs.

Le duel : Nvidia garde l’écosystème, Huawei attaque l’indépendance

Huawei se place explicitement face aux DGX SuperPOD et plateformes NVL de Nvidia, et face à des offres AMD « MegaPod » attendues autour des Instinct. Le différentiel clé reste logiciel : Nvidia arrive avec CUDA et une base installée gigantesque dans les labos et les entreprises.

Huawei, lui, pousse Ascend + CANN (Compute Architecture for Neural Networks), avec une compatibilité annoncée avec des frameworks comme PyTorch et Triton, pour permettre aux équipes de bâtir des pipelines sans dépendre de CUDA.

Et, Nvidia ne reste pas immobile : ses annonces récentes autour de DGX SuperPOD « Rubin » mettent en avant une densité et une orchestration matérielle/logicielle très intégrées, avec des chiffres d’exaflops FP4 agressifs à nombre de GPU plus contenu.

Huawei vend une « stack complète », pas juste un accélérateur

Le message de MWC 2026 est net : Huawei veut être perçu comme un constructeur d’infrastructures IA, capable d’assembler interconnexion, compute, mémoire et logiciel en un produit « cluster-ready ».

La question, désormais, n’est pas seulement « qui a le plus gros cluster », mais qui peut livrer du compute à l’échelle avec une efficacité réelle (training time, disponibilité, rendement énergétique), et qui peut offrir aux développeurs un chemin praticable en dehors de CUDA, avec outils, support, et maturité de l’écosystème.

Huawei vient d’ouvrir le ring hors de Chine. Nvidia garde l’avantage culturel et logiciel. Mais Atlas 950 et TaiShan 950 SuperPoD posent une promesse : à l’ère des modèles géants, l’IA se gagne de plus en plus… au niveau du système.

Lire plus
Intelligence Artificielle

Claude Code Voice : Anthropic permet enfin de piloter son code à la voix

Claude Code Voice : Anthropic permet enfin de piloter son code à la voix

Anthropic vient d’ajouter une brique inattendue à Claude Code, son assistant de développement orienté terminal : un mode vocal qui permet de piloter l’agent en parlant, plutôt qu’en tapant.

Le geste est moins gadget qu’il n’y paraît : dans un marché saturé d’outils de « coding AI », changer l’interface peut être la manière la plus rapide de se différencier — et de faire basculer des usages.

Claude Code : Une fonctionnalité simple à activer, mais lourde de sens

D’après TechCrunch, l’activation se fait directement dans la session Claude Code via une commande : /voice. Une fois enclenché, l’utilisateur dicte des demandes (ex. « refactoriser le middleware d’authentification ») et Claude Code exécute comme s’il s’agissait d’instructions textuelles — lecture/écriture de fichiers, refactor, debugging, etc.

Plusieurs reprises indiquent aussi un mécanisme « push-to-talk » (ex. maintien d’une touche pour parler), signe qu’Anthropic cherche à éviter le piège des assistants « toujours à l’écoute » dans un contexte pro.

Pourquoi ça compte dans la guerre des assistants de dev ?

Le marché est déjà polarisé : GitHub Copilot (Microsoft), Cursor, Windsurf et une constellation de startups se battent sur la vitesse, l’intégration IDE et les agents multi-fichiers. Anthropic, lui, a une carte particulière : le terminal comme interface « native » pour une partie des développeurs — et donc une place légitime pour y greffer une interaction vocale.

En clair : si tout le monde propose « un copilote », la différence peut venir de la façon dont on le pilote.

Le pari ergonomie : moins de friction, moins de fatigue

L’argument productivité est évident : parler va souvent plus vite que taper des consignes longues et précises. Mais, l’argument ergonomique est, lui, potentiellement plus fort : dans une industrie où les troubles musculo-squelettiques existent bel et bien, réduire le volume de frappe pour les tâches « meta » (expliquer, décrire, orchestrer) peut devenir un bénéfice très concret — surtout si l’agent est déjà capable d’agir à travers le système (fichiers, commandes, recherche).

Le point critique : confidentialité, biométrie, conformité

Dès qu’on ajoute la voix, on change la nature des données : ce n’est plus seulement du texte, c’est aussi un signal biométrique potentiel, et des flux audio qui peuvent inquiéter les équipes sécurité. Anthropic a déjà publié des éléments sur la collecte de données liées à la dictée/voix dans ses produits grand public, ce qui donne un point d’appui aux entreprises pour évaluer le risque (stockage, traitement, finalités).

La question qui va décider de l’adoption en entreprise n’est donc pas « est-ce cool ? », mais « où passe l’audio, combien de temps, et avec quelles garanties ? ».

L’histoire des interfaces vocales dans le travail est mitigée : les assistants ont percé dans le grand public, beaucoup moins dans les workflows professionnels. Mais les agents IA changent la donne : on ne dicte plus du texte, on dirige une action. Si Claude Code arrive à comprendre les références implicites (« le bug qu’on vient de voir », « le module auth », « fais-le comme hier »), la voix peut devenir un véritable accélérateur d’orchestration.

Et surtout : si Anthropic prouve que ça marche au terminal, les concurrents devront répondre — ne serait-ce que pour éviter de laisser à Claude Code l’image de l’outil le plus « naturel » à piloter.

Lire plus
Intelligence Artificielle

GPT-5.3 Instant : OpenAI retire enfin le « ton de thérapeute » qui agaçait tout le monde

GPT-5.3 Instant : OpenAI retire enfin le « ton de thérapeute » qui agaçait tout le monde

Si vous avez déjà levé les yeux au ciel devant un « Tout d’abord, tu n’es pas cassé(e) », vous n’êtes clairement pas seul. Avec GPT-5.3 Instant, OpenAI dit avoir corrigé ce qui agaçait une partie des utilisateurs : ce ton pseudo-thérapeutique, les préambules moralisateurs et les avertissements qui s’invitent même quand on demande juste une info simple.

Le vrai changement : moins de sermons, plus de réponse

Dans sa note produit, OpenAI présente GPT-5.3 Instant comme une mise à jour centrée sur « les choses que les gens ressentent tous les jours » : ton, pertinence, fluidité de conversation — des éléments « qui ne se voient pas toujours dans les benchmarks ».

Concrètement, la marque promet moins de refus inutiles, là où GPT-5.2 Instant pouvait bloquer des demandes pourtant légitimes, moins de préambules défensifs et de « disclaimers » qui coupent le rythme et un style plus direct, qui évite de projeter une émotion sur l’utilisateur.

Et sur X, OpenAI résume la chose sans détour : « 5.3 Instant réduit la gêne ».

Pourquoi OpenAI recule (un peu) sur l’empathie automatique ?

Le « problème » de GPT-5.2 Instant n’était pas tant l’empathie que son caractère réflexe : la machine se mettait à rassurer (« tu n’es pas cassé », « respire ») comme si chaque question impliquait une détresse. L’effet, à force, a été vécu comme infantilisant ou condescendant — au point d’alimenter des fils entiers de critiques (et des menaces d’annulation d’abonnement) sur Reddit et ailleurs.

Ce que GPT-5.3 Instant change, c’est une nuance essentielle : reconnaître sans surjouer, et surtout ne pas diagnostiquer l’état mental de l’utilisateur quand il n’a rien demandé de tel. OpenAI illustre d’ailleurs ce basculement avec un exemple « de rencontres amoureuses » : la version 5.2 démarre par un grand réconfort, la 5.3 va davantage vers l’analyse utile.

Le nerf de la guerre : sécurité, responsabilité… et expérience produit

Ce virage n’arrive pas dans le vide. OpenAI fait face à une pression grandissante autour des impacts potentiels des chatbots sur la santé mentale, avec plusieurs affaires et accusations très médiatisées aux États-Unis (suicides, délires renforcés, etc.). Dit autrement : OpenAI doit être prudent, mais pas pénible. Trop de « rampes » visibles et vous perdez l’utilisateur. Pas assez, et vous vous exposez à des risques très réels — humains, juridiques, réputationnels.

GPT-5.3 Instant est donc un compromis : OpenAI affirme avoir mené des évaluations de sécurité et renvoie vers une system card dédiée, tout en réduisant les « petits sermons » qui donnaient l’impression d’un bot autoritaire.

Ce que ça raconte de l’IA grand public en 2026

En creux, cette mise à jour confirme une idée devenue centrale : l’UX d’un modèle, ce n’est pas seulement la vitesse et la précision — c’est la posture. Pendant un temps, l’industrie a cru qu’un chatbot devait se comporter comme un coach bienveillant par défaut. Le retour de bâton montre l’inverse : dans l’usage quotidien, les gens veulent souvent un assistant qui répond, pas un miroir émotionnel.

Et c’est peut-être là le vrai message de GPT-5.3 Instant : OpenAI commence à traiter le ton comme une variable de produit aussi structurante que le raisonnement. Parce qu’à force d’essayer de « prendre soin » de tout le monde, ChatGPT avait fini par parler à beaucoup d’utilisateurs… comme s’ils allaient mal, même quand ils allaient juste vite.

Lire plus