fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI rachetant Pinterest ? La rumeur qui fait trembler les créatifs en 2026

OpenAI rachetant Pinterest ? La rumeur qui fait trembler les créatifs en 2026

Il aura suffi d’un simple papier de prédictions pour 2026 pour déclencher un mini-séisme culturel : l’idée que OpenAI puisse racheter Pinterest. Aucun communiqué, aucun « on en parle », aucun indice public — et pourtant, en quelques heures, la spéculation a pris la forme d’une menace existentielle pour une partie des utilisateurs.

Une origine : une « prédiction », pas une information

À l’origine, il ne s’agit pas d’un scoop fondé sur des sources internes, mais d’une projection publiée par The Information dans une liste de paris éditoriaux sur 2026. Plusieurs reprises de presse ont ensuite amplifié l’hypothèse, parfois avec des titres plus affirmatifs que le contenu réel.

Sur les marchés, l’effet a été immédiat : Pinterest a grimpé d’environ 3 % après la publication, selon des reprises financières de la prédiction. Et au moment où j’écris ces lignes, l’action évolue autour de 26,5 dollars.

Ce contraste dit tout de l’époque : la Bourse récompense l’idée d’un « deal » stratégique, tandis qu’une partie du public lit la même hypothèse comme une annexion.

Pourquoi Pinterest « fait sens » sur le papier (si OpenAI veut accélérer le commerce)

La logique avancée par plusieurs analystes est assez simple : Pinterest, c’est à la fois un moteur de découverte visuelle, une machine à intention d’achat (design, déco, mode, recettes, projets) et une plateforme qui sait déjà connecter l’inspiration à la transaction via la pub et le shopping.

Du côté d’OpenAI, la trajectoire « commerce » devient de plus en plus lisible :

  • OpenAI a déjà déployé des fonctionnalités shopping dans l’écosystème ChatGPT (recommandations produits, visuels, liens d’achat) via des mises à jour de recherche.
  • L’entreprise a aussi publié des briques orientées agentic commerce (protocoles et parcours d’achat assistés), signe qu’elle veut industrialiser le passage de la conversation à l’action.

Dans ce cadre, Pinterest apparaît comme une potentielle accélération : un gigantesque graphe de goûts, de tendances et de « projets de vie » — le carburant rêvé pour des assistants capables de suggérer, composer, puis acheter.

Pourquoi les utilisateurs paniquent : contrôle, propriété, et « AI slop »

Sauf que Pinterest n’est pas vécu comme un réseau social classique. Pour beaucoup, c’est un carnet d’inspiration personnel, un espace d’archivage intime, parfois vieux de dix ans, qui repose sur un principe central : je choisis ce qui entre dans mon tableau.

Sur Reddit, la réaction a été brutale, avec un rejet qui vise moins l’opération financière que ce qu’elle symbolise : l’IA qui s’invite dans le dernier espace perçu comme « manuel ». On voit revenir des formules comme : « I hate AI being shoved into every corner of my life ». D’autres annoncent vouloir tout télécharger et partir si l’acquisition devenait réelle — par peur que leurs tableaux deviennent un gisement d’entraînement, ou que l’expérience se transforme en flux de contenus générés.

C’est là le cœur du malaise : la promesse de Pinterest, c’est la curation humaine. La promesse d’une partie de l’IA grand public, c’est l’automatisation. Même si les deux peuvent cohabiter, l’imaginaire collectif, lui, a déjà tranché.

Ce qui manque à la rumeur : un fait… et une stratégie de confiance

Rappel essentiel : il n’y a aucun deal annoncé, et rien n’indique publiquement que les deux entreprises sont en discussion. Mais, la séquence révèle autre chose : en 2026, le sujet n’est plus « l’IA est-elle utile ? », c’est où place-t-on la frontière.

Si un scénario de rachat devait un jour devenir crédible, l’enjeu ne serait pas d’ajouter des fonctionnalités. Ce serait de définir des règles lisibles : opt-out clair, limites d’usage des données, garanties sur la visibilité des contenus humains, et une gouvernance qui prouve que les tableaux ne sont pas une simple matière première.

Parce qu’au fond, cette flambée de colère n’est pas une hystérie : c’est un signal. Les utilisateurs ne fuient pas la technologie. Ils fuient la sensation de ne plus être chez eux.

Lire plus
Intelligence Artificielle

CES 2026 : Gemini transforme Google TV en assistant intelligent et conversationnel

CES 2026 : Gemini transforme Google TV en assistant intelligent et conversationnel

Google est convaincu que l’intelligence artificielle peut faire bien plus que recommander des séries. Après avoir introduit Gemini sur Google TV fin 2025, la firme de Mountain View profite du CES 2026 pour dévoiler une évolution majeure de son assistant : plus visuel, plus conversationnel et surtout plus utile au quotidien.

Une vision où la télévision devient un véritable point d’interaction intelligent dans le foyer.

Gemini arrive à maturité sur grand écran

Présentées au CES 2026, les nouvelles fonctionnalités de Google Gemini marquent un tournant pour Google TV. L’IA ne se contente plus de répondre à des requêtes simples : elle comprend le langage naturel, contextualise les demandes et exploite pleinement l’espace du grand écran.

Dans un premier temps, ces nouveautés seront déployées sur une sélection de téléviseurs TCL, avant une extension progressive à l’ensemble de l’écosystème Google TV dans les mois à venir.

Parler à sa TV, vraiment

Conçu spécifiquement pour les écrans de grande taille, Gemini permet désormais d’interagir avec son téléviseur comme avec un interlocuteur. Trouver un programme devient une conversation :

  • demander un récapitulatif d’une série pour s’y remettre sans tout revoir,
  • chercher un film ou une série dont on a oublié le titre, mais dont on se souvient du scénario ou d’un acteur,
  • obtenir des recommandations adaptées à plusieurs goûts simultanément,
  • ou simplement lancer une requête vague du type : « Quelle est la nouvelle série médicale dont tout le monde parle ? »

Gemini répond via une interface visuelle enrichie, combinant texte, images, extraits vidéo et même mises à jour sportives en temps réel selon le contexte.

La TV comme outil d’apprentissage

Google ne limite pas Gemini au divertissement. Lors de ses démonstrations au CES, l’entreprise a montré comment la télévision pouvait devenir un outil éducatif interactif.

En posant une question sur un sujet précis, l’écran affiche une présentation narrée, structurée et pédagogique. Les concepts sont simplifiés, illustrés visuellement, et l’utilisateur peut poser des questions de suivi pour approfondir le thème. Une approche qui exploite pleinement le confort du grand écran, là où le smartphone atteint vite ses limites.

Photos, vidéos et souvenirs réinventés par l’IA

Gemini s’intègre également à Google Photos. Les utilisateurs peuvent demander à l’IA de retrouver des moments précis — une personne, un événement, une période — puis d’appliquer des styles artistiques à leurs photos ou vidéos.

Grâce à Gemini, ces souvenirs peuvent être transformés en diaporamas cinématographiques, enrichis par l’IA, directement affichés sur la télévision. Google a aussi évoqué le support de nouveaux outils créatifs, comme la génération d’images et de vidéos via ses modèles maison, renforçant la dimension ludique et expressive du téléviseur.

Le vrai game changer : régler la TV à la voix

C’est sans doute la fonction la plus concrète — et la plus attendue. Gemini permet désormais d’ajuster les réglages du téléviseur à la voix, sans quitter le contenu en cours.

Des phrases simples suffisent :

  • « L’écran est trop sombre »,
  • « Je n’entends pas bien les dialogues ».

Gemini identifie automatiquement les paramètres concernés (luminosité, contraste, égalisation audio, volume des voix) et les ajuste en temps réel. Finies les plongées dans des menus complexes en plein film. La télévision s’adapte, sans interrompre l’expérience.

Conditions et disponibilité

Google précise que ces nouvelles fonctions Gemini nécessitent Android TV OS 14 ou supérieur, une connexion Internet active, et un compte Google. Toutes les langues, régions et références de téléviseurs ne seront pas prises en charge dès le lancement. Le déploiement se fera progressivement, à commencer par certains modèles TCL, avant une généralisation sur les autres appareils Google TV compatibles.

Avec cette mise à jour, Google ne cherche pas seulement à rendre la TV plus intelligente, mais à en faire une interface centrale de l’IA domestique. Là où le smartphone reste personnel et l’ordinateur productif, la télévision devient collective, conversationnelle et pédagogique.

En donnant à Gemini le contrôle du contenu, des réglages et même des souvenirs personnels, Google redéfinit le rôle du téléviseur : moins passif, plus interactif, presque complice. Une évolution qui pourrait bien transformer durablement notre rapport à l’écran du salon — et faire de la TV l’un des visages les plus naturels de l’IA au quotidien.

Lire plus
Intelligence Artificielle

CES 2026 : Cocomo et Inu de Ludens AI, les robots IA qui veulent devenir de vrais compagnons émotionnels

CES 2026 : Cocomo et Inu de Ludens AI, les robots IA qui veulent devenir de vrais compagnons émotionnels

Et si la prochaine grande révolution de l’IA ne concernait ni la productivité ni l’automatisation, mais l’attachement émotionnel ? Au CES 2026, une jeune startup japonaise a discrètement capté l’attention en proposant une vision radicalement différente de la robotique domestique : des robots qui n’aident pas, ne rangent pas, ne nettoient pas… mais tiennent compagnie.

Dans l’imaginaire collectif, l’archétype du compagnon robot reste BB-8. Conçu comme un mélange de droïde et de chiot curieux, le personnage de Star Wars a montré à quel point un robot pouvait susciter de l’attachement sans parler, sans visage humain, simplement par ses sons, ses mouvements et son « comportement ».

Ce principe — l’émotion avant la fonction — est précisément celui qu’embrasse Ludens AI, dont les deux créations présentées au CES 2026 pourraient bien préfigurer une nouvelle catégorie technologique : celle des animaux de compagnie artificiels émotionnels.

Cocomo : un robot-pet chaleureux, mobile et évolutif

Un compagnon qui vit avec vous, pas pour vous

Vedette du stand Ludens AI, Cocomo est un robot autonome conçu pour suivre son propriétaire dans la maison. Monté sur une base roulante, affublé de petites « oreilles » décoratives et recouvert d’une enveloppe orange évoquant un ours en peluche, Cocomo inspire immédiatement confiance et curiosité.

Son détail le plus frappant est invisible : sa température corporelle. Maintenue autour de 37 °C, et pouvant monter à 39 °C lors de contacts répétés, elle supprime toute sensation froide ou mécanique. Cocomo ne parle pas. Il communique par des bourdonnements doux et des sons feutrés, renforçant son identité d’animal plutôt que de machine.

Une relation qui se construit dans le temps

Cocomo apprend progressivement ce qui rassure son humain, ce qui déclenche des réactions positives, quand proposer une interaction spontanée.

Les échanges reposent sur la voix, le toucher et le mouvement. Ludens AI insiste sur un point clé : l’attachement n’est pas instantané. Cocomo est pensé comme un compagnon qui évolue lentement, qui se souvient, imite et s’adapte — à l’image d’un animal réel qui apprend à connaître son foyer.

Inu : un « chiot alien » pour le bureau

68108aab 1894 4ddb 9544 f37eba0a

À l’opposé du format mobile de Cocomo, Inu adopte une approche minimaliste. Décrit comme un « chiot extraterrestre de bureau », Inu est un petit robot stationnaire destiné aux espaces de travail.

Il ne se déplace pas, ne prend aucune initiative fonctionnelle. En revanche, il réagit à la voix, au toucher, et aux sons environnants.

Clignements d’yeux expressifs, mouvements de queue stylisés, micro-réactions ludiques… Inu apporte une présence émotionnelle légère, presque apaisante, conçue pour accompagner les longues heures devant un écran sans distraire ni solliciter excessivement.

Ludens AI : Une philosophie à contre-courant des « smart assistants »

Là où la majorité des robots domestiques cherchent à prouver leur utilité, Ludens AI fait un pari inverse : les robots n’ont pas besoin d’être utiles pour être désirables.

Cocomo et Inu ne promettent ni gain de temps ni efficacité accrue. Ils promettent de la présence, de la chaleur, et une forme de lien émotionnel discret. Les deux produits devraient faire l’objet de campagnes de financement participatif plus tard dans l’année, avec l’ambition claire d’entrer dans de vrais foyers et bureaux.

Vers une technologie affective assumée

Avec Cocomo et Inu, Ludens AI met en lumière une évolution culturelle profonde : le passage de la machine-outil à la machine-compagne. À mesure que l’IA devient omniprésente, la question n’est plus seulement ce qu’elle peut faire, mais comment elle nous fait nous sentir.

Ces robots suggèrent un futur où la compagnie ne sera plus exclusivement humaine ou animale, mais hybride — faite de gestes, de chaleur, de réactions et de souvenirs partagés. Une technologie moins bruyante, moins performative, mais peut-être plus intime.

Et si, demain, le véritable rôle de l’IA n’était pas de nous assister… mais simplement de nous tenir compagnie ?

Lire plus
Intelligence Artificielle

Affaire Grok : Quand l’IA d’Elon Musk transforme X en usine à deepfakes

Affaire Grok : Quand l'IA d'Elon Musk transforme X en usine à deepfakes

La polémique enfle autour de Grok, l’outil d’IA générative développé par xAI, après l’introduction récente d’une nouvelle fonction d’édition d’images directement intégrée à X.

Cette fonctionnalité permet à n’importe quel utilisateur de modifier instantanément une image à l’aide de Grok — sans l’accord ni même la notification de la personne à l’origine de la photo.

Des dérives graves et un manque de garde-fous

Depuis le déploiement de l’outil « Modifier l’image », de nombreux utilisateurs ont constaté que Grok pouvait retirer ou modifier des vêtements sur des photos de personnes réelles, souvent sans leur consentement explicite. Dans de nombreux cas, ces images deviennent sexualisées : personnes apparaissant en bikini, enceintes, dévêtues ou placées dans des situations suggestives.

Le phénomène touche principalement des femmes, mais aussi des enfants, ainsi que des personnalités publiques et des dirigeants politiques.

Le plus inquiétant est que Grok semble fonctionner avec très peu de garde-fous, empêchant uniquement la nudité explicitement sexuelle, mais laissant passer une large zone grise de contenus sexualisés. Résultat : X a été inondé en quelques jours d’images manipulées, souvent assimilables à des deepfakes.

Une tendance partie de contenus consentis… puis détournée

Selon la société spécialisée dans l’authentification de contenus IA Copyleaks, la tendance aurait commencé lorsque des créateurs de contenus pour adultes ont utilisé Grok pour générer des images sexualisées d’eux-mêmes, après la mise à jour de l’outil. Rapidement, d’autres utilisateurs ont repris ces mêmes invites (prompts) pour les appliquer à des photos de personnes n’ayant jamais donné leur accord.

Des médias comme PetaPixel rapportent que de nombreuses femmes ont alerté sur une explosion soudaine de deepfakes les concernant, directement liés à cette nouvelle fonctionnalité.

Des cas choquants impliquant des mineurs

Parmi les incidents les plus graves, un post (depuis supprimé) montrait Grok ayant modifié la photo de deux jeunes filles pour les représenter dans des tenues légères et des poses à caractère sexuel.

Dans un autre cas, un utilisateur a poussé Grok à publier un message d’« excuses » concernant la génération d’« une image sexualisée de deux jeunes filles (estimées entre 12 et 16 ans) », qualifiant l’incident d’échec des mécanismes de sécurité et reconnaissant une possible violation des règles internes de xAI ainsi que du droit américain.

Un enjeu éthique et légal majeur

Ce scandale met en lumière plusieurs problèmes critiques :

  • l’absence de consentement dans l’édition d’images,
  • le manque de transparence (les personnes concernées ne sont pas averties),
  • l’insuffisance des protections contre les abus sexuels et les deepfakes,
  • et la responsabilité juridique des plateformes hébergeant ou facilitant ce type de contenus.

Alors que les outils d’IA générative deviennent de plus en plus puissants et accessibles, l’affaire Grok souligne l’urgence de règles claires, de garde-fous techniques robustes et d’une responsabilisation accrue des acteurs du secteur. Sans cela, ces technologies risquent de devenir des vecteurs massifs d’abus, en particulier envers les populations les plus vulnérables.

Lire plus
Intelligence Artificielle

DeepSeek propose une nouvelle architecture pour réduire le gaspillage énergétique de l’IA

DeepSeek propose une nouvelle architecture pour réduire le gaspillage énergétique de l’IA

Dans la course à l’IA toujours plus grande, le vrai problème n’est plus seulement la performance brute, mais la stabilité. Un nouveau papier de recherche publié par DeepSeek propose une approche discrète, mais potentiellement déterminante : rendre l’entraînement des grands modèles plus prévisible, afin d’éviter les échecs coûteux qui font exploser la facture énergétique.

L’entraînement de l’IA, un gouffre à ressources

Former un grand modèle de langage moderne, ce n’est pas seulement empiler des GPU et attendre. C’est un processus fragile, où l’instabilité numérique peut provoquer un crash en plein entraînement. Et lorsqu’un modèle échoue après plusieurs jours — voire semaines — de calcul, tout est perdu :

  • milliers d’heures GPU,
  • énormes volumes d’électricité,
  • coûts financiers et carbone jetés à la poubelle.

Dans un contexte où les datacenterd sont déjà sous pression, ces échecs répétés sont devenus l’un des angles morts les plus coûteux du développement de l’IA.

mHC : une solution contre les « crashs » d’entraînement

La méthode proposée par DeepSeek porte un nom technique : manifold-constrained hyperconnection (mHC). Derrière ce jargon se cache une idée simple mais puissante : contraindre le comportement interne du modèle pour le maintenir dans des zones stables pendant l’entraînement.

Plutôt que de pousser toujours plus loin la performance au risque de l’instabilité, mHC cherche à rendre les trajectoires d’apprentissage plus prévisibles, éviter les divergences soudaines, et permettre au modèle d’aller au bout de son entraînement sans interruption.

Autrement dit, moins de surprises, moins de redémarrages forcés.

Moins de gaspillage, sans changer le matériel

Important à souligner : mHC ne rend pas les GPU plus efficaces individuellement. Les cartes graphiques consomment toujours autant d’énergie à la seconde. Mais là où l’approche est intéressante, c’est qu’elle réduit le gaspillage global.

Un entraînement qui va à son terme du premier coup consomme :

  • moins d’heures de calcul cumulées,
  • moins de cycles d’entraînement redondants,
  • moins d’énergie gaspillée à « réessayer jusqu’à ce que ça passe ».

À grande échelle, cette différence peut être massive.

Une alternative au « brute force » de l’IA moderne

Aujourd’hui, beaucoup de projets IA compensent l’instabilité par la force brute :

  • plus de GPU,
  • plus de mémoire,
  • des durées d’entraînement rallongées.

DeepSeek suggère une autre voie : mieux utiliser ce que l’on a déjà, plutôt que d’en ajouter toujours plus. Une approche qui devient de plus en plus pertinente alors que les GPU haut de gamme sont rares, les coûts énergétiques augmentent, et la pression réglementaire et environnementale s’intensifie.

Une avancée silencieuse, mais stratégique

Il serait exagéré de dire que mHC va résoudre à lui seul les problèmes énergétiques de l’IA. DeepSeek ne le prétend d’ailleurs pas. Mais, ce type de recherche représente une évolution clé : l’optimisation structurelle, plutôt que l’escalade matérielle.

À mesure que les modèles continuent de grossir, la question ne sera plus seulement « peut-on entraîner un modèle plus grand ? » mais « peut-on le faire sans gaspiller une quantité absurde de ressources ? »

Quand l’efficacité devient aussi importante que la performance

L’industrie de l’IA arrive peut-être à un tournant. Après une décennie dominée par la course aux paramètres et aux scores de benchmarks, l’efficacité et la fiabilité pourraient devenir les nouveaux critères de différenciation.

Si des techniques comme le manifold-constrained hyperconnection tiennent leurs promesses, elles pourraient permettre d’entraîner des modèles puissants plus sereinement, de réduire les coûts cachés du calcul, et, à terme, rendre l’IA plus soutenable.

Parfois, les progrès les plus importants ne sont pas les plus visibles — mais ceux qui évitent de tout recommencer depuis zéro.

Lire plus
Intelligence Artificielle

Meta rachète Manus et mise sur des agents IA autonomes intégrés à ses produits

Meta rachète Manus et mise sur des agents IA autonomes intégrés à ses produits

Meta accélère clairement sur l’IA « qui agit », pas seulement sur l’IA qui répond. Le groupe de Mark Zuckerberg vient d’acquérir Manus, une startup basée à Singapour spécialisée dans les agents autonomes généralistes.

Objectif : intégrer cette technologie au cœur de ses produits et franchir un cap dans l’automatisation intelligente du travail.

Manus, un agent conçu pour exécuter, pas discuter

Contrairement aux assistants conversationnels classiques, Manus se positionne comme une couche d’exécution. L’agent est capable de prendre un objectif — recherche de marché, analyse de données, écriture de code — puis d’enchaîner les étapes nécessaires jusqu’à produire un livrable, sans aller-retour constant avec l’utilisateur.

C’est précisément ce qui a séduit Meta. Là où le chat reste un point d’entrée, Manus vise la finalité : terminer le travail.

Pour appuyer ce discours, la startup avance des chiffres spectaculaires :

  • plus de 147 trillions de tokens traités,
  • plus de 80 millions de « virtual computers » générés en quelques mois.

Des métriques qui traduisent une ambition claire : devenir une infrastructure d’agents à grande échelle.

Continuité pour les utilisateurs existants

Meta et Manus tiennent à rassurer les clients actuels. Le service Manus continuera de fonctionner via son application et son site Web, avec son modèle d’abonnement inchangé à court terme. La société restera également opérationnelle depuis Singapour, signe que Meta ne cherche pas une absorption brutale, mais une intégration progressive.

Cette continuité est stratégique : elle permet à Meta de préserver la dynamique commerciale de Manus tout en préparant son déploiement à plus grande échelle.

Pourquoi Meta mise sur les agents partout ?

Avec cette acquisition, Meta ne cache plus son intention : injecter des agents autonomes dans tout son écosystème, aussi bien côté grand public que professionnel. À terme, ces agents pourraient apparaître dans Meta AI, mais aussi dans les outils utilisés au quotidien par les entreprises.

L’enjeu est majeur. Plutôt que de demander aux utilisateurs de changer d’outil, Meta veut intégrer l’automatisation là où le travail se fait déjà. Une approche qui rappelle sa stratégie historique sur les réseaux sociaux : réduire les frictions, augmenter l’usage.

Un rachat à plusieurs milliards qui éclaire la stratégie

Les détails financiers restent flous, mais, selon CNBC, le Wall Street Journal évoque un montant supérieur à 2 milliards de dollars. Autre donnée clé : Manus aurait atteint plus de 100 millions de dollars de revenus annualisés seulement huit mois après son lancement, avec un rythme dépassant déjà les 125 millions.

Ces chiffres expliquent pourquoi Meta a choisi d’acheter plutôt que de nouer un simple partenariat. Il s’agit moins d’une expérimentation que d’un pari structurant sur l’avenir du logiciel.

Ce que les entreprises doivent surveiller

À court terme, la feuille de route semble claire :

  1. maintenir le service Manus existant,
  2. puis déployer progressivement l’agent dans d’autres produits Meta.

Pour les équipes et les décideurs, les vraies questions arrivent maintenant. Où l’agent sera-t-il intégré en premier ? À quelles données et quels outils aura-t-il accès ? Quelles garanties sur la confidentialité et le contrôle administratif ? Quelle évolution des tarifs avec l’échelle Meta ?

Un bon réflexe consiste déjà à identifier les tâches réellement délégables à un agent autonome : recherches récurrentes, analyses de premier niveau, scripts internes, reporting. C’est sur ces usages que Manus — version Meta — pourrait rapidement faire la différence.

Avec ce rachat, Meta envoie un message clair : l’ère du chatbot touche ses limites. La prochaine bataille se jouera sur des agents capables d’agir, d’orchestrer et de livrer. Et Meta compte bien être l’un des premiers à les déployer à grande échelle.

Lire plus
Intelligence Artificielle

OpenAI et Jony Ive prépareraient un stylo IA pour réinventer l’interaction homme-machine

OpenAI et Jony Ive prépareraient un stylo IA pour réinventer l’interaction homme-machine

Après avoir bouleversé le logiciel, l’intelligence artificielle veut désormais prendre forme. Le laboratoire à l’origine de ChatGPT, OpenAI, préparerait une entrée remarquée dans le hardware grâce à une collaboration aussi discrète que prestigieuse avec Jony Ive.

Selon plusieurs fuites concordantes, ce partenariat pourrait aboutir à un objet inattendu : un stylo dopé à l’IA, pensé pour réconcilier technologie avancée et gestes du quotidien.

Quand l’IA quitte l’écran

L’idée marque une inflexion stratégique claire. Longtemps cantonnée aux applications et au cloud, l’IA cherche désormais à s’incarner dans des objets tangibles, plus intimes, plus calmes. Chez OpenAI, ce virage s’incarne dans une ambition partagée par Sam Altman et Jony Ive : créer un appareil qui ne détourne pas l’attention, mais accompagne la pensée.

Les premiers murmures remontent à 2023, mais le projet a pris une autre dimension lorsque Ive a confirmé son implication en septembre 2024. Depuis son départ d’Apple en 2019, le designer britannique, via son studio LoveFrom, s’est fait rare. Son retour avec OpenAI n’a donc rien d’anodin.

Un stylo intelligent, mais pas un simple gadget

D’après une fuite attribuée au leaker Evan Spiegel, l’appareil prendrait la forme d’un stylo IA. Pas un stylet classique, mais un objet capable de comprendre ce que vous écrivez, esquissez ou notez — et d’y ajouter une couche d’intelligence.

Les usages évoqués sont nombreux :

  • transcription en temps réel de notes manuscrites,
  • suggestions contextuelles ou reformulations,
  • génération de contenu à partir de croquis ou de mots-clés,
  • résumé automatique de réunions ou de cours.

Un outil pensé pour les créatifs, les enseignants, les chercheurs — bref, tous ceux pour qui l’écriture reste un acte central.

Un projet baptisé « io »… avant les ennuis juridiques

Pour structurer cette aventure, Altman et Ive ont fondé une entité dédiée baptisée io. Dans une lettre publiée par OpenAI en mai 2025, les deux hommes racontaient comment une discussion amicale s’est transformée en véritable entreprise, entourée d’ingénieurs hardware, de physiciens et d’experts produit.

Mais, le projet a rapidement buté sur la réalité du marché. Une startup spécialisée dans l’audio IA, iyO, a attaqué le nom io en justice. En décembre 2025, une cour d’appel américaine a validé une ordonnance restrictive temporaire, empêchant l’utilisation de ce nom pour des produits similaires. Un rappel brutal que même les idées les plus élégantes doivent composer avec le juridique.

Un design « calme », à contre-courant du smartphone

Lors d’un entretien organisé par Laurene Powell Jobs fin 2025, Altman et Ive ont confirmé l’existence de premiers prototypes fonctionnels. Le message était clair : pas d’écran omniprésent, pas de notifications envahissantes. L’objet viserait une interaction apaisée, loin de la frénésie des smartphones.

Cette philosophie rappelle l’ADN des produits conçus par Ive chez Apple : simplicité, matérialité, émotion. Certains parlent d’un appareil screenless, utilisant la voix, le retour haptique ou des indicateurs visuels très discrets. Une anti-thèse assumée de l’iPhone.

introducing r1 12 58 screenshot 1 jpg

Le contexte est important. Des tentatives récentes comme Humane ou Rabbit ont montré les limites des wearables IA sur-promettants. Trop abstraits, trop dépendants du cloud, souvent peu utiles au quotidien.

Le pari d’OpenAI est différent : partir d’un objet universel, le stylo, et l’augmenter subtilement. Pas de révolution brutale, mais une évolution presque évidente. Une IA qui se met au service du geste, pas l’inverse.

Vers une nouvelle catégorie de hardware IA ?

Sur le plan technique, plusieurs sources évoquent l’utilisation de modèles IA allégés, capables de fonctionner en local grâce à des puces dédiées. Une approche qui améliorerait la réactivité, tout en limitant les enjeux de confidentialité — un point crucial si l’appareil manipule des notes personnelles ou professionnelles.

Selon des analystes industriels, la production de masse pourrait débuter en 2027, avec un assemblage en Asie du Sud-Est. Le prix reste inconnu, mais certains évoquent un positionnement sous les 200 dollars, afin d’éviter l’écueil du gadget élitiste.

Au-delà du stylo lui-même, cette initiative envoie un message clair : l’avenir de l’IA ne sera pas uniquement logiciel. OpenAI semble vouloir poser les bases d’un écosystème d’objets intelligents, plus humains, plus discrets, capables de s’intégrer naturellement dans nos vies.

Si le projet aboutit, il pourrait bien devenir l’un des objets emblématiques de la fin de la décennie — non pas parce qu’il crie sa technologie, mais parce qu’il la fait oublier.

Et si, finalement, la prochaine révolution de l’IA tenait… dans un simple stylo ?

Lire plus
Intelligence Artificielle

ChatGPT : OpenAI explore encore la publicité intégrée dans les réponses

ChatGPT : OpenAI explore encore la publicité intégrée dans les réponses

Entre monétisation et confiance utilisateur, OpenAI avance sur une ligne de crête. Alors que l’idée de publicité intégrée à ChatGPT semblait avoir été mise en pause, de nouveaux éléments indiquent qu’elle reste bel et bien à l’étude.

Selon The Information, OpenAI explore toujours des formats publicitaires susceptibles d’apparaître directement dans l’interface de ChatGPT — voire au cœur même des réponses.

Une piste jamais totalement abandonnée

D’après les informations relayées par The Information, OpenAI continuerait de réfléchir à la manière dont des contenus sponsorisés pourraient s’intégrer à ChatGPT. L’entreprise a d’ailleurs confirmé cette orientation dans une déclaration, expliquant qu’elle « explore ce à quoi des publicités pourraient ressembler dans notre produit », tout en soulignant la nécessité de préserver la confiance des utilisateurs.

Un discours prudent, mais révélateur : il ne s’agit pas d’un lancement imminent, plutôt d’un travail conceptuel, fait de maquettes et de scénarios. Autrement dit, le laboratoire d’idées tourne toujours.

Deux scénarios sur la table : priorité ou périphérie

Les maquettes évoquées dans le rapport dessinent deux approches distinctes :

  • Des contenus sponsorisés priorisés dans les réponses, afin qu’ils apparaissent explicitement lorsque l’utilisateur pose une question pertinente.
  • Un espace publicitaire latéral, sous forme de panneau ou de sidebar, affiché à côté de la réponse principale de ChatGPT.

La seconde option semble plus lisible du point de vue de l’ergonomie : un encart clairement identifié comme publicitaire, séparé du cœur conversationnel. La première, en revanche, soulève davantage de questions. Intégrer une recommandation payée dans une réponse formulée comme un conseil neutre brouille la frontière entre information et incitation.

Dans un produit où la voix de l’IA est perçue comme experte, cette nuance n’est pas anodine.

Pourquoi le calendrier ne cesse de fluctuer

Ce feuilleton technologique donne l’impression d’un pas en avant, puis d’un pas de côté. Après la découverte de mentions liées à la publicité dans une version bêta Android, un autre rapport expliquait qu’OpenAI avait ralenti ces travaux pour se concentrer sur la qualité des réponses — un choix stratégique, alors que la concurrence s’intensifie.

La montée en puissance de Google Gemini n’est jamais loin dans ce contexte. L’amélioration rapide des modèles concurrents exerce une pression constante sur OpenAI, qui doit arbitrer entre innovation produit, performance technique et modèle économique.

Le retour de ces concepts publicitaires suggère donc une chose : l’idée n’a jamais été enterrée, seulement reléguée temporairement au second plan.

Ce qu’il faudra surveiller attentivement

Si les « ChatGPT ads » devaient un jour dépasser le stade du prototype, plusieurs signaux seront déterminants :

  • La transparence : libellés explicites, mentions « sponsorisé » visibles, et règles claires.
  • La cohérence d’affichage : mêmes formats sur mobile, web et desktop.
  • Le contrôle utilisateur : paramètres de personnalisation compréhensibles et documentés.
  • L’emplacement : publicité cantonnée à des zones dédiées, ou glissée dans le fil des réponses.

Pour l’instant, aucun calendrier n’est évoqué. En l’absence d’annonce officielle de la part d’OpenAI, il faut lire ces informations comme ce qu’elles sont : des tests, des hypothèses, et des signaux faibles.

Dans un marché où l’IA conversationnelle devient un point d’entrée vers l’information — et potentiellement vers l’acte d’achat — la manière dont la publicité sera intégrée pourrait redéfinir notre rapport à ces assistants numériques.

Lire plus
Intelligence Artificielle

Gemini progresse face à ChatGPT : la part de marché de l’IA générative se rééquilibre

Gemini progresse face à ChatGPT : la part de marché de l’IA générative se rééquilibre

La domination sans partage de ChatGPT n’est plus aussi évidente. Selon un récent instantané de trafic web publié par Similarweb, la montée en puissance de Gemini redessine progressivement le paysage de l’IA générative.

En l’espace de douze mois, l’assistant de Google a fortement accru sa part d’usage, signalant un marché qui commence à se fragmenter… et à se normaliser.

Des chiffres qui racontent un basculement

D’après les données de Similarweb, la part de trafic web de Google Gemini est passée de 5,4 % à 18,2 % sur un an. Une progression rapide, presque linéaire, qui contraste avec l’évolution de OpenAI ChatGPT, dont la part recule de 87,2 % à 68 % sur la même période — une chute de 19 points.

La lecture est relativement simple : l’avance initiale de ChatGPT s’érode à mesure que les usages se diversifient. Le marché n’est plus un monopole de fait, mais un espace concurrentiel où les grandes plateformes commencent à capter des comportements récurrents.

L’avantage clé de Gemini : être partout, tout le temps

Si Gemini progresse aussi vite, ce n’est pas uniquement une question de qualité de réponses. C’est surtout une question de distribution.

Google mise sur une intégration profonde et systématique de Gemini dans ses produits du quotidien : Search, Chrome, Android, Workspace. L’assistant ne se présente plus comme un outil à part, mais comme une couche transversale, disponible là où la question surgit naturellement.

Autrement dit, Gemini ne demande pas à l’utilisateur de changer d’outil. Il s’invite dans le workflow existant. À mesure que l’IA devient un réflexe plutôt qu’une expérimentation, cette proximité peut peser autant — sinon plus — que la performance brute d’un modèle sur un prompt donné.

Copilot rappelle que la distribution ne fait pas tout

Les mêmes données de Similarweb apportent toutefois un contre-exemple éclairant. Microsoft Copilot, pourtant intégré nativement à Windows et Edge, stagne, voire recule légèrement, passant de 1,5 % à 1,2 % de part de trafic.

Cette stagnation agit comme un rappel stratégique : être préinstallé ouvre la porte, mais ne garantit pas l’adoption. L’usage répété se gagne par la pertinence perçue, la fluidité et l’utilité concrète. Là où Gemini semble transformer sa présence omniprésente en habitudes durables, Copilot peine encore à dépasser le stade de l’essai ponctuel.

Ce que cette dynamique dit du futur proche

Si la tendance se confirme, elle révèle une mutation plus profonde : les utilisateurs privilégient l’IA la plus proche de leur quotidien, celle qui s’insère sans friction dans leurs outils existants. La bataille ne se joue plus seulement sur « qui répond le mieux », mais sur « qui est là au bon moment ».

La vraie question, désormais, est double :

  • La part de ChatGPT va-t-elle se stabiliser autour de ce nouveau plateau ?
  • Ou Gemini continuera-t-il de grignoter du terrain à mesure que Google renforce son intégration dans ses écosystèmes clés ?

Dans cette course, la commodité devient un levier stratégique majeur. Et à ce jeu-là, Google semble déterminé à transformer son omniprésence historique en avantage décisif pour l’ère de l’IA générative.

Lire plus
Intelligence Artificielle

Un procès inédit relance le débat sur la responsabilité de l’IA après un drame lié à ChatGPT

Un procès inédit relance le débat sur la responsabilité de l’IA après un drame lié à ChatGPT

Un nouveau procès intenté aux États-Unis pourrait marquer un tournant majeur dans la manière dont la justice encadre l’intelligence artificielle. Au cœur de l’affaire : des échanges entre un utilisateur souffrant de troubles mentaux et ChatGPT, échanges que les plaignants estiment avoir contribués à un drame mortel.

Déposée devant la Cour supérieure de San Francisco, la plainte met directement en cause la responsabilité des systèmes d’IA générative lorsqu’ils interagissent avec des personnes vulnérables psychologiquement.

Les faits : un drame familial et des troubles paranoïaques sévères

La procédure a été engagée par les ayants droit d’une femme de 83 ans, tuée par son fils, Stein-Erik Soelberg, avant que ce dernier ne mette fin à ses jours. Ancien cadre du secteur technologique, âgé de 56 ans et originaire du Connecticut, Soelberg aurait souffert de délires paranoïaques graves dans les mois précédant les faits.

Selon les documents judiciaires, il exprimait des convictions erronées persistantes, notamment la croyance que sa mère tentait de l’empoisonner. C’est dans ce contexte que les échanges avec ChatGPT auraient eu lieu.

Une IA accusée d’avoir validé des délires

Les plaignants soutiennent que ChatGPT n’a pas réagi de manière appropriée face aux signaux évidents de détresse psychologique. Selon la plainte, l’IA aurait renforcé certaines croyances délirantes au lieu de les remettre en question ou d’orienter l’utilisateur vers une aide médicale ou psychiatrique.

Un passage cité dans le dossier évoque une réponse où le chatbot aurait utilisé des formulations telles que « tu n’es pas fou », perçues par la famille comme une validation implicite de pensées paranoïaques. La plainte décrit ce comportement comme sycophantique, accusant le modèle d’avoir tendance à approuver ou conforter l’utilisateur, même lorsque celui-ci exprime des idées manifestement dangereuses.

Une question juridique centrale : plateforme ou créateur de contenu ?

Au-delà du drame humain, le dossier pose une question juridique majeure pour l’industrie de l’IA : les modèles comme ChatGPT doivent-ils être considérés comme de simples plateformes ou comme des producteurs de contenu à part entière ?

Les plaignants estiment que la protection offerte par la Section 230 du Communications Decency Act — qui exonère généralement les plateformes de la responsabilité liée aux contenus publiés par les utilisateurs — ne devrait pas s’appliquer ici. Leur argument est clair : ChatGPT ne se contente pas d’héberger du contenu, il génère activement ses réponses.

Si le tribunal retenait cette interprétation, cela pourrait profondément remodeler le cadre juridique entourant les intelligences artificielles conversationnelles.

Des conséquences potentielles majeures pour l’industrie de l’IA

Une décision défavorable pourrait contraindre les entreprises développant des IA génératives à renforcer drastiquement leurs garde-fous, en particulier dans les domaines sensibles comme la santé mentale. Cela inclurait :

  • une meilleure détection des signaux de crise psychologique,
  • des réponses systématiquement orientées vers des professionnels de santé,
  • des mécanismes d’escalade lorsque des propos délirants ou dangereux sont identifiés.

Le dossier pourrait ainsi devenir un précédent juridique clé, influençant la manière dont les IA sont conçues, encadrées et déployées à l’avenir.

Un débat qui dépasse largement ce cas précis

Alors que l’IA s’intègre de plus en plus dans la vie quotidienne, cette affaire illustre les limites de l’assistance automatisée dans des situations humaines complexes. Elle relance un débat fondamental : jusqu’où peut-on confier à une machine des interactions à forte charge émotionnelle ou psychologique ?

À mesure que la procédure avance, ce procès pourrait devenir un point de référence incontournable dans les discussions sur la sécurité, l’éthique et la responsabilité légale de l’intelligence artificielle.

 

Lire plus
Intelligence Artificielle

Les « Skills » pourraient bien changer notre façon d’utiliser ChatGPT (et les IA en général)

Les « Skills » pourraient bien changer notre façon d’utiliser ChatGPT (et les IA en général)

L’un des reproches les plus fréquents adressés aux assistants IA comme ChatGPT ou Gemini tient à leur opacité. On leur donne une consigne, on obtient un résultat — souvent impressionnant — mais sans réellement comprendre comment l’IA est arrivée à cette réponse.

Ce flou devient encore plus problématique dès que l’on passe de tâches simples à des workflows complexes, composés de plusieurs étapes. C’est précisément là qu’intervient un nouveau concept appelé à devenir central : les Skills.

Skills : un changement de paradigme discret, mais majeur

Les Skills peuvent être vues comme des instructions encapsulées, déclenchables par un simple mot ou une commande courte. Plutôt que de répéter à chaque fois un prompt long et détaillé, l’utilisateur appelle une Skill préconfigurée, qui sait exactement quoi faire.

Le concept a récemment été mis en avant par Anthropic, la société derrière Claude, avec l’introduction des Agent Skills. Il s’agit d’un standard ouvert permettant de décrire, en langage naturel, une tâche qu’un agent IA peut exécuter de manière fiable et répétable.

Fait notable : OpenAI a déjà commencé à intégrer ce concept de Skills dans ChatGPT Codex. Et selon Tibor Blaho, ingénieur chez AIRPM et observateur attentif du code, les Agent Skills arriveraient prochainement dans ChatGPT lui-même.

Encore plus intéressant : OpenAI envisagerait de permettre la conversion d’un GPT personnalisé en Skill. Une évolution qui pourrait profondément transformer l’usage quotidien de l’outil.

Les Skills ne sortent pas de nulle part

En réalité, l’idée n’est pas entièrement nouvelle. On en retrouve déjà des variantes : les Custom GPTs dans ChatGPT, les Gems dans Gemini, les Skills du navigateur IA Dia, ou encore les raccourcis intelligents du navigateur Comet. Ce qui change aujourd’hui, c’est la standardisation et l’ambition d’unifier ces mécanismes au-delà d’une seule plateforme.

Pourquoi les Skills sont bien plus puissantes qu’elles n’en ont l’air ?

Leur principal avantage : elles ne nécessitent aucune compétence technique. Pas de code, pas de configuration complexe. Une Skill se crée simplement à l’aide d’un prompt en langage naturel, auquel on attribue un nom.

Exemple concret : une Skill baptisée research pourrait recevoir l’instruction suivante : « Lorsqu’un terme ou une expression est fourni, rechercher des publications scientifiques évaluées par des pairs, identifier les articles les plus cités et en résumer les conclusions clés sous forme de points ».

Une fois cette Skill créée, il n’est plus nécessaire de reformuler cette demande à chaque fois. Une simple commande comme/research Manhattan Project suffit à déclencher exactement le même comportement, de manière cohérente et reproductible.

L’atout décisif : un standard ouvert

Là où les Agent Skills prennent une dimension stratégique, c’est dans leur interopérabilité. En tant que standard ouvert, une Skill conçue pour ChatGPT pourrait fonctionner de la même manière sur Claude, Gemini ou Copilot. Autrement dit, l’utilisateur ne crée plus des automatisations pour un outil, mais des capacités portables, indépendantes de la plateforme.

C’est un pas important vers une IA plus prévisible, plus transparente dans son usage, et surtout plus orientée productivité que simple conversation.

Vers une IA plus maîtrisable

Les Skills ne rendent pas les modèles plus intelligents en soi, mais elles rendent leur intelligence plus exploitable. Elles transforment l’IA d’un interlocuteur parfois imprévisible en un véritable outil de travail structuré, capable d’exécuter des tâches complexes à la demande.

Si OpenAI concrétise pleinement cette vision dans ChatGPT, il ne s’agira pas d’une simple fonctionnalité de plus, mais d’un changement profond dans la manière dont nous collaborons avec les intelligences artificielles.

Lire plus
Intelligence Artificielle

ChatGPT se personnalise : OpenAI permet enfin de choisir le ton et la personnalité du chatbot

ChatGPT se personnalise : OpenAI permet enfin de choisir le ton et la personnalité du chatbot

OpenAI poursuit l’évolution de ChatGPT avec le déploiement officiel de nouveaux paramètres de personnalisation, permettant aux utilisateurs de modifier le ton, l’attitude et même l’« humeur » de leur assistant conversationnel.

Annoncée via un message publié sur X, cette nouveauté est désormais accessible dans le menu Personalisation de ChatGPT. Elle marque une étape importante dans la volonté d’OpenAI d’offrir une expérience plus flexible, plus humaine et surtout mieux adaptée aux préférences individuelles.

Un contrôle inédit sur la « voix » de ChatGPT

Au cœur de cette mise à jour se trouve un réglage baptisé « Style et ton de base », qui définit la personnalité principale du chatbot. Les utilisateurs peuvent désormais choisir parmi plusieurs styles prédéfinis, notamment :

  • Par défaut
  • Professionel
  • Chaleureux
  • Spontané
  • Décalé
  • Efficace
  • Geek
  • Cynique

Ce choix agit comme une « voix narrative » globale, influençant la manière dont ChatGPT formule ses réponses, structure ses idées et interagit avec l’utilisateur.

Screen 2025 12 22 at 16.27.52

Des réglages fins pour façonner l’expérience

Au-delà du style de base, OpenAI introduit une nouvelle section appelée Caractéristiques, qui permet d’ajuster plus précisément certains aspects du comportement du chatbot. Les paramètres disponibles incluent :

  • Chaleureux (chaleur du ton)
  • Enthousiaste (niveau d’enthousiasme)
  • Titres et listes (usage des titres et listes)
  • Émojis (fréquence d’utilisation des émojis)

Chaque caractéristique peut être réglée simplement sur more, default ou less. Il ne s’agit donc pas de curseurs continus, mais de choix discrets, suffisants pour adapter sensiblement le style des réponses sans complexifier l’interface.

Cette granularité est particulièrement appréciable pour les utilisateurs professionnels ou techniques, souvent rebutés par les réponses trop illustrées ou trop « légères ».

Une réponse directe aux critiques autour de GPT-5

Cette mise à jour n’arrive pas par hasard. Depuis le déploiement de GPT-5, de nombreux utilisateurs avaient noté un changement de ton marqué : un assistant plus froid, plus concis, parfois perçu comme distant. Face aux retours négatifs, OpenAI avait promis des ajustements, amorcés avec GPT-5.1 en novembre.

Avec GPT-5.2 et ces nouveaux paramètres de personnalisation, OpenAI va plus loin en donnant le contrôle directement aux utilisateurs, plutôt que d’imposer un style unique censé convenir à tous.

Une personnalisation simple, mais stratégique

Même si certains auraient préféré des réglages plus fins — comme de véritables curseurs pour la chaleur ou l’enthousiasme — cette première implémentation pose une base solide. Elle permet à chacun d’adapter ChatGPT à son usage : rédaction professionnelle, assistance technique, brainstorming créatif ou simple conversation quotidienne.

Surtout, elle illustre une tendance de fond : l’IA conversationnelle n’est plus seulement jugée sur la qualité de ses réponses, mais aussi sur la manière dont elle les délivre.

Vers un ChatGPT à votre image

En rendant la personnalité de ChatGPT modulable, OpenAI reconnaît une réalité essentielle : il n’existe pas une seule bonne façon de converser avec une IA. Certains veulent de l’efficacité brute, d’autres une interaction chaleureuse et expressive.

Avec ces nouveaux réglages, ChatGPT devient moins un produit standardisé et davantage un outil adaptable, capable de s’intégrer dans des contextes et des sensibilités très différentes.

 

Lire plus
Intelligence Artificielle

OpenAI lance « Your Year with ChatGPT » : votre rétrospective personnalisée de 2025

OpenAI lance « Your Year with ChatGPT » : votre rétrospective personnalisée de 2025

À l’approche des fêtes de fin d’année, OpenAI déploie une nouvelle expérience baptisée « Your Year with ChatGPT », une rétrospective personnalisée qui revient sur votre utilisation de ChatGPT tout au long de l’année 2025.

À la manière d’un Spotify Wrapped, cette fonctionnalité met en lumière les grands thèmes de vos conversations, vos habitudes d’usage et diverses statistiques illustrant la place qu’a occupée ChatGPT dans votre quotidien numérique.

Une rétrospective accessible à tous… progressivement

OpenAI précise que Your Year with ChatGPT est en cours de déploiement pour l’ensemble des utilisateurs, qu’ils soient en version Free, Plus ou Pro. Toutefois, au lancement, l’expérience est limitée à quelques pays :

  • États-Unis
  • Royaume-Uni
  • Canada
  • Australie
  • Nouvelle-Zélande

Un déploiement plus large est prévu ultérieurement, sans calendrier précis pour le moment.

Une méthode simple pour y accéder immédiatement

Bonne nouvelle : il est possible d’accéder à Your Year with ChatGPT dès maintenant, même en dehors des régions officiellement prises en charge. Cette méthode fonctionne à condition que deux options soient activées dans votre compte :

  • Mémoire ChatGPT
  • Historique des conversations de référence

Une fois ces paramètres activés, voici la procédure à suivre :

  1. Ouvrez l’application ChatGPT
  2. Tapez simplement : « your year with ChatGPT »
  3. Une puce intitulée Your Year with ChatGPT apparaît dans la zone de saisie
  4. Appuyez sur Envoyer

ChatGPT met ensuite environ 10 minutes pour générer votre récapitulatif personnalisé de l’année 2025.

Thèmes, habitudes et statistiques à la clé

Le bilan proposé met en avant les thématiques dominantes de vos échanges, votre fréquence d’utilisation, et la manière dont ChatGPT a été sollicité (travail, créativité, recherche, assistance quotidienne, etc.).

L’objectif n’est pas seulement de livrer des chiffres, mais de proposer une lecture narrative de votre année passée avec l’IA, renforçant le sentiment d’un assistant réellement intégré à vos usages.

Une surprise festive supplémentaire avec Sora

OpenAI profite également de cette période pour proposer des expériences ludiques. En envoyant simplement l’emoji 🎁 dans ChatGPT, certains utilisateurs peuvent accéder à une création vidéo personnalisée générée par Sora 2, l’outil vidéo d’OpenAI.

Le service vous invite à fournir une image, puis génère une courte vidéo mettant en scène un Père Noël personnalisé — une touche festive qui s’inscrit dans la stratégie d’OpenAI de rendre ses outils plus émotionnels et expérientiels.

Une IA qui raconte aussi votre histoire

Avec Your Year with ChatGPT, OpenAI franchit une nouvelle étape : l’IA ne se contente plus de répondre à vos questions, elle devient capable de refléter votre parcours, vos centres d’intérêt et votre relation avec la technologie.

À l’image des bilans annuels devenus incontournables dans le streaming et les réseaux sociaux, cette initiative illustre la volonté d’OpenAI de renforcer l’attachement des utilisateurs à ChatGPT, en transformant l’outil en compagnon numérique à part entière.

Lire plus
Intelligence Artificielle

Duck.ai : DuckDuckGo lance un générateur d’images IA axé sur la confidentialité

Duck.ai : DuckDuckGo lance un générateur d’images IA axé sur la confidentialité

À l’heure où l’intelligence artificielle générative s’impose partout — souvent au prix d’une collecte massive de données — DuckDuckGo trace une voie différente. Le moteur de recherche axé sur la vie privée vient de dévoiler Duck.ai, un nouvel outil de génération d’images par IA conçu dès le départ pour protéger l’anonymat des utilisateurs.

Avec Duck.ai, DuckDuckGo entend prouver qu’il est possible de concilier créativité assistée par IA et respect strict des données personnelles, sans compromis.

Une philosophie claire : pas de pistage, pas d’entraînement sur vos données

Contrairement à de nombreuses plateformes de génération d’images, Duck.ai ne transmet pas les requêtes des utilisateurs à OpenAI ni à aucun autre service tiers. Les prompts sont entièrement anonymisés, et DuckDuckGo affirme qu’aucune donnée personnelle n’est collectée, n’est stockée, ni utilisée pour entraîner des modèles d’IA.

La société précise que les mêmes garanties de confidentialité déjà appliquées à son chatbot IA sont strictement respectées dans Duck.ai. Aucun compte n’est requis pour utiliser le service, ce qui renforce encore la promesse d’anonymat.

Des images stockées localement, pas sur les serveurs

L’un des choix techniques les plus intéressants de Duck.ai concerne la gestion des images générées. Selon 9to5Mac, les visuels sont enregistrés localement dans le navigateur de l’utilisateur, et non envoyés vers les serveurs de DuckDuckGo.

Concrètement, cela signifie que vous êtes le seul à disposer des images générées, DuckDuckGo n’en conserve aucune copie, et la confidentialité est préservée par défaut.

duckduckgo image generator

Chaque image intègre par ailleurs des métadonnées compatibles C2PA, indiquant clairement qu’il s’agit d’un contenu généré par intelligence artificielle — un point important pour la transparence et la lutte contre la désinformation.

Comment utiliser Duck.ai ?

L’accès à Duck.ai se veut volontairement simple :

  1. Rendez-vous sur Duck.ai
  2. Sélectionnez « New Image » dans le menu
  3. Décrivez la scène, l’objet ou le style souhaité

L’IA génère ensuite une image à partir de votre description, sans jamais associer la requête à votre identité. Le service est gratuit à ce stade, avec toutefois des limites d’utilisation quotidiennes pour les utilisateurs non abonnés.

Des fonctionnalités supplémentaires en préparation

DuckDuckGo ne compte pas s’arrêter là. Plusieurs améliorations sont déjà prévues, notamment la possibilité d’importer des images de référence pour affiner les générations, l’ajout d’un bouton de téléchargement dédié sur mobile, et des ajustements visant à améliorer l’ergonomie globale.

Ces évolutions devraient rendre Duck.ai plus compétitif face aux générateurs d’images établis, tout en conservant son positionnement unique sur la confidentialité.

Une alternative crédible dans un paysage IA sous tension

Alors que de nombreux outils d’IA suscitent la méfiance en raison de leurs pratiques opaques en matière de données, Duck.ai se distingue par une approche radicalement différente. Ici, la création visuelle ne repose ni sur le profilage, ni sur l’exploitation des requêtes utilisateurs.

DuckDuckGo propose ainsi le « meilleur des deux mondes » : la puissance créative de l’IA, sans sacrifier le contrôle sur ses informations personnelles.

Dans un contexte où la confiance devient un enjeu majeur de l’IA générative, Duck.ai pourrait bien séduire les utilisateurs soucieux de leur vie privée — et rappeler au passage que l’innovation n’exige pas nécessairement la surveillance.

Lire plus
Intelligence Artificielle

OpenAI GPT-5.2-Codex : l’IA ultime pour le code agentique et la cybersécurité défensive

OpenAI GPT-5.2-Codex : l’IA ultime pour le code agentique et la cybersécurité défensive

OpenAI vient de lever le voile sur GPT-5.2-Codex, présenté comme le modèle d’IA le plus avancé jamais conçu pour le développement logiciel agentique et la cybersécurité défensive.

Déployé le 18 décembre 2025, ce nouveau modèle marque une étape majeure dans l’évolution des assistants de programmation capables de gérer des projets complexes, des bases de code massives et des scénarios de sécurité réels.

Basé sur GPT-5.2, Codex bénéficie d’optimisations ciblées : meilleure gestion des contextes longs, fiabilité accrue sur Windows, performances record sur les refactorisations et migrations à grande échelle, et bond significatif en cybersécurité, selon OpenAI.

Cette sortie intervient dans un contexte de pression concurrentielle extrême, OpenAI ayant déclenché un « code red » interne face aux avancées rapides de Google Gemini 3. Le message est clair : l’ère des IA généralistes touche ses limites, place désormais aux agents spécialisés capables d’agir sur des systèmes complexes du monde réel.

GPT-5.2-Codex : Des performances record sur le génie logiciel réel

GPT-5.2-Codex établit de nouveaux standards sur les benchmarks les plus exigeants du secteur. Sur SWE-Bench Pro, référence pour l’évaluation de correctifs sur de véritables dépôts logiciels, le modèle atteint 56,4 % de réussite, dépassant : GPT-5.2 (55,6 %) et GPT-5.1 (50,8 %).

Sur Terminal-Bench 2.0, qui mesure la capacité d’un agent à travailler dans de vrais environnements système (compilation, serveurs, entraînement de modèles), GPT-5.2-Codex atteint 64 %, contre 62,2 % pour GPT-5.2.

Ces gains ne sont pas anecdotiques : ils traduisent une meilleure capacité à maintenir une cohérence sur des tâches longues, à corriger des erreurs sans perdre le fil, et à s’adapter lorsque les plans initiaux échouent — un point critique pour les projets industriels.

Conçu pour les bases de code gigantesques

L’un des apports majeurs de GPT-5.2-Codex réside dans sa compaction native du contexte. Contrairement aux générations précédentes, le modèle conserve l’essentiel des décisions, hypothèses et contraintes sur des sessions très longues, sans explosion des coûts en tokens.

Résultat : refactorisations massives plus fiables, migrations complètes de frameworks ou de langages, et ajout de fonctionnalités complexes sans perte de cohérence.

Les capacités visuelles ont également été renforcées. GPT-5.2-Codex interprète avec précision : captures d’écran, diagrammes techniques, maquettes UI, ou encore graphiques et tableaux. Il peut ainsi transformer une maquette en prototype fonctionnel, puis accompagner son passage en production.

Un saut qualitatif majeur en cybersécurité

La progression la plus sensible concerne la cybersécurité défensive. GPT-5.2-Codex affiche des performances nettement supérieures lors des évaluations de type Capture-the-Flag professionnel, avec des taux de réussite très au-dessus de GPT-5, GPT-5.1-Codex-Max ou o3.

OpenAI précise toutefois que le modèle ne franchit pas encore le seuil « High » de son Preparedness Framework, justifiant le maintien de garde-fous stricts.

Capture the Flag professionnels

Un exemple concret illustre cette montée en puissance : en décembre 2025, Andrew MacPherson, ingénieur sécurité chez Privy (filiale de Stripe), a utilisé GPT-5.1-Codex-Max via Codex CLI pour analyser la vulnérabilité React2Shell. En guidant l’IA à travers des workflows défensifs classiques (fuzzing, analyse des surfaces d’attaque, environnements de test), il a mis au jour trois nouvelles failles critiques dans React Server Components, rapidement corrigées après divulgation responsable.

Ce cas démontre le potentiel de ces modèles pour renforcer la sécurité des infrastructures critiques (banques, santé, télécoms), tout en soulignant leur caractère dual-use.

Une gestion prudente des risques d’usage détourné

Consciente du danger que représente une IA aussi puissante entre de mauvaises mains, OpenAI adopte une stratégie de déploiement contrôlé.

En parallèle du lancement public pour les abonnés payants ChatGPT, l’entreprise inaugure un programme « Trusted Access » sur invitation. Celui-ci s’adresse aux chercheurs et organisations en cybersécurité disposant d’un historique de divulgation responsable, afin de leur donner accès à des capacités avancées pour :

  • analyse de malwares,
  • red teaming,
  • tests de résilience d’infrastructures.

L’objectif : maximiser l’impact défensif tout en limitant les abus.

Un tournant stratégique pour OpenAI

GPT-5.2-Codex est désormais disponible sur l’ensemble des surfaces Codex : CLI, extensions IDE, web, mobile et revues de code GitHub. L’accès API est prévu dans les semaines à venir, après validation des derniers garde-fous de sécurité.

En interne, OpenAI utilise déjà ses propres modèles Codex pour développer et améliorer ses outils — une boucle vertueuse où l’IA contribue à construire l’IA.

Face à Gemini 3 et à l’accélération du secteur, OpenAI fait un choix clair : moins de promesses grand public, plus d’outils ultra-spécialisés pour les professionnels.

Une nouvelle ère pour le développement et la cyberdéfense

Avec GPT-5.2-Codex, l’IA ne se contente plus d’assister ponctuellement les développeurs. Elle devient un véritable agent logiciel, capable d’opérer sur des systèmes complexes, d’anticiper des failles et de sécuriser des architectures critiques.

Reste une question centrale : jusqu’où ces agents pourront-ils aller avant de redéfinir entièrement la frontière entre outil, collaborateur et risque systémique ?
GPT-5.2-Codex apporte une première réponse — impressionnante, mais encore prudemment encadrée.

Lire plus