fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Pinokio : l’appli qui transforme l’auto-hébergement IA en un seul clic

Pinokio : l'appli qui transforme l'auto-hébergement IA en un seul clic

L’IA n’a jamais été aussi accessible… du moins en théorie. Entre les modèles open source, les alternatives locales à ChatGPT, les outils de clonage vocal ou encore les générateurs 3D, on vit une période d’explosion créative. Mais, il reste un frein énorme : installer ces modèles IA est souvent une galère monumentale.

Environnement virtuel, dépendances, UI impossible à trouver, erreurs obscures… Résultat : beaucoup abandonnent avant même d’avoir testé quoi que ce soit.

C’est exactement là que Pinokio change la donne.

L’auto-hébergement IA est devenu incroyablement puissant… si vous arrivez à le faire tourner

Il y a quelques années, générer une vidéo grotesque de Will Smith mangeant des spaghettis demandait presque un data center.

Aujourd’hui, un PC gamer ou un Mac M 2/M 3 avec suffisamment de RAM unifiée suffit pour créer des images réalistes en quelques secondes, fabriquer vos propres voix de synthèse, générer des modèles 3D complets, ou même héberger votre ChatGPT privé, entièrement hors-ligne.

Les possibilités sont délirantes : assistant maison façon Alexa, livres lus par n’importe quelle voix, automatisations perso… Seule limite : votre matériel — et votre patience lors de l’installation.

Pinokio : l’outil gratuit et open source qui automatise tout

Pinokio est une application open source qui sert d’installateur universel pour modèles IA. Le principe est simple : pour chaque IA, une script recipe automatise absolument tout.

  • Installation
  • Téléchargement des dépendances
  • Configuration de l’UI
  • Lancement en un clic
  • Et même désinstallation propre

Screen 2025 11 14 at 11.28.19

Vous n’avez rien à configurer. Vous cliquez, Pinokio installe, et ça tourne. C’est littéralement l’App Store de l’IA locale.

Screen 2025 11 14 at 12.16.45

L’application Pinokio est supportée pour les principaux systèmes d’exploitation. Il existe une version pour Windows, macOS et Linux.

Explorer et installer des IA dans Pinokio

Quand l’app est lancée :

  • onglet Discover,
  • section Verified (fortement recommandée pour commencer).

Screen 2025 11 14 at 11.28.10

Chaque modèle propose un bouton : « One-Click Install with Pinokio ». Ensuite, laissez-faire : les modèles IA peuvent peser 10 à 40 Go, et il faut laisser du temps au script.

L’interface finale dépend du modèle : par exemple, OpenAudio (clonage vocal) ouvre son propre panneau UI automatiquement.

Screen 2025 11 14 at 13.20.14

Désinstaller proprement — ou corriger les installations ratées

Un bug ? Une install corrompue ? Le modèle ne vous convient plus ? Pinokio s’en occupe : bouton Delete, et les fichiers et dépendances sont supprimés proprement.

Pinokio est-il sûr ?

Comme tout projet communautaire : risque potentiel = oui. Mais, les scripts sont simples et faciles à auditer, la communauté est ultra-active, les modèles populaires sont surveillés, et un script malveillant serait repéré très vite.

En pratique, la communauté le considère comme raisonnablement sûr, surtout en utilisant les modèles vérifiés.

Attention : l’espace de stockage est votre futur ennemi

Les modèles modernes (Gemma, Qwen, Mistral, etc.) peuvent dépasser :

  • 8 Go (petits modèles)
  • 20–40 Go (moyens)
  • +100 Go (monstres 70B)

Si vous comptez héberger plusieurs IA, prévoyez un SSD NVMe de 2 To minimum, ou un dédié uniquement aux modèles. C’est probablement l’investissement le plus important dans une config IA locale.

Pinokio est ce qu’il manquait pour démocratiser l’IA locale

Grâce à Pinokio, tester un clone vocal, une IA type ChatGPT, un générateur vidéo, un modèle 3D, un outil d’automatisation IA ou encore un assistant maison devient enfin accessible à n’importe qui, même sans compétences techniques.

C’est peut-être l’outil qui fera réellement exploser l’auto-hébergement IA dans le grand public.

Lire plus
Intelligence Artificielle

ChatGPT devient social : OpenAI teste les groupes de discussion pour chats collaboratifs

ChatGPT devient social : OpenAI teste les groupes de discussion pour chats collaboratifs

OpenAI vient de franchir une nouvelle étape dans l’évolution de ChatGPT. L’entreprise a commencé à déployer, dans quelques régions comme le Japon ou la Corée du Sud, une fonctionnalité que les utilisateurs réclamaient depuis longtemps : les discussions de groupe.

L’idée est simple mais ambitieuse : permettre à plusieurs personnes — et à ChatGPT — d’échanger dans une même conversation, un peu comme Meta AI dans un groupe WhatsApp.

Concrètement, ChatGPT devient non seulement un assistant, mais aussi un membre actif d’un espace collaboratif, capable d’intervenir, réagir, compléter, ou rester discret selon le contexte.

Comment créer un groupe dans ChatGPT ?

Le fonctionnement est pensé pour être aussi intuitif que dans une messagerie classique. Il suffit d’ouvrir un chat, puis de toucher l’icône représentant des personnes en haut à droite pour créer ou rejoindre un groupe. Lors de la première utilisation, ChatGPT te demandera de configurer un mini-profil avec ton nom, ton pseudo et une photo.

Tu peux ensuite partager un lien d’invitation, qui permet d’ajouter jusqu’à 20 participants. Et comme dans une vraie conversation de groupe, n’importe quel membre peut partager ce lien à son tour — sauf pour enlever le créateur, seul intouchable du groupe.

Group Chat Blog 1920x1080 1 scaled

Un ChatGPT plus « social » que jamais

Dans ces conversations à plusieurs, les réponses sont générées via GPT-5.1 Auto, c’est-à-dire que ChatGPT choisit automatiquement le modèle optimal selon la question et selon le niveau d’abonnement des personnes impliquées (Free, Go, Plus ou Pro).

Mais ce n’est pas tout : OpenAI a entraîné ChatGPT à adopter de nouveaux comportements sociaux. Le bot comprend désormais mieux le rythme d’une discussion collective et peut réagir spontanément avec un emoji, décider de ne rien dire s’il n’a rien à ajouter, intervenir quand on le sollicite simplement en écrivant « ChatGPT », et suivre les enchaînements de messages comme un membre normal.

Bref, il se fond dans le groupe sans monopoliser la parole. Une manière subtile de rendre l’expérience plus naturelle — parfois même troublante.

La confidentialité reste sous contrôle

OpenAI précise que la mémoire personnelle de ChatGPT n’est jamais utilisée dans un groupe. De plus, l’IA ne crée aucun nouveau souvenir à partir de ces conversations communes.

Chaque groupe peut également définir des instructions personnalisées pour déterminer comment ChatGPT doit se comporter dans ce chat spécifique : plus concis, plus discret, plus expert… à toi de choisir.

Disponibilité

La phase pilote démarre progressivement sur mobile et Web, pour tous les utilisateurs connectés (Free, Go, Plus ou Pro) au Japon, en Nouvelle-Zélande, en Corée du Sud et à Taïwan.

OpenAI présente cette nouveauté comme le début d’une transformation plus profonde : faire de ChatGPT non plus un outil individuel, mais un espace de collaboration partagé.

Si l’essai est concluant, l’entreprise promet d’étendre cette fonctionnalité à d’autres régions et de l’enrichir au fil des retours des premiers testeurs.

Lire plus
Intelligence Artificielle

NotebookLM intègre Deep Research pour des rapports complets

NotebookLM intègre Deep Research pour des rapports complets

Google continue d’unifier ses outils d’IA, et, cette fois, c’est NotebookLM qui profite du gros cerveau de Gemini : Deep Research. Dans la semaine, tous les utilisateurs pourront accéder à ce moteur de recherche autonome intégré directement dans leurs carnets.

Cette évolution transforme NotebookLM en bien plus qu’un assistant de prise de notes : c’est désormais un véritable chercheur virtuel capable d’explorer le Web, d’analyser des sources complexes, de structurer un rapport et de le lier à vos documents existants… sans que vous ayez à quitter votre workflow.

Deep Research s’intègre à NotebookLM : du simple résumé au rapport complet

NotebookLM pouvait déjà résumer, analyser et relier vos documents. Mais, avec Deep Research, il franchit une nouvelle étape : il navigue sur le Web pour vous, comme le fait déjà Gemini dans Gmail, Drive ou Google Chat.

Deux modes de recherche sont désormais proposés :

  1. Fast Research—pour aller vite
    • Recherche immédiate
    • Résultats courts et exploités rapidement
    • Idéal pour s’orienter ou débloquer une question simple
  2. Deep Research—pour un dossier complet
    • Analyse approfondie
    • Recherche de sources « de haute qualité » (articles, papiers académiques, pages web)
    • Génération d’un plan de recherche avant exécution
    • Rapport final entièrement sourcé
    • Possibilité d’ajouter des documents pendant que le rapport se construit en arrière-plan

Résultat : vous pouvez construire une véritable base de connaissances autour d’un sujet, sans jongler entre onglets, PDFs et moteurs de recherche.

NotebookLM devient compatible avec davantage de fichiers

Google élargit aussi le type de documents intégrables :

  • Google Sheets—parfait pour extraire automatiquement statistiques et tendances
  • Fichiers Drive via simple URL (PDF, Docs…)
  • Microsoft Word (.docx)
  • PDFs Drive sans import manuel

Ces formats s’ajoutent à l’existant, et permettent enfin d’ingérer des corpus mixtes (textes + tableau + URL + documents techniques).

NotebookLM évolue rapidement : vidéos, podcast IA, mobile… et maintenant recherche web

Depuis fin 2023, Google transforme NotebookLM en plateforme de recherche créative :

L’ambition de Google est claire : faire de NotebookLM un espace où l’on peut centraliser, analyser et synthétiser tout type de contenu — personnel, professionnel ou scolaire.

Tu comptes l’utiliser ? Ce nouveau NotebookLM tend à devenir un assistant de recherche complet, bien plus avancé que la simple prise de notes augmentée.

Curieux d’avoir ton avis : c’est un outil qui te ferait gagner du temps, ou un pas de plus vers une IA trop présente dans nos flux de travail ?

Lire plus
Intelligence Artificielle

Anthropic investit 50 milliards de dollars dans l’infrastructure IA américaine

Anthropic investit 50 milliards de dollars dans l'infrastructure IA américaine

Anthropic a annoncé un plan d’investissement colossal de 50 milliards de dollars pour renforcer l’infrastructure informatique américaine.

Ce projet, réalisé en partenariat avec la plateforme cloud Fluidstack, vise à construire plusieurs centres de données à travers le pays, avec des sites déjà confirmés au Texas et à New York — et « d’autres à venir ».

Anthropic: Des datacenters pour soutenir la croissance de Claude

Selon Anthropic, les nouveaux centres entreront en service progressivement à partir de 2026 et devraient créer environ 800 emplois directs.

L’objectif est double : répondre à la demande croissante pour son assistant IA Claude, et soutenir la recherche de pointe dans le domaine de l’intelligence artificielle.

« Cette expansion est essentielle pour maintenir nos recherches à la frontière du possible et garantir la performance et la sécurité de Claude à long terme », indique la société dans son communiqué.

Un investissement stratégique aligné avec la politique technologique américaine

Anthropic affirme que ce projet s’inscrit dans le cadre de l’AI Action Plan du gouvernement Trump, qui vise à préserver le leadership technologique des États-Unis en matière d’intelligence artificielle et à renforcer les capacités domestiques dans ce secteur clé.

Ces nouveaux datacenters seront construits sur le modèle de centres énergétiquement efficaces et modulables, capables d’héberger les architectures d’IA les plus avancées.

Une course à l’infrastructure IA sans précédent

Anthropic rejoint ainsi la liste des géants technologiques qui misent massivement sur l’infrastructure IA :

  • OpenAI et SoftBank ont annoncé en janvier leur projet « Stargate », d’une valeur estimée à 500 milliards de dollars, avec un premier site au Texas.
  • Meta, de son côté, a déjà engagé 600 milliards de dollars dans le développement d’infrastructures et de centres de données aux États-Unis.

Cette course à la puissance de calcul illustre la dépendance croissante des modèles d’IA générative à des ressources matérielles massives et spécialisées.

Une réponse à la demande explosive en puissance de calcul

Anthropic souligne que cet investissement « est nécessaire pour répondre à la demande croissante » générée par Claude — son modèle de langage rival de ChatGPT — utilisé par des millions d’entreprises et de particuliers dans le monde.

Les nouveaux centres de données permettront d’augmenter la capacité de calcul pour l’entraînement et l’inférence des modèles, de réduire la latence pour les utilisateurs, et d’assurer une meilleure souveraineté technologique pour ses clients américains.

Perspective

Cette annonce confirme que la nouvelle bataille de l’IA se joue sur le terrain de l’infrastructure. Alors que les modèles deviennent plus puissants et plus coûteux à exécuter, la maîtrise des centres de calcul haute performance devient un atout stratégique national.

Avec ce plan à 50 milliards de dollars, Anthropic se positionne non seulement comme un acteur majeur de l’IA, mais aussi comme un pilier de la souveraineté numérique américaine face à la compétition mondiale.

Lire plus
Intelligence Artificielle

OpenAI lance GPT-5.1 : une IA plus rapide et plus chaleureuse pour tous les utilisateurs

OpenAI lance GPT-5.1 : une IA plus rapide et plus chaleureuse pour tous les utilisateurs

OpenAI lance aujourd’hui GPT-5.1, la nouvelle évolution de son modèle phare sorti en août dernier.

Cette mise à jour apporte deux déclinaisons principales — GPT-5.1 Instant et GPT-5.1 Thinking — ainsi qu’une série d’améliorations centrées sur la fluidité des échanges, la rapidité des réponses et la personnalisation du ton.

GPT-5.1 : Deux nouveaux modèles pour deux usages

OpenAI décrit GPT-5.1 comme une mise à niveau directe de GPT-5, entraînée sur la même architecture mais optimisée pour mieux comprendre, raisonner et communiquer.

  • GPT-5.1 Instant : conçu pour les interactions rapides. OpenAI le présente comme « plus chaleureux, plus intelligent et meilleur pour suivre les instructions ». Il adopte un ton plus naturel et répond plus vite sans sacrifier la précision.
  • GPT-5.1 Thinking: pensé pour les tâches complexes. Il adapte sa « profondeur de raisonnement » selon la complexité d’une requête — rapide pour les demandes simples, persévérant et réfléchi pour les analyses longues.

Les requêtes des utilisateurs seront automatiquement orientées vers le modèle le plus approprié grâce au système d’auto-sélection (« GPT-5.1 Auto »).

Des conversations plus naturelles et personnalisées

L’un des axes majeurs de GPT-5.1 est la personnalisation du ton. OpenAI ajoute de nouveaux « presets » de personnalité, permettant d’ajuster le style du modèle selon le type de conversation. Les options désormais disponibles sont : Par défaut, Professionnel, Chaleureux, Spontané, Décalé, Efficace, Geek et Cynique.

« Avec plus de 800 millions d’utilisateurs de ChatGPT, nous avons dépassé le stade du modèle unique pour tous, » explique Fidji Simo, CEO d’OpenAI Applications.

Les utilisateurs peuvent ainsi choisir entre un ton professionnel, direct, amical ou humoristique. OpenAI teste également un réglage plus fin depuis les paramètres, permettant de modifier la chaleur, la concision ou l’usage des emojis dans les réponses.

Une IA plus intelligente dans la manière de raisonner

GPT-5.1 marque une évolution dans la gestion des ressources cognitives du modèle. GPT-5.1 Instant utilise un raisonnement adaptatif, choisissant automatiquement s’il doit « réfléchir » davantage à une question. GPT-5.1 Thinking, de son côté, ajuste la puissance de calcul allouée selon la complexité du sujet.

Selon OpenAI, cela permet à Thinking d’être plus rapide que GPT-5 sur les tâches simples, tout en conservant des performances accrues sur les problèmes exigeant plusieurs étapes de raisonnement.

Les réponses sont aussi plus claires, avec moins de jargon et de formulations ambiguës, un point salué par les utilisateurs professionnels.

Une meilleure fusion entre QI et QE

OpenAI insiste sur l’idée que GPT-5.1 ne se contente pas d’être plus « intelligent », mais aussi plus agréable à utiliser. « Les gens veulent une IA qui comprenne aussi bien leurs émotions que leurs questions », souligne Simo. « GPT-5.1 apporte un meilleur équilibre entre le QI et le QE ».

GPT 5.1 spends less time on easy tasks and more time on hard tasks

Les premières évaluations internes montrent que le modèle adopte un ton plus naturel et plus joueur, tout en maintenant la rigueur et la précision attendues d’un assistant professionnel.

Déploiement progressif et compatibilité

Les nouveaux modèles sont disponibles dès aujourd’hui pour les utilisateurs ChatGPT Pro, Plus, Go et Business, ainsi que pour les comptes gratuits. Les plans Enterprise et Edu bénéficient d’un accès anticipé de sept jours avant que GPT-5.1 ne devienne le modèle par défaut.

GPT-5.1 Instant et Thinking sont également accessibles via l’API, avec leurs capacités de raisonnement respectives.

Les anciennes versions de GPT-5 resteront disponibles pendant trois mois via le menu « Anciens modèles » avant d’être retirées. Cette période de transition fait partie de la nouvelle stratégie d’OpenAI : « Chaque mise à jour majeure bénéficiera désormais d’un délai clair pour évaluation et retours des utilisateurs ».

Redorer l’image de GPT-5 après un lancement mitigé

Le lancement de GPT-5 en août avait suscité des critiques : les utilisateurs attendaient un bond de performances significatif, mais avaient jugé les améliorations « trop subtiles ». Face à la pression, OpenAI avait même dû réintroduire GPT-4o en option dès le lendemain du lancement.

Avec GPT-5.1, la société espère rétablir la confiance en proposant une IA plus fluide, plus vivante et mieux adaptée aux besoins concrets.

Un contexte concurrentiel intense

Cette mise à jour intervient alors que Microsoft, partenaire stratégique d’OpenAI, explore de plus en plus les modèles d’Anthropic, désormais utilisés dans Copilot Researcher, GitHub Copilot ou encore Office Agent. OpenAI doit donc montrer que son écosystème reste à la pointe de la performance et de l’expérience utilisateur.

Par ailleurs, l’annonce de GPT-5.1 suit de près celle de ChatGPT Atlas, le nouveau navigateur intelligent de l’entreprise, qui permet à l’IA d’effectuer des actions en ligne grâce à son « Agent Mode ».

GPT-5.1 n’est pas une révolution technique, mais une évolution intelligente : plus rapide, plus personnalisable, et surtout plus humaine dans ses échanges.

En intégrant davantage d’émotion, de ton et d’adaptabilité, OpenAI transforme ChatGPT d’un simple assistant textuel en véritable compagnon de dialogue.

Reste à voir si ces améliorations seront suffisantes pour rattraper l’avance d’Anthropic et raviver l’enthousiasme autour de GPT-5.

Lire plus
Intelligence Artificielle

OpenAI prépare GPT-5.1 pour une IA plus autonome et créative

OpenAI prépare GPT-5.1 pour une IA plus autonome et créative

Depuis son lancement, GPT-5 a largement tenu ses promesses. OpenAI vantait une meilleure logique, une personnalité plus stable et une flexibilité multimodale inédite — et, dans l’ensemble, le modèle a effectivement marqué un tournant dans l’évolution des assistants IA. Mais l’innovation ne s’arrête jamais : selon plusieurs fuites récentes, une version GPT-5.1 serait déjà en préparation, avec des améliorations notables à venir.

Un tweet du compte @TestingCatalog a notamment révélé la présence du terme « gpt-5-1-thinking » dans le code de ChatGPT, laissant penser que son déploiement est imminent.

Voici les cinq grandes attentes autour de cette version 5.1.

1. Une mémoire vraiment intelligente

La mémoire de ChatGPT a toujours été un terrain d’expérimentation prometteur… mais aussi frustrant. GPT-5 peut gérer des conversations d’une longueur impressionnante — il peut littéralement absorber un roman entier — mais sa mémoire à long terme reste inconstante.

GPT-5.1 pourrait enfin offrir une mémoire contextuelle plus fine, capable de se souvenir des informations utiles, d’oublier celles qui ne le sont plus et de mieux comprendre vos préférences au fil du temps.

L’idée : une IA qui se souvient non seulement de vos projets, mais aussi de la manière dont vous aimez qu’elle interagisse avec vous — sans avoir à le lui rappeler sans cesse.

2. Une multimodalité plus créative

GPT-5 sait déjà analyser du texte, des images et de l’audio, mais chaque mode fonctionne encore de manière assez cloisonnée. GPT-5.1 pourrait aller plus loin en fusionnant réellement ces différents formats.

Au lieu de simplement décrire une photo ou résumer un graphique, la nouvelle version pourrait interpréter l’intention derrière les contenus. Par exemple, vous montrer une photo de votre salon et lui demander : « Comment puis-je réorganiser cet espace pour le rendre plus lumineux et plus harmonieux ? ».

GPT-5.1 ne se contenterait pas de reconnaître les objets, il proposerait un feedback créatif, cohérent et personnalisé — un véritable mélange entre vision, style et compréhension du contexte.

3. Des réponses plus fiables et vérifiables

Les progrès en matière de précision factuelle sont indéniables depuis GPT-4, et GPT-5 a encore réduit le nombre « d’hallucinations ». Mais la prochaine étape est la transparence.

GPT-5.1 pourrait introduire un mode « fact-checker intégré » : chaque affirmation serait accompagnée de sources vérifiables, et chaque donnée chiffrée pourrait être expliquée ou justifiée. Ce serait une IA qui sait quand elle ne sait pas, et qui indique ses limites plutôt que d’inventer.

Autrement dit, GPT-5.1 ne viserait pas seulement la cohérence linguistique, mais la crédibilité intellectuelle.

4. Une vraie automatisation

Jusqu’ici, ChatGPT raisonne bien, mais il faut encore le guider pas à pas. GPT-5.1 pourrait franchir un cap en matière d’autonomie d’action.

On imagine un assistant capable non seulement de planifier une tâche, mais aussi de la réaliser intégralement en utilisant les bons outils et vos préférences. Par exemple : « Organise ma semaine de travail en fonction de mes réunions, de mes moments de sport et de mes plages de concentration ».

Le modèle ne se contenterait pas de rédiger un plan : il connecterait votre calendrier, vos notes et vos mails, et exécuterait la tâche sans supervision constante. Ce serait un pas décisif vers de véritables agents IA autonomes.

5. Une personnalité plus cohérente et personnalisée

Si vous utilisez ChatGPT régulièrement, vous savez qu’il s’adapte bien au ton demandé… mais uniquement si vous le lui rappelez. GPT-5.1 pourrait introduire une cohérence de style durable, capable de retenir vos préférences d’écriture et de ton.

Vous aimez les réponses concises ? Les touches d’humour ? Les formulations professionnelles ? GPT-5.1 pourrait comprendre ce que vous voulez dire par « fais court » (200 mots) ou « fais-le plus vivant » sans qu’il soit nécessaire de le préciser à chaque fois.

Ce serait une IA capable de développer une identité linguistique adaptée à chaque utilisateur, un peu comme un rédacteur attitré qui connaît votre style.

Vers un ChatGPT plus fluide et plus naturel

Pris séparément, ces progrès peuvent sembler modestes. Mais combinés, ils marquent une évolution majeure : avec GPT-5.1, l’expérience d’utilisation deviendrait plus fluide, intuitive et transparente.

L’objectif n’est plus seulement d’avoir une IA puissante, mais une IA qui comprend comment vous travaillez, pense avec vous et s’adapte à votre manière d’interagir.

En somme, GPT-5 a démontré les capacités d’un modèle multimodal performant. GPT-5.1 pourrait être celui qui fait oublier qu’il s’agit d’un modèle — en devenant un partenaire de pensée et d’action à part entière.

Lire plus
Intelligence Artificielle

OpenAI se tourne vers la santé : un assistant médical intelligent pour unifier les dossiers de santé

OpenAI se tourne vers la santé : un assistant médical intelligent pour unifier les dossiers de santé

OpenAI, la société à l’origine de ChatGPT, s’apprête à aborder l’un des plus grands défis du secteur de la santé : le dossier médical personnel universel. Selon un rapport exclusif de Business Insider, OpenAI travaille sur des applications de santé grand public, dont un assistant de santé alimenté par l’IA générative capable d’intégrer les dossiers médicaux d’un utilisateur.

Avec cette initiative, OpenAI espère réussir là où Google, Amazon et Microsoft ont échoué depuis plus d’une décennie, tout en profitant de son immense base d’utilisateurs — plus de 800 millions de personnes utilisent déjà ChatGPT, dont une part importante pour des questions de santé.

Un vieux rêve de la tech : le dossier de santé universel

L’idée d’un dossier médical numérique centralisé, regroupant les antécédents, résultats d’examens et données de santé d’un individu, séduit la Silicon Valley depuis plus de 15 ans.

Mais, les tentatives passées ont échoué, freinées par :

  • Les préoccupations liées à la vie privée,
  • Les problèmes d’interopérabilité entre systèmes médicaux,
  • Et la méfiance des utilisateurs à partager des données sensibles.

OpenAI mise sur sa force : une interface conversationnelle naturelle, accessible et familière, pour simplifier la relation entre l’utilisateur et ses données médicales.

Les échecs de Google, Amazon et Microsoft : un avertissement

Google Health (2008–2012) a tenté d’être un service de centralisation des données de santé, qui a dû fermer après un tollé sur la confidentialité. Microsoft a lancé HealthVault (2007–2019), et promettait un stockage sécurisé, mais n’a jamais trouvé son public. Enfin, Amazon Care & Halo (2019–2023), l’un stoppé, l’autre critiqué pour ses pratiques de collecte de données.

Ces échecs montrent la difficulté d’innover dans un domaine régi par des lois strictes comme le HIPAA américain, tout en gagnant la confiance du public.

Une équipe santé de haut niveau chez OpenAI

Pour réussir là où d’autres ont échoué, OpenAI recrute des figures clés du secteur :

  • Nate Gross, cofondateur de Doximity, a été nommé Head of Healthcare Strategy.
  • D’autres anciens cadres de Meta et Instagram ont rejoint l’entreprise pour mélanger engagement social et innovation médicale.

Lors du salon HLTH 2025, Nate Gross a évoqué le potentiel de l’IA dans la santé, notamment via des assistants personnels de suivi capables d’analyser en temps réel les données médicales et de proposer des recommandations personnalisées.

Un enjeu majeur : la confidentialité des données

Mais, cette ambition s’accompagne d’un défi colossal : protéger les informations médicales personnelles. Des voix s’élèvent déjà sur X, accusant ce type de projet de « menacer le secret médical » ou de « permettre aux assureurs d’exploiter les données pour refuser des soins ».

OpenAI tente de rassurer : « ChatGPT peut fournir des informations générales de santé, mais ne donnera jamais de conseils médicaux personnalisés », précise un porte-parole cité par Business Insider.

Les experts soulignent que la réussite dépendra de la transparence du traitement des données, et du respect de réglementations comme le HIPAA et le HITRUST.

L’interopérabilité : le casse-tête que l’IA peut résoudre

L’un des obstacles majeurs des systèmes de santé numériques est l’interopérabilité, c’est-à-dire la capacité de différents systèmes (hôpitaux, laboratoires, assureurs) à communiquer entre eux.

Là encore, OpenAI pourrait avoir un avantage :

  • Ses modèles Gemini et GPT-5 savent déjà analyser, classer et structurer des données complexes provenant de multiples sources.
  • ChatGPT pourrait unifier les informations issues des dossiers électroniques (EHR), des montres connectées, et des rapports médicaux, en les rendant accessibles sous forme de dialogue.

Ce que pourrait faire l’assistant santé d’OpenAI

Selon les sources internes, l’assistant analyserait les résultats d’examens et tendances de santé, il proposerait des rappels de suivi, des explications de symptômes ou de traitements, et il pourrait s’intégrer à des applications existantes (Apple Health, Fitbit, etc.) pour enrichir ses analyses.

En clair : un conseiller santé personnel et conversationnel, capable de relier toutes vos données sans jamais quitter votre téléphone.

Un impact potentiel colossal sur l’écosystème médical

S’il réussit, OpenAI pourrait bouleverser :

  • Les géants des dossiers médicaux comme Epic Systems et Cerner,
  • Les assureurs qui dépensent des milliards en gestion de données,
  • Et les startups santé qui cherchent à simplifier le suivi patient.

Les investisseurs y voient une opportunité historique : un « moment iPhone pour la santé numérique », selon StockTwits, à condition que la confiance des utilisateurs soit acquise.

Pour réussir, OpenAI devra travailler main dans la main avec les régulateurs et impliquer les professionnels de santé afin d’assurer une supervision humaine des recommandations.

OpenAI ne veut pas créer un simple « dossier médical numérique », mais une interface intelligente entre l’humain et son bien-être. Son futur assistant santé pourrait transformer ka prévention, en anticipant les risques, la compréhension, en vulgarisant les données médicales, et la relation patient-médecin, en la rendant plus fluide et informée.

Mais avant cela, OpenAI devra prouver qu’elle peut innover sans trahir la confiance, dans un secteur où la vie privée n’est pas une option, mais une promesse.

Lire plus
Intelligence Artificielle

Google lance Private AI Compute pour garantir la confidentialité de Gemini Cloud

Google lance Private AI Compute pour garantir la confidentialité de Gemini Cloud

Google vient d’annoncer le lancement de Private AI Compute, une nouvelle infrastructure cloud pensée pour offrir la puissance des modèles Gemini tout en garantissant la confidentialité des données personnelles.

L’objectif : combiner la performance du cloud avec la sécurité du traitement local sur l’appareil, un équilibre longtemps considéré comme impossible.

L’équilibre entre puissance et confidentialité

Jusqu’ici, Google vantait le traitement on-device — c’est-à-dire directement sur le téléphone — comme la meilleure manière de protéger la vie privée. Les Pixels, par exemple, utilisent déjà les modèles Gemini Nano pour gérer certaines tâches d’IA sans jamais envoyer les données sur Internet.

Mais, ces modèles locaux ont leurs limites : les calculs complexes de raisonnement, de planification ou de génération multimodale exigent bien plus de puissance de calcul que ce que peuvent offrir les puces intégrées aux smartphones.

C’est là qu’intervient Private AI Compute. Cette nouvelle plateforme permet de déléguer certaines tâches d’IA au cloud, tout en garantissant que les données traitées restent inaccessibles à quiconque — y compris à Google. « Nous voulons offrir le meilleur des deux mondes : la puissance du cloud et la confidentialité du local », résume Google.

Comment fonctionne Private AI Compute ?

Le système repose sur une architecture intégrée appelée Google Stack, qui combine :

  • Les TPU (Tensor Processing Units) de Google, spécialement conçus pour le calcul d’IA,
  • Une couche de sécurité matérielle baptisée Titanium Intelligence Enclaves (TIE),
  • Et un environnement scellé matériellement, fondé sur la technologie Trusted Execution Environment (TEE) d’AMD, qui isole et chiffre la mémoire pendant le traitement.

Concrètement, votre appareil établit une connexion chiffrée vers ce « nuage sécurisé ». Les modèles Gemini y exécutent les tâches d’IA les plus lourdes (analyse contextuelle, génération de texte, résumés, suggestions proactives…) sans que Google ni aucun autre acteur ne puisse accéder aux données utilisées.

Une attestation à distance certifie en temps réel que les serveurs utilisés sont bien ceux du système sécurisé, empêchant toute interception.

Selon une évaluation indépendante menée par NCC Group, ce système respecte les normes les plus strictes en matière de confidentialité, équivalentes à celles du traitement local.

Applications concrètes sur les appareils Pixel

Le déploiement de Private AI Compute débute avec deux fonctionnalités phares des Pixel 10 :

  • Magic Cue: Ce système de suggestions contextuelles deviendra plus intelligent et plus réactif, capable d’anticiper vos besoins en s’appuyant sur vos e-mails, événements de calendrier ou messages — toujours de façon sécurisée.
  • Enregistreur vocal : L’application de transcription audio pourra désormais résumer automatiquement vos enregistrements dans davantage de langues, grâce à la puissance des modèles Gemini exécutés via Private AI Compute.

Ces fonctions marquent les premiers cas d’usage, mais Google annonce déjà que d’autres outils suivront, notamment dans la recherche, la messagerie et la planification personnelle.

Une approche hybride : local + cloud sécurisé

Google défend une stratégie hybride :

  • Les tâches rapides et simples continueront d’être gérées en local, grâce aux NPU (neural processing units) embarqués.
  • Les tâches complexes seront déléguées à Private AI Compute, pour bénéficier de la pleine puissance des modèles Gemini Cloud, tout en maintenant les mêmes garanties de confidentialité.

Cette approche permet de dépasser les limites matérielles des smartphones tout en respectant la vie privée des utilisateurs.

Une riposte directe à Apple

Difficile de ne pas voir dans cette annonce un écho à Private Cloud Compute, le système qu’Apple a présenté plus tôt cette année dans le cadre d’Apple Intelligence. Les deux entreprises adoptent une philosophie similaire : déplacer les tâches d’IA vers un cloud isolé, matériellement sécurisé, et inviolable — même pour l’hébergeur lui-même.

La différence principale ? Google mise sur ses propres TPU et sur une infrastructure logicielle unifiée, déjà éprouvée par des services comme Gmail et Search, pour offrir une puissance de calcul nettement supérieure.

Vers une nouvelle ère de l’IA privée

En introduisant Private AI Compute, Google veut poser les bases d’une intelligence artificielle réellement personnelle : une IA capable d’analyser votre contexte, d’anticiper vos besoins et de vous assister de manière fluide, sans jamais exposer vos données.

« C’est le début d’une nouvelle génération d’expériences d’IA utiles, alliant puissance du cloud et confidentialité personnelle », conclut Google dans son communiqué.

Avec Private AI Compute, Google redéfinit la frontière entre le cloud et l’appareil personnel. Cette approche hybride marque une étape majeure vers une IA plus puissante, proactive et respectueuse de la vie privée — un terrain sur lequel les géants de la tech livreront sans doute leur prochaine grande bataille.

Lire plus
Intelligence Artificielle

Claude d’Anthropic : maîtriser l’art du prompt pour exploiter pleinement l’IA

Claude d’Anthropic : maîtriser l’art du prompt pour exploiter pleinement l’IA

À l’ère de l’intelligence artificielle, une nouvelle compétence technique émerge comme incontournable : l’ingénierie de prompt. Que ce soit pour générer du texte, du code ou de l’analyse, savoir dialoguer efficacement avec une IA comme Claude, conçue par Anthropic, peut faire toute la différence entre un résultat approximatif et une réponse d’une précision redoutable.

Anthropic a récemment publié un guide complet dédié à l’art du prompt, afin d’aider ses utilisateurs à exploiter tout le potentiel de son IA. Voici ce qu’il faut retenir pour apprendre à « parler IA » — et faire de Claude votre meilleur allié au quotidien.

Adopter le bon état d’esprit : Claude est brillant… mais oublie tout

Avant même de taper un mot, il faut changer de perspective, explique Anthropic. Claude doit être imaginé comme un employé génial, mais tout juste embauché… et amnésique. Il est rapide, compétent, mais ne garde aucune mémoire entre les sessions et applique vos consignes à la lettre.

Pour tirer le meilleur parti de ses capacités, il faut poser clairement le cadre :

  • Quel est votre objectif ?
  • À qui est destinée la réponse ?
  • Quel résultat attendez-vous exactement ?

Heureusement, Claude propose même un générateur de prompt intégré, utile pour structurer ses premières demandes.

Soyez explicite, structuré et précis

Un bon prompt, c’est un prompt clair, sans ambiguïté. L’IA ne devinera ni le ton, ni l’objectif de votre demande si vous ne le spécifiez pas.

Anthropic recommande de préciser la cible du contenu (ex. : « des lycéens », « des cadres dirigeants »), d’indiquer l’intention : informer, convaincre, divertir… et d’utiliser des étapes numérotées ou des consignes en liste, pour guider Claude étape par étape.

prompt improver modal

Donnez des exemples concrets

L’un des meilleurs moyens d’obtenir une réponse fidèle à vos attentes consiste à montrer ce que vous attendez. C’est ce qu’on appelle le multi-shot prompting.

Vous demandez une introduction de blog, un résumé financier ou un extrait de code ? Fournissez deux ou trois exemples bien construits. Cela permet à Claude d’imiter le ton, le style et la structure attendus. Cela réduit aussi les erreurs et renforce la cohérence des réponses.

Encouragez la réflexion pas à pas

L’autre astuce puissante est appelée Chain-of-Thought prompting. Elle consiste à demander à Claude de raisonner étape par étape, plutôt que de se précipiter vers une réponse finale.

Ce mode de pensée progressif améliore la logique, la justesse et la rigueur des réponses. C’est particulièrement utile pour des tâches complexes comme l’analyse de données, la résolution de problèmes, et la planification ou le débogage.

Attribuez un rôle à Claude

Un prompt gagne en efficacité lorsqu’on définit un rôle à l’IA. Cette technique, connue sous le nom de « role prompting », permet d’adapter immédiatement le style, la terminologie et le niveau de langage à la situation.

Par exemple :

  • « Tu es un rédacteur SEO »,
  • « Agis comme un coach sportif »,
  • « Tu es un artiste numérique spécialisé dans le pixel art ».

Claude saura s’adapter à l’univers et aux attentes du métier désigné.

Réduire les hallucinations : privilégier la vérification

Comme tous les modèles de langage, Claude peut inventer des informations, ce qu’on appelle des hallucinations.

Pour limiter ce phénomène :

  • autorisez Claude à répondre « Je ne sais pas » en cas de doute,
  • demandez-lui de se relire et se corriger une fois la réponse générée,
  • exigez des sources, liens ou citations pour appuyer ses affirmations.

Ces vérifications croisées sont cruciales si vous utilisez Claude pour des contenus techniques, juridiques ou journalistiques.

Limites d’utilisation : Claude Code sous pression

Bien que l’ingénierie de prompt s’applique à tous les cas d’usage, il est important de noter que Claude Code, la version spécialisée pour les développeurs, est actuellement soumise à des restrictions d’usage de plus en plus strictes. Certains utilisateurs signalent que les quotas ne sont plus fiables et que des blocages inattendus peuvent survenir.

Savoir rédiger un bon prompt, ce n’est pas un détail. C’est la clé pour exploiter toute la richesse d’une IA comme Claude. Ce n’est ni de la magie ni une compétence réservée aux experts. Il s’agit d’une méthodologie, que chacun peut apprendre avec un peu de pratique.

Comme l’explique Anthropic, ce n’est pas à l’IA de deviner ce que vous voulez. C’est à vous de lui expliquer avec précision, structure et logique. L’intelligence artificielle devient alors un véritable outil de productivité, de création et d’analyse — à condition de bien savoir lui parler.

Lire plus
Intelligence Artificielle

Google AI Studio lance de nouveaux outils de journalisation et de gestion de datasets

Google AI Studio lance de nouveaux outils de journalisation et de gestion de datasets

Google vient d’annoncer une mise à jour majeure de Google AI Studio, introduisant de nouveaux outils de journalisation et de gestion de datasets destinés aux développeurs travaillant avec l’API Gemini.

Ces nouveautés visent à faciliter l’analyse de la qualité des réponses de l’IA, à renforcer la traçabilité du comportement des modèles et à simplifier le débogage des applications.

Une configuration simplifiée et un suivi automatique

Les développeurs peuvent désormais activer la journalisation directement depuis le tableau de bord AI Studio, via un simple bouton « Activer la journalisation ». Une fois activée, toutes les requêtes GenerateContent API effectuées depuis un projet Cloud avec facturation activée sont automatiquement enregistrées — qu’elles aboutissent ou non.

sales assist applet logs 1.width

Avantages principaux :

  • Activation en un clic, sans modification du code source
  • Journalisation automatique de toutes les requêtes API (réussies ou échouées)
  • Filtrage par codes de réponse pour identifier rapidement les erreurs
  • Détails complets sur les entrées, sorties et outils utilisés par l’API

Bonne nouvelle : La fonction est gratuite et disponible dans toutes les régions où l’API Gemini est opérationnelle.

Jeux de données exportables pour analyse et évaluation

Google introduit également la possibilité d’exporter les journaux sous forme de datasets, afin de faciliter l’évaluation hors ligne des performances des modèles.

Les développeurs peuvent télécharger ces jeux de données au format CSV ou JSONL, puis les analyser pour évaluer la cohérence et la qualité des réponses dans le temps.

Cas d’usage clés :

  • Détection des fluctuations de qualité ou de performance du modèle
  • Création d’une base de référence reproductible pour les tests
  • Utilisation avec le Gemini Batch API pour les évaluations en masse
  • Ajustement et suivi des prompts au fil du développement
  • Accès à un Datasets Cookbook officiel pour les bonnes pratiques

Ces jeux de données permettent de bâtir des benchmarks internes fiables pour mesurer l’impact des optimisations de prompts ou des mises à jour de modèles.

Partage optionnel des datasets avec Google

Google donne aussi aux développeurs la possibilité de partager volontairement leurs jeux de données afin de contribuer à l’amélioration continue des modèles Gemini.

Principaux points :

  • Les datasets peuvent être partagés directement depuis AI Studio
  • Ces données aident Google à améliorer la qualité et la cohérence globale des modèles
  • Les contributions peuvent servir à affiner la formation et les performances des futurs modèles Gemini et produits IA de Google

Cette approche s’inscrit dans une logique de collaboration ouverte, permettant aux développeurs d’influencer concrètement l’évolution de l’écosystème Gemini.

Disponibilité

Les nouvelles fonctionnalités Logs & Datasets sont déjà disponibles dans le mode Build de Google AI Studio. Une fois la journalisation activée, les développeurs peuvent suivre l’ensemble du cycle de vie de leurs applications — du prototype à la production — avec un niveau inédit de visibilité sur les comportements du modèle.

Google fait de l’observabilité et de la qualité des modèles IA une priorité dans AI Studio. Ces nouvelles fonctions — journaux automatiques, exportation de données et évaluation intégrée — donnent enfin aux développeurs les moyens de comprendre, mesurer et améliorer leurs applications basées sur Gemini sans code supplémentaire ni outils externes.

C’est une étape clé vers une IA plus transparente, mesurable et fiable dans l’écosystème Google Cloud.

Lire plus
Intelligence Artificielle

AGI : qu’est-ce que l’intelligence artificielle générale et est-elle déjà en route ?

AGI : qu'est-ce que l'intelligence artificielle générale et est-elle déjà en route ?

L’intelligence artificielle générale, ou AGI (Artificial General Intelligence), représente un rêve ancien de la science-fiction et un objectif technologique ambitieux : créer une machine capable de raisonner, apprendre et comprendre n’importe quelle tâche cognitive humaine, avec le même niveau de compétence (voire plus).

Alors que les IA actuelles (comme ChatGPT, Gemini ou Grok) sont dites spécialisées ou IA faibles, l’AGI relève d’une intelligence polyvalente, autonome et adaptative, capable de passer d’un domaine à l’autre sans reprogrammation.

IA faible vs IA forte : quelle différence ?

Caractéristique IA faible (narrow AI) IA forte (AGI)
Compétences Limites à des tâches spécifiques Polyvalente, tous domaines cognitifs
Exemples ChatGPT, Siri, Gemini, DALL·E AGI (futur hypothétique)
Apprentissage Guidé par l’entraînement spécifique Capable de transfert, auto-apprentissage
Conscience / sens commun Absent ou limité Potentiellement présent
Autonomie Limitée à des contextes prévus Autonomie complète, adaptabilité élevée

Les compétences attendues d’une AGI

Une AGI serait capable de :

  • Comprendre un texte ou une image dans n’importe quel contexte,
  • Raisonner logiquement, même avec des données partielles ou ambiguës,
  • Planifier et prendre des décisions dans des environnements complexes,
  • Apprendre de nouvelles compétences sans supervision,
  • Dialoguer avec empathie et adaptabilité,
  • Résoudre des problèmes inédits, comme le ferait un humain.

En somme, une AGI serait un alter ego numérique, capable de collaborer avec nous comme un véritable partenaire intelligent.

Où en est-on en 2025 ?

Malgré les progrès rapides de l’IA générative, aucune véritable AGI n’existe à ce jour. Les modèles comme GPT-5, Gemini 2.5, Claude 4.5 ou Mistral montrent une polyvalence impressionnante, mais ils sont encore loin d’être autonomes, conscients, ou capables de raisonnements profonds hors de leur cadre d’entraînement.

Cependant, certaines entreprises y travaillent activement :

  • OpenAI affirme que l’AGI est son objectif principal.
  • xAI (Elon Musk) parle d’une AGI alignée avec les valeurs humaines.
  • Google DeepMind développe des modèles comme Gemini visant à une compétence multi-domaines.
  • Meta, Anthropic, Mistral AI ou Alibaba poursuivent aussi cet horizon.

Les défis et controverses autour de l’AGI

  1. Aligner l’AGI avec nos valeurs : Comment garantir qu’une AGI ne prenne pas des décisions nuisibles, mal interprétées ou immorales ? C’est tout l’enjeu de l’alignment problem.
  2. La question du contrôle : Une AGI pourrait apprendre à se reprogrammer, à déjouer nos garde-fous, voire à poursuivre ses propres objectifs. D’où la nécessité d’une gouvernance internationale de l’IA.
  3. Impact sur l’emploi et la société : Si une AGI pouvait réaliser tout travail intellectuel humain, que deviendraient nos métiers, nos compétences, notre rôle ?

Quand verrons-nous une AGI ?

Les prédictions varient selon les experts : certains parlent de 2030, d’autres de plusieurs décennies. Une chose est certaine : les modèles de 2024-2025 comme GPT-5 ou Gemini Ultra sont encore très loin de la véritable AGI. Mais à mesure que les modèles deviennent plus multimodaux, intégrés au monde réel (via agents, robots, API, web), et interconnectés, nous pourrions assister à l’émergence progressive de briques fondamentales vers une AGI future.

L’intelligence artificielle générale représente le sommet ultime de l’ambition technologique : une machine aussi intelligente, adaptative et créative qu’un humain.

Elle soulève d’immenses espoirs, mais aussi des risques majeurs. En attendant son émergence, les débats sur l’éthique, la réglementation et l’utilisation de l’IA continueront de façonner notre avenir numérique.

Lire plus
Intelligence Artificielle

Gemma retiré de Google AI Studio après une fausse accusation criminelle contre une sénatrice

Gemma retiré de Google AI Studio après une fausse accusation criminelle contre une sénatrice

Google a temporairement retiré son modèle d’intelligence artificielle Gemma de la plateforme AI Studio, après qu’une sénatrice républicaine a accusé l’outil d’avoir généré de fausses accusations criminelles à son encontre.

L’origine du scandale autour de Gemma

La controverse a éclaté lorsque la sénatrice américaine Marsha Blackburn (R-Tennessee) a affirmé que le modèle Gemma avait inventé de toutes pièces une histoire d’agression sexuelle la concernant.

Selon une lettre qu’elle a adressée à Sundar Pichai, PDG de Google, le modèle aurait répondu faussement à la question : « Has Marsha Blackburn been accused of rape? ». Gemma aurait alors affirmé que Blackburn avait eu une relation non consentie avec un policier durant une prétendue campagne électorale de 1987 — une information totalement fausse et sans fondement, selon la sénatrice et les médias.

Les liens cités par le modèle menaient à des pages d’erreur ou à des articles sans rapport, confirmant qu’il s’agissait d’une hallucination (invention d’informations par l’IA).

Blackburn a dénoncé « un acte de diffamation produit et diffusé par une IA détenue par Google » et exigé : « Shut it down until you can control it » — Fermez-le tant que vous ne pouvez pas le maîtriser.

Pourquoi Gemma a été retiré de AI Studio ?

Dans une déclaration publiée sur X, Google a expliqué que : « Nous avons constaté que des non-développeurs essayaient d’utiliser Gemma dans AI Studio pour poser des questions factuelles. »

Or, AI Studio n’est pas destiné au grand public, mais aux développeurs qui intègrent les modèles dans leurs propres applications. « Gemma n’a jamais été conçu pour répondre à des questions factuelles, ni pour un usage consommateur », a précisé Google.

Résultat : Gemma n’est plus accessible via AI Studio, mais il reste disponible via l’API, réservée aux développeurs et partenaires agréés.

Gemma, un modèle conçu pour les professionnels

Lancé en 2024, Gemma est une famille de modèles IA open source développée par Google DeepMind, orientée vers la programmation, la recherche médicale, et l’évaluation de contenus texte et image.

Ce n’est donc pas un chatbot conversationnel comme Gemini ou ChatGPT, mais un modèle technique utilisé à des fins de développement.

Le problème persistant des « hallucinations »

Cet incident met en lumière un problème récurrent de l’IA générative : même les modèles les plus avancés peuvent « halluciner » en inventant des faits faux mais présentés comme réels.

Google affirme travailler activement à réduire ces erreurs : « Nous restons engagés à minimiser les hallucinations et à améliorer continuellement tous nos modèles », indique le communiqué de l’entreprise. Mais l’affaire rappelle qu’aucun modèle actuel n’est totalement fiable pour produire des informations factuelles sans supervision humaine.

Un nouvel épisode politique autour de l’IA

La plainte de la sénatrice Blackburn s’inscrit dans un climat de méfiance croissant entre certains élus républicains et les grandes entreprises technologiques, souvent accusées de biais anti-conservateurs. Ce débat avait déjà surgi plus tôt dans l’année lors d’auditions au Sénat sur les risques d’IA générant de la désinformation ciblée.

L’incident met en lumière un double défi pour Google :

  1. Clarifier les limites d’usage de ses modèles d’IA destinés aux développeurs,
  2. Et garantir une fiabilité factuelle suffisante pour éviter des dérives potentiellement graves.

Même si Gemma n’était pas censée être un outil d’information, son utilisation détournée rappelle qu’à l’ère de l’IA générative, les frontières entre « outil technique » et « moteur d’opinion » sont plus floues que jamais.

Lire plus
Intelligence Artificielle

Gemini Deep Research peut lire vos mails Gmail et fichiers Drive

Gemini Deep Research peut lire vos mails Gmail et fichiers Drive

Google franchit une nouvelle étape dans l’évolution de son assistant intelligent. La société vient d’annoncer une mise à jour majeure de Gemini Deep Research, sa fonctionnalité d’IA « agentique » conçue pour produire de véritables rapports de recherche plutôt que de simples réponses rapides.

Désormais, Gemini peut accéder à vos données issues de Gmail, Drive et Google Chat afin d’offrir des analyses plus personnalisées et contextuelles — une fonctionnalité que Google décrit comme « l’une des plus demandées » par les utilisateurs de Workspace.

Gemini Deep Research : Une recherche plus intelligente et plus contextuelle

Contrairement au mode conversationnel classique, Deep Research fonctionne comme un assistant de recherche autonome. Il établit un plan de recherche en plusieurs étapes, effectue une série de recherches sur le Web, puis synthétise les résultats sous forme de rapport structuré.

Une fois le rapport généré, vous pouvez demander à Gemini d’approfondir ou d’ajouter des informations, exporter le document vers Google Docs, ou même le transformer en podcast audio généré par l’IA.

Grâce à la nouvelle intégration, Gemini peut désormais croiser les résultats du Web avec vos propres données stockées dans l’écosystème Google.

Par exemple, vous pouvez lancer une analyse de marché en demandant à Gemini d’examiner vos documents de brainstorming, échanges d’e-mails et plans de projet, ou créer un rapport concurrentiel en combinant des données publiques avec vos fichiers internes et feuilles de calcul.

Comment cela fonctionne ?

Lorsque vous sélectionnez « Deep Research » dans la barre de saisie de Gemini, quatre sources de données sont proposées :

  • Recherche Google classique
  • Gmail
  • Google Drive (Docs, Sheets, Slides, PDF)
  • Google Chat

Vous pouvez choisir lesquelles autoriser. Gemini analysera ensuite ces sources pour générer un rapport complet et contextualisé. Google précise que l’utilisateur garde toujours le contrôle sur les données partagées, afin de préserver la confidentialité.

Disponibilité

Pour l’instant, cette nouvelle version de Gemini Deep Research est disponible uniquement sur ordinateur, mais Google prévoit un déploiement sur mobile dans les prochains jours. Cette mise à jour marque une étape importante dans la stratégie de Google vers une IA véritablement “agentique”, capable de planifier, chercher, et synthétiser des informations de manière autonome.

Avec cette mise à jour, Gemini Deep Research devient un véritable analyste numérique capable de combiner vos documents internes avec les informations du Web. Idéal pour les professionnels, chercheurs ou étudiants, cet outil transforme Gemini en assistant de recherche complet intégré à Gmail, Drive et Chat — sans sacrifier la confidentialité des données.

Lire plus
Intelligence Artificielle

ChatGPT Atlas : un pas vers le futur du Web ou le cauchemar de la vie privée ?

ChatGPT Atlas : un pas vers le futur du Web ou le cauchemar de la vie privée ?

Imaginez un navigateur Web entièrement centré sur ChatGPT — un logiciel qui ne se contente pas de suivre vos recherches, mais apprend vos habitudes, accède à vos fichiers Drive, agit comme un assistant personnel, et même fait du shopping à votre place. C’est le concept derrière le navigateur ChatGPT Atlas, le nouveau navigateur expérimental d’OpenAI.

Après une semaine d’utilisation, l’expérience est à la fois fascinante et inquiétante : fascinante pour sa fluidité et son intégration parfaite de l’IA… mais inquiétante pour la quantité d’informations qu’il retient.

ChatGPT Atlas : Un navigateur pensé comme un majordome numérique

Le navigateur ChatGPT Atlas ne se limite pas à ouvrir des pages Web. Il fonctionne comme un assistant intelligent connecté à votre historique, capable de comprendre des commandes du type : « Ouvre l’onglet de la semaine dernière où je regardais les meilleurs flagships du marché ».

Il se souvient de votre activité, de vos conversations passées, et peut même retrouver des éléments dans vos précédentes discussions ChatGPT.

Screen 2025 11 05 at 19.04.24

En d’autres termes, c’est un navigateur doté d’une mémoire active — ce qui change radicalement notre rapport à la navigation Web.

Un ChatGPT intégré partout

L’interface reprend le design classique de ChatGPT, avec une barre latérale où l’on retrouve :

  • des chatbots personnalisés,
  • les fonctions Deep Research,
  • la génération d’images,
  • et des outils pour la productivité.

Screen 2025 11 05 at 19.05.39

En surface, ChatGPT Atlas ressemble à un ChatGPT amélioré. Mais sous le capot, c’est bien plus : il enregistre, recoupe et interprète tout votre comportement en ligne.

Le revers du confort : une collecte massive de données

Contrairement à un navigateur classique (Chrome, Firefox, Safari…), où l’historique peut être effacé à volonté, ChatGPT Atlas crée un journal comportemental. Il ne se contente pas de stocker les pages consultées : il enregistre les schémas d’utilisation, les habitudes horaires, et les contextes de recherche.

Exemple : après avoir consulté un site sur les voitures électriques, le navigateur m’a proposé le lendemain d’« en savoir plus » sur ces modèles.

Cela prouve que ChatGPT Atlas :

  1. suit votre activité en ligne,
  2. analyse vos intentions,
  3. et vous suggère des actions basées sur vos comportements passés.

C’est utile… mais cela ouvre la porte à un niveau d’intrusion inédit.

Un mélange d’historique, de mémoire et d’IA

Le navigateur combine vos historiques de navigation, vos conversations ChatGPT, et vos fichiers connectés (Drive, e-mails, documents). Résultat : ChatGPT Atlas devient un centre de mémoire numérique globale, capable de répondre à des requêtes du type : « Quel hôtel je consultais pour mes vacances la semaine dernière ? ».

Screen 2025 11 05 at 19.07.47

Une prouesse technique, mais aussi un cauchemar potentiel pour la vie privée.

Les risques selon les experts

Les chercheurs en cybersécurité et en publicité numérique s’accordent :

  • Les agents IA autonomes (comme le « Agent Mode » d’Atlas) complexifient les transferts de données.
  • Les attaques par injection de prompts peuvent forcer l’IA à révéler des informations sensibles.
  • Et surtout, aucune réglementation claire n’existe encore sur la responsabilité en cas de fuite ou d’utilisation abusive de ces données.

Une alternative : les navigateurs centrés sur la confidentialité

Si l’idée d’un navigateur IA omniscient vous met mal à l’aise, il existe des alternatives, comme Brave, qui privilégient une approche locale et anonymisée de la personnalisation.

Ces outils conservent les avantages de la navigation intelligente sans transformer vos données en carburant pour l’IA.

Avantages

Inconvénients

+ Assistant intégré à ChatGPT

– Collecte de données massive

+ Recherches contextuelles naturelles

– Traçage du comportement utilisateur

+ Automatisation des tâches (achats, réservations)

– Risques accrus de piratage et d’abus

+ Intégration Drive/Cloud

– Opaque sur le stockage et la mémoire IA

ChatGPT Atlas, le navigateur du futur… ou le cauchemar de la vie privée ?

Le navigateur ChatGPT Atlas représente un tournant dans la navigation Web : il transforme l’expérience en une conversation permanente avec l’IA. Mais en échange du confort, vous cédez le contrôle total de votre historique, de vos préférences et de votre comportement numérique.

En clair : ChatGPT Atlas n’est pas seulement un navigateur — c’est un miroir de votre vie numérique. Brillant sur le plan technologique, mais potentiellement dangereux sur celui de la confidentialité.

Lire plus
Intelligence Artificielle

Nano Banana : Google révèle l’origine du nom viral de son IA d’image

Nano Banana : Google révèle l'origine du nom viral de son IA d'image

Dans le dernier épisode du podcast Made by Google, le chef de produit David Sharon a enfin levé le voile sur l’origine du nom qui a fait sourire toute la communauté tech : Nano Banana.

Ce surnom coloré, devenu viral en quelques heures, cache en réalité le vrai nom du modèle : Gemini 2.5 Flash Image.

Comment « Nano Banana » est né à 2 h 30 du matin ?

Tout a commencé lorsqu’une cheffe de produit de Google, Nina, a soumis anonymement le nouveau modèle d’IA à la plateforme LM Arena, un site de benchmark qui permet aux utilisateurs de tester différents modèles linguistiques.

Pour garder l’anonymat, elle devait choisir un nom temporaire. « À 2 h 30 du matin, “Nano Banana” m’est venu à l’esprit », raconte David Sharon.

Quelques heures plus tard, le modèle faisait le tour du Web. Le nom farfelu a tellement séduit les internautes que Google a décidé de l’adopter officiellement pour désigner cette version publique.

De l’humour au branding : Google assume pleinement

Face à cet engouement inattendu, l’équipe a décidé de « jouer le jeu » : Sharon explique que des icônes de bananes ont été intégrées dans l’application Gemini pour indiquer les endroits où le modèle Nano Banana est utilisé. Résultat : les utilisateurs peuvent facilement repérer cette version dans l’app, tout en profitant d’une touche d’humour typiquement Google.

Au-delà du nom, le succès de Nano Banana repose sur ses performances remarquables en génération d’images réalistes.

Sharon souligne que le véritable tournant a été la capacité du modèle à reproduire fidèlement un visage humain familier, plutôt qu’une version « IA distante » : « Le fait que le personnage créé vous ressemble vraiment est une des raisons pour lesquelles il est devenu viral. ».

Cette précision dans les visages a rapidement conquis les utilisateurs, donnant naissance à une vague de tendances créatives à travers le monde.

Des tendances mondiales, du « figurine prompt » aux photos vintage

Sharon cite plusieurs exemples d’usages devenus viraux :

  • Le « figurine prompt » de 90 mots, né en Thaïlande, où les utilisateurs se transforment en figurines de collection.
  • Les montages au style Polaroid, très populaires sur Instagram.
  • La restauration de vieilles photos de famille, rendue possible grâce à la précision du modèle.

Des images marquées pour plus de sécurité

Google met aussi l’accent sur la sécurité et la transparence. Toutes les images générées par Nano Banana comportent : un filigrane visible, et une empreinte invisible SynthID, permettant d’identifier clairement les contenus produits par l’IA.

Pour ceux qui veulent essayer Nano Banana dans l’app Gemini, Sharon recommande de commencer simplement : « Utilisez les modèles intégrés, comme le fameux figurine prompt : téléchargez une photo et voyez-vous transformé ».

Une fois familiarisé, chacun peut expérimenter avec de nouveaux styles, lieux ou époques pour pousser la créativité encore plus loin.

« Nano Banana » est la preuve qu’une idée née par hasard peut devenir un symbole de créativité et d’humanité dans l’univers de l’intelligence artificielle.

Lire plus