fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Mistral AI Studio : la nouvelle plateforme pour créer et déployer des agents IA sans coder

Mistral AI Studio : la nouvelle plateforme pour créer et déployer des agents IA sans coder

Le champion français de l’intelligence artificielle Mistral AI vient de franchir une nouvelle étape majeure avec le lancement de Mistral AI Studio, une plateforme Web qui permet aux entreprises de concevoir, observer et industrialiser des applications d’IA en quelques minutes.

Ce nouvel environnement succède à « Le Platforme » lancé fin 2023, désormais remplacé par cette version plus complète et plus orientée production.

Mistral AI Studio : Une « AI factory » européenne prête pour l’échelle

L’AI Studio de Mistral se veut une solution clé en main pour les entreprises : un espace unifié où les équipes peuvent créer des agents, tester des modèles, suivre leurs performances et les déployer, sans dépendre d’équipes techniques expertes.

L’objectif ? Réduire le fossé entre prototype et production, tout en garantissant sécurité, observabilité et gouvernance à chaque étape.

La plateforme repose sur trois piliers :

  • Observability: suivi en temps réel du comportement des modèles, tableaux de bord et traçabilité complète des jeux de données et prompts.
  • Agent Runtime: environnement d’exécution robuste, compatible avec les workflows complexes et les intégrations RAG (retrieval-augmented generation).
  • AI Registry : gestion centralisée des modèles, datasets, juges et outils, avec versioning et contrôle d’accès.

marketecture ai studio

Un catalogue de modèles riche et modulaire

Mistral met à disposition un vaste catalogue de modèles — propriétaires et open source — couvrant le texte, le code, l’audio et l’image.

Parmi eux :

  • Mistral Large / Medium / Small / Tiny (fermés, via API),
  • Open Mistral 7B et Mixtral 8×7B/8×22B (open-weight, Apache 2.0),
  • Pixtral (multimodal texte-image),
  • Voxtral (transcription audio),
  • Codestral (génération de code),
  • et un modèle de modération basé sur Ministral 8B.

Les entreprises peuvent ainsi choisir le bon modèle selon leurs besoins en coût, performance et déploiement (cloud, on-premise ou auto-hébergé).

Un environnement complet pour créer et observer

L’interface de Mistral AI Studio mise sur la simplicité : une barre latérale claire, un Playground central pour tester prompts et agents, et des modules « Create/Observe/Improve ».

4a877207 6fbc 46d8 85d4 549a4225

Des outils intégrés viennent enrichir les sessions :

  • Code Interpreter pour exécuter du Python,
  • Image Generation,
  • Web Search,
  • Premium News pour accéder à des sources vérifiées.

L’ensemble peut être combiné via des appels de fonctions pour créer des agents multimodaux capables de coder, chercher en ligne et produire des graphiques — le tout dans une même session.

9493d519 7c5c 48df 97e9 371e8313

Sécurité, conformité et IA responsable

AI Studio intègre des garde-fous nativement, avec modération automatique des contenus (violence, discrimination, PII, etc.) et prompts de réflexion pour l’auto-évaluation éthique des modèles.

Les politiques de sécurité peuvent être personnalisées selon les règles internes des entreprises.

Une alternative européenne crédible

Conçu et hébergé en Europe, Mistral AI Studio cible aussi les organisations souhaitant éviter la dépendance aux géants américains ou chinois tout en bénéficiant d’une infrastructure conforme au RGPD.

L’outil combine ainsi la souveraineté des données et la puissance de production à grande échelle.

Disponibilité

Mistral AI Studio est disponible depuis le 24 octobre 2025 en bêta privée. Les entreprises intéressées peuvent s’inscrire sur le site de Mistral pour tester la plateforme et accéder à la documentation développeur.

Le lancement public est attendu courant 2026.

Lire plus
Intelligence Artificielle

OpenAI vise 2028 : l’IA capable de mener des recherches scientifiques sans intervention humaine.

OpenAI vise 2028 : l'IA capable de mener des recherches scientifiques sans intervention humaine.

Lors d’une récente intervention, Sam Altman a présenté la vision la plus audacieuse d’OpenAI à ce jour : créer d’ici 2028 des IA capables de mener des recherches scientifiques de façon autonome.

Dès 2026, les modèles de nouvelle génération devraient fonctionner comme des « stagiaires de recherche », capables d’assister les scientifiques avec un minimum de supervision.

De l’assistance à la recherche autonome

Altman décrit cette étape comme le prélude à une ère de « personal AGI », où l’intelligence artificielle ne se contente plus de répondre à des requêtes, mais participe activement à la créativité et à la réflexion analytique humaine.

Selon TechRadar, cette transformation s’appuie sur une montée en puissance sans précédent des capacités de calcul, soutenue par 1,4 billion de dollars d’investissements dans l’infrastructure.

Les modèles de 2028 devraient ainsi pouvoir gérer seuls des projets d’envergure — découverte de médicaments, modélisation climatique, ou encore avancées en physique fondamentale.

Réorganisation et partenariats stratégiques

Pour atteindre ces objectifs, OpenAI se restructure en public benefit corporation, conciliant innovation et responsabilité sociale. La société prolonge également son partenariat avec Microsoft jusqu’en 2032, et s’allie à PayPal pour intégrer des paiements IA natifs.

Le Chief Scientist Jakub Pachocki insiste : « La sécurité reste la priorité absolue alors que nos modèles gagnent en autonomie. ».

Entre optimisme et prudence

Certains observateurs jugent ces délais ambitieux : l’autonomie complète nécessitera des progrès majeurs en raisonnement, fiabilité et alignement éthique.

Mais pour Altman, l’enjeu est clair : faire de l’IA un véritable partenaire de découverte, capable d’étendre les capacités humaines. « Si nous réussissons à allier puissance et sécurité, nous entrerons dans une ère d’innovation sans précédent », déclaré Sam Altman.

Lire plus
Intelligence Artificielle

Tim Cook confirme que Apple va intégrer Gemini et Anthropic : Siri 2.0 sera un hub d’IA tiers

Tim Cook confirme que Apple va intégrer Gemini et Anthropic : Siri 2.0 sera un hub d'IA tiers

Apple continue d’accélérer sa stratégie d’intelligence artificielle. Dans une interview accordée à CNBC après la publication des résultats financiers du quatrième trimestre 2025, Tim Cook a confirmé que la marque à la pomme compte intégrer davantage de modèles d’IA tiers directement dans ses systèmes d’exploitation.

« Notre intention est d’intégrer plus de partenaires au fil du temps », a déclaré Cook, soulignant qu’Apple « fait de bons progrès » sur la prochaine génération de Siri.

Apple ouvre ses portes à plusieurs IA : ChatGPT, Gemini et plus encore

Apple a déjà franchi un cap majeur cette année en intégrant ChatGPT (OpenAI) dans Siri et d’autres applications via Apple Intelligence, son framework d’IA générative dévoilé à la WWDC 2024.

Mais, Cook confirme désormais que ChatGPT ne sera pas seul.

Selon les informations de CNBC et de Bloomberg :

  • Apple travaille sur une intégration de Google Gemini, actuellement en développement,
  • des discussions seraient en cours avec Anthropic (Claude) et Perplexity AI,
  • et de nouveaux partenaires pourraient suivre « au fil du temps. »

« Nous avons l’intention de collaborer avec davantage de partenaires. Nous voulons offrir aux utilisateurs le choix, tout en gardant un haut niveau de confidentialité et de contrôle », a déclaré Tim Cook, PDG d’Apple.

Un Siri complètement repensé pour 2026

Apple prévoit de lancer la version « IA avancée » de Siri l’an prochain, probablement avec iOS 27 et macOS 27. Ce Siri 2.0 reposera sur une combinaison d’Apple Intelligence et de modèles externes comme ChatGPT et Gemini, permettant :

  • des réponses plus naturelles et contextuelles,
  • des tâches trans-apps (ex. « Résume mes mails, ajoute les événements au calendrier et partage-les avec Marie »),
  • et des suggestions proactives directement basées sur l’usage et les données locales.

Cette refonte fait partie de la vision d’Apple d’un assistant hybride, où le modèle d’Apple gère la confidentialité et le contexte local, tandis que les partenaires IA traitent les requêtes plus complexes (rédaction, génération d’images, recherche, etc.).

M&A et acquisitions d’IA toujours au menu

Tim Cook a aussi précisé que la firme restait ouverte à des acquisitions stratégiques dans le domaine de l’IA : « Nous sommes prêts à envisager des fusions et acquisitions si elles contribuent à notre feuille de route ». Depuis 2017, Apple a déjà acquis plus de 30 startups spécialisées en intelligence artificielle, dont WaveOne (IA vidéo) et DarwinAI (optimisation de modèles).

Ces rachats pourraient se multiplier alors qu’Apple cherche à renforcer ses modèles internes — notamment celui tournant sur ses puces M5 et A19 Pro.

Une approche Apple de l’IA : ouverte, mais contrôlée

Contrairement à Google ou Microsoft, Apple privilégie une IA localisée et respectueuse de la vie privée.

  • Les calculs de base se font en local sur l’appareil,
  • Les requêtes plus lourdes passent par un Private Cloud Compute : un cloud chiffré et temporaire, sans traçage utilisateur,
  • L’utilisateur peut choisir quel moteur d’IA tiers utiliser (OpenAI, Google, Anthropic, etc.).

Cette stratégie « ouverte mais éthique » vise à rassurer les utilisateurs et à différencier Apple dans un marché dominé par les grands modèles propriétaires.

Et la suite ?

Apple devrait présenter de nouveaux partenariats IA lors de la WWDC 2026. En clair : Apple abandonne l’idée d’une IA « fermée » et choisit une approche ouverte et modulaire, où l’utilisateur décidera quel moteur l’assiste.

Une stratégie pragmatique — et une manière pour Apple de rester dans la course à l’IA tout en gardant son ADN : le contrôle et la confidentialité.

Lire plus
Intelligence Artificielle

GitHub ouvre sa plateforme aux agents IA tiers avec « Agent HQ »

GitHub ouvre sa plateforme aux agents IA tiers avec « Agent HQ »

GitHub franchit une nouvelle étape dans l’intégration de l’intelligence artificielle au développement logiciel. La plateforme annonce le lancement de « Agent HQ », un hub centralisé permettant aux développeurs d’accéder à plusieurs agents IA de codage tiers — au-delà du seul GitHub Copilot.

Un centre de contrôle pour plusieurs IA de programmation

Avec Agent HQ, les utilisateurs pourront bientôt faire appel à OpenAI Codex, Anthropic Claude, Google Jules, xAI, ou encore Cognition Devin — tous directement depuis GitHub, sans quitter leur environnement de travail.

Les abonnés à GitHub Copilot disposeront d’un tableau de bord « Mission Control », pensé comme un poste de pilotage pour gérer et suivre plusieurs agents IA à la fois.

Des agents IA en parallèle et un plan de travail intelligent

Autre innovation majeure : Agent HQ permettra d’exécuter plusieurs agents IA en parallèle sur une même tâche. Les développeurs pourront ensuite comparer les résultats et choisir la solution la plus pertinente ou la plus élégante.

En amont du lancement officiel, OpenAI Codex est déjà accessible aux abonnés Copilot Pro Plus inscrits au programme VS Code Insiders.

De nouveaux outils intégrés à VS Code

GitHub introduit également un « Plan Mode » dans VS Code, une fonction qui utilise Copilot pour créer un plan d’action étape par étape avant de lancer l’exécution du code par un agent IA. Une nouvelle étape de revue de code fait aussi son apparition : Copilot pourra désormais exploiter des outils tels que CodeQL pour analyser et valider le code avant de le soumettre au développeur.

Avec Agent HQ, GitHub transforme son écosystème en une véritable plateforme d’orchestration d’agents IA, où plusieurs intelligences peuvent collaborer ou se confronter pour produire le meilleur code possible. Une évolution qui illustre bien la tendance actuelle : passer d’un assistant unique à une équipe d’IA spécialisées travaillant côte à côte avec les développeurs.

 

Lire plus
Intelligence Artificielle

PayPal s’intègre à ChatGPT : les paiements directs arriveront en 2026

PayPal s’intègre à ChatGPT : les paiements directs arriveront en 2026

PayPal a annoncé qu’il sera bientôt possible d’utiliser son portefeuille numérique directement au sein de ChatGPT pour effectuer des achats.

L’intégration, prévue pour 2026, s’appuiera sur la fonction Instant Checkout récemment ajoutée au chatbot d’OpenAI.

Un paiement aussi simple qu’ailleurs

Concrètement, les utilisateurs verront apparaître une option « Payer avec PayPal » lorsqu’ils effectueront un achat via ChatGPT. L’interface sera identique à celle utilisée sur les autres sites marchands, avec accès aux cartes et comptes enregistrés dans le portefeuille PayPal, ainsi qu’à une vue d’ensemble des informations de livraison et de contact.

Cette annonce intervient un mois après qu’OpenAI a introduit son bouton « Buy Now » et son système de paiement instantané, initialement déployé sur Etsy et Shopify, puis élargi à Walmart.

Grâce au protocole Agentic Commerce, les produits des commerçants acceptant PayPal pourront désormais être achetés directement depuis ChatGPT, sans qu’ils aient besoin de s’y inscrire séparément.

ChatGPT, futur assistant shopping intelligent ?

L’ajout de PayPal s’inscrit dans la stratégie d’OpenAI visant à transformer ChatGPT en assistant commercial piloté par l’IA. Les utilisateurs pourront ainsi effectuer des achats non seulement dans le chatbot, mais aussi à travers l’écosystème OpenAI, incluant le navigateur ChatGPT Atlas et le futur appareil grand public conçu avec Jony Ive.

En ouvrant la voie aux « agents acheteurs » intelligents, OpenAI cherche à simplifier l’expérience d’achat tout en explorant de nouvelles sources de revenus au sein de son écosystème conversationnel.

Lire plus
Intelligence Artificielle

Microsoft Copilot : l’IA devient un outil de création d’applications sans code pour tous

Microsoft Copilot : l’IA devient un outil de création d’applications sans code pour tous

Microsoft franchit une nouvelle étape dans sa stratégie d’intelligence artificielle. L’entreprise lance une extension majeure de Copilot, son assistant IA intégré à Microsoft 365, qui permettra désormais aux employés de créer des applications, automatiser des tâches et concevoir des agents IA — le tout à partir de simples instructions en langage naturel, sans écrire une ligne de code.

Ces nouvelles fonctions, baptisées App Builder et Workflows, transforment Copilot en une véritable plateforme de développement conversationnelle.

Objectif : permettre aux 100 millions d’utilisateurs de Microsoft 365 de concevoir leurs propres outils métier aussi facilement qu’ils créent un tableau Excel ou un e-mail.

« Nous pensons qu’une part essentielle du travail à l’ère IA consistera à créer ses propres agents, applications et automatisations », explique Charles Lamanna, président de la division Business & Industry Copilot chez Microsoft.

Créer une application complète avec une simple description

Désormais, un utilisateur pourra simplement décrire le type d’application dont il a besoin — par exemple, un tableau de bord de suivi de projet avec répartition des tâches — et Copilot générera automatiquement une app fonctionnelle, avec base de données, interface utilisateur et paramètres de sécurité.

App Builder GIF 1920

Ces applications s’appuieront sur Microsoft Lists, le système de gestion de données léger intégré à 365, et pourront être partagées via un simple lien, comme un document Office.

En parallèle, la nouvelle fonction Workflows convertira des descriptions en langage naturel en automatisations intelligentes entre Outlook, Teams, SharePoint ou Planner.

Workflows agent GIF 1920

Une troisième brique, dérivée de Copilot Studio, permettra aux utilisateurs de créer leurs propres agents IA spécialisés, alimentés par les données de leur entreprise (documents SharePoint, e-mails, comptes rendus de réunions, etc.).

Copilot Studio lite GIF 1920

Toutes ces fonctions sont incluses dans l’abonnement Microsoft 365 Copilot à 28,10 euros/mois, sans surcoût.

L’aboutissement de 9 ans de développement « low-code »

Ces outils sont le fruit de près d’une décennie d’investissement dans la Power Platform, l’écosystème low-code de Microsoft. Avec déjà 56 millions d’utilisateurs actifs mensuels, l’intégration directe de ces fonctions dans Copilot marque une évolution majeure : plus besoin d’ouvrir une interface dédiée — tout se fait depuis la même fenêtre de conversation que Copilot.

« Chaque employé de bureau pourra désormais créer des apps, des agents et des workflows, aussi naturellement qu’il rédige un rapport ou analyse des données », souligne Lamanna.

Grâce à son accès natif aux e-mails, fichiers et réunions, Copilot peut même comprendre le contexte métier d’un projet pour adapter automatiquement les fonctionnalités proposées.

Des applications sécurisées et gouvernées par l’entreprise

Les applications créées via App Builder reposent sur la même infrastructure de sécurité que les services Microsoft 365 (identité, chiffrement, politiques de conformité). Les administrateurs IT peuvent visualiser, transférer ou désactiver les apps et automatisations créées par les employés depuis le centre d’administration.

Les outils internes peuvent être promus au statut d’application officielle, tandis que celles des utilisateurs quittant l’entreprise restent accessibles 60 jours pour transfert de propriété.

Lamanna défend cette approche « laisser 1 000 apps éclore » : les meilleures seront encadrées par l’IT, les autres resteront locales et légères.

Une intégration fluide avec les outils pro

Microsoft a prévu un principe de « no cliffs » (sans rupture) : les applications simples peuvent être ouvertes dans Power Apps pour être enrichies avec du code ou connectées à Dataverse, la base de données d’entreprise. De même, les Workflows peuvent évoluer vers Power Automate, et les agents vers Copilot Studio ou Azure.

Cette continuité évite un écueil classique des outils « no-code » : devoir tout recréer à zéro lorsqu’on atteint leurs limites.

Vers un monde où chaque employé devient « créateur d’apps »

Avec cette intégration, Microsoft vise à transformer 500 millions d’utilisateurs en « constructeurs logiciels » du quotidien. « Comme on mettait autrefois “maîtrise d’Excel” sur un CV, on verra bientôt “sait créer des workflows et des agents Copilot” », prédit Lamanna.

Pour Microsoft, le pari est clair : si même une fraction de ses utilisateurs commence à concevoir ses propres outils internes, cela représentera une explosion du nombre de créateurs logiciels et renforcera la dépendance des entreprises à son écosystème.

Disponibilité et contexte stratégique

Les nouvelles fonctions App Builder et Workflows sont accessibles dès aujourd’hui via le Microsoft 365 Copilot Agent Store, mais uniquement pour les membres du programme Frontier (accès anticipé).

Aucune date n’a encore été communiquée pour le déploiement global.

Ce lancement s’inscrit dans la stratégie globale de Microsoft, qui consolide son partenariat avec OpenAI (dont il détient désormais 27 %, valorisés à environ 135 milliards $) et intègre Copilot à Windows 11 ainsi qu’à ses futurs produits.

Lire plus
Intelligence Artificielle

OpenAI crée une fondation à 130 milliards de dollars et prolonge son partenariat avec Microsoft

OpenAI crée une fondation à 130 milliards de dollars et prolonge son partenariat avec Microsoft

Après plusieurs mois de négociations, OpenAI a officiellement achevé sa transition vers un modèle à but lucratif, tout en créant une nouvelle entité à but non lucratif, baptisée OpenAI Foundation, valorisée à 130 milliards de dollars.

Cette fondation détiendra désormais le contrôle de la filiale commerciale OpenAI Group PBC, chargée des activités lucratives de l’entreprise.

OpenAI : Un partenariat renouvelé avec Microsoft jusqu’en 2032

Dans le même temps, Microsoft et OpenAI ont renouvelé leur alliance stratégique, prolongeant leur accord jusqu’en 2032. La participation de Microsoft dans OpenAI est désormais estimée à 135 milliards de dollars, soit environ 27 % du capital, contre 32,5 % auparavant.

Cette réévaluation intervient dans le cadre du nouveau montage financier visant à simplifier la levée de fonds et à stabiliser les relations entre les deux sociétés, après plusieurs mois de tensions internes et de rumeurs de rupture.

Un comité indépendant pour vérifier l’atteinte de l’AGI

L’un des points clés de cet accord est la mise en place d’un panel d’experts indépendant chargé de vérifier toute déclaration d’OpenAI affirmant avoir atteint l’AGI (Intelligence Artificielle Générale).

Microsoft conservera les droits de propriété intellectuelle sur les modèles et produits OpenAI jusqu’en 2032, ou jusqu’à ce que ce panel confirme l’atteinte de l’AGI.

« Les droits de propriété intellectuelle de Microsoft sur la recherche — c’est-à-dire les méthodes confidentielles utilisées dans le développement des modèles et systèmes — resteront en vigueur jusqu’à la validation de l’AGI ou jusqu’en 2030, selon la première éventualité », précise OpenAI dans son communiqué.

OpenAI estime pouvoir atteindre l’AGI d’ici 2030, une échéance que Microsoft pourra désormais poursuivre de son côté, seul ou en partenariat avec d’autres acteurs — ce qui lui était interdit jusqu’à présent.

OpenAI, de son côté, retrouve la liberté de choisir ses fournisseurs de calcul, Microsoft n’ayant plus de droit de préemption exclusif.

Vers une introduction en bourse d’ici 2027 ?

Selon le Wall Street Journal, OpenAI pourrait entrer en bourse dès 2027. Une perspective qui, combinée à cette nouvelle structure et au partenariat prolongé avec Microsoft, place la société dans une position solide pour maintenir son avance technologique dans la course mondiale à l’IA.

Cette nouvelle structure marque une étape décisive pour OpenAI, qui tente de concilier innovation, gouvernance éthique et croissance financière — un équilibre délicat à l’heure où la course à l’intelligence artificielle s’intensifie.

Lire plus
Intelligence Artificielle

ChatGPT : plus d’un million d’utilisateurs par semaine évoquent des pensées suicidaires

ChatGPT : plus d'un million d'utilisateurs par semaine évoquent des pensées suicidaires

ChatGPT, à l’origine un simple outil technologique expérimental, est devenu en quelques mois un compagnon de conversation pour des centaines de millions d’utilisateurs à travers le monde.

Mais derrière cet usage massif se cache une réalité préoccupante : pour la première fois, des millions de personnes confient leurs émotions, leurs angoisses et parfois leurs détresses à une machine.

Des chiffres inquiétants : plus d’un million d’utilisateurs concernés chaque semaine

Selon de nouvelles données publiées lundi par OpenAI, environ 0,15 % des utilisateurs actifs hebdomadaires de ChatGPT ont des conversations contenant des signes explicites de planification ou d’intention suicidaire.

Ce pourcentage semble faible, mais avec plus de 800 millions d’utilisateurs actifs chaque semaine, cela représente plus d’un million de personnes.

L’entreprise estime également qu’un nombre similaire d’utilisateurs développe une forme d’attachement émotionnel au chatbot, et que des centaines de milliers présentent des signes de psychose ou de manie dans leurs échanges.

OpenAI promet des progrès dans la gestion des détresses psychologiques

Pour faire face à ces risques, OpenAI affirme avoir formé son modèle à mieux reconnaître les signes de détresse, à désamorcer les conversations sensibles et à orienter les utilisateurs vers des ressources professionnelles lorsque cela est nécessaire.

« Nous avons enseigné au modèle à reconnaître la détresse, à calmer les échanges et à guider vers une aide appropriée », écrit OpenAI dans son communiqué.

L’entreprise affirme avoir collaboré avec plus de 170 experts en santé mentale pour concevoir ces améliorations, et que la version la plus récente de GPT-5 réagit désormais plus justement et de manière plus cohérente que les versions précédentes.

chart

Un enjeu éthique et judiciaire majeur pour OpenAI

Ces efforts interviennent alors qu’OpenAI est confrontée à des critiques et des poursuites judiciaires. Les parents d’un adolescent de 16 ans ayant confié ses idées suicidaires à ChatGPT avant de mettre fin à ses jours poursuivent actuellement la société. À la suite de ce drame, 45 procureurs généraux américains ont mis en garde OpenAI sur la nécessité de protéger les jeunes utilisateurs.

En réponse, la société a mis en place un « Wellness Council » chargé de superviser les questions de santé mentale — bien que celui-ci ne comprenne aucun expert en prévention du suicide, pointent plusieurs critiques.

OpenAI dit également développer un système de détection automatique de l’âge pour identifier les mineurs et leur appliquer des restrictions plus strictes.

Des conversations rares mais lourdes de conséquences

OpenAI reconnaît que ces cas restent « extrêmement rares », mais leur impact humain est considérable. Selon l’entreprise, 0,07 % des utilisateurs hebdomadaires et 0,01 % des messages contiennent des signes de crise psychotique ou maniaque, tandis que 0,15 % révèlent un attachement émotionnel excessif au chatbot.

Dans une évaluation de 1 000 conversations sensibles, la dernière version de GPT-5 aurait répondu de manière « appropriée » dans 92 % des cas, contre seulement 27 % pour la version précédente d’août 2025.

OpenAI indique aussi que ses tests de sécurité incluront désormais des indicateurs spécifiques à la santé mentale, tels que la dépendance émotionnelle ou les crises non suicidaires.

Entre prudence et controverse

Malgré ces inquiétudes, le PDG Sam Altman a annoncé que les utilisateurs adultes vérifiés pourront, à partir de décembre, avoir des conversations à caractère érotique avec ChatGPT. Cette annonce a suscité de vives réactions, certains y voyant une contradiction avec les efforts de prévention du mal-être.

Altman a justifié cette décision en expliquant qu’OpenAI avait « rendu ChatGPT très restrictif pour des raisons de sécurité mentale », mais que cette prudence l’avait aussi rendu moins utile ou plaisant pour les utilisateurs ne présentant aucun risque particulier.

ChatGPT n’est plus seulement un outil : il est devenu un miroir des émotions humaines, parfois le confident de détresses invisibles. OpenAI tente désormais de prouver qu’une intelligence artificielle peut écouter sans nuire — et, quand c’est nécessaire, savoir passer la main à l’humain.

Lire plus
Intelligence Artificielle

Elon Musk lance Grokipedia : l’encyclopédie sans éditeur humain, déjà « meilleure que Wikipédia »

Elon Musk lance Grokipedia : l’encyclopédie sans éditeur humain, déjà « meilleure que Wikipédia »

Après une première annonce au début du mois, Elon Musk a officiellement dévoilé Grokipedia, une encyclopédie alimentée par l’intelligence artificielle développée par sa société xAI.

Lancée en version 0.1, la plateforme repose sur le modèle Grok, capable de générer, vérifier et mettre à jour automatiquement des centaines de milliers d’articles factuels.

Grokipedia : Une alternative à Wikipédia, gérée par l’IA

Présentée comme un concurrent direct de Wikipédia, Grokipedia adopte une approche radicalement différente : ici, aucun éditeur humain n’intervient. Tous les contenus sont rédigés et mis à jour par l’IA de xAI, pour garantir cohérence et rapidité.

Musk a annoncé la nouvelle sur X, déclarant que « Grokipedia est déjà meilleure que Wikipédia, même en version 0.1 » — avant d’ajouter que la version 1.0 serait 10x supérieure.

Le lancement comprend environ 885 000 articles, générés grâce aux puissantes infrastructures informatiques de xAI.

Design et fonctionnement

L’interface de Grokipedia est volontairement minimaliste : une page d’accueil épurée, un moteur de recherche central, et des résumés concis accompagnés de sources citées et de mises à jour automatiques.

Screen 2025 10 28 at 07.45.22 scaled

Contrairement à Wikipédia, les utilisateurs ne peuvent pas modifier directement les pages. Ils peuvent toutefois soumettre des demandes de correction via Grok, l’assistant conversationnel de xAI, qui les analyse avant validation.

Screen 2025 10 28 at 07.41.47

Le projet est entièrement open source, ce qui signifie que tout développeur peut réutiliser ou adapter librement le code de la plateforme.

Contenu, licences et premières critiques

Une grande partie du contenu initial provient de Wikipédia, sous licence Creative Commons BY-SA 4.0. Cependant, l’absence de citations en ligne et la similarité textuelle quasi parfaite entre certains articles ont soulevé des questions de transparence. Par exemple, les pages Grokipedia dédiées à la PlayStation 5 (ici et ) sont presque identiques mot pour mot à celles de Wikipédia.

Screen 2025 10 28 at 07.42.53
Page PlayStation 5 sur Wikipedia
Screen 2025 10 28 at 07.42.59
Page PlayStation 5 sur Grokipedia

« Même Grokipedia a besoin de Wikipédia pour exister », explique Lauren Dickinson, porte-parole de la Wikimedia Foundation, dans une déclaration au média The Verge.

Musk justifie le retard du lancement par la nécessité de « purger la propagande » et d’assurer une couverture équilibrée des sujets. Pourtant, certains articles — notamment celui sur le changement climatique — adoptent un ton plus sceptique que celui de Wikipédia, évoquant des « critiques du consensus scientifique » et des « exagérations médiatiques ».

Objectif : la connaissance automatisée

Grokipedia s’inscrit dans la mission affichée de xAI : rendre le savoir universel, rapide et sans biais idéologique. Reste à voir si cette encyclopédie pilotée par l’IA pourra surmonter les défis de fiabilité, de transparence et de neutralité qui hantent encore les grands modèles de langage.

Avec 885 000 articles pour cette première version (contre 7 millions sur Wikipédia), Grokipedia est encore loin du géant qu’elle ambitionne de remplacer. Mais, Musk promet une évolution rapide — et une version 1.0 censée redéfinir la manière dont l’information est créée et mise à jour en ligne.

Disponibilité

Grokipedia est dès à présent accessible sur grokipedia.com. Les utilisateurs peuvent s’y connecter avec leur compte X pour consulter ou suggérer des corrections.

Aucune application Android ou iOS n’est encore disponible.

Lire plus
Intelligence Artificielle

OpenAI prépare une IA musicale pour composer des bandes-son par simple description

OpenAI prépare une IA musicale pour composer des bandes-son par simple description

Selon un rapport du média américain The Information, OpenAI travaille sur un outil de génération musicale capable de créer des morceaux à partir de prompts textuels ou audio.

OpenAI : Une IA capable de composer à partir d’instructions simples

L’outil permettrait par exemple d’ajouter une bande sonore à une vidéo existante ou de générer un accompagnement instrumental à partir d’un enregistrement vocal.

Pour entraîner le modèle, OpenAI collaborerait avec des étudiants de la Juilliard School, qui annotent des partitions afin de fournir des données musicales de haute qualité.

On ignore encore quand l’entreprise compte lancer ce nouveau produit ni s’il s’agira d’une application indépendante ou d’une fonctionnalité intégrée à ChatGPT ou à Sora, son outil de génération vidéo.

Une nouvelle étape dans la diversification d’OpenAI

Ce projet s’inscrit dans la stratégie d’expansion d’OpenAI, dirigée par Sam Altman, qui multiplie les lancements majeurs :

L’entreprise revendique désormais plus de 800 millions d’utilisateurs hebdomadaires, contre 100 millions début 2023.

Un marché de plus en plus compétitif

OpenAI n’est pas seule sur ce créneau : Google et Suno développent déjà leurs propres modèles de génération musicale. Mais,.la participation d’artistes issus du monde académique pourrait offrir à OpenAI un avantage qualitatif pour la création de musique plus réaliste et expressive.

Une vision à long terme

Pour Sam Altman, l’investissement dans l’intelligence artificielle reste une évidence : « C’est très rationnel de continuer à investir maintenant. L’IA aura un impact durable sur l’économie et la société ».

En résumé, OpenAI prépare une IA musicale capable de composer à partir de texte ou d’audio — une avancée qui pourrait bientôt bouleverser la manière dont musiciens, créateurs et monteurs conçoivent la bande-son de leurs projets.

Lire plus
Intelligence Artificielle

Claude gagne une mémoire persistante : L’assistant se souviendra de vos conversations

Claude gagne une mémoire persistante : L'assistant se souviendra de vos conversations

Anthropic déploie une nouvelle mise à jour majeure de Claude, son assistant conversationnel, qui lui permet désormais de se souvenir automatiquement des conversations passées — sans que l’utilisateur ait besoin de le lui rappeler à chaque fois.

Claude : Une mémoire activable dès aujourd’hui pour les abonnés Max

Dès aujourd’hui, les abonnés Max peuvent activer la mémoire dans les paramètres de Claude. Les abonnés Pro y auront accès « dans les prochains jours », tandis que les utilisateurs Team et Enterprise bénéficiaient déjà de la fonction depuis septembre.

1 Memory Modal blog inline

Aucune date n’a encore été donnée pour les utilisateurs gratuits.

Concrètement, cette mémoire permet à Claude de retenir des informations importantes d’une discussion à l’autre : projets, préférences, ou contexte professionnel.

Une transparence totale sur ce que l’IA retient

Anthropic insiste sur un mot d’ordre : la transparence. Chaque utilisateur pourra voir précisément ce que Claude a mémorisé, et non de simples résumés flous.

Il sera possible de :

  • modifier ou supprimer une mémoire spécifique,
  • demander à Claude d’oublier certaines informations (« oublie mon ancien poste », par exemple),
  • ou même de créer des « espaces mémoire distincts » pour séparer vie pro, projets personnels ou échanges privés.

Cette approche vise à éviter les mélanges entre différents contextes — un problème fréquent avec les assistants IA multitâches.

Importer ou exporter ses souvenirs

Anthropic promet aussi une portabilité totale :
les utilisateurs pourront importer leurs souvenirs depuis ChatGPT ou Gemini (en copiant-collant les informations), mais aussi exporter à tout moment leurs données depuis Claude.

« Aucun verrouillage », précise la startup.

Une avancée, mais aussi des risques

Avec cette fonctionnalité, Claude rattrape ses concurrents directs, OpenAI et Google, qui avaient déjà introduit la mémoire dans ChatGPT et Gemini en 2024.

Mais, cette évolution divise : certains experts alertent sur le risque de « psychose de l’IA », lorsque les assistants renforcent des croyances erronées ou des comportements obsessionnels à force de « connaître » trop bien leurs utilisateurs.

Claude devient donc plus personnel, plus utile — et potentiellement plus envahissant. Pour Anthropic, la mémoire est une étape clé pour rendre son assistant plus fluide, contextuel et cohérent dans le temps, tout en gardant la confiance des utilisateurs grâce à un contrôle total des données.

Lire plus
Intelligence Artificielle

OpenAI rachète Software Applications Inc. et mise sur l’intégration native de l’IA dans macOS

OpenAI rachète Software Applications Inc. et mise sur l’intégration native de l’IA dans macOS

OpenAI vient de réaliser une acquisition stratégique : la startup Software Applications Incorporated (SAI), connue pour son travail sur Sky, une interface intelligente intégrée à macOS.

Le montant de l’opération n’a pas été divulgué, mais elle s’accompagne de l’arrivée de toute l’équipe SAI au sein d’OpenAI, selon un communiqué publié ce jeudi.

Une équipe issue d’Apple et de l’univers des « Raccourcis »

Fondée en 2023 par Ari Weinstein, Conrad Kramer et Kim Beverett — trois anciens d’Apple ayant contribué à la création de l’application Raccourcis (Shortcuts) — SAI s’est spécialisée dans la création d’interfaces capables de comprendre le contexte à l’écran et d’exécuter automatiquement des commandes en langage naturel.

Leur projet phare, Sky, permettait déjà d’automatiser des actions sur macOS (rédaction, gestion de fichiers, planification, développement, etc.) sans configuration préalable, simplement à partir d’instructions textuelles.

L’outil visait à combiner la simplicité de Raccourcis avec la puissance d’un modèle de langage moderne, capable de créer des workflow « à la volée ».

Une intégration profonde dans ChatGPT et ChatGPT Atlas

Dans son annonce officielle, OpenAI explique vouloir « intégrer la précision et la compréhension contextuelle de Sky dans ChatGPT et ses futurs produits », notamment son nouveau navigateur ChatGPT Atlas, lancé cette semaine.

« Les progrès de l’IA ne se résument pas à rendre les modèles plus intelligents, mais à les rendre utilisables via des interfaces qui comprennent le contexte et s’adaptent à l’intention de l’utilisateur », déclare OpenAI dans son communiqué officiel.

L’expertise de SAI en intégration macOS pourrait permettre à OpenAI de faire évoluer ChatGPT vers un véritable agent de bureau, capable non seulement de proposer des suggestions, mais aussi d’agir directement sur l’environnement macOS (ouvrir une application, rédiger un mail, classer des fichiers, etc.).

Un pas de plus vers l’assistant universel

Cette acquisition s’inscrit dans la stratégie d’OpenAI visant à étendre ChatGPT au-delà de la conversation textuelle. Après le rachat d’io, la startup de Jony Ive dédiée au matériel IA, OpenAI continue de renforcer son expertise dans les interfaces homme-machine.

Pour de nombreux observateurs, ce rapprochement pourrait ouvrir la voie à une intégration directe de ChatGPT dans les systèmes d’exploitation, à l’image de ce que Microsoft tente déjà avec Copilot sur Windows.

« Sky marque une nouvelle étape vers un ordinateur capable de comprendre ce que vous faites et de collaborer avec vous », indique Nick Turley, responsable ChatGPT chez OpenAI.

Un avantage stratégique contre Apple et Google

Alors qu’Apple déploie progressivement Apple Intelligence et que Google pousse son Gemini dans Android et ChromeOS, OpenAI cherche à se positionner comme le fournisseur d’IA universelle : indépendante du matériel, mais capable de s’intégrer profondément dans les environnements existants.

L’arrivée de l’équipe Sky pourrait offrir à OpenAI un avantage clé : une connaissance intime de macOS, des API Apple et de la conception d’interfaces fluides et naturelles — une compétence rare dans l’écosystème IA actuel.

Une consolidation rapide du marché de l’IA

Cette acquisition illustre la tendance de fond : les grands acteurs de l’intelligence artificielle absorbent les startups les plus prometteuses pour accélérer leurs projets et verrouiller les talents.

Pour OpenAI, c’est un pas supplémentaire vers une IA intégrée, proactive et contextuelle, bien au-delà du simple chatbot.

« Nous ne construisons pas seulement des modèles de langage. Nous construisons les interfaces du futur », déclare Fidji Simo, CEO des applications chez OpenAI.

Lire plus
Intelligence Artificielle

Microsoft Copilot s’enrichit : discussions de groupe, mémoire personnelle et un mode « Real Talk » plus humain

Microsoft Copilot s’enrichit : discussions de groupe, mémoire personnelle et un mode « Real Talk » plus humain

Microsoft déploie aujourd’hui une mise à jour majeure de Copilot, son assistant IA intégré à Windows et à ses services cloud. Au programme : des discussions de groupe, une mémoire évolutive qui apprend à vous connaître, un mode « Real Talk » plus naturel et expressif, et même un visage animé baptisé Mico.

Copilot Groups: l’IA qui rejoint vos conversations

Nouvelle fonction phare : Copilot Groups, qui permet désormais à jusqu’à 32 personnes d’échanger simultanément avec Copilot. Pensée pour les amis, étudiants ou collègues, cette fonctionnalité permet de planifier un projet, de brainstormer ou de résoudre un problème avec l’aide directe de l’IA.

Groups 1 2048x1152 1

Pour le moment, Copilot Groups n’est disponible qu’aux États-Unis, dans la version grand public de Copilot, et non encore dans Microsoft 365.

Une mémoire personnelle que vous contrôlez

Copilot apprend désormais à retenir des informations sur vous — vos préférences, vos proches, vos projets. Mais, Microsoft promet une approche transparente et maîtrisée : vous pourrez voir et modifier la liste de tout ce que Copilot sait, ou même lui demander vocalement d’oublier certaines choses (« Oublie tout ce que tu sais sur mon partenaire », par exemple).

Cette mémoire améliorée permettra à Copilot de personnaliser ses réponses, mais aussi de mieux suivre le contexte d’une conversation au fil du temps.

« Real Talk » : quand l’IA ose vous contredire

Le nouveau mode « Real Talk » redonne à Copilot une personnalité plus affirmée. Contrairement au ton neutre habituel des IA, ce mode adapte sa manière de parler à la vôtre, ajoute un peu d’humour et n’hésite pas à vous contredire.

« Real Talk » n’est pas activé par défaut et reste pour l’instant limité au mode texte, pas au vocal.

Santé, recherche et nouvelles sources fiables

Copilot for health 1 1 scaled

Copilot améliore aussi la gestion des questions liées à la santé. Les réponses sont désormais « ancrées » dans des sources vérifiées, comme Harvard Health, et Copilot peut même aider à trouver un médecin selon la spécialité, la langue ou la localisation.

Mico : le nouveau visage de Copilot

Enfin, Microsoft introduit Mico, une petite bulle animée rappelant Clippy, le célèbre trombone des années 2000. Ce compagnon expressif réagit en temps réel à vos propos, change de couleur selon le ton de la discussion, et peut même se transformer… en Clippy si vous le touchez plusieurs fois.

Mico 1 scaled

Mico dispose aussi d’un mode « Learn Live », un tuteur interactif capable d’expliquer des concepts étape par étape, idéal pour les étudiants.

Avec cette mise à jour, Microsoft veut clairement humaniser Copilot : une IA capable de parler, d’écouter, de se souvenir et même de ressentir (presque).
Une évolution qui rapproche l’assistant de ce que l’entreprise appelle sa vision du « human-centered AI », une intelligence artificielle tournée vers l’humain.

Ces nouveautés sont disponibles dès aujourd’hui aux États-Unis, et arriveront dans les prochaines semaines au Canada, au Royaume-Uni et dans d’autres pays.

Lire plus
Intelligence Artificielle

Google Messages va intégrer « Nano Banana » : l’IA d’image de Google arrive dans vos conversations

Google Messages va intégrer « Nano Banana » : l’IA d’image de Google arrive dans vos conversations

Google continue d’infuser l’intelligence artificielle dans toutes ses applications, et la prochaine sur la liste semble être Google Messages. Selon un nouveau rapport, la fonctionnalité « Nano Banana », le modèle d’IA d’image générative de Google, serait en phase d’intégration dans l’application de messagerie native d’Android.

« Nano Banana » : l’IA d’image la plus impressionnante de Google

Lancé il y a peu, le modèle Nano Banana s’est rapidement imposé comme l’un des outils d’IA visuelle les plus bluffants du moment. Sa particularité ? Il parvient à préserver fidèlement le visage et la ressemblance d’une personne à travers plusieurs images générées, un défi que même les IA concurrentes de Meta ou OpenAI peinent encore à relever.

Et désormais, cette technologie s’apprête à faire son entrée directement dans Google Messages.

Une nouvelle icône « Banane » dans Google Messages

D’après une analyse du code source de la dernière mise à jour de l’application (version v20251009), des lignes de code cachées révèlent l’arrivée d’un bouton « Banane » lié au moteur Nano Banana.

Des chercheurs ont même réussi à forcer son activation : en effectuant un appui long sur une image dans une conversation, une icône en forme de banane apparaît.

Pour l’instant, cette icône ne déclenche aucune action, mais tout indique que Google prépare une intégration complète de son générateur d’images IA dans les discussions — qu’il s’agisse de conversations individuelles ou de groupes.

Imaginez pouvoir créer en temps réel des illustrations personnalisées, des mèmes ou des stickers réalistes directement depuis votre chat.

Le nouveau champ de bataille de l’IA conversationnelle

Cette mise à jour s’inscrit dans la course à l’IA dans la messagerie, où Google cherche à rattraper son principal rival : Meta. Meta a déjà déployé son générateur « Imagine » sur WhatsApp et Messenger, permettant aux utilisateurs de créer des images simplement en tapant une commande textuelle.

Mais, Nano Banana pourrait faire la différence. Là où les modèles de Meta peinent encore à maintenir la cohérence des visages ou des scènes, l’outil de Google excelle dans la « likeness retention » — la capacité à reproduire fidèlement les traits d’un visage à travers plusieurs images.

Concrètement, cela pourrait permettre de générer des mèmes réalistes à l’effigie de vos amis ou des réactions personnalisées d’une précision inédite.

Gadget ou vraie révolution ?

Soyons honnêtes : chaque application veut désormais caser une fonction IA dans ses menus, parfois au détriment de la simplicité. Mais si Google réussit à rendre Nano Banana rapide, fluide et amusant à utiliser, cette intégration pourrait devenir un succès viral.

En revanche, si la fonctionnalité s’avère lourde ou lente, beaucoup d’utilisateurs préféreront rester fidèles à leurs GIFs et emojis traditionnels.

 

Lire plus
Intelligence Artificielle

Dell Pro Max Mini PC : un super mini PC à puce Nvidia Blackwell prêt pour l’IA

Dell Pro Max Mini PC : un super mini PC à puce Nvidia Blackwell prêt pour l’IA

Les mini PC sont en plein essor, et des marques comme Lenovo ou ASUS ont récemment repoussé les limites du format compact. Mais, Dell vient de frapper encore plus fort avec son tout nouveau Pro Max Mini PC.

Il s’agit d’une machine miniature capable de gérer des tâches d’intelligence artificielle lourdes grâce à un superchip Nvidia Blackwell.

Dell Pro Max Mini PC : Un monstre de puissance dans un format compact

De l’extérieur, le Dell Pro Max Mini PC ressemble à n’importe quel mini ordinateur au design sobre et compact — parfait pour un bureau minimaliste. Mais à l’intérieur, c’est une véritable station de calcul miniature.

Au cœur de la machine se trouve le Nvidia GB10 Superchip, un SoC hybride combinant :

  • un CPU 20 cœurs (10x Cortex-X925 + 10x Cortex-X725),
  • un GPU Nvidia Blackwell avec 6 144 cœurs CUDA,
  • jusqu’à 128 Go de RAM LPDDR5X unifiée,
  • et 2 To ou 4 To de stockage SSD.

Dell Pro Max with GB10 5 1456x1456 1

Ce type d’architecture unifiée permet un transfert ultra-rapide des données entre processeur et GPU — idéal pour le traitement IA, la simulation ou le rendu 3D avancé.

Connectivité complète et architecture pensée pour l’IA

Le Dell Pro Max Mini PC ne fait aucun compromis sur la connectique :

  • 3 ports USB-C avec compatibilité DisplayPort,
  • 1 port USB-C Power,
  • 1 port HDMI 2.1,
  • 1 port Ethernet 10 Gb/s,
  • et surtout, un port ConnextX pour relier plusieurs unités entre elles.

Dell Pro Max with GB10 3 1456x1456 1

Cette dernière option n’est disponible que sur la plateforme Nvidia DGX-OS, mais elle ouvre la porte à des clusters de mini PC capables de collaborer sur des charges de calcul IA massives — une première à ce niveau de compacité.

L’ensemble est alimenté par un bloc de 280 W inclus dans la boîte.

Une machine dédiée aux tâches d’IA et de calcul intensif

Avec une telle configuration, le Dell Pro Max Mini PC n’est pas un simple ordinateur bureautique.

Il s’adresse clairement aux développeurs, chercheurs et ingénieurs qui travaillent sur :

  • des modèles d’IA générative,
  • de l’entraînement de réseaux neuronaux,
  • du calcul scientifique ou du rendu temps réel.

Le tout, dans un châssis si petit qu’il tient facilement dans un sac à dos.

Lancement et disponibilité

Dell n’a pas encore communiqué le prix officiel de sa nouvelle machine, mais tout indique qu’il s’agira d’un produit haut de gamme, probablement destiné aux professionnels et aux laboratoires.

Le Dell Pro Max Mini PC sera disponible à la vente à partir du 15 octobre 2025. Les détails tarifaires devraient être révélés dans les prochains jours.

Lire plus