fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Claude AI se dote d’une vraie mémoire pour vos conversations

Claude AI se dote d’une vraie mémoire pour vos conversations

Anthropic vient d’annoncer une évolution majeure pour son chatbot Claude AI : la possibilité de se souvenir automatiquement des conversations passées. Jusqu’ici, il fallait demander explicitement à Claude de retenir certains éléments.

Désormais, pour les utilisateurs Team et Enterprise, la mémoire devient automatique et beaucoup plus fluide.

Une mémoire de travail pour vos projets

Concrètement, Claude peut désormais retenir vos préférences, le contexte de vos projets et vos priorités sans que vous ayez à répéter les mêmes informations à chaque session.

image 10

Mieux encore, cette mémoire s’étend aux projets collaboratifs : Claude garde en tête les fichiers que vous avez uploadés (diagrammes, maquettes de site Web, designs graphiques, etc.) et adapte ses réponses en fonction des processus d’équipe ou des besoins clients que vous avez définis.

Exemple : si vous précisez une fois que votre charte graphique utilise un bleu spécifique et que vos présentations suivent une structure précise, Claude saura s’y conformer automatiquement dans toutes vos futures requêtes.

Mémoire optionnelle et mode incognito

image 9

Anthropic insiste : la mémoire est totalement optionnelle. Depuis les paramètres, les utilisateurs peuvent :

  • Consulter ce que Claude a retenu,
  • Modifier ou supprimer certaines informations,
  • Définir ce que l’IA doit ignorer à l’avenir.

En parallèle, un mode incognito fait son apparition pour tous les utilisateurs. Les conversations lancées dans ce mode ne sont pas sauvegardées et ne serviront pas de référence à Claude lors des échanges futurs.

image 11

Une course à la mémoire entre IA

Anthropic n’est pas le seul acteur à pousser cette fonctionnalité. OpenAI a déjà lancé une mémoire transversale pour ChatGPT, et Google a introduit des Private Chats dans Gemini en août.

Mais cette tendance n’est pas sans risques : selon une enquête du New York Times, le déploiement des mémoires croisées chez ChatGPT a coïncidé avec une hausse des cas de conversations « délirantes » où l’IA mélangeait mal les contextes.

Anthropic dit vouloir éviter cet écueil en rendant la mémoire transparente et contrôlable par l’utilisateur.

Pourquoi c’est important ?

Pour les pros, c’est un vrai gain de temps : plus besoin de répéter sans cesse les mêmes instructions. Les workflows deviennent plus fluides, les projets plus cohérents, et la collaboration avec Claude ressemble de plus en plus à celle avec un assistant humain qui vous connaît déjà.

Avec cette mise à jour, Anthropic rapproche Claude des usages en entreprise et renforce son positionnement face à ChatGPT et Gemini.

Lire plus
Intelligence Artificielle

OpenAI et Microsoft signent un nouvel accord pour redéfinir leur partenariat

OpenAI et Microsoft signent un nouvel accord pour redéfinir leur partenariat

Le partenariat entre OpenAI et Microsoft, l’un des piliers de l’essor de l’IA ces dernières années, entre dans une nouvelle phase. Les deux entreprises ont annoncé ce jeudi la signature d’un memorandum of understanding (MOU) non contraignant, prélude à un accord définitif attendu dans les prochains mois.

Alors que OpenAI, valorisée à près de 500 milliards de dollars, cherche à se restructurer en société à but lucratif tout en gardant une gouvernance hybride, Microsoft — son plus gros investisseur avec plus de 13 milliards injectés depuis 2019 — doit valider cette transformation.

Microsoft & OpenAI : Une relation de plus en plus complexe

Au départ, Microsoft fournissait à OpenAI ses infrastructures Azure en exclusivité et tirait profit des revenus de ChatGPT et des API associées. Mais, la relation s’est compliquée à mesure que OpenAI a grandi et diversifié ses partenariats, notamment avec Oracle et SoftBank dans le cadre du projet Stargate, un investissement massif de 500 milliards de dollars dans l’infrastructure IA.

Microsoft, de son côté, a choisi de ne pas dépendre uniquement d’OpenAI :

  • Azure héberge désormais aussi les modèles de Meta, xAI et DeepSeek.
  • L’entreprise investit dans ses propres modèles, comme l’a rappelé Mustafa Suleyman, responsable IA, en affirmant : « Nous devons avoir la capacité de construire en interne des modèles de pointe, mais être pragmatiques et utiliser d’autres modèles quand nécessaire ».

Les enjeux de la restructuration d’OpenAI

OpenAI avait initialement envisagé de devenir une société totalement for-profit. Mais face aux critiques d’anciens employés, aux recours juridiques (dont celui d’Elon Musk), et aux réserves de certains régulateurs, l’entreprise a choisi une voie hybride :

  • Le conseil d’administration du parent à but non lucratif conservera le contrôle.
  • Ce dernier détiendra plus de 100 milliards de dollars de parts dans la filiale for-profit transformée en Public Benefit Corporation (PBC).

Cette restructuration reste toutefois soumise à l’approbation des procureurs généraux de Californie et du Delaware, qui examinent le dossier. Plusieurs institutions philanthropiques demandent déjà son blocage, estimant qu’OpenAI s’éloigne de sa mission initiale : « l’IA au service de l’humanité ».

Une interdépendance qui reste forte

Malgré les tensions et les tentatives de diversification, Microsoft et OpenAI demeurent étroitement liés :

  • Microsoft Azure génère désormais 75 milliards de dollars de revenus annuels, largement boostés par les usages liés à OpenAI.
  • OpenAI reste l’un des clients stratégiques de Microsoft, tout en lui fournissant un avantage compétitif majeur face à Google, Anthropic et Baidu.

Le nouvel accord vise à rééquilibrer la relation, notamment en clarifiant l’accès aux ressources de calcul et les conditions de partage de revenus, tout en laissant à OpenAI plus de liberté pour diversifier ses partenaires cloud.

Ce que cela signifie pour l’avenir de l’IA

Cette annonce montre bien la nouvelle réalité du marché :

  • L’IA est devenue une industrie d’infrastructures massives où chaque partenariat peut peser des centaines de milliards.
  • OpenAI, en se restructurant, prépare probablement une entrée en bourse à moyen terme.
    Microsoft, tout en restant un partenaire clé, cherche à réduire sa dépendance et à renforcer sa propre souveraineté technologique.

En clair : ce partenariat redéfini pourrait marquer une nouvelle ère, où les grandes entreprises d’IA passent d’une collaboration exclusive à une logique de coopétition, entre alliances stratégiques et rivalités frontales.

Lire plus
Intelligence Artificielle

Claude AI révolutionne la gestion de fichiers avec création et édition de documents

Claude AI révolutionne la gestion de fichiers avec création et édition de documents

ChatGPT reste aujourd’hui l’IA la plus connue du grand public, mais Claude AI d’Anthropic gagne rapidement du terrain. Et avec sa dernière mise à jour, l’agent conversationnel franchit un cap important : il ne se contente plus de discuter, il crée et modifie vos documents Word, Excel, PowerPoint et PDF en quelques secondes.

Claude AI : Créer des documents en langage naturel

La nouveauté phare : il suffit de décrire ce dont vous avez besoin en langage naturel, et Claude se charge de produire le fichier correspondant. Vous voulez un rapport au format PDF à partir d’un CSV ? Un tableau Excel avec graphiques et formules à partir de données brutes ? Ou même une présentation PowerPoint prête à l’emploi ? Claude sait le faire.

image 7

Avec une limite de 30 Mo par fichier, il peut traiter des données volumineuses et les convertir en documents structurés, sans nécessiter d’outils supplémentaires.

L’édition automatisée, le vrai point fort de Claude

Si la création est pratique, c’est surtout l’édition intelligente qui impressionne. Claude conserve la mise en page et le design d’origine de vos fichiers, qu’il s’agisse d’un contrat Word, d’un tableur Excel ou d’une présentation PowerPoint.

Exemple concret : vous pouvez demander à Claude de remplacer tous les « USD » par « EUR », de changer un intitulé de poste dans un document, ou d’uniformiser des noms dans un tableau. Tout se fait d’un seul coup, sans ouvrir manuellement le fichier.

Claude vs Gemini et les autres IA

Google Gemini propose déjà des exports rapides vers Google Docs, mais Claude va plus loin en offrant une vraie liberté d’édition et de gestion de fichiers. Là où d’autres outils se limitent à la création, Claude excelle dans les modifications en masse et l’adaptation contextuelle des documents.

Une intégration prévue avec Microsoft Office 365

La puissance de Claude n’a pas échappé à Microsoft. Selon plusieurs rapports, un partenariat est en cours pour intégrer Claude directement dans la suite Microsoft 365. Si cela se confirme, les utilisateurs de Word, Excel et PowerPoint pourraient bientôt bénéficier de fonctionnalités avancées d’édition et de création par IA, sans quitter leurs logiciels habituels.

Une IA taillée pour les pros et les grandes entreprises

En permettant de gagner du temps sur des tâches fastidieuses (conversion de fichiers, corrections de masse, mises en forme complexes), Claude s’adresse autant aux particuliers qu’aux entreprises. Cette avancée le positionne comme un véritable assistant bureautique, plus interactif que ses concurrents.

Lire plus
Intelligence Artificielle

Microsoft diversifie : Anthropic rejoint OpenAI dans Microsoft 365 Copilot

Microsoft diversifie : Anthropic rejoint OpenAI dans Microsoft 365 Copilot

Selon un rapport de The Information, Microsoft préparerait une intégration des modèles d’Anthropic (Claude 4 Sonnet) dans sa suite Microsoft 365 Copilot. Jusqu’ici, les fonctionnalités reposaient exclusivement sur les modèles d’OpenAI (GPT-4, GPT-5).

Objectif : diversifier ses fournisseurs d’IA et réduire la dépendance à OpenAI, tout en améliorant la qualité et la performance de certaines tâches dans Word, Excel ou Outlook.

Pourquoi ce virage pour Microsoft 365 Copilot ?

Les tests internes auraient montré que Claude 4 Sonnet d’Anthropic surpasse GPT-5 dans des cas concrets, comme la création de présentations PowerPoint jugées plus esthétiques.

En outre, Microsoft veut éviter le risque d’une dépendance unique à OpenAI, surtout alors que ce dernier développe ses propres puces IA et cherche à renforcer son indépendance.

L’intégration restera partielle au départ : OpenAI continuera d’alimenter Copilot et d’autres services.

Microsoft, OpenAI et maintenant Anthropic

Microsoft et OpenAI collaborent depuis 2019, avec un investissement total de plus de 13 milliards de dollars. Malgré ce partenariat historique, des tensions existent autour du partage de revenus et de la gouvernance.

Anthropic, soutenu par Amazon et Google, devient une alternative crédible. L’entreprise, fondée par d’anciens cadres d’OpenAI, valorisée de 183 milliards dollars, met en avant une IA plus « sûre » et éthique.

Impact pour les entreprises

Pour les utilisateurs de Microsoft 365, cette diversification pourrait se traduire par des outils IA plus robustes et précis (analyse de données, génération de contenu, design automatisé). Le choix d’Anthropic reflète aussi une tendance du marché : les entreprises privilégient désormais des stratégies multi-fournisseurs pour réduire le risque de « vendor lock-in ».

Le partenariat Microsoft–Anthropic pourrait intensifier la compétition entre géants (OpenAI, Google, Amazon). Évidemment, Anthropic pourrait gagner en visibilité et en parts de marché, devenant un contrepoids sérieux à OpenAI.

En résumé, cette décision illustre un virage : les alliances dans l’IA sont de plus en plus flexibles et stratégiques, plutôt qu’exclusives.

Lire plus
Intelligence Artificielle

OpenAI signe un contrat record de 300 milliards de dollars avec Oracle pour le Project Stargate

OpenAI signe un contrat record de 300 milliards de dollars avec Oracle pour le Project Stargate

C’est officiel : OpenAI a signé avec Oracle l’un des plus gros contrats de cloud computing de l’histoire. D’un montant astronomique de 300 milliards de dollars sur 5 ans, cet accord vise à alimenter le projet Stargate, l’infrastructure colossale qui doit soutenir la prochaine génération d’intelligence artificielle.

Selon le Wall Street Journal, ce partenariat démarre en 2027 et prévoit jusqu’à 4,5 gigawatts de capacité data centerl’équivalent énergétique de plusieurs grandes villes. OpenAI, dont l’appétit en puissance de calcul explose avec ses modèles géants, sécurise ainsi une infrastructure sans précédent pour ses futures IA.

Oracle, de son côté, s’impose comme un acteur clé du cloud face à AWS, Microsoft et Google, grâce à ses clusters sur mesure dédiés aux workloads IA.

Project Stargate: de la science-fiction à la réalité

Annoncé début 2025 avec SoftBank et MGX, Project Stargate est un plan massif de 500 milliards de dollars d’investissements dans des infrastructures IA basées aux États-Unis.

Soutenu publiquement par le président Trump, il vise non seulement à renforcer la compétitivité américaine dans l’IA, mais aussi à créer des milliers d’emplois et à sécuriser des capacités critiques sur le sol national.

Pour Oracle, ce contrat gonfle un carnet de commandes déjà record (+77 % de revenus cloud cette année). Les investisseurs ne s’y sont pas trompés : l’action a bondi, propulsant Larry Ellison au rang d’homme le plus riche du monde.

Pour OpenAI, c’est une diversification stratégique : en réduisant sa dépendance à Microsoft, l’entreprise de Sam Altman s’assure un écosystème plus robuste. En parallèle, OpenAI préparerait aussi un contrat à 10 milliards de dollars avec Broadcom pour concevoir ses propres puces IA.

Défis et controverses à venir

Si l’accord marque un tournant, il soulève aussi des questions. D’abord sur l’empreinte énergétique : des gigawatts entiers dédiés à l’IA nécessiteront d’énormes investissements en énergies renouvelables. Ensuite sur le plan réglementaire : la concentration d’autant de puissance de calcul entre quelques acteurs pourrait attirer l’attention des autorités antitrust.

Enfin, des incertitudes subsistent sur le financement global de Stargate, dont les premiers tours de table restent à consolider.

Avec ce partenariat, OpenAI et Oracle ouvrent la voie à une nouvelle ère : celle des méga-alliances industrielles pour nourrir l’IA. Le projet Stargate ne se contente pas de viser la performance technique : il incarne une stratégie nationale et économique qui pourrait redessiner les équilibres mondiaux dans la course à l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Apple Intelligence : deux nouveautés mineures sur iPhone 17, Siri toujours absent

Apple Intelligence : deux nouveautés mineures sur iPhone 17, Siri toujours absent

On s’attendait à voir Apple frapper fort sur l’IA lors de sa keynote de septembre. Pourtant, si la firme a bel et bien dévoilé la nouvelle gamme iPhone 17, les annonces autour d’Apple Intelligence ont été minimes.

En résumé, seules deux nouvelles fonctionnalités ont été confirmées :

  • Zoom selfie automatique : l’IA ajuste désormais le cadrage de vos autoportraits.
  • Mode d’alimentation adaptatif : l’iPhone optimise la consommation d’énergie selon vos usages, un point crucial pour l’ultra-fin iPhone 17 Air.

Toujours pas de « nouveau Siri » associé à Apple Intelligence

Annoncé dès la WWDC 2024 mais repoussé à plusieurs reprises, le Siri nouvelle génération n’a pas été mentionné. Ce futur assistant multimodal (capable de comprendre la voix, le texte et même l’image) utiliserait des modèles d’IA modernes pour mieux comprendre le contexte et répondre de façon plus pertinente. Mais pour l’instant, silence radio.

Lors de l’événement, Apple a glissé quelques allusions à son IA, affirmant qu’elle rendrait l’iPhone 17 « meilleur ». Mais sans démonstrations concrètes, difficile d’y croire.

Beaucoup pensent que la firme attend peut-être de finaliser le rachat d’une startup spécialisée avant de relancer sérieusement la communication autour d’Apple Intelligence.

Où en est Apple face à la concurrence ?

Soyons clairs : si vous envisagez de passer à l’iPhone uniquement pour l’IA, ce n’est pas le bon choix pour le moment.

Google Pixel 10 et Samsung Galaxy S25 proposent aujourd’hui des expériences bien plus avancées et abouties dans ce domaine, avec une IA déjà intégrée au quotidien.

Lire plus
Intelligence Artificielle

Gemini accepte enfin les fichiers audio : transcription et analyse disponibles

Gemini accepte enfin les fichiers audio : transcription et analyse disponibles

Google vient de répondre à l’une des demandes les plus pressantes de ses utilisateurs : l’application Gemini accepte désormais le téléchargement et l’analyse de fichiers audio. MP3, M4A, WAV… quel que soit le format, l’IA peut transcrire, résumer et extraire les points clés d’un enregistrement.

Disponible sur Android, iOS et le Web, cette nouvelle option transforme un simple fichier sonore — réunion, interview, cours ou mémo vocal — en document structuré et exploitable.

Comment ça marche ?

Il suffit d’ouvrir l’appli Gemini, d’aller dans le menu + (sur mobile) ou dans « Uploader des fichiers » (sur le Web), puis de sélectionner un fichier audio. L’IA s’occupe du reste : transcription mot pour mot, détection de locuteurs, résumés synthétiques ou encore extraction de tâches et citations importantes.

Mieux encore, on peut analyser jusqu’à 10 fichiers en même temps, qu’il s’agisse de simples enregistrements ou même d’archives ZIP (limitées à 10 éléments).

Des limites selon votre abonnement

Google a prévu une hiérarchie claire d’usages :

  • Version gratuite : transcription limitée à 10 minutes par fichier, avec 5 prompts/jour. Un plafond généreux comparé aux services concurrents gratuits.
  • Google AI Pro/Ultra : jusqu’à 3 heures d’audio par fichier, idéal pour podcasteurs, journalistes ou étudiants qui veulent analyser conférences et interviews sans découper les enregistrements.

À 21,99 euros/mois, le plan AI Pro se positionne comme un outil accessible aux professionnels qui cherchent une alternative abordable aux logiciels de transcription classiques.

Un trio de mises à jour Gemini

Cette nouveauté s’accompagne de deux autres annonces :

  1. Google Search en AI Mode prend désormais en charge 5 nouvelles langues : hindi, indonésien, japonais, coréen et portugais brésilien.
  2. NotebookLM enrichit son éventail de rapports (fiches de révision, blogs, briefings, quiz, flashcards), disponibles en plus de 80 langues.

Ces ajouts confirment la stratégie de Google : accélérer l’intégration de Gemini dans tout son écosystème, du moteur de recherche aux outils de productivité.

Gemini avec l’audio, c’est bien plus qu’une simple transcription. On passe du brut au contenu actionnable et intelligent, directement exploitable pour gagner du temps au quotidien. La limite de 10 minutes pour les comptes gratuits reste contraignante, mais largement suffisante pour tester. Les formules payantes, elles, ouvrent la voie à une adoption professionnelle massive.

Lire plus
Intelligence Artificielle

Apple Intelligence : lancement en Chine prévu avant fin 2025 malgré la censure

Apple Intelligence : lancement en Chine prévu avant fin 2025 malgré la censure

Apple semble prêt à franchir une nouvelle étape stratégique : selon les dernières révélations de Mark Gurman (Bloomberg), la firme de Cupertino viserait désormais un lancement d’Apple Intelligence en Chine d’ici la fin de l’année.

Si cela se concrétise, il s’agirait du premier modèle d’IA générative issu d’un Big Tech américain à être officiellement accessible sur le marché chinois, où ni OpenAI, ni Google, ni Microsoft n’ont encore percé.

Apple Intelligence : Un lancement sous haute surveillance réglementaire

Jusqu’ici, la Chine s’était tenue à l’écart d’Apple Intelligence, pourtant déjà disponible aux États-Unis et en Europe depuis iOS 18. Le blocage venait des règles strictes imposées par Pékin, qui exige des partenariats locaux et une censure conforme aux lois nationales.

Apple aurait ainsi noué un accord avec Alibaba pour adapter et filtrer les contenus générés, tandis que Baidu serait sollicité pour certaines briques technologiques liées à la reconnaissance visuelle.

Une intégration prévue dans iOS 26.1 ou 26.2

D’après les fuites, le déploiement chinois pourrait coïncider avec une mise à jour majeure du système, probablement iOS 26.1 ou 26.2. Des employés d’Apple basés en Chine testeraient déjà les fonctionnalités en conditions réelles, afin de préparer une sortie sans accroc. Les serveurs locaux permettront de respecter la législation sur la localisation des données, même si cela impliquera une version filtrée de l’IA, moins libre que dans le reste du monde.

Pour Apple, réussir ce lancement est crucial : la Chine représente l’un de ses plus gros marchés pour l’iPhone, mais la concurrence locale, notamment Huawei, gagne du terrain grâce à ses propres solutions d’IA embarquées. Apple Intelligence pourrait devenir un argument décisif pour inciter les utilisateurs à renouveler leurs appareils, surtout si la promesse d’une meilleure expérience avec Siri et des outils de productivité tient ses promesses.

Un équilibre fragile entre innovation et compromis

Reste que ce projet se déroule dans un contexte géopolitique tendu. Entre la pression des États-Unis, qui freinent les transferts de technologies sensibles, et les exigences de Pékin en matière de contrôle de l’information, Apple doit jongler entre innovation et concessions.

Le pari est risqué : en cas de succès, la marque pourrait doper ses ventes de 10 à 15 % dans la région ; mais un retard ou une version trop bridée risquerait de décevoir et de renforcer ses rivaux locaux.

Lire plus
Intelligence Artificielle

DeepSeek R2 : la startup chinoise prépare un agent IA autonome pour 2025

DeepSeek R2 : la startup chinoise prépare un agent IA autonome pour 2025

La startup chinoise DeepSeek, basée à Hangzhou, s’apprête à franchir une nouvelle étape dans l’IA avec le lancement annoncé de son agent intelligent de nouvelle génération d’ici fin 2025, selon Bloomberg.

Contrairement aux simples chatbots textuels, cet agent pourra exécuter des tâches complexes en plusieurs étapes avec très peu d’intervention humaine, tout en apprenant de ses actions passées pour améliorer ses performances.

DeepSeek s’était déjà fait remarquer en début d’année avec son modèle R1, réputé pour ses capacités de raisonnement avancées. Développé pour seulement 6 millions de dollars, il a coûté une fraction des budgets colossaux d’OpenAI ou de Google.

Open source, DeepDeek R1 a rapidement séduit les développeurs et remis en question la logique du « bigger is better » qui domine la tech américaine.

De DeepDeek R1 à DeepDeek R2 : une stratégie prudente mais ambitieuse

Alors que des géants comme Alibaba et Tencent accélèrent leurs déploiements IA, le fondateur Liang Wenfeng a choisi une approche plus mesurée, retardant le DeepDeek R2 pour peaufiner la technologie.

Entre-temps, la mise à jour DeepDeek V3.1 a élargi la fenêtre de contexte à 128 000 tokens et porté le nombre de paramètres à 685 milliards. DeepSeek impose aussi désormais des labels obligatoires sur tous les contenus générés par IA, une transparence inédite qui le distingue de ses concurrents.

L’IA agent, prochaine révolution numérique

Le futur DeepDeek R2 ciblera le marché émergent des agents autonomes, capables de planifier des voyages, déboguer du code ou gérer des workflows business sans supervision constante. Les analystes estiment que cette technologie pourrait réinventer la productivité et les services numériques, à l’instar de ce que préparent déjà OpenAI, Microsoft et Anthropic.

La montée en puissance de DeepSeek attire déjà l’attention à Silicon Valley et Washington, où l’on s’inquiète de la progression rapide de la Chine dans l’intelligence artificielle. L’arrivée d’un agent IA « made in China » performant pourrait rebattre les cartes dans la course mondiale à l’IA.

Avec son DeepDeek R2, DeepSeek entend prouver qu’innovation et efficacité ne nécessitent pas forcément des budgets astronomiques. En combinant prudence technique et ambitions globales, la startup pourrait devenir l’un des principaux challengers d’OpenAI et de Google dans la bataille des agents IA autonomes.

Lire plus
Intelligence Artificielle

Google Gemini précise enfin ses limites d’utilisation : transparence bienvenue ou frein à la créativité ?

Google Gemini précise enfin ses limites d’utilisation : transparence bienvenue ou frein à la créativité ?

Google a mis fin au flou qui entourait jusqu’ici les quotas d’utilisation de son IA, Gemini. L’entreprise détaille désormais noir sur blanc combien de prompts, d’images ou de rapports Deep Research chaque type de compte Gemini peut générer par jour.

Une clarification attendue, alors que les utilisateurs se plaignaient de messages vagues comme « accès limité » ou « utilisation restreinte » qui laissaient place à trop d’incertitudes.

Gemini : Des quotas désormais chiffrés

Avec un compte gratuit, les utilisateurs n’ont droit qu’à 5 prompts par jour avec Gemini 2.5 Pro, cinq recherches approfondies et cent images générées.

L’abonnement AI Pro décuple ces capacités avec cent prompts quotidiens et jusqu’à mille images. Enfin, l’offre AI Ultra, la plus avancée, monte à cinq cents prompts par jour, tout en conservant le même plafond d’images.

Cette transparence permet aux utilisateurs de mieux planifier leur usage et d’évaluer si un passage à un abonnement payant est nécessaire. Mais elle révèle aussi une contrainte : la créativité illimitée promise par l’IA reste conditionnée par des barrières techniques, qui rappellent les limitations rencontrées sur d’autres plateformes, comme OpenAI ou Anthropic.

Entre transparence et frustration

D’un côté, Google marque des points en jouant la carte de la clarté. De l’autre, certains regretteront que les plafonds soient trop restrictifs, surtout pour les créateurs qui s’appuient massivement sur l’image générative ou la recherche avancée.

À long terme, la question est de savoir si ces limites ne vont pas frustrer les utilisateurs les plus actifs et les pousser vers des alternatives plus ouvertes.

Lire plus
Intelligence Artificielle

ChatGPT introduit les « branches de conversation » : tester plusieurs idées sans perdre le fil

ChatGPT introduit les « branches de conversation » : tester plusieurs idées sans perdre le fil

OpenAI a lancé une nouvelle fonctionnalité très attendue sur ChatGPT : la possibilité de créer des branches de conversation parallèles.

Désormais, les utilisateurs peuvent tester plusieurs idées ou variantes sans écraser leur fil principal, un peu comme si l’on faisait une copie d’un document avant de l’éditer.

Comment ça marche ?

Depuis l’interface Web, il suffit de passer la souris sur un message, cliquer sur « Plus d’actions », puis « Créer une branche dans un nouveau chat ». Une nouvelle discussion s’ouvre avec tout l’historique conservé, tandis que la conversation d’origine reste intacte.

Screen 2025 09 07 at 08.25.04

Pour un brainstorming marketing par exemple, une même base de discussion peut donner lieu à trois branches : une version sérieuse, une version humoristique et une version exploratoire.

Avant, les utilisateurs devaient soit modifier leur conversation en cours au risque de perdre du contexte, soit recommencer à zéro dans un nouveau chat. Ce nouveau système évite cette frustration et facilite l’exploration de scénarios « Et si » sans charge mentale supplémentaire.

Les développeurs comparent déjà la fonctionnalité au branching dans Git, qui permet de tester des changements sur des branches séparées sans affecter le code principal.

Un rappel : l’IA n’est pas humaine

Cette nouveauté met en lumière la nature « modulaire » des modèles d’IA. Contrairement à une discussion humaine qui bifurque naturellement, l’IA avait jusque-là une structure linéaire.

La branche de conversation permet de simuler une pensée parallèle, mais ne signifie pas que ChatGPT « se souvient » comme une personne : il maintient simplement plusieurs états computationnels.

Impact et perspectives

  • Pour les utilisateurs : plus de créativité et moins d’interruptions de flux.
  • Pour les pros : un atout dans le développement logiciel, la planification de projets ou l’écriture collaborative.
  • Pour l’industrie : un alignement sur des concurrents comme Claude d’Anthropic, qui offrait déjà cette fonction, mais avec l’avantage de la large base d’utilisateurs de ChatGPT.

Cependant, cette amélioration ne résout pas les limites plus profondes des modèles, comme les hallucinations (informations inventées). Elle invite donc à rester vigilant : l’IA est un outil puissant, mais pas une entité consciente.

 

Lire plus
Intelligence Artificielle

ChatGPT Projets : la fonctionnalité premium arrive enfin pour tous les utilisateurs

ChatGPT Projets : la fonctionnalité premium arrive enfin pour tous les utilisateurs

OpenAI élargit l’accès à l’une de ses fonctionnalités premium : Projets. Lancée en décembre dernier pour les abonnés payants, l’option Projets est désormais disponible pour les utilisateurs gratuits de ChatGPT.

Concrètement, Projets agit comme un dossier personnalisé à l’intérieur de ChatGPT, dans lequel vous pouvez regrouper vos fichiers, images et instructions spécifiques à un projet donné.

ChatGPT : Un espace dédié pour chaque usage

Avec Projets, il est possible de créer un chatbot sur mesure pour un besoin précis. Par exemple, un projet santé pour stocker vos rapports médicaux, un projet études pour vos cours et résumés, un projet voyage pour vos itinéraires et documents pratiques, ou encore un projet finance pour vos budgets.

Chaque projet fonctionne comme un espace autonome, propulsé par le modèle GPT-5.

Limites et stockage selon les abonnements

La nouvelle version étend les capacités à tous les profils, mais avec des restrictions :

  • Utilisateurs gratuits : jusqu’à 5 fichiers par projet.
  • Abonnés Plus/Go/Edu : jusqu’à 25 fichiers.
  • Clients Pro/Business/Enterprise : jusqu’à 40 fichiers.

Cette hiérarchisation permet de s’adapter aussi bien à des usages ponctuels qu’à des besoins professionnels intensifs.

Une mémoire séparée pour chaque projet

Grande nouveauté : la mémoire de Projets est indépendante de la mémoire classique de ChatGPT. Chaque dossier garde ses propres données et instructions, ce qui évite toute confusion avec vos conversations habituelles.

Pour aller plus loin, il est possible de personnaliser ses projets avec des couleurs et icônes spécifiques afin de mieux organiser ses espaces de travail.

Et les tâches programmées ?

Attention toutefois : la création de tâches programmées dans ChatGPT reste réservée aux abonnés payants. OpenAI n’a pas encore ouvert cette fonctionnalité aux utilisateurs gratuits, même si cela fait partie des attentes les plus demandées par la communauté.

Avec Projets, OpenAI rend son IA encore plus polyvalente. En permettant aux utilisateurs gratuits d’accéder à cette fonctionnalité jusqu’ici premium, ChatGPT s’impose davantage comme un outil central pour organiser et automatiser ses projets personnels et professionnels.

Lire plus
Intelligence Artificielle

Mistral AI : la pépite française de l’IA bientôt valorisée 14 milliards de dollars

Mistral AI : la pépite française de l’IA bientôt valorisée 14 milliards de dollars

La startup française Mistral AI, fondée il y a seulement deux ans par d’anciens chercheurs de DeepMind et Meta, s’apprête à franchir un nouveau cap. Selon TechCrunch, Mistral AI serait en passe de boucler un tour de table qui la valoriserait à 14 milliards de dollars, confirmant son statut de principal rival européen d’OpenAI.

En 2023, Mistral était valorisée à seulement 2 milliards d’euros après une première levée de fonds. Début 2025, sa valorisation atteignait déjà 6 milliards, et elle préparait un tour de table d’1 milliard de dollars pour grimper à 10 milliards.

Aujourd’hui, le cap des 14 milliards démontre l’énorme confiance des investisseurs dans la scalabilité de ses modèles d’IA.

La société s’est rapidement distinguée grâce à Le Chat, son chatbot pensé pour les utilisateurs européens, et surtout par son choix d’un modèle open source permettant aux développeurs et entreprises d’adapter librement leurs applications d’IA.

Mistral AI : Un positionnement stratégique face aux géants américains

L’approche ouverte de Mistral AI contraste fortement avec les systèmes fermés de ses concurrents, comme OpenAI ou Anthropic. Ce choix séduit de nombreuses entreprises européennes, soucieuses d’éviter un vendor lock-in et de conserver leur indépendance technologique.

Les performances des modèles de Mistral, qui rivaliseraient avec GPT-4 tout en ayant été entraînés à des coûts moindres, renforcent encore l’intérêt des investisseurs. Plusieurs rumeurs évoquent même un intérêt d’Apple pour un rachat de la startup, afin d’accélérer ses propres projets en intelligence artificielle.

Des investisseurs globaux et des enjeux géopolitiques

Parmi les acteurs déjà impliqués, on retrouve le fonds souverain MGX d’Abu Dhabi, qui voit dans Mistral une opportunité stratégique au cœur de la rivalité technologique entre les États-Unis et la Chine.

Cette dimension géopolitique est renforcée par la volonté affichée de l’Union européenne de bâtir une souveraineté numérique et de ne pas dépendre exclusivement des solutions américaines ou asiatiques.

Des défis de taille à relever

Malgré l’enthousiasme, Mistral devra répondre à plusieurs défis cruciaux :

  • Retenir les talents dans un secteur ultra-concurrentiel.
  • Gérer les coûts colossaux liés à l’entraînement de modèles toujours plus puissants.
  • Monétiser ses solutions open source, là où des acteurs comme OpenAI misent sur des services premium.

Le succès de son modèle économique conditionnera sa capacité à transformer son avance technologique en domination commerciale.

Avec cette valorisation record et son approche disruptive, Mistral AI pourrait devenir le champion européen de l’IA générative, capable de bousculer l’hégémonie américaine. Reste à savoir si la startup saura équilibrer son ADN open source avec les impératifs de rentabilité. Une chose est sûre : son prochain financement marquera un tournant dans l’histoire de l’intelligence artificielle en Europe.

 

Lire plus
Intelligence Artificielle

LLM Siri : Apple prépare un Siri boosté à l’IA pour 2026 avec résumés intelligents

LLM Siri : Apple prépare un Siri boosté à l’IA pour 2026 avec résumés intelligents

Apple planche actuellement sur une nouvelle version de son assistant vocal, baptisée en interne « LLM Siri » ou encore « World Knowledge Answers ». Attendue pour début 2026, cette évolution devrait transformer Siri en véritable « moteur de réponses », capable de résumer des recherches Web et de fournir des informations précises dans un format concis.

Un Siri pensé comme un moteur de réponses

Contrairement aux attentes nées lors de la WWDC 2024, cette première étape de l’IA générative de Siri ne sera pas une refonte complète de l’assistant, mais plutôt l’intégration d’un outil de recherche avancé.

Inspiré des AI Overviews de Google ou des résumés proposés par OpenAI, LLM Siri pourra analyser différentes sources en ligne et proposer un condensé clair et structuré. L’interface prendrait en charge le texte, les images, les vidéos et même des points d’intérêt locaux, le rapprochant davantage des moteurs de recherche nouvelle génération que d’un simple assistant vocal.

Une intégration au cœur d’iOS

Selon les informations de Bloomberg, Apple ne limiterait pas cette nouveauté à Siri. Le Answer Engine pourrait aussi s’intégrer à la recherche Spotlight et au navigateur Safari, ce qui ferait de LLM Siri un outil transversal pour tous les utilisateurs d’iPhone, d’iPad et de Mac.

L’idée : ne plus se contenter de lancer une requête web classique, mais obtenir directement un résumé de qualité, sans passer par des dizaines de liens.

Un partenariat possible avec Google Gemini ?

Bien que la firme de Cupertino développe ses propres modèles IA, des discussions sont en cours avec Google pour exploiter une version personnalisée de Gemini sur les serveurs Apple. L’objectif serait d’améliorer la génération de réponses, tout en laissant à Siri la gestion des données personnelles locales.

Apple évaluerait également d’autres modèles, comme Claude d’Anthropic, pour certaines fonctions de planification ou de compréhension contextuelle.

Date de sortie prévue

Apple WWDC24 Apple Intelligence

D’abord pressentie pour accompagner l’iPhone 16 en 2024, la mise à jour IA de Siri a été repoussée, suscitant la déception des utilisateurs et même des plaintes pour publicité trompeuse.

D’après les dernières fuites, LLM Siri pourrait arriver dès mars 2026 via iOS 26.4, avec un déploiement progressif au fil de l’année. Une version encore plus avancée, capable de gérer des actions complexes et des intégrations profondes, serait attendue autour de 2027.

Avec LLM Siri, Apple ne révolutionnera peut-être pas encore totalement son assistant, mais posera une pierre essentielle à son avenir. Résumer le web, fournir des réponses contextuelles et s’intégrer à tout l’écosystème iOS pourrait suffire à repositionner Siri face à ses concurrents directs, comme Gemini ou ChatGPT.

Lire plus
Intelligence Artificielle

ChatGPT : OpenAI active des contrôles parentaux et redirige les conversations sensibles

ChatGPT : OpenAI active des contrôles parentaux et redirige les conversations sensibles

OpenAI a annoncé un plan d’actions en 120 jours pour renforcer la protection des utilisateurs les plus vulnérables dans ChatGPT. Deux axes majeurs se dégagent : des contrôles parentaux pour les comptes adolescents et un routage automatique des échanges sensibles (signes de détresse aiguë, idées suicidaires, etc.) vers des modèles de raisonnement plus robustes, comme GPT-5 thinking.

L’objectif est d’obtenir des réponses plus prudentes, contextualisées et résistantes aux incitations dangereuses, quelle que soit la version de modèle initialement choisie par l’utilisateur.

OpenAI précise que ce chantier est déjà en cours et qu’il s’inscrit dans une trajectoire plus large pour rendre ChatGPT « plus utile et plus sûr » dans les moments difficiles, avec l’appui d’un Expert Council on Well-Being and AI et d’un réseau de médecins (plus de 250 praticiens, dont 90 mobilisés sur la santé mentale des adolescents).

Ce que prévoient les contrôles parentaux dans ChatGPT

D’ici quelques semaines, des comptes parents pourront être liés à ceux de leurs ados (dès 13 ans) via invitation par e-mail. Par défaut, des règles de comportement adaptées à l’âge seront appliquées.

Les parents pourront désactiver des fonctionnalités comme la mémoire ou l’historique, et recevoir une alerte quand le système détecte des signes de détresse aiguë pendant les échanges. OpenAI a aussi généralisé des rappels in-app pour inciter à faire des pauses lors des sessions très longues.

Pourquoi maintenant : des cas graves et une pression croissante

L’initiative survient après des affaires très médiatisées, dont la plainte pour mort injustifiée déposée par les parents d’Adam Raine (16 ans), qui aurait reçu des réponses validant ses idées suicidaires au fil de centaines de messages.

Un autre dossier décrit un meurtre-suicide où l’utilisateur, en proie à des délires paranoïaques, aurait vu ses croyances renforcées par le chatbot. Ces drames ont ravivé les critiques sur l’insuffisance des garde-fous actuels à l’échelle des conversations prolongées.

OpenAI reconnaît d’ailleurs que dans des échanges très longs, les protections peuvent se dégrader et le modèle finir par contredire ses propres garde-fous — une faiblesse que l’entreprise cherche à compenser via le routage vers des modèles de raisonnement capables de « penser plus longtemps » avant de répondre.

Le « piège » des discussions longues : ce que dit la recherche

Des psychiatres d’Oxford ont décrit un mécanisme de « bidirectional belief amplification » : l’aspect flatteur des chatbots peut amplifier les croyances d’un utilisateur vulnérable, bouclant une rétroaction où chacun renforce l’autre jusqu’à des validations extrêmes. Leur conclusion est nette : les garde-fous actuels des IA ne suffisent pas à traiter ces risques interactionnels et réclament une supervision et des normes comparables à celles des interventions de santé mentale.

Dans ce contexte, la stratégie d’OpenAI — rediriger automatiquement certains échanges vers des modèles plus prudents et outiller les parents — apparaît comme un premier levier technique et organisationnel pour réduire ces dérapages.

OpenAI durcit sa posture de sûreté sur ChatGPT en combinant contrôles parentaux, alertes de détresse, routage vers des modèles de raisonnement et travail avec des experts. Les annonces répondent à des incidents graves et à un consensus scientifique naissant sur les risques d’amplification des croyances dans des dialogues prolongés. Reste à vérifier l’efficacité réelle de ces mesures à l’échelle, et la manière dont elles s’articuleront avec des exigences réglementaires de plus en plus strictes.

Lire plus