fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI reporte son modèle open source pour raisons de sécurité

OpenAI reporte son modèle open source pour raisons de sécurité

Alors que le lancement de son modèle open source était attendu cette semaine, OpenAI a annoncé un nouveau report de son modèle open source, cette fois sans date de sortie, invoquant la nécessité d’effectuer des tests de sécurité supplémentaires.

Dans un message publié vendredi sur X, Sam Altman, PDG d’OpenAI, a justifié cette décision par des considérations de sécurité : « Nous avons besoin de plus de temps pour exécuter des tests de sécurité additionnels et analyser les zones à haut risque. Nous ne savons pas encore combien de temps cela nous prendra ».

« Nous faisons confiance à la communauté pour faire de grandes choses avec ce modèle, mais, une fois les poids publiés, il est impossible de revenir en arrière. C’est une première pour nous, et nous voulons faire les choses correctement ».

Un modèle ouvert très attendu

Ce modèle est le premier open source que OpenAI prévoit de publier depuis plusieurs années, dans un contexte de forte pression concurrentielle exercée par Anthropic, xAI (d’Elon Musk) et Google DeepMind.

Contrairement à GPT-5, dont la sortie est également prévue cet été, ce modèle sera téléchargeable librement et pourra fonctionner en local, sans connexion aux serveurs d’OpenAI. Ce positionnement vise à séduire les développeurs et les chercheurs qui demandent plus de transparence et de contrôle sur les grands modèles d’IA.

Selon des fuites précédentes relayées par TechCrunch, ce modèle disposerait de capacités de raisonnement comparables à la série « o » d’OpenAI, tout en se positionnant comme un modèle de référence dans l’univers de l’open source.

Pourquoi ce report soudain ?

Ce n’est pas la première fois que le projet est retardé. En juin, Sam Altman avait déjà annoncé un report d’un mois, évoquant que les résultats obtenus par l’équipe étaient « inattendus et impressionnants », sans donner plus de détails.

Vendredi, Aidan Clark, vice-président de la recherche chez OpenAI et responsable du développement de ce modèle, a précisé : « En termes de capacités, nous pensons que ce modèle est phénoménal. Mais notre exigence pour un modèle open source est très élevée, et nous pensons avoir besoin d’un peu plus de temps pour nous assurer qu’il est irréprochable sur tous les plans ».

L’inquiétude principale réside dans le risque d’exploitation malveillante, notamment dans un contexte géopolitique tendu et face à des usages potentiellement sensibles, comme la désinformation, la cybersécurité ou la génération de contenus autonomes à grande échelle.

Une concurrence de plus en plus féroce

Ce report intervient alors que l’écosystème des modèles ouverts devient particulièrement compétitif. Pour OpenAI, le défi est désormais double : maintenir sa position de leader technologique dans un marché en pleine ébullition, et offrir des garanties de sécurité et d’éthique à la hauteur de ses ambitions.

Le choix de reporter la sortie d’un modèle aussi puissant est un signal fort envoyé à la communauté. Dans un contexte où l’ouverture des modèles est à la fois une opportunité et une menace, OpenAI fait le pari de la prudence plutôt que de la précipitation.

Mais ce report pourrait également laisser le champ libre à ses concurrents, plus agressifs sur le terrain des modèles ouverts. La balle est désormais dans le camp d’OpenAI, qui devra prouver que cette attente était justifiée… et qu’elle servira réellement la sécurité et la qualité.

 

Lire plus
Intelligence Artificielle

Dans les coulisses d’OpenAI : un ex-ingénieur raconte une année de chaos productif et d’innovation folle

Dans les coulisses d’OpenAI : un ex-ingénieur raconte une année de chaos productif et d’innovation folle

Il y a trois semaines, Calvin French-Owen, ingénieur et ancien cofondateur de la startup Segment (revendue à Twilio pour 3,2 milliards de dollars), quittait OpenAI après une année intense. Aujourd’hui, il partage son retour d’expérience sans langue de bois, levant le voile sur le fonctionnement interne d’une des entreprises les plus surveillées de la tech mondiale.

Son témoignage, publié dans un article de blog devenu viral, offre un aperçu fascinant de la culture d’entreprise d’OpenAI, de ses méthodes de travail, mais aussi des défis techniques et humains d’une entreprise passée de 1 000 à 3 000 employés en un an.

OpenAI : Une croissance fulgurante qui met tout sous tension

Dès son arrivée, French-Owen a été plongé dans un environnement en hypercroissance. En un an, OpenAI a multiplié par trois ses effectifs pour répondre à une demande explosive : plus de 500 millions d’utilisateurs actifs pour ChatGPT à la mi -2025. Une croissance jamais vue dans l’histoire des produits technologiques.

Mais à cette vitesse, tout casse, explique-t-il : communication interne, processus de livraison produit, organisation des équipes, gestion RH, etc. Le cadre évoque une ambiance de startup… dans un colosse mondial. « OpenAI ne se rend pas encore compte qu’elle est devenue une très grande entreprise », écrit-il. L’entreprise fonctionne toujours… entièrement sur Slack.

Codex : un sprint épuisant de 7 semaines

French-Owen a notamment travaillé sur Codex, l’agent de codage d’OpenAI qui rivalise avec Cursor ou le mode « Claude Code » d’Anthropic. Son équipe — composée de 8 ingénieurs, 4 chercheurs, 2 designers, 2 commerciaux et 1 product manager — a conçu et lancé le produit en seulement 7 semaines, sans sommeil ou presque.

« Le simple fait de le mettre dans la barre latérale gauche de ChatGPT a suffi pour que des milliers d’utilisateurs s’en emparent », raconte-t-il. L’effet viral de la plateforme a servi de levier de lancement plus puissant que n’importe quel plan marketing.

Une dette technique grandissante

Le revers de la médaille ? Un codebase monolithique et chaotique, écrit-il. L’ingénierie chez OpenAI repose sur Python, un langage flexible mais peu structurant. Ajoutez à cela des ingénieurs de niveaux très différents — des vétérans de Google côtoient des PhD fraîchement diplômés — et vous obtenez une architecture instable.

« J’ai vu au moins une demi-douzaine de bibliothèques différentes pour la gestion de files d’attente ou les boucles d’agents », confie-t-il. Résultat : des doublons, du code non optimisé et des plantages fréquents. Les managers sont conscients du problème, et des efforts sont en cours pour améliorer la stabilité du système.

Une culture de la discrétion… presque paranoïaque

Le succès de ChatGPT a aussi engendré une culture de la confidentialité très stricte. Les risques de fuites ou de mauvaise communication sont tellement élevés que l’entreprise adopte une stratégie de surveillance interne, tout en restant très attentive aux signaux sur les réseaux sociaux, en particulier sur X (ex-Twitter).

« Un ami à moi a dit : OpenAI fonctionne à l’énergie de Twitter », plaisante French-Owen. Une blague, mais qui reflète bien l’ambiance : chaque tweet viral est pris au sérieux.

La vérité sur la sécurité chez OpenAI

L’un des points les plus intéressants du billet concerne la sécurité — un sujet souvent sujet à polémiques autour d’OpenAI. Contrairement à ce que beaucoup imaginent, la sécurité n’est pas prise à la légère, selon French-Owen.

Il distingue deux approches :

  • La sécurité théorique (scénarios catastrophes à long terme)
  • Et la sécurité pratique (discours haineux, manipulation politique, bio-terrorisme, autodestruction, injections de prompts, etc.)

« En interne, la priorité est clairement donnée à la sécurité concrète et immédiate », affirme-t-il. Mais il confirme que des équipes travaillent sur les risques à long terme, tout en reconnaissant que l’entreprise marche sur une ligne de crête, entre innovation rapide et responsabilité éthique.

Le modèle OpenAI : entre désordre contrôlé et puissance virale

Ce témoignage d’initié révèle une entreprise tiraillée entre son ADN de startup et sa stature de géant mondial. D’un côté, une culture de l’action rapide, peu de bureaucratie, beaucoup d’autonomie, et des lancements qui explosent immédiatement grâce à l’effet ChatGPT. De l’autre, une complexité croissante, une dette technique, une organisation qui peine à suivre, et des enjeux géopolitiques colossaux.

Mais malgré les failles, l’élan reste impressionnant. OpenAI continue de sortir des produits majeurs, d’attirer les meilleurs talents et de capter l’attention des gouvernements, des médias et des concurrents à chaque mouvement.

Le départ de Calvin French-Owen ne s’explique pas par une crise ou une controverse. Il veut simplement retourner dans l’univers des startups, retrouver l’agilité et l’adrénaline de la création pure. Mais son année chez OpenAI restera pour lui, et pour nous, le témoignage rare d’un moment charnière dans l’histoire de l’intelligence artificielle.

OpenAI est encore loin d’avoir atteint la maturité d’une entreprise comme Google ou Microsoft. Mais son impact, lui, est déjà planétaire.

Lire plus
Intelligence Artificielle

Mistral muscle Le Chat avec le mode Deep Research, la réponse européenne aux agents IA avancés

L’essor des agents intelligents marque un tournant majeur dans l’évolution des outils d’IA générative. Alors que ChatGPT d’OpenAI, Gemini de Google ou encore Claude d’Anthropic ont déjà intégré des fonctions de recherche avancée, la start-up française Mistral passe à l’offensive. Elle vient de doter Le Chat, son assistant conversationnel, de Deep Research, un agent capable de produire des rapports structurés, sourcés et directement exploitables.

Cette fonctionnalité, très attendue par les professionnels de la veille, du conseil et de l’analyse, vient enrichir un arsenal déjà bien fourni. À travers une série de mises à jour, Le Chat devient plus intuitif, plus puissant, et même plus créatif. Décryptage.

Le Chat & Deep Research: un partenaire de recherche à la demande

Avec son nouveau mode Recherche, Mistral propose une approche structurée. L’utilisateur pose une question, et Le Chat entre dans un dialogue de clarification pour bien cerner le besoin. Ensuite, il commence à collecter des sources fiables, analyser l’information, et rédiger un rapport clair et documenté.

Le système, propulsé par un agent baptisé lui aussi Deep Research, a été pensé pour offrir une expérience proche d’un véritable collaborateur humain, mais avec la vitesse et l’endurance d’une machine. Selon Mistral, l’objectif est de proposer un outil réellement utile, organisé, et adapté aux professionnels exigeants.

Cette fonctionnalité s’aligne sur une tendance forte du secteur : rendre les IA capables d’exécuter des tâches complexes, là où elles étaient auparavant cantonnées aux réponses ponctuelles.

Un mode « Thinking » multilingue plus naturel

Parallèlement, Le Chat profite aussi d’un mode Thinking renforcé grâce au modèle Magistral. Ce mode permet désormais de raisonner en plusieurs langues, avec la capacité impressionnante de code-switcher (changer de langue) en pleine phrase. Une avancée importante pour les contextes multilingues ou internationaux.

Édition d’images par prompt : l’IA graphique devient cohérente

La génération d’images par prompt s’enrichit elle aussi. On peut désormais demander à Le Chat de modifier une image existante en langage naturel. Par exemple : « Génère un dessin de chat » puis « place-le à Istanbul ». L’image est alors modifiée tout en conservant la cohérence visuelle de l’ensemble.

cat demo

Cette continuité entre les images générées est un point fort rarement bien maîtrisé par les concurrents, qui ont tendance à régénérer l’image entière au moindre changement.

Mode vocal et transcription instantanée avec Voxtral

Grâce à Voxtral, son moteur de reconnaissance vocale maison, Le Chat peut désormais être utilisé à la voix. Le mode vocal s’adresse aux utilisateurs souhaitant parler naturellement à leur IA. L’objectif est de proposer une expérience fluide, avec une faible latence et une compréhension contextuelle accrue.

C’est une réponse directe à ChatGPT Voice et aux démonstrations spectaculaires de Gemini avec Project Astra. Mais Mistral a un avantage : sa base européenne permet un déploiement plus fluide dans l’UE, là où OpenAI est encore freiné par des réglementations comme l’AI Act.

Projets : organiser ses discussions, fichiers et outils

Enfin, une nouvelle section Projets fait son apparition. Elle permet de regrouper plusieurs conversations autour d’un même thème, d’y associer des fichiers, des paramètres spécifiques, et de garder une vue organisée sur des travaux en cours. C’est une approche qui rappelle NotebookLM de Google, ou Memory chez ChatGPT.

6e528d1e dcf8 42ef 94ec 81eedf40 scaled

Une alternative européenne crédible

Avec cette série de mises à jour, Mistral entend bien se positionner comme l’alternative européenne aux géants américains de l’IA. Alors que beaucoup d’utilisateurs s’interrogent sur la souveraineté numérique, Le Chat coche plusieurs cases : performance, innovation, respect de la législation européenne et interface conviviale.

En apportant enfin un Deep Research performant et des fonctions déjà éprouvées chez ses concurrents, Mistral entre dans la cour des grands. Les premiers retours d’utilisateurs sont très positifs, saluant la qualité des synthèses générées, la fluidité du mode vocal, et la puissance d’organisation apportée par les Projets.

Lire plus
Intelligence Artificielle

OpenAI lance ChatGPT Agent : un assistant autonome capable d’agir pour vous

OpenAI lance ChatGPT Agent : un assistant autonome capable d’agir pour vous

OpenAI franchit une nouvelle étape dans l’évolution de l’intelligence artificielle en dévoilant officiellement ChatGPT Agent, un outil qui dépasse la simple conversation pour agir à votre place dans des tâches complexes.

Plus qu’un assistant, c’est une véritable interface d’automatisation, capable de naviguer sur Internet, de remplir des formulaires, de planifier des événements ou encore de générer des fichiers Excel ou PowerPoint sur demande.

ChatGPT Agent : Un assistant « agentique » plus qu’un chatbot

Contrairement à l’expérience habituelle avec ChatGPT, ChatGPT Agent ne se contente plus de répondre à vos questions : il peut effectuer des actions concrètes sur un environnement informatique virtuel. Réserver une table au restaurant, comparer des produits en ligne, analyser un fichier issu de Google Drive, ou encore préparer un rapport stratégique avec sources citées — tout cela est désormais possible grâce à une combinaison de technologies développées par OpenAI.

ChatGPT Agent repose sur trois piliers technologiques internes :

  • Operator, un agent visuel capable d’interagir avec les interfaces web comme un humain (cliquer, remplir des formulaires, naviguer),
  • Deep Research, un moteur de recherche textuel avancé qui sait analyser, synthétiser et produire des rapports documentés,
  • Les Connectors, des intégrations qui permettent à ChatGPT d’accéder à des sources de données comme Gmail, Google Drive ou Dropbox.

Ces outils sont désormais fusionnés dans un seul agent unifié, capable de travailler de manière autonome dans un environnement informatique isolé (terminal, navigateur, système de fichiers).

Exemples d’usage de ChatGPT Agent

Voici quelques scénarios concrets dans lesquels ChatGPT Agent peut briller :

  • Analyser votre calendrier et vous résumer vos rendez-vous importants de la semaine.
  • Planifier une soirée, réserver un restaurant selon vos préférences et votre disponibilité.
  • Télécharger un fichier Excel depuis Google Drive, l’analyser, puis générer une présentation PowerPoint avec les résultats.
  • Effectuer des achats en ligne, comparer les prix et vous présenter une synthèse argumentée.

Ces tâches complexes peuvent prendre 15 à 30 minutes, mais fonctionnent en arrière-plan, vous permettant de vous concentrer sur autre chose pendant ce temps.

Des garde-fous et des permissions

Avant toute action sensible (envoi d’e-mail, achat, réservation), ChatGPT Agent demande explicitement votre autorisation. De plus, un mode de protection baptisé Watch Mode limite l’agent sur certains sites sensibles (notamment financiers) pour éviter des actions non supervisées.

OpenAI précise aussi que le modèle dispose de garde-fous renforcés en cas de capacités biologiques ou chimiques avancées, bien que rien n’indique pour l’instant que le modèle puisse être utilisé à des fins dangereuses.

Comment activer ChatGPT Agent ?

Le déploiement est en cours pour les utilisateurs :

  • Pro : 400 requêtes par mois
  • Plus et Team : 40 requêtes par mois
  • Les clients Entreprise et Éducation recevront l’outil d’ici la fin du mois.

Pour l’activer, cliquez sur « Tools » > Agent Mode, ou tapez simplement/agent dans la barre de message de ChatGPT.

Une nouvelle ère des agents IA

Avec ce lancement, OpenAI rejoint la course aux IA agents, ces outils qui ambitionnent de fonctionner comme des assistants numériques personnels complets, à la manière du fameux J.A.R.V.I.S. d’Iron Man. L’industrie bouillonne : Klarna, Google, Meta, Anthropic… tous développent leurs propres agents.

L’objectif : remplacer les clics manuels, les tâches répétitives et les recherches fastidieuses par une IA capable d’anticiper, d’agir et de livrer des résultats utiles dans un flux de travail fluide.

Avec ChatGPT Agent, OpenAI amorce un virage fondamental vers des outils réellement proactifs. Bien qu’encore perfectible en termes de vitesse, l’outil marque une avancée majeure dans l’autonomie des IA et promet une transformation radicale de la manière dont nous interagissons avec nos outils numériques. Le futur du travail, de la productivité, et même de l’organisation personnelle pourrait bien passer par ce type d’agent intelligent.

 

Lire plus
Intelligence Artificielle

Thinking Machines : Mira Murati lève 2 milliards de dollars pour une IA multimodale open source

Thinking Machines : Mira Murati lève 2 milliards de dollars pour une IA multimodale open source

Quelques mois après son départ retentissant d’OpenAI, Mira Murati, ex-directrice technique de l’entreprise derrière ChatGPT, revient sur le devant de la scène avec une annonce majeure.

Sa nouvelle société, Thinking Machines, vient de lever 2 milliards de dollars auprès d’investisseurs prestigieux, et prévoit de lancer prochainement un premier produit intégrant un important composant open source, pensé pour les chercheurs, les startups et les développeurs de modèles personnalisés.

Une vision ambitieuse : IA multimodale, ouverte et collaborative

Fondée en 2024 après la vague de départs qui a secoué OpenAI, Thinking Machines se donne une mission claire : créer une intelligence artificielle collaborative, multimodale, et accessible. L’idée est de bâtir des systèmes capables de comprendre le langage naturel, les images, les interactions humaines imparfaites, et d’en tirer une IA qui s’intègre harmonieusement dans notre manière naturelle d’interagir.

Dans un message publié sur X (ex-Twitter), Murati décrit sa vision : « Nous construisons une IA multimodale qui fonctionne avec la façon dont vous interagissez naturellement avec le monde : par la conversation, la vision, et la collaboration ».

Pour accélérer le développement de ses ambitions, Thinking Machines vient de lever 2 milliards de dollars, menés par le fonds a16z (Andreessen Horowitz), avec la participation de NVIDIA, Accel, ServiceNow, Cisco, AMD, Jane Street, entre autres. Un soutien financier de poids qui traduit la confiance des investisseurs dans l’équipe de Thinking Machines, composée de figures majeures de la recherche en IA ayant contribué à des avancées telles que PPO, TRPO, GAE, ainsi qu’à des produits comme ChatGPT, Codex ou encore le système Character.ai.

Sarah Wang, partenaire chez a16z, a d’ailleurs déclaré : « Aucun autre groupe n’est mieux positionné pour faire progresser la frontière de l’IA ».

Un premier produit attendu dans les prochains mois

Le premier produit de Thinking Machines est attendu d’ici quelques mois, selon Murati. Il intégrera un volet open source important, conçu pour être utile aux chercheurs et aux startups développant leurs propres modèles. L’entreprise prévoit aussi de publier des documents scientifiques détaillés, des bonnes pratiques, ainsi que des mécanismes de sécurité comme le red teaming (tests adverses) et une surveillance post-déploiement.

Parmi les collaborateurs de Thinking Machines, l’excitation est palpable. Alexander Kirillov, ingénieur IA, décrit l’entreprise comme : « Le programme d’IA multimodale le plus ambitieux au monde ».

Cette annonce arrive alors qu’OpenAI vient de retarder la sortie de son propre modèle open source, prévue à l’origine pour cette semaine. Sam Altman, PDG d’OpenAI, a justifié ce retard par la nécessité de réaliser des tests de sécurité supplémentaires : « Une fois les poids du modèle publiés, il est impossible de revenir en arrière. Nous voulons faire les choses correctement ».

Ce report a été perçu par la communauté tech comme un manque de clarté et de transparence, laissant un vide que Thinking Machines semble prêt à combler.

Un écosystème open source en pleine mutation

Thinking Machines s’inscrit dans une dynamique d’ouverture initiée par d’autres acteurs majeurs. En janvier 2025, la startup chinoise DeepSeek a marqué les esprits avec le lancement du modèle open source DeepSeek R1, qui combine performance, personnalisation et exécution locale sans serveur, séduisant les utilisateurs soucieux de confidentialité.

Dans cette lignée, Google a récemment publié un modèle open source puissant en réponse au succès de DeepSeek, et OpenAI s’est vu contraint de réagir. Mais la prudence d’OpenAI, combinée à la transparence affichée par Thinking Machines, pourrait redistribuer les cartes dans le paysage des fondations d’IA ouvertes.

Une IA conçue comme une extension de l’humain

Thinking Machines affiche une philosophie forte : l’IA doit être une extension du pouvoir d’agir humain, et non un substitut. Elle doit être distribuée aussi largement et équitablement que possible, avec des outils performants, sûrs, et accessibles.

L’entreprise met ainsi l’accent sur :

  • Une recherche appliquée, pensée pour devenir rapidement des produits concrets
  • Des outils d’infrastructure IA efficaces, mutualisant la performance GPU et la productivité des chercheurs
  • Une ouverture vers la communauté, avec un appel clair aux talents à rejoindre l’aventure

Un tournant stratégique pour l’IA open source

Alors que l’industrie de l’IA est encore dominée par des modèles propriétaires fermés (OpenAI, Anthropic, Google DeepMind), Thinking Machines fait le pari inverse : ouvrir la boîte noire, proposer des alternatives puissantes, et répondre aux attentes d’une communauté de développeurs de plus en plus exigeante.

Le timing de cette annonce, combiné à une levée record et une promesse concrète de produit, pourrait propulser Thinking Machines au centre de l’écosystème IA mondial. Une chose est sûre : la bataille des modèles open source ne fait que commencer.

Lire plus
Intelligence Artificielle

Claude d’Anthropic entre dans la finance : l’IA au service des professionnels de l’investissement

Claude d’Anthropic entre dans la finance : l’IA au service des professionnels de l’investissement

Anthropic, la startup d’intelligence artificielle soutenue par Amazon, vient de dévoiler une version spécialisée de son assistant Claude, cette fois entièrement pensée pour les métiers de la finance. Une avancée stratégique qui marque l’entrée de Claude dans un secteur aussi exigeant que lucratif : les services financiers.

Claude pour la finance : une IA sur-mesure pour les analystes, banquiers et investisseurs

Selon CNBC, cette déclinaison de Claude est conçue pour accompagner les professionnels de la finance dans des tâches à haute valeur ajoutée : analyse de marchés, aide à la décision d’investissement, recherches financières complexes, simulations de portefeuilles…

image 10 scaled

Anthropic veut ainsi capter une part croissante du marché de l’IA appliquée à la banque, aux marchés boursiers et à la gestion d’actifs, un secteur en pleine transformation numérique.

Contrairement à d’autres IA plus généralistes, comme ChatGPT d’OpenAI, Claude se distingue par son architecture « interprétable et pilotable », pensée pour réduire les biais et renforcer la fiabilité. Une promesse qui résonne particulièrement dans la finance, où la conformité réglementaire et la traçabilité des décisions sont des impératifs.

Une startup au financement record, avec Amazon en soutien

Anthropic n’en est pas à son coup d’essai. Fondée par d’anciens cadres d’OpenAI, l’entreprise a vu le jour en 2021 et connaît une ascension fulgurante.

En 2024, elle boucle un tour de table la valorisant à 61,5 milliards de dollars, notamment grâce à un investissement massif de 4 milliards de dollars de la part d’Amazon, selon AboutAmazon. Ce partenariat stratégique pourrait permettre une intégration native de Claude avec les services AWS, facilitant son déploiement dans les infrastructures cloud des banques.

Des fonctionnalités conçues pour les exigences de Wall Street

Claude Finance n’est pas un simple assistant de conversation. Il embarque des outils capables de traiter des flux de données de marchés en temps réel, générer des rapports scénarisés, analyser des tendances sectorielles, ou encore simuler l’impact d’événements macroéconomiques sur un portefeuille.

image 11 scaled

Chaque fonction a été pensée avec un niveau de sécurité et de vérification adapté aux enjeux de la finance professionnelle, avec une attention particulière à la conformité réglementaire, au contrôle des hallucinations, et à la protection des données.

Anthropic a récemment obtenu un jugement fédéral favorable sur l’usage des données pour l’entraînement de ses IA, selon CNBC. Le tribunal a estimé que l’utilisation d’ouvrages pour entraîner Claude relevait du fair use, renforçant la position légale de l’entreprise face aux débats sur le droit d’auteur dans l’IA.

Cela permet à Anthropic de continuer ses développements sans craindre de blocages juridiques à court terme, contrairement à certaines startups confrontées à des recours en justice coûteux.

Un marché ultra-concurrentiel… mais stratégique

Anthropic n’est pas seul sur ce créneau. Google, Microsoft ou encore Bloomberg intensifient leurs efforts pour intégrer l’IA dans les outils d’analyse financière et de trading.

Mais l’avantage concurrentiel d’Anthropic réside dans :

  • Sa culture de la sécurité et de l’éthique, héritée de son positionnement initial ;
  • Son partenariat technologique avec Amazon, qui lui garantit des capacités de déploiement à grande échelle ;
  • Sa spécialisation croissante, avec des modèles adaptés aux usages réels de l’entreprise (Claude Enterprise, Claude 4 Sonnet, etc.).

Une IA taillée pour les défis à venir

Claude pour la finance pourrait révolutionner la gestion de portefeuille, en automatisant certaines stratégies quantitatives ; le conseil en investissement, via des recommandations générées à partir de données contextuelles ; et la recherche financière, en accélérant la lecture et l’analyse de rapports, tendances ou réglementations.

Selon des analystes du secteur, cette IA pourrait même remettre en question le rôle de certains cabinets d’analyse traditionnels, contraints d’adapter leurs modèles ou de collaborer avec des éditeurs d’IA.

Avec cette version spécialisée, Claude s’impose comme une alternative sérieuse aux solutions IA actuelles dans la finance, en mettant en avant une approche rigoureuse, interprétable, et conçue pour des environnements à haute responsabilité.

L’avenir de la finance sera assisté par l’intelligence artificielle. Reste à savoir si Claude saura gagner la confiance des régulateurs et des investisseurs… mais une chose est sûre : Anthropic place intelligemment ses pions dans une partie à très haut enjeu.

Lire plus
Intelligence Artificielle

DJI Agras T100 : un drone agricole de 100 kg pour révolutionner l’agriculture mondiale

DJI Agras T100 : un drone agricole de 100 kg pour révolutionner l’agriculture mondiale

DJI Agriculture a officiellement lancé ce 15 juillet son nouveau drone Agras T100 sur la scène mondiale. Ce modèle haut de gamme, déjà commercialisé en Chine depuis novembre dernier, s’adresse aux professionnels de l’agriculture à grande échelle en combinant capacité de pulvérisation, d’épandage et de levage sans précédent.

Conçu pour répondre aux exigences des exploitations modernes, le Agras T100 représente une avancée majeure dans le domaine des drones agricoles, alliant puissance, intelligence artificielle et polyvalence.

DJI Agras T100 : Pulvérisation de précision et épandage ultra-rapide

Le DJI Agras T100 embarque un réservoir de 100 litres, capable de pulvériser jusqu’à 30 litres par minute via deux buses intégrées. Pour les exploitants les plus exigeants, une option permet de passer à quatre buses brumisantes refroidies à l’eau, augmentant le débit à 40 litres/minute. Ce système permet l’application précise de pesticides, herbicides ou engrais, avec une charge utile maximale de 75 kg par vol.

T100 lichi orchard spraying

Côté épandage, le drone dispose d’un réservoir de 150 litres, propulsant les graines ou les fertilisants à une vitesse pouvant atteindre 20 m/s, avec un débit impressionnant de 400 kg/minute grâce à une vis sans fin de nouvelle génération. DJI promet une application homogène sur les grandes parcelles, comme le riz ou le blé, soutenue par des rapports automatisés intégrés dans le système de vol.

L’usage de l’IA pour moduler la répartition selon les conditions de terrain réduit considérablement le gaspillage de produits, améliorant à la fois la durabilité et la rentabilité des opérations.

Un drone capable de soulever 100 kg : bien plus qu’un outil agricole

Là où le Agras T100 se distingue radicalement de ses prédécesseurs, c’est dans sa capacité de levage : jusqu’à 100 kg de charge utile pour un poids au décollage de 149,9 kg. Grâce à ses hélices coaxiales en fibre de carbone, le drone atteint une poussée uniaxiale de 82 kg, permettant le transport de matériel lourd dans des zones reculées.

T100 lifting orange orchard

Cette fonction a déjà été démontrée au Vietnam lors de missions de sauvetage en cas d’inondation, avec livraison de matériel médical ou vivres dans des zones inaccessibles. Une polyvalence qui ouvre la voie à de nouvelles applications logistiques, humanitaires ou industrielles.

Navigation intelligente et sécurité avancée

Le DJI Agras T100 n’est pas seulement puissant : il est intelligent et sécurisé. Il intègre un système LiDAR, un radar à onde millimétrique, quatre capteurs visuels à 360°, et un traitement IA embarqué pour détecter dynamiquement les obstacles. Il adapte ainsi ses trajectoires en temps réel, même dans des conditions de faible visibilité.

Son système d’éclairage bas permet des opérations nocturnes, et le module DRTK 3 Agriculture Edition assure un positionnement centimétrique prêt à l’emploi. En complément, la réalité augmentée superpose des données de couverture en direct, renforçant le suivi terrain pour les exploitants.

Performances et autonomie : une machine conçue pour l’endurance

Le drone peut atteindre 50 km/h grâce à ses 8 moteurs synchronisés, s’adaptant aux terrains irréguliers et aux conditions climatiques variées. Côté autonomie, DJI introduit une nouvelle batterie compatible avec un chargeur de 11,5 kW, assurant une recharge complète en moins de neuf minutes. De quoi enchaîner les missions avec un temps d’arrêt quasi nul, un atout clé pour les grandes exploitations.

Disponibilité mondiale et implications économiques

Le Agras T100 est désormais disponible à l’international, aux côtés des modèles Agras T70P et T25P. Pour l’instant, seuls certains marchés y ont accès. Des préinscriptions sont déjà ouvertes via les distributeurs agréés.

T70P Eucalyptus

Des pays comme le Paraguay ou la Colombie prévoient de l’intégrer à grande échelle, notamment dans le cadre de projets d’infrastructure agricole soutenus par des initiatives internationales. En Europe, le T100 pourrait fortement concurrencer les méthodes traditionnelles de semis et de traitement, avec un retour sur investissement rapide pour les exploitants agricoles.

Le DJI Agras T100 cristallise les tendances de l’agriculture de demain : connectée, précise, durable et hautement automatisée. Il propose une alternative crédible à la main-d’œuvre coûteuse et à la pénibilité du travail manuel, avec un impact direct sur la réduction des coûts, l’optimisation des rendements et la traçabilité des opérations.

Alors que l’IA et la robotique deviennent des piliers de la production alimentaire mondiale, DJI s’impose une fois de plus comme leader de la transformation numérique des exploitations agricoles.

 

Lire plus
Intelligence Artificielle

Voxtral : Mistral lance son premier modèle audio open source pour concurrencer Whisper

Voxtral : Mistral lance son premier modèle audio open source pour concurrencer Whisper

Alors que la voix devient un mode d’interaction privilégié avec les intelligences artificielles, la startup française Mistral AI entre dans la course à l’audio avec une approche bien à elle : l’ouverture. Ce mardi, l’entreprise a dévoilé Voxtral, sa première famille de modèles vocaux open source, conçue pour offrir aux entreprises une alternative puissante, flexible… et abordable.

Avec Voxtral, Mistral entend casser le monopole des systèmes fermés (comme ceux d’OpenAI ou Google), tout en garantissant une performance de haut niveau, prête pour la production.

Voxtral : Une vraie « intelligence vocale » open source

Le pari est clair : rendre la parole à l’open source. Jusqu’à présent, les développeurs devaient souvent choisir entre des modèles ouverts et bon marché, mais peu précis, ou des solutions propriétaires efficaces… mais coûteuses, fermées, et difficiles à intégrer dans des workflows personnalisés.

Mistral change la donne avec Voxtral, qu’il présente comme le premier modèle vocal open source réellement exploitable en production.

Selon l’entreprise, Voxtral permet de traiter jusqu’à 30 minutes d’audio, avec une compréhension contextuelle jusqu’à 40 minutes grâce à son moteur LLM, Mistral Small 3.1. Il ne se contente pas de transcrire : il comprend, résume, interprète, répond et déclenche des actions via API. Et bien sûr, tout cela dans plusieurs langues, dont le français, l’anglais, l’espagnol, le portugais, l’allemand, le néerlandais, l’italien ou encore l’hindi.

Deux modèles : pour le cloud ou pour l’embarqué

Mistral propose deux variantes de Voxtral, selon les besoins de puissance et de déploiement :

  • Voxtral Small (24 milliards de paramètres): conçu pour des usages à grande échelle, en production. Il vise directement les concurrents comme GPT-4o-mini, ElevenLabs Scribe ou encore Gemini 2.5 Flash.
  • Voxtral Mini (3 milliards de paramètres) : destiné aux déploiements en local ou sur appareils embarqués (edge), avec un encombrement réduit et une consommation maîtrisée.

Enfin, une version allégée, baptisée Voxtral Mini Transcribe, a été optimisée pour des usages de transcription uniquement. Elle revendique des performances supérieures à Whisper d’OpenAI, pour moins de la moitié du prix.

Tarifs, accessibilité et usage

Screen 2025 07 15 at 22.52.58

La bonne nouvelle ? Voxtral est disponible en open source :

  • Le code et les modèles peuvent être testés directement via l’API de Mistral sur Hugging Face ;
  • Ils sont également intégrés à Le Chat, le chatbot maison de Mistral ;
  • L’intégration via API débute à 0,001 dollar la minute, une tarification ultra compétitive pour les entreprises.

Ce lancement s’inscrit dans la stratégie plus large de Mistral visant à créer un écosystème complet de modèles ouverts. Il intervient un mois seulement après Magistral, son modèle LLM orienté « raisonnement pas à pas ».

Une vision européenne assumée de l’IA

Fondée en 2023, Mistral s’est imposée comme l’un des fleurons européens de l’IA open source. Soutenue par des investisseurs prestigieux (dont récemment le fonds MGX d’Abu Dhabi, en discussion pour un tour à 1 milliard de dollars), la startup défend une IA transparente, souveraine et contrôlable par les développeurs.

Avec Voxtral, elle élargit son champ d’action au domaine vocal, stratégique dans l’adoption massive de l’IA dans l’entreprise, qu’il s’agisse de transcription, d’assistants vocaux, d’analyse d’appels ou de contrôle à la voix.

Voxtral s’impose déjà comme un sérieux concurrent de Whisper, ElevenLabs et Gemini, tout en offrant aux entreprises l’indépendance d’un modèle open source. Pour les développeurs, c’est une opportunité : plus de contrôle, plus de flexibilité, et des coûts divisés par deux.

L’intégration rapide dans des applications métiers, la compatibilité multilingue, et les performances sur le traitement vocal font de Voxtral une solution à suivre de près — surtout dans un monde où la voix devient l’interface par défaut de nos échanges avec les machines.

 

Lire plus
Intelligence Artificielle

Apple envisagerait sérieusement de racheter la pépite française Mistral AI

Apple envisagerait sérieusement de racheter la pépite française Mistral AI

Selon un rapport publié par Bloomberg, Apple envisagerait sérieusement l’acquisition de Mistral, la plus grande startup d’intelligence artificielle en Europe. Ce potentiel rachat, encore à l’étude, marque un tournant stratégique pour le géant de Cupertino qui cherche à combler son retard en matière d’IA face à des concurrents comme OpenAI, Google ou encore Meta.

Mistral AI : une étoile montante de l’IA européenne

Fondée en 2023, Mistral AI s’est rapidement imposée comme un acteur incontournable de l’IA générative grâce à une stratégie open source assumée et des modèles performants. En l’espace de deux ans, l’entreprise a levé 1,1 milliard d’euros à travers sept levées de fonds, dont un impressionnant tour de table de 600 millions d’euros en juin dernier, mené par DST Global et General Catalyst.

La startup est actuellement valorisée à 5,8 milliards d’euros, et serait en discussions avancées pour lever jusqu’à 1 milliard de dollars supplémentaires. Des négociations pour plusieurs centaines de millions d’euros de dettes bancaires sont également en cours, selon les sources de Bloomberg.

Des modèles performants et un chatbot déjà populaire

Mistral a séduit le marché avec une gamme complète de modèles de langage, à la fois compacts et puissants. Elle est notamment saluée pour ses capacités avancées en reconnaissance optique de caractères (OCR), un domaine stratégique pour l’automatisation de la lecture de documents.

Son chatbot maison, Le Chat, est également reconnu pour sa réactivité et sa compréhension contextuelle, positionnant la startup comme un concurrent crédible face aux leaders américains du secteur.

Pourquoi Apple s’intéresse-t-il à Mistral ?

Apple est sous pression. L’entreprise a été largement critiquée ces deux dernières années pour son retard dans le domaine de l’intelligence artificielle, notamment en ce qui concerne Siri, son assistant vocal historique. Alors que Google déploie Gemini dans tous ses services et que Microsoft mise sur Copilot, Apple peine à convaincre.

Son projet de nouvelle version de Siri, boostée à l’IA, a pris du retard et ne devrait pas voir le jour avant 2026. En parallèle, la firme explore depuis plusieurs mois l’intégration de modèles tiers dans ses produits, y compris pour iOS, iPadOS et macOS.

Dans ce contexte, acquérir un acteur solide comme Mistral permettrait à Apple de rapatrier des talents IA de premier plan en interne ; d’accéder à une technologie performante et mature et de renforcer sa position stratégique en Europe, où la régulation de l’IA se durcit.

Une stratégie de rattrapage accélérée

Ce n’est pas la première fois qu’Apple s’intéresse à une startup d’intelligence artificielle. Il y a quelques mois, des discussions internes ont eu lieu autour du rachat de Perplexity AI, un moteur de réponse intelligent basé aux États-Unis. Toutefois, les dirigeants de Perplexity ont rapidement écarté l’hypothèse, déclarant « n’avoir connaissance d’aucune discussion de fusion-acquisition en cours ».

Mais aujourd’hui, c’est Mistral qui semble être la cible prioritaire. D’autant plus qu’Apple fait face à une fuite des cerveaux dans ses équipes IA. Le départ récent de Ruoming Pang, ingénieur émérite en charge des modèles fondamentaux, pour Meta (qui lui aurait offert un package de plusieurs dizaines de millions de dollars), ainsi que celui du chercheur senior Tom Gunter, renforcent la nécessité pour Apple de rebondir.

Un rachat stratégique pour relancer l’IA made by Apple ?

L’intérêt d’Apple pour Mistral montre à quel point l’entreprise de Tim Cook prend désormais l’IA au sérieux. Après avoir longtemps misé sur la discrétion et l’intégration progressive, Apple semble comprendre qu’il lui faut accélérer drastiquement sa feuille de route IA pour rester compétitive.

Reste à savoir si Mistral acceptera de céder son indépendance à une entreprise aussi fermée qu’Apple, alors même que son ADN repose sur l’ouverture des modèles et la souveraineté technologique européenne.

Lire plus
Intelligence Artificielle

SpaceX pourrait investir 2 milliards de dollars dans xAI, la startup d’IA d’Elon Musk

SpaceX pourrait investir 2 milliards de dollars dans xAI, la startup d’IA d’Elon Musk

Les synergies entre les entreprises d’Elon Musk continuent de se renforcer. Selon un rapport du Wall Street Journal, SpaceX envisagerait d’investir 2 milliards de dollars dans la startup d’intelligence artificielle xAI, également fondée par Musk.

Cet investissement ferait partie d’une levée de fonds plus large estimée à 10 milliards de dollars, répartis entre 5 milliards en fonds propres et 5 milliards en dette, orchestrée par la banque Morgan Stanley.

xAI : l’ambitieuse réponse de Musk à OpenAI et Google

Fondée en 2023, xAI s’est rapidement positionnée comme un concurrent direct d’OpenAI, Google DeepMind et Anthropic. L’entreprise développe notamment Grok, un chatbot conversationnel qui se veut plus audacieux et moins politiquement correct que ChatGPT.

Mais si Grok a suscité l’attention pour ses réponses parfois humoristiques ou provocantes, il a récemment fait l’objet d’une controverse majeure. Le chatbot aurait tenu des propos à connotation antisémite, allant jusqu’à se présenter sous le nom de « MechaHitler » dans certains échanges. La polémique a contraint xAI à publier des excuses publiques.

Malgré cela, Musk semble décidé à poursuivre le développement et l’intégration de Grok dans ses écosystèmes, y compris dans les véhicules Tesla.

Des passerelles concrètes entre SpaceX et xAI

D’après le WSJ, SpaceX utilise déjà Grok pour alimenter son service client sur Starlink, son réseau internet satellitaire en pleine expansion. Cette collaboration pourrait s’élargir à d’autres domaines, notamment l’assistance automatisée dans les centres de contrôle, les opérations de maintenance, voire la gestion de missions spatiales via l’IA.

Cet investissement marquerait la première participation directe de SpaceX dans xAI, mais aussi l’un des investissements externes les plus importants jamais réalisés par l’entreprise spatiale. Il illustre bien la stratégie d’Elon Musk consistant à intégrer ses entreprises entre elles pour créer un écosystème technologique cohérent et interconnecté.

Une stratégie Muskienne bien rodée

Ce jeu de vases communicants entre les entités d’Elon Musk n’est pas nouveau. En début d’année, Musk avait fusionné xAI avec X (anciennement Twitter), facilitant ainsi l’intégration de Grok dans la plateforme sociale. L’IA est d’ailleurs déjà disponible pour les abonnés premium de X.

Dans un mouvement similaire, Tesla prévoit d’implémenter Grok dans ses véhicules, potentiellement dans les interfaces vocales ou le système de conduite autonome FSD (Full Self-Driving). Même si la controverse autour de Grok a terni temporairement l’image de la marque, cela ne semble pas freiner son intégration.

Si cet investissement de 2 milliards de dollars se confirme, il témoignerait d’un pari massif sur l’avenir de l’IA générative, mais aussi d’un engagement total de Musk dans la bataille technologique face aux géants comme Microsoft, Google ou Amazon.

Reste à voir comment l’écosystème s’adaptera à la montée en puissance de xAI, et si cette proximité entre les entreprises de Musk, aussi stratégique soit-elle, ne posera pas à terme des questions de gouvernance, de conflits d’intérêts, voire de régulation.

Lire plus
Intelligence Artificielle

OpenAI perd Windsurf au profit de Google DeepMind : ce que cela change

OpenAI perd Windsurf au profit de Google DeepMind : ce que cela change

Coup de théâtre dans la Silicon Valley. Le rachat attendu de la startup Windsurf par OpenAI vient tout simplement de tomber à l’eau.

À la place, c’est Google qui s’invite dans la partie en annonçant l’embauche directe de plusieurs figures clés de Windsurf, dont son PDG Varun Mohan et le cofondateur Douglas Chen. Ces derniers rejoindront Google DeepMind, où ils se consacreront à un domaine hautement stratégique : le codage agentique, un pan fondamental de l’IA générative de nouvelle génération.

Google récupère les talents de Windsurf… sans racheter l’entreprise

Contrairement à ce que OpenAI projetait — un rachat total estimé à 3 milliards de dollars —, Google ne rachète pas Windsurf. L’accord final prévoit simplement l’intégration de certains membres clés de l’équipe R&D au sein de Google DeepMind, ainsi qu’une licence non exclusive sur certaines technologies développées par la startup. Windsurf garde donc son indépendance juridique et opérationnelle.

Chris Pappas, porte-parole de Google, confirme : « Gemini est l’un des meilleurs modèles disponibles aujourd’hui, et nous investissons massivement dans ses capacités avancées pour les développeurs. L’arrivée des talents de Windsurf est une étape clé pour accélérer nos travaux sur le codage agentique ».

Le codage agentique : un enjeu stratégique pour Gemini

Ce que Google vise ici, ce n’est pas une technologie, mais l’expertise humaine de Windsurf, spécialisée dans les agents autonomes capables d’écrire, maintenir et corriger du code de manière intelligente. Cette approche, dite « codage agentique », est cruciale pour l’évolution des modèles comme Gemini, le rival direct de GPT-4 et GPT-5 d’OpenAI.

Varun Mohan et Douglas Chen ont déclaré : « Nous sommes ravis de rejoindre Google DeepMind, aux côtés de plusieurs membres de l’équipe Windsurf. Nous sommes fiers de ce que nous avons construit en quatre ans, et enthousiastes à l’idée d’entamer ce nouveau chapitre ».

Windsurf ne disparaît pas pour autant. Dès l’annonce, la société a nommé Jeff Wang, jusqu’ici directeur commercial, au poste de PDG intérimaire, et Graham Moreno, ancien VP des ventes mondiales, devient président. La startup va donc continuer son activité avec ce nouveau binôme exécutif.

OpenAI perd un atout majeur

Ce retournement de situation est d’autant plus marquant que OpenAI semblait en passe de conclure l’un des plus gros deals de son histoire. L’entreprise, qui misait sur Windsurf pour renforcer ses outils de développement en local et ses capacités de génération de code via IA, se voit finalement privée d’un actif stratégique.

Si aucune raison officielle n’a été donnée pour expliquer l’échec du rachat, certains analystes évoquent des divergences sur l’indépendance technologique, ou encore des enjeux réglementaires. D’autres y voient un coup d’éclat de Google, qui aurait opportunément convaincu Windsurf avec une meilleure offre de collaboration.

Une bataille invisible pour les cerveaux de l’IA

Dans la guerre technologique entre OpenAI, Google, Anthropic et xAI (d’Elon Musk), les talents humains sont devenus la ressource la plus précieuse. Le cas Windsurf le confirme : plus que les technologies elles-mêmes, ce sont les équipes R&D expertes en IA générative qui font l’objet de toutes les convoitises.

Google ne rachète pas Windsurf… mais il gagne un avantage considérable dans la course à l’agentic AI. Reste à voir si OpenAI saura rebondir avec un autre partenariat stratégique dans les semaines à venir.

Lire plus
Intelligence Artificielle

Google Gemini permet de transformer vos photos en vidéos animées avec Veo 3

Google Gemini permet de transformer vos photos en vidéos animées avec Veo 3

Google vient de déployer une nouvelle mise à jour de son assistant IA Gemini, et elle risque de faire beaucoup parler d’elle. Désormais, les utilisateurs abonnés aux offres Google AI Ultra et Pro peuvent transformer une simple image en clip vidéo animé, avec sons d’ambiance, dialogues et bruitages générés par IA.

Cette fonctionnalité repose sur le modèle Veo 3, déjà au cœur de l’outil de création vidéo Flow, lancé en mai dernier lors de la Google I/O 2025. Aujourd’hui, cette technologie s’invite directement dans Gemini, rendant l’animation de photos bien plus accessible.

De la photo fixe à la vidéo vivante

La nouvelle option de génération de vidéos à partir de photos permet de créer des clips de 8 secondes à partir d’une image et d’un prompt textuel. L’utilisateur n’a qu’à :

  1. Ouvrir Gemini sur le web ou mobile,
  2. Cliquer sur « Outils » dans la barre de prompt,
  3. Sélectionner « Vidéo »,
  4. Importer une photo,
  5. Ajouter une description du mouvement souhaité, et éventuellement, une ambiance sonore (voix, bruitage, musique…).

L’IA s’occupe ensuite de générer une vidéo au format MP4, en 720p et format paysage 16:9, accompagnée d’une bande-son synchronisée avec l’image.

Un son généré par IA, parfaitement synchronisé

Outre le mouvement des éléments présents sur l’image, Gemini est désormais capable de générer des sons de manière contextuelle : bruit du vent, sons de pas, dialogues ou musique d’ambiance peuvent être ajoutés selon la description fournie.

« Tous les éléments audio sont synchronisés parfaitement avec les visuels générés », précise Google dans son communiqué.

Accessibilité et conditions d’utilisation

Pour le moment, cette fonctionnalité est limitée aux utilisateurs des offres payantes Gemini AI Pro et AI Ultra, dans certaines régions (la France devrait être concernée d’ici peu). Google limite également à 3 créations vidéo par jour, sans report des quotas.

Toutes les vidéos générées comprennent deux éléments d’identification :

  • Un filigrane visible portant la mention « Veo » ;
  • Un filigrane numérique invisible via la technologie SynthID, développée par Google DeepMind, pour identifier les contenus générés par IA.

Flow étendu à 75 nouveaux pays

En parallèle, Google annonce également que son outil de création vidéo Flow (également basé sur Veo 3) devient disponible dans 75 nouveaux pays, renforçant sa volonté de démocratiser la production vidéo assistée par IA.

Depuis son lancement il y a à peine sept semaines, plus de 40 millions de vidéos ont déjà été générées via Gemini et Flow, selon Google.

Un outil créatif pour tous

Avec cette nouvelle fonctionnalité, Google propose aux utilisateurs de donner vie à leurs photos, mais aussi à leurs dessins, peintures ou créations artistiques, ouvrant la voie à de nouvelles pratiques pour :

  • les créateurs de contenus,
  • les artistes numériques,
  • les enseignants,
  • ou encore les marketeurs à la recherche de visuels animés rapidement réalisables.

Google franchit une nouvelle étape dans l’intégration de l’IA générative au cœur des usages quotidiens. Pouvoir transformer une simple photo en une vidéo animée avec son, sans compétences techniques, est une avancée majeure pour le grand public comme pour les professionnels.

Reste à voir si ces outils resteront réservés aux abonnés payants ou s’ils seront un jour accessibles plus largement. Quoi qu’il en soit, la vidéo générative est bien là, et elle ne fait que commencer à se démocratiser.

Lire plus
Intelligence Artificielle

Grok 4 : Elon Musk lance un nouveau modèle d’IA haut de gamme avec un abonnement à 300 dollars/mois

grok vision

L’intelligence artificielle continue de faire parler d’elle, et cette fois c’est Elon Musk qui revient sur le devant de la scène avec sa société xAI, qui a dévoilé ce mercredi soir son nouveau modèle de langage, Grok 4, ainsi qu’un abonnement ultra premium baptisé SuperGrok Heavy, facturé 300 dollars par mois.

Une annonce qui intervient dans un contexte mouvementé pour les entreprises du milliardaire, notamment X.

Grok 4: un modèle « au-delà du niveau doctorat »

Présenté comme une alternative directe à ChatGPT d’OpenAI, Gemini de Google ou encore Claude d’Anthropic, Grok 4 est conçu pour traiter du texte, des images, et bientôt bien plus. Elon Musk n’a pas hésité à qualifier ce nouveau modèle comme étant « meilleur que le niveau doctorat dans tous les domaines académiques, sans exception », tout en reconnaissant que « le bon sens lui fait encore parfois défaut ».

Ce nouveau modèle serait le plus puissant jamais conçu par xAI, selon l’entreprise, et s’aligne sur les ambitions d’Elon Musk : créer une IA générale capable de rivaliser avec l’intelligence humaine à terme.

Des performances impressionnantes sur les benchmarks

Selon les résultats publiés par xAI, Grok 4 réalise des performances remarquables sur plusieurs tests standards de l’industrie :

  • Sur Humanity’s Last Exam (une évaluation complexe de connaissances en sciences, mathématiques et humanités), Grok 4 a obtenu un score de 25,4 % sans outils, devançant Gemini 2.5 Pro (21,6 %) et OpenAI o3 high (21 %).
  • Avec outils activés, Grok 4 Heavy monte à 44,4 %, un score nettement supérieur aux 26,9 % de Gemini 2.5 Pro avec outils.
  • Sur le benchmark ARC-AGI-2 (visant à tester des capacités d’IA proches de l’intelligence générale à travers des énigmes visuelles), Grok 4 a obtenu 16,2 %, contre environ 8 % pour Claude Opus 4, le second meilleur score connu à ce jour.

Grok 4 Heavy: une IA multi-agents à 300 dollars/mois

Avec Grok 4 Heavy, xAI introduit une version plus avancée de son modèle, capable de mobiliser plusieurs agents IA simultanément pour résoudre un même problème. Ceux-ci comparent ensuite leurs réponses — une approche qualifiée par Musk de « groupe d’étude virtuel ».

Cette version est incluse dans le tout nouveau forfait SuperGrok Heavy, facturé 300 dollars par mois, qui devient le plus onéreux des abonnements IA du marché — devant ceux proposés par OpenAI ou Anthropic.

Ce plan donne accès anticipé à :

  • Grok 4 Heavy,
  • De futures fonctionnalités IA exclusives,
  • Des produits à venir : un modèle de génération de code prévu en août, un agent multimodal en septembre, et un générateur vidéo en octobre.

Screenshot 2025 07 09 at 9.34.45PM

Des controverses qui ternissent le lancement

Malgré les annonces ambitieuses, le lancement de Grok 4 n’échappe pas à la controverse. Quelques jours avant sa sortie, le compte officiel Grok sur X a provoqué l’indignation en répondant à des utilisateurs avec des propos antisémites, allant jusqu’à faire l’éloge d’Hitler. xAI a rapidement restreint le compte et supprimé les messages, mais les dégâts étaient déjà faits.

Selon des sources internes, la consigne « d’oser être politiquement incorrect » aurait été supprimée du prompt système de Grok peu après l’incident. Elon Musk, pourtant très actif sur X, n’a pas abordé l’affaire lors du livestream de présentation, préférant insister sur les performances techniques de Grok.

X sans PDG : un timing délicat pour xAI

Autre rebondissement majeur : Linda Yaccarino, PDG de X, a annoncé sa démission le jour même du lancement de Grok 4, après seulement deux ans à la tête du réseau social. Ce départ inattendu laisse l’entreprise sans direction claire, alors que X et xAI deviennent de plus en plus interconnectés.

Rappelons que Musk a récemment fusionné certaines fonctions de X avec xAI, rendant le chatbot Grok accessible directement dans l’application X pour les abonnés premium. Une intégration étroite qui place les écarts de l’IA sous les projecteurs de millions d’utilisateurs.

Une stratégie d’expansion ambitieuse

xAI cherche désormais à pénétrer le marché professionnel. L’entreprise a ouvert l’accès à Grok 4 via API, incitant les développeurs à bâtir des applications autour du modèle. Elle envisage également de proposer Grok sur les plateformes cloud des hyperscalers comme AWS ou Azure.

Toutefois, la société reconnaît que sa division « enterprise » n’a que deux mois, et il reste à prouver que les entreprises feront confiance à une IA dont la réputation reste encore instable.

Le lancement de Grok 4 marque une avancée technique majeure pour xAI, qui rivalise désormais sérieusement avec les géants du secteur. Mais cette progression s’accompagne de sérieux défis en matière d’éthique, de modération et de réputation.

Alors que GPT-5 d’OpenAI est attendu dans les mois à venir, la course à la meilleure IA générative est plus intense que jamais. Reste à voir si les entreprises et le grand public seront prêts à faire confiance à Grok… malgré ses faux pas.

Lire plus
Intelligence Artificielle

ChatGPT teste « Study Together » : une nouvelle façon d’apprendre avec l’IA ?

ChatGPT teste « Study Together » : une nouvelle façon d’apprendre avec l’IA ?

OpenAI continue de faire évoluer ChatGPT avec une vision claire : en faire un assistant universel, capable de s’adapter à tous les usages — du travail à la santé mentale, en passant par les études. Dernière nouveauté en date, repérée par certains utilisateurs : un mode mystérieux baptisé « Study Together ».

C’est via le menu « Tools » de l’interface ChatGPT que cette nouvelle option a été repérée, d’abord par des abonnés ChatGPT Plus, puis par certains utilisateurs gratuits. Le nom « Study Together » laisse peu de place au doute : l’outil semble destiné à accompagner les utilisateurs dans leur apprentissage.

Un reverse engineer, Tibor Blaho, a découvert dans le code source que la fonctionnalité porte le nom de code interne « tatertot ». Elle est décrite comme un prototype interne, ce qui laisse penser qu’on est encore très loin d’un déploiement généralisé.

Comment fonctionne « Study Together » de ChatGPT ?

Pour l’instant, aucune annonce officielle n’a été faite par OpenAI. Mais des témoignages sur Reddit commencent à dessiner les contours de cette fonctionnalité. Contrairement à une simple session de questions-réponses avec ChatGPT, le mode Study Together propose une approche plus interactive : « Demandez-lui de vous enseigner un sujet. Il vous pose d’abord quelques questions, comme le mode Deep Research, puis vous fait progresser dans l’apprentissage en vous faisant réfléchir, répondre, et même réviser ».

En clair, ChatGPT agit comme un tuteur personnel qui vous guide dans l’apprentissage, vous interroge, vous fait reformuler, puis vous teste pour vérifier vos acquis. Une approche pédagogique bien plus active que l’usage classique du chatbot.

Vers une nouvelle ère de l’apprentissage assisté par l’IA ?

L’idée d’un accompagnement éducatif personnalisé par l’IA séduit de plus en plus d’étudiants. Aujourd’hui, nombreux sont ceux qui utilisent déjà ChatGPT comme aide aux devoirs, moteur de résumé ou correcteur grammatical. Le mode Study Together pourrait pousser cette logique plus loin : celle d’un véritable coach d’apprentissage intelligent.

Certaines rumeurs suggèrent que ce mode pourrait faire partie des fonctionnalités exclusives destinées à une offre éducative de ChatGPT, voire à un futur abonnement ChatGPT Education.

Avec la rentrée universitaire qui approche à grands pas, ce nouveau mode pourrait bien arriver au bon moment. D’autant plus que Sam Altman, PDG d’OpenAI, a récemment évoqué l’arrivée de GPT-5 pendant l’été 2025, et Study Together pourrait faire partie de ce lancement.

Une fonctionnalité encore floue… mais prometteuse

À ce jour, il est difficile de dire si cette fonctionnalité sera accessible à tous, ou réservée à certains profils (étudiants, enseignants, abonnés premium…). Ce qui est certain, c’est que les premiers retours sont globalement positifs. L’idée de pouvoir se faire guider, interroger et corriger par une IA de manière structurée est particulièrement séduisante dans un contexte d’auto-apprentissage. De plus, cela éviterait d’avoir à créer des prompts complexes pour simuler un cours ou un quiz.

Pour l’instant, Study Together est toujours en phase de test, et aucune date de lancement n’a été communiquée. Mais au vu des expérimentations en cours, on peut raisonnablement penser que cette fonctionnalité verra le jour dans les prochains mois.

Si OpenAI réussit à en faire une véritable plateforme d’étude interactive, ChatGPT pourrait bien devenir l’outil incontournable des étudiants et autodidactes du monde entier.

Et vous, seriez-vous prêt à laisser une IA vous coacher dans vos révisions ?

Lire plus
Intelligence Artificielle

Cursor déploie une web‑app pour piloter ses agents de codage IA depuis le navigateur

Cursor déploie une web‑app pour piloter ses agents de codage IA depuis le navigateur

Après avoir démocratisé son IDE assisté par IA, Cursor (édité par Anysphere) élargit son écosystème avec une web‑app qui permet de gérer des agents de codage automatiques en langage naturel, directement sur navigateur — sur mobile comme sur desktop.

Cursor Web‑App : coder sans quitter votre navigateur

Disponible depuis ce lundi, la nouvelle web‑app de Cursor permet à l’utilisateur d’envoyer des requêtes en langage naturel pour déléguer des tâches de codage (ajout de fonctionnalités, correction de bugs…), de surveiller l’avancement des agents en temps réel et de fusionner automatiquement les modifications achevées dans le codebase.

Chaque agent dispose d’un lien partageable, facilitant le suivi collaboratif des tâches.

image 18 scaled

Le trio gagnant : IDE, Slack, web‑app

Cursor avait déjà consolidé son offre en mai avec des background agents autonomes, puis en juin avec une intégration Slack. Désormais, la web‑app complète cette stratégie multi‑canal :

  • Déclenchement via Slack (@Cursor) ou web‑app
  • Suivi et pilotage dans le navigateur
  • Reprise facile dans l’IDE si l’agent bute
  • Fusion finale des modifications

Selon Andrew Milich (VP Product Engineering), l’objectif est clair : supprimer les frictions pour les utilisateurs.

image 19

Une forte traction et un plan tarifaire ambitieux

Anysphere affirme que Cursor génère désormais plus de 500 millions de dollars de MRR annualisé, avec une adoption chez plus de la moitié du Fortune 500 (Nvidia, Uber, Adobe…). Pour accompagner cette croissance :

  • Un forfait Pro à 200 dollars/mois complète l’abonnement mensuel de 20 dollars/mois.
  • La web‑app et les background agents sont incluses dans tous les forfaits payants (Pro et supérieurs), mais restent indisponibles pour les comptes gratuits.

Cursor: sérieux et pragmatisme

Contrairement à plusieurs acteurs qui ont lancé des solutions « demo‑ware » trop ambitieuses, Cursor mise sur des capacités de raisonnement IA actualisées et solides. Selon le CEO Michael Truell, d’ici 2026, les IA pourraient traiter 20 % du travail d’un ingénieur logiciel.

Avec cette web‑app, Cursor franchit un vrai palier dans l’intégration de l’IA au cycle de développement. Entre le déclenchement simple des agents, le suivi depuis un navigateur et la solidité industrielle de son offre, Cursor devient un acteur incontournable pour les équipes de dev ambitieuses.

 

Lire plus