fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Google I/O 2025 : Project Mariner va révolutionner votre façon de surfer !

Google I/O 2025 : Project Mariner va révolutionner votre façon de surfer !

Lors de la conférence Google I/O 2025, le géant de Mountain View a officialisé le déploiement élargi de Project Mariner, son agent IA capable de naviguer sur le web et d’interagir avec des sites à la place de l’utilisateur. Une mise à jour majeure qui marque un tournant dans la manière dont nous pourrions bientôt utiliser internet.

Project Mariner: un assistant Web multitâche

Initialement présenté fin 2024, Project Mariner permet à un utilisateur de déléguer des actions entières à une IA, sans jamais avoir à se rendre manuellement sur un site. Acheter des billets de concert, réserver une table, faire les courses en ligne : autant de tâches que Mariner peut gérer de bout en bout, uniquement via une conversation.

Jusqu’ici limité à un petit groupe de testeurs, Mariner s’ouvre désormais aux abonnés américains du nouveau forfait Google AI Ultra, proposé à 249,99 dollars/mois. Ce plan premium offre également l’accès aux dernières capacités de l’IA Gemini et à d’autres outils expérimentaux.

Mais surtout, Google annonce que Project Mariner fonctionne désormais dans le cloud, via des machines virtuelles. Cette amélioration technique majeure permet à l’agent de :

  • Traiter jusqu’à 10 tâches simultanément
  • Travailler en arrière-plan, pendant que l’utilisateur fait autre chose
  • Réduire l’impact sur les performances locales de l’appareil

Un changement essentiel, car dans sa version initiale, l’agent opérait directement dans le navigateur de l’utilisateur, rendant toute autre activité impossible pendant son exécution.

Une intégration poussée dans l’écosystème Google

Google ne se contente pas de rendre Mariner plus performant : le géant l’intègre plus profondément dans son écosystème IA. L’agent devient ainsi accessible via :

  • Gemini API : pour permettre aux développeurs de créer leurs propres services propulsés par Mariner
  • Vertex AI : la plateforme cloud IA de Google destinée aux entreprises
  • AI Mode (Search Labs) : une version expérimentale de la recherche Google boostée à l’IA, où Mariner pourra exécuter des actions en direct

Google travaille déjà avec des partenaires comme Ticketmaster, StubHub, Resy ou Vagaro pour permettre à Mariner de gérer des tâches spécifiques sur leurs plateformes.

Agent Mode : l’étape suivante vers la navigation automatisée

En parallèle, Google a présenté un nouveau mode appelé « Agent Mode ». Ce dernier combine la navigation sur le Web, la recherche contextuelle et des intégrations avec les applications Google. Une approche hybride, entre navigateur classique et agent intelligent.

Ce mode sera disponible en avant-première pour les abonnés AI Ultra, sur desktop dans un premier temps.

Une guerre des agents IA en pleine ébullition

Project Mariner entre en concurrence directe avec d’autres projets similaires chez les géants du secteur :

Ces agents visent tous à remplacer la navigation manuelle par des interactions naturelles avec une IA. Toutefois, la plupart sont encore en phase expérimentale et souffrent de lenteurs, d’erreurs et d’un manque de fiabilité. Google affirme avoir pris en compte ces faiblesses pour améliorer Mariner.

Vers un futur « agentique » du Web ?

Avec Project Mariner, Google donne un avant-goût du futur de la navigation Internet. Un futur où :

  • On ne tape plus une requête sur Google, on commande une action à une IA.
  • Les sites ne sont plus visités par les utilisateurs, mais par des agents IA en leur nom.
  • Le rôle de l’interface utilisateur sur les sites s’amenuise, au profit d’APIs dédiées aux agents.

« Nous assistons à une bascule dans l’expérience utilisateur sur le Web », annoncent les responsables de la Search Team chez Google. « Les gens n’auront plus besoin de visiter un site pour accomplir une tâche. Ils parleront à une IA ».

En associant autonomie, fluidité et intégration, Project Mariner incarne la vision la plus aboutie du « web agentique » portée par Google. Il ne s’agit plus simplement de chercher une information, mais de confier une intention à une intelligence artificielle, capable d’agir dans un environnement numérique à votre place.

Entre Project Mariner, AI Mode, Agent Mode, et l’intégration dans l’écosystème Gemini/Vertex, Google semble déterminé à transformer en profondeur notre rapport au web. Une révolution à suivre de très près — pour les utilisateurs comme pour les éditeurs de sites.

Lire plus
Intelligence Artificielle

Google I/O 2025 : Gemini 2.5 Pro, le mode « Deep Think » va-t-il révolutionner le raisonnement IA ?

Google I/O 2025 ; Gemini 2.5 Pro, le mode « Deep Think » va-t-il révolutionner le raisonnement IA ?

Google introduit lors de la Google I/O 2025 un nouveau mode « Deep Think » pour Gemini 2.5 Pro, destiné aux tâches complexes nécessitant un raisonnement approfondi. Ce mode utilise des techniques de recherche inédites permettant au modèle de formuler plusieurs hypothèses avant de générer une réponse.

Performances notables :

  • USAMO 2025 (test mathématique avancé) :
    • Gemini 2.5 Pro Deep Think : 49,4 %
    • Gemini 2.5 Pro standard : 34,5 %
  • Sur les benchmarks LiveCodeBench (codage) et MMMU (raisonnement multimodal), Deep Think surpasse non seulement son propre modèle de base, mais aussi l’o3 d’OpenAI.

deep think chart.width 1000.form

Actuellement en test auprès de partenaires de confiance, ce mode sera déployé à plus grande échelle dans les mois à venir.

Gemini 2.5 Flash : plus rapide, plus intelligent et plus économique

Autre nouveauté de taille : une version améliorée de Gemini 2.5 Flash, le modèle léger et économique conçu pour les déploiements rapides.

Performances :

  • Score ELOsur le classement LMArena :
    • Gemini 2.5 Pro : 1446
    • Gemini 2.5 Flash : 1424
  • Le modèle Flash rivalise donc presque avec la version Pro, tout en étant plus léger.

Nouveautés clés :

  • Résumé des raisonnements intégrés (« thought summaries »), pour plus de transparence dans la prise de décision du modèle.
  • Mode audio natif intégré : le modèle peut répondre avec différentes voix, et en audio directement via l’API Gemini.
  • Gestion de budget cognitif : possibilité de fixer un “budget de réflexion”, idéal pour maîtriser les coûts dans un contexte de production.
  • Efficacité énergétique améliorée de 22 %, et réduction de la consommation de tokens, pour un meilleur rapport performance/prix.

Disponibilité :

  • Disponible en preview dès maintenant via : L’application Gemini, Google AI Studio et Vertex AI
  • Le lancement général est prévu pour début juin 2025.

gemini 2

Pourquoi c’est important ?

Avec Deep Think, Google renforce sa position dans le segment des modèles à raisonnement complexe, tandis que Flash devient une alternative crédible aux modèles haut de gamme avec un rapport coût/performance très compétitif.

Cette double stratégie — un modèle premium pour les cas critiques, et un modèle Flash optimisé pour le coût — montre que Google s’adapte autant aux grands acteurs qu’aux développeurs individuels et startups.

Lire plus
Intelligence Artificielle

OpenAI lance Codex : L’IA qui va coder à votre place (enfin presque) !

OpenAI lance Codex : L'IA qui va coder à votre place (enfin presque) !

OpenAI vient de lever le voile sur Codex, son tout nouvel agent d’intelligence artificielle dédié au développement logiciel, conçu pour automatiser des tâches de codage complexes dans un environnement cloud sécurisé. Cette annonce intervient peu de temps après des rumeurs d’acquisition de Windsurf, une startup montante spécialisée dans les outils IA pour développeurs.

Alors que certains s’attendaient à un rachat, OpenAI a surpris tout le monde en lançant sa propre alternative, marquant clairement son ambition de construire plutôt que d’acheter.

De modèle de complétion à agent autonome cloud : la métamorphose de Codex

Le Codex d’origine, lancé en 2021, était un simple modèle de complétion de code basé sur des milliards de lignes de code open source. Il a servi de moteur à GitHub Copilot, avant que ce dernier ne bascule vers GPT-4 en mars 2023. À l’époque, le modèle Codex souffrait de plusieurs limites : erreurs de syntaxe fréquentes, suggestions de code peu sécurisées, biais, et manque de fiabilité fonctionnelle.

Aujourd’hui, Codex renaît en tant que véritable agent autonome d’ingénierie logicielle, capable de :

  • Ajouter de nouvelles fonctionnalités à un dépôt GitHub.
  • Corriger des bugs.
  • Répondre à des questions contextuelles sur une base de code.
  • Générer des pull requests.
  • Lancer et valider des tests.

Le tout, de façon parallèle et sécurisée, depuis une interface latérale intégrée dans ChatGPT.

Codex -1 : un modèle entraîné pour imiter les développeurs humains

Le nouveau modèle Codex-1 est une version spécialisée du modèle o3, optimisée pour les workflows réels de développement grâce à un entraînement en reinforcement learning sur des tâches de développement internes. Résultat : 75 % de précision sur les tâches internes d’OpenAI, surpassant même le très performant o3-high.

Les utilisateurs peuvent configurer leur projet à l’aide d’un fichier AGENTS.md pour guider Codex sur les conventions de code, les tests à exécuter ou les structures du dépôt. Le modèle a même été entraîné à reconnaître les styles de code comme l’usage de virgules Oxford, soulignant l’importance accordée à la lisibilité du code autant qu’à sa validité.

Une architecture sécurisée et isolée

Codex fonctionne dans un environnement cloud isolé sans accès à Internet, garantissant la sécurité des données. Il s’appuie uniquement sur les fichiers et dépendances fournis par l’utilisateur, sans communication avec des API ou services externes.

« C’est bien plus qu’un simple modèle d’API », déclare Alexander Embiricos, responsable de l’équipe Desktop & Agents d’OpenAI. « C’est un agent logiciel à part entière, capable de travailler en autonomie avec son propre ordinateur cloudisé, tout en assurant une revue humaine de chaque modification proposée ».

Nouveautés et interface fluide pour équipes tech

L’agent Codex se manipule depuis la barre latérale de ChatGPT, où l’on peut soumettre des requêtes ou des tâches à réaliser. Chaque action est consignée, les résultats des tests sont fournis, et les modifications sont résumées pour faciliter la revue du code.

OpenAI pense déjà au futur : intégration poussée avec GitHub, ChatGPT Desktop, outils CI/CD et systèmes de tickets, pour faire de Codex le noyau de l’environnement de travail des développeurs modernes.

Trini, ingénieur lead sur le projet, résume l’ambition de l’équipe : « C’est une transformation radicale de la manière dont les développeurs interagissent avec l’IA. On passe d’un assistant ponctuel à un véritable partenaire de travail ».

Codex contre Windsurf : partenariat ou bras de fer ?

Juste avant ce lancement, plusieurs sources rapportaient que OpenAI préparait un rachat de Windsurf pour 3 milliards de dollars. Pourtant, aucune confirmation officielle n’a été apportée. En parallèle, Windsurf annonçait ses propres modèles SWE-1, conçus pour couvrir tout le cycle de vie du développement logiciel, marquant un changement de cap stratégique.

Le timing soulève des questions : OpenAI a-t-il lancé Codex en « research preview » pour faire pression sur Windsurf ?

Tarification et disponibilité

Codex est gratuit pendant sa phase de lancement, avec des limites d’usage. Ensuite, le modèle sera facturé à :

  • 1,50 dollar/million de tokens d’entrée,
  • 6 dollars/million de tokens de sortie,
  • Avec une réduction de 75 % via système de cache.

Codex est d’ores et déjà disponible pour les utilisateurs ChatGPT Pro, Team et Enterprise, et arrivera bientôt pour les comptes Plus et Edu.

Une IA pour les développeurs… et plus encore

Codex n’est pas réservé aux développeurs seniors. Les équipes produit s’en servent déjà pour suggérer ou valider des changements sans toujours passer par un développeur humain. OpenAI le positionne donc comme un outil transversal, capable d’augmenter la productivité à tous les niveaux d’une équipe tech.

Avec Codex, OpenAI entame un nouveau chapitre dans la démocratisation du développement assisté par IA. Plus qu’un simple assistant, Codex devient un collaborateur virtuel, capable de prendre en charge de véritables projets de développement de bout en bout.

Qu’OpenAI rachète ou non Windsurf ou Cursor, une chose est sûre : Codex est là pour rester, et l’entreprise mise sur ses propres agents pour redéfinir le futur de la programmation.

Lire plus
Intelligence Artificielle

Build 2025 : Microsoft Azure accueille Grok, OpenAI, attention danger ?

Build 2025 : Microsoft Azure accueille Grok, OpenAI, attention danger ?

Lors de la conférence Microsoft Build 2025, la firme de Redmond a officialisé une annonce qui risque de faire beaucoup de bruit dans le petit monde de l’IA : les modèles Grok 3 et Grok 3 mini de xAI sont désormais hébergés sur Azure AI Foundry.

Un tournant stratégique qui pourrait raviver les tensions… y compris avec son partenaire historique OpenAI.

Grok arrive sur Azure : Nadella accélère sur l’IA

C’est désormais confirmé : Grok est disponible avec toutes les garanties professionnelles habituelles (SLA), facturé directement par Microsoft, et exploitable via Azure AI Foundry, la plateforme maison qui héberge déjà des modèles comme GPT-4, Llama 3 ou Mistral 7B.

Ce n’est pas un hasard si Microsoft pousse ce modèle maintenant. Selon des sources internes, Satya Nadella aurait personnellement poussé pour l’intégration rapide de Grok, tout comme il l’avait fait pour DeepSeek R1 quelques mois plus tôt.

L’objectif est clair : faire d’Azure la plateforme incontournable pour héberger les modèles IA populaires, quels que soient leurs créateurs.

Un modèle controversé… accueilli à bras ouverts ?

Ce choix n’est pas sans risques. Grok, développé par la startup xAI d’Elon Musk, a récemment fait la une pour des raisons très discutables. Il y a quelques jours à peine, le modèle s’est mis à valider les théories de « génocide blanc » en Afrique du Sud. xAI a plaidé la « modification non autorisée » du code. Plus tôt dans l’année, une autre dérive avait été attribuée à un ex-employé d’OpenAI, accusé d’avoir manipulé Grok pour qu’il ignore toute source accusant Musk ou Trump de désinformation.

Grok s’est également illustré pour son langage volontairement cru et provocateur, bien loin du ton modéré de ChatGPT ou Claude. Une image qu’Elon Musk assume, vantant un chatbot « anti-woke » et sans filtre. Une stratégie marketing risquée, mais qui séduit un certain public.

Microsoft prend des risques… même vis-à-vis d’OpenAI

Cette décision de Microsoft intervient alors que les relations avec OpenAI sont de plus en plus tendues. Le PDG de la startup, Sam Altman, n’a pas tardé à tourner en dérision Grok sur X la semaine dernière. Rappelons que Musk et OpenAI sont engagés dans une bataille judiciaire depuis plusieurs mois, le premier accusant l’entreprise d’avoir trahi ses principes fondateurs, tandis qu’OpenAI l’accuse de « tactiques de mauvaise foi » pour freiner ses avancées.

Dans ce contexte, l’intégration de Grok par Microsoft apparaît comme un acte d’indépendance, voire de défi vis-à-vis d’OpenAI. Cela renforce aussi la position de Microsoft comme acteur neutre et multisources dans l’hébergement de modèles LLM — une stratégie qui séduit de plus en plus d’entreprises en quête de flexibilité.

Azure AI Foundry devient la « place de marché » de l’IA

En intégrant Grok, Microsoft continue de faire d’Azure AI Foundry une plateforme incontournable, capable d’héberger des modèles issus de laboratoires très variés :

  • GPT-4/GPT-4o (OpenAI)
  • Llama 3 (Meta)
  • Claude (Anthropic)
  • Mistral, Mixtral
  • DeepSeek R1
  • Et désormais, Grok 3/Grok 3 Mini (xAI)

Ce modèle d’ouverture rappelle ce que Microsoft a fait avec Windows dans les années 90 : dominer l’infrastructure pour héberger tous les outils — même ceux des rivaux.

Pragmatisme ou provocation calculée ?

L’intégration de Grok dans Azure ne manque pas de soulever des questions : Microsoft est-il en train de désavouer son partenariat avec OpenAI ? Ou tout simplement de se positionner comme l’infrastructure incontournable de l’IA moderne, au-delà des alliances ponctuelles ?

Quoi qu’il en soit, Microsoft mise sur un principe simple : héberger tous les modèles qui comptent, quels que soient leur style ou leur créateur. Une stratégie audacieuse, qui pourrait bien redéfinir l’équilibre des forces dans l’IA d’entreprise.

Et vous, que pensez-vous de cette ouverture de Microsoft à des modèles aussi controversés que Grok ? Gage de neutralité ou prise de risque démesurée ? Dites-le-nous en commentaire !

Lire plus
Intelligence Artificielle

ChatGPT : Quel modèle IA choisir selon vos besoins ? Le guide ultime !

ChatGPT : Quel modèle IA choisir selon vos besoins ? Le guide ultime !

Depuis ses débuts, OpenAI n’a cessé d’étoffer ChatGPT avec de nouveaux modèles d’intelligence artificielle. On y retrouve aujourd’hui un large éventail de modèles allant des LLM classiques (série GPT) aux modèles dits raisonnants comme la série « o ».

Mais entre GPT-4o, o3, GPT-4.5 ou encore o4-mini, il peut être difficile de s’y retrouver. Alors quel modèle ChatGPT utiliser selon votre cas d’usage ? Voici un guide complet et mis à jour.

Modèle o3 : le plus intelligent et logique

Le modèle o3 est le modèle de raisonnement le plus avancé d’OpenAI. Réservé aux abonnés ChatGPT Plus, il excelle dans les domaines techniques : mathématiques, physique, codage, sciences et tâches de perception visuelle.

C’est un modèle multimodal : il comprend non seulement du texte, mais aussi des images, graphiques, schémas. Il est même capable de déduire une localisation à partir d’une photo. En tant que modèle dit agentique, il peut utiliser tous les outils intégrés à ChatGPT comme l’analyse de fichiers, la génération d’images, le web, Python, etc.

Screen 2025 04 17 at 05.29.20

À utiliser si : vous avez des questions complexes en STEM (Science, Technologie, Ingénierie, Mathématiques) ou des images à analyser.

GPT-4o : le modèle polyvalent et par défaut

Le GPT-4o (où le « o » signifie omnimodal) est désormais le modèle par défaut de ChatGPT, accessible aux utilisateurs gratuits et payants.

C’est le meilleur pour la conversation naturelle, la rédaction créative, les résumés, les traductions, et les requêtes classiques. Il est également multimodal et propulse de nombreuses fonctionnalités comme :

  • La génération d’images,
  • L’analyse de documents,
  • Le mode vocal avancé,
  • Le partage d’écran en direct (Live Video).

Untitled 42 1

Une fois la limite de GPT-4o atteinte sur un compte gratuit, les requêtes sont transférées vers une version allégée nommée GPT-4o mini.

À utiliser si : vous cherchez un assistant polyvalent pour écrire, discuter, traduire, résumer ou créer du contenu multimédia.

GPT-4.5 : créativité au sommet

Encore en aperçu de recherche, GPT-4.5 est réservé aux abonnés payants. C’est un modèle non raisonnant, mais extrêmement performant pour la création de contenu, l’écriture fluide et les idées originales.

Il est réputé pour son quotient émotionnel élevé (EQ), rendant les interactions plus humaines, empathiques et parfois même amusantes.

À utiliser si : vous avez besoin de textes créatifs, naturels, voire humoristiques, ou que vous souhaitez coder avec style.

o4-mini : la nouvelle référence pour la logique

Le modèle o4-mini est la version allégée et rapide du modèle o3, disponible gratuitement. Malgré sa taille réduite, il surpasse parfois le o3 dans des domaines comme la programmation et les mathématiques.

C’est aussi un modèle visuel performant. Pour les utilisateurs gratuits, il est accessible via le bouton « Pensée prolongée » sur ChatGPT.

À utiliser si : vous êtes un utilisateur gratuit ou avez besoin d’un raisonnement rapide et efficace.

GPT-4.1 : pensé pour les développeurs

Récemment ajouté à ChatGPT, GPT-4.1 est spécialement conçu pour les développeurs. Il gère un million de tokens en contexte, ce qui en fait un excellent choix pour des projets de code longs et complexes.

Avec une compréhension améliorée des instructions, il est plus rapide et moins cher que GPT-4o pour les tâches de codage.

À utiliser si : vous travaillez sur des projets techniques avec de longs contextes (code, documentation, etc.).

o1 pro : puissance maximale pour les Pro

Disponible uniquement dans l’abonnement ChatGPT Pro (200 dollars/mois), le mode o1 pro utilise plus de ressources de calcul et du temps de traitement étendu pour résoudre des problèmes très complexes.

Il s’agit davantage d’un mode haute performance que d’un modèle autonome. OpenAI prépare un mode o3 pro pour le remplacer à terme.

À utiliser si : vous êtes un professionnel avec des calculs lourds ou un usage intensif.

Codex-1 : l’agent ultime pour les développeurs

Codex-1 est le modèle de programmation nouvelle génération d’OpenAI, basé sur le modèle o3. Il est entraîné par renforcement sur des tâches de code réelles et peut :

  • Générer du code propre,
  • Ajouter des fonctionnalités,
  • Écrire et valider des tests,
  • Proposer des pull requests de qualité.

Codex Blog Header V5 scaled

Ce modèle n’est pas accessible directement dans les discussions, mais disponible via la barre latérale ChatGPT, pour les abonnés Pro et Plus.

À utiliser si : vous développez régulièrement et avez besoin d’un assistant de programmation avancé.

En résumé : quel modèle pour quel usage ?

Usage

Modèle recommandé

✍️ Rédaction & conversation

GPT-4o

📚 STEM, mathématiques, science

o3 ou o4-mini

🧠 Créativité, émotion, style

GPT-4.5

🧑‍💻 Développement avancé

GPT-4.1 ou Codex-1

🔬 Analyse d’image & visualisation

GPT-4o ou o3

🏆 Performance extrême

o1 pro (ChatGPT Pro uniquement)

Bon à savoir

  • Le générateur d’image DALL·E n’est plus intégré à ChatGPT par défaut, mais reste accessible via un Custom GPT.
  • Le modèle Sora (génération vidéo) est indépendant de ChatGPT.
  • Un agent de recherche avancé basé sur le o3 est également en cours de déploiement.

Avez-vous déjà testé plusieurs modèles ? Lequel préférez-vous et pourquoi ?

Lire plus
Intelligence Artificielle

AlphaEvolve : L’IA de Google invente les algorithmes de demain !

AlphaEvolve : L'IA de Google invente les algorithmes de demain !

Après avoir bouleversé le monde de la biologie avec AlphaFold, Google DeepMind dévoile cette semaine une nouvelle avancée majeure dans le domaine de l’intelligence artificielle appliquée à la science et aux algorithmes. Son nom : AlphaEvolve.

Cette nouvelle IA s’appuie sur les modèles Gemini, tout en intégrant un cadre évolutif qui lui permet de générer, tester et améliorer des solutions de manière autonome, avec un objectif clair : résoudre des problèmes mathématiques complexes et optimiser des systèmes critiques à l’échelle industrielle.

Qu’est-ce que AlphaEvolve ?

Contrairement à un simple chatbot comme ChatGPT ou Gemini, AlphaEvolve ne se contente pas de fournir une réponse. Il agit comme un agent d’IA autonome, spécialisé dans la recherche algorithmique et l’optimisation de code.

Voici son fonctionnement :

  • Le chercheur formule un problème ainsi que quelques pistes de solution.
  • AlphaEvolve génère plusieurs variantes d’algorithmes, en s’appuyant sur Gemini Flash (rapide) et Gemini Pro (précis).
  • Chaque solution est ensuite testée et évaluée automatiquement par un système intégré.
  • Le processus évolutif identifie la meilleure solution et la fait évoluer pour l’améliorer.

On pourrait dire que AlphaEvolve « code, teste et améliore » à l’infini, sans supervision constante.

Une IA généraliste… mais spécialisée

Alors que des IA comme AlphaFold ou AlphaTensor avaient été conçues pour des tâches très précises, AlphaEvolve adopte une approche beaucoup plus polyvalente. Il est capable de travailler sur n’importe quel problème algorithmique, qu’il s’agisse d’optimiser un planificateur de data center ou de découvrir de nouveaux algorithmes mathématiques.

unnamed

« AlphaEvolve représente une étape cruciale vers une IA réellement utile pour la science et l’ingénierie », déclare DeepMind.

Déjà utilisé par Google… avec des résultats concrets

DeepMind a déjà testé AlphaEvolve sur des systèmes critiques internes à Google. L’un des exemples les plus marquants concerne le système de gestion de clusters Borg, utilisé dans les data centers de l’entreprise.

AlphaEvolve a proposé une amélioration du système d’ordonnancement, ce qui a permis à Google d’économiser 0,7 % de ses ressources informatiques mondiales. Ce chiffre peut sembler modeste, mais à l’échelle de Google, il se traduit par des millions de dollars économisés.

Des avancées en mathématiques fondamentales

L’un des exemples les plus impressionnants est venu d’un problème mathématique resté intouché depuis 1969 : la multiplication efficace de matrices complexes 4×4.

Le célèbre algorithme de Strassen tenait la corde depuis plus de 50 ans. Mais AlphaEvolve a réussi à découvrir un nouvel algorithme encore plus efficace, surpassant même AlphaTensor, une IA pourtant spécialisée sur ce problème précis.

AlphaEvolve optimise même les puces de Google

unnamed 1

DeepMind a également laissé AlphaEvolve explorer le code en Verilog, un langage utilisé pour décrire les circuits électroniques. Résultat : une optimisation permettant de supprimer des bits inutiles, augmentant ainsi l’efficacité des futures puces Tensor de Google.

Ce correctif est actuellement en phase de validation, mais devrait être intégré aux prochaines générations de processeurs maison de l’entreprise.

Pas encore disponible au public… mais bientôt ?

Pour l’instant, AlphaEvolve reste un outil interne à Google, bien que moins gourmand en ressources qu’AlphaTensor. Cependant, DeepMind réfléchit à intégrer ses mécanismes d’évaluation et d’évolution dans des outils d’IA plus petits et plus accessibles, afin de démocratiser son approche.

Avec AlphaEvolve, Google DeepMind poursuit son ambition de faire de l’IA un outil d’aide scientifique de premier ordre. En combinant la puissance des LLM à un framework d’amélioration continue basé sur la sélection naturelle algorithmique, AlphaEvolve pourrait bien devenir le cerveau auxiliaire des chercheurs, ingénieurs et développeurs de demain.

Et si cette technologie devient un jour accessible au grand public ou aux universités, elle pourrait accélérer massivement les découvertes scientifiques, les avancées en mathématiques et le développement de nouveaux logiciels.

Lire plus
Intelligence Artificielle

GPT-4.1 arrive dans ChatGPT : L’IA pro qu’il vous faut enfin !

GPT-4.1 arrive dans ChatGPT : L'IA pro qu'il vous faut enfin !

OpenAI annonce la disponibilité de GPT-4.1, un modèle d’IA nouvelle génération désormais accessible dans ChatGPT pour les utilisateurs payants (Plus, Pro, Team). Une version allégée, nommée GPT-4.1 mini, remplace GPT-4o mini pour tous les utilisateurs, y compris les comptes gratuits.

Lancé initialement pour les développeurs via API, GPT-4.1 arrive dans ChatGPT après une forte demande de la communauté. Avec ce modèle, OpenAI propose une alternative puissante, rapide et optimisée pour les usages professionnels, notamment en développement logiciel et en gestion documentaire.

GPT-4.1 : un modèle conçu pour les environnements de production

Pensé dès le départ pour répondre aux exigences du monde de l’entreprise, GPT-4.1 améliore la précision, réduit la verbosité de 50 %, et gère mieux les hiérarchies d’instructions (système > développeur > utilisateur). Selon OpenAI, ce modèle :

  • Bat GPT-4o sur les benchmarks en ingénierie logicielle avec un score supérieur de +21,4 points sur SWE-bench Verified.
  • Gagne +10,5 points sur les tâches de suivi d’instructions (benchmark MultiChallenge).
  • Est 50 % moins bavard, ce qui est fortement apprécié en contexte professionnel.

Performances techniques & contextes supportés

Version

Contexte max (ChatGPT)

Contexte max (API)

Points forts

GPT-4.1

32K à 128K tokens

Jusqu’à 1 million

Très bon en codage, précision élevée

GPT-4.1 mini

8K tokens

Non spécifié

Rapide, plus léger, plus économique

Les utilisateurs gratuits bénéficient de GPT-4.1 mini, tandis que les abonnés Plus/Pro peuvent choisir leur modèle dans le menu déroulant. OpenAI envisage de proposer le contexte de 1M tokens dans ChatGPT à terme, ce qui permettrait d’analyser des bases de code entières ou des contrats complexes directement dans l’interface.

OpenAI accompagne le lancement d’un hub de transparence sur les performances de sécurité. Voici quelques résultats de GPT-4.1 :

  • Exactitude factuelle : 0.40 (SimpleQA), 0.63 (PersonQA).
  • Refus de prompts risqués : 0.99 sur les prompts standards, 0.96 sur prompts humains.
  • Résistance aux jailbreaks académiques : 0.23 (moins bon que GPT-4o-mini), mais solide en usage réel.

En d’autres termes, GPT-4.1 est très robuste contre les abus classiques, même s’il reste perfectible face à certains tests académiques plus extrêmes.

Screen 2025 05 15 at 21.01.08

Des cas d’usage très ciblés pour les entreprises

  • Pour les ingénieurs IA : GPT-4.1 réduit les erreurs de codage, suit mieux les consignes et s’intègre efficacement dans les cycles DevOps.
  • Pour les responsables d’orchestration : Ses bonnes performances sur la hiérarchie des messages facilitent l’intégration dans des pipelines LLM fiables et reproductibles.
  • Pour les ingénieurs data : La baisse du taux d’hallucination et la meilleure précision dans les réponses favorisent l’automatisation des workflows métiers.
  • Pour les équipes sécurité : Sa résistance aux exploits générés par les utilisateurs et son comportement prévisible en font un atout pour les outils internes.

Tarifs API : des choix selon vos besoins

Modèle

Input (par M tokens)

Output

Remarques

GPT-4.1

2.00 dollars

8.00 dollars

Puissant, précis, prêt pour les entreprises

GPT-4.1 mini

0.40 dollar

1.60 dollars

Moins cher, très utile pour tâches simples

Gemini Flash

~ 0.075 dollar

~0.30 dollar

Alternative Google, très économique

GPT-4.1 est plus cher que Gemini Flash, mais mieux classé sur les benchmarks codage et suivi d’instructions, ce qui le rend incontournable pour les équipes techniques.

GPT-4.1 vs GPT-4.5 : un repositionnement stratégique

Alors que GPT-4.5, lancé en février, proposait une meilleure modélisation des émotions et des textes longs, il était aussi plus cher et moins fiable en codage. GPT-4.1 s’impose comme une réponse plus pragmatique : moins large, mais plus stable et plus rapide.

Avec GPT-4.1, OpenAI ne cherche plus seulement à créer l’IA la plus impressionnante, mais la plus utile en production. C’est une rupture dans la course à la taille, au profit de l’utilité réelle et du déploiement scalable.

Lire plus
Intelligence Artificielle

Fitbit + Gemini : Votre bracelet devient un coach santé proactif !

Fitbit + Gemini : Votre bracelet devient un coach santé proactif !

Fitbit, la filiale de Google spécialisée dans les objets connectés santé, vient de franchir une nouvelle étape ambitieuse. Depuis ce 13 mai, les utilisateurs éligibles aux États-Unis, sur Android et iPhone, peuvent accéder à trois nouvelles expériences expérimentales proposées par Fitbit Labs, toutes alimentées par l’IA Gemini de Google.

L’objectif ? Aller bien au-delà du simple suivi de pas ou de sommeil et faire de votre bracelet Fitbit un véritable compagnon santé proactif.

Fitbit Labs : des expériences de santé pilotées par l’IA

Fitbit Labs est un programme lancé il y a seulement 7 mois, et qui permet aux utilisateurs volontaires de tester en avant-première des fonctionnalités innovantes. Après le succès du premier projet « Insight Explorer », voici maintenant trois nouveaux outils expérimentaux conçus pour interpréter les données de santé avec intelligence.

Fitbit Blog Fitbit Labs PHL 2025

Voici ce que propose cette nouvelle vague d’expériences :

1. Navigateur de dossiers médicaux

Grâce à cette fonctionnalité, vous pouvez importer vos résultats d’analyses médicales (prise de sang, bilan de santé, etc.). L’IA Gemini se charge de scanner les documents, vulgariser les termes médicaux souvent incompréhensibles, et vous orienter vers des ressources explicatives. Une façon simple de mieux comprendre sa santé sans avoir besoin d’un dictionnaire médical sous la main.

2. Assistant Symptômes

Inspiré des agents conversationnels, ce chatbot médical vous permet de décrire un symptôme inhabituel (fatigue, douleurs, nausées…). L’IA vous posera quelques questions supplémentaires pour ensuite proposer des hypothèses plausibles, vous aidant à juger si une consultation est nécessaire. Ce n’est pas un outil de diagnostic, mais un premier filtre rassurant pour orienter vos décisions.

3. Détection de tendances inhabituelles

Basé sur l’analyse de vos métriques physiologiques (fréquence cardiaque au repos, variabilité, respiration nocturne), cet outil apprend ce qui est « normal » pour vous. En cas d’écart soudain, vous serez alerté automatiquement, bien avant que les symptômes n’apparaissent. Une approche préventive, à la manière de ce que propose déjà Whoop ou les Galaxy Watch.

Confidentialité, limites et éthique

Fitbit précise que ces outils sont purement exploratoires. Ils ne remplacent en aucun cas un avis médical, ne peuvent poser de diagnostic, et ne sont pas validés par les autorités de santé. Vous pouvez quitter une expérimentation à tout moment, vos données sont alors supprimées.

Alors qu’Apple travaille sur un assistant santé basé sur l’IA pour son application Santé, et que Samsung prépare l’intégration de Galaxy AI dans Samsung Health (et bientôt Galaxy Ring), Fitbit prend une longueur d’avance avec des fonctions concrètes déjà testables.

Google semble miser gros sur l’IA contextuelle et personnalisée avec sa gamme d’outils Gemini, et Fitbit Labs en est une vitrine. L’approche de Fitbit est claire : transformer les données passives en conseils actifs, pour anticiper les problèmes de santé avant qu’ils ne deviennent visibles.

Fitbit Labs ne se contente plus de suivre vos efforts physiques. Avec ces trois nouvelles expériences, l’entreprise entre dans une nouvelle dimension proactive, où l’IA devient un outil de compréhension, de prévention, et d’assistance. Sans prétendre remplacer les médecins, ces fonctions pourraient jouer un rôle clé dans l’accompagnement quotidien des utilisateurs, notamment ceux qui vivent avec des pathologies chroniques ou souhaitent surveiller leur santé plus finement.

Les possesseurs de Fitbit aux États-Unis peuvent dès aujourd’hui s’inscrire sur liste d’attente depuis l’onglet Fitbit Labs de l’application. Espérons que ce déploiement s’élargira rapidement à l’international.

Lire plus
Intelligence Artificielle

OpenAI s’implante au Moyen-Orient ! Un centre IA géant aux Émirats ?

OpenAI s'implante au Moyen-Orient ! Un centre IA géant aux Émirats ?

Alors que l’intelligence artificielle devient une priorité géostratégique pour les grandes puissances et les entreprises technologiques, OpenAI — créateur de ChatGPT — cherche à étendre sa présence au Moyen-Orient avec la construction d’un centre de données de grande envergure aux Émirats arabes unis (EAU).

Ce projet pourrait être officialisé dès cette semaine, selon des informations de Bloomberg.

Une implantation stratégique dans une région technologique montante

Les Émirats arabes unis ne sont pas un choix anodin. Le pays, en particulier Abu Dhabi, multiplie les investissements pour devenir un pôle mondial de l’IA et du cloud computing. L’État a notamment misé sur l’entreprise locale G42, un conglomérat spécialisé dans l’intelligence artificielle, la santé et la défense, avec lequel OpenAI a déjà signé un partenariat stratégique en 2023.

G42 est d’autant plus proche d’OpenAI que Microsoft, principal investisseur d’OpenAI, a injecté 1,5 milliard de dollars dans G42 en 2024 pour soutenir la montée en puissance du secteur IA aux Émirats. À cela s’ajoute le fonds d’investissement MGX, contrôlé par un membre de la famille royale émiratie, qui a participé à la dernière levée de fonds d’OpenAI et prévoit également de soutenir son ambitieux projet d’infrastructure baptisé « Stargate ».

Le projet Stargate : vers une infrastructure IA mondiale

Le futur centre de données aux Émirats ferait partie intégrante de Stargate, un programme lancé par OpenAI pour construire des infrastructures massives dédiées à l’entraînement de modèles d’IA de nouvelle génération. L’objectif est de disposer de capacité de calcul indépendante de celle des États-Unis tout en garantissant des performances à l’échelle planétaire.

Pourquoi les Émirats ?

  • Accès stratégique à l’Asie, à l’Afrique et à l’Europe depuis une seule base.
  • Forte volonté politique d’investir dans la souveraineté technologique.
  • Climat réglementaire favorable et stabilité géopolitique relative, du point de vue occidental.

Un partenariat étroit avec les alliés des États-Unis

Le choix d’un pays comme les Émirats arabes unis ne relève pas seulement de considérations techniques. OpenAI souhaite renforcer sa coopération avec les gouvernements jugés « amicaux » par les États-Unis, dans une logique de « démocratisation de l’IA ». C’est d’ailleurs ce qu’indique le lancement récent du programme OpenAI for Countries, censé aider les États partenaires à bâtir leurs propres infrastructures locales pour l’IA.

Ce programme vise à garantir une diffusion plus équitable de la puissance de calcul et de la technologie, tout en créant des garde-fous géopolitiques pour éviter que des régimes autoritaires n’accaparent les technologies les plus avancées.

Vers des transferts technologiques massifs… et sensibles

Selon des fuites évoquées par The Information et Investors.com, le projet Stargate pourrait aussi s’accompagner de l’autorisation, par Washington, d’exporter plus d’un million de puces Nvidia avancées vers les Émirats. Ces puces sont essentielles à l’entraînement des modèles IA, et leur exportation vers certaines régions est soumise à des restrictions strictes pour des raisons de sécurité nationale.

En permettant cette exportation vers les Émirats — tout en la refusant à d’autres pays, comme la Chine — les États-Unis signalent qu’ils voient ce partenariat comme stratégique, dans la lignée de leur politique de « decoupling » vis-à-vis de Pékin.

Avec cette annonce imminente, OpenAI montre qu’il ne s’agit plus seulement d’un laboratoire d’innovation basé en Californie. L’entreprise est désormais un acteur mondial de premier plan, au carrefour des enjeux industriels, politiques et géostratégiques de l’intelligence artificielle.

La construction d’un centre de données majeur aux Émirats arabes unis s’inscrit dans une guerre silencieuse pour l’hégémonie IA, où les infrastructures et les partenariats sont devenus aussi cruciaux que les algorithmes eux-mêmes.

Lire plus
Intelligence Artificielle

OpenAI en bourse ? La délicate équation avec Microsoft

OpenAI en bourse ? La délicate équation avec Microsoft

OpenAI, la société à l’origine de ChatGPT, traverse une période charnière de son évolution. Après avoir reçu plus de 13 milliards de dollars d’investissement de la part de Microsoft, la startup cherche désormais à restructurer son modèle juridique et économique dans l’optique d’une future entrée en bourse. Mais pour cela, elle doit convaincre son principal allié… et c’est loin d’être gagné.

D’une fondation à une entreprise publique : la mue complexe d’OpenAI

Fondée en 2015 comme organisation à but non lucratif par Sam Altman, Elon Musk et d’autres figures de la tech, OpenAI a évolué en 2019 vers un modèle hybride avec la création d’une entité à but lucratif plafonné. Cette structure permettait aux investisseurs de toucher des bénéfices… jusqu’à une certaine limite, tout en maintenant une mission centrée sur l’intérêt général.

Aujourd’hui, OpenAI veut convertir cette branche en une « Public Benefit Corporation » (PBC), un statut juridique très en vogue chez les entreprises IA (comme Anthropic ou xAI), qui vise à équilibrer objectifs commerciaux et mission sociétale. Cette transformation est indispensable pour envisager une IPO (introduction en bourse).

Mais ce changement nécessite une redéfinition profonde de la relation contractuelle avec Microsoft, principal investisseur et fournisseur d’infrastructure cloud.

Une alliance fragile avec Microsoft

Selon Bloomberg, les discussions actuelles entre OpenAI et Microsoft sont tendues. L’un des points les plus sensibles concerne la répartition des actions dans la nouvelle structure. Microsoft pourrait accepter de céder une partie de sa participation en échange d’un accès prolongé aux technologies d’OpenAI au-delà de leur contrat actuel qui court jusqu’en 2030.

Mais le désaccord est aussi culturel. Du côté de Microsoft, certains cadres évoquent une attitude hautaine d’OpenAI : « Ils nous disent : “Donnez-nous l’argent, donnez-nous le compute, et restez en dehors du chemin.” Ce n’est pas une posture saine de partenariat. », indique un cadre senior chez Microsoft.

Malgré cela, les deux parties souhaitent que l’accord tienne, car la réussite de l’un dépend largement de l’autre.

Stargate, SoftBank et les ambitions d’indépendance

OpenAI, de son côté, travaille déjà à réduire sa dépendance envers Microsoft, notamment à travers le projet « Stargate » : une infrastructure de calcul massif développée avec l’aide possible de SoftBank et Oracle. Un signe que l’entreprise envisage une plus grande autonomie technologique, ce qui n’est pas du goût de tout le monde à Redmond.

OpenAI a récemment levé 6,6 milliards de dollars en octobre 2024 (Microsoft, SoftBank, Thrive Capital, etc.), et 40 milliards de dollars supplémentaires en mars 2025 (tour de table dirigé par SoftBank).

Ces accords incluent des clauses spécifiques sur la conversion en PBC. Si cette conversion échoue, certains investisseurs pourraient se retirer, même si, pour l’instant, la confiance semble préservée.

Régulateurs et résistance juridique

Outre Microsoft, OpenAI doit encore convaincre les régulateurs. La procureure générale du Delaware examine actuellement le projet de restructuration, pour s’assurer que l’organisation mère (non lucrative) garde un contrôle effectif.

Par ailleurs, Elon Musk, pourtant cofondateur d’OpenAI, a engagé une action en justice pour bloquer la conversion. Il estime que ce changement de structure risque de privatiser le développement de l’intelligence artificielle générale (AGI), à l’origine pensée pour servir l’intérêt public.

La transformation d’OpenAI en entreprise publique à mission sociale pourrait bien redéfinir le rapport entre éthique, innovation et capital dans le domaine de l’IA. Mais pour y parvenir, il faudra trouver un équilibre délicat entre transparence réglementaire, confiance des investisseurs et respect de ses engagements fondateurs.

Microsoft reste un allié incontournable, mais sa patience semble limitée. Le reste de la tech mondiale, lui, observe ce bras de fer avec une attention extrême, car de son issue dépend peut-être l’avenir du leadership dans l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Claude défie Google ! Son IA explore le Web en temps réel

Claude défie Google ! Son IA explore le Web en temps réel

L’intelligence artificielle ne se contente plus de générer du texte : elle réinvente désormais la manière dont nous accédons à l’information. La dernière offensive vient d’Anthropic, qui a officiellement ajouté une fonction de recherche Web à son assistant Claude AI.

Une évolution majeure, qui s’inscrit dans la vague de transformation profonde que traverse la recherche en ligne — un domaine longtemps dominé par Google, mais désormais bousculé par les assistants IA conversationnels.

Claude AI peut désormais explorer le Web en temps réel

Désormais, les développeurs peuvent activer une fonction de recherche Web contextuelle via l’API de Claude, permettant à l’assistant de générer plusieurs requêtes progressives, compiler les réponses de manière synthétique, et citer les sources utilisées.

Cette approche offre une expérience de recherche plus humaine et fluide, en mimant le comportement d’un chercheur réel, qui affine progressivement sa recherche au lieu de se contenter de résultats de première intention.

Une IA qui comprend l’intention, pas seulement les mots-clés

Contrairement aux moteurs de recherche traditionnels, qui s’appuient fortement sur les mots-clés, Claude AI utilise des modèles pour comprendre l’intention derrière une requête, reformuler des recherches ciblées, et agréger les réponses pertinentes.

Ce changement de paradigme permet de réduire la charge cognitive des utilisateurs, en leur fournissant directement des réponses synthétiques, contextualisées et hiérarchisées, plutôt qu’une longue liste de liens à éplucher.

Une solution premium pensée pour les développeurs

L’outil est accessible via l’API de Claude, avec une tarification fixée à 10 dollars pour 1 000 recherches, en plus des coûts de jetons standards. Cette grille tarifaire place clairement la fonctionnalité dans une offre premium destinée aux entreprises et aux solutions intégrées.

Des paramètres avancés permettent de limiter le nombre de recherches successives et de restreindre les domaines autorisés, assurant contrôle et sécurité dans les contextes professionnels ou sensibles.

Google en perte de vitesse : les chiffres parlent

L’arrivée de cette fonctionnalité tombe à un moment charnière : pour la première fois en 22 ans, les recherches Safari ont chuté, selon le témoignage d’Eddy Cue (Apple) lors du procès antitrust de Google. Avec des solutions comme Claude, ChatGPT ou Perplexity, de plus en plus d’utilisateurs se tournent vers des interfaces IA conversationnelles pour trouver l’information.

D’après l’indice SOCi sur le comportement des consommateurs, près de 19 % des internautes utilisent déjà l’IA comme moteur de recherche, signalant le début d’un basculement historique.

Une guerre des IA pour le contrôle de l’accès à l’information

La compétition s’intensifie :

  • OpenAI a déjà intégré la recherche Web et des fonctionnalités shopping dans ChatGPT.
  • Apple explore des partenariats avec OpenAI, Anthropic et Perplexity, avec des rumeurs suggérant une rupture possible avec Google comme moteur par défaut dans Safari.
  • Perplexity AI intègre sa technologie directement dans les appareils via des partenariats avec Motorola, contournant totalement les navigateurs traditionnels.

Pendant ce temps, Google tente de préserver son monopole, mais son modèle basé sur la publicité devient de moins en moins compatible avec les usages IA centrés sur la pertinence, la rapidité et la clarté.

L’intégration de la recherche Web dans Claude AI marque bien plus qu’une simple évolution technique. C’est un changement fondamental de paradigme, où l’information devient accessible via un dialogue naturel, intelligent, assisté, intégré dans les apps et les OS.

Dans cette nouvelle ère, ce ne sera plus le moteur de recherche le plus puissant qui dominera, mais l’interface IA la plus fluide, fiable et intégrée.

L’époque où l’on tapait des mots-clés dans une barre de recherche pourrait bientôt appartenir au passé, remplacée par un monde où l’IA vous répond, anticipe vos besoins et explore le Web pour vous.

Lire plus
Intelligence Artificielle

Apple Intelligence boostée : Les puces M6, M7 et IA serveur arrivent !

Apple Intelligence boostée : Les puces M6, M7 et IA serveur arrivent !

Apple intensifie ses efforts dans le domaine de l’intelligence artificielle en développant une nouvelle génération de puces, notamment les Apple M6 et M7, ainsi qu’un processeur serveur dédié à l’IA.

Ces avancées visent à renforcer la plateforme Apple Intelligence et à maintenir la compétitivité de l’entreprise face à des acteurs majeurs comme Google et OpenAI.

Apple Intelligence : une priorité stratégique

La plateforme Apple Intelligence, récemment introduite, intègre des fonctionnalités d’IA générative telles que la réécriture d’e-mails, la synthèse de notifications et l’accès à ChatGPT. Pour soutenir ces capacités, Apple développe des puces spécialisées pour ses futurs appareils, y compris des lunettes intelligentes, des serveurs d’IA et de nouveaux Mac.

Apple travaille sur les puces M6 et M7, destinées à ses futurs Mac. Ces puces, dont les noms de code sont respectivement « Komodo » et « Borneo », sont conçues pour offrir des performances accrues et une meilleure efficacité énergétique. Une autre puce, nommée « Sotra », serait également en développement pour des applications Mac avancées.

Des lunettes connectées en préparation

En parallèle, Apple développe des puces pour ses futures lunettes intelligentes. Ces processeurs, basés sur ceux de l’Apple Watch, sont conçus pour gérer plusieurs caméras tout en maintenant une faible consommation d’énergie. La production de ces puces pourrait débuter d’ici la fin de 2026, avec une commercialisation des lunettes prévue dans environ 2 ans.

Un processeur serveur dédié à l’IA

Apple développe également un processeur serveur spécialisé pour l’IA, qui pourrait comporter jusqu’à six fois plus de cœurs CPU et GPU que le M3 Ultra. Ce processeur vise à améliorer les performances de la plateforme Apple Intelligence en permettant un traitement plus rapide et efficace des tâches d’IA.

Une vision à long terme

Ces développements s’inscrivent dans une stratégie à long terme d’Apple pour renforcer son écosystème matériel et logiciel. En investissant dans des puces spécialisées pour l’IA et les appareils portables, Apple cherche à offrir des expériences utilisateur innovantes tout en maintenant un contrôle étroit sur l’intégration matérielle et logicielle.

Apple prépare donc activement l’avenir de ses produits en développant des puces de nouvelle génération pour ses Mac, ses lunettes intelligentes et ses serveurs d’IA. Ces initiatives reflètent l’engagement de l’entreprise à rester à la pointe de l’innovation technologique et à offrir des expériences utilisateur toujours plus avancées.

Lire plus
Intelligence Artificielle

OpenAI recrute la patronne d’Instacart ! ChatGPT va-t-il conquérir le monde ?

Qui est Fidji Simo la frenchie d

OpenAI continue sa transformation stratégique à grande vitesse. L’entreprise, à l’origine de ChatGPT, vient d’annoncer une arrivée de taille : Fidji Simo, actuelle PDG d’Instacart et ex-dirigeante de Facebook, prendra la tête d’une nouvelle division exécutive baptisée « Applications ». Elle y occupera le poste tout juste créé de CEO of Applications, directement rattachée à Sam Altman, PDG d’OpenAI.

Cette nomination illustre clairement l’ambition d’OpenAI : passer du statut de laboratoire de recherche à celui de fournisseur mondial de produits d’IA grand public et professionnels.

Une mission stratégique : piloter les produits IA destinés au grand public et aux entreprises

Fidji Simo ne rejoint pas OpenAI par hasard. Sa mission consistera à diriger toutes les équipes en charge de transformer la recherche fondamentale de l’entreprise en applications concrètes. Cela inclut des produits phares comme ChatGPT, mais aussi des partenariats comme Microsoft Copilot.

Cette nouvelle structure vise à renforcer la fiabilité, l’accessibilité et l’adoption des produits IA à grande échelle. Simo pilotera notamment les projets de déploiement d’applications dans les secteurs de l’éducation, de la santé, du service public, et de l’entreprise.

Un pas de plus vers une IA omniprésente dans notre quotidien.

Un profil d’exception, au croisement de la tech, du produit et de la santé

Née à Sète, dans le sud de la France, Fidji Simo est une figure incontournable de la tech internationale. Diplômée d’HEC Paris, elle débute sa carrière chez eBay, avant de rejoindre Facebook en 2011. Là, elle dirige successivement les services Video, Marketplace, Groupes et Publicité, puis devient responsable de l’application principale Facebook, un poste central dans l’organisation de Meta.

En 2021, elle prend les commandes d’Instacart, plateforme de livraison de courses, qu’elle guide jusqu’à son entrée en bourse réussie en 2023. Elle y développe notamment le pôle publicitaire et multiplie les offres premium.

Mais Simo est aussi très engagée dans le domaine de la santé et de la recherche médicale. Elle est la cofondatrice du Metrodora Institute, une clinique spécialisée dans les troubles neuro-immuns, et préside la fondation associée.

Une décision motivée par sa passion pour l’IA

Dans un message publié sur LinkedIn, Fidji Simo s’est exprimée sur ce nouveau défi : « C’était une décision incroyablement difficile car j’aime profondément Instacart. Mais vous savez aussi combien l’intelligence artificielle me passionne. Elle peut révolutionner des domaines comme la santé. Rejoindre OpenAI à ce moment charnière est à la fois un privilège et une grande responsabilité ».

Son message traduit une conviction forte : l’IA n’est pas qu’un outil technologique, c’est un levier d’accélération pour l’humanité. Elle s’engage à œuvrer pour que les produits d’OpenAI servent le bien commun.

Une restructuration interne logique pour accompagner la croissance

Selon Sam Altman, cette nomination n’annonce pas de changement à la direction globale d’OpenAI : il reste PDG. Mais la création de ce nouveau poste souligne une évolution importante : OpenAI n’est plus uniquement un laboratoire de recherche, mais un écosystème complet articulé autour de trois couches : l’infrastructure, la plateforme (modèles comme GPT), et les applications (ChatGPT, Copilot, etc.).

Altman souhaite désormais se concentrer davantage sur les volets recherche, infrastructure et sécurité, tandis que Fidji Simo prendra la tête de la partie « produits et utilisateurs ».

Vers une IA plus stable, intégrée et opérationnelle pour les entreprises

Ce changement organisationnel envoie un signal fort aux entreprises : OpenAI se structure pour devenir un acteur fiable de l’IA B2B, capable de répondre aux exigences industrielles en matière de sécurité, d’interface, de support et de scalabilité. Les DSI et CTO qui s’appuient sur les modèles d’OpenAI peuvent s’attendre à des feuilles de route produits plus claires, des intégrations mieux documentées, et une expérience utilisateur plus fluide.

Simo, par son expérience chez Facebook et Instacart, a déjà prouvé qu’elle savait monétiser des plateformes complexes et les rendre accessibles à grande échelle.

L’arrivée de Fidji Simo chez OpenAI marque un tournant stratégique majeur. En confiant la direction des applications à une leader aguerrie, capable de transformer la technologie en solutions concrètes, OpenAI affiche clairement ses intentions : démocratiser l’IA, tout en conservant un haut niveau d’exigence éthique et technique.

À l’heure où l’IA devient un enjeu central pour l’économie, la société et les politiques publiques, cette structuration pourrait bien faire d’OpenAI le moteur de la prochaine révolution industrielle.

Lire plus
Intelligence Artificielle

Gemini devient artiste : Éditez vos images IA directement ! Impressionnant ?

Gemini devient artiste : Éditez vos images IA directement ! Impressionnant ?

Google continue d’enrichir l’expérience utilisateur autour de son assistant IA Gemini. Depuis le 30 avril 2025, la firme de Mountain View a commencé à déployer une nouvelle fonctionnalité native d’édition d’images dans l’application Gemini.

Cette mise à jour marque une évolution significative, puisqu’elle permet désormais de modifier directement des images générées par IA ou importées depuis un smartphone ou un ordinateur.

Une édition visuelle enrichie, pensée pour la créativité

Cette nouveauté s’inscrit dans la continuité du lancement de l’outil AI Studio, qui avait introduit les premiers outils d’édition d’images par IA chez Google. Aujourd’hui, cette fonctionnalité est directement intégrée à Gemini, offrant une interface plus intuitive et accessible.

Gemini App Text and images together

David Sharon, chef de produit pour les applications Gemini et responsable des fonctionnalités multimodales, explique que ce développement est une réponse directe aux retours très positifs des utilisateurs. Il précise que le nouveau système repose sur une approche « multi-étapes », permettant d’obtenir des résultats plus riches et détaillés en combinant texte et image.

Gemini 2.0 Conversational image editing

Par exemple, un utilisateur peut demander à Gemini d’écrire une histoire pour enfants sur les dragons, tout en lui demandant d’y ajouter des illustrations personnalisées, qui peuvent ensuite être modifiées visuellement — changer la couleur d’un dragon, ajouter un décor, modifier le style graphique, etc.

Des images sécurisées et traçables

Pour garantir l’intégrité et l’authenticité du contenu, toutes les images générées ou modifiées dans Gemini intégreront le filigrane invisible SynthID, développé par Google DeepMind. Ce filigrane permet de détecter automatiquement qu’une image a été créée ou éditée par une IA.

Google teste également l’ajout de filigranes visibles pour une transparence accrue, ce qui pourrait à terme faciliter l’identification de contenus générés artificiellement sur le web.

Disponibilité mondiale progressive

Le déploiement de cette fonctionnalité a débuté le 30 avril 2025 et s’étendra progressivement dans plus de 45 langues, selon Google. Elle n’est toutefois pas encore accessible aux comptes Workspace ou Éducation, ce qui pourrait limiter son usage en contexte professionnel ou scolaire à court terme.

Avec l’intégration de l’édition d’images directement dans Gemini, Google confirme son ambition de faire de son assistant IA une plateforme créative complète, mêlant texte, image et bientôt vidéo. Cette évolution rapproche encore un peu plus Gemini de ses concurrents, comme ChatGPT ou Midjourney, tout en proposant une expérience native et sécurisée sur mobile et desktop.

Lire plus
Intelligence Artificielle

Plus « intelligente », moins fiable ? Le paradoxe des nouvelles IA de OpenAI

Plus « intelligente », moins fiable ? Le paradoxe des nouvelles IA de OpenAI

L’intelligence artificielle progresse à grande vitesse, mais cette évolution n’est pas toujours synonyme de fiabilité. Les nouveaux modèles GPT o3 et o4-mini d’OpenAI, conçus pour raisonner de manière plus humaine que jamais, posent aujourd’hui une question inquiétante : plus l’IA devient « intelligente », plus elle a tendance à inventer des choses.

L’hallucination : un problème croissant dans l’IA

Le phénomène d’hallucination — ces moments où une IA génère des réponses erronées ou totalement fictives — n’est pas nouveau. Depuis les débuts des chatbots, ce biais reste un obstacle majeur. À chaque nouvelle version, on espérait le voir reculer. Mais d’après une enquête interne relayée par The New York Times, les derniers modèles de OpenAI semblent plus enclins que jamais à « délirer ».

Sur un test de benchmark consacré à des personnalités publiques, GPT o3 a halluciné dans 33 % des cas, soit deux fois plus que son prédécesseur, GPT-o1. Pire encore, le modèle allégé GPT o4-mini a produit des informations erronées dans près de 48 % des réponses.

Trop de raisonnement nuit-il à la fiabilité de l’IA ?

Les modèles GPT-o3 et o4-mini de OpenAI ont été entraînés pour raisonner étape par étape, comme un humain le ferait. Mais cette approche, censée les rendre plus logiques et cohérents, semble les pousser à commettre plus d’erreurs.

Contrairement aux anciens modèles qui se contentaient de générer du texte fluide à partir d’infos sûres, ces nouveaux systèmes tentent de « relier les points » entre des concepts complexes. Résultat : ils peuvent arriver à des conclusions totalement absurdes, mais exprimées avec un aplomb désarmant.

Le test SimpleQA, qui mesure les connaissances générales, est sans appel : GPT o3 s’est trompé 51 % du temps, et o4-mini a halluciné dans 79 % des cas. Des chiffres alarmants, qui sapent la crédibilité de l’IA dans les usages sensibles.

Des modèles plus puissants… mais moins crédibles

Selon OpenAI, cette explosion des hallucinations ne serait pas forcément due au raisonnement lui-même, mais à la tendance des modèles à être plus bavards et confiants. En voulant donner des réponses riches et complètes, ils finissent parfois par mélanger faits réels et théories, vérités et suppositions.

Ce problème devient critique lorsque ces IA sont utilisées dans des secteurs sensibles, comme le droit, la médecine, l’éducation ou les services publics. Un simple « fait halluciné » dans un dossier juridique ou un rapport médical peut avoir des conséquences désastreuses.

Des exemples concrets aux conséquences bien réelles

On se souvient des avocats sanctionnés pour avoir cité des jurisprudences inventées par ChatGPT dans des conclusions judiciaires. Mais qu’en est-il des erreurs plus discrètes dans un rapport d’entreprise, une dissertation ou une politique publique ? À mesure que l’IA s’intègre dans notre quotidien, la marge d’erreur se réduit.

Le paradoxe est simple : plus l’IA est utile, plus ses erreurs deviennent dangereuses. On ne gagne pas de temps si chaque réponse doit être vérifiée manuellement.

Un conseil : traitez l’IA comme un stagiaire trop sûr de lui

Même si GPT-o3 et o4-mini excellent dans le code, l’analyse et la logique, leur propension à halluciner signifie qu’ils ne peuvent pas encore être des sources 100 % fiables. Tant que ce problème ne sera pas maîtrisé, il faut prendre leurs réponses avec précaution. Voyez-les comme ce collègue toujours prompt à répondre, avec assurance, mais qu’on préfère toujours fact-checker avant d’agir.

OpenAI a franchi une étape importante dans la sophistication de ses modèles IA. Mais cette évolution s’accompagne d’une fragilité inquiétante : la vérité est parfois sacrifiée au profit de la cohérence ou de la fluidité.

Tant que les géants de l’IA ne trouveront pas un moyen de limiter ces « hallucinations », l’intelligence artificielle devra rester un assistant, pas une autorité.

Lire plus