fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Gemini Code Assist : Google dévoile l’IA qui programme à votre place !

Gemini Code Assist : Google dévoile l'IA qui programme à votre place !

Lors de sa conférence Cloud Next ’25, Google a dévoilé une mise à jour majeure de Gemini Code Assist, son assistant de programmation basé sur l’IA. Désormais doté de capacités dites « agentiques », l’outil est capable de gérer des tâches complexes sur plusieurs étapes, à la manière d’un véritable assistant logiciel autonome.

Des agents IA pour automatiser le développement

En preview, Gemini Code Assist peut déployer de nouveaux agents intelligents capables de concevoir des applications complètes à partir de spécifications produit présentes dans un simple document Google Docs, ou encore de convertir du code d’un langage à un autre.

Ces agents vont bien au-delà de la simple suggestion de code : ils peuvent planifier des tâches, exécuter des transformations logicielles, générer de la documentation technique, ajouter de nouvelles fonctionnalités, ou encore effectuer des revues de code et créer des tests unitaires. Le tout peut être supervisé via un tableau Kanban intégré à l’outil.

Gemini Code Assist demo gif

Gemini Code Assist est désormais intégré à Android Studio, en plus des autres environnements de développement populaires. Une décision stratégique de Google qui vise à renforcer son assistant face à une concurrence de plus en plus féroce.

Une réponse aux concurrents : GitHub Copilot, Cursor, Devin…

Avec cette évolution, Google entend clairement répliquer aux avancées de GitHub Copilot, Cursor ou encore Devin, l’agent IA développé par Cognition Labs qui a récemment fait sensation. Le marché de l’assistance à la programmation par l’IA devient extrêmement compétitif, porté par les promesses de gains de productivité colossaux.

Mais attention à ne pas céder à l’enthousiasme trop rapidement. Même les meilleurs assistants IA du marché peuvent introduire des bugs ou des failles de sécurité, notamment à cause d’une compréhension encore limitée de la logique et des contraintes spécifiques à chaque langage.

Une étude récente sur Devin a montré que l’agent n’avait réussi que 3 tâches sur 20 dans un benchmark dédié. Il reste donc essentiel de relire et tester systématiquement le code généré, même lorsqu’il provient d’un outil aussi avancé que Gemini Code Assist.

Vers une nouvelle génération d’assistants-développeurs ?

Avec cette mise à jour, Google franchit un cap important : celui de l’automatisation partielle du cycle complet de développement logiciel. Si les agents tiennent leurs promesses, l’IA générative pourrait ne plus se limiter à l’autocomplétion de lignes de code, mais bel et bien assister les équipes dans la planification, l’implémentation, la vérification et la documentation de leurs projets.

Reste à voir si ces agents seront aussi performants qu’ambitieux. Car si l’IA peut déjà accompagner les développeurs, elle ne les remplace pas encore. En tout cas, pas totalement.

Lire plus
Intelligence Artificielle

Claude Max : Anthropic lance l’abonnement ultime pour les pros de l’IA !

Claude Max : Anthropic lance l'abonnement ultime pour les pros de l'IA !

Anthropic vient de frapper fort avec l’annonce d’un nouveau palier d’abonnement premium baptisé Claude Max, proposé entre 100 et 200 dollars par mois, pour son assistant IA Claude. Cette nouvelle offre vise à répondre aux plaintes croissantes des utilisateurs avancés qui se heurtaient aux limites d’utilisation trop restrictives des plans précédents, même sur la formule Pro à 20 dollars/mois.

Claude Max : l’offre pour les utilisateurs intensifs

Le plan Claude Max se décline en deux options :

  • 100 dollars/mois : offre 5 fois plus d’utilisation que le plan Pro.
  • 200 dollars/mois : 20 fois plus d’usage, destiné à ceux qui utilisent Claude au quotidien pour collaborer sur des tâches complexes.

Ces nouvelles formules permettent de dépasser les limitations habituelles liées à la taille de la fenêtre de contexte (ce que l’IA peut lire, comprendre et traiter en une fois), l’une des forces de Claude, mais aussi une source rapide de saturation pour les sessions longues ou les projets documentés.

Pourquoi ce changement maintenant ?

La montée en gamme de Claude ne tombe pas par hasard. Elle survient dans un contexte de compétition féroce avec OpenAI, qui a lancé fin 2023 son propre plan Pro à 200 dollars/mois pour ChatGPT, promettant un accès « illimité » à ses modèles les plus avancés.

Comme l’explique Anthropic dans son annonce officielle : « La demande numéro un de nos utilisateurs les plus actifs était un accès élargi à Claude ».

Sur Reddit et d’autres forums, de nombreux témoignages soulignent la frustration liée aux blocages fréquents lors de projets complexes ou de longues conversations. Ce nouveau plan vise à regagner la confiance de ces utilisateurs tout en maintenant la viabilité économique du service face aux coûts astronomiques liés à l’inférence de modèles IA à large contexte.

D’autres avantages du plan Max

Outre l’accès massif élargi, Claude Max offre également :

  • Une priorité d’accès en cas de surcharge sur les serveurs.
  • Des limites de sortie augmentées, pour des réponses plus longues, plus riches et mieux structurées.
  • L’accès anticipé aux nouvelles fonctionnalités et modèles, positionnant les abonnés Max comme bêta-testeurs VIP.

Une stratégie calquée sur OpenAI ?

image 3

Avec ses trois niveaux de tarification — Gratuit, Pro (18-20 dollars), et Max (100-200 dollars) — Anthropic adopte une structure très similaire à celle de ChatGPT. Le but ? Fidéliser les utilisateurs professionnels et entreprises qui souhaitent utiliser Claude pour de la rédaction, de l’analyse de code, de la synthèse documentaire ou de l’automatisation de processus via IA.

Le plan Claude Max est déjà disponible dans toutes les régions où Claude est proposé. Pour les professionnels, chercheurs ou développeurs qui utilisent intensivement l’IA dans leur quotidien, cette offre peut désormais représenter une alternative solide et crédible à ChatGPT Pro.

Lire plus
Intelligence Artificielle

Gemini 2.5 Pro booste Deep Research : Google veut révolutionner la recherche documentaire !

Gemini 2.5 Pro booste Deep Research : Google veut révolutionner la recherche documentaire !

Depuis la nomination de Josh Woodward à la tête de l’équipe Gemini, Google multiplie les initiatives pour positionner sa suite d’IA comme une référence dans les usages avancés, notamment dans la recherche documentaire.

Le modèle Gemini 2.5 Pro, très salué pour ses capacités de raisonnement et sa connaissance du monde, alimente désormais l’agent Deep Research de Gemini, mais avec une subtilité importante : seuls les abonnés Gemini Advanced peuvent en profiter pleinement.

Gemini 2.5 Pro : le moteur derrière un agent de recherche nouvelle génération

Lancé récemment, le modèle Gemini 2.5 Pro représente la version la plus évoluée de l’IA générative de Google. Il offre des réponses plus précises, mieux contextualisées et beaucoup plus riches en informations actuelles. Désormais, ce modèle est intégré à l’agent Deep Research, qui permet d’explorer en profondeur un sujet donné avec des résultats étoffés, structurés et documentés.

Cependant, les utilisateurs de la version gratuite de Gemini n’ont accès qu’à une version limitée de cet outil. Dans leur cas, Deep Research s’appuie sur Gemini 2.0 Flash Thinking, un modèle plus léger et moins performant, bien qu’il reste raisonnablement efficace pour les recherches basiques.

User Preferences for Gemini vs.w

Des résultats préférés à ceux de ChatGPT

Selon Google, les évaluateurs humains ont préféré Deep Research de Gemini à celui de ChatGPT dans plus de deux cas sur trois. Même des tests indépendants menés sur la version précédente (2.0 Flash Thinking) soulignaient la pertinence des résultats de Gemini, en particulier sa capacité à inclure des informations d’actualité dans ses analyses.

Avec le passage à Gemini 2.5 Pro pour les abonnés Advanced, la qualité des résultats générés est encore montée d’un cran, positionnant Deep Research comme un véritable outil de recherche assistée par IA.

Une limite persistante : l’impossibilité d’uploader des fichiers

Malgré ces progrès, une fonctionnalité cruciale fait toujours défaut : l’import de fichiers. Là où ChatGPT permet de télécharger des PDF ou des articles scientifiques payants pour alimenter l’agent de recherche, Gemini n’autorise toujours pas cette option.

Cela limite la capacité de Deep Research à intégrer des contenus exclusifs ou non indexés sur le Web, un manque que Google devra combler s’il souhaite rivaliser pleinement avec la concurrence.

Podcasts générés par IA : Deep Research passe à l’audio

Autre nouveauté notable : les utilisateurs peuvent désormais générer des résumés audio (Audio Overviews) à partir de leurs rapports Deep Research. Une fonctionnalité déjà popularisée via NotebookLM, qui permet de transformer des documents en podcasts intelligents, directement exploitables en mobilité ou pour une écoute passive.

L’intégration de Gemini 2.5 Pro à Deep Research confirme les ambitions de Google dans l’IA appliquée à la connaissance. Bien que certaines fonctionnalités manquent encore à l’appel, notamment le support des fichiers externes, l’écosystème Gemini continue de se renforcer, et pourrait bien devenir une référence incontournable pour la recherche approfondie assistée par IA.

Lire plus
Intelligence Artificielle

ChatGPT : OpenAI pourrait filigraner les images des utilisateurs gratuits

ChatGPT : OpenAI pourrait filigraner les images des utilisateurs gratuits

OpenAI, l’entreprise derrière ChatGPT, envisage d’ajouter des filigranes aux images générées par les utilisateurs de son service gratuit. Cette initiative a été repérée par l’analyste en intelligence artificielle Tibor Blaho, qui a découvert une ligne de code intitulée « image_gen_watermark_for_free » dans la version bêta de l’application Android de ChatGPT.

Cette mesure viserait à distinguer les images créées par les utilisateurs gratuits de celles produites par les abonnés payants, ces derniers pouvant potentiellement télécharger des images sans filigrane.

Bien que OpenAI n’ait pas encore officiellement confirmé cette fonctionnalité, elle pourrait inciter les utilisateurs à opter pour un abonnement payant afin d’obtenir des images sans filigrane.

L’ajout de filigranes aux contenus générés par l’IA est une pratique courante pour indiquer leur origine artificielle. Toutefois, l’efficacité de ces filigranes dépend de leur mise en œuvre technique.

Par exemple, certaines méthodes consistent à modifier légèrement les pixels de l’image pour créer un motif détectable par des outils spécialisés, sans être visible à l’œil nu.

Une fonctionnalité en phase de test dans ChatGPT

Il est important de noter que cette fonctionnalité est actuellement en phase de test et pourrait ne pas être déployée dans sa forme actuelle. OpenAI n’a pas encore fourni de détails supplémentaires sur le calendrier ou les modalités de mise en œuvre de cette fonctionnalité.

Il s’agit d’une initiative intéressante, probablement due au fait que de plus en plus d’utilisateurs génèrent des illustrations du Studio Ghibli à l’aide du modèle ImageGen. Non seulement il permet de générer des images avec précision et du texte, mais il permet également de créer des visuels réalistes, comme ceux produits par le Studio Ghibli, un grand nom du monde des studios japonais.

Lire plus
Intelligence Artificielle

DeepMind alerte : L’AGI arrive en 2030, et les risques sont énormes

DeepMind alerte : L'AGI arrive en 2030, et les risques sont énormes

L’intelligence artificielle générale est un sujet d’actualité, même si personne ne s’accorde sur ce qu’est réellement l’AGI. Certains scientifiques pensent qu’il faudra encore des centaines d’années pour y parvenir et qu’elle nécessiterait des technologies que nous ne pouvons même pas encore imaginer, tandis que Google DeepMind affirme que l’AGI pourrait être là d’ici 2030 — et qu’elle prévoit déjà des mesures de sécurité.

Google DeepMind a récemment publié un document de 145 pages intitulé « An Approach to Technical AGI Safety and Security », dans lequel Google anticipe l’émergence d’une Intelligence Artificielle Générale (AGI).

Il n’est pas rare que la communauté scientifique soit en désaccord sur des sujets comme celui-ci, et il est bon que toutes nos bases soient couvertes par des personnes qui planifient à la fois l’avenir immédiat et l’avenir lointain. Il n’en reste pas moins que cinq ans est un chiffre assez choquant.

Cette AGI pourrait égaler, voire surpasser, les capacités intellectuelles humaines, posant ainsi des défis significatifs en matière de sécurité et d’éthique.

Alors, quels risques DeepMind pense-t-elle qu’une AGI du niveau d’Einstein pourrait poser ?

Les risques et les mesures proposées par Google DeepMind concernant l’AGI

Les quatre principaux risques identifiés par DeepMind :

  • Mauvaise utilisation (Misuse) : L’AGI pourrait être exploitée à des fins malveillantes, telles que la manipulation politique via des deepfakes ou l’usurpation d’identité dans des arnaques. DeepMind souligne la nécessité de bloquer l’accès des acteurs malveillants aux capacités dangereuses de l’AGI.
  • Mauvais alignement (Misalignment) : Il existe un risque que l’AGI interprète mal les intentions humaines, menant à des actions imprévues ou nuisibles. Par exemple, une AGI chargée d’augmenter la production pourrait épuiser les ressources naturelles de manière irresponsable.
  • Erreurs (Mistakes) : Comme tout système complexe, l’AGI pourrait commettre des erreurs, entraînant des conséquences imprévues. Ces erreurs pourraient résulter de données d’entraînement biaisées ou de limitations dans la conception du système.
  • Risques structurels (Structural Risks) : L’intégration de l’AGI dans divers secteurs pourrait créer des vulnérabilités systémiques, notamment en matière de cybersécurité, où des attaques pourraient être amplifiées par des systèmes interconnectés.

Mesures proposées par DeepMind pour atténuer ces risques :

  • Surveillance et régulation : Mettre en place des mécanismes de surveillance pour détecter et prévenir les utilisations malveillantes de l’AGI.
  • Alignement des objectifs : Développer des méthodes pour s’assurer que les objectifs de l’AGI correspondent aux valeurs et intentions humaines.
  • Tests et validation : Effectuer des tests rigoureux pour identifier et corriger les erreurs potentielles avant le déploiement de l’AGI.
  • Collaboration internationale : Travailler avec des organismes internationaux pour établir des normes et des réglementations garantissant une utilisation sûre et éthique de l’AGI.

DeepMind insiste sur l’importance d’une approche proactive pour gérer les risques associés à l’AGI, soulignant que l’anticipation et la préparation sont essentielles pour assurer une cohabitation harmonieuse entre les humains et les intelligences artificielles avancées.

Bien que l’article de DeepMind soit totalement exploratoire, il semble qu’il y ait déjà de nombreuses façons d’imaginer que l’AGI puisse se tromper. Ce n’est pas aussi grave que cela en a l’air : les problèmes que nous pouvons imaginer sont ceux auxquels nous pouvons le mieux nous préparer. Ce sont les problèmes que nous n’anticipons pas qui sont les plus effrayants, alors espérons que nous ne manquons rien d’important.

Lire plus
Intelligence Artificielle

DeepSeek : L’IA qui apprend à s’améliorer toute seule et surpasse GPT-4o !

DeepSeek : L'IA qui apprend à s'améliorer toute seule et surpasse GPT-4o !

Une startup chinoise spécialisée en intelligence artificielle, DeepSeek, a récemment dévoilé une approche novatrice visant à améliorer l’efficacité et la précision des modèles d’IA grâce à une technique appelée « Self-Principled Critique Tuning » (SPCT).

Cette méthode, décrite dans un article préliminaire en collaboration avec l’Université Tsinghua, propose une boucle de rétroaction en temps réel où le modèle d’IA génère ses propres principes et critiques pour affiner continuellement ses réponses.

Traditionnellement, l’amélioration des modèles d’IA repose sur l’augmentation de leur taille et sur des processus d’entraînement coûteux en ressources humaines et informatiques. En revanche, la méthode SPCT permet au modèle de s’auto-évaluer en comparant ses réponses à des critères prédéfinis, générant ainsi des signaux de récompense qui guident son apprentissage futur. Cette approche, connue sous le nom de « Generative Reward Modeling » (GRM), vise à créer des modèles capables de s’améliorer de manière autonome.

Le modèle résultant de cette technique, baptisé DeepSeek-GRM, a démontré des performances supérieures à celles de modèles concurrents tels que Gemini de Google, Llama de Meta et GPT-4o d’OpenAI, selon les benchmarks présentés dans l’étude. DeepSeek prévoit de rendre ce modèle accessible en open source, favorisant ainsi l’innovation collaborative dans le domaine de l’IA.

L’idée d’une IA capable de s’améliorer de manière autonome soulève des débats au sein de la communauté technologique. Des figures, telles que Eric Schmidt, ancien PDG de Google, ont exprimé la nécessité de mécanismes de contrôle pour ces systèmes auto-améliorés, suggérant même la mise en place d’un « kill switch » pour prévenir tout comportement imprévu. Néanmoins, des entreprises comme Meta et Google explorent également des approches similaires, telles que les modèles de langage auto-récompensés et les algorithmes d’auto-amélioration.

DeepSeek, l’IA venue de Chine !

L’initiative de DeepSeek s’inscrit dans un contexte plus large où la Chine encourage activement le développement et l’intégration de l’IA dans divers secteurs. De nombreuses entreprises chinoises, y compris des fabricants de smartphones comme Huawei, OPPO et Vivo, ont déjà adopté les modèles d’IA de DeepSeek pour améliorer leurs produits et services.

En résumé, la méthode SPCT de DeepSeek représente une avancée significative dans le domaine de l’intelligence artificielle, offrant une nouvelle voie pour le développement de modèles plus intelligents et autonomes, tout en suscitant des discussions essentielles sur la gouvernance et la sécurité de ces technologies émergentes.

Lire plus
Intelligence Artificielle

GPT-5 arrive : OpenAI dévoile son calendrier et annonce des modèles intermédiaires !

with deepseek hot on its heels o

En février dernier, le PDG d’OpenAI, Sam Altman, a partagé la feuille de route pour la sortie de GPT-5. Il a révélé que le puissant modèle de raisonnement o3 ne serait pas disponible en tant que modèle autonome, mais qu’il serait intégré à GPT-5.

Aujourd’hui, Altman indique que les modèles de raisonnement o3 et o4-mini de nouvelle génération seront disponibles « dans quelques semaines », et que GPT-5 sera publié « dans quelques mois ». Ces nouveaux modèles, o3 et o4-mini, sont conçus pour offrir des capacités de raisonnement avancées. Par exemple, o3-mini, lancé le 31 janvier 2025, est optimisé pour des tâches techniques nécessitant précision et rapidité, telles que la programmation, les mathématiques et les sciences. Il propose trois niveaux d’effort de raisonnement (faible, moyen et élevé), permettant aux utilisateurs d’ajuster le modèle en fonction de leurs besoins spécifiques.

Vendredi dernier, Altman a tweeté sur X, « Changement de plans : nous allons finalement sortir o3 et o4-mini, probablement dans quelques semaines, et ensuite faire GPT-5 dans quelques mois ». En outre, OpenAI lancera un modèle o3-pro, tout comme o1-pro, qui utilise plus de temps pour résoudre des problèmes plus difficiles.

Altman a expliqué les raisons du retard de GPT-5. Selon lui, l’intégration de nombreux outils dans GPT-5, y compris le modèle o3, est « plus difficile que nous le pensions ». En outre, GPT-5 va être amélioré dans l’intervalle et OpenAI met en place l’infrastructure et la capacité nécessaires pour servir le modèle GPT-5 lorsqu’il sera publié dans quelques mois.

GPT-5 sera également disponible pour les utilisateurs gratuits de ChatGPT

Dans des déclarations antérieures, Altman a indiqué que GPT-5 serait également disponible pour les utilisateurs gratuits de ChatGPT. Étant donné que des images de style Studio Ghibli ont explosé sur ChatGPT, il est bon qu’OpenAI se concentre sur le renforcement des capacités.

Par ailleurs, la sortie anticipée d’o3 pourrait être liée au modèle phare Gemini 2.5 Pro de Google, qui s’est positionné comme le modèle d’IA le plus performant de l’industrie, détrônant tous les modèles concurrents. OpenAI pourrait vouloir lancer son impressionnant modèle o3 pour prendre l’avantage sur Google et Anthropic.

Enfin, OpenAI prévoit de publier un modèle de langage à open-weight dans les mois à venir. Contrairement aux modèles open-source qui incluent le code source complet et les données d’entraînement, les modèles à open-weight fournissent uniquement les paramètres entraînés, permettant aux développeurs de les adapter à des applications spécifiques sans nécessiter les données d’origine. Cette initiative vise à recueillir des retours d’expérience et à affiner ces modèles lors d’événements dédiés aux développeurs prévus dans diverses régions, notamment à San Francisco, en Europe et en Asie-Pacifique.

Lire plus
Intelligence Artificielle

Meta dévoile Llama 4 : L’IA qui surpasse GPT-4o est arrivée !

Meta dévoile Llama 4 : L'IA qui surpasse GPT-4o est arrivée !

Après 4 mois d’attente, Meta a sorti une nouvelle série de modèles Llama 4 open-weight. Les nouveaux modèles d’IA sont Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth. Contrairement aux précédents modèles denses, Meta a opté cette fois pour l’architecture MoE (Mixture of Experts), tout comme DeepSeek R1 et V3. Tous les modèles Llama 4 sont nativement multimodaux.

Tout d’abord, le plus petit modèle Llama 4 Scout a un total de 109B paramètres avec 16 experts, mais seulement 17B paramètres sont actifs à la fois. Il prend également en charge une longueur de contexte massive de 10 millions de tokens. Meta affirme que le Llama 4 Scout (17B) offre de meilleures performances que Gemma 3, Mistral 3.1 et Gemini 2.0 Flash Lite.

Ensuite, le modèle Llama 4 Maverick apporte un total de 400B paramètres avec 128 experts supplémentaires, mais là encore, seuls 17B paramètres sont actifs. Ce modèle est plus performant que le Llama 4 Scout, car il dispose de beaucoup plus de modèles experts spécialisés. La longueur du contexte est de 1 million de jetons. Meta affirme que le Llama 4 Maverick bat le GPT-4o d’OpenAI et le Gemini 2.0 Flash de Google.

L’aspect impressionnant du Llama 4 Maverick est qu’avec seulement 17B paramètres actifs, il a obtenu un score ELO de 1 417 sur le tableau de classement de LMArena. Cela place le modèle Maverick en deuxième position, juste derrière Gemini 2.5 Pro, et au-dessus de Grok 3, GPT-4o, GPT-4.5, et d’autres. Il obtient également des résultats comparables à ceux du dernier modèle DeepSeek V3 pour les tâches de raisonnement et de codage, et étonnamment, avec seulement la moitié des paramètres actifs.

Meta a réalisé un travail remarquable en distillant les modèles Llama 4 Scout et Maverick à partir du plus grand modèle Llama 4 Behemoth. Le modèle d’IA Llama 4 Behemoth est formé sur un total de 2 billions de paramètres, mais seulement 288 milliards de paramètres sont actifs parmi les 16 experts. Meta indique que Behemoth est encore en cours d’entraînement et que de plus amples informations sur sa sortie seront communiquées ultérieurement.

Llama 4 Behemoth, le modèle ultime !

489511937 1627813884508038 4209289296588372348 n png

Meta affirme que le Llama 4 Behemoth bat les plus grands modèles d’IA tels que GPT-4.5, Claude 3.7 Sonnet et Gemini 2,0 Pro sur les benchmarks STEM. Notez que ces modèles ne sont pas des modèles de raisonnement, Meta peut donc obtenir des performances encore meilleures avec les futurs modèles de raisonnement en utilisant les modèles de base de la série Llama 4.

En ce qui concerne la disponibilité, Meta indique que Llama 4 est déployé sur Meta AI dans WhatsApp, Messenger, Instagram et sur le site Web de Meta AI, à partir d’aujourd’hui dans 40 pays. Cependant, les fonctionnalités multimodales ne sont actuellement disponibles qu’aux États-Unis. Les deux nouveaux modèles, également disponibles en téléchargement sur Meta ou Hugging Face.

Comme pour ses précédents modèles, Meta qualifie la collection Llama 4 d’« open source », bien que Llama ait été critiqué pour ses restrictions de licence. Par exemple, la licence Llama 4 exige que les entités commerciales comptant plus de 700 millions d’utilisateurs actifs mensuels demandent l’autorisation de Meta avant d’utiliser ses modèles, ce qui, selon l’Open Source Initiative en 2023, les exclut de la catégorie « Open Source » ».

Lire plus
Intelligence Artificielle

L’IA transforme la documentation clinique : Une croissance de 320 % d’ici 2026

L'IA transforme la documentation clinique : Une croissance de 320 % d'ici 2026

L’adoption de l’intelligence artificielle (IA) dans le secteur de la santé est en pleine expansion, avec des projections indiquant une croissance significative dans les prochaines années.

Selon une enquête menée par Healthcare Dive et Microsoft auprès de 130 dirigeants du secteur de la santé, l’utilisation de l’IA pour la documentation clinique devrait passer de 10 % actuellement à 42 % d’ici 2026, soit une augmentation de 320 %.

Cette tendance s’explique par la capacité de l’IA à automatiser des tâches chronophages, permettant aux cliniciens de se concentrer davantage sur les patients. Des solutions comme Dragon Copilot de Microsoft intègrent des technologies de reconnaissance vocale et d’écoute ambiante pour faciliter la documentation clinique, la navigation dans les dossiers de santé électroniques et d’autres tâches administratives.

Parallèlement, des startups développent des technologies d’IA capables de générer des notes cliniques structurées à partir des conversations entre patients et cliniciens, améliorant ainsi l’efficacité et la précision de la documentation médicale.

Cependant, l’intégration de l’IA dans les workflows cliniques doit être effectuée avec prudence.

L’IA dans la santé pose question

Des préoccupations subsistent quant à la précision des transcriptions et à la possibilité d’erreurs, notamment lorsque l’IA est utilisée pour extraire des informations des conversations médicales. Il est donc essentiel de mettre en place des mesures de sécurité adaptées pour garantir l’exactitude et la fiabilité des données générées par l’IA.

En conclusion, l’IA est sur le point de transformer la documentation clinique en automatisant les processus et en améliorant l’efficacité des cliniciens. Cependant, une mise en œuvre réfléchie et des mesures de sécurité appropriées sont essentielles pour assurer des résultats précis et fiables.

Lire plus
Intelligence Artificielle

Claude : Recherche web intégrée, rattrape son retard sur Gemini et ChatGPT

Claude : Recherche web intégrée, rattrape son retard sur Gemini et ChatGPT

Anthropic a officiellement intégré une nouvelle fonction de recherche sur le Web à son assistant IA Claude, permettant ainsi aux utilisateurs d’accéder à des informations actualisées.

Cette mise à jour vient combler l’une des principales lacunes du modèle, qui jusqu’à présent reposait uniquement sur les données stockées lors de son entraînement, avec une limite de connaissances arrêtée à octobre 2024.

La recherche Web de Claude est actuellement disponible en preview pour les abonnés premium aux États-Unis, avec des projets d’expansion vers les utilisateurs gratuits et d’autres pays à l’avenir. Pour l’activer, les utilisateurs doivent modifier leurs paramètres de profil, après quoi Claude déterminera automatiquement quand utiliser la recherche Web pour compléter une requête ou obtenir des informations plus récentes.

L’outil fonctionne avec Claude 3.7 Sonnet et nécessite un abonnement payant (20 dollars/mois ou 214,99 dollars/an pour Claude Pro). Avec cette intégration, Anthropic rejoint des concurrents comme Microsoft Copilot et ChatGPT, qui offrent déjà des fonctions similaires.

ChatGPT avait introduit la recherche web en tant que plugin dès mars 2023, rendant cette mise à jour de Claude attendue de longue date.

Un pas vers une IA plus autonome et « agentique » ?

L’un des aspects les plus intrigants de cette nouvelle recherche Web est son caractère agentique. Claude semble être capable de boucler plusieurs cycles de recherche afin d’affiner ses résultats et d’explorer un sujet plus en profondeur. Cela rappelle la fonction « Deep Research » récemment ajoutée à Google Gemini et ChatGPT.

D’après Simon Willison, expert en IA, cette mise à jour était essentielle pour rendre Claude plus compétitif : « ChatGPT, Gemini et Grok avaient déjà cette capacité, et malgré la qualité exceptionnelle du modèle de Claude, c’était l’une des grandes raisons qui poussaient encore certains utilisateurs à alterner avec d’autres IA ».

Bien que Claude fournisse désormais des citations directes pour les informations issues du Web, il est important de noter que les modèles d’IA générative ont souvent tendance à inventer des sources crédibles mais erronées. Une étude récente a révélé que les assistants IA de recherche affichent un taux d’erreur de citation de 60 %.

Anthropic n’a pas publié de benchmarks sur la fiabilité de sa recherche Web, et il faudra attendre des analyses indépendantes pour évaluer sa précision. Cependant, une vérification croisée avec des sources humaines et indépendantes reste essentielle avant d’utiliser Claude comme référence fiable.

Claude et Brave Search : Une collaboration sous-jacente

Anthropic a partenarisé avec Brave Search pour alimenter sa recherche Web. Brave, souvent considéré comme un moteur de recherche respectueux de la vie privée, semble correspondre à l’image que anthropic souhaite véhiculer en tant qu’alternative éthique aux produits des géants de la tech.

Simon Willison a découvert cette collaboration en analysant la liste des sous-traitants d’Anthropic, où Brave Search a été ajouté le 19 mars 2025. Il a aussi démontré que les résultats de Claude étaient identiques à ceux obtenus via une recherche Brave, confirmant que Brave est bien utilisé en arrière-plan.

Pour les entreprises ou sites Web souhaitant bloquer l’accès de Claude à leurs contenus, il reste à voir si Anthropic mettra en place un mécanisme d’exclusion comme Google l’a fait avec ChatGPT et Bard.

Claude devient un concurrent plus sérieux face à ChatGPT et Gemini

Avec cette mise à jour, Claude rattrape son retard sur ses rivaux et devient un assistant IA encore plus complet. Il ne reste plus qu’à voir si Anthropic rendra cette fonctionnalité gratuite à l’avenir, comme OpenAI l’a fait avec ChatGPT.

Avez-vous testé la recherche web de Claude ? Pensez-vous qu’elle rivalise avec celle de ChatGPT ou de Gemini ?

Lire plus
Intelligence Artificielle

Mobile connecté : Copilot facilite la gestion de votre smartphone depuis votre PC

msft open laptop with mobile pho 1

Microsoft a annoncé une mise à jour majeure de son application Mobile connecté, qui facilitera l’exécution de tâches courantes depuis un PC via Copilot.

Cette mise à jour permettra aux utilisateurs d’envoyer des messages, régler des alarmes, ou encore localiser des lieux sur leur téléphone, sans avoir à toucher leur appareil.

Mobile connecté, anciennement connu sous le nom de Phone Plugin, bénéficie d’un nouveau design visuel plus moderne et d’une intégration plus poussée avec Copilot. L’objectif est clair : rendre les tâches du quotidien plus accessibles et fluides depuis un ordinateur.

Microsoft explique que cette mise à jour :

  • Améliore la productivité en permettant d’effectuer des actions courantes sur son téléphone directement depuis son PC
  • Permet d’accéder aux contacts et de communiquer sans toucher son smartphone
  • Utilise le langage naturel pour exécuter des commandes plus intuitivement

Comment utiliser Mobile connecté avec Copilot ?

Pour activer cette fonctionnalité, voici les étapes à suivre :.

  1. Mettre à jour l’application Windows vers la version 1.24112.110.0 ou ultérieure
  2. Installer l’application « Lien avec Windows » sur son smartphone Android.
  3. Se connecter à son compte Microsoft.
  4. Activer Mobile connecté dans les paramètres de Copilot

Une fois configuré, l’application permettra d’effectuer des tâches courantes en langage naturel, directement depuis son PC.

Pas encore disponible sur la version Web de Copilot

Pour l’instant, Mobile connecté n’est pas encore disponible sur la version Web de Copilot, comme l’a remarqué Windows Latest. Microsoft n’a pas précisé de date pour son intégration, mais un document de support laisse entendre que cette fonctionnalité pourrait arriver bientôt via copilot.microsoft.com ou directement dans l’application Copilot.

Vers une meilleure connectivité entre les appareils Windows et Android

Avec cette mise à jour, Microsoft renforce l’intégration entre Windows et Android, en rendant plus fluide la gestion du smartphone depuis un PC. Cette initiative vise à offrir une alternative aux solutions d’Apple, qui permettent une continuité fluide entre iPhone et Mac.

Il reste à voir si Microsoft ira encore plus loin, notamment en intégrant Mobile connecté dans d’autres services comme Teams ou Outlook, et en offrant une prise en charge pour iOS à l’avenir.

Lire plus
Intelligence Artificielle

Amazon lance Nova Act et son SDK : L’IA au service de la productivité et de l’automatisation Web

image 13

Amazon a récemment dévoilé Nova Act, un nouvel agent d’intelligence artificielle conçu pour automatiser des tâches complexes au sein d’un navigateur Web.

Actuellement disponible en « aperçu de recherche » pour les développeurs, Nova Act peut effectuer des recherches en ligne, réaliser des achats, répondre à des questions basées sur le contenu affiché à l’écran et exécuter des tâches planifiées.

Il est également capable de comprendre des instructions détaillées, telles que « n’acceptez pas l’assurance supplémentaire » lors d’un achat en ligne.

Développé par le laboratoire d’Intelligence Artificielle Générale (AGI) d’Amazon à San Francisco, Nova Act vise à gérer des tâches complexes et multi-étapes, comme organiser un mariage ou traiter des opérations informatiques complexes pour augmenter la productivité des entreprises. Cette initiative place Amazon en concurrence directe avec des entreprises telles qu’OpenAI et Anthropic, qui développent également des agents d’IA capables de naviguer sur le Web pour le compte des utilisateurs.

Parallèlement, Amazon a lancé un nouveau site Web, nova.amazon.com, permettant aux développeurs et aux passionnés de technologie d’explorer plus facilement les modèles d’IA générative Nova de l’entreprise. Ce portail offre un accès direct aux modèles Nova, facilitant leur découverte et leur utilisation. Les modèles étaient auparavant disponibles uniquement via Amazon Bedrock, une plateforme d’IA au sein d’Amazon Web Services qui propose également des modèles tiers.

SDK Nova Act : Créez simplement vos agents !

En outre, Amazon a introduit le kit de développement logiciel (SDK) Nova Act, permettant aux développeurs de créer des agents capables d’effectuer des tâches dans un navigateur Web. Ce SDK offre des outils pour automatiser des actions telles que la navigation sur des pages Web, le remplissage de formulaires ou la sélection de dates sur un calendrier. Selon Amazon, Nova Act surpasse les agents d’OpenAI et d’Anthropic sur plusieurs benchmarks internes, notamment en matière d’interaction avec le texte à l’écran.

Ces développements s’inscrivent dans la stratégie plus large d’Amazon visant à renforcer sa présence dans le domaine de l’IA, en investissant massivement dans le développement de modèles propriétaires tout en offrant une variété de choix de modèles via sa plateforme Bedrock. L’entreprise a également investi 8 milliards de dollars dans la startup d’IA Anthropic, bien qu’elle cherche maintenant à concurrencer directement les modèles similaires de cette dernière.

Avec Nova Act et ses autres initiatives en matière d’IA, Amazon démontre son engagement à fournir des solutions d’intelligence artificielle pratiques et accessibles, visant à simplifier la vie des consommateurs et à améliorer la productivité des entreprises.

Lire plus
Intelligence Artificielle

Copilot se met au podcast : L’IA de Microsoft crée des émissions sur mesure !

Copilot se met au podcast : L'IA de Microsoft crée des émissions sur mesure !

À l’occasion du 50e anniversaire de Microsoft, l’IA Copilot de Microsoft devient de plus en plus intelligente et fonctionnelle, puisque l’entreprise a annoncé une série de nouvelles fonctionnalités pour ce chatbot LLM. J’ai déjà évoqué la fonction Actions qui permet de surfer sur le Web à votre place, mais un autre tour de force de Microsoft Copilot est la possibilité de créer des podcasts personnalisés pour vous.

Oui, Copilot sera désormais en mesure de générer des podcasts alimentés par l’IA en fonction de vos demandes et de vos invites. L’IA pourra ainsi vous fournir les informations dont vous avez besoin d’une manière plus attrayante et plus informative, que vous pourrez écouter tout en effectuant une autre tâche.

Vous pouvez demander à Copilot de créer un podcast personnalisé pour planifier vos vacances ou comparer les options de logement avant l’achat. Avec un minimum d’effort, l’IA générera un podcast expliquant brièvement les sujets et leurs détails.

Copilot peut désormais rivaliser avec NotebookLM

Cette nouvelle fonctionnalité vous permettra également de saisir des sources, ou le contenu d’un site Web, et de demander à Copilot de créer un podcast pour discuter du sujet abordé dans un article. C’est ce que nous avons déjà vu avec le NotebookLM de Google.

Mais, Copilot reprend la même formule, avec une longueur d’avance, en faisant cela pour tout ce que vous avez besoin de savoir ou d’apprendre.

Que pensez-vous des podcasts personnalisés avec Copilot AI ? Allez-vous l’essayer dès sa sortie ?

Lire plus
Intelligence Artificielle

Copilot se dote de la recherche approfondie : L’IA de Microsoft passe à la vitesse supérieure !

Copilot se dote de la recherche approfondie : L'IA de Microsoft passe à la vitesse supérieure !

L’année dernière, Gemini 2.0 de Google a introduit la fonction de recherche approfondie, alias Deep Research, permettant à l’IA d’effectuer des recherches en plusieurs étapes sur n’importe quel sujet. ChatGPT l’a ensuite adoptée en février de cette année, et il semble qu’il soit temps pour les utilisateurs de Copilot de profiter de la même fonctionnalité, puisque celle-ci fait enfin son entrée dans le chatbot IA de Microsoft.

L’entreprise célèbre son 50e anniversaire en annonçant une série de nouvelles avancées pour son IA Copilot. L’une de ces nouveautés est la possibilité de mener des recherches approfondies. Sur simple demande, Copilot pourra désormais effectuer une recherche approfondie et complexe sur n’importe quel sujet, en rassemblant des données provenant de plusieurs sites, sources et images connexes.

Imaginons que vous fassiez un projet sur les théories du complot, vous pouvez demander à Copilot de discuter de ce que sont les théories du complot et même de les classer par ordre d’importance. Cela va des plus connues aux plus obscures.

En quelques minutes, Copilot vous présentera un document bien détaillé avec tous les détails.

Deep Research : Copilot devient un vrai allié sur la recherche

Même si Copilot n’est pas le premier à inclure la fonction de recherche approfondie, il est important que cette fonction soit enfin intégrée à l’IA. Cependant, ce n’est pas la seule nouvelle, car Microsoft a mentionné plusieurs autres améliorations qui feront leur apparition dans Copilot. Comme les actions Web automatisées ou la possibilité de générer des podcasts.

La recherche approfondie fait-elle partie de la liste des fonctionnalités que vous souhaitez voir sur Copilot ? Comment utiliserez-vous la recherche approfondie avec Copilot ?

Lire plus
Intelligence Artificielle

Copilot Actions : Microsoft révolutionne votre assistant IA !

Copilot Actions : Microsoft révolutionne votre assistant IA !

À l’occasion du 50e anniversaire de Microsoft, l’entreprise a prévu un certain nombre de nouveaux projets pour son avenir basé sur l’IA. Elle a annoncé une nouvelle fonctionnalité pour Microsoft Copilot, baptisée « Actions ».

Cette nouvelle fonctionnalité parcourra le Web pour vous en fonction de vos demandes, et tout cela se passera en arrière-plan pendant que vous vous concentrez sur d’autres choses importantes. Ainsi, Microsoft apporte des modifications à Copilot qui permettront à l’assistant d’intelligence artificielle d’effectuer des tâches en ligne à votre place.

Grâce à ces nouvelles « actions », l’IA de Copilot sera en mesure de réserver des restaurants, des billets de cinéma ou d’événements, ou même d’acheter des articles à envoyer à vos amis. Elle devrait également être en mesure de réserver votre retour à la maison après une soirée mouvementée, ce qui laisse présager que les Actions fonctionneront également avec des applications de covoiturage telles qu’Uber.

Dès à présent, Actions fonctionnera avec les partenaires de lancement suivants : Booking.com, Expedia, Kayak, Tripadvisor, Skyscanner, Viator, Vrbo, Priceline, ainsi que Open Table, 1-800-Flowers.com et un grand nombre d’autres services de voyage et de vacances.

Microsoft affirme que la fonctionnalité Actions de Copilot « fonctionnera avec la plupart des sites Web ».

Outre Copilot Actions, Copilot va également transformer les sources en podcasts audibles

Copilot Actions sera également en mesure de consulter des sites Web et de transformer les sources en podcasts audibles, à l’instar du NotebookLM de Google. En outre, il pourrait vous aider à trouver les meilleures offres de produits et de services en ligne, ce qui en ferait une IA équivalente à un concierge. On ne sait toujours pas comment ces Copilot Actions fonctionneront, car Microsoft n’a pas encore fait la lumière sur ce sujet.

Quoi qu’il en soit, le concept est analogue à celui des fonctionnalités déjà annoncées par d’autres fournisseurs d’IA. Amazon a lancé son agent d’IA Nova Act en mars, capable d’effectuer des tâches dans le navigateur de l’utilisateur, comme effectuer des recherches sur le Web, acheter des produits en ligne et répondre à des questions sur le contenu affiché à l’écran. OpenAI a sa propre version, appelée Operator, Google a lancé le projet Mariner, et Anthropic a lancé en octobre une fonctionnalité bêta « d’utilisation informatique » pour son modèle d’IA Claude 3.5 Sonnet, qui permet de cliquer et d’effectuer des tâches en ligne de manière autonome.

Disponible dès maintenant !

Ces solutions analogues sont toutefois encore en grande partie en développement ou en accès anticipé. Microsoft, quant à lui, annonce le déploiement de la version initiale de la fonctionnalité Actions de Copilot dès aujourd’hui, avec une disponibilité élargie « dans les semaines et les mois à venir », en fonction de la plateforme, du marché et de la langue. Il s’agit ainsi de l’un des premiers services d’IA d’exécution automatique de tâches à être accessible au grand public, et cela pourrait nous donner une première indication de la praticité et de la fiabilité de ces outils partenaires d’IA.

Lire plus