fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Microsoft se détache de OpenAI : Vers une IA maison pour Copilot et Azure ?

Microsoft se détache de OpenAI : Vers une IA maison pour Copilot et Azure ?

Depuis 2021, Microsoft et OpenAI entretiennent un partenariat stratégique dans le domaine de l’intelligence artificielle. Mais avec les récentes évolutions du marché et des divergences d’objectifs, Microsoft envisagerait désormais de développer ses propres modèles d’IA en interne, afin de réduire sa dépendance aux solutions tierces, dont celles d’OpenAI.

Pourquoi Microsoft veut reprendre le contrôle ?

Alors que OpenAI multiplie les projets ambitieux — dont Stargate, un plan à 500 milliards de dollars pour construire des centres de données IA à l’échelle nationale — Microsoft semble vouloir se recentrer sur ses propres produits.

Les retours mitigés de Microsoft sur GPT-4, jugé trop coûteux et pas assez performant pour certains cas d’usage, ont nourri cette volonté d’indépendance. Par ailleurs, OpenAI poursuit ses propres objectifs, avec une récente levée de fonds de 40 milliards de dollars menée par SoftBank, ce qui porte sa valorisation à 300 milliards de dollars.

Une stratégie « off-frontier » assumée

Mustafa Suleyman, CEO de Microsoft AI, a expliqué à CNBC que l’entreprise souhaite rester dans une position de suiveur rapide, en évitant les coûts exorbitants du développement de modèles à la pointe absolue :

C’est moins cher de proposer une réponse spécifique une fois que les 6 premiers mois de l’innovation sont passés. C’est ce que nous appelons une stratégie « off-frontier »

En clair, Microsoft ne cherche pas à développer les modèles les plus avancés du monde, mais plutôt à concevoir des solutions ciblées, rentables et adaptées à ses produits comme Copilot.

Microsoft Copilot : l’IA maison devient essentielle

Lors de son événement des 50 ans, Microsoft a dévoilé de nombreuses nouveautés autour de Copilot : Vision, Memory, Pages, Deep Research… Autant de fonctions qui bénéficieraient directement d’une maîtrise interne des modèles d’IA.

En parallèle, Microsoft a rapidement intégré des modèles alternatifs comme DeepSeek R1 à sa plateforme Azure, soulignant son souhait de diversifier ses sources d’IA et de renforcer son indépendance vis-à-vis d’OpenAI.

Une collaboration qui dure… mais qui évolue

La relation entre Microsoft et OpenAI n’est pas rompue : leur contrat se poursuit jusqu’en 2030. Mais, Microsoft prépare l’après, en intégrant plus de modèles tiers dans ses services et en explorant ses propres pistes technologiques.

Cette transition ne signifie pas l’abandon de GPT ou de ChatGPT, mais plutôt l’émergence d’un écosystème hybride, où Microsoft reste maître de ses choix technologiques.

Avec cette nouvelle stratégie, Microsoft cherche à s’imposer non pas en tant que pionnier absolu de l’IA, mais comme un acteur pragmatique, agile et autonome. Une vision qui pourrait bien faire la différence dans la course actuelle à l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Meta accusé de tricherie : Llama 4 Maverick, un benchmark gonflé ?

Meta accusé de tricherie : Llama 4 Maverick, un benchmark gonflé ?

Meta fait face à des accusations selon lesquelles la société aurait manipulé les résultats de benchmarks pour son modèle d’intelligence artificielle Llama 4 Maverick. Ce modèle a atteint un score ELO impressionnant de 1 417 sur Chatbot Arena, surpassant des modèles concurrents tels que GPT-4o et Gemini 2.0 Pro.

Un utilisateur se présentant comme un ancien employé de Meta a affirmé que la direction de l’entreprise aurait intégré des ensembles de tests de divers benchmarks dans le processus de post-entraînement pour gonfler les scores et atteindre des objectifs internes. Cet individu aurait démissionné en raison de ces pratiques, jugeant cette approche inacceptable.

Ahmad Al-Dahle, vice-président de la division Générative AI chez Meta, a fermement nié ces allégations, déclarant que l’entreprise n’a pas entraîné ses modèles sur des ensembles de tests et ne le ferait jamais.

Il a suggéré que les variations de qualité observées pourraient être dues à la nécessité de stabiliser les implémentations.

LMSYS, l’organisation derrière le classement Chatbot Arena, a précisé que le modèle soumis par Meta, nommé « Llama-4-Maverick-03-26-Experimental », était une variante personnalisée optimisée pour les préférences humaines. LMSYS a reconnu que cette information n’avait pas été suffisamment clarifiée par l’équipe de Meta et a annoncé une mise à jour de ses politiques pour renforcer la transparence des évaluations.

Pas simplement Llama 4 : Précédents incidents chez Meta

Ce n’est pas la première fois que Meta est accusée de manipuler des benchmarks. En février, une étude a révélé que plus de 50 % des échantillons de tests de certains benchmarks clés étaient présents dans les données d’entraînement de Llama 1, soulevant des préoccupations quant à la fiabilité des évaluations de performance.

Ces événements soulignent l’importance d’une transparence accrue dans les processus d’évaluation des modèles d’intelligence artificielle pour maintenir la confiance de la communauté scientifique et des utilisateurs.

Lire plus
Intelligence Artificielle

Midjourney V7 : L’IA qui lit dans vos pensées (et crée des images incroyables) !

Midjourney V7 : L'IA qui lit dans vos pensées (et crée des images incroyables) !

Le pionnier des générateurs d’images par intelligence artificielle, Midjourney, a récemment dévoilé sa version 7 (V7), introduisant des améliorations significatives en termes de qualité d’image, de personnalisation et de rapidité de génération.

La V7 se distingue par une meilleure interprétation des instructions textuelles, permettant une génération d’images plus précise et fidèle aux descriptions fournies. David Holz, PDG de Midjourney, décrit cette version comme « beaucoup plus intelligente avec les prompts textuels », offrant des images de qualité supérieure avec des textures raffinées et une meilleure cohérence dans les détails complexes, tels que les mains et les objets.

Une nouveauté majeure de la V7 est l’activation par défaut de la personnalisation. Les utilisateurs doivent d’abord évaluer environ 200 paires d’images pour créer un profil personnalisé, alignant ainsi les générations futures avec leurs préférences esthétiques. Ce processus, bien que nécessitant un investissement initial en temps, vise à améliorer la pertinence des images générées.

Le mode « Draft » est conçu pour accélérer le processus créatif, permettant de générer des images 10x plus rapidement tout en réduisant de moitié le coût en crédits GPU. Ce mode est particulièrement utile pour le prototypage rapide et l’exploration d’idées. De plus, la V7 introduit une fonction de commande vocale, permettant aux utilisateurs de décrire verbalement les images souhaitées, rendant l’interaction plus fluide et intuitive.

Modes « Turbo » et « Relax » de Midjourney

La V7 propose également deux modes opérationnels :

  • Mode Turbo : Optimisé pour des rendus rapides, ce mode consomme 2x plus de crédits que le mode standard.
  • Mode Relax : Offre une alternative plus économique avec des temps de rendu plus longs.

Certaines fonctionnalités, telles que l’upscaling, l’édition et la retexturation, ne sont pas encore disponibles dans la V7 et basculent actuellement vers les modèles V6. Midjourney prévoit d’intégrer ces capacités dans les futures mises à jour, avec des ajouts de nouvelles fonctionnalités toutes les une à deux semaines au cours des deux prochains mois.

En somme, la version 7 de Midjourney marque une avancée significative dans le domaine de la génération d’images par IA, offrant aux utilisateurs des outils plus puissants et personnalisés pour concrétiser leurs visions créatives.

Lire plus
Intelligence Artificielle

DeepCoder-14B : Un nouveau modèle IA révolutionnaire pour coder plus vite et mieux

DeepCoder-14B : Un nouveau modèle IA révolutionnaire pour coder plus vite et mieux

DeepCoder-14B est un nouveau modèle d’intelligence artificielle open source, conçu par Together AI et Agentica, qui se positionne comme une alternative crédible aux modèles propriétaires de génération de code, tels que o3-mini d’OpenAI. ,

Avec ses 14 milliards de paramètres, il offre des performances remarquables en matière de génération de code et de raisonnement algorithmique, tout en étant entièrement accessible à la communauté.

Screen 2025 04 11 at 11.27.33

DeepCoder-14B atteint un score de 60,6 % sur le benchmark LiveCodeBench (Pass@1), égalant ainsi les performances de o3-mini d’OpenAI. Sur la plateforme Codeforces, il obtient une note de 1936, le plaçant dans le top 5 % des participants humains. De plus, il affiche un taux de réussite de 92,6 % sur le benchmark HumanEval+, démontrant sa capacité à résoudre des problèmes complexes de programmation.

deepcoder png

DeepCoder-14B : Une formation rigoureuse et innovante

Pour atteindre ce niveau de performance, les chercheurs ont utilisé une approche de renforcement (RL) basée sur l’algorithme GRPO+, une version améliorée du Group Relative Policy Optimization. Ils ont également mis en place une stratégie d’allongement progressif du contexte, permettant au modèle de traiter des séquences allant jusqu’à 64 000 tokens, bien qu’il ait été entraîné sur des contextes de 32 000 tokens. Cette capacité à gérer de longs contextes est essentielle pour le raisonnement sur des problèmes complexes.

L’un des aspects les plus remarquables de DeepCoder-14B est sa transparence. Les équipes ont publié l’intégralité du code source, les jeux de données d’entraînement, les journaux de formation et les optimisations système. Cette ouverture vise à démocratiser l’accès à des modèles de génération de code performants et à favoriser l’innovation collaborative.

Une avancée pour la communauté et les entreprises

En rendant accessible un modèle de cette envergure, DeepCoder-14B offre aux développeurs, chercheurs et entreprises la possibilité d’intégrer des capacités avancées de génération de code dans leurs projets, sans dépendre de solutions propriétaires. Cela représente une opportunité majeure pour accélérer le développement d’outils personnalisés et renforcer l’autonomie technologique.

Pour en savoir plus et accéder aux ressources associées, vous pouvez consulter la page officielle sur Hugging Face.

Lire plus
Intelligence Artificielle

ChatGPT se souvient de tout : L’IA qui vous connaît mieux que vous-même !

ChatGPT se souvient de tout : L'IA qui vous connaît mieux que vous-même !

OpenAI déploie une nouvelle amélioration de la fonction mémoire de ChatGPT, avec pour objectif de rendre l’assistant conversationnel plus personnel, pertinent et engageant au fil des interactions.

Désormais, ChatGPT pourra se souvenir de l’ensemble de vos conversations passées, et non plus uniquement celles enregistrées manuellement via la fonction de mémoire.

Cette mise à jour va transformer la manière dont les utilisateurs interagissent avec ChatGPT :

  • Des réponses plus personnalisées, qui prennent en compte vos préférences, centres d’intérêt ou style de communication.
  • Une expérience utilisateur plus fluide, sans avoir à répéter à chaque fois les mêmes informations dans vos discussions.

Sam Altman, CEO d’OpenAI, a déclaré sur X : « C’est une fonctionnalité étonnamment utile. Elle incarne l’idée d’un assistant IA qui vous accompagne sur le long terme et devient extrêmement personnalisé ».

Avec cette approche, ChatGPT devient un véritable compagnon numérique évolutif, capable de s’adapter au fil du temps à chaque utilisateur.

ChatGPT : Contrôle et confidentialité toujours au rendez-vous

Pour ceux qui souhaitent garder le contrôle sur leurs données :

  • Il est possible de désactiver la mémoire dans les paramètres.
  • La fonction « Chat éphémère » permet de lancer un échange sans qu’il ne soit mémorisé par l’IA.

Déploiement progressif

La nouvelle mémoire est disponible dès aujourd’hui pour les utilisateurs ChatGPT Plus et Pro. En revanche, les utilisateurs situés dans l’EEE (Espace Économique Européen), au Royaume-Uni, en Suisse, Norvège, Islande et Liechtenstein devront patienter un peu avant d’y avoir accès. Les abonnés ChatGPT Team, Enterprise et Edu devraient en bénéficier dans les prochaines semaines.

Cette nouvelle avancée ouvre la voie à une intelligence artificielle plus humaine, plus proche et capable de vous accompagner au quotidien.

Lire plus
Intelligence Artificielle

Gemini Code Assist : Google dévoile l’IA qui programme à votre place !

Gemini Code Assist : Google dévoile l'IA qui programme à votre place !

Lors de sa conférence Cloud Next ’25, Google a dévoilé une mise à jour majeure de Gemini Code Assist, son assistant de programmation basé sur l’IA. Désormais doté de capacités dites « agentiques », l’outil est capable de gérer des tâches complexes sur plusieurs étapes, à la manière d’un véritable assistant logiciel autonome.

Des agents IA pour automatiser le développement

En preview, Gemini Code Assist peut déployer de nouveaux agents intelligents capables de concevoir des applications complètes à partir de spécifications produit présentes dans un simple document Google Docs, ou encore de convertir du code d’un langage à un autre.

Ces agents vont bien au-delà de la simple suggestion de code : ils peuvent planifier des tâches, exécuter des transformations logicielles, générer de la documentation technique, ajouter de nouvelles fonctionnalités, ou encore effectuer des revues de code et créer des tests unitaires. Le tout peut être supervisé via un tableau Kanban intégré à l’outil.

Gemini Code Assist demo gif

Gemini Code Assist est désormais intégré à Android Studio, en plus des autres environnements de développement populaires. Une décision stratégique de Google qui vise à renforcer son assistant face à une concurrence de plus en plus féroce.

Une réponse aux concurrents : GitHub Copilot, Cursor, Devin…

Avec cette évolution, Google entend clairement répliquer aux avancées de GitHub Copilot, Cursor ou encore Devin, l’agent IA développé par Cognition Labs qui a récemment fait sensation. Le marché de l’assistance à la programmation par l’IA devient extrêmement compétitif, porté par les promesses de gains de productivité colossaux.

Mais attention à ne pas céder à l’enthousiasme trop rapidement. Même les meilleurs assistants IA du marché peuvent introduire des bugs ou des failles de sécurité, notamment à cause d’une compréhension encore limitée de la logique et des contraintes spécifiques à chaque langage.

Une étude récente sur Devin a montré que l’agent n’avait réussi que 3 tâches sur 20 dans un benchmark dédié. Il reste donc essentiel de relire et tester systématiquement le code généré, même lorsqu’il provient d’un outil aussi avancé que Gemini Code Assist.

Vers une nouvelle génération d’assistants-développeurs ?

Avec cette mise à jour, Google franchit un cap important : celui de l’automatisation partielle du cycle complet de développement logiciel. Si les agents tiennent leurs promesses, l’IA générative pourrait ne plus se limiter à l’autocomplétion de lignes de code, mais bel et bien assister les équipes dans la planification, l’implémentation, la vérification et la documentation de leurs projets.

Reste à voir si ces agents seront aussi performants qu’ambitieux. Car si l’IA peut déjà accompagner les développeurs, elle ne les remplace pas encore. En tout cas, pas totalement.

Lire plus
Intelligence Artificielle

Claude Max : Anthropic lance l’abonnement ultime pour les pros de l’IA !

Claude Max : Anthropic lance l'abonnement ultime pour les pros de l'IA !

Anthropic vient de frapper fort avec l’annonce d’un nouveau palier d’abonnement premium baptisé Claude Max, proposé entre 100 et 200 dollars par mois, pour son assistant IA Claude. Cette nouvelle offre vise à répondre aux plaintes croissantes des utilisateurs avancés qui se heurtaient aux limites d’utilisation trop restrictives des plans précédents, même sur la formule Pro à 20 dollars/mois.

Claude Max : l’offre pour les utilisateurs intensifs

Le plan Claude Max se décline en deux options :

  • 100 dollars/mois : offre 5 fois plus d’utilisation que le plan Pro.
  • 200 dollars/mois : 20 fois plus d’usage, destiné à ceux qui utilisent Claude au quotidien pour collaborer sur des tâches complexes.

Ces nouvelles formules permettent de dépasser les limitations habituelles liées à la taille de la fenêtre de contexte (ce que l’IA peut lire, comprendre et traiter en une fois), l’une des forces de Claude, mais aussi une source rapide de saturation pour les sessions longues ou les projets documentés.

Pourquoi ce changement maintenant ?

La montée en gamme de Claude ne tombe pas par hasard. Elle survient dans un contexte de compétition féroce avec OpenAI, qui a lancé fin 2023 son propre plan Pro à 200 dollars/mois pour ChatGPT, promettant un accès « illimité » à ses modèles les plus avancés.

Comme l’explique Anthropic dans son annonce officielle : « La demande numéro un de nos utilisateurs les plus actifs était un accès élargi à Claude ».

Sur Reddit et d’autres forums, de nombreux témoignages soulignent la frustration liée aux blocages fréquents lors de projets complexes ou de longues conversations. Ce nouveau plan vise à regagner la confiance de ces utilisateurs tout en maintenant la viabilité économique du service face aux coûts astronomiques liés à l’inférence de modèles IA à large contexte.

D’autres avantages du plan Max

Outre l’accès massif élargi, Claude Max offre également :

  • Une priorité d’accès en cas de surcharge sur les serveurs.
  • Des limites de sortie augmentées, pour des réponses plus longues, plus riches et mieux structurées.
  • L’accès anticipé aux nouvelles fonctionnalités et modèles, positionnant les abonnés Max comme bêta-testeurs VIP.

Une stratégie calquée sur OpenAI ?

image 3

Avec ses trois niveaux de tarification — Gratuit, Pro (18-20 dollars), et Max (100-200 dollars) — Anthropic adopte une structure très similaire à celle de ChatGPT. Le but ? Fidéliser les utilisateurs professionnels et entreprises qui souhaitent utiliser Claude pour de la rédaction, de l’analyse de code, de la synthèse documentaire ou de l’automatisation de processus via IA.

Le plan Claude Max est déjà disponible dans toutes les régions où Claude est proposé. Pour les professionnels, chercheurs ou développeurs qui utilisent intensivement l’IA dans leur quotidien, cette offre peut désormais représenter une alternative solide et crédible à ChatGPT Pro.

Lire plus
Intelligence Artificielle

Gemini 2.5 Pro booste Deep Research : Google veut révolutionner la recherche documentaire !

Gemini 2.5 Pro booste Deep Research : Google veut révolutionner la recherche documentaire !

Depuis la nomination de Josh Woodward à la tête de l’équipe Gemini, Google multiplie les initiatives pour positionner sa suite d’IA comme une référence dans les usages avancés, notamment dans la recherche documentaire.

Le modèle Gemini 2.5 Pro, très salué pour ses capacités de raisonnement et sa connaissance du monde, alimente désormais l’agent Deep Research de Gemini, mais avec une subtilité importante : seuls les abonnés Gemini Advanced peuvent en profiter pleinement.

Gemini 2.5 Pro : le moteur derrière un agent de recherche nouvelle génération

Lancé récemment, le modèle Gemini 2.5 Pro représente la version la plus évoluée de l’IA générative de Google. Il offre des réponses plus précises, mieux contextualisées et beaucoup plus riches en informations actuelles. Désormais, ce modèle est intégré à l’agent Deep Research, qui permet d’explorer en profondeur un sujet donné avec des résultats étoffés, structurés et documentés.

Cependant, les utilisateurs de la version gratuite de Gemini n’ont accès qu’à une version limitée de cet outil. Dans leur cas, Deep Research s’appuie sur Gemini 2.0 Flash Thinking, un modèle plus léger et moins performant, bien qu’il reste raisonnablement efficace pour les recherches basiques.

User Preferences for Gemini vs.w

Des résultats préférés à ceux de ChatGPT

Selon Google, les évaluateurs humains ont préféré Deep Research de Gemini à celui de ChatGPT dans plus de deux cas sur trois. Même des tests indépendants menés sur la version précédente (2.0 Flash Thinking) soulignaient la pertinence des résultats de Gemini, en particulier sa capacité à inclure des informations d’actualité dans ses analyses.

Avec le passage à Gemini 2.5 Pro pour les abonnés Advanced, la qualité des résultats générés est encore montée d’un cran, positionnant Deep Research comme un véritable outil de recherche assistée par IA.

Une limite persistante : l’impossibilité d’uploader des fichiers

Malgré ces progrès, une fonctionnalité cruciale fait toujours défaut : l’import de fichiers. Là où ChatGPT permet de télécharger des PDF ou des articles scientifiques payants pour alimenter l’agent de recherche, Gemini n’autorise toujours pas cette option.

Cela limite la capacité de Deep Research à intégrer des contenus exclusifs ou non indexés sur le Web, un manque que Google devra combler s’il souhaite rivaliser pleinement avec la concurrence.

Podcasts générés par IA : Deep Research passe à l’audio

Autre nouveauté notable : les utilisateurs peuvent désormais générer des résumés audio (Audio Overviews) à partir de leurs rapports Deep Research. Une fonctionnalité déjà popularisée via NotebookLM, qui permet de transformer des documents en podcasts intelligents, directement exploitables en mobilité ou pour une écoute passive.

L’intégration de Gemini 2.5 Pro à Deep Research confirme les ambitions de Google dans l’IA appliquée à la connaissance. Bien que certaines fonctionnalités manquent encore à l’appel, notamment le support des fichiers externes, l’écosystème Gemini continue de se renforcer, et pourrait bien devenir une référence incontournable pour la recherche approfondie assistée par IA.

Lire plus
Intelligence Artificielle

ChatGPT : OpenAI pourrait filigraner les images des utilisateurs gratuits

ChatGPT : OpenAI pourrait filigraner les images des utilisateurs gratuits

OpenAI, l’entreprise derrière ChatGPT, envisage d’ajouter des filigranes aux images générées par les utilisateurs de son service gratuit. Cette initiative a été repérée par l’analyste en intelligence artificielle Tibor Blaho, qui a découvert une ligne de code intitulée « image_gen_watermark_for_free » dans la version bêta de l’application Android de ChatGPT.

Cette mesure viserait à distinguer les images créées par les utilisateurs gratuits de celles produites par les abonnés payants, ces derniers pouvant potentiellement télécharger des images sans filigrane.

Bien que OpenAI n’ait pas encore officiellement confirmé cette fonctionnalité, elle pourrait inciter les utilisateurs à opter pour un abonnement payant afin d’obtenir des images sans filigrane.

L’ajout de filigranes aux contenus générés par l’IA est une pratique courante pour indiquer leur origine artificielle. Toutefois, l’efficacité de ces filigranes dépend de leur mise en œuvre technique.

Par exemple, certaines méthodes consistent à modifier légèrement les pixels de l’image pour créer un motif détectable par des outils spécialisés, sans être visible à l’œil nu.

Une fonctionnalité en phase de test dans ChatGPT

Il est important de noter que cette fonctionnalité est actuellement en phase de test et pourrait ne pas être déployée dans sa forme actuelle. OpenAI n’a pas encore fourni de détails supplémentaires sur le calendrier ou les modalités de mise en œuvre de cette fonctionnalité.

Il s’agit d’une initiative intéressante, probablement due au fait que de plus en plus d’utilisateurs génèrent des illustrations du Studio Ghibli à l’aide du modèle ImageGen. Non seulement il permet de générer des images avec précision et du texte, mais il permet également de créer des visuels réalistes, comme ceux produits par le Studio Ghibli, un grand nom du monde des studios japonais.

Lire plus
Intelligence Artificielle

DeepMind alerte : L’AGI arrive en 2030, et les risques sont énormes

DeepMind alerte : L'AGI arrive en 2030, et les risques sont énormes

L’intelligence artificielle générale est un sujet d’actualité, même si personne ne s’accorde sur ce qu’est réellement l’AGI. Certains scientifiques pensent qu’il faudra encore des centaines d’années pour y parvenir et qu’elle nécessiterait des technologies que nous ne pouvons même pas encore imaginer, tandis que Google DeepMind affirme que l’AGI pourrait être là d’ici 2030 — et qu’elle prévoit déjà des mesures de sécurité.

Google DeepMind a récemment publié un document de 145 pages intitulé « An Approach to Technical AGI Safety and Security », dans lequel Google anticipe l’émergence d’une Intelligence Artificielle Générale (AGI).

Il n’est pas rare que la communauté scientifique soit en désaccord sur des sujets comme celui-ci, et il est bon que toutes nos bases soient couvertes par des personnes qui planifient à la fois l’avenir immédiat et l’avenir lointain. Il n’en reste pas moins que cinq ans est un chiffre assez choquant.

Cette AGI pourrait égaler, voire surpasser, les capacités intellectuelles humaines, posant ainsi des défis significatifs en matière de sécurité et d’éthique.

Alors, quels risques DeepMind pense-t-elle qu’une AGI du niveau d’Einstein pourrait poser ?

Les risques et les mesures proposées par Google DeepMind concernant l’AGI

Les quatre principaux risques identifiés par DeepMind :

  • Mauvaise utilisation (Misuse) : L’AGI pourrait être exploitée à des fins malveillantes, telles que la manipulation politique via des deepfakes ou l’usurpation d’identité dans des arnaques. DeepMind souligne la nécessité de bloquer l’accès des acteurs malveillants aux capacités dangereuses de l’AGI.
  • Mauvais alignement (Misalignment) : Il existe un risque que l’AGI interprète mal les intentions humaines, menant à des actions imprévues ou nuisibles. Par exemple, une AGI chargée d’augmenter la production pourrait épuiser les ressources naturelles de manière irresponsable.
  • Erreurs (Mistakes) : Comme tout système complexe, l’AGI pourrait commettre des erreurs, entraînant des conséquences imprévues. Ces erreurs pourraient résulter de données d’entraînement biaisées ou de limitations dans la conception du système.
  • Risques structurels (Structural Risks) : L’intégration de l’AGI dans divers secteurs pourrait créer des vulnérabilités systémiques, notamment en matière de cybersécurité, où des attaques pourraient être amplifiées par des systèmes interconnectés.

Mesures proposées par DeepMind pour atténuer ces risques :

  • Surveillance et régulation : Mettre en place des mécanismes de surveillance pour détecter et prévenir les utilisations malveillantes de l’AGI.
  • Alignement des objectifs : Développer des méthodes pour s’assurer que les objectifs de l’AGI correspondent aux valeurs et intentions humaines.
  • Tests et validation : Effectuer des tests rigoureux pour identifier et corriger les erreurs potentielles avant le déploiement de l’AGI.
  • Collaboration internationale : Travailler avec des organismes internationaux pour établir des normes et des réglementations garantissant une utilisation sûre et éthique de l’AGI.

DeepMind insiste sur l’importance d’une approche proactive pour gérer les risques associés à l’AGI, soulignant que l’anticipation et la préparation sont essentielles pour assurer une cohabitation harmonieuse entre les humains et les intelligences artificielles avancées.

Bien que l’article de DeepMind soit totalement exploratoire, il semble qu’il y ait déjà de nombreuses façons d’imaginer que l’AGI puisse se tromper. Ce n’est pas aussi grave que cela en a l’air : les problèmes que nous pouvons imaginer sont ceux auxquels nous pouvons le mieux nous préparer. Ce sont les problèmes que nous n’anticipons pas qui sont les plus effrayants, alors espérons que nous ne manquons rien d’important.

Lire plus
Intelligence Artificielle

DeepSeek : L’IA qui apprend à s’améliorer toute seule et surpasse GPT-4o !

DeepSeek : L'IA qui apprend à s'améliorer toute seule et surpasse GPT-4o !

Une startup chinoise spécialisée en intelligence artificielle, DeepSeek, a récemment dévoilé une approche novatrice visant à améliorer l’efficacité et la précision des modèles d’IA grâce à une technique appelée « Self-Principled Critique Tuning » (SPCT).

Cette méthode, décrite dans un article préliminaire en collaboration avec l’Université Tsinghua, propose une boucle de rétroaction en temps réel où le modèle d’IA génère ses propres principes et critiques pour affiner continuellement ses réponses.

Traditionnellement, l’amélioration des modèles d’IA repose sur l’augmentation de leur taille et sur des processus d’entraînement coûteux en ressources humaines et informatiques. En revanche, la méthode SPCT permet au modèle de s’auto-évaluer en comparant ses réponses à des critères prédéfinis, générant ainsi des signaux de récompense qui guident son apprentissage futur. Cette approche, connue sous le nom de « Generative Reward Modeling » (GRM), vise à créer des modèles capables de s’améliorer de manière autonome.

Le modèle résultant de cette technique, baptisé DeepSeek-GRM, a démontré des performances supérieures à celles de modèles concurrents tels que Gemini de Google, Llama de Meta et GPT-4o d’OpenAI, selon les benchmarks présentés dans l’étude. DeepSeek prévoit de rendre ce modèle accessible en open source, favorisant ainsi l’innovation collaborative dans le domaine de l’IA.

L’idée d’une IA capable de s’améliorer de manière autonome soulève des débats au sein de la communauté technologique. Des figures, telles que Eric Schmidt, ancien PDG de Google, ont exprimé la nécessité de mécanismes de contrôle pour ces systèmes auto-améliorés, suggérant même la mise en place d’un « kill switch » pour prévenir tout comportement imprévu. Néanmoins, des entreprises comme Meta et Google explorent également des approches similaires, telles que les modèles de langage auto-récompensés et les algorithmes d’auto-amélioration.

DeepSeek, l’IA venue de Chine !

L’initiative de DeepSeek s’inscrit dans un contexte plus large où la Chine encourage activement le développement et l’intégration de l’IA dans divers secteurs. De nombreuses entreprises chinoises, y compris des fabricants de smartphones comme Huawei, OPPO et Vivo, ont déjà adopté les modèles d’IA de DeepSeek pour améliorer leurs produits et services.

En résumé, la méthode SPCT de DeepSeek représente une avancée significative dans le domaine de l’intelligence artificielle, offrant une nouvelle voie pour le développement de modèles plus intelligents et autonomes, tout en suscitant des discussions essentielles sur la gouvernance et la sécurité de ces technologies émergentes.

Lire plus
Intelligence Artificielle

GPT-5 arrive : OpenAI dévoile son calendrier et annonce des modèles intermédiaires !

with deepseek hot on its heels o

En février dernier, le PDG d’OpenAI, Sam Altman, a partagé la feuille de route pour la sortie de GPT-5. Il a révélé que le puissant modèle de raisonnement o3 ne serait pas disponible en tant que modèle autonome, mais qu’il serait intégré à GPT-5.

Aujourd’hui, Altman indique que les modèles de raisonnement o3 et o4-mini de nouvelle génération seront disponibles « dans quelques semaines », et que GPT-5 sera publié « dans quelques mois ». Ces nouveaux modèles, o3 et o4-mini, sont conçus pour offrir des capacités de raisonnement avancées. Par exemple, o3-mini, lancé le 31 janvier 2025, est optimisé pour des tâches techniques nécessitant précision et rapidité, telles que la programmation, les mathématiques et les sciences. Il propose trois niveaux d’effort de raisonnement (faible, moyen et élevé), permettant aux utilisateurs d’ajuster le modèle en fonction de leurs besoins spécifiques.

Vendredi dernier, Altman a tweeté sur X, « Changement de plans : nous allons finalement sortir o3 et o4-mini, probablement dans quelques semaines, et ensuite faire GPT-5 dans quelques mois ». En outre, OpenAI lancera un modèle o3-pro, tout comme o1-pro, qui utilise plus de temps pour résoudre des problèmes plus difficiles.

Altman a expliqué les raisons du retard de GPT-5. Selon lui, l’intégration de nombreux outils dans GPT-5, y compris le modèle o3, est « plus difficile que nous le pensions ». En outre, GPT-5 va être amélioré dans l’intervalle et OpenAI met en place l’infrastructure et la capacité nécessaires pour servir le modèle GPT-5 lorsqu’il sera publié dans quelques mois.

GPT-5 sera également disponible pour les utilisateurs gratuits de ChatGPT

Dans des déclarations antérieures, Altman a indiqué que GPT-5 serait également disponible pour les utilisateurs gratuits de ChatGPT. Étant donné que des images de style Studio Ghibli ont explosé sur ChatGPT, il est bon qu’OpenAI se concentre sur le renforcement des capacités.

Par ailleurs, la sortie anticipée d’o3 pourrait être liée au modèle phare Gemini 2.5 Pro de Google, qui s’est positionné comme le modèle d’IA le plus performant de l’industrie, détrônant tous les modèles concurrents. OpenAI pourrait vouloir lancer son impressionnant modèle o3 pour prendre l’avantage sur Google et Anthropic.

Enfin, OpenAI prévoit de publier un modèle de langage à open-weight dans les mois à venir. Contrairement aux modèles open-source qui incluent le code source complet et les données d’entraînement, les modèles à open-weight fournissent uniquement les paramètres entraînés, permettant aux développeurs de les adapter à des applications spécifiques sans nécessiter les données d’origine. Cette initiative vise à recueillir des retours d’expérience et à affiner ces modèles lors d’événements dédiés aux développeurs prévus dans diverses régions, notamment à San Francisco, en Europe et en Asie-Pacifique.

Lire plus
Intelligence Artificielle

Meta dévoile Llama 4 : L’IA qui surpasse GPT-4o est arrivée !

Meta dévoile Llama 4 : L'IA qui surpasse GPT-4o est arrivée !

Après 4 mois d’attente, Meta a sorti une nouvelle série de modèles Llama 4 open-weight. Les nouveaux modèles d’IA sont Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth. Contrairement aux précédents modèles denses, Meta a opté cette fois pour l’architecture MoE (Mixture of Experts), tout comme DeepSeek R1 et V3. Tous les modèles Llama 4 sont nativement multimodaux.

Tout d’abord, le plus petit modèle Llama 4 Scout a un total de 109B paramètres avec 16 experts, mais seulement 17B paramètres sont actifs à la fois. Il prend également en charge une longueur de contexte massive de 10 millions de tokens. Meta affirme que le Llama 4 Scout (17B) offre de meilleures performances que Gemma 3, Mistral 3.1 et Gemini 2.0 Flash Lite.

Ensuite, le modèle Llama 4 Maverick apporte un total de 400B paramètres avec 128 experts supplémentaires, mais là encore, seuls 17B paramètres sont actifs. Ce modèle est plus performant que le Llama 4 Scout, car il dispose de beaucoup plus de modèles experts spécialisés. La longueur du contexte est de 1 million de jetons. Meta affirme que le Llama 4 Maverick bat le GPT-4o d’OpenAI et le Gemini 2.0 Flash de Google.

L’aspect impressionnant du Llama 4 Maverick est qu’avec seulement 17B paramètres actifs, il a obtenu un score ELO de 1 417 sur le tableau de classement de LMArena. Cela place le modèle Maverick en deuxième position, juste derrière Gemini 2.5 Pro, et au-dessus de Grok 3, GPT-4o, GPT-4.5, et d’autres. Il obtient également des résultats comparables à ceux du dernier modèle DeepSeek V3 pour les tâches de raisonnement et de codage, et étonnamment, avec seulement la moitié des paramètres actifs.

Meta a réalisé un travail remarquable en distillant les modèles Llama 4 Scout et Maverick à partir du plus grand modèle Llama 4 Behemoth. Le modèle d’IA Llama 4 Behemoth est formé sur un total de 2 billions de paramètres, mais seulement 288 milliards de paramètres sont actifs parmi les 16 experts. Meta indique que Behemoth est encore en cours d’entraînement et que de plus amples informations sur sa sortie seront communiquées ultérieurement.

Llama 4 Behemoth, le modèle ultime !

489511937 1627813884508038 4209289296588372348 n png

Meta affirme que le Llama 4 Behemoth bat les plus grands modèles d’IA tels que GPT-4.5, Claude 3.7 Sonnet et Gemini 2,0 Pro sur les benchmarks STEM. Notez que ces modèles ne sont pas des modèles de raisonnement, Meta peut donc obtenir des performances encore meilleures avec les futurs modèles de raisonnement en utilisant les modèles de base de la série Llama 4.

En ce qui concerne la disponibilité, Meta indique que Llama 4 est déployé sur Meta AI dans WhatsApp, Messenger, Instagram et sur le site Web de Meta AI, à partir d’aujourd’hui dans 40 pays. Cependant, les fonctionnalités multimodales ne sont actuellement disponibles qu’aux États-Unis. Les deux nouveaux modèles, également disponibles en téléchargement sur Meta ou Hugging Face.

Comme pour ses précédents modèles, Meta qualifie la collection Llama 4 d’« open source », bien que Llama ait été critiqué pour ses restrictions de licence. Par exemple, la licence Llama 4 exige que les entités commerciales comptant plus de 700 millions d’utilisateurs actifs mensuels demandent l’autorisation de Meta avant d’utiliser ses modèles, ce qui, selon l’Open Source Initiative en 2023, les exclut de la catégorie « Open Source » ».

Lire plus
Intelligence Artificielle

L’IA transforme la documentation clinique : Une croissance de 320 % d’ici 2026

L'IA transforme la documentation clinique : Une croissance de 320 % d'ici 2026

L’adoption de l’intelligence artificielle (IA) dans le secteur de la santé est en pleine expansion, avec des projections indiquant une croissance significative dans les prochaines années.

Selon une enquête menée par Healthcare Dive et Microsoft auprès de 130 dirigeants du secteur de la santé, l’utilisation de l’IA pour la documentation clinique devrait passer de 10 % actuellement à 42 % d’ici 2026, soit une augmentation de 320 %.

Cette tendance s’explique par la capacité de l’IA à automatiser des tâches chronophages, permettant aux cliniciens de se concentrer davantage sur les patients. Des solutions comme Dragon Copilot de Microsoft intègrent des technologies de reconnaissance vocale et d’écoute ambiante pour faciliter la documentation clinique, la navigation dans les dossiers de santé électroniques et d’autres tâches administratives.

Parallèlement, des startups développent des technologies d’IA capables de générer des notes cliniques structurées à partir des conversations entre patients et cliniciens, améliorant ainsi l’efficacité et la précision de la documentation médicale.

Cependant, l’intégration de l’IA dans les workflows cliniques doit être effectuée avec prudence.

L’IA dans la santé pose question

Des préoccupations subsistent quant à la précision des transcriptions et à la possibilité d’erreurs, notamment lorsque l’IA est utilisée pour extraire des informations des conversations médicales. Il est donc essentiel de mettre en place des mesures de sécurité adaptées pour garantir l’exactitude et la fiabilité des données générées par l’IA.

En conclusion, l’IA est sur le point de transformer la documentation clinique en automatisant les processus et en améliorant l’efficacité des cliniciens. Cependant, une mise en œuvre réfléchie et des mesures de sécurité appropriées sont essentielles pour assurer des résultats précis et fiables.

Lire plus
Intelligence Artificielle

Claude : Recherche web intégrée, rattrape son retard sur Gemini et ChatGPT

Claude : Recherche web intégrée, rattrape son retard sur Gemini et ChatGPT

Anthropic a officiellement intégré une nouvelle fonction de recherche sur le Web à son assistant IA Claude, permettant ainsi aux utilisateurs d’accéder à des informations actualisées.

Cette mise à jour vient combler l’une des principales lacunes du modèle, qui jusqu’à présent reposait uniquement sur les données stockées lors de son entraînement, avec une limite de connaissances arrêtée à octobre 2024.

La recherche Web de Claude est actuellement disponible en preview pour les abonnés premium aux États-Unis, avec des projets d’expansion vers les utilisateurs gratuits et d’autres pays à l’avenir. Pour l’activer, les utilisateurs doivent modifier leurs paramètres de profil, après quoi Claude déterminera automatiquement quand utiliser la recherche Web pour compléter une requête ou obtenir des informations plus récentes.

L’outil fonctionne avec Claude 3.7 Sonnet et nécessite un abonnement payant (20 dollars/mois ou 214,99 dollars/an pour Claude Pro). Avec cette intégration, Anthropic rejoint des concurrents comme Microsoft Copilot et ChatGPT, qui offrent déjà des fonctions similaires.

ChatGPT avait introduit la recherche web en tant que plugin dès mars 2023, rendant cette mise à jour de Claude attendue de longue date.

Un pas vers une IA plus autonome et « agentique » ?

L’un des aspects les plus intrigants de cette nouvelle recherche Web est son caractère agentique. Claude semble être capable de boucler plusieurs cycles de recherche afin d’affiner ses résultats et d’explorer un sujet plus en profondeur. Cela rappelle la fonction « Deep Research » récemment ajoutée à Google Gemini et ChatGPT.

D’après Simon Willison, expert en IA, cette mise à jour était essentielle pour rendre Claude plus compétitif : « ChatGPT, Gemini et Grok avaient déjà cette capacité, et malgré la qualité exceptionnelle du modèle de Claude, c’était l’une des grandes raisons qui poussaient encore certains utilisateurs à alterner avec d’autres IA ».

Bien que Claude fournisse désormais des citations directes pour les informations issues du Web, il est important de noter que les modèles d’IA générative ont souvent tendance à inventer des sources crédibles mais erronées. Une étude récente a révélé que les assistants IA de recherche affichent un taux d’erreur de citation de 60 %.

Anthropic n’a pas publié de benchmarks sur la fiabilité de sa recherche Web, et il faudra attendre des analyses indépendantes pour évaluer sa précision. Cependant, une vérification croisée avec des sources humaines et indépendantes reste essentielle avant d’utiliser Claude comme référence fiable.

Claude et Brave Search : Une collaboration sous-jacente

Anthropic a partenarisé avec Brave Search pour alimenter sa recherche Web. Brave, souvent considéré comme un moteur de recherche respectueux de la vie privée, semble correspondre à l’image que anthropic souhaite véhiculer en tant qu’alternative éthique aux produits des géants de la tech.

Simon Willison a découvert cette collaboration en analysant la liste des sous-traitants d’Anthropic, où Brave Search a été ajouté le 19 mars 2025. Il a aussi démontré que les résultats de Claude étaient identiques à ceux obtenus via une recherche Brave, confirmant que Brave est bien utilisé en arrière-plan.

Pour les entreprises ou sites Web souhaitant bloquer l’accès de Claude à leurs contenus, il reste à voir si Anthropic mettra en place un mécanisme d’exclusion comme Google l’a fait avec ChatGPT et Bard.

Claude devient un concurrent plus sérieux face à ChatGPT et Gemini

Avec cette mise à jour, Claude rattrape son retard sur ses rivaux et devient un assistant IA encore plus complet. Il ne reste plus qu’à voir si Anthropic rendra cette fonctionnalité gratuite à l’avenir, comme OpenAI l’a fait avec ChatGPT.

Avez-vous testé la recherche web de Claude ? Pensez-vous qu’elle rivalise avec celle de ChatGPT ou de Gemini ?

Lire plus