fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Microsoft intègre GPT-5 dans Copilot, Microsoft 365, Azure, GitHub et plus encore

Microsoft intègre GPT-5 dans Copilot, Microsoft 365, Azure, GitHub et plus encore

Le lancement officiel de GPT-5 par OpenAI marque un tournant majeur dans l’intelligence artificielle, et Microsoft n’a pas perdu de temps pour déployer ce nouveau modèle dans l’ensemble de son écosystème.

Dès aujourd’hui, GPT-5 est disponible dans Copilot, Microsoft 365 Copilot, Azure AI Foundry, GitHub Copilot et Copilot Studio.

GPT-5 : la nouvelle intelligence derrière Copilot

microsoft 365 copilot gpt 5 2048

Grâce à cette mise à jour, Copilot bénéficie désormais d’un « mode intelligent ». Ce mode permet à l’assistant IA de basculer automatiquement entre les différents modèles en fonction du contexte : GPT-5 pour les tâches complexes nécessitant du raisonnement approfondi, ou des modèles plus légers pour des réponses rapides.

Cette approche dynamique reflète la stratégie d’OpenAI, qui intègre également GPT-5 dans ChatGPT, y compris pour les utilisateurs gratuits.

Microsoft 365 Copilot devient plus intelligent

Les utilisateurs de Microsoft 365 Copilot bénéficient dès maintenant des améliorations de raisonnement et de compréhension contextuelle offertes par GPT-5.

Selon un article officiel de Microsoft : « Grâce à GPT-5, Microsoft 365 Copilot est plus performant pour répondre à des questions complexes, maintenir le fil des conversations longues, et mieux comprendre le contexte utilisateur ».

Les bénéfices se feront sentir dans les outils du quotidien, comme Word, Excel, Outlook ou Teams, rendant l’automatisation des tâches, la rédaction de documents ou l’analyse de données encore plus puissantes et précises.

Copilot Studio adopte GPT-5

Copilot Studio, l’environnement de création personnalisé d’assistants IA, bénéficie lui aussi de GPT-5 dès aujourd’hui. Cela ouvre la voie à des conversations multimodales plus naturelles, une meilleure compréhension du langage, et des scénarios d’usage plus poussés.

Les développeurs peuvent ainsi créer des flux IA plus dynamiques, reposant sur les capacités étendues de GPT-5.

GitHub Copilot passe à la vitesse supérieure

Autre annonce phare : GitHub Copilot déploie GPT-5 sur tous ses plans payants. Les développeurs pourront ainsi profiter des améliorations significatives dans la génération de code, la compréhension des erreurs, et la résolution de problèmes complexes.

GPT-5 est réputé pour sa capacité à traiter des tâches multi-étapes, une qualité essentielle pour la programmation et les workflows DevOps.

VSCode GPT 5 1920x1080VidSocialPost GIF

GPT-5 aussi disponible sur Azure AI Foundry

Microsoft met également GPT-5 à disposition via Azure AI Foundry, sa plateforme de développement d’applications IA.

Les développeurs auront accès à un « routeur de modèles », capable de sélectionner automatiquement le modèle le plus adapté (gpt-5, gpt-5 mini, ou gpt-5 nano) en fonction de la requête. Cela garantit une optimisation des performances et des coûts dans les applications IA d’entreprise.

Une intégration cohérente avec la stratégie OpenAI

Cette extension de GPT-5 à tout l’écosystème Microsoft reflète la stratégie commune avec OpenAI : rendre l’intelligence artificielle plus accessible, plus puissante et plus fluide, sans intervention manuelle de l’utilisateur.

Tout comme dans ChatGPT, l’activation du modèle GPT-5 dans Copilot se fait automatiquement, via un système de routage intelligent. Cela garantit la meilleure expérience possible sans devoir choisir manuellement le bon modèle.

Microsoft & GPT-5, une synergie naturelle

Avec cette intégration, Microsoft démontre une nouvelle fois sa position de leader dans l’adoption de l’IA générative à grande échelle. GPT-5, déjà salué pour ses capacités de raisonnement et sa production de code de haute qualité, vient renforcer chaque outil de productivité et de développement de la firme.

Des applications bureautiques à la programmation, en passant par l’IA d’entreprise, GPT-5 devient le nouveau moteur de l’efficacité augmentée chez Microsoft.

Lire plus
Intelligence Artificielle

GPT-5 débarque : toutes les nouveautés majeures dans ChatGPT (et pourquoi vous allez adorer)

GPT-5 débarque : toutes les nouveautés majeures dans ChatGPT (et pourquoi vous allez adorer)

Après des mois d’attente et de spéculation, GPT-5 est enfin là, accompagné d’une refonte complète de l’expérience utilisateur dans ChatGPT.

OpenAI ne s’est pas contenté de livrer un nouveau modèle plus puissant ; l’entreprise en a profité pour transformer en profondeur son chatbot, avec des nouveautés qui vont changer votre manière d’interagir avec l’intelligence artificielle.

Et bonne nouvelle : une grande partie de ces nouveautés est accessible gratuitement, même sans abonnement. Voici un tour d’horizon des améliorations à ne pas manquer.

GPT-5 devient le modèle par défaut de ChatGPT

Fini les sélections manuelles de modèles comme GPT-4o ou GPT-3.5. OpenAI a retiré le sélecteur de modèle pour la majorité des utilisateurs. ChatGPT fonctionne désormais par défaut avec GPT-5, le tout via un système intelligent de bascule automatique.

Screen 2025 08 08 at 07.33.17

Ce nouveau système permet à ChatGPT de choisir dynamiquement entre les versions gpt‑5, gpt‑5 mini ou gpt‑5 thinking en fonction de la complexité de la requête, afin d’optimiser les performances et le temps de réponse.

Les abonnés Plus, Pro et Team conservent un accès manuel au choix entre gpt‑5 et gpt‑5 thinking, voire gpt‑5 thinking pro pour les usages avancés.

Des « personnalités » personnalisables pour ChatGPT

L’une des nouveautés les plus ludiques et attendues : la possibilité de changer la « personnalité » de ChatGPT. Vous pouvez désormais choisir parmi 4 styles de réponses différents, chacun avec une tonalité propre :

  • Cynique : sarcastique, sec, souvent moqueur mais toujours pertinent.
  • Robot : neutre, précis, sans émotion. Il répond de manière concise et factuelle.
  • Auditeur : calme, posé, empathique, avec un ton chaleureux.
  • Geek : curieux, passionné, pédagogique, idéal pour apprendre en s’amusant.

Screen 2025 08 08 at 07.23.29

Si ces styles ne vous conviennent pas, vous pouvez revenir à la personnalité par défaut à tout moment.

« Vibe Coding » : la génération de code devient plus puissante

Avec GPT-5, la génération de code par prompt franchit un nouveau cap. Vous pouvez désormais demander à ChatGPT de créer un site Web ou une application à partir d’une simple description en langage naturel.

Et ce n’est pas tout : grâce à la fonction Canvas, vous pouvez visualiser en direct le projet généré, tester l’interface, et même interagir avec votre création, sans quitter la fenêtre de discussion.

Une interface plus personnalisable

ChatGPT vous permet maintenant de changer la couleur d’accent de votre interface. Cela s’applique aux bulles de conversation, boutons et surlignages.

Pour modifier cette couleur :

  • Sur le Web : cliquez sur votre photo > Paramètres > Général > Couleur d’accentuation.
  • Sur mobile : photo de profil > Personnalisation > Couleur d’accentuation.

Screen 2025 08 08 at 07.23.59

Ce petit détail esthétique rend vos sessions ChatGPT plus agréables visuellement.

Le mode vocal avancé devient plus intelligent

Le mode vocal avancé (anciennement « mode vocal standard ») devient la norme. Il propose désormais :

  • Des réponses vocales plus naturelles
  • Une compréhension améliorée des instructions
  • La possibilité de personnaliser le style de parole (ton, rythme, intention)

Les utilisateurs gratuits auront droit à plusieurs heures d’utilisation quotidienne, tandis que les abonnés bénéficieront d’un usage quasi illimité. Ce mode est aussi compatible avec les GPTs personnalisés.

Intégration native avec Gmail et Google Agenda

OpenAI introduit une intégration transparente avec Gmail et Google Agenda, permettant à ChatGPT de :

  • Lire votre emploi du temps
  • Vous rappeler les mails non lus
  • Vous aider à planifier vos journées
  • Organiser automatiquement vos rendez-vous

Exemple : tapez « Aide-moi à organiser ma journée demain » et ChatGPT vous proposera de connecter votre compte Google. Cette fonction arrive dès la semaine prochaine pour les abonnés Pro, avec un déploiement élargi ensuite.

Une expérience plus fluide, plus humaine, plus utile

Avec GPT‑5, OpenAI ne propose pas seulement un modèle plus puissant. Il redéfinit la façon dont nous utilisons les chatbots au quotidien : plus personnalisés, plus interactifs, plus accessibles.

Et surtout, cette mise à jour n’est pas réservée aux utilisateurs payants. Même en version gratuite, vous profitez déjà d’un aperçu des performances de GPT-5. Pour ceux qui souhaitent aller plus loin, les formules Plus et Pro déverrouillent tout le potentiel du modèle.

 

Lire plus
Intelligence Artificielle

GPT-5 est enfin là : OpenAI dévoile sa nouvelle génération de modèles d’IA

GPT-5 est enfin là : OpenAI dévoile sa nouvelle génération de modèles d’IA

L’attente est terminée ! Après plus de deux ans d’attente, de spéculations et de fuites, et une fuite anticipée sur GitHub, OpenAI vient officiellement de lancer GPT-5, la nouvelle génération de son modèle de langage phare, successeur du célèbre GPT-4 sorti en mars 2023. Et, il est déjà disponible pour tous les utilisateurs de ChatGPT.

Et cette fois, OpenAI ne propose pas un, mais quatre modèles distincts afin de répondre aux différents besoins en matière de vitesse, de coût et de performance.

Quatre versions de GPT-5 pour couvrir tous les usages

OpenAI a structuré sa gamme GPT-5 autour de quatre variantes complémentaires :

  • gpt-5 : le modèle principal, offrant des capacités de raisonnement avancées pour la majorité des usages dans ChatGPT et l’API OpenAI.
  • gpt-5 pro : une version plus puissante, optimisée pour des tâches complexes avec calculs parallèles. Destinée à l’entreprise et à la recherche.
  • gpt-5 mini : version allégée et rapide, conçue pour minimiser les temps de réponse tout en conservant une intelligence correcte.
  • gpt-5 nano : le modèle ultra-léger, dédié aux applications à faible latence, comme les mobiles, les chatbots ou les systèmes embarqués.

Cette stratégie permet à OpenAI de segmenter ses offres intelligemment, tout en maintenant GPT-5 comme nouvelle base pour l’ensemble de ses services, y compris ChatGPT gratuit.

GPT-5 : plus rapide, plus intelligent, plus naturel

Sam Altman, PDG d’OpenAI, compare l’arrivée de GPT-5 à un passage de « l’écran pixelisé à l’écran Retina » : une amélioration qui change la donne.

Parmi les avancées majeures :

  • Réduction des hallucinations : jusqu’à 80 % en moins dans le mode « thinking ».
  • Raisonnement complexe amélioré : particulièrement dans les questions ambiguës ou à étapes multiples.
  • Écriture plus fluide : meilleure adaptation au ton, au contexte et à l’intention de l’utilisateur.
  • Compréhension vocale améliorée : grâce au nouveau mode vocal avancé disponible bientôt sur tous les plans.

OpenAI insiste aussi sur la nouvelle « personnalité” de GPT-5, plus naturelle, plus cohérente, et capable de tenir des conversations plus humaines que jamais.

gpt-5 pro : l’arme secrète des professionnels

Disponible uniquement pour les abonnés Pro (Team, Entreprise, EDU), gpt-5 pro permet d’atteindre des scores record sur les benchmarks :

  • AIME 2025 Math : 100% de réussite (en utilisant Python).
  • GPQA : 88,4% sur des questions complexes.
  • Humanity’s Last Exam : 42% (un record sur cet ensemble de tâches extrêmement difficiles).

Ce modèle est idéalisé pour les usages exigeants : développement logiciel, recherche scientifique, domaines médicaux ou juridiques.

Des performances hors normes pour les développeurs

Avec l’API, OpenAI introduit de nouveaux outils pensés pour les développeurs et l’IA générative :

  • Contrôle du raisonnement : vitesse versus analyse approfondie.
  • Sorties structurées : avec grammaires personnalisées ou expressions régulières.
  • Explication des appels d’outils : pour comprendre pourquoi une action est déclenchée.
  • Nouvelles capacités de génération de code : exemple bluffant présenté en conférence : création d’une application d’apprentissage du français entièrement fonctionnelle depuis un simple paragraphe de texte.

Le tout avec une fenêtre de contexte de 256 000 tokens, permettant à GPT-5 de traiter l’équivalent d’un livre de 600 à 800 pages en une seule session.

Tarifs de l’API GPT-5

Voici les prix annoncés pour accéder à GPT-5 via l’API :

Modèle

Entrée (1M tokens)

Sortie (1M tokens)

Remarques

GPT-5

1.25 dollar

10 dollars

Jusqu’à 90% de réduction sur l’entrée grâce au cache

GPT-5 Mini

0.50 dollar

5 dollars

GPT-5 Nano

0.15 dollars

1.50 dollar

Idéal pour usage mobile ou en masse

Comparé à Claude Opus (Anthropic) ou Gemini 2.5 (Google), GPT-5 se positionne comme une solution plus abordable pour la majorité des développeurs.

Une nouvelle expérience unifiée sur ChatGPT

gpt-5 devient le modèle par défaut sur toutes les versions de ChatGPT, y compris gratuite. Quant à gpt-5 mini, ce modèle est activé automatiquement lorsque les quotas sont dépassés. Les abonnés Pro (200 dollars/mois) accèdent quant à eux à gpt-5 pro pour les tâches complexes.

En outre, GPT-5 offre le nouveau mode vocal, des couleurs de chat personnalisables, des personnalités configurables (“Cynique”, “Robot”, etc.), et enfin des intégrations à Gmail, Google Agenda et Contacts en approche pour les abonnés Pro.

Plus sûr, plus utile, plus humain

Avec GPT-5, OpenAI introduit une nouvelle approche des “safe completions” : Plutôt que de refuser brutalement une requête, GPT-5 explique pourquoi il ne peut pas aider, ou fournit une réponse partielle dans les limites de sécurité.

L’objectif : moins de blocages inutiles, plus de transparence, et un équilibre entre performance et responsabilité.

Une IA plus mature, prête pour le monde réel

GPT-5 ne se contente pas d’impressionner par ses capacités. Il s’intègre naturellement aux usages quotidiens, qu’ils soient personnels ou professionnels. En supprimant le besoin de sélectionner manuellement un modèle, OpenAI place l’intelligence artificielle là où elle doit être : invisible, fluide, mais redoutablement puissante.

C’est une avancée majeure vers une IA généralisée, non pas autonome comme l’AGI, mais capable de vous assister dans presque tous les domaines. Et ce n’est que le début.

Lire plus
Intelligence Artificielle

Grok Imagine : le mode « Spicy » autorise les deepfakes sexuels non consentis

Grok Imagine : le mode « Spicy » autorise les deepfakes sexuels non consentis

La plateforme Grok Imagine, conçue par la startup d’Elon Musk xAI, permet désormais de générer des vidéos animées à partir de texte ou d’images.

Mais, le lancement en mode bêta inclut un mode « Spicy » controversé, capable de créer du contenu sexuel explicite ou des deepfakes non consentis de personnalités célèbres.

Qu’est-ce que le mode « Spicy » de Grok Imagine ?

Grok Imagine propose quatre modes vidéo : Custom, Normal, Fun et Spicy. C’est ce dernier qui suscite une vague d’inquiétudes. Accessible aux abonnés SuperGrok ou Premium+, ce mode génère des vidéos à caractère sexuel — avec nudité partielle, suggestions sexuelles, ou danses très révélatrices — avec peu ou pas de filtre de modération.

Bien que la politique d’utilisation de xAI interdise la représentation pornographique de personnes réelles, Grok Imagine semble ignorer ce principe : des vidéos non consenties de Taylor Swift (ou de sosies très convaincants) ont été produites dès le premier essai, sans demander à exprès une scène de nudité.

deepfake image of a celebrity generated by grok imagine AI

L’outil refuse ensuite l’affichage explicite, mais la vidéo générée reste sexuelle et non censurée… après un simple clic sur le mode « Spicy ».

Un outil puissant… aux garde-fous anémiques

Le mode « Spicy » n’est pas modéré au même niveau que les outils concurrents comme Google Veo ou OpenAI Sora, qui bloquent les requests pour contenu explicite ou deepfake de célébrités. L’activation nécessite juste une confirmation d’âge très superficielle, sans preuve : une procédure jugée ridicule de facilité à contourner.

Critiques et organisations dénoncent un manque flagrant de responsabilité. Selon la National Center on Sexual Exploitation, xAI encourage inconsciemment l’exploitation sexuelle non consentie par cette absence de protection effective. L’outil compte déjà plus de 34 millions d’images générées en quelques jours uniquement, ce qui multiplie les risques de diffusion massive de contenus préjudiciables.

Screen 2025 08 07 at 09.16.39

Impacts légaux et dérives potentielles

Ce mode controversé expose xAI à des poursuites potentielles et à des inquiétudes réglementaires croissantes. Aux États-Unis, le Take It Down Act impose la suppression rapide des contenus explicites générés sans consentement — un cadre que Grok Imagine risque de violer frontalement.

Des personnalités ont déjà évoqué les deepfakes sexuels à leur sujet créés par l’outil avant sa mise à jour. Ces dérives soulignent l’urgence d’encadrer juridiquement ce type de technologie.

Analyse : innovation ou irresponsabilité ?

  • Liberté contre modération ? xAI met en avant la créativité ouverte et la vitesse, mais cette posture affaiblit sa crédibilité sur la sécurité des contenus générés.
  • Effets de réputation négatifs dès le départ, avec des contenus sexuellement explicites attribués à des célébrités non consentantes.
  • Risque juridique global : atteinte à la vie privée, droit à l’image, diffusion de contenu pornographique non autorisée.

Grok Imagine montre l’avenir de l’IA multimodale, mais il le fait sans encadrement. Le mode « Spicy » pose les bases d’un potentiel d’abus massif, ce que la communauté technologique et les législateurs surveillent déjà de près. Si xAI refuse de renforcer ses mesures de contrôle, elle court droit vers des conséquences juridiques et éthiques graves — tout en aggravant le fossé entre innovation et responsabilité.

Lire plus
Intelligence Artificielle

OpenAI débarque sur AWS avec ses modèles GPT open source gpt-oss-120b et gpt-oss-20b

OpenAI débarque sur AWS avec ses modèles GPT open source gpt-oss-120b et gpt-oss-20b

Dans un tournant stratégique majeur pour le secteur de l’intelligence artificielle, OpenAI vient d’annoncer l’arrivée de ses nouveaux modèles open-weight, gpt-oss, sur Amazon Web Services (AWS).

Baptisés gpt-oss-120b et gpt-oss-20b, ces modèles de nouvelle génération sont désormais accessibles via les services Amazon Bedrock et SageMaker JumpStart.

Il s’agit d’une première historique : jamais auparavant OpenAI n’avait hébergé ses modèles sur l’infrastructure AWS.

gpt-oss-120b et gpt-oss-20b : Des puissants modèles pour l’IA d’entreprise

Le modèle gpt-oss-120b impressionne par ses 120 milliards de paramètres. Il est conçu pour des tâches complexes, telles que les applications agentiques, l’assistance au code, l’analyse scientifique et la résolution de problèmes mathématiques.

Quant à la version gpt-oss-20b, elle reprend les mêmes fondamentaux tout en étant plus légère, idéale pour les cas d’usage où l’efficacité énergétique et la rapidité d’exécution sont prioritaires.

Grâce à leur intégration dans Amazon Bedrock et SageMaker, les entreprises peuvent désormais exploiter ces modèles sans quitter l’écosystème AWS. Elles peuvent les affiner localement, les exécuter sur site ou dans le cloud, tout en gardant un contrôle total sur leurs données — un avantage décisif pour celles soumises à des exigences strictes de souveraineté numérique.

Un tournant stratégique pour OpenAI… et pour AWS

Depuis 2019, OpenAI n’avait pas publié de modèle en open weight. Cette nouvelle orientation est perçue par les analystes comme une volonté de favoriser l’adoption plus large de ses technologies tout en réduisant la dépendance à Microsoft Azure, son principal partenaire historique.

De son côté, AWS renforce sa position dominante dans l’IA en accueillant désormais les modèles d’OpenAI, en plus de ceux de Meta, Anthropic, ou encore Mistral. Les développeurs et entreprises peuvent ainsi comparer, tester et intégrer plus facilement différents modèles de base au sein d’un même environnement unifié.

Une opportunité pour les entreprises, un défi pour les concurrents

Avec ces modèles, AWS se positionne comme une plateforme incontournable pour les workflows IA avancés. Les secteurs de la finance, de la santé, de la recherche ou encore de la cybersécurité pourraient bénéficier de ces nouvelles capacités pour bâtir des agents intelligents, générer du code, ou automatiser des processus complexes.

En parallèle, le fait que ces modèles soient open weight signifie qu’ils sont modifiables et personnalisables, ce qui favorise l’émergence de solutions hybrides et spécialisées.

Cela pourrait également accélérer la démocratisation de l’IA : des chercheurs, des startups ou des acteurs publics pourraient les exécuter localement, sur des stations de travail ou des serveurs à la périphérie, sans passer par le cloud à chaque requête.

Transparence, risques et responsabilités

Ce mouvement vers plus d’ouverture est également porteur de défis éthiques. Bien que la transparence des modèles open weight soit un avantage majeur, elle soulève aussi des questions sur la sécurité et le potentiel de mésusage.

OpenAI, tout comme AWS, affirme avoir mis en place des garde-fous pour encadrer les déploiements : limitations d’accès, audits, outils de monitoring et conformité aux normes de cybersécurité.

L’adoption de ces modèles repose donc sur une responsabilité partagée entre les fournisseurs et les utilisateurs. Cela pourrait être un test crucial pour évaluer la maturité du marché autour de l’IA ouverte.

Vers une nouvelle ère de l’IA d’entreprise ?

En rendant ses modèles disponibles sur AWS, OpenAI franchit une étape décisive dans sa stratégie de diffusion massive de l’intelligence artificielle. Ce partenariat ouvre de nouvelles perspectives pour les développeurs, les chercheurs, et surtout les entreprises désireuses de tirer parti des modèles les plus avancés tout en gardant la main sur leur infrastructure.

Alors que les rumeurs autour de Grok 5, GPT-5 et d’autres alternatives montent en puissance, il est clair qu’un nouveau cycle s’ouvre — plus ouvert, plus modulaire, plus collaboratif. Et potentiellement plus compétitif.

Lire plus
Intelligence Artificielle

Microsoft permet enfin d’exécuter un modèle GPT localement sur Windows grâce à GPT-OSS-20B

Microsoft permet enfin d’exécuter un modèle GPT localement sur Windows grâce à GPT-OSS-20B

OpenAI a récemment créé la surprise en annonçant la sortie d’un nouveau modèle GPT open source, baptisé gpt-oss-20b, capable de fonctionner en local.

Et, Microsoft ne s’est pas fait attendre : le géant de Redmond intègre déjà ce modèle dans son Windows AI Foundry, facilitant ainsi son déploiement pour les utilisateurs de Windows, avec une prise en charge prévue prochainement sur macOS.

gpt-oss-20b : un modèle léger, mais puissant, pensé pour l’exécution locale

Contrairement aux modèles propriétaires d’OpenAI comme GPT-4, gpt-oss-20b est gratuit, open source, et spécialement optimisé pour les ordinateurs personnels. Il est destiné principalement à des tâches d’exécution de code, d’assistance autonome et d’intégration dans des workflows réels, y compris dans des environnements à bande passante limitée.

Selon Microsoft, ce modèle est idéal pour les développeurs qui souhaitent intégrer de l’IA dans des systèmes sans dépendre du cloud. Cela ouvre la voie à une nouvelle génération d’agents IA locaux, exécutables en toute autonomie sur des machines puissantes.

Une configuration musclée requise

Même si gpt-oss-20best allégé comparé à d’autres modèles LLM, son exécution locale demande un PC avec au moins 16 Go de VRAM. Cela signifie qu’il faudra s’équiper d’une carte graphique performante, comme une Nvidia RTX 4080 / 4090, ou certaines cartes AMD Radeon haut de gamme.

Le modèle est déjà pré-optimisé pour l’inférence locale, ce qui signifie que son déploiement est simplifié pour les développeurs et entreprises souhaitant expérimenter des applications IA sans connexion constante à Internet.

Windows AI Foundry : la plateforme qui accélère l’adoption de l’IA locale

La disponibilité de gpt-oss-20b sur Windows AI Foundry montre la volonté de Microsoft de devenir une plateforme centrale pour l’IA, en particulier l’IA localisée. Ce hub permet de télécharger, tester et déployer facilement des modèles optimisés, en supprimant les frictions habituelles liées à la configuration de LLM en local.

Microsoft a d’ailleurs laissé entendre que d’autres optimisations arriveront bientôt, notamment pour les PC Copilot+, ces nouvelles machines équipées de NPU capables d’exécuter des tâches d’IA sans consommer de ressources CPU ou GPU.

Une dynamique concurrentielle avec Amazon

Fait intéressant, Amazon a également adopté rapidement ces nouveaux modèles gpt-oss-20b dans ses services cloud, notamment via AWS. C’est la première fois que les concurrents directs de Microsoft peuvent accéder librement à un modèle OpenAI, et cela ajoute une dimension inédite au partenariat complexe entre Microsoft et OpenAI.

Rappelons que Microsoft détient des parts importantes dans OpenAI, mais que cette ouverture du modèle change la donne : l’IA générative n’est plus uniquement centralisée dans des datacenters propriétaires. Elle devient progressivement plus accessible, portable et intégrable, même sur des machines personnelles.

Vers une démocratisation de l’IA sur PC

Avec gpt-oss-20b, l’intelligence artificielle entre dans une nouvelle ère, où les utilisateurs peuvent bénéficier de puissants modèles sans dépendre du cloud. Microsoft, en intégrant rapidement ce modèle à Windows AI Foundry, s’impose comme un acteur clé de l’IA locale, tandis que la compétition avec Amazon ne fait que s’intensifier.

En parallèle, les Copilot+ PC pourraient bientôt accueillir ce type de modèle optimisé, ouvrant la voie à des assistants personnels intelligents capables de fonctionner hors ligne, de façon sécurisée et ultra-réactive.

La véritable révolution de l’IA n’est peut-être pas dans les serveurs distants… mais dans votre propre machine.

Lire plus
Intelligence Artificielle

GPT-5 : OpenAI prépare un lancement massif avec quatre variantes de modèle

GPT-5 : OpenAI prépare un lancement massif avec quatre variantes de modèle

Alors que l’annonce officielle était attendue ce jeudi à 19 h (heure française), GitHub a accidentellement révélé l’existence de la gamme complète de GPT-5 dans un article de blog rapidement supprimé.

L’information, rapidement captée par des utilisateurs sur Reddit, dévoile une feuille de route impressionnante pour le prochain grand modèle d’OpenAI — désormais confirmé comme imminent.

Quatre versions de GPT-5 pour couvrir tous les besoins

Selon la version archivée du blog publié par GitHub, GPT-5 se déclinera en quatre variantes distinctes, chacune pensée pour un usage spécifique. Cette stratégie multi-modèle marque une évolution majeure dans la logique d’OpenAI, qui vise clairement à s’adresser à un éventail plus large d’utilisateurs et d’applications.

Voici les modèles confirmés :

  • gpt-5 : le modèle principal, spécialisé dans le raisonnement complexe et les tâches en plusieurs étapes.
  • gpt-5-mini : une version plus légère, pensée pour les cas d’usage sensibles au coût.
  • gpt-5-nano : ultra-rapide, conçue pour les applications à faible latence.
  • gpt-5-chat : optimisé pour les conversations avancées, multimodales et contextuelles, particulièrement pour les entreprises.

D’après le billet supprimé, ces modèles offrent des améliorations significatives en matière de raisonnement logique, de qualité de code et d’expérience utilisateur, surpassant même des concurrents récents comme LLaMA 4 Scout de Meta ou Cohere v2.

Screen 2025 08 07 at 10.06.59

Un lancement teasé depuis plusieurs jours

La fuite tombe au moment où plusieurs signaux laissaient déjà présager l’arrivée imminente de GPT-5. Le week-end dernier, Sam Altman, PDG d’OpenAI, publiait une capture d’écran sur X montrant une interface mentionnant « ChatGPT 5 ». Lundi, un responsable de la recherche appliquée chez OpenAI déclarait être « impatient de voir comment le public allait accueillir GPT-5 ».

L’annonce a désormais été officiellement confirmée par OpenAI avec un teasing clair : une conférence baptisée « LIVE5TREAM », prévue pour ce jeudi à 19 h heure française (10 h PT), où le « 5″ remplace subtilement le « S » dans le mot « livestream».

GPT-5 : Quelles différences avec GPT-4o ?

Si GPT-4o a récemment apporté une grande fluidité multimodale et des temps de réponse plus rapides, GPT-5 promet une avancée significative dans la résolution de problèmes complexes, le développement logiciel et l’autonomie des agents IA.

C’est notamment ce que GitHub évoque dans son post : une capacité à gérer des tâches de codage complexes “avec un minimum de prompt”, ce qui laisse présager un saut qualitatif dans les assistants de développement comme GitHub Copilot.

Que faut-il attendre d’OpenAI aujourd’hui ?

En plus de GPT-5, OpenAI a déjà marqué la semaine avec le lancement de gpt-oss, sa première gamme de modèles open-weight, dont une version légère pouvant s’exécuter localement sur un PC équipé d’un GPU haut de gamme.

L’annonce de GPT-5 s’inscrit donc dans un contexte de consolidation de la domination d’OpenAI, tout en tentant d’élargir son offre à des usages plus flexibles, offline ou low-cost.

L’un des grands enjeux de ce lancement sera aussi l’ouverture des API pour gpt-5-mini et gpt-5-nano, qui permettront à des développeurs et startups de créer des produits basés sur des modèles plus accessibles tout en profitant de la puissance d’OpenAI.

 

Lire plus
Intelligence Artificielle

OpenAI tease l’arrivée de GPT-5 : une annonce explosive attendue ce jeudi

OpenAI tease l’arrivée de GPT-5 : une annonce explosive attendue ce jeudi

Note : Une fuite de GitHub révèle la gamme complète de GPT-5 d’OpenAI, avec quatre modèles adaptés à différents usages. 

OpenAI pourrait bien être sur le point de révolutionner une nouvelle fois le monde de l’IA. Dans une publication postée ce mercredi sur X, la société a annoncé un événement en direct intitulé « LIVE5TREAM THURSDAY 10 AM PT ». Un détail n’a pas échappé aux internautes les plus attentifs : le « S » de « livestream » a été remplacé par un 5. Une allusion à peine voilée qui laisse peu de place au doute : GPT-5 serait sur le point d’être dévoilé.

Screen 2025 08 06 at 21.56.46

Les signes d’une sortie imminente s’accélèrent ces derniers jours. Dimanche, le PDG d’OpenAI, Sam Altman, a publié une capture d’écran où l’on peut clairement voir « ChatGPT 5″ mentionné dans l’interface. Le lendemain, le responsable de la recherche appliquée de l’entreprise a déclaré être « excité de voir comment le public va recevoir GPT-5”.

De plus, Altman avait déjà déclaré en juillet que la sortie de GPT-5 était prévue « bientôt ». Ces indices, couplés à l’annonce d’un événement très symbolique, renforcent l’hypothèse d’un lancement officiel dès ce jeudi 8 août.

Avant GPT-5, gpt-oss déjà lancé : une semaine chargée pour OpenAI

En parallèle de cette annonce, OpenAI a déjà dévoilé un nouveau modèle open source, baptisé gpt-oss, ce mardi. Ce modèle léger et open-weight peut être exécuté localement sur un PC équipé d’au moins 16 Go de VRAM. Il marque un tournant stratégique important pour OpenAI, qui jusqu’ici gardait ses modèles sous licence propriétaire.

gpt-oss vise des cas d’usage spécifiques, comme les assistants autonomes ou les applications embarquées, notamment dans des contextes où la bande passante est limitée. Microsoft n’a pas tardé à intégrer gpt-oss dans son écosystème, en le rendant disponible via Windows AI Foundry.

Que pourrait apporter GPT-5 ?

Si GPT-5 est bien dévoilé ce jeudi, il s’agira d’une évolution majeure du célèbre modèle linguistique. Plusieurs rumeurs évoquent :

  • Des capacités de raisonnement plus avancées, notamment pour des workflows agentiques ou scientifiques.
  • Une meilleure cohérence dans les réponses longues, un point souvent critiqué dans GPT-4.
  • Une mémoire élargie et plus stable, permettant une continuité accrue dans les conversations.
  • Un apprentissage plus sûr et mieux aligné avec les attentes éthiques actuelles.

Certaines fuites évoquent également une compatibilité améliorée avec les plugins, des performances optimisées en multimodalité, voire des capacités audio et vidéo en temps réel.

Altman a lui-même comparé la cadence de développement de GPT‑5 à celle du projet Manhattan, soulignant l’ambivalence entre progrès rapide et gestion des risques

GPT-5 : une nouvelle étape dans la course à l’IA

Avec l’arrivée annoncée de GPT-5, OpenAI réaffirme son leadership dans la course mondiale à l’intelligence artificielle. Cette sortie s’inscrit dans un contexte hautement concurrentiel, où des modèles comme Claude 4 d’Anthropic, Gemini 2.5 de Google, ou encore LLaMA 4 de Meta cherchent eux aussi à s’imposer.

Microsoft, principal partenaire d’OpenAI, aurait d’ailleurs commencé à préparer l’infrastructure serveur nécessaire au déploiement massif de GPT-5, selon des informations rapportées par The Verge.

Rendez-vous ce jeudi pour une annonce historique ?

L’annonce officielle est attendue ce jeudi 8 août à 10h PT (19h, heure de Paris). Si les rumeurs sont confirmées, nous assisterons au lancement du modèle linguistique le plus avancé jamais proposé par OpenAI.

Après gpt-oss en début de semaine, GPT-5 viendrait compléter une offensive technologique sans précédent, confirmant qu’OpenAI n’a pas l’intention de ralentir.

Lire plus
Intelligence Artificielle

Google lance Apprentissage guidé : une IA éducative dans Gemini pour apprendre mieux

Google lance Apprentissage guidé : une IA éducative dans Gemini pour apprendre mieux

Alors que les géants de l’intelligence artificielle cherchent à s’imposer dans le monde de l’éducation, Google dévoile un nouveau mode d’apprentissage guidé dans Gemini, son assistant IA basé sur les modèles Gemini 2.5.

Ce mode baptisé « Apprentissage guidé » (« Guided Learning ») ne se contente plus de fournir des réponses toutes faites : il cherche à vous faire réellement comprendre les sujets étudiés.

L’IA devient partenaire d’apprentissage

Dévoilé par Sundar Pichai dans un article de blog officiel, le mode Apprentissage guidé transforme Gemini en compagnon d’étude intelligent. Contrairement aux réponses classiques souvent perçues comme un raccourci vers la triche scolaire, ce nouveau mode invite l’utilisateur à interagir activement avec l’IA à travers des questions ouvertes, des quiz interactifs, des illustrations, des vidéos explicatives et bien d’autres supports pédagogiques.

L’objectif affiché : aider les élèves, étudiants et autodidactes à développer leur pensée critique et à construire leur propre compréhension plutôt que d’ingurgiter passivement des informations.

LearnLM : l’IA qui s’appuie sur les sciences cognitives

Pour alimenter ce nouveau mode, Google a conçu une famille de modèles dédiée à l’apprentissage baptisée LearnLM. Fine-tunée spécifiquement pour l’éducation, cette IA est le fruit d’une collaboration entre des experts en IA, des neuroscientifiques et des pédagogues. Elle repose sur les dernières avancées en sciences cognitives et de l’apprentissage actif.

Guided Learning full length high resolution

Selon Google, l’engagement actif est la clé pour améliorer la rétention d’information et la compréhension. Apprentissage guidé incarne cette philosophie en posant des questions de réflexion, en adaptant le rythme à l’utilisateur, et en stimulant la curiosité.

Une fonctionnalité gratuite, dès maintenant dans Gemini

Disponible gratuitement pour tous les utilisateurs de Gemini, Apprentissage guidé peut être activé directement depuis l’interface en sélectionnant « Apprentissage guidé » dans les outils proposés pendant la saisie d’un prompt.

Les enseignants peuvent également partager un lien direct vers le mode Apprentissage guidé, par exemple via Google Classroom, pour accompagner un devoir ou un projet de groupe.

Maureen Heymans, vice-présidente Learning chez Google, explique que cette fonctionnalité a été pensée comme un espace bienveillant, sans jugement, dans lequel chacun peut explorer à son rythme, à la manière d’un tuteur privé numérique.

Une offensive de Google dans l’éducation mondiale

En parallèle de ce lancement, Google annonce une offre d’abonnement gratuit d’un an au plan AI Pro pour tous les étudiants de plus de 18 ans résidant aux États-Unis, au Japon, en Corée du Sud, en Indonésie et au Brésil, à condition de s’inscrire avant le 6 octobre 2025.

La firme de Mountain View a également confirmé un investissement massif d’un milliard de dollars sur trois ans dans l’éducation aux États-Unis. Cet engagement couvre des programmes d’alphabétisation à l’IA, des financements de recherche universitaire, et des ressources cloud pour les établissements scolaires.

Google vs OpenAI : une nouvelle bataille pour les bancs de l’école

Ce lancement intervient quelques jours seulement après l’annonce du mode Étude dans ChatGPT par OpenAI. Une fonction qui poursuit un objectif similaire : réhabiliter l’usage des IA dans un cadre pédagogique et combattre leur mauvaise réputation liée à la triche scolaire.

Avec Apprentissage guidé, Google veut démontrer que l’intelligence artificielle peut favoriser l’apprentissage en profondeur, développer l’autonomie des étudiants et soutenir le travail des enseignants, au lieu de les remplacer.

Le mode Apprentissage guidé de Gemini marque un tournant pour l’éducation assistée par IA. En privilégiant la pédagogie interactive et l’apprentissage actif, Google entend faire de Gemini un véritable compagnon éducatif, capable d’enseigner, d’accompagner, et de motiver — loin du simple générateur de réponses.

Reste à savoir si les élèves et étudiants joueront le jeu… ou continueront à chercher le chemin le plus court vers les bonnes notes.

 

Lire plus
Intelligence Artificielle

Google dévoile Genie 3 : l’IA qui crée des mondes interactifs avec une simple commande

Google dévoile Genie 3 : l’IA qui crée des mondes interactifs avec une simple commande

L’intelligence artificielle ne cesse de repousser les limites de la créativité numérique. Après les générateurs d’images, de vidéos et de musiques, voici Genie 3, le nouveau modèle développé par Google DeepMind.

Ce système révolutionnaire est capable de générer des mondes entiers et interactifs en temps réel, à partir d’un simple prompt textuel. Une avancée technologique majeure qui pose de sérieuses questions sur l’avenir du développement de jeux vidéo.

Genie 3: une IA qui construit des univers navigables à la volée

Présenté comme un modèle de monde généraliste, Genie 3 n’est pas un générateur de contenu classique. Il ne se contente pas de produire des images ou des scènes figées : il conçoit des environnements interactifs dans lesquels l’utilisateur peut se déplacer librement, comme dans un véritable jeu vidéo.

unnamed 1

Le modèle fonctionne en temps réel à 24 images par seconde en 720p, et peut maintenir la cohérence visuelle et spatiale pendant plusieurs minutes, ce qui constitue un bond en avant considérable par rapport à son prédécesseur Genie 2, limité à des scènes en 360p de quelques secondes seulement.

Des exemples époustouflants et un réalisme troublant

Les démonstrations de Genie 3 sont déjà impressionnantes. En quelques mots, il est possible de plonger dans un monde entièrement généré où l’on peut :

  • Explorer une ville futuriste en tant que robot
  • Nager en profondeur sous l’eau dans la peau d’une méduse
  • Voler en wingsuit à travers des montagnes escarpées
  • Se promener dans une Venise virtuelle à bord d’une gondole
  • Parcourir les paysages du Far West à cheval

Malgré une esthétique encore reconnaissable comme « générée par IA », la fluidité et la richesse des scènes marquent une rupture. Là où des équipes de développeurs auraient mis des semaines, Genie 3 le fait en quelques secondes.

Un outil pour les jeux, la robotique… et bien plus encore

Si cette technologie peut faire rêver les gamers et les créateurs de contenus, elle possède également un potentiel énorme dans des domaines comme la robotique. Google teste déjà son agent SIMA dans les environnements produits par Genie 3, afin de former des robots à évoluer dans des situations variées, avant de les déployer dans le monde réel.

Autre point fort : la mémoire visuelle de Genie 3 s’étend jusqu’à une minute, permettant à l’IA de se souvenir d’un objet ou d’un lieu même si l’utilisateur s’en éloigne temporairement, un exploit jamais vu jusqu’ici dans un modèle IA de ce type.

Et mieux encore : on peut modifier ces mondes en cours d’exploration via de simples instructions textuelles. Vous souhaitez qu’il pleuve, ajouter un dragon ou changer de décor ? D’un message, tout change.

Une menace pour les développeurs de jeux vidéo ?

C’est la question qui agite déjà les communautés. Face à un outil aussi puissant, le monde du développement vidéoludique pourrait être bouleversé. Avec Genie 3, un studio indépendant n’a plus besoin d’une équipe complète d’artistes 3D et de développeurs pour construire un prototype de jeu.

Certains y voient une opportunité de démocratiser la création de jeux, tandis que d’autres s’inquiètent pour l’avenir des professionnels du secteur, déjà fragilisés par l’essor de l’automatisation dans d’autres domaines (support client, restauration, design…).

Des studios comme McDonald’s testent déjà des IA pour remplacer les prises de commandes, et même Duolingo a licencié des traducteurs au profit de l’IA. L’industrie du jeu vidéo, déjà soumise à une forte pression économique, pourrait être la prochaine sur la liste.

Vers une nouvelle ère créative, ou une dystopie numérique ?

Genie 3 n’est encore qu’en phase de démonstration, mais ses capacités sont bien réelles. Google le positionne comme une brique fondamentale vers l’AGI (intelligence artificielle générale). Et à mesure que ces modèles s’améliorent, la frontière entre imagination et exécution s’amenuise.

Pour l’instant, Genie 3 est un terrain de jeu fascinant pour les créateurs, mais aussi un sujet de réflexion sur la place de l’humain dans la création numérique de demain. Et si demain, un enfant pouvait créer son propre jeu vidéo en décrivant simplement son rêve de la veille ?

 

Lire plus
Intelligence Artificielle

Claude Opus 4.1 : Anthropic dévoile une IA taillée pour les développeurs

Claude Opus 4.1 : Anthropic dévoile une IA taillée pour les développeurs

Dans un paysage de l’IA en constante évolution, Anthropic continue de faire parler d’elle avec le lancement de Claude Opus 4.1, une mise à jour stratégique de son modèle phare.

Annoncé ce 5 août 2025, ce nouveau modèle vient affiner les capacités introduites avec la famille Claude 4, en mettant l’accent sur l’ingénierie logicielle, le raisonnement multi-étapes et les tâches dites « agentiques ».

À l’heure où la concurrence s’intensifie avec des géants comme OpenAI et Google, Claude Opus 4.1 entend s’imposer comme un outil de référence pour les développeurs et les chercheurs, notamment grâce à des performances en nette hausse sur les benchmarks spécialisés en code.

Claude Opus 4.1 : Des progrès concrets en développement logiciel

Claude Opus 4.1 brille particulièrement dans le domaine de la programmation. Il affiche un score de 74,5 % sur le benchmark SWE-bench Verified, un test de référence pour évaluer la capacité des modèles à résoudre des tâches d’ingénierie logicielle complexes.

Ce modèle est capable de :

  • Refactoriser du code sur plusieurs fichiers en une seule opération.
  • Identifier et corriger des bugs avec une précision accrue.
  • Exécuter des tâches agentiques, c’est-à-dire planifier et agir de manière autonome dans des projets à long terme.

La prise en charge d’une fenêtre de contexte étendue à 64 000 tokens permet de gérer des projets volumineux, et de maintenir une cohérence sur plusieurs heures d’exécution continue. Cette avancée pourrait bien transformer les processus de développement en entreprise, en réduisant considérablement le temps passé sur les tâches répétitives ou techniques.

GxmexVMa4AAQgK1

Intégré à GitHub Copilot pour une adoption immédiate

Le modèle Claude Opus 4.1 est désormais disponible en aperçu public via GitHub Copilot, permettant aux développeurs de bénéficier de ses performances directement dans leur environnement de travail.

Les retours des premiers utilisateurs, partagés sur des forums tech et relayés par des sites comme WinBuzzer, saluent une meilleure précision dans les refactorisations complexes et une réduction notable des erreurs introduites par l’IA dans les bases de code existantes.

Raisonnement, analyse et sécurité : un trio gagnant

Outre le codage, Claude Opus 4.1 se distingue aussi par ses capacités de raisonnement approfondi, particulièrement utiles dans les tâches de recherche et d’analyse de données.

Anthropic insiste sur le caractère « steerable » (orientable) de son modèle, capable de réévaluer sa stratégie en cours d’exécution, une compétence cruciale dans les tâches agentiques. Cette flexibilité rend le modèle plus fiable pour les utilisateurs professionnels et s’inscrit dans la philosophie d’IA responsable chère à Anthropic.

Tarification inchangée pour les entreprises

Claude Opus 4.1 conserve la même structure tarifaire que son prédécesseur :

  • 15 dollars par million de tokens en entrée
  • 75 dollars par million de tokens en sortie

Le modèle est accessible via :

  • API Claude sur le site d’Anthropic
  • Amazon Bedrock
  • Google Vertex AI

Un choix stratégique qui vise à encourager l’adoption en entreprise, en maintenant un bon équilibre entre performance et coût.

Vers une IA plus spécialisée et plus utile

Des entreprises comme Rakuten ou GitHub ont déjà noté les bénéfices tangibles du modèle dans leurs workflows : moins d’erreurs, une meilleure lisibilité du code, et une capacité à gérer des opérations complexes sur de larges volumes de fichiers.

Cela s’inscrit dans une tendance de fond : les IA deviennent des outils métiers spécialisés, plus que de simples assistants conversationnels. Elles s’intègrent dans les chaînes de production logicielles, optimisant les performances sans remplacer l’humain, mais en déléguant certaines tâches fastidieuses.

Une évolution maîtrisée, mais stratégique

Claude Opus 4.1 n’est pas une révolution, mais une évolution marquante. En ciblant les développeurs et les entreprises technologiques, Anthropic affirme sa volonté de jouer un rôle majeur dans l’IA appliquée.

Screen 2025 08 05 at 22.28.52

Avec des intégrations élargies, un prix stable, et des performances en hausse sur les tâches de codage et de raisonnement, Claude Opus 4.1 confirme la maturation progressive de l’IA comme outil de production.

Le prochain objectif d’Anthropic ? Continuer sur cette voie avec des modèles encore plus performants, comme le laisse entendre leur communication sur X. En attendant, les professionnels ont désormais une alternative sérieuse aux offres d’OpenAI et de Google, avec un modèle pensé pour la précision, la sécurité et la productivité.

Lire plus
Intelligence Artificielle

Google lance « Storybook » : créez des histoires illustrées avec Gemini à partir de simples idées

Google lance « Storybook » : créez des histoires illustrées avec Gemini à partir de simples idées

Google vient de franchir un nouveau cap dans l’usage familial de l’intelligence artificielle. Le 5 août 2025, la firme a dévoilé « Storybook », une fonctionnalité inédite intégrée à son chatbot Gemini, qui permet de transformer de simples descriptions ou photos en livres illustrés personnalisés de 10 pages.

Cette nouveauté fait déjà parler d’elle pour sa capacité à réinventer les histoires du soir, en mêlant créativité, personnalisation et IA générative. En quelques clics, parents, enseignants ou curieux peuvent générer une histoire complète avec illustrations sur mesure, narration audio incluse, et dans le style artistique de leur choix.

Une expérience immersive, visuelle et vocale

L’idée est simple : vous décrivez le thème de votre histoire — comme par exemple « un chat qui veut devenir astronaute » ou « une famille qui découvre une grotte magique » — et Gemini s’occupe du reste. Le résultat : un mini-livre numérique illustré, contenant dix pages avec un petit paragraphe de texte, que l’IA peut également lire à haute voix pour un effet conteur.

Vous pouvez affiner la création en précisant le style visuel (claymation, anime, bande dessinée, pixel art…), ou même téléverser une image de votre choix, comme un dessin d’enfant ou une photo de vacances. Gemini générera alors un récit basé sur cette image, enrichi d’illustrations cohérentes… du moins en théorie.

Des images parfois surprenantes (et un peu bizarres)

Même si le système impressionne par sa rapidité et sa facilité d’usage, tout n’est pas parfait. Certains utilisateurs ont rapporté des illustrations inattendues, comme un poisson avec… un bras humain, ou une scène de spaghetti sauce ressemblant à une scène de crime.

Les bizarreries de l’IA rappellent que nous sommes encore dans une phase d’exploration créative, où l’imagination de la machine ne comprend pas toujours le contexte ou les proportions.

L’IA au service des familles et de l’éducation

Derrière cette fonctionnalité se cache une ambition claire de Google : humaniser l’intelligence artificielle et l’intégrer dans la sphère familiale et éducative. Storybook vise à stimuler la créativité des enfants et à offrir aux parents un moyen rapide de créer des histoires personnalisées, inspirées d’un événement familial, d’un dessin ou d’un thème récurrent.

Screen 2025 08 06 at 08.18.39

Le storytelling généré par IA devient alors un outil pédagogique à part entière, capable d’adapter ses contenus à des cultures, des langues (plus de 45 prises en charge), et même des souvenirs personnels via l’intégration avec Google Photos.

Encadrement éthique et limitations

Consciente des enjeux éthiques, Google réserve cette fonctionnalité aux utilisateurs majeurs dans la plupart des régions, excluant les comptes enfants. L’entreprise promet également une modération renforcée et des protections contre les contenus inappropriés.

Certains critiques soulèvent toutefois des inquiétudes : ces histoires automatiques pourraient uniformiser les récits, ou encore porter atteinte au travail des auteurs et illustrateurs traditionnels. Mais Google défend Storybook comme un complément créatif, non une menace pour la littérature jeunesse.

Une fonctionnalité intégrée à l’écosystème Google

Storybook est disponible à l’échelle mondiale sur ordinateur et mobile, via Gemini. Il est également possible d’exporter les histoires au format PDF, pour les partager, les imprimer ou les intégrer dans des projets éducatifs.

Du côté business, cette fonction pourrait attirer de nouveaux abonnés vers Gemini Advanced, où les performances sont boostées par des modèles plus puissants, et les options de personnalisation étendues.

La créativité par l’IA, au bout des doigts

Avec Storybook, Google continue de pousser l’intelligence artificielle au cœur de l’expérience humaine, émotionnelle et familiale. Si les résultats ne sont pas toujours parfaits, la promesse reste forte : permettre à chacun, même sans talent artistique, de créer des histoires uniques à partager avec ses proches.

Dans un futur proche, Storybook pourrait évoluer vers la collaboration entre plusieurs utilisateurs, ou intégrer la réalité augmentée, rendant les récits encore plus immersifs. Une chose est sûre : l’IA générative n’est plus un simple outil technique — elle devient un partenaire narratif.

 

Lire plus
Intelligence Artificielle

OpenAI lance gpt-oss-120b et 20b : deux IA open source aussi puissantes que GPT-4

OpenAI lance gpt-oss-120b et 20b : deux IA open source aussi puissantes que GPT-4

OpenAI vient de frapper un grand coup en annonçant la sortie de deux modèles de langage open source — une première depuis le lancement de GPT-2 en 2019.

Baptisés gpt-oss-120b et gpt-oss-20b, ces nouveaux modèles open-weight changent la donne pour les développeurs, les entreprises, et tous ceux qui souhaitent utiliser une intelligence artificielle performante en local, sans dépendre du cloud… ni d’un abonnement payant.

Une IA puissante, gratuite… et vraiment open source

Les deux nouveaux modèles sont disponibles sous licence Apache 2.0, sans restrictions commerciales. Contrairement à la licence plus restrictive de Meta (LLaMA), ces modèles peuvent être téléchargés, modifiés, affinés et déployés librement par des entreprises, des développeurs indépendants ou des institutions publiques.

  • gpt-oss-120b : modèle de 120 milliards de paramètres, activant 5,1 milliards par token. Il peut fonctionner sur une seule GPU Nvidia H100 avec 80 Go de VRAM.
  • gpt-oss-20b : version plus légère, avec 20 milliards de paramètres et seulement 3,6 milliards actifs par token. Elle est compatible avec les PC grand public et peut même fonctionner sur un smartphone doté de 16 Go de RAM.

Les deux modèles offrent un contexte de 128 000 tokens, ce qui permet de traiter l’équivalent de 300 à 400 pages de texte dans une seule requête. Ils sont conçus pour le raisonnement complexe, l’appel de fonctions, l’utilisation d’outils, et peuvent être exécutés totalement hors ligne.

Des performances proches des modèles propriétaires

OpenAI ne plaisante pas : ces nouveaux modèles open source sont comparables à ses modèles commerciaux comme o3 et o4-mini.

  • Sur le benchmark Codeforces, gpt-oss-120b rivalise avec le modèle o3.
  • Sur Humanity’s Last Exam, il atteint 19 %, contre 24,9 % pour o3 avec accès aux outils.
  • Sur GPQA Diamond, il réalise un score de 80,1 % contre 83,3 % pour o3.

Le modèle gpt-oss-20b se place quant à lui au niveau du modèle o3-mini, voire au-dessus dans certains benchmarks.

Screenshot 2025 08 05 at 11.32.35 AM

Un modèle conçu pour les agents, le code et le raisonnement

OpenAI a conçu les modèles gpt-oss avec une architecture Mixture-of-Experts (MoE) optimisée pour le raisonnement, l’exécution de code, la recherche web, et les workflows « agentiques ».

Ils sont compatibles avec les outils comme :

  • Ollama (via ollama run gpt-oss:20b)
  • LM Studio
  • Des intégrations avec Azure, AWS, Databricks, Vercel, Hugging Face, Cloudflare…

Des schémas d’outils sont fournis pour permettre aux développeurs d’exécuter localement des modules comme un navigateur (via Exa API) ou un interpréteur Python dans un conteneur Docker.

Un effort de sécurité rigoureux

OpenAI a soumis ses modèles à des tests de sécurité poussés :

  • Suppression des données sensibles pendant l’entraînement (chimie, biologie, cybersécurité…).
  • Entraînements adverses (malicious fine-tuning) pour évaluer les risques de dérives.
  • Collaboration avec SecureBio pour tester les modèles sur des benchmarks sensibles.

Résultat : même avec un affinement malveillant, les modèles restent en-dessous des seuils critiques de capacité définis par OpenAI pour les risques de niveau « frontier ».

Pourquoi OpenAI se remet à l’open source ?

Alors que OpenAI génère plus de 13 milliards de dollars de revenus annuels avec ses modèles propriétaires (comme GPT-4o) via l’API et ChatGPT, pourquoi revenir au gratuit et libre ?

La raison est simple : la montée en puissance des modèles open source chinois et européens. Des modèles comme DeepSeek R1, Qwen 3, Mistral, ou encore GLM-4.5 offrent des performances de plus en plus proches des modèles propriétaires… et grignotent des parts de marché, notamment en entreprise.

OpenAI veut donc reprendre la main dans ce domaine, en proposant le meilleur des deux mondes :

  • Des modèles gratuits et puissants pour les développeurs open source.
  • Des services d’accompagnement payants pour les entreprises (déploiement, fine-tuning, support…).

Disponible dès maintenant

Vous pouvez télécharger les modèles gpt-oss-120b et gpt-oss-20b dès aujourd’hui sur :

OpenAI lance également un challenge Red Teaming de 500 000 dollars sur Kaggle pour tester les modèles en profondeur. Un rapport public et un jeu de données d’évaluation seront publiés pour favoriser la recherche en sécurité de l’IA open source.

Une nouvelle ère pour l’open source chez OpenAI

Avec cette annonce, OpenAI marque son retour fracassant dans l’open source, bien décidé à ne pas laisser l’espace à ses rivaux chinois et européens. Les modèles gpt-oss sont techniquement solides, légalement permissifs, facilement déployables, et conçus pour durer.

Reste à voir si cela suffira à convaincre les développeurs et entreprises de revenir dans l’écosystème OpenAI… ou si l’open source a déjà pris trop d’avance.

Lire plus
Intelligence Artificielle

ChatGPT vous demandera bientôt de faire une pause : OpenAI s’attaque aux risques psychologiques liés à l’IA

ChatGPT vous demandera bientôt de faire une pause : OpenAI s’attaque aux risques psychologiques liés à l’IA

Dans un contexte de préoccupations croissantes autour de l’impact de l’intelligence artificielle sur la santé mentale, OpenAI a annoncé l’arrivée d’une nouvelle fonctionnalité sur ChatGPT : un rappel de pause automatique lors d’échanges prolongés avec l’IA.

Cette mesure, inédite pour une plateforme de ce calibre, vise à réduire les risques de dépendance, d’isolement social et de confusion mentale, déjà pointés du doigt par plusieurs études et experts en santé mentale.

Un rappel à la réalité après des sessions prolongées

Selon un article publié par Engadget, ChatGPT sera désormais capable de détecter automatiquement les sessions d’utilisation anormalement longues. Dans ce cas, l’interface affichera un message invitant l’utilisateur à faire une pause ou à se reconnecter plus tard.

L’objectif affiché par OpenAI est clair : promouvoir une utilisation plus saine et consciente de l’IA, en insistant sur la nécessité de revenir dans le monde réel. Ces rappels n’analyseront pas le contenu des conversations, mais se baseront uniquement sur la durée de l’échange.

Quand l’IA devient une béquille émotionnelle : les signaux d’alerte

Cette décision ne tombe pas du ciel. Plusieurs signaux d’alarme ont été tirés ces derniers mois, notamment à travers des témoignages et rapports soulignant les effets délétères d’une interaction prolongée avec des IA conversationnelles.

Un article d’opinion évoquait dès juillet 2025 un « effet de pourrissement cognitif », avec des risques de confusion mentale, voire de psychose induite, chez certains utilisateurs vulnérables. D’autres sources ont souligné le lien entre usage intensif de ChatGPT et sentiment de solitude aggravé, en particulier chez les jeunes.

Des témoignages sur X sont venus appuyer ces constats : anxiété, brouillard mental, dépendance émotionnelle… Dans certains cas, des utilisateurs en sont venus à attribuer des capacités prophétiques à ChatGPT, preuve de la frontière de plus en plus floue entre réalité et simulation.

Une tendance sectorielle vers plus de responsabilisation

OpenAI n’est pas le seul acteur à réagir aux risques de mésusage des IA. Des plateformes comme Google (Gemini) ou Anthropic (Claude) ont également commencé à intégrer des garde-fous plus stricts. Mais, cette fonctionnalité de rappel de pause pourrait bien devenir une norme attendue dans tout le secteur.

Des experts du PMC (PubMed Central) avaient dès 2024 publié une étude sur le rôle ambivalent des IA génératives : outils d’assistance puissants, mais potentiellement nocifs s’ils se substituent au lien social ou au raisonnement critique. C’est particulièrement problématique lorsque l’IA valide sans recul les pensées négatives ou les croyances erronées.

Limites et défis techniques : est-ce vraiment suffisant ?

La solution de rappel proposée par OpenAI reste modeste, selon certains experts. Elle ne repose que sur la durée d’une session, sans prise en compte du contenu émotionnel ou cognitif de l’échange. Autrement dit, un utilisateur en détresse pourrait passer plusieurs heures à discuter de ses idées noires sans déclencher de véritable alerte.

Il a d’ailleurs été rapporté plusieurs cas d’utilisateurs autistes ou psychologiquement fragiles pour qui ChatGPT aggravait la confusion mentale ou les croyances délirantes. Ces situations relancent la nécessité d’un cadre de régulation éthique et clinique, avec, à terme, une intégration de ressources professionnelles : lignes d’écoute, orientation vers des psychologues, etc.

Une étape vers un usage plus sain de l’IA générative

Malgré ses limites, cette fonctionnalité marque une première reconnaissance officielle par OpenAI des risques liés à la dépendance à l’IA. En agissant maintenant, l’entreprise espère éviter que ChatGPT ne devienne une nouvelle source d’addiction numérique, à l’instar des réseaux sociaux ou des jeux vidéo.

Ce rappel de pause ouvre aussi une porte vers une IA plus « humaine », plus encadrée et plus consciente de ses effets secondaires. Un modèle d’IA véritablement intelligent ne devrait pas seulement répondre vite, mais savoir quand il est temps de se taire pour préserver le bien-être de l’utilisateur.

Un signal d’alarme salutaire… mais encore timide

Avec cette nouvelle fonction, OpenAI initie une forme de responsabilité éthique dans la conception d’interfaces IA grand public. Mais cela ne suffira pas à lui seul. Il faudra aller plus loin : éducation des utilisateurs, transparence sur les données, partenariats avec les professionnels de santé mentale, et surtout, une réflexion collective sur le rôle que nous voulons donner à ces outils dans nos vies.

L’intelligence artificielle ne doit pas devenir un substitut à nos interactions humaines ni une béquille émotionnelle permanente. Elle peut être un formidable levier de progrès — à condition de l’utiliser avec discernement.

 

Lire plus
Intelligence Artificielle

Mistral AI lance Codestral 25.08 : l’IA européenne pour développer plus vite et en sécurité

Mistral AI lance Codestral 25.08 : l’IA européenne pour développer plus vite et en sécurité

La startup française Mistral AI frappe un grand coup dans l’univers du développement assisté par intelligence artificielle. Fin juillet, l’entreprise a dévoilé Codestral 25.08, la nouvelle version de son modèle de génération de code, ainsi qu’une stack IA complet dédié aux environnements professionnels.

Plus qu’un simple modèle de complétion, cette suite d’outils promet une intégration fluide dans les processus de développement d’entreprise, avec une ambition claire : accélérer la production de code tout en garantissant la sécurité des données.

Et selon les premiers retours de la communauté tech, Mistral pourrait bien rivaliser avec les géants du secteur.

Codestral 25.08 : plus rapide, plus précis, plus fiable

Au cœur de ce stack, le modèle Codestral 25.08 présente des améliorations significatives par rapport à sa version précédente. Selon Mistral, il offre :

  • +30 % d’acceptation des complétions de code par les développeurs.
  • -50 % d’erreurs ou de “fuites” de génération.
  • Une meilleure gestion du remplissage au milieu du code (fill-in-the-middle).
  • Une latence réduite, idéale pour des environnements en production.

Le modèle prend en charge plus de 80 langages de programmation et fonctionne de manière fluide dans les IDE les plus populaires comme VS Code et JetBrains, grâce à une extension dédiée baptisée Mistral Code (actuellement en bêta privée).

code ide

Une stack complète pensée pour les entreprises

L’intérêt de Mistral ne se limite pas à la performance du modèle. C’est l’ensemble de la stack IA qui se démarque, conçu pour répondre aux exigences des grandes structures :

  • Codestral Embed : un modèle d’embedding spécialisé dans la recherche de code, avec une meilleure capacité de rappel que les embeddings classiques.
  • Devstral : un agent IA capable de gérer des workflows multi-étapes, comme le refactoring automatisé, les débogages complexes ou la documentation.
  • Mistral Code : une extension open-source (basée sur le projet Continue) permettant une intégration directe dans les environnements de développement.

Le tout est déployable en cloud public, cloud privé (VPC) ou on-premise, sans refonte majeure de l’architecture existante. Une flexibilité essentielle pour les entreprises soumises à des règles strictes de conformité et de confidentialité.

Observabilité, personnalisation et performances réelles

Le stack mise sur une architecture unifiée avec des SLAs (accords de niveau de service) robustes. Les équipes IT peuvent suivre, analyser et ajuster les comportements du modèle en temps réel.

Selon les benchmarks internes relayés par Mistral, Codestral 25.08 est jusqu’à 2x plus rapide dans certains scénarios que les précédentes versions, tout en restant plus pertinent dans ses suggestions. Sur les réseaux sociaux comme X, de nombreux développeurs témoignent d’une expérience nettement plus fluide, avec un assistant qui comprend les contextes complexes, même dans des projets multi-langages.

Une réponse aux enjeux de souveraineté numérique

Contrairement à des outils SaaS américains comme GitHub Copilot ou OpenAI Codex, Mistral AI mise sur une approche open source, localisable et maîtrisée. Les données sensibles peuvent rester en interne, un critère déterminant pour les secteurs régulés comme la santé, la finance ou les télécommunications.

Ce positionnement a déjà séduit plusieurs grands groupes français comme Capgemini ou la SNCF, qui auraient commencé à tester la solution en conditions réelles.

Mistral : une alternative européenne crédible à OpenAI ?

Ce lancement confirme l’ambition de Mistral de devenir un acteur majeur de l’IA générative appliquée au développement. Le rythme de sortie — de la première version de Codestral en mai 2024 à ce stack complet un an plus tard — témoigne d’une capacité d’innovation soutenue.

Avec un accent mis sur l’efficacité, la sécurité et la souveraineté, la startup française pourrait bien rebattre les cartes dans un secteur encore dominé par les États-Unis.

Et après ?

Mistral n’en est visiblement qu’au début de son offensive. D’autres versions de Codestral sont prévues, ainsi que de nouvelles fonctionnalités dans Mistral Code. Si l’entreprise réussit à rendre sa solution plus accessible — notamment en simplifiant le fine-tuning et la gestion de domaines spécifiques — elle pourrait devenir incontournable dans les DSI à l’horizon 2026.

Lire plus