fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Claude Voice : Le mode vocal arrive pour concurrencer ChatGPT

Claude Voice : Le mode vocal arrive pour concurrencer ChatGPT

Selon les informations de Bloomberg, Anthropic, l’entreprise derrière le chatbot Claude AI, prépare le lancement d’un mode vocal pour son assistant conversationnel. Cette fonctionnalité, déjà attendue depuis plusieurs semaines, pourrait commencer à être déployée dès ce mois-ci, positionnant Claude comme un concurrent direct de ChatGPT Voice.

Claude Voice: Trois voix, trois ambiances : Airy, Mellow et Buttery

D’après le rapport, Claude proposera dans un premier temps trois voix anglaises distinctes :

  • Airy: probablement légère et fluide
  • Mellow: douce et apaisante
  • Buttery: chaleureuse et enveloppante

Ces voix permettront aux utilisateurs de dialoguer oralement avec l’IA, une avancée majeure dans l’évolution des assistants conversationnels, qui devient de plus en plus multimodale.

Une fonctionnalité déjà en test interne

La fonctionnalité avait déjà été évoquée par Mike Krieger, Chief Product Officer d’Anthropic, dans une interview accordée au Financial Times en mars dernier : « Nous allons également travailler la voix en interne, c’est une modalité utile à posséder. Nous avons des prototypes ».

Des indices de cette nouveauté ont été repérés dans l’application iOS de Claude par le chercheur M1Astra, avant d’être confirmés par Bloomberg. Anthropic n’a pas encore officiellement réagi.

Une IA qui parle, pour une interaction plus naturelle

Cette évolution est dans la lignée de ce qu’a proposé OpenAI avec ChatGPT Voice, permettant des conversations vocales naturelles via smartphone. Le mode vocal de Claude pourrait transformer l’outil en véritable assistant personnel IA, capable d’assister l’utilisateur dans des tâches quotidiennes sans avoir à taper le moindre texte.

Cela ouvre la porte à des cas d’usage plus dynamiques :

  • Conduite mains libres
  • Assistance vocale au travail
  • Accessibilité améliorée pour les personnes ayant des difficultés à écrire

Un sérieux concurrent face à ChatGPT

Fondée par d’anciens employés d’OpenAI, Anthropic s’impose comme un acteur majeur dans la course à l’IA générative. Le mois dernier, l’entreprise a lancé un nouveau forfait à 200 dollars/mois pour les utilisateurs intensifs, et a récemment introduit Claude Research, un outil d’analyse Web avancée pour les chercheurs.

Avec ce mode vocal, Claude continue son ascension et se rapproche encore un peu plus du modèle conversationnel « humain » tant recherché dans l’IA moderne.

Lire plus
Intelligence Artificielle

ChatGPT lance sa bibliothèque d’images IA : Retrouvez vos créations facilement

Screen 2025 04 16 at 08.09.22

OpenAI continue d’améliorer l’expérience utilisateur de ChatGPT avec l’introduction d’une nouvelle fonctionnalité très attendue : une bibliothèque d’images dédiée. Désormais, les utilisateurs peuvent retrouver, consulter et organiser facilement leurs images générées par IA, directement depuis l’interface de ChatGPT.

Une nouvelle section « Library » dans l’application et sur le Web

Cette fonctionnalité est en cours de déploiement pour tous les utilisateurs Free, Plus et Pro, aussi bien sur mobile que sur le Web. Sur iOS, elle est déjà accessible pour certains, et devrait apparaître progressivement sur les autres plateformes.

Dans une vidéo de démonstration partagée par OpenAI, on découvre une nouvelle section dans la barre latérale de ChatGPT, intitulée « Library ». En y accédant, vous retrouvez une grille d’images précédemment générées, avec une interface claire et fluide.

Pour qui est-ce utile ?

Cette bibliothèque est particulièrement utile si vous :

  • Utilisez fréquemment DALL·E ou d’autres générateurs d’images IA dans ChatGPT
  • Aimez créer des visuels à thème (style Studio Ghibli, rétro, science-fiction…)
  • Avez envie de revenir sur vos créations précédentes sans tout regénérer
  • Souhaitez partager ou réutiliser des images facilement dans vos projets

Un bouton « Créer une nouvelle image » est également accessible depuis la bibliothèque, facilitant l’ajout de nouveaux visuels à votre collection.

Avec cette bibliothèque, OpenAI transforme ChatGPT en véritable carnet de créations visuelles, où chaque utilisateur peut retrouver l’historique de ses idées et inspirations visuelles générées par IA. Une fonctionnalité simple mais précieuse pour les créateurs, artistes, marketeurs et curieux de l’IA générative.

Lire plus
Intelligence Artificielle

Claude x Google Workspace : L’IA d’Anthropic intègre Gmail, Agenda et Docs

Claude x Google Workspace : L'IA d'Anthropic intègre Gmail, Agenda et Docs

L’entreprise américaine Anthropic a annoncé ce mardi une intégration majeure de son chatbot Claude avec la suite Google Workspace. Cette nouveauté permet à Claude d’interagir avec des services comme Gmail, Google Calendar et Google Docs, afin de fournir des réponses plus contextualisées et personnalisées.

L’intégration est pour l’instant disponible en version bêta, réservée aux clients des formules Claude Max, Team, Enterprise et Pro. Pour les comptes multi-utilisateurs, les administrateurs doivent activer manuellement l’accès à Workspace avant que les utilisateurs puissent connecter leurs comptes.

Que peut faire Claude avec Google Workspace ?

Claude peut désormais :

  • Lire et analyser vos e-mails Gmail pour trouver des informations pertinentes,
  • Consulter votre agenda Google Agenda pour répondre à des requêtes liées à votre emploi du temps,
  • Parcourir vos documents Google Docs pour en extraire des données ou les résumer.

image 5 1

Exemple : Claude peut aider un parent en scannant les e-mails et événements pour repérer les réunions scolaires importantes, puis rechercher automatiquement les prévisions météo ou les événements locaux susceptibles d’impacter la planification familiale.

Citations intégrées et confidentialité respectée

Chaque fois que Claude s’appuie sur des données issues de Workspace, une citation intégrée indique la source exacte, qu’il s’agisse d’un e-mail, d’un document ou d’un événement.

image 7

Anthropic précise que les données utilisateur ne sont pas utilisées pour entraîner les modèles, sauf consentement explicite. La société affirme avoir mis en place des mécanismes stricts d’authentification et de contrôle d’accès pour garantir que Claude n’accède qu’aux comptes explicitement autorisés.

« Chaque connexion à un service externe est liée uniquement à l’authentification spécifique de l’utilisateur ou de l’organisation concernée », indique un porte-parole d’Anthropic.

Quid de la sécurité et des données sensibles ?

Claude ne peut ni envoyer d’e-mails, ni planifier de rendez-vous, mais des questions de confidentialité demeurent. On ignore dans quelle mesure Claude explore l’ensemble des données d’un Workspace, ou si l’utilisateur doit spécifiquement demander l’accès à un e-mail ou un fichier. Il n’est pas encore clair non plus si les utilisateurs peuvent exclure certaines données sensibles de cette recherche automatisée.

Claude Research: un moteur de recherche IA pour aller plus loin

Anthropic a également annoncé le lancement de Claude Research, un nouvel outil qui réalise plusieurs recherches sur le Web pour fournir des réponses approfondies et fiables.

L’objectif est de rivaliser avec les outils « deep research » d’OpenAI ou de Google, tout en offrant un meilleur équilibre entre rapidité et précision :

  • Claude Research fonctionne en moins d’une minute
  • Il ne repose pas sur un modèle personnalisé, mais exploite les capacités Web de Claude 3.5

Disponible dès aujourd’hui pour les abonnés Max, Team et Enterprise aux États-Unis, au Japon et au Brésil, cette fonction sera prochainement déployée pour les abonnés Pro.

Claude progresse… mais reste derrière ChatGPT

En mars 2025, Claude comptait 3,3 millions d’utilisateurs Web, selon SimilarWeb. Bien que la progression soit notable, ChatGPT reste largement dominant, avec une base d’utilisateurs nettement plus importante.

Cependant, grâce à des intégrations stratégiques comme Workspace, et à des fonctions avancées comme Claude Research, Anthropic entend se positionner comme un concurrent crédible sur le marché de l’IA conversationnelle premium.

Claude devient une IA vraiment personnalisée et connectée à votre environnement de travail réel. Grâce à l’intégration avec Google Workspace, elle devient plus intelligente, plus pertinente, et plus utile au quotidien — sans avoir à tout uploader ou reformuler constamment ses demandes.

Lire plus
Intelligence Artificielle

Gemini crée des vidéos IA étonnantes en 8 secondes avec Veo 2 !

Gemini crée des vidéos IA étonnantes en 8 secondes avec Veo 2 !

Google continue de faire évoluer sa suite d’outils IA Gemini avec une fonctionnalité spectaculaire intégrée à Gemini Advanced, son assistant IA premium. Grâce à Veo 2, le modèle IA de génération vidéo lancé fin 2024, il est désormais possible de générer des vidéos animées de 8 secondes à partir d’une simple description textuelle.

Ce nouvel outil ouvre un tout nouveau champ de créativité rapide, accessible et étonnamment réaliste.

Veo 2 dans Gemini : la vidéo IA accessible à tous

Avec Veo 2, les abonnés à Gemini Advanced peuvent désormais générer des clips au format 16:9, en 720p, directement depuis leur interface Gemini, que ce soit sur desktop ou mobile. Il suffit de sélectionner « Veo 2 » dans le menu déroulant des modèles (aux côtés de 2.0 Flash, 2.5 Pro, etc.) pour activer le mode création vidéo.

Gemini propose ensuite un champ de texte : décrivez-y la scène de votre choix. En quelques instants, votre description se transforme en vidéo MP4 animée, que vous pouvez :

  • télécharger localement
  • partager par lien public
  • ou diffuser directement sur Facebook, LinkedIn, Reddit, X/Twitter

Une IA qui comprend les mouvements, la physique et le style visuel

Google affirme que Veo 2 comprend mieux que jamais :

  • La physique du monde réel
  • Les mouvements humains
  • Les types d’objectifs photographiques
  • Et la composition de scènes réalistes ou imaginaires

Cela permet de créer des vidéos qui semblent issues de vrais clips filmés. Chaque vidéo générée est marquée par la technologie SynthID, qui certifie qu’elle a été créée par une IA.

De la simple description à la création stylisée

Gemini se montre très performant, que vous donniez un prompt vague ou une description très détaillée. Voici deux exemples partagés :

  • Prompt court : « Un groupe de K-pop joue une chanson sur scène dans un grand stade. Le public agite des lightsticks ». Résultat : un clip impressionnant, avec une chanteuse au style K-pop distinct, un stade bondé, et des sous-titres coréens en bas de l’écran, comme lors d’un live stream.
  • Prompt détaillé : « Un homme et un chat marchent sur un chemin bordé de fermes abandonnées. Dans le ciel, des OVNI planent au-dessus des champs. ». Résultat : une scène immersive, où le chat se déplace naturellement et les OVNI apparaissent dans un jeu de caméra fluide entre les arbres.

Plus vous passez de temps à peaufiner votre description, plus le résultat est impressionnant. Mais Gemini sait aussi « compléter » avec créativité quand vous laissez des zones floues.

Et les images ? Whisk Animate pour aller plus loin

Pour ceux qui souhaitent aller au-delà du texte, Google propose également Whisk Animate, un outil complémentaire qui permet de transformer une image en vidéo animée de 8 secondes grâce à Veo 2.

Disponible via l’abonnement Google One AI Premium (20 euros/mois), Whisk Animate permet de donner vie à des images fixes de façon cinématographique. Bien que Veo 2 ne prenne pas encore en charge l’ajout d’images dans les prompts, Whisk permet de contourner cette limite.

Whisk est désormais disponible partout dans le monde pour les abonnés premium.

Avec cette avancée, Google donne un coup d’accélérateur à la création vidéo automatisée. Plus rapide que les outils classiques, mais plus stylisé et contrôlable que les générateurs simples, Gemini + Veo 2 s’annonce comme une solution puissante pour les créateurs, storytellers, communicants et curieux de l’IA.

Lire plus
Intelligence Artificielle

GPT-4.1 : L’IA d’OpenAI prête à révolutionner le codage

GPT-4.1 : L'IA d'OpenAI prête à révolutionner le codage

Hier, OpenAI a dévoilé sa nouvelle génération de modèles d’intelligence artificielle baptisée GPT-4.1. Cette famille comprend trois versions : GPT-4.1, GPT-4.1 Mini et GPT-4.1 Nano. Conçus pour exceller en codage et en compréhension d’instructions complexes, ces modèles marquent une avancée stratégique pour OpenAI dans sa course face à Google, Anthropic ou encore DeepSeek.

Les trois variantes de GPT-4.1 partagent une particularité inédite : elles peuvent traiter jusqu’à un million de tokens en une seule requête, soit environ 750 000 mots — l’équivalent de plus de 2x le roman Guerre et Paix de Tolstoï.

Cette capacité contextuelle surpasse largement celle de GPT-4o (16 384 tokens) ou même de GPT-4 classique (32 768 tokens), et se positionne comme un atout clé pour l’analyse de longs documents, le traitement multimédia ou le développement logiciel complexe.

Des modèles conçus pour le développement logiciel

OpenAI met l’accent sur le potentiel de GPT-4.1 comme assistant de programmation avancé. L’ambition à long terme de l’entreprise : créer un “agent logiciel autonome” capable de concevoir des applications complètes, de réaliser des tests, corriger des bugs et rédiger de la documentation.

Performances en codage

Selon OpenAI, GPT-4.1 surpasse GPT-4o sur les benchmarks de programmation, notamment SWE-bench Verified, où il atteint un score entre 52 % et 54,6 %. À titre de comparaison :

Screen 2025 04 14 at 20.31.35

Ces scores restent élevés, même si OpenAI reconnaît que certaines limitations techniques ont empêché certains cas de test d’être exécutés sur ses propres serveurs.

Trois modèles pour trois usages

Modèle

Description

Prix (tokens d’entrée / de sortie)

GPT-4.1

Le plus complet, pour des tâches avancées

2 dollars / 8 dollars

GPT-4.1 Mini

Plus rapide et moins cher, idéal pour les développeurs

0,40 dollar / 1,60 dollar

GPT-4.1 Nano

Ultra-léger, le plus économique et rapide

0,10 dollar / 0,40 dollar

Mini et Nano sacrifient un peu de précision, mais gagnent en vitesse et coût, permettant à tous les budgets de tirer parti de l’IA.

Optimisé pour un usage réel

OpenAI a affiné GPT-4.1 grâce aux retours d’utilisateurs pour qu’il soit plus conforme aux attentes des développeurs :

  • Moins de modifications superflues dans le code généré
  • Meilleur respect des formats et des structures de réponse
  • Usage plus cohérent des outils intégrés
  • Meilleure efficacité pour le codage frontend

Ces améliorations facilitent le développement d’agents IA capables de travailler sur des projets réels en entreprise.

Une IA qui comprend aussi les vidéos

Autre nouveauté : GPT-4.1 excelle également sur les tests de compréhension vidéo. Sur l’évaluation Video-MME, il atteint 72 % de précision pour les vidéos longues sans sous-titres — un record.

Malgré ses avancées, GPT-4.1 n’est pas exempt de défauts :

  • Perte de fiabilité avec de gros volumes de données : sa précision passe de 84 % (avec 8 000 tokens) à 50 % (avec 1 million de tokens), selon les tests OpenAI.
  • Tendance à être trop littéral : parfois, il nécessite des consignes plus explicites qu’un GPT-4o.

De plus, comme d’autres modèles de génération de code, GPT-4.1 peut encore introduire des failles ou des erreurs dans ses programmes, soulignant la nécessité de validation humaine.

GPT-4.1 est une avancée stratégique pour OpenAI dans la création d’IA appliquées au développement logiciel. Bien qu’il ne surpasse pas encore les meilleurs modèles sur tous les benchmarks, sa souplesse, ses capacités contextuelles extrêmes, et sa tarification adaptée en font un outil prometteur pour l’avenir de l’IA générative.

Lire plus
Intelligence Artificielle

GitHub pour les débutants ! Maîtrisez l’art du prompt engineering

GitHub pour les débutants ! Maîtrisez l'art du prompt engineering

Vous vous êtes déjà retrouvé face à une réponse vague, décevante ou à côté de la plaque d’un outil d’intelligence artificielle comme ChatGPT ou GitHub Copilot ? Rassurez-vous, vous n’êtes pas seul. Interagir avec un modèle de langage peut parfois ressembler à un jeu de devinettes. Pourtant, le problème ne vient pas forcément de l’IA elle-même, mais de la façon dont on lui parle.

C’est là qu’intervient le prompt engineering : l’art de formuler des requêtes claires, précises et contextualisées pour obtenir des réponses utiles et cohérentes. Apprendre à « parler IA » peut transformer vos interactions, que vous soyez développeur, créateur de contenu ou simple curieux.

Considérez donc le prompt engineering comme l’apprentissage du langage de l’IA. Ce guide de GitHub détaille les fondamentaux du prompt engineering, en proposant des conseils pratiques et des exemples pour vous aider à affiner votre approche et obtenir de meilleurs résultats.

Qu’est-ce qu’un modèle de langage (LLM) ?

Les LLMs (Large Language Models) comme ceux développés par OpenAI (GPT), sont des intelligences artificielles entraînées sur d’immenses corpus de texte. Elles analysent le langage sous forme de tokens — des mots, syllabes ou caractères — pour générer du texte en s’appuyant sur des modèles de probabilité.

Mais ces modèles ont des limites :

  • Hallucinations : l’IA peut inventer des faits lorsqu’un prompt est trop vague ou ambigu.
  • Limites de tokens : le volume de texte en entrée comme en sortie est restreint, ce qui impose d’optimiser l’information donnée.

Pourquoi le prompt engineering est-il crucial ?

Le prompt engineering permet d’exploiter pleinement la puissance de ces modèles en formulant des requêtes structurées, explicites et efficaces. Un bon prompt permet :

  • d’éviter les erreurs,
  • d’obtenir des réponses pertinentes,
  • de guider précisément l’IA vers le résultat souhaité.

Prenons un exemple concret. Demander simplement « Écris une fonction » ne donnera pas grand-chose. En revanche, un prompt comme « Écris une fonction Python qui calcule la factorielle d’un entier n de manière récursive » est bien plus spécifique — et donc productif.

Essentiels du prompt engineering de GitHub

Les ingrédients d’un bon prompt

Pour obtenir les meilleures réponses, appliquez ces trois piliers :

  1. Clarté et précision : Utilisez un vocabulaire précis, sans ambiguïté.
  2. Contexte pertinent : Fournissez juste assez d’information pour orienter le modèle, sans le surcharger.
  3. Itération : Testez, ajustez, recommencez. L’amélioration continue est la clé.

Exemple :

  • Prompt 1 : « Trie une liste de nombres » → trop vague.
  • Prompt 2 : « Écris une fonction Python qui trie une liste d’entiers en ordre croissant avec l’algorithme quicksort » → efficace, précis, orienté solution.

Déjouer les pièges classiques

Quelques astuces pour éviter les résultats décevants :

  • Divisez pour mieux régner : Segmentez les requêtes complexes en sous-tâches simples.
  • Gérez les limites de tokens : Allez à l’essentiel, utilisez plusieurs requêtes si nécessaire.
  • Évitez les non-dits : Spécifiez les contraintes, les formats attendus, les cas limites.

Plus vos instructions sont claires, plus l’IA sera pertinente.

Où le prompt engineering est-il le plus utile ?

Dans la programmation et la création de contenu, les bénéfices sont immédiats :

  • Code : précisez le langage, les bibliothèques, les contraintes (« Fonction Python qui calcule l’aire d’un cercle avec la librairie math »).
  • Texte : fixez le ton, le style, la longueur, la cible (« Écris une introduction persuasive pour un article sur l’IA, ton professionnel, 150 mots »).

Bonnes pratiques à adopter

  • Décomposez les tâches complexes pour éviter les confusions.
  • Soyez explicite : format d’entrée, contraintes, structure attendue.
  • Affinez vos prompts en fonction des réponses, jusqu’à obtenir l’effet recherché.

L’art de converser avec l’intelligence artificielle

Le prompt engineering n’est pas juste une compétence utile : c’est la clé pour déverrouiller le plein potentiel des modèles de langage. En maîtrisant cet art, vous transformez vos échanges avec l’IA en un outil de travail fiable, créatif et performant.

Et comme pour toute compétence, la pratique fait la différence. Plus vous testez, affinez et explorez, plus vous obtiendrez des résultats puissants et sur mesure.

Lire plus
Intelligence Artificielle

GPT-4.1 : L’IA ultime d’OpenAI disponible… pour les développeurs !

Un an après la sortie remarquée de GPT-4o, OpenAI continue de faire évoluer son intelligence artificielle avec une toute nouvelle version : GPT-4.1. Présentée lors d’un livestream officiel, cette mise à jour marque une avancée majeure dans le domaine de l’IA multimodale, avec des améliorations significatives en codage, compréhension du langage, et traitement de contexte étendu.

OpenAI a qualifié GPT-4.1 comme étant meilleur que GPT-4o « dans presque toutes les dimensions », notamment en matière de programmation, de compréhension d’instructions complexes et de raisonnement logique. S’il s’agit des meilleurs modèles d’IA “non raisonné” d’OpenAI, la série GPT-4.1 n’est pas disponible pour ChatGPT. OpenAI indique que les modèles de la série GPT-4.1 sont exclusivement formés pour les développeurs et qu’ils sont disponibles dans l’API à partir d’aujourd’hui.

GPT 4.1 Family Intelligence by Latency lightMode

GPT-4.1 peut traiter jusqu’à 1 million de tokens dans une seule interaction, ce qui représente des centaines de pages de texte, des images, voire des vidéos. Cette capacité contextuelle décuplée permet des applications bien plus puissantes, notamment pour :

  • l’analyse de gros documents juridiques ou techniques,
  • la création de code à partir de longues consignes,
  • l’interprétation de fichiers multimédias.

Deux nouvelles variantes : GPT-4.1 Mini et GPT-4.1 Nano

Pour accompagner cette mise à jour majeure, OpenAI lance aussi deux modèles dérivés.

GPT-4.1 Mini

Conçu pour les développeurs à budget maîtrisé, ce modèle plus léger reste performant tout en étant plus économique à utiliser. Il offre un excellent compromis pour tester des applications d’IA à grande échelle sans exploser les coûts.

GPT-4.1 Nano

C’est le modèle le plus rapide, léger et économique jamais proposé par OpenAI. Idéal pour les appareils à ressources limitées (IoT, embarqué, apps mobiles), ou pour des cas d’usage où la latence est critique.

Des gains massifs en codage et exécution

OpenAI a mis en avant les performances exceptionnelles de GPT-4.1 en matière de codage, notamment dans son intégration à GitHub Copilot. Ce dernier bénéficie désormais de :

  • Meilleures suggestions de code front-end,
  • Suivi rigoureux des instructions de format,
  • Exécution plus fiable et cohérente des outils de développement.

Screen 2025 04 14 at 19.59.05

Cela ouvre la voie à un usage professionnel renforcé pour les développeurs, en particulier dans des contextes complexes comme le refactoring, la correction de bugs ou les tests unitaires automatisés.

Tarifs adaptés à tous les besoins

OpenAI propose ces modèles avec une nouvelle grille tarifaire :

Modèle Coût par million de tokens (entrée/sortie)
GPT-4.1 2 dollars/8 dollars
GPT-4.1 Mini 0,40 dollar/1,60 dollar
GPT-4.1 Nano 0,10 dollar/0,40 dollar

Ces tarifs visent à démocratiser l’accès à des modèles puissants tout en proposant des solutions adaptées à différents usages, du grand public aux entreprises.

Fin programmée de GPT-4 classique, GPT-5 repoussé à plus tard, et bientôt… le modèle de raisonnement O3

OpenAI a annoncé que GPT-4 (version originale) sera retiré de ChatGPT le 30 avril. Le modèle GPT-4o, enrichi et plus performant, est désormais le modèle par défaut utilisé sur la plateforme. Avec GPT-4.1, OpenAI va encore plus loin, consolidant sa place de leader sur le marché.

Alors que certains attendaient GPT-5 pour mai, le PDG Sam Altman a récemment indiqué que le lancement était reporté. L’équipe a rencontré des difficultés à intégrer de façon fluide l’ensemble des innovations prévues. Altman promet toutefois que GPT-5 arrivera « dans quelques mois ».

Des références au modèle de raisonnement o3 (et à une version « mini » baptisée o4) ont déjà été repérées dans la dernière version Web de ChatGPT. Ces nouveaux modèles pourraient pousser encore plus loin la logique conversationnelle et les capacités de raisonnement profond de l’IA.

 

Lire plus
Intelligence Artificielle

OpenAI renforce l’accès à ses modèles : La vérification d’organisation devient obligatoire !

OpenAI renforce l'accès à ses modèles : La vérification d'organisation devient obligatoire !

OpenAI prévoit de renforcer les contrôles d’accès à ses modèles d’IA les plus avancés à travers un nouveau processus appelé Verified Organization (Organisation Vérifiée). D’après une page d’assistance récemment mise en ligne, cette vérification pourrait devenir obligatoire pour les entreprises souhaitant accéder à certaines capacités futures de la plateforme.

Qu’est-ce que le processus « Verified Organization » ?

Ce système d’authentification impose la fourniture d’une pièce d’identité émise par un gouvernement d’un pays pris en charge par l’API d’OpenAI. Une même pièce d’identité ne pourra être utilisée que pour une organisation tous les 90 jours, et toutes les entités ne seront pas nécessairement éligibles à la vérification.

OpenAI justifie cette mesure par son engagement à garantir un usage sécurisé et responsable de l’intelligence artificielle. L’entreprise précise que ce système vise à limiter les usages malveillants ou non conformes de ses API par une minorité de développeurs qui contournent volontairement les règles d’utilisation.

Une stratégie de sécurisation face à des usages risqués

Ce renforcement de la sécurité intervient dans un contexte où les modèles d’OpenAI deviennent de plus en plus puissants et donc sensibles. La société a déjà publié plusieurs rapports concernant des tentatives d’utilisation malveillante de ses technologies, notamment par des entités liées à la Corée du Nord.

De plus, cette initiative semble aussi viser à protéger la propriété intellectuelle. Un rapport de Bloomberg publié plus tôt cette année évoquait une enquête interne d’OpenAI sur une possible exfiltration massive de données via son API en 2024 par un groupe affilié à DeepSeek, un laboratoire chinois spécialisé en IA — possiblement pour entraîner ses propres modèles, en violation des conditions d’utilisation.

En réponse, OpenAI avait déjà restreint l’accès à ses services en Chine à l’été 2024.

En résumé, cette nouvelle vérification vise à renforcer la confiance et la traçabilité dans l’usage des modèles d’IA les plus puissants d’OpenAI. Elle pourrait devenir un prérequis obligatoire pour certaines fonctionnalités à venir, particulièrement dans les environnements professionnels et de recherche sensibles. Une évolution logique à mesure que l’intelligence artificielle devient un outil stratégique à l’échelle mondiale.

Lire plus
Intelligence Artificielle

ChatGPT : De Ghibli au Starter Pack Barbie, l’IA qui crée les nouvelles tendances visuelles

ChatGPT : De Ghibli au Starter Pack Barbie, l'IA qui crée les nouvelles tendances visuelles

Après avoir fait sensation avec la tendance des images de style Ghibli, ChatGPT continue de séduire le Web avec une nouvelle vague créative : transformer des portraits en figurines d’action ou poupées de collection. Bienvenue dans l’univers du Barbie Box Challenge, une tendance née sur LinkedIn qui commence à s’imposer sur les réseaux sociaux.

De Ghibli à Barbie : ChatGPT, moteur des tendances visuelles

Le succès explosif du générateur d’images de ChatGPT est en grande partie dû à la mode virale des portraits façon Studio Ghibli. Cette fonctionnalité, lancée il y a quelques semaines, a été si populaire qu’OpenAI a dû limiter l’accès à la génération d’images pour les comptes gratuits, afin d’éviter la surcharge des serveurs.

Aujourd’hui, une nouvelle version de cette créativité alimentée par l’IA fait surface : se transformer en figurine de collection, enfermée dans un emballage rappelant ceux des jouets. Cette fois, ce sont les professionnels sur LinkedIn qui s’illustrent avec des images stylisées et personnalisées, incarnant leur alter ego en version action figure ou Barbie, avec accessoires et branding soigné.

L’AI Action Figure : la déclinaison la plus populaire

Plusieurs variantes de la tendance coexistent, mais celle qui fait le plus parler d’elle est l’« AI Action Figure ». L’idée : créer une version plastique de soi-même, présentée dans un blister transparent, avec des accessoires typiques du monde du travail — ordinateur portable, livre, tasse de café — une esthétique parfaitement adaptée à LinkedIn.

D’autres préfèrent adopter une image plus commerciale avec la « Barbie Box », une boîte rose flashy, une typographie inspirée du film de 2023, et une ambiance résolument marketing.

ChatGPT Image 12 avr. 2025 22 48 31

Bien que cette tendance ait débuté sur LinkedIn, elle s’est déjà répandue sur Facebook, Instagram et TikTok. Toutefois, elle n’atteint pas encore l’ampleur du phénomène Ghibli, toujours en tête des recherches sur Google.

Une tendance moins controversée, mais surveillée

Contrairement aux créations Ghibli, qui ont suscité des critiques de la part des artistes et fans du studio sur les questions de droit d’auteur et d’éthique, les figurines IA ne rencontrent pour l’instant que peu de backlash. Mais cela pourrait évoluer si la tendance prend plus d’ampleur ou touche des univers visuels protégés.

Créer sa propre figurine Barbie ou Action Figure

Voici comment vous pouvez vous aussi entrer dans la boîte :

  1. Rendez-vous sur ChatGPT et connectez-vous.
  2. Téléversez une photo de vous claire et bien cadrée.
  3. Écrivez une prompt détaillée, par exemple : « Crée une figurine de collection représentant la personne sur cette photo, dans un emballage style Barbie/action figure, avec accessoires : laptop, mug, livre. Thème : vie de bureau. »
  4. Personnalisez les détails : pose, tenue, couleurs, accessoires visibles dans des moules.
  5. Générez et affinez jusqu’à obtenir le rendu parfait.

ChatGPT Image 9 avr. 2025 14 23 06 png

Tendance semi-virale, mais forte en symboles

Malgré l’enthousiasme, la tendance reste modérément virale. Les publications viennent surtout de marketeurs, créateurs de contenu B2B et aspirants influenceurs LinkedIn, souvent avec peu d’engagement.

Le Barbie Box Challenge démontre une fois de plus la puissance créative de l’IA lorsqu’elle est mise entre les mains du grand public. Ludique, personnalisable et facile à partager, cette tendance s’inscrit dans une continuité logique : celle de l’appropriation des outils IA pour l’expression de soi.

Que vous soyez un professionnel du marketing ou simplement curieux, transformer votre image en figurine est désormais à portée de clic.

Lire plus
Intelligence Artificielle

Microsoft se détache de OpenAI : Vers une IA maison pour Copilot et Azure ?

Microsoft se détache de OpenAI : Vers une IA maison pour Copilot et Azure ?

Depuis 2021, Microsoft et OpenAI entretiennent un partenariat stratégique dans le domaine de l’intelligence artificielle. Mais avec les récentes évolutions du marché et des divergences d’objectifs, Microsoft envisagerait désormais de développer ses propres modèles d’IA en interne, afin de réduire sa dépendance aux solutions tierces, dont celles d’OpenAI.

Pourquoi Microsoft veut reprendre le contrôle ?

Alors que OpenAI multiplie les projets ambitieux — dont Stargate, un plan à 500 milliards de dollars pour construire des centres de données IA à l’échelle nationale — Microsoft semble vouloir se recentrer sur ses propres produits.

Les retours mitigés de Microsoft sur GPT-4, jugé trop coûteux et pas assez performant pour certains cas d’usage, ont nourri cette volonté d’indépendance. Par ailleurs, OpenAI poursuit ses propres objectifs, avec une récente levée de fonds de 40 milliards de dollars menée par SoftBank, ce qui porte sa valorisation à 300 milliards de dollars.

Une stratégie « off-frontier » assumée

Mustafa Suleyman, CEO de Microsoft AI, a expliqué à CNBC que l’entreprise souhaite rester dans une position de suiveur rapide, en évitant les coûts exorbitants du développement de modèles à la pointe absolue :

C’est moins cher de proposer une réponse spécifique une fois que les 6 premiers mois de l’innovation sont passés. C’est ce que nous appelons une stratégie « off-frontier »

En clair, Microsoft ne cherche pas à développer les modèles les plus avancés du monde, mais plutôt à concevoir des solutions ciblées, rentables et adaptées à ses produits comme Copilot.

Microsoft Copilot : l’IA maison devient essentielle

Lors de son événement des 50 ans, Microsoft a dévoilé de nombreuses nouveautés autour de Copilot : Vision, Memory, Pages, Deep Research… Autant de fonctions qui bénéficieraient directement d’une maîtrise interne des modèles d’IA.

En parallèle, Microsoft a rapidement intégré des modèles alternatifs comme DeepSeek R1 à sa plateforme Azure, soulignant son souhait de diversifier ses sources d’IA et de renforcer son indépendance vis-à-vis d’OpenAI.

Une collaboration qui dure… mais qui évolue

La relation entre Microsoft et OpenAI n’est pas rompue : leur contrat se poursuit jusqu’en 2030. Mais, Microsoft prépare l’après, en intégrant plus de modèles tiers dans ses services et en explorant ses propres pistes technologiques.

Cette transition ne signifie pas l’abandon de GPT ou de ChatGPT, mais plutôt l’émergence d’un écosystème hybride, où Microsoft reste maître de ses choix technologiques.

Avec cette nouvelle stratégie, Microsoft cherche à s’imposer non pas en tant que pionnier absolu de l’IA, mais comme un acteur pragmatique, agile et autonome. Une vision qui pourrait bien faire la différence dans la course actuelle à l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Meta accusé de tricherie : Llama 4 Maverick, un benchmark gonflé ?

Meta accusé de tricherie : Llama 4 Maverick, un benchmark gonflé ?

Meta fait face à des accusations selon lesquelles la société aurait manipulé les résultats de benchmarks pour son modèle d’intelligence artificielle Llama 4 Maverick. Ce modèle a atteint un score ELO impressionnant de 1 417 sur Chatbot Arena, surpassant des modèles concurrents tels que GPT-4o et Gemini 2.0 Pro.

Un utilisateur se présentant comme un ancien employé de Meta a affirmé que la direction de l’entreprise aurait intégré des ensembles de tests de divers benchmarks dans le processus de post-entraînement pour gonfler les scores et atteindre des objectifs internes. Cet individu aurait démissionné en raison de ces pratiques, jugeant cette approche inacceptable.

Ahmad Al-Dahle, vice-président de la division Générative AI chez Meta, a fermement nié ces allégations, déclarant que l’entreprise n’a pas entraîné ses modèles sur des ensembles de tests et ne le ferait jamais.

Il a suggéré que les variations de qualité observées pourraient être dues à la nécessité de stabiliser les implémentations.

LMSYS, l’organisation derrière le classement Chatbot Arena, a précisé que le modèle soumis par Meta, nommé « Llama-4-Maverick-03-26-Experimental », était une variante personnalisée optimisée pour les préférences humaines. LMSYS a reconnu que cette information n’avait pas été suffisamment clarifiée par l’équipe de Meta et a annoncé une mise à jour de ses politiques pour renforcer la transparence des évaluations.

Pas simplement Llama 4 : Précédents incidents chez Meta

Ce n’est pas la première fois que Meta est accusée de manipuler des benchmarks. En février, une étude a révélé que plus de 50 % des échantillons de tests de certains benchmarks clés étaient présents dans les données d’entraînement de Llama 1, soulevant des préoccupations quant à la fiabilité des évaluations de performance.

Ces événements soulignent l’importance d’une transparence accrue dans les processus d’évaluation des modèles d’intelligence artificielle pour maintenir la confiance de la communauté scientifique et des utilisateurs.

Lire plus
Intelligence Artificielle

Midjourney V7 : L’IA qui lit dans vos pensées (et crée des images incroyables) !

Midjourney V7 : L'IA qui lit dans vos pensées (et crée des images incroyables) !

Le pionnier des générateurs d’images par intelligence artificielle, Midjourney, a récemment dévoilé sa version 7 (V7), introduisant des améliorations significatives en termes de qualité d’image, de personnalisation et de rapidité de génération.

La V7 se distingue par une meilleure interprétation des instructions textuelles, permettant une génération d’images plus précise et fidèle aux descriptions fournies. David Holz, PDG de Midjourney, décrit cette version comme « beaucoup plus intelligente avec les prompts textuels », offrant des images de qualité supérieure avec des textures raffinées et une meilleure cohérence dans les détails complexes, tels que les mains et les objets.

Une nouveauté majeure de la V7 est l’activation par défaut de la personnalisation. Les utilisateurs doivent d’abord évaluer environ 200 paires d’images pour créer un profil personnalisé, alignant ainsi les générations futures avec leurs préférences esthétiques. Ce processus, bien que nécessitant un investissement initial en temps, vise à améliorer la pertinence des images générées.

Le mode « Draft » est conçu pour accélérer le processus créatif, permettant de générer des images 10x plus rapidement tout en réduisant de moitié le coût en crédits GPU. Ce mode est particulièrement utile pour le prototypage rapide et l’exploration d’idées. De plus, la V7 introduit une fonction de commande vocale, permettant aux utilisateurs de décrire verbalement les images souhaitées, rendant l’interaction plus fluide et intuitive.

Modes « Turbo » et « Relax » de Midjourney

La V7 propose également deux modes opérationnels :

  • Mode Turbo : Optimisé pour des rendus rapides, ce mode consomme 2x plus de crédits que le mode standard.
  • Mode Relax : Offre une alternative plus économique avec des temps de rendu plus longs.

Certaines fonctionnalités, telles que l’upscaling, l’édition et la retexturation, ne sont pas encore disponibles dans la V7 et basculent actuellement vers les modèles V6. Midjourney prévoit d’intégrer ces capacités dans les futures mises à jour, avec des ajouts de nouvelles fonctionnalités toutes les une à deux semaines au cours des deux prochains mois.

En somme, la version 7 de Midjourney marque une avancée significative dans le domaine de la génération d’images par IA, offrant aux utilisateurs des outils plus puissants et personnalisés pour concrétiser leurs visions créatives.

Lire plus
Intelligence Artificielle

DeepCoder-14B : Un nouveau modèle IA révolutionnaire pour coder plus vite et mieux

DeepCoder-14B : Un nouveau modèle IA révolutionnaire pour coder plus vite et mieux

DeepCoder-14B est un nouveau modèle d’intelligence artificielle open source, conçu par Together AI et Agentica, qui se positionne comme une alternative crédible aux modèles propriétaires de génération de code, tels que o3-mini d’OpenAI. ,

Avec ses 14 milliards de paramètres, il offre des performances remarquables en matière de génération de code et de raisonnement algorithmique, tout en étant entièrement accessible à la communauté.

Screen 2025 04 11 at 11.27.33

DeepCoder-14B atteint un score de 60,6 % sur le benchmark LiveCodeBench (Pass@1), égalant ainsi les performances de o3-mini d’OpenAI. Sur la plateforme Codeforces, il obtient une note de 1936, le plaçant dans le top 5 % des participants humains. De plus, il affiche un taux de réussite de 92,6 % sur le benchmark HumanEval+, démontrant sa capacité à résoudre des problèmes complexes de programmation.

deepcoder png

DeepCoder-14B : Une formation rigoureuse et innovante

Pour atteindre ce niveau de performance, les chercheurs ont utilisé une approche de renforcement (RL) basée sur l’algorithme GRPO+, une version améliorée du Group Relative Policy Optimization. Ils ont également mis en place une stratégie d’allongement progressif du contexte, permettant au modèle de traiter des séquences allant jusqu’à 64 000 tokens, bien qu’il ait été entraîné sur des contextes de 32 000 tokens. Cette capacité à gérer de longs contextes est essentielle pour le raisonnement sur des problèmes complexes.

L’un des aspects les plus remarquables de DeepCoder-14B est sa transparence. Les équipes ont publié l’intégralité du code source, les jeux de données d’entraînement, les journaux de formation et les optimisations système. Cette ouverture vise à démocratiser l’accès à des modèles de génération de code performants et à favoriser l’innovation collaborative.

Une avancée pour la communauté et les entreprises

En rendant accessible un modèle de cette envergure, DeepCoder-14B offre aux développeurs, chercheurs et entreprises la possibilité d’intégrer des capacités avancées de génération de code dans leurs projets, sans dépendre de solutions propriétaires. Cela représente une opportunité majeure pour accélérer le développement d’outils personnalisés et renforcer l’autonomie technologique.

Pour en savoir plus et accéder aux ressources associées, vous pouvez consulter la page officielle sur Hugging Face.

Lire plus
Intelligence Artificielle

ChatGPT se souvient de tout : L’IA qui vous connaît mieux que vous-même !

ChatGPT se souvient de tout : L'IA qui vous connaît mieux que vous-même !

OpenAI déploie une nouvelle amélioration de la fonction mémoire de ChatGPT, avec pour objectif de rendre l’assistant conversationnel plus personnel, pertinent et engageant au fil des interactions.

Désormais, ChatGPT pourra se souvenir de l’ensemble de vos conversations passées, et non plus uniquement celles enregistrées manuellement via la fonction de mémoire.

Cette mise à jour va transformer la manière dont les utilisateurs interagissent avec ChatGPT :

  • Des réponses plus personnalisées, qui prennent en compte vos préférences, centres d’intérêt ou style de communication.
  • Une expérience utilisateur plus fluide, sans avoir à répéter à chaque fois les mêmes informations dans vos discussions.

Sam Altman, CEO d’OpenAI, a déclaré sur X : « C’est une fonctionnalité étonnamment utile. Elle incarne l’idée d’un assistant IA qui vous accompagne sur le long terme et devient extrêmement personnalisé ».

Avec cette approche, ChatGPT devient un véritable compagnon numérique évolutif, capable de s’adapter au fil du temps à chaque utilisateur.

ChatGPT : Contrôle et confidentialité toujours au rendez-vous

Pour ceux qui souhaitent garder le contrôle sur leurs données :

  • Il est possible de désactiver la mémoire dans les paramètres.
  • La fonction « Chat éphémère » permet de lancer un échange sans qu’il ne soit mémorisé par l’IA.

Déploiement progressif

La nouvelle mémoire est disponible dès aujourd’hui pour les utilisateurs ChatGPT Plus et Pro. En revanche, les utilisateurs situés dans l’EEE (Espace Économique Européen), au Royaume-Uni, en Suisse, Norvège, Islande et Liechtenstein devront patienter un peu avant d’y avoir accès. Les abonnés ChatGPT Team, Enterprise et Edu devraient en bénéficier dans les prochaines semaines.

Cette nouvelle avancée ouvre la voie à une intelligence artificielle plus humaine, plus proche et capable de vous accompagner au quotidien.

Lire plus
Intelligence Artificielle

Gemini Code Assist : Google dévoile l’IA qui programme à votre place !

Gemini Code Assist : Google dévoile l'IA qui programme à votre place !

Lors de sa conférence Cloud Next ’25, Google a dévoilé une mise à jour majeure de Gemini Code Assist, son assistant de programmation basé sur l’IA. Désormais doté de capacités dites « agentiques », l’outil est capable de gérer des tâches complexes sur plusieurs étapes, à la manière d’un véritable assistant logiciel autonome.

Des agents IA pour automatiser le développement

En preview, Gemini Code Assist peut déployer de nouveaux agents intelligents capables de concevoir des applications complètes à partir de spécifications produit présentes dans un simple document Google Docs, ou encore de convertir du code d’un langage à un autre.

Ces agents vont bien au-delà de la simple suggestion de code : ils peuvent planifier des tâches, exécuter des transformations logicielles, générer de la documentation technique, ajouter de nouvelles fonctionnalités, ou encore effectuer des revues de code et créer des tests unitaires. Le tout peut être supervisé via un tableau Kanban intégré à l’outil.

Gemini Code Assist demo gif

Gemini Code Assist est désormais intégré à Android Studio, en plus des autres environnements de développement populaires. Une décision stratégique de Google qui vise à renforcer son assistant face à une concurrence de plus en plus féroce.

Une réponse aux concurrents : GitHub Copilot, Cursor, Devin…

Avec cette évolution, Google entend clairement répliquer aux avancées de GitHub Copilot, Cursor ou encore Devin, l’agent IA développé par Cognition Labs qui a récemment fait sensation. Le marché de l’assistance à la programmation par l’IA devient extrêmement compétitif, porté par les promesses de gains de productivité colossaux.

Mais attention à ne pas céder à l’enthousiasme trop rapidement. Même les meilleurs assistants IA du marché peuvent introduire des bugs ou des failles de sécurité, notamment à cause d’une compréhension encore limitée de la logique et des contraintes spécifiques à chaque langage.

Une étude récente sur Devin a montré que l’agent n’avait réussi que 3 tâches sur 20 dans un benchmark dédié. Il reste donc essentiel de relire et tester systématiquement le code généré, même lorsqu’il provient d’un outil aussi avancé que Gemini Code Assist.

Vers une nouvelle génération d’assistants-développeurs ?

Avec cette mise à jour, Google franchit un cap important : celui de l’automatisation partielle du cycle complet de développement logiciel. Si les agents tiennent leurs promesses, l’IA générative pourrait ne plus se limiter à l’autocomplétion de lignes de code, mais bel et bien assister les équipes dans la planification, l’implémentation, la vérification et la documentation de leurs projets.

Reste à voir si ces agents seront aussi performants qu’ambitieux. Car si l’IA peut déjà accompagner les développeurs, elle ne les remplace pas encore. En tout cas, pas totalement.

Lire plus