fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Gemini 2.5 Flash Image : Google ouvre l’ère de l’édition et de la génération vidéo parfaite par l’IA

Gemini 2.5 Flash Image : Google ouvre l'ère de l'édition et de la génération vidéo parfaite par l'IA

Google vient d’annoncer la disponibilité générale de Gemini 2.5 Flash Image pour un usage en production. Cette mise à jour apporte aux développeurs de nouvelles possibilités en matière de génération et d’édition d’images assistées par l’IA, avec davantage de formats, d’outils créatifs et de cas d’usage concrets.

Gemini 2.5 Flash Image : De nouveaux formats et une flexibilité inédite

La grande nouveauté de Gemini 2.5 Flash Image réside dans la prise en charge de 10 formats d’image différents, couvrant aussi bien les besoins cinématographiques que ceux des réseaux sociaux.

Les rapports d’aspect désormais disponibles sont :

  • Paysage : 21:9, 16:9, 4:3, 3:2
  • Carré : 1:1
  • Portrait : 9:16, 3:4, 2:3
  • Flexibles : 5:4, 4:5

En plus, les développeurs peuvent désormais générer des images seules, sans texte ni légende, ce qui ouvre la voie à une utilisation plus directe dans des projets multimédias ou marketing.

Des fonctionnalités avancées pour les créateurs

Gemini 2.5 Flash Image ne se contente pas de produire des visuels : il apporte une véritable couche d’intelligence créative. Parmi les fonctions mises en avant par Google :

  • Fusion d’images pour combiner plusieurs sources visuelles de manière fluide.
  • Cohérence des personnages, permettant de conserver les mêmes traits dans différentes scènes, idéal pour le storytelling visuel.
  • Éditions ciblées en langage naturel, par exemple : « change la couleur de la veste en rouge » ou « ajoute un coucher de soleil en arrière-plan ».
  • Exploitation des connaissances du monde pour générer des images précises et réalistes.

Cas d’usage concrets pour les développeurs

Plusieurs entreprises explorent déjà le potentiel de Gemini 2.5 Flash Image :

  • Cartwheel combine le modèle avec son outil de 3D posing, garantissant un contrôle précis des personnages et une continuité narrative dans la création de scènes.
  • Volley, créateur du jeu Wit’s End, l’utilise pour générer et éditer des portraits de personnages, des scènes dynamiques et des compositions multi-personnages, le tout en temps réel à partir d’entrées textuelles ou vocales.

Par ailleurs, Google met en avant des applications expérimentales comme :

  • Bananimate : générer des GIF animés à partir d’images et de prompts.
  • Enhance: un zoom infini créatif avec upscale des photos.
  • Fit Check : un essayage virtuel pour tester des tenues grâce à l’IA.

Prix et disponibilité

Le modèle est accessible dès maintenant via :

  • Google AI Studio, avec un mode « build » pensé pour créer et tester rapidement des applications IA.
  • Vertex AI, destiné aux usages professionnels et aux entreprises.

Côté tarifs, Google reste aligné avec le modèle Flash 2.5 standard : 0,039 dollar par image générée et 30 dollars pour 1 million de tokens de sortie.

Un outil stratégique pour l’IA créative

Avec Gemini 2.5 Flash Image, Google fait un pas de plus vers une IA créative accessible et efficace. En élargissant les formats disponibles et en intégrant des outils d’édition intelligente, l’entreprise propose aux développeurs un modèle capable de rivaliser avec les meilleurs du marché, tout en facilitant la création d’applications interactives, artistiques ou commerciales.

Désormais disponible en production, Gemini 2.5 Flash Image ouvre la voie à une nouvelle génération d’outils créatifs basés sur l’IA, alliant puissance, cohérence et flexibilité.

Lire plus
Intelligence Artificielle

OpenAI et Jony Ive : Des défis techniques majeurs retardent le projet d’appareil IA sans écran

OpenAI et Jony Ive : Des défis techniques majeurs retardent le projet d'appareil IA sans écran

L’ambitieux projet mené conjointement par OpenAI et le célèbre designer d’Apple Jony Ive fait face à des défis techniques majeurs. Selon le Financial Times, les deux partenaires rencontrent des difficultés importantes dans la conception de leur premier appareil d’intelligence artificielle sans écran, prévu pour 2026.

Un appareil « sans écran » pour une nouvelle ère de l’informatique

L’idée derrière ce projet est audacieuse : créer un appareil compact, de la taille d’une paume, capable de comprendre le monde physique et de répondre aux requêtes vocales de son utilisateur.

Plutôt qu’un smartphone ou un ordinateur classique, l’appareil s’appuierait sur la puissance des modèles d’IA conversationnelle d’OpenAI pour offrir une interaction fluide, naturelle et omniprésente.

En mai dernier, OpenAI a officialisé le rachat de io, la start-up fondée par Jony Ive et Sam Altman, pour un montant de 6,5 milliards de dollars. À cette occasion, Altman avait annoncé vouloir créer avec Ive une « nouvelle génération d’ordinateurs alimentés par l’IA », marquant une rupture avec les interfaces visuelles traditionnelles.

Des problèmes techniques encore non résolus

Selon le Financial Times, plusieurs obstacles retardent actuellement le développement du projet. Le premier défi concerne la « personnalité » de l’appareil : l’équipe cherche à déterminer comment l’IA doit interagir avec son utilisateur. Faut-il qu’elle adopte un ton proactif et « humain », ou qu’elle reste en retrait et minimaliste ?

L’un des prototypes testés repose sur un mode « always on », c’est-à-dire que l’appareil écoute en permanence son environnement pour détecter les besoins de l’utilisateur — sans qu’il soit nécessaire de le solliciter verbalement. Mais, cette approche pose de sérieuses questions de confidentialité, et le groupe peine à définir quand et comment l’appareil doit intervenir sans paraître intrusif ou agaçant.

Confidentialité et infrastructure : deux points de friction

Outre la personnalité de l’assistant, le projet se heurte à deux autres problématiques :

  • La gestion de la vie privée, puisque l’appareil captera des signaux audio et visuels en continu. OpenAI doit trouver un équilibre entre performance et respect de la confidentialité des utilisateurs.
  • L’infrastructure informatique, car le traitement en temps réel de flux audio-visuels exige une puissance de calcul massive et une connexion stable à des serveurs d’IA — un défi logistique et énergétique considérable.

Ces difficultés pourraient repousser la date de lancement initialement prévue pour 2026.

Une vision révolutionnaire, mais encore floue

Pour Sam Altman, ce projet vise à repenser la relation entre l’humain et la machine. L’objectif serait de proposer une interface « invisible », où l’IA s’intègre dans la vie quotidienne sans dépendre d’un écran. Une vision qui rappelle certains concepts déjà explorés par Humane (avec son AI Pin) ou Rabbit R1, mais avec l’expertise du designer iconique d’Apple.

Jony Ive, à l’origine du design de produits légendaires comme l’iMac, l’iPod et l’iPhone, apporte une approche centrée sur la simplicité et l’émotion, que l’on retrouve dans les premières maquettes de l’appareil.

Une ambition colossale, mais semée d’embûches

Le partenariat entre OpenAI et Jony Ive symbolise une nouvelle tentative de redéfinir l’interface homme-machine. Mais, les ambitions « post-écran » du projet se heurtent à des réalités techniques, éthiques et matérielles qui risquent de retarder sa concrétisation.

Si les deux hommes parviennent à surmonter ces obstacles, le résultat pourrait annoncer une rupture aussi marquante que celle de l’iPhone en 2007. Dans le cas contraire, ce projet deviendra peut-être un exemple de plus des rêves d’IA trop ambitieux face aux contraintes du monde réel.

Lire plus
Intelligence Artificielle

L’IA ralentit les développeurs expérimentés ? Une étude révèle un effet inverse

L’IA ralentit les développeurs expérimentés ? Une étude révèle un effet inverse

Alors que les discours autour de l’intelligence artificielle (IA) dans le développement logiciel vantent des gains spectaculaires de productivité, une étude récente publiée par METR (Model Evaluation and Testing for Reliability) remet sérieusement en cause cette idée reçue.

Contrairement à ce que l’on pourrait croire, les développeurs les plus expérimentés seraient en réalité ralentis par les assistants de codage IA, comme GitHub Copilot ou ChatGPT.

IA : Une performance réduite de 19 % pour les développeurs expérimentés

Cette étude contrôlée et randomisée a analysé les performances de développeurs open source chevronnés. Résultat : ceux autorisés à utiliser un assistant IA ont mis en moyenne 19 % plus de temps pour terminer les tâches de programmation, comparé à ceux travaillant sans aide algorithmique.

Le constat est sans appel : dans des environnements complexes et contextuels — typiques du monde réel —, les IA peinent à suivre. Intégrer, corriger et valider les suggestions générées par l’IA ajoute une couche de friction, au lieu d’en supprimer.

Quand l’IA devient une distraction

Contrairement à ce que l’on observe dans des benchmarks simplifiés, les développeurs expérimentés — déjà rodés à l’architecture logicielle et à la synthèse de code — ne tirent pas forcément de bénéfices des propositions de l’IA. Celles-ci peuvent s’avérer trop génériques, imprécises, ou mal contextualisées.

Pour ces profils, l’IA peut même devenir une distraction supplémentaire ou une charge mentale accrue, en exigeant une vérification manuelle constante des extraits de code suggérés.

Des résultats en décalage avec les discours dominants

Cette étude contraste fortement avec les rapports très enthousiastes de l’industrie. Le rapport 2025 de Jellyfish sur le management en ingénierie logicielle affirme que l’IA est déjà largement adoptée, avec des bénéfices tels que l’augmentation de la vélocité des équipes et une amélioration de la qualité du code.

Mais un détail soulève des questions : moins de 20 % des entreprises utilisent réellement des métriques d’ingénierie robustes pour mesurer l’impact de l’IA. Pour la majorité, les décisions sont encore guidées par des perceptions, des retours anecdotiques ou le discours des éditeurs de solutions IA.

L’IA utile surtout pour les tâches répétitives

D’autres enquêtes nuancent encore le tableau : les développeurs utilisent aujourd’hui l’IA surtout pour des tâches ciblées : détection de bugs, refactoring, ou génération de code répétitif. Des domaines où l’automatisation peut réellement libérer du temps et de la concentration.

Mais pour les ingénieurs seniors, souvent focalisés sur des aspects d’architecture, de design système et de prise de décision, ces outils semblent moins pertinents, voire contre-productifs.

Une adoption qui nécessite encadrement et formation continue

L’intégration de l’IA dans les workflows des développeurs ne peut se faire sans réflexion. Le rapport de Jellyfish insiste sur la nécessité de mettre en place des plateformes d’intelligence d’ingénierie logicielle (SEI) pour suivre l’impact réel de l’IA sur la productivité et la santé des équipes.

De leur côté, les experts rappellent l’importance de l’apprentissage continu. Les développeurs doivent aujourd’hui se former aux nouveaux outils IA, mais aussi renforcer leurs compétences analytiques et leur pensée critique — deux domaines où l’IA ne peut (encore) rivaliser.

L’avenir de l’IA dans le développement : prudence et adaptation

L’enseignement principal de cette nouvelle étude est simple : les gains de productivité liés à l’IA ne sont pas universels. Si les développeurs juniors ou intermédiaires peuvent bénéficier d’un véritable effet levier, les profils seniors doivent adopter une posture plus critique face à ces outils.

La promesse de l’IA reste réelle, mais elle doit être mesurée, accompagnée et continuellement réévaluée. L’erreur serait de tout automatiser sans discernement, au risque de perdre en efficacité… ou en qualité.

 

Lire plus
Intelligence Artificielle

Google révèle l’empreinte énergétique de son IA Gemini : 0,24 Wh par requête texte

Google révèle l’empreinte énergétique de son IA Gemini : 0,24 Wh par requête texte

Dans un secteur où les exigences de calcul explosent et où l’impact environnemental de l’intelligence artificielle suscite de plus en plus de débats, Google a pris une initiative inédite : publier des données précises sur la consommation énergétique de son modèle Gemini.

Selon un rapport technique diffusé en août 2025, une requête texte type adressée à Gemini consomme en moyenne 0,24 watt-heure d’électricité — l’équivalent de moins de 9 secondes de télévision.

En termes d’émissions, cela représente 0,03 g de CO₂ et 0,26 ml d’eau, soit environ cinq gouttes.

C’est la première fois qu’un géant du numérique communique des chiffres aussi détaillés sur l’impact énergétique par interaction avec un modèle d’IA.

Gemini : Des gains d’efficacité spectaculaires

Google explique ces résultats par une optimisation majeure de son infrastructure :

  • une réduction de 33 fois de la consommation énergétique par requête en un an,
  • une baisse de 44 fois de l’empreinte carbone,
  • une utilisation accrue d’énergies propres dans ses data centers.

Partha Ranganathan, vice-président chez Google, a insisté sur la « responsabilité environnementale » de l’entreprise, notamment face aux critiques croissantes sur la consommation colossale des IA.

Cependant, ces chiffres ne concernent que les prompts texte en phase d’inférence. Les tâches plus gourmandes, comme la génération d’images ou de vidéos, n’ont pas été prises en compte.

Un impact minime par requête… mais colossal à grande échelle

Individuellement, l’empreinte semble négligeable. Mais ramenée à l’échelle mondiale, l’addition change de dimension :

  • 1 million de requêtes équivaut à 240 kWh consommés,
  • soit 30 kg de CO₂ émis,
  • et 260 litres d’eau utilisés.

Avec environ 47 millions d’utilisateurs de Gemini, ces chiffres cumulés peuvent correspondre à la consommation énergétique d’une petite ville.

Les experts sceptiques face à Google

Si cette transparence est saluée, elle n’échappe pas aux critiques. Certains chercheurs estiment que Google occulte des coûts essentiels, comme l’entraînement des modèles (extrêmement énergivore) ou la fabrication du matériel. Shaolei Ren, professeur associé à l’Université de Californie, parle même d’informations trompeuses, qui minimiseraient les véritables défis de durabilité.

D’autres rappellent que les estimations de Google sont inférieures aux calculs indépendants publiés ces dernières années, soulignant le besoin d’une normalisation de la mesure de l’empreinte carbone de l’IA.

Quelles implications pour l’industrie de l’IA ?

google tpu rack

Cette publication pourrait mettre la pression sur des acteurs comme OpenAI ou Meta, encore très opaques sur la question. En rendant ces données publiques, Google ouvre la voie à une responsabilisation de l’écosystème IA.

Mais pour les experts, de vrais progrès ne pourront venir qu’avec une analyse du cycle de vie complet (entraînement, déploiement, matériel), une intégration accrue des énergies renouvelables, et des solutions innovantes, comme les systèmes de refroidissement avancés pour réduire l’usage de l’eau.

Une transparence bienvenue, mais incomplète

Le rapport de Google marque une étape importante vers plus de clarté sur l’impact écologique de l’IA. Toutefois, limiter l’analyse aux seuls prompts texte d’inférence revient à réduire artificiellement l’empreinte réelle.

La tension reste entière : comment profiter du potentiel de l’IA dans des domaines cruciaux, comme la médecine ou la lutte contre le changement climatique, sans aggraver les problèmes environnementaux ?

Google a ouvert la voie, mais le défi à relever est collectif : instaurer une transparence standardisée et mettre en œuvre des mesures durables pour que l’intelligence artificielle rime aussi avec responsabilité.

Lire plus
Intelligence Artificielle

Anthropic nomme l’ex-CTO de Stripe : Le pari d’un vétéran pour renforcer l’infrastructure derrière Claude

Anthropic nomme l'ex-CTO de Stripe : Le pari d'un vétéran pour renforcer l'infrastructure derrière Claude

L’une des startups d’IA les plus en vue derrière le modèle Claude, Anthropic, vient d’annoncer un changement stratégique à la tête de son pôle technique. Rahul Patil, ancien CTO de Stripe, a officiellement rejoint l’entreprise cette semaine en tant que chief technical officer (CTO).

Il succède à Sam McCandlish, cofondateur d’Anthropic, qui occupera désormais le rôle de chief architect, afin de se concentrer sur la recherche avancée et l’entraînement des grands modèles de langage.

Une réorganisation pour renforcer l’ingénierie d’Anthropic

Ce changement de gouvernance s’accompagne d’une réorganisation interne. Anthropic souhaite rapprocher ses équipes produit et ingénierie de celles en charge de l’infrastructure et de l’inférence.

En tant que CTO, Rahul Patil supervisera les domaines clés : compute, infrastructure, inférence et d’autres tâches d’ingénierie essentielles. De son côté, Sam McCandlish, en tant que chief architect, concentrera ses travaux sur le pré-entraînement et l’entraînement à grande échelle des modèles, prolongeant ainsi ses missions actuelles.

Tous deux rendront compte directement à Daniela Amodei, présidente et cofondatrice d’Anthropic.

Une bataille d’infrastructures avec OpenAI et Meta

Cette décision intervient dans un contexte de concurrence féroce sur l’infrastructure IA. Les géants Meta et OpenAI investissent massivement dans les capacités de calcul. Mark Zuckerberg a par exemple annoncé que Meta prévoyait de dépenser 600 milliards de dollars en infrastructures aux États-Unis d’ici 2028.

De son côté, OpenAI a également signé des contrats colossaux avec Oracle dans le cadre du projet Stargate, représentant des investissements comparables.

La stratégie d’Anthropic est plus discrète, mais la société doit composer avec une pression croissante pour optimiser la rapidité et la consommation énergétique de ses infrastructures, tout en soutenant la demande massive pour ses produits Claude.

Claude sous tension : limites imposées aux utilisateurs intensifs

La popularité de Claude a déjà mis à l’épreuve les ressources de l’entreprise. En juillet, Anthropic a instauré de nouvelles limites d’utilisation pour certains services, notamment Claude Code.

Les utilisateurs intensifs sont désormais limités à :

  • 240 à 480 heures par semaine pour Claude Sonnet,
  • 24 à 40 heures par semaine pour Claude Opus 4,
  • ces quotas variant selon la charge des serveurs.

Cette mesure illustre le défi auquel fait face Anthropic : maintenir un équilibre entre performance, stabilité et accessibilité.

Un vétéran de l’infrastructure aux commandes

Avec plus de 20 ans d’expérience en ingénierie, Rahul Patil arrive avec un solide bagage. Avant Anthropic, il a passé 5 ans chez Stripe, où il a contribué à la croissance de l’infrastructure de paiement mondiale. Il a également été vice-président senior du cloud infrastructure chez Oracle, et occupé des postes techniques chez Amazon et Microsoft.

Dans un communiqué, Daniela Amodei a salué son arrivée : « Rahul apporte une expérience éprouvée dans la construction et le déploiement d’infrastructures stables et fiables, exactement ce dont les entreprises ont besoin. Je suis convaincue que son expertise renforcera la position de Claude comme plateforme d’intelligence de référence pour les entreprises ».

De son côté, Patil a déclaré : « Je suis honoré de rejoindre Anthropic à un moment aussi crucial pour l’IA. Je ne peux imaginer un travail plus important que celui-ci — c’est à la fois une responsabilité et une mission qui me tiennent à cœur ».

Un pari stratégique pour consolider Claude

Avec cette nomination, Anthropic montre clairement son ambition : se doter d’un leadership technique capable de rivaliser avec les géants du secteur, tout en consolidant sa réputation de champion de l’IA responsable.

L’arrivée de Rahul Patil pourrait marquer un tournant stratégique pour la société, qui cherche à renforcer l’infrastructure derrière Claude, son modèle star, et à s’imposer face à OpenAI et Meta dans la course mondiale à l’IA.

 

Lire plus
Intelligence Artificielle

Claude Life : l’assistant IA qui automatise, inspire et booste la créativité

Claude Life : l’assistant IA qui automatise, inspire et booste la créativité

Et si vous pouviez compter sur un assistant intelligent et infatigable, capable non seulement de gérer vos tâches quotidiennes mais aussi de stimuler votre créativité, de trouver de nouvelles opportunités et de simplifier vos décisions ?

C’est exactement ce que propose Claude Life, un système d’assistance personnelle basé sur l’IA, construit sur la base flexible de Claude Code.

Bien plus qu’un simple outil d’automatisation, Claude Life agit comme un copilot de vie : il analyse vos idées brutes, génère des briefings personnalisés, suit vos objectifs et vous libère du temps pour ce qui compte vraiment.

Les fonctionnalités clés de Claude Life

  • Newsletter Researcher : analyse la concurrence, détecte les tendances et génère des drafts dans votre style.
  • Brain Dump Analysis : organise vos idées quotidiennes et en extrait des thèmes créatifs ou business.
  • Daily Brief : un résumé chaque matin des actus tech, IA et entrepreneuriat, enrichi d’insights actionnables.
  • Weekly Dashboard : suivi de vos indicateurs clés (croissance, revenus, objectifs) avec recommandations concrètes.

Comment Claude Life a été conçu ?

Alex, son créateur, a personnalisé Claude Code dans un environnement local (comme Cursor) en développant des slash commands et sous-agents. Résultat : un système capable de gérer aussi bien des check-ins quotidiens que des résumés hebdomadaires ou le suivi de son humeur.

Cette flexibilité illustre la puissance de l’IA : adaptable à vos propres besoins, elle devient un véritable système d’exploitation personnel.

L’IA comme copilote de vie

Claude Life montre comment l’IA peut passer du statut d’outil utilitaire à celui de partenaire stratégique. Automatiser les routines, générer des insights, organiser vos priorités : autant de leviers pour libérer votre temps et booster vos capacités créatives.

Implications plus larges

L’exemple d’Alex prouve que l’IA n’est pas réservée aux grandes entreprises. Un individu équipé des bons outils peut :

  • Automatiser des tâches complexes,
  • Se concentrer sur la stratégie et l’innovation,
  • Créer des produits entrepreneuriaux viables.

C’est ainsi qu’est né Creator Buddy, une autre solution d’Alex, qui analyse et optimise la performance de contenus sur X. Entièrement construit avec Claude Code, cet outil est déjà rentable, confirmant l’impact de l’IA comme levier d’entrepreneuriat individuel.

Claude Life n’est pas qu’un assistant. C’est la démonstration que l’IA, quand elle est personnalisée, peut devenir un copilote pour votre vie. Gain de temps, insights stratégiques, créativité décuplée : les possibilités sont immenses pour qui ose expérimenter.

Lire plus
Intelligence Artificielle

Gemini CLI : l’outil open source qui réinvente le terminal des développeurs

Gemini CLI : l’outil open source qui réinvente le terminal des développeurs

Et si votre interface en ligne de commande ne se limitait plus à exécuter des ordres, mais devenait un véritable copilote de développement ? C’est la promesse de Gemini CLI, un outil gratuit et open source propulsé par le modèle Gemini 2.5 Pro, pensé pour rendre le terminal plus intelligent, plus flexible et surtout mieux adapté aux workflows modernes.

Gemini CLI : Un terminal qui gagne en intelligence

Gemini CLI fonctionne entièrement depuis la ligne de commande, offrant ainsi une alternative légère aux IDE gourmands en ressources. Avec un contexte de 1 million de tokens, il peut gérer des interactions riches et détaillées directement depuis le terminal. Concrètement, cela permet d’obtenir de l’aide contextuelle, de documenter un projet ou même de générer du code en gardant l’intégralité de l’historique en mémoire.

L’un des points forts de Gemini CLI est sa flexibilité. Les développeurs peuvent créer leurs propres commandes via des fichiers TOML, automatiser des tâches répétitives ou adapter le CLI à des projets spécifiques

Le tout est renforcé par un éditeur intégré qui simplifie les réglages et par une gestion multi-dossiers idéale pour les projets complexes.

Gemini CLI sait aussi s’adapter aux besoins ponctuels grâce à son prompt dynamique, capable d’intégrer des fichiers externes ou même la sortie de commandes Bash, ce qui le rend extrêmement malléable dans un workflow quotidien.

Un accès en temps réel et une communauté ouverte

L’outil ne se limite pas à vos fichiers locaux : il offre aussi un accès Internet en temps réel pour rechercher des informations à jour, un atout précieux pour résoudre des problèmes de code ou vérifier une documentation récente.

En tant que projet open source, il mise sur la transparence et la contribution de la communauté, un contraste fort avec les solutions propriétaires. Les développeurs peuvent l’adapter, l’améliorer et partager leurs propres extensions, ce qui enrichit l’écosystème.

Un compromis entre puissance et accessibilité

Même s’il repose sur un modèle plus ancien que les LLM actuels, Gemini CLI compense par sa gratuité et sa générosité en usage : jusqu’à 1 000 requêtes par jour et 60 par minute. Certes, il lui manque certaines avancées des modèles les plus récents, mais il reste une solution fiable et performante pour la majorité des cas d’usage.

Que vous soyez un développeur indépendant jonglant entre plusieurs projets ou membre d’une équipe, Gemini CLI se positionne comme un outil de productivité pragmatique. Sa personnalisation, sa gestion fluide des gros projets et son intégration directe dans le terminal en font un compagnon de choix pour travailler plus vite, plus efficacement, et sans coûts additionnels.

En résumé, Gemini CLI n’essaie pas de briller par la dernière innovation flashy en IA : il mise sur l’efficacité, la flexibilité et la communauté. Et c’est précisément ce qui pourrait en faire un incontournable du quotidien des développeurs.

Lire plus
Intelligence Artificielle

Microsoft dévoile ses modèles d’IA MAI : vers la fin de la dépendance à OpenAI ?

Microsoft dévoile ses modèles d’IA MAI : vers la fin de la dépendance à OpenAI ?

Microsoft vient de dévoiler deux modèles d’intelligence artificielle propriétaires : MAI-Voice-1, dédié à la génération vocale rapide, et MAI-1-preview, un grand modèle de langage destiné aux tâches textuelles.

Cette annonce marque un tournant stratégique majeur, susceptible de redéfinir l’alliance historique du groupe avec OpenAI, dans laquelle il a investi plus de 10 milliards de dollars.

MAI-Voice-1 et MAI-1-preview : les nouveaux moteurs de Microsoft

MAI-Voice-1 est conçu pour la synthèse vocale en temps réel. Il peut générer une minute de parole en moins d’une seconde, idéal pour les assistants virtuels et les applications interactives.

Concernant MAI-1-preview, il s’agit d’un modèle polyvalent centré sur le texte, testé actuellement pour renforcer Copilot, que ce soit dans Windows ou Bing.

Ces projets sont dirigés par Mustafa Suleyman, ancien cofondateur de DeepMind et aujourd’hui patron de l’IA chez Microsoft, qui milite depuis longtemps pour un développement interne plus ambitieux.

Un pivot stratégique pour réduire la dépendance à OpenAI

Bien que Microsoft reste étroitement lié à OpenAI — ses outils comme Copilot reposant sur GPT-5 —, ces nouveaux modèles représentent une assurance stratégique.

Les tensions récentes autour de la transparence technique, de la propriété intellectuelle et du partage des revenus ont poussé Redmond à accélérer ses propres efforts. Selon Ars Technica, Microsoft investit déjà des centaines de millions de dollars pour renforcer l’efficacité de ses modèles et les intégrer nativement à Azure.

Une alliance fragilisée mais encore nécessaire

Le partenariat entre Microsoft et OpenAI, scellé en 2019, a été jusqu’ici bénéfique. En effet, OpenAI profite de la puissance des datacenters Azure, tandis que Microsoft bénéficie des modèles les plus avancés du marché.

Mais les secousses internes chez OpenAI, combinées aux 80 milliards investis par Microsoft dans son infrastructure IA, accentuent la volonté de ce dernier de prendre son destin en main.

Impacts produits et avantages compétitifs

Si ces modèles maison venaient à être déployés à grande échelle, les bénéfices seraient multiples :

  • réduction de la latence et des coûts,
  • une personnalisation accrue des performances pour les entreprises,
  •  un renforcement de l’attrait d’Azure auprès des clients en quête de solutions IA adaptées.

Des médias estiment que l’arrivée de MAI-1-preview dans Copilot pourrait rendre l’assistant de Microsoft plus performant et plus compétitif face à Anthropic, Meta ou Google.

Un avenir hybride : entre collaboration et autonomie

Microsoft ne coupe pas les ponts avec OpenAI mais se construit une voie parallèle. Cette stratégie hybride pourrait devenir un nouveau standard dans l’industrie, alors que d’autres géants comme Google ou Meta développent eux aussi leurs propres modèles pour limiter les dépendances.

À long terme, ce choix pourrait stimuler l’innovation d’OpenAI, intensifier la concurrence mondiale dans l’IA, et donner naissance à un écosystème où partenariats et indépendance cohabitent.

Microsoft trace sa propre voie dans l’IA

Avec MAI-Voice-1 et MAI-1-preview, Microsoft franchit une étape décisive vers l’autonomie technologique. Tout en maintenant son partenariat avec OpenAI, l’entreprise se prépare à un futur où elle pourra s’appuyer sur ses propres modèles pour alimenter ses produits et services.

Ce mouvement, encore expérimental, envoie néanmoins un message clair : Microsoft ne veut plus seulement être un partenaire d’OpenAI, mais un acteur indépendant et incontournable dans l’IA mondiale.

Lire plus
Intelligence Artificielle

Sora 2 : comment obtenir un code d’invitation pour l’app vidéo d’OpenAI

Sora 2 : comment obtenir un code d’invitation pour l’app vidéo d’OpenAI

OpenAI a lancé Sora 2, son nouveau modèle révolutionnaire de génération de vidéos. Problème : l’application mobile Sora est encore en accès limité.

Pour l’instant, elle est réservée aux utilisateurs iOS aux États-Unis et au Canada, et il faut un code d’invitation pour y accéder. Bonne nouvelle toutefois : vous n’avez pas besoin d’un abonnement ChatGPT payant pour essayer l’app.

Comment accéder à Sora 2 sur iPhone ?

  1. Téléchargez l’app Sora depuis l’App Store.
  2. Connectez-vous avec votre compte ChatGPT, Apple ou Google.
  3. À l’écran qui demande un code d’invitation, touchez « Notify me when access opens » et autorisez les notifications.
  4. OpenAI enverra un code alphanumérique à 6 caractères dès que votre accès est activé.
  5. Entrez ce code dans l’app pour débloquer Sora.

Ce qu’il faut savoir

  • OpenAI a confirmé sur X que le déploiement sera rapidement élargi à d’autres pays.
  • Les abonnés ChatGPT Pro peuvent déjà tester la version Sora 2 Pro depuis un navigateur sur sora.chatgpt.com.
  • La fonctionnalité la plus populaire est Cameo, qui permet de générer des vidéos courtes et personnalisées à partager sur les réseaux.

En résumé, l’accès à Sora 2 reste pour l’instant exclusif, mais les invitations se multiplient. Installez l’app, activez les notifications, et vous serez parmi les premiers à tester cette IA vidéo qui fait déjà beaucoup parler d’elle.

Lire plus
Intelligence Artificielle

Microsoft rend Copilot plus humain : L’IA aura bientôt un visage animé pour vous parler

Microsoft rend Copilot plus humain : L'IA aura bientôt un visage animé pour vous parler

Microsoft veut rendre son assistant IA plus humain. La firme déploie Portraits, une nouvelle expérimentation disponible via Copilot Labs aux États-Unis, au Royaume-Uni et au Canada.

L’idée : ajouter un visage animé à Copilot pour accompagner les conversations vocales en temps réel.

40 avatars stylisés au choix

Les utilisateurs peuvent choisir parmi 40 portraits générés par IA, chacun synchronisé avec une voix et des expressions faciales naturelles. Sourires, hochements de tête, mouvements de lèvres : tout est animé grâce à VASA-1, une technologie mise au point par Microsoft Research qui transforme une simple image en vidéo expressive, sans modélisation 3D complexe.

Contrairement aux « Copilot Appearances » annoncés cet été (basés sur des blobs cartoon), Portraits adopte une approche plus humaine et stylisée, mais volontairement pas photoréaliste pour éviter toute confusion avec de vraies personnes.

Un assistant plus naturel à l’oral

Selon Mustafa Suleyman, patron de Microsoft AI, Portraits répond à une demande des utilisateurs : « beaucoup se sentent plus à l’aise de parler à un visage qu’à une simple voix ». Avec ce système, Copilot devient plus engageant et plus proche d’une interaction humaine classique.

Screenshot 2025 09 30 at 12.51.5

Sécurité et limites d’usage

  • Portraits est réservé à un nombre limité d’utilisateurs de plus de 18 ans.
  • Des limites quotidiennes et par session sont appliquées.
  • Des indicateurs clairs rappellent qu’il s’agit d’une IA.

Cette prudence contraste avec certains concurrents : X a par exemple lancé des avatars 3D pour son chatbot Grok, allant jusqu’à proposer une « petite amie virtuelle » en mode NSFW.

Pour l’instant, Microsoft teste la réception de Portraits avant d’envisager un déploiement plus large. L’objectif est clair : transformer Copilot en compagnon visuel et vocal plus agréable, tout en gardant la maîtrise sur les dérives potentielles.

Avec Portraits, Microsoft tente un équilibre entre humanisation et sécurité. Suffisant pour rendre Copilot plus séduisant que les assistants concurrents ?

Lire plus
Intelligence Artificielle

OpenAI s’allie à Samsung et SK Hynix pour alimenter son projet Stargate

OpenAI s’allie à Samsung et SK Hynix pour alimenter son projet Stargate

OpenAI vient de franchir une nouvelle étape dans sa course à la puissance de calcul. L’entreprise américaine annonce des partenariats stratégiques avec Samsung et SK Hynix afin de sécuriser l’approvisionnement en puces mémoire pour son gigantesque projet Stargate.

Cette collaboration vise à accélérer le développement d’infrastructures mondiales de centres de données d’IA et à co-développer les technologies futures.

Samsung Electronics agira en tant que partenaire mémoire stratégique pour l’initiative mondiale « Stargate » d’OpenAI. Selon OpenAI, ses modèles d’IA de nouvelle génération exigeront jusqu’à 900 000 wafers DRAM par mois, un volume que les deux géants sud-coréens s’engagent à produire à grande échelle. Ces mémoires seront cruciales pour soutenir l’entraînement et l’exécution de modèles de plus en plus gourmands. Samsung Electronics s’appuiera également sur ses compétences complètes en matière de logique, de services de fonderie et de packaging de puces avancées pour fournir des solutions uniques à OpenAI.

Au-delà des puces, OpenAI discute aussi avec Samsung et SK Hynix de l’ouverture de deux centres de données dédiés à l’IA sur le sol coréen.

Samsung a même évoqué une piste inédite : des data centers flottants, censés réduire à la fois les coûts et l’empreinte carbone.

Une stratégie globale de financement et de puissance

Ces accords s’inscrivent dans une dynamique plus large. Le mois dernier, Nvidia a annoncé un investissement pouvant atteindre 100 milliards de dollars dans OpenAI, confirmant l’ampleur du défi technologique et financier derrière Stargate.

Avec ce double soutien — financier côté Nvidia et industriel côté Samsung/SK Hynix — OpenAI se dote des armes nécessaires pour faire tourner ses futures IA à une échelle sans précédent.

Dans le cadre de cet accord, Samsung SDS peut également fournir des services de conseil et de gestion aux entreprises intégrant les modèles OpenAI. De plus, Samsung SDS a signé un partenariat de revendeur pour proposer les services ChatGPT Enterprise d’OpenAI aux entreprises locales en Corée du Sud.

Objectifs généraux et projets futurs

Ce partenariat s’inscrit dans la stratégie globale de Samsung visant à soutenir l’objectif national de la Corée du Sud de figurer parmi les trois premières nations mondiales en intelligence artificielle. En interne, Samsung étudie également une adoption plus large de ChatGPT pour favoriser la transformation de l’IA au sein de son propre lieu de travail.

Lire plus
Intelligence Artificielle

DeepSeek-V3.2-Exp : L’IA chinoise qui divise le coût par deux grâce à l’attention éparse

DeepSeek-V3.2-Exp : L'IA chinoise qui divise le coût par deux grâce à l'attention éparse

Dans la course effrénée à l’intelligence artificielle, la startup chinoise basée à Hangzhou, DeepSeek, fait une percée remarquée avec le lancement de DeepSeek-V3.2-Exp, un nouveau modèle de langage expérimental intégrant une technologie encore peu exploitée : l’attention éparse (sparse attention).

DeepSeek-V3.2-Exp : Une IA plus intelligente… et surtout plus économe

Le concept d’attention éparse permet au modèle de concentrer ses ressources de calcul uniquement sur certaines parties pertinentes d’un long texte, plutôt que de traiter chaque mot dans toutes les combinaisons possibles. Résultat : des performances comparables aux meilleurs modèles actuels… mais avec un coût d’inférence divisé par deux, notamment pour les cas d’usage longs comme l’analyse documentaire ou les conversations multi-tours.

Selon TechCrunch, ce nouveau paradigme d’attention permettrait de réduire les coûts API à moins de 3 centimes par million de tokens, contre 6 à 10 centimes en moyenne avec les modèles traditionnels.

Des performances solides… avec quelques compromis

v3 2 cost compare en

D’après les benchmarks relayés par VentureBeat, DeepSeek-V3.2-Exp surpasse son prédécesseur V3.1-Terminus dans plusieurs domaines :

  • Score Codeforces (programmation) : 2121 (vs 2046)
  • BrowseComp (navigation et recherche) : 40.1 (vs 38.5)

Cependant, certains tests plus axés sur le raisonnement montrent une légère baisse :

  • GPQA-Diamond : 79.9 (vs 80.7)

v3 2 benchmark

Une preuve que l’adoption de l’attention éparse implique des choix d’optimisation ciblés, visant à maximiser l’efficacité sans sacrifier les performances essentielles.

Une approche open source pour accélérer l’adoption

Fidèle à sa philosophie d’ouverture, DeepSeek a publié ce nouveau modèle sur Hugging Face, permettant à la communauté mondiale de l’expérimenter, de le tester et de l’intégrer à divers projets. Un geste stratégique pour favoriser l’adoption dans les environnements à budget limité, comme les PME ou les laboratoires de recherche universitaires.

Vers une IA plus accessible ?

DeepSeek affirme que DeepSeek-V3.2-Exp peut gérer jusqu’à 160 000 tokens de contexte via les serveurs Huawei Cloud. Dans des secteurs comme la finance, la santé ou le juridique, où les documents longs sont la norme, ce modèle pourrait permettre une démocratisation réelle de l’IA générative.

Un rapport de Reuters suggère d’ailleurs que cette version expérimentale n’est qu’une étape intermédiaire vers une nouvelle architecture encore plus ambitieuse.

Les limites d’un modèle expérimental

Malgré ses atouts, tout n’est pas parfait. Comme le souligne WinBuzzer, DeepSeek-V3.2-Exp reste un prototype. Sa scalabilité en environnement de production n’a pas encore été prouvée à grande échelle. L’accès mondial est également limité, l’essentiel de l’infrastructure étant pour l’instant basé en Chine.

Avec cette avancée, DeepSeek met une pression bienvenue sur les géants du secteur, de Meta à OpenAI, en rappelant que l’efficacité énergétique et financière est tout aussi importante que la puissance brute. Si l’attention éparse tient ses promesses, elle pourrait bien devenir un nouveau standard de l’IA générative.

En résumé, DeepSeek-V3.2-Exp est plus qu’un simple modèle expérimental. C’est un signal fort : l’ère des IA ultra-coûteuses pourrait toucher à sa fin. Et la Chine, avec son approche open source et ses optimisations pragmatiques, entend bien jouer les trouble-fête dans le paysage mondial de l’intelligence artificielle.

Lire plus
Intelligence Artificielle

De Sunshine à Dazzle : Le nouveau pari de Marissa Mayer est-il l’infrastructure IA du futur ?

De Sunshine à Dazzle : Le nouveau pari de Marissa Mayer est-il l'infrastructure IA du futur ?

C’est la fin d’un chapitre pour Sunshine, la startup de logiciels grand public cofondée par Marissa Mayer. Sept ans après son lancement, l’ancienne patronne de Yahoo tourne la page et transfère les actifs de l’entreprise à une nouvelle structure baptisée Dazzle, dédiée à l’intelligence artificielle.

Sunshine: une ambition, des obstacles, puis une transition

Fondée en 2018 sous le nom Lumi Labs, Sunshine promettait de simplifier la gestion des contacts et d’automatiser les tâches quotidiennes. Malgré l’aura de Mayer — ancienne ingénieure chez Google et figure incontournable de la Silicon Valley — l’entreprise n’a jamais réellement trouvé son public.

Manque d’adoption, repositionnements produits, marché saturé… Sunshine a connu un parcours qualifié de « chaotique » par plusieurs observateurs du secteur.

De Sunshine à Dazzle : une vente validée par les actionnaires

D’après TechCrunch, le transfert des actifs vers Dazzle est soumis à l’approbation des investisseurs… mais celle-ci serait déjà acquise à 99 %. Parmi les parties prenantes : des fonds de capital-risque renommés, le cofondateur Enrique Muñoz Torres, et bien sûr Marissa Mayer, actionnaire majoritaire.

Dans un e-mail adressé aux actionnaires, Mayer affirme que cette décision est « la meilleure voie à suivre » pour capitaliser sur les acquis de Sunshine.

Dazzle: un nouveau départ dans l’intelligence artificielle

Dazzle, récemment incorporée par Mayer, pourrait se concentrer sur des applications IA plus avancées, destinées aux consommateurs ou aux entreprises. Elle devrait notamment tirer parti des algorithmes de gestion de contacts développés par Sunshine, mais avec une vision plus ambitieuse et tournée vers le futur.

Ce virage illustre bien la tendance actuelle : face aux difficultés du marché des startups IA — burn rates élevés, concurrence féroce — les repositionnements stratégiques deviennent la norme.

Un reflet des réalités du secteur tech

Sunshine rejoint la liste grandissante des startups prometteuses ayant peiné à décoller malgré un solide pedigree. Mayer, qui avait quitté Yahoo après avoir supervisé sa vente à Verizon en 2017, ambitionnait avec Sunshine de repenser les interactions numériques du quotidien (partage de photos, gestion d’événements…).

Mais en sept ans, le contexte a changé : la bulle IA est montée en flèche, et la marge de manœuvre pour les nouveaux entrants s’est considérablement réduite.

Quid des investisseurs ?

Les détails financiers de la transaction n’ont pas été révélés, mais cette vente permettrait de préserver la valeur des actifs accumulés par Sunshine, notamment les technologies IA développées en interne. Un choix stratégique qui évite une dissolution pure et simple, et qui pourrait donner un second souffle à ces innovations via Dazzle.

Sur les réseaux sociaux, les réactions sont partagées : certains saluent la résilience de Mayer, d’autres y voient une nouvelle illustration des pivots en série auxquels elle nous a habitués. Mais pour beaucoup, ce repositionnement montre une approche lucide de l’entrepreneuriat : savoir mettre fin à un projet quand il le faut, pour mieux rebondir ailleurs.

Leçon de persévérance ou fuite en avant ?

La fermeture de Sunshine et la naissance de Dazzle rappellent une règle immuable du monde tech : évoluer ou disparaître. Pour Marissa Mayer, cette manœuvre pourrait bien marquer un retour stratégique dans la course à l’IA, un secteur où elle espère, cette fois, transformer ses ambitions en succès durable.

Lire plus
Intelligence Artificielle

ChatGPT devient une boutique : OpenAI lance l’achat direct avec Stripe et le protocole Agentic Commerce

ChatGPT devient une boutique : OpenAI lance l’achat direct avec Stripe et le protocole Agentic Commerce

OpenAI vient de franchir une nouvelle étape dans l’intégration de l’IA au e-commerce : ChatGPT permet désormais d’acheter des produits directement depuis la conversation, grâce à une fonctionnalité baptisée Instant Checkout.

Cette nouveauté s’appuie sur un protocole open source, Agentic Commerce Protocol, co-développé avec Stripe et des partenaires marchands.

De la découverte au paiement en quelques clics

Chaque semaine, plus de 700 millions d’utilisateurs utilisent ChatGPT pour trouver des produits, selon OpenAI. Jusqu’à présent, le chatbot les aidait à affiner leurs recherches. Désormais, il peut aussi finaliser l’achat, sans quitter la conversation.

Concrètement, si vous demandez « les meilleures baskets à moins de 100 euros » ou « des idées de cadeaux pour les amateurs de céramique », ChatGPT affichera des suggestions issues du web, non sponsorisées et triées par pertinence. Si un produit est compatible avec Instant Checkout, vous verrez un bouton « Acheter ».

L’utilisateur peut alors vérifier les détails de sa commande (prix, livraison, paiement), et valider l’achat sans quitter la fenêtre de discussion.

Le tout est sécurisé, rapide et fluide, avec paiement via Stripe et sans frais supplémentaires pour l’utilisateur.

Un protocole ouvert pour les commerçants

Le Agentic Commerce Protocol est open source. Il permet aux développeurs et marchands d’intégrer facilement l’achat direct dans ChatGPT, sans modifier leur système de paiement ou logistique.

Les options d’intégration :

  • Un simple ajout de ligne de code pour les marchands utilisant Stripe.
  • API partagée ou protocole délégué pour ceux utilisant d’autres prestataires.

Les commerçants gardent le contrôle total sur le paiement, l’envoi et la relation client. ChatGPT agit simplement comme intermédiaire intelligent, transmettant uniquement les données nécessaires à la transaction.

Un système pensé pour la confiance

OpenAI insiste sur la sécurité et la transparence :

  • Chaque action doit être validée par l’utilisateur.
  • Les paiements sont chiffrés et autorisés uniquement pour un montant et un marchand spécifique.
  • Les données partagées sont limitées au strict nécessaire.

Déploiement progressif… mais ambitieux

Dès aujourd’hui, tous les utilisateurs ChatGPT (Free, Plus et Pro) aux États-Unis peuvent acheter directement auprès de vendeurs Etsy, et l’achat concerne pour l’instant un seul article à la fois.

Prochainement, OpenAI envisage une intégration de Shopify avec plus d’un million de marchands (dont Glossier, SKIMS, Spanx et Vuori), un support des paniers multi-produits. et une extension à d’autres pays à venir.

Les marchands intéressés peuvent postuler via le site officiel d’OpenAI.

L’IA devient acteur du commerce

Avec cette initiative, OpenAI amorce une nouvelle ère : celle du commerce agentique, où l’IA ne se contente plus de conseiller, mais facilite directement l’achat. Une évolution majeure qui pourrait transformer la manière dont nous faisons nos achats en ligne.

Reste à voir si les utilisateurs adopteront ce nouveau réflexe, et si l’écosystème marchand saura s’aligner sur ce virage IA-first. Mais une chose est sûre : ChatGPT n’est plus juste un assistant, c’est aussi un point de vente.

Lire plus
Intelligence Artificielle

Sora 2 : OpenAI prépare une appli vidéo façon TikTok… 100 % générée par l’IA

Sora 2 : OpenAI prépare une appli vidéo façon TikTok… 100 % générée par l’IA

OpenAI ne compte pas s’arrêter à ChatGPT. Selon des documents consultés par Wired, l’entreprise travaille actuellement sur Sora 2, une nouvelle application dédiée à la génération de vidéos par intelligence artificielle. Il s’agirait d’une réelle évolution par rapport à Sora.

Avec une interface inspirée de TikTok — fil vertical, scroll infini, vidéos courtes et recommandations personnalisées — l’app pourrait bien bousculer le monde de la création vidéo.

Sora 2: Un TikTok de l’IA, sans aucune vidéo humaine

Contrairement à TikTok ou Instagram Reels, toutes les vidéos de Sora 2 sont créées par intelligence artificielle. Aucune vidéo personnelle ou photo importée : les utilisateurs rédigent un prompt (description textuelle), et l’IA génère une vidéo de 10 secondes maximum.

L’appli permettrait :

  • de liker, commenter ou remixer les vidéos générées,
  • de vérifier son identité pour permettre à l’IA de reproduire son apparence,
  • d’être tagué dans des clips par d’autres utilisateurs (avec notification si votre image est utilisée, même dans un brouillon).

Sécurité, vie privée et vérification d’identité

OpenAI prévoit une modération renforcée :

  • Des filtres anti-copyright pour éviter les contenus illicites,
  • Un système de notification dès qu’une image ou une identité vérifiée est utilisée,
  • Des contrôles parentaux et un système de prédiction d’âge en développement pour limiter les usages aux mineurs.

L’outil d’identité permettrait, selon OpenAI, d’éviter les dérives tout en garantissant le respect du droit à l’image. Une précaution utile, alors que les plaintes pour violation de copyright contre l’entreprise se multiplient, notamment de la part du New York Times.

Sora 2 vs Vibes (Meta) vs Veo 3 (Google)

La bataille de la vidéo générée par IA est lancée :

  • Meta a récemment lancé Vibes, un fil vidéo court dans l’app Meta AI,
  • Google déploie progressivement Veo 3 sur YouTube,
  • TikTok se durcit, interdisant les vidéos IA jugées trompeuses ou dangereuses.

Dans ce contexte, OpenAI pourrait profiter de l’incertitude réglementaire autour de TikTok aux États-Unis pour lancer un concurrent « made in USA » sans lien avec la Chine.

Date de lancement : fin 2025 ?

Sora 2 est actuellement en phase de test interne chez OpenAI. Les premiers retours sont positifs, même si certains managers notent que l’addiction à l’outil pourrait impacter la productivité des employés.

Aucune date officielle n’a été annoncée, mais la sortie pourrait coïncider avec celle de GPT-5, attendue dans les prochains mois. Une synchronisation qui positionnerait OpenAI en rival direct de Google, Meta et TikTok sur le terrain de la vidéo courte générée par IA.

Une nouvelle façon d’interagir avec l’IA

Après avoir révolutionné le texte avec ChatGPT, OpenAI veut désormais réinventer la vidéo. Sora 2 pourrait permettre à n’importe qui — créateur, étudiant, curieux — de générer des contenus courts sans caméra ni montage, simplement avec des mots.

Mais la question reste : l’IA peut-elle vraiment remplacer la créativité humaine dans un format aussi émotionnel que la vidéo ? Réponse probable d’ici la fin de l’année.

Lire plus