fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Spotify s’intègre à ChatGPT : créez vos playlists personnalisées grâce à l’intelligence artificielle

Spotify s’intègre à ChatGPT : créez vos playlists personnalisées grâce à l’intelligence artificielle

Spotify fait officiellement son entrée dans ChatGPT. Le service de streaming musical permet désormais aux utilisateurs de créer des playlists sur mesure, d’obtenir des recommandations de chansons, d’artistes ou de podcasts, et même de recevoir des suggestions personnalisées directement depuis une conversation avec le chatbot d’OpenAI.

Cette nouveauté est disponible pour tous les utilisateurs, qu’ils soient gratuits ou Premium.

Créez vos playlists Spotify depuis ChatGPT

Cette nouvelle fonctionnalité s’inscrit dans le cadre du lancement des intégrations d’applications dans ChatGPT, qui permet désormais d’appeler différents services directement depuis la fenêtre de chat.

Ainsi, vous pouvez par exemple :

  • demander à Spotify de créer une playlist,
  • utiliser Canva pour modifier un visuel,
  • ou encore consulter des annonces immobilières avec Zillow.

L’intégration Spotify est déjà disponible dans 145 pays, sur Android, iOS et la version web de ChatGPT et Spotify.

ChatGPT Prompt 16 9

Comment ça fonctionne ?

C’est très simple : il suffit de mentionner Spotify dans votre requête. La première fois, ChatGPT vous proposera de lier votre compte Spotify pour accéder à vos préférences musicales et affiner ses suggestions — une étape facultative que vous pouvez désactiver à tout moment.

Ensuite, vous pouvez demander à ChatGPT de créer une playlist selon :

  • votre humeur,
  • un genre musical,
  • une situation spécifique (par exemple : « une playlist pour courir sous la pluie »),
  • vos artistes préférés,
  • ou même un podcast avec un invité particulier.

Une fois la playlist générée, il suffit de cliquer une piste pour être redirigé vers l’application Spotify et commencer la lecture.

Exemple : « Spotify, crée-moi une playlist de jazz instrumental pour travailler dans le calme ».

Spotify x ChatGPT infographic FI

Des avantages pour tous les utilisateurs

Spotify précise dans son communiqué officiel que : « Les utilisateurs gratuits pourront accéder aux playlists déjà disponibles dans le catalogue Spotify, comme Discover Weekly ou New Music Friday. Les abonnés Premium, eux, auront droit à des sélections entièrement personnalisées basées sur leurs requêtes et leurs goûts musicaux ».

Cette intégration de Spotify dans ChatGPT peut sembler surprenante, mais elle s’inscrit dans une tendance croissante d’interactions entre IA et culture musicale. De nombreux utilisateurs demandaient déjà à ChatGPT des recommandations de chansons ou d’artistes — cette nouveauté rend l’expérience bien plus fluide et interactive.

Pour les amateurs de musique, c’est une nouvelle façon d’explorer le catalogue Spotify et de découvrir des morceaux adaptés à chaque instant, sans jamais quitter ChatGPT.

Lire plus
Intelligence Artificielle

Grok Imagine v0.9 : L’IA vidéo d’Elon Musk devient gratuite, faut-il craindre la vague de deepfakes sonores ?

Grok Imagine v0.9 : L'IA vidéo d'Elon Musk devient gratuite, faut-il craindre la vague de deepfakes sonores ?

Elon Musk continue de repousser les limites de l’intelligence artificielle avec la dernière mise à jour de son modèle de génération vidéo, Grok Imagine v0.9, développé par sa société xAI.

Présenté comme une alternative ouverte à Sora 2 d’OpenAI, l’outil est désormais accessible gratuitement à tous les utilisateurs de X.

Mais derrière les avancées techniques se profilent de graves préoccupations liées à la désinformation et aux deepfakes, alors que la nouvelle version introduit des fonctions audio permettant de générer des voix personnalisées dans les vidéos.

Grok Imagine : une IA vidéo qui s’ouvre au grand public

La mise à jour apporte plusieurs améliorations notables :

  • un framerate porté à 24 images par seconde (contre 16 auparavant),
  • une qualité visuelle améliorée,
  • et surtout, la possibilité d’ajouter du son et des dialogues générés par IA.

Cette évolution positionne directement Grok Imagine face à Sora 2 d’OpenAI, lancé récemment, mais encore limité à un petit cercle d’utilisateurs.

Musk a annoncé la nouvelle version sur X, soulignant la vitesse accrue du modèle, capable de produire des vidéos en quelques secondes.

Les risques : absence de garde-fous et potentiel de détournement

Si la gratuité de Grok Imagine élargit considérablement son accessibilité, elle s’accompagne d’un manque apparent de filtres de sécurité. Contrairement à d’autres modèles concurrents, comme Gemini ou ChatGPT, l’IA de xAI ne bloque pas systématiquement la création de contenus sensibles ou trompeurs, selon plusieurs témoignages d’utilisateurs relayés sur les réseaux sociaux.

Les spécialistes craignent que cela ne facilite la création de deepfakes réalistes de personnalités publiques ou de célébrités, avec un risque majeur de désinformation, notamment en période électorale.

Des experts en cybersécurité soulignent aussi que l’ajout de voix synthétiques pourrait accentuer ces dérives, rendant difficile la distinction entre vraies et fausses déclarations.

Une philosophie de « liberté totale » contestée

Elon Musk a souvent défendu une vision de l’IA fondée sur la liberté d’expression absolue, estimant que les modèles d’OpenAI ou de Google imposent trop de contraintes morales. Cependant, cette approche « open » suscite de vives critiques, notamment de la part des défenseurs de la vie privée et des chercheurs en IA, qui y voient une porte ouverte à la manipulation et aux abus.

Les autorités de plusieurs pays, dont les États-Unis et l’Union européenne, travaillent déjà sur des régulations visant à encadrer la génération de contenus synthétiques, en imposant par exemple un étiquetage obligatoire des vidéos produites par IA.

Tant que des mesures de transparence et de vérification ne seront pas mises en place, le risque de dérive éthique demeure élevé. Le pari de Musk sur une IA « libre » pourrait bien se transformer en nouvelle bataille sur les frontières entre innovation et responsabilité.

Lire plus
Intelligence Artificielle

Google Gemini 3 pourrait être lancé cette semaine — un rival direct du GPT-5 d’OpenAI

Google Gemini 3 pourrait être lancé cette semaine — un rival direct du GPT-5 d’OpenAI

Le monde de l’intelligence artificielle évolue à une vitesse fulgurante, et Google semble prêt à intensifier sa rivalité avec OpenAI. Selon plusieurs fuites et tests récents, la firme de Mountain View s’apprêterait à dévoiler Gemini 3, la nouvelle version de son modèle d’IA multimodale Gemini — peut-être dès cette semaine.

Des tests A/B observés sur la plateforme Google AI Studio ont mis le feu aux poudres. Ce type de tests, qui consiste à comparer les réponses de différentes versions du modèle, précède généralement une sortie officielle.

Le calendrier coïncide avec l’événement Google AI Live prévu le 9 octobre, au cours duquel les dirigeants de l’entreprise devraient annoncer des avancées majeures dans le domaine de l’IA générative et multimodale.

Nouvelles fonctionnalités attendues : plus rapide, plus intelligente, vraiment multimodale

Bâtie sur la base de Gemini 2.0, la nouvelle génération Gemini 3 devrait introduire plusieurs déclinaisons, notamment Gemini 3 Flash et Gemini 3 Pro, avec des améliorations notables en vitesse et en compréhension contextuelle.

Selon Digital Trends, ces versions permettraient à Gemini 3 d’exceller dans :

  • La génération de code plus précise et plus fiable ;
  • Le traitement multimédia, capable de comprendre et générer du texte, de l’audio et de la vidéo de manière cohérente.

Sur le réseau X (anciennement Twitter), des développeurs ayant testé le modèle évoquent des performances « hallucinantes », notamment dans les tâches complexes mêlant logique, langage et visuel.

Cette version pourrait aussi marquer une étape clé vers un écosystème d’IA intégré à l’ensemble des produits Google — de Workspace à Search, en passant par Android et les objets connectés.

Phases de test : Gemini 3 affiche déjà des performances supérieures

Les données issues des tests A/B rapportées par Testing Catalog montrent que Gemini 3 serait jusqu’à 30 % plus rapide que les versions précédentes sur les tâches de codage et de raisonnement logique.

Google suit ici son schéma de déploiement habituel :

  1. Tests fermés auprès de développeurs sélectionnés ;
  2. Préversions limitées pour ajustements ;
  3. Lancement public une fois la stabilité assurée.

Si l’annonce du 9 octobre se confirme, elle pourrait également inclure des mises à jour majeures pour :

  • Veo 3.1, l’outil de génération vidéo à partir de texte ;
  • Nano, un nouveau modèle allégé conçu pour les appareils mobiles.

En combinant ces produits, Google renforcerait sa position dans la course à l’IA multimodale, face à OpenAI, Anthropic et Meta.

Concurrence directe avec OpenAI et son GPT-5

Le lancement de Gemini 3 intervient alors que OpenAI a lancé GPT-5, annoncé comme une avancée majeure en raisonnement, mémoire et création de contenu.

Mais Google dispose d’un atout de taille : son écosystème intégré. Les modèles Gemini peuvent être reliés nativement à Gmail, Docs, Search et Android, créant un réseau d’IA omniprésent dans les usages quotidiens.

Les analystes estiment que cette intégration pourrait donner à Google un avantage stratégique : au lieu de rivaliser sur les seules fonctionnalités, Gemini 3 pourrait redéfinir la manière dont l’IA interagit à travers tout l’environnement Google.

Défis et enjeux éthiques

Malgré l’engouement, plusieurs défis persistent. Google a déjà été critiqué pour des hallucinations dans les réponses de ses modèles, des biais dans les jeux de données, et des failles de sécurité dans certaines versions.

Pour convaincre, Gemini 3 devra donc prouver sa fiabilité, sa transparence et son respect de la vie privée, notamment dans les usages professionnels et créatifs.

Certains experts soulignent également que, même si Gemini 3 pourrait rivaliser avec Sora (le modèle vidéo d’OpenAI), sa réussite dépendra de la cohérence éthique et du contrôle des données des utilisateurs.

Perspectives : vers la sortie la plus importante de 2025 ?

Si Google parvient à tenir ses promesses, Gemini 3 pourrait devenir le lancement d’IA le plus marquant de 2025.

Pour les développeurs, il s’agirait d’un outil capable de générer du code, du contenu et des médias de façon fluide et naturelle.
Pour le marché, il s’agirait d’un signal fort : Google veut reprendre le leadership de l’intelligence artificielle et fixer de nouveaux standards d’innovation.

Tous les regards se tournent donc vers le 9 octobre. Si les rumeurs se confirment, Gemini 3 pourrait bien redéfinir la manière dont nous créons, communiquons et collaborons avec l’IA.

Lire plus
Intelligence Artificielle

ChatGPT franchit le cap des 800 millions d’utilisateurs hebdomadaires : OpenAI entre dans une nouvelle ère

ChatGPT franchit le cap des 800 millions d’utilisateurs hebdomadaires : OpenAI entre dans une nouvelle ère

Lors de la conférence Dev Day 2025, le PDG d’OpenAI, Sam Altman, a annoncé que ChatGPT avait désormais atteint 800 millions d’utilisateurs actifs par semaine. Ce chiffre impressionnant marque une adoption massive du chatbot à travers le monde — par les consommateurs, les développeurs, les entreprises, et même les gouvernements.

« Aujourd’hui, plus de 4 millions de développeurs construisent avec OpenAI, et nous traitons plus de 6 milliards de tokens par minute sur notre API », a déclaré Altman. « Grâce à vous, l’IA est passée d’un simple outil expérimental à une technologie que les gens utilisent chaque jour pour créer », poursuit-il.

ChatGPT : Une croissance fulgurante

Lancé en novembre 2022, ChatGPT a connu une expansion sans précédent. En mars 2025, il comptait 500 millions d’utilisateurs hebdomadaires, puis 700 millions en août — et maintenant 800 millions, selon Altman.

Cette croissance spectaculaire s’explique par :

  • l’intégration de nouvelles fonctionnalités, comme la génération d’images et de vidéos,
  • La compatibilité avec les applications externes (comme Canva, Zillow ou Coursera),
  • et une adoption accélérée par les entreprises et les développeurs à travers le monde.

Avec une telle dynamique, ChatGPT est désormais considéré comme l’une des applications grand public à la croissance la plus rapide de l’histoire, rivalisant avec les plus grands réseaux sociaux.

Une plateforme devenue indispensable

Selon TechCrunch, ChatGPT n’est plus seulement un chatbot : c’est un outil de productivité universel. Des millions d’utilisateurs s’en servent pour :

  • rédiger des e-mails,
  • générer du code,
  • concevoir des présentations,
  • ou encore créer du contenu multimédia.

Les entreprises exploitent ChatGPT pour automatiser leurs processus, et plus de 4 millions de développeurs ont déjà intégré les API d’OpenAI dans leurs produits.

Des données publiées par Forbes suggèrent que ChatGPT pourrait franchir la barre du milliard d’utilisateurs dans les prochains mois. Altman lui-même aurait confié lors du TED 2025 que la base d’utilisateurs pourrait « doubler en quelques semaines ».

Des défis techniques et éthiques à relever

Cette montée en puissance s’accompagne de défis considérables. OpenAI doit désormais :

  • maintenir une infrastructure colossale capable de traiter des milliards de requêtes par jour,
  • investir massivement dans des puces d’IA et des datacenters — un enjeu évalué à plusieurs trillions de dollars,
  • et répondre aux préoccupations liées à l’éthique et à la sécurité des utilisateurs.

Certains experts soulignent aussi les risques de biais, d’hallucinations de l’IA, ou encore de dépendance émotionnelle chez certains utilisateurs.

Malgré cela, l’influence de ChatGPT sur les modes de communication et de création est indéniable. Selon plusieurs analyses sur X, le chatbot traiterait désormais plus de deux milliards de requêtes par jour, devenant un outil central du quotidien numérique.

L’impact sur l’écosystème de l’IA

Ce succès massif fait de ChatGPT un pilier du paysage technologique mondial, comparable à l’arrivée d’Internet ou des smartphones.

  • Les revenus d’OpenAI auraient doublé pour atteindre 12 milliards de dollars par an, selon Demand Sage.
  • Ces ressources permettent d’accélérer le développement de GPT-5, le futur modèle phare qui promet une intelligence plus avancée et plus raisonnée.
  • Les gouvernements, de leur côté, multiplient les initiatives de régulation et d’encadrement de l’IA, afin d’en garantir un usage responsable.

Altman a d’ailleurs insisté sur la nécessité d’une adoption maîtrisée : « Nous voulons que l’IA soit un outil de progrès, pas une source de déséquilibre ».

Et après ? Vers le milliard d’utilisateurs

Avec un tel rythme de croissance, la barre du milliard d’utilisateurs actifs hebdomadaires semble désormais atteignable. Sam Altman envisage un futur où les conversations homme-machine dépasseront les conversations humaines, tant l’IA s’intègre dans la vie quotidienne.

Mais, cette expansion devra s’accompagner d’un cadre éthique solide, d’une sobriété énergétique accrue, et d’une transparence totale sur la manière dont les modèles sont entraînés et utilisés.

Quoi qu’il en soit, ChatGPT s’impose comme l’outil le plus influent de la décennie, redéfinissant la créativité, la productivité et la manière même dont nous interagissons avec la technologie.

Lire plus
Intelligence Artificielle

OpenAI intègre des applications directement dans ChatGPT : une nouvelle ère pour l’IA interactive

OpenAI vient de franchir une étape majeure avec l’intégration d’applications interactives directement à l’intérieur de ChatGPT.

Annoncée lors de la conférence annuelle DevDay 2025, cette nouveauté transforme ChatGPT en une véritable plateforme d’applications conversationnelles, où les utilisateurs peuvent collaborer avec des services tiers sans jamais quitter la fenêtre du chatbot.

Une nouvelle façon d’interagir avec les applications

Concrètement, vous pouvez désormais « appeler » une application depuis une conversation ChatGPT pour exécuter une tâche précise. Par exemple, vous pouvez demander :

  • « Canva, crée un poster pour ma société de promenade canine. »
  • “Zillow, montre-moi des appartements à vendre à Pittsburgh.”

ChatGPT se charge ensuite d’interagir avec l’application, affiche les résultats directement dans la conversation et reste disponible pour vous aider à affiner vos demandes.

Dans la démonstration présentée par OpenAI, l’assistant a même généré une présentation PowerPoint complète à partir d’un visuel Canva créé en direct.

Les premières applications disponibles

Dès aujourd’hui, plusieurs grands noms sont déjà intégrés dans ChatGPT :

  • Booking.com, Expedia, et Zillow pour la recherche de voyages et d’hébergements ;
  • Canva et Figma pour la création graphique ;
  • Coursera pour l’apprentissage en ligne ;
  • Spotify pour la musique.

G2mB tZbIAELu8G scaled

OpenAI a précisé que d’autres partenaires comme DoorDash, OpenTable, Target ou Uber arriveront dans les semaines à venir.

En parallèle, les développeurs peuvent dès maintenant accéder à la version preview du SDK Apps, leur permettant de créer leurs propres applications compatibles avec ChatGPT.

Une marketplace officielle d’applications sera ouverte plus tard dans l’année, accompagnée d’un système de monétisation intégré.

Une nouvelle expérience « tout-en-un »

L’objectif de Sam Altman, PDG d’OpenAI, est clair : « Nous voulons que ChatGPT devienne un véritable assistant universel, capable d’aider les gens à être plus productifs, plus créatifs et à apprendre plus vite ».

Cette évolution rapproche ChatGPT d’un écosystème d’applications unifié, où chaque utilisateur pourra lancer une action ou un service sans jamais quitter la conversation.

Contrairement au GPT Store, qui nécessitait d’accéder à une boutique séparée, les applications s’affichent désormais directement dans la réponse du chatbot, avec une interface interactive intégrée.

ChatGPT peut aussi suggérer automatiquement des applications pertinentes :

  • Demandez une playlist pour votre soirée, et Spotify s’ouvrira automatiquement.
  • Demandez un itinéraire, et Uber pourrait être appelé en fond pour estimer un trajet.

Confidentialité et sécurité des données

L’un des points les plus sensibles concerne la protection des données utilisateurs. OpenAI affirme que chaque développeur devra se limiter à la collecte du strict minimum et expliquer clairement quelles données sont utilisées. Cependant, la société n’a pas encore précisé si les développeurs auront accès à l’intégralité de la conversation ou seulement au prompt ayant déclenché l’application.

Les utilisateurs pourront se connecter à leurs comptes existants (par exemple Spotify ou Canva) pour accéder à des fonctions premium ou synchroniser leurs données, mais les autorisations seront gérées individuellement.

OpenAI prévoit également de permettre la monétisation directe des apps ChatGPT via son nouveau système Instant Checkout, déjà en test. Cela ouvrira la voie à des applications payantes ou à des services premium, directement disponibles dans ChatGPT.

Pour les développeurs, c’est une opportunité majeure : le chatbot devient un canal de distribution mondial avec des millions d’utilisateurs actifs chaque jour.

Une avancée majeure pour l’écosystème ChatGPT

Grâce à cette intégration, ChatGPT n’est plus seulement un assistant conversationnel, mais un véritable hub d’applications interactives et intelligentes. L’utilisateur peut désormais créer, apprendre, réserver, acheter, écouter, ou même concevoir des visuels — tout cela dans un même espace, simplement en dialoguant avec l’IA.

Cette évolution fait entrer ChatGPT dans une nouvelle dimension, celle du « navigateur universel intelligent », où la frontière entre application et conversation s’efface peu à peu.

Lire plus
Intelligence Artificielle

Gemini 2.5 Flash Image : Google ouvre l’ère de l’édition et de la génération vidéo parfaite par l’IA

Gemini 2.5 Flash Image : Google ouvre l'ère de l'édition et de la génération vidéo parfaite par l'IA

Google vient d’annoncer la disponibilité générale de Gemini 2.5 Flash Image pour un usage en production. Cette mise à jour apporte aux développeurs de nouvelles possibilités en matière de génération et d’édition d’images assistées par l’IA, avec davantage de formats, d’outils créatifs et de cas d’usage concrets.

Gemini 2.5 Flash Image : De nouveaux formats et une flexibilité inédite

La grande nouveauté de Gemini 2.5 Flash Image réside dans la prise en charge de 10 formats d’image différents, couvrant aussi bien les besoins cinématographiques que ceux des réseaux sociaux.

Les rapports d’aspect désormais disponibles sont :

  • Paysage : 21:9, 16:9, 4:3, 3:2
  • Carré : 1:1
  • Portrait : 9:16, 3:4, 2:3
  • Flexibles : 5:4, 4:5

En plus, les développeurs peuvent désormais générer des images seules, sans texte ni légende, ce qui ouvre la voie à une utilisation plus directe dans des projets multimédias ou marketing.

Des fonctionnalités avancées pour les créateurs

Gemini 2.5 Flash Image ne se contente pas de produire des visuels : il apporte une véritable couche d’intelligence créative. Parmi les fonctions mises en avant par Google :

  • Fusion d’images pour combiner plusieurs sources visuelles de manière fluide.
  • Cohérence des personnages, permettant de conserver les mêmes traits dans différentes scènes, idéal pour le storytelling visuel.
  • Éditions ciblées en langage naturel, par exemple : « change la couleur de la veste en rouge » ou « ajoute un coucher de soleil en arrière-plan ».
  • Exploitation des connaissances du monde pour générer des images précises et réalistes.

Cas d’usage concrets pour les développeurs

Plusieurs entreprises explorent déjà le potentiel de Gemini 2.5 Flash Image :

  • Cartwheel combine le modèle avec son outil de 3D posing, garantissant un contrôle précis des personnages et une continuité narrative dans la création de scènes.
  • Volley, créateur du jeu Wit’s End, l’utilise pour générer et éditer des portraits de personnages, des scènes dynamiques et des compositions multi-personnages, le tout en temps réel à partir d’entrées textuelles ou vocales.

Par ailleurs, Google met en avant des applications expérimentales comme :

  • Bananimate : générer des GIF animés à partir d’images et de prompts.
  • Enhance: un zoom infini créatif avec upscale des photos.
  • Fit Check : un essayage virtuel pour tester des tenues grâce à l’IA.

Prix et disponibilité

Le modèle est accessible dès maintenant via :

  • Google AI Studio, avec un mode « build » pensé pour créer et tester rapidement des applications IA.
  • Vertex AI, destiné aux usages professionnels et aux entreprises.

Côté tarifs, Google reste aligné avec le modèle Flash 2.5 standard : 0,039 dollar par image générée et 30 dollars pour 1 million de tokens de sortie.

Un outil stratégique pour l’IA créative

Avec Gemini 2.5 Flash Image, Google fait un pas de plus vers une IA créative accessible et efficace. En élargissant les formats disponibles et en intégrant des outils d’édition intelligente, l’entreprise propose aux développeurs un modèle capable de rivaliser avec les meilleurs du marché, tout en facilitant la création d’applications interactives, artistiques ou commerciales.

Désormais disponible en production, Gemini 2.5 Flash Image ouvre la voie à une nouvelle génération d’outils créatifs basés sur l’IA, alliant puissance, cohérence et flexibilité.

Lire plus
Intelligence Artificielle

OpenAI et Jony Ive : Des défis techniques majeurs retardent le projet d’appareil IA sans écran

OpenAI et Jony Ive : Des défis techniques majeurs retardent le projet d'appareil IA sans écran

L’ambitieux projet mené conjointement par OpenAI et le célèbre designer d’Apple Jony Ive fait face à des défis techniques majeurs. Selon le Financial Times, les deux partenaires rencontrent des difficultés importantes dans la conception de leur premier appareil d’intelligence artificielle sans écran, prévu pour 2026.

Un appareil « sans écran » pour une nouvelle ère de l’informatique

L’idée derrière ce projet est audacieuse : créer un appareil compact, de la taille d’une paume, capable de comprendre le monde physique et de répondre aux requêtes vocales de son utilisateur.

Plutôt qu’un smartphone ou un ordinateur classique, l’appareil s’appuierait sur la puissance des modèles d’IA conversationnelle d’OpenAI pour offrir une interaction fluide, naturelle et omniprésente.

En mai dernier, OpenAI a officialisé le rachat de io, la start-up fondée par Jony Ive et Sam Altman, pour un montant de 6,5 milliards de dollars. À cette occasion, Altman avait annoncé vouloir créer avec Ive une « nouvelle génération d’ordinateurs alimentés par l’IA », marquant une rupture avec les interfaces visuelles traditionnelles.

Des problèmes techniques encore non résolus

Selon le Financial Times, plusieurs obstacles retardent actuellement le développement du projet. Le premier défi concerne la « personnalité » de l’appareil : l’équipe cherche à déterminer comment l’IA doit interagir avec son utilisateur. Faut-il qu’elle adopte un ton proactif et « humain », ou qu’elle reste en retrait et minimaliste ?

L’un des prototypes testés repose sur un mode « always on », c’est-à-dire que l’appareil écoute en permanence son environnement pour détecter les besoins de l’utilisateur — sans qu’il soit nécessaire de le solliciter verbalement. Mais, cette approche pose de sérieuses questions de confidentialité, et le groupe peine à définir quand et comment l’appareil doit intervenir sans paraître intrusif ou agaçant.

Confidentialité et infrastructure : deux points de friction

Outre la personnalité de l’assistant, le projet se heurte à deux autres problématiques :

  • La gestion de la vie privée, puisque l’appareil captera des signaux audio et visuels en continu. OpenAI doit trouver un équilibre entre performance et respect de la confidentialité des utilisateurs.
  • L’infrastructure informatique, car le traitement en temps réel de flux audio-visuels exige une puissance de calcul massive et une connexion stable à des serveurs d’IA — un défi logistique et énergétique considérable.

Ces difficultés pourraient repousser la date de lancement initialement prévue pour 2026.

Une vision révolutionnaire, mais encore floue

Pour Sam Altman, ce projet vise à repenser la relation entre l’humain et la machine. L’objectif serait de proposer une interface « invisible », où l’IA s’intègre dans la vie quotidienne sans dépendre d’un écran. Une vision qui rappelle certains concepts déjà explorés par Humane (avec son AI Pin) ou Rabbit R1, mais avec l’expertise du designer iconique d’Apple.

Jony Ive, à l’origine du design de produits légendaires comme l’iMac, l’iPod et l’iPhone, apporte une approche centrée sur la simplicité et l’émotion, que l’on retrouve dans les premières maquettes de l’appareil.

Une ambition colossale, mais semée d’embûches

Le partenariat entre OpenAI et Jony Ive symbolise une nouvelle tentative de redéfinir l’interface homme-machine. Mais, les ambitions « post-écran » du projet se heurtent à des réalités techniques, éthiques et matérielles qui risquent de retarder sa concrétisation.

Si les deux hommes parviennent à surmonter ces obstacles, le résultat pourrait annoncer une rupture aussi marquante que celle de l’iPhone en 2007. Dans le cas contraire, ce projet deviendra peut-être un exemple de plus des rêves d’IA trop ambitieux face aux contraintes du monde réel.

Lire plus
Intelligence Artificielle

L’IA ralentit les développeurs expérimentés ? Une étude révèle un effet inverse

L’IA ralentit les développeurs expérimentés ? Une étude révèle un effet inverse

Alors que les discours autour de l’intelligence artificielle (IA) dans le développement logiciel vantent des gains spectaculaires de productivité, une étude récente publiée par METR (Model Evaluation and Testing for Reliability) remet sérieusement en cause cette idée reçue.

Contrairement à ce que l’on pourrait croire, les développeurs les plus expérimentés seraient en réalité ralentis par les assistants de codage IA, comme GitHub Copilot ou ChatGPT.

IA : Une performance réduite de 19 % pour les développeurs expérimentés

Cette étude contrôlée et randomisée a analysé les performances de développeurs open source chevronnés. Résultat : ceux autorisés à utiliser un assistant IA ont mis en moyenne 19 % plus de temps pour terminer les tâches de programmation, comparé à ceux travaillant sans aide algorithmique.

Le constat est sans appel : dans des environnements complexes et contextuels — typiques du monde réel —, les IA peinent à suivre. Intégrer, corriger et valider les suggestions générées par l’IA ajoute une couche de friction, au lieu d’en supprimer.

Quand l’IA devient une distraction

Contrairement à ce que l’on observe dans des benchmarks simplifiés, les développeurs expérimentés — déjà rodés à l’architecture logicielle et à la synthèse de code — ne tirent pas forcément de bénéfices des propositions de l’IA. Celles-ci peuvent s’avérer trop génériques, imprécises, ou mal contextualisées.

Pour ces profils, l’IA peut même devenir une distraction supplémentaire ou une charge mentale accrue, en exigeant une vérification manuelle constante des extraits de code suggérés.

Des résultats en décalage avec les discours dominants

Cette étude contraste fortement avec les rapports très enthousiastes de l’industrie. Le rapport 2025 de Jellyfish sur le management en ingénierie logicielle affirme que l’IA est déjà largement adoptée, avec des bénéfices tels que l’augmentation de la vélocité des équipes et une amélioration de la qualité du code.

Mais un détail soulève des questions : moins de 20 % des entreprises utilisent réellement des métriques d’ingénierie robustes pour mesurer l’impact de l’IA. Pour la majorité, les décisions sont encore guidées par des perceptions, des retours anecdotiques ou le discours des éditeurs de solutions IA.

L’IA utile surtout pour les tâches répétitives

D’autres enquêtes nuancent encore le tableau : les développeurs utilisent aujourd’hui l’IA surtout pour des tâches ciblées : détection de bugs, refactoring, ou génération de code répétitif. Des domaines où l’automatisation peut réellement libérer du temps et de la concentration.

Mais pour les ingénieurs seniors, souvent focalisés sur des aspects d’architecture, de design système et de prise de décision, ces outils semblent moins pertinents, voire contre-productifs.

Une adoption qui nécessite encadrement et formation continue

L’intégration de l’IA dans les workflows des développeurs ne peut se faire sans réflexion. Le rapport de Jellyfish insiste sur la nécessité de mettre en place des plateformes d’intelligence d’ingénierie logicielle (SEI) pour suivre l’impact réel de l’IA sur la productivité et la santé des équipes.

De leur côté, les experts rappellent l’importance de l’apprentissage continu. Les développeurs doivent aujourd’hui se former aux nouveaux outils IA, mais aussi renforcer leurs compétences analytiques et leur pensée critique — deux domaines où l’IA ne peut (encore) rivaliser.

L’avenir de l’IA dans le développement : prudence et adaptation

L’enseignement principal de cette nouvelle étude est simple : les gains de productivité liés à l’IA ne sont pas universels. Si les développeurs juniors ou intermédiaires peuvent bénéficier d’un véritable effet levier, les profils seniors doivent adopter une posture plus critique face à ces outils.

La promesse de l’IA reste réelle, mais elle doit être mesurée, accompagnée et continuellement réévaluée. L’erreur serait de tout automatiser sans discernement, au risque de perdre en efficacité… ou en qualité.

 

Lire plus
Intelligence Artificielle

Google révèle l’empreinte énergétique de son IA Gemini : 0,24 Wh par requête texte

Google révèle l’empreinte énergétique de son IA Gemini : 0,24 Wh par requête texte

Dans un secteur où les exigences de calcul explosent et où l’impact environnemental de l’intelligence artificielle suscite de plus en plus de débats, Google a pris une initiative inédite : publier des données précises sur la consommation énergétique de son modèle Gemini.

Selon un rapport technique diffusé en août 2025, une requête texte type adressée à Gemini consomme en moyenne 0,24 watt-heure d’électricité — l’équivalent de moins de 9 secondes de télévision.

En termes d’émissions, cela représente 0,03 g de CO₂ et 0,26 ml d’eau, soit environ cinq gouttes.

C’est la première fois qu’un géant du numérique communique des chiffres aussi détaillés sur l’impact énergétique par interaction avec un modèle d’IA.

Gemini : Des gains d’efficacité spectaculaires

Google explique ces résultats par une optimisation majeure de son infrastructure :

  • une réduction de 33 fois de la consommation énergétique par requête en un an,
  • une baisse de 44 fois de l’empreinte carbone,
  • une utilisation accrue d’énergies propres dans ses data centers.

Partha Ranganathan, vice-président chez Google, a insisté sur la « responsabilité environnementale » de l’entreprise, notamment face aux critiques croissantes sur la consommation colossale des IA.

Cependant, ces chiffres ne concernent que les prompts texte en phase d’inférence. Les tâches plus gourmandes, comme la génération d’images ou de vidéos, n’ont pas été prises en compte.

Un impact minime par requête… mais colossal à grande échelle

Individuellement, l’empreinte semble négligeable. Mais ramenée à l’échelle mondiale, l’addition change de dimension :

  • 1 million de requêtes équivaut à 240 kWh consommés,
  • soit 30 kg de CO₂ émis,
  • et 260 litres d’eau utilisés.

Avec environ 47 millions d’utilisateurs de Gemini, ces chiffres cumulés peuvent correspondre à la consommation énergétique d’une petite ville.

Les experts sceptiques face à Google

Si cette transparence est saluée, elle n’échappe pas aux critiques. Certains chercheurs estiment que Google occulte des coûts essentiels, comme l’entraînement des modèles (extrêmement énergivore) ou la fabrication du matériel. Shaolei Ren, professeur associé à l’Université de Californie, parle même d’informations trompeuses, qui minimiseraient les véritables défis de durabilité.

D’autres rappellent que les estimations de Google sont inférieures aux calculs indépendants publiés ces dernières années, soulignant le besoin d’une normalisation de la mesure de l’empreinte carbone de l’IA.

Quelles implications pour l’industrie de l’IA ?

google tpu rack

Cette publication pourrait mettre la pression sur des acteurs comme OpenAI ou Meta, encore très opaques sur la question. En rendant ces données publiques, Google ouvre la voie à une responsabilisation de l’écosystème IA.

Mais pour les experts, de vrais progrès ne pourront venir qu’avec une analyse du cycle de vie complet (entraînement, déploiement, matériel), une intégration accrue des énergies renouvelables, et des solutions innovantes, comme les systèmes de refroidissement avancés pour réduire l’usage de l’eau.

Une transparence bienvenue, mais incomplète

Le rapport de Google marque une étape importante vers plus de clarté sur l’impact écologique de l’IA. Toutefois, limiter l’analyse aux seuls prompts texte d’inférence revient à réduire artificiellement l’empreinte réelle.

La tension reste entière : comment profiter du potentiel de l’IA dans des domaines cruciaux, comme la médecine ou la lutte contre le changement climatique, sans aggraver les problèmes environnementaux ?

Google a ouvert la voie, mais le défi à relever est collectif : instaurer une transparence standardisée et mettre en œuvre des mesures durables pour que l’intelligence artificielle rime aussi avec responsabilité.

Lire plus
Intelligence Artificielle

Anthropic nomme l’ex-CTO de Stripe : Le pari d’un vétéran pour renforcer l’infrastructure derrière Claude

Anthropic nomme l'ex-CTO de Stripe : Le pari d'un vétéran pour renforcer l'infrastructure derrière Claude

L’une des startups d’IA les plus en vue derrière le modèle Claude, Anthropic, vient d’annoncer un changement stratégique à la tête de son pôle technique. Rahul Patil, ancien CTO de Stripe, a officiellement rejoint l’entreprise cette semaine en tant que chief technical officer (CTO).

Il succède à Sam McCandlish, cofondateur d’Anthropic, qui occupera désormais le rôle de chief architect, afin de se concentrer sur la recherche avancée et l’entraînement des grands modèles de langage.

Une réorganisation pour renforcer l’ingénierie d’Anthropic

Ce changement de gouvernance s’accompagne d’une réorganisation interne. Anthropic souhaite rapprocher ses équipes produit et ingénierie de celles en charge de l’infrastructure et de l’inférence.

En tant que CTO, Rahul Patil supervisera les domaines clés : compute, infrastructure, inférence et d’autres tâches d’ingénierie essentielles. De son côté, Sam McCandlish, en tant que chief architect, concentrera ses travaux sur le pré-entraînement et l’entraînement à grande échelle des modèles, prolongeant ainsi ses missions actuelles.

Tous deux rendront compte directement à Daniela Amodei, présidente et cofondatrice d’Anthropic.

Une bataille d’infrastructures avec OpenAI et Meta

Cette décision intervient dans un contexte de concurrence féroce sur l’infrastructure IA. Les géants Meta et OpenAI investissent massivement dans les capacités de calcul. Mark Zuckerberg a par exemple annoncé que Meta prévoyait de dépenser 600 milliards de dollars en infrastructures aux États-Unis d’ici 2028.

De son côté, OpenAI a également signé des contrats colossaux avec Oracle dans le cadre du projet Stargate, représentant des investissements comparables.

La stratégie d’Anthropic est plus discrète, mais la société doit composer avec une pression croissante pour optimiser la rapidité et la consommation énergétique de ses infrastructures, tout en soutenant la demande massive pour ses produits Claude.

Claude sous tension : limites imposées aux utilisateurs intensifs

La popularité de Claude a déjà mis à l’épreuve les ressources de l’entreprise. En juillet, Anthropic a instauré de nouvelles limites d’utilisation pour certains services, notamment Claude Code.

Les utilisateurs intensifs sont désormais limités à :

  • 240 à 480 heures par semaine pour Claude Sonnet,
  • 24 à 40 heures par semaine pour Claude Opus 4,
  • ces quotas variant selon la charge des serveurs.

Cette mesure illustre le défi auquel fait face Anthropic : maintenir un équilibre entre performance, stabilité et accessibilité.

Un vétéran de l’infrastructure aux commandes

Avec plus de 20 ans d’expérience en ingénierie, Rahul Patil arrive avec un solide bagage. Avant Anthropic, il a passé 5 ans chez Stripe, où il a contribué à la croissance de l’infrastructure de paiement mondiale. Il a également été vice-président senior du cloud infrastructure chez Oracle, et occupé des postes techniques chez Amazon et Microsoft.

Dans un communiqué, Daniela Amodei a salué son arrivée : « Rahul apporte une expérience éprouvée dans la construction et le déploiement d’infrastructures stables et fiables, exactement ce dont les entreprises ont besoin. Je suis convaincue que son expertise renforcera la position de Claude comme plateforme d’intelligence de référence pour les entreprises ».

De son côté, Patil a déclaré : « Je suis honoré de rejoindre Anthropic à un moment aussi crucial pour l’IA. Je ne peux imaginer un travail plus important que celui-ci — c’est à la fois une responsabilité et une mission qui me tiennent à cœur ».

Un pari stratégique pour consolider Claude

Avec cette nomination, Anthropic montre clairement son ambition : se doter d’un leadership technique capable de rivaliser avec les géants du secteur, tout en consolidant sa réputation de champion de l’IA responsable.

L’arrivée de Rahul Patil pourrait marquer un tournant stratégique pour la société, qui cherche à renforcer l’infrastructure derrière Claude, son modèle star, et à s’imposer face à OpenAI et Meta dans la course mondiale à l’IA.

 

Lire plus
Intelligence Artificielle

Claude Life : l’assistant IA qui automatise, inspire et booste la créativité

Claude Life : l’assistant IA qui automatise, inspire et booste la créativité

Et si vous pouviez compter sur un assistant intelligent et infatigable, capable non seulement de gérer vos tâches quotidiennes mais aussi de stimuler votre créativité, de trouver de nouvelles opportunités et de simplifier vos décisions ?

C’est exactement ce que propose Claude Life, un système d’assistance personnelle basé sur l’IA, construit sur la base flexible de Claude Code.

Bien plus qu’un simple outil d’automatisation, Claude Life agit comme un copilot de vie : il analyse vos idées brutes, génère des briefings personnalisés, suit vos objectifs et vous libère du temps pour ce qui compte vraiment.

Les fonctionnalités clés de Claude Life

  • Newsletter Researcher : analyse la concurrence, détecte les tendances et génère des drafts dans votre style.
  • Brain Dump Analysis : organise vos idées quotidiennes et en extrait des thèmes créatifs ou business.
  • Daily Brief : un résumé chaque matin des actus tech, IA et entrepreneuriat, enrichi d’insights actionnables.
  • Weekly Dashboard : suivi de vos indicateurs clés (croissance, revenus, objectifs) avec recommandations concrètes.

Comment Claude Life a été conçu ?

Alex, son créateur, a personnalisé Claude Code dans un environnement local (comme Cursor) en développant des slash commands et sous-agents. Résultat : un système capable de gérer aussi bien des check-ins quotidiens que des résumés hebdomadaires ou le suivi de son humeur.

Cette flexibilité illustre la puissance de l’IA : adaptable à vos propres besoins, elle devient un véritable système d’exploitation personnel.

L’IA comme copilote de vie

Claude Life montre comment l’IA peut passer du statut d’outil utilitaire à celui de partenaire stratégique. Automatiser les routines, générer des insights, organiser vos priorités : autant de leviers pour libérer votre temps et booster vos capacités créatives.

Implications plus larges

L’exemple d’Alex prouve que l’IA n’est pas réservée aux grandes entreprises. Un individu équipé des bons outils peut :

  • Automatiser des tâches complexes,
  • Se concentrer sur la stratégie et l’innovation,
  • Créer des produits entrepreneuriaux viables.

C’est ainsi qu’est né Creator Buddy, une autre solution d’Alex, qui analyse et optimise la performance de contenus sur X. Entièrement construit avec Claude Code, cet outil est déjà rentable, confirmant l’impact de l’IA comme levier d’entrepreneuriat individuel.

Claude Life n’est pas qu’un assistant. C’est la démonstration que l’IA, quand elle est personnalisée, peut devenir un copilote pour votre vie. Gain de temps, insights stratégiques, créativité décuplée : les possibilités sont immenses pour qui ose expérimenter.

Lire plus
Intelligence Artificielle

Gemini CLI : l’outil open source qui réinvente le terminal des développeurs

Gemini CLI : l’outil open source qui réinvente le terminal des développeurs

Et si votre interface en ligne de commande ne se limitait plus à exécuter des ordres, mais devenait un véritable copilote de développement ? C’est la promesse de Gemini CLI, un outil gratuit et open source propulsé par le modèle Gemini 2.5 Pro, pensé pour rendre le terminal plus intelligent, plus flexible et surtout mieux adapté aux workflows modernes.

Gemini CLI : Un terminal qui gagne en intelligence

Gemini CLI fonctionne entièrement depuis la ligne de commande, offrant ainsi une alternative légère aux IDE gourmands en ressources. Avec un contexte de 1 million de tokens, il peut gérer des interactions riches et détaillées directement depuis le terminal. Concrètement, cela permet d’obtenir de l’aide contextuelle, de documenter un projet ou même de générer du code en gardant l’intégralité de l’historique en mémoire.

L’un des points forts de Gemini CLI est sa flexibilité. Les développeurs peuvent créer leurs propres commandes via des fichiers TOML, automatiser des tâches répétitives ou adapter le CLI à des projets spécifiques

Le tout est renforcé par un éditeur intégré qui simplifie les réglages et par une gestion multi-dossiers idéale pour les projets complexes.

Gemini CLI sait aussi s’adapter aux besoins ponctuels grâce à son prompt dynamique, capable d’intégrer des fichiers externes ou même la sortie de commandes Bash, ce qui le rend extrêmement malléable dans un workflow quotidien.

Un accès en temps réel et une communauté ouverte

L’outil ne se limite pas à vos fichiers locaux : il offre aussi un accès Internet en temps réel pour rechercher des informations à jour, un atout précieux pour résoudre des problèmes de code ou vérifier une documentation récente.

En tant que projet open source, il mise sur la transparence et la contribution de la communauté, un contraste fort avec les solutions propriétaires. Les développeurs peuvent l’adapter, l’améliorer et partager leurs propres extensions, ce qui enrichit l’écosystème.

Un compromis entre puissance et accessibilité

Même s’il repose sur un modèle plus ancien que les LLM actuels, Gemini CLI compense par sa gratuité et sa générosité en usage : jusqu’à 1 000 requêtes par jour et 60 par minute. Certes, il lui manque certaines avancées des modèles les plus récents, mais il reste une solution fiable et performante pour la majorité des cas d’usage.

Que vous soyez un développeur indépendant jonglant entre plusieurs projets ou membre d’une équipe, Gemini CLI se positionne comme un outil de productivité pragmatique. Sa personnalisation, sa gestion fluide des gros projets et son intégration directe dans le terminal en font un compagnon de choix pour travailler plus vite, plus efficacement, et sans coûts additionnels.

En résumé, Gemini CLI n’essaie pas de briller par la dernière innovation flashy en IA : il mise sur l’efficacité, la flexibilité et la communauté. Et c’est précisément ce qui pourrait en faire un incontournable du quotidien des développeurs.

Lire plus
Intelligence Artificielle

Microsoft dévoile ses modèles d’IA MAI : vers la fin de la dépendance à OpenAI ?

Microsoft dévoile ses modèles d’IA MAI : vers la fin de la dépendance à OpenAI ?

Microsoft vient de dévoiler deux modèles d’intelligence artificielle propriétaires : MAI-Voice-1, dédié à la génération vocale rapide, et MAI-1-preview, un grand modèle de langage destiné aux tâches textuelles.

Cette annonce marque un tournant stratégique majeur, susceptible de redéfinir l’alliance historique du groupe avec OpenAI, dans laquelle il a investi plus de 10 milliards de dollars.

MAI-Voice-1 et MAI-1-preview : les nouveaux moteurs de Microsoft

MAI-Voice-1 est conçu pour la synthèse vocale en temps réel. Il peut générer une minute de parole en moins d’une seconde, idéal pour les assistants virtuels et les applications interactives.

Concernant MAI-1-preview, il s’agit d’un modèle polyvalent centré sur le texte, testé actuellement pour renforcer Copilot, que ce soit dans Windows ou Bing.

Ces projets sont dirigés par Mustafa Suleyman, ancien cofondateur de DeepMind et aujourd’hui patron de l’IA chez Microsoft, qui milite depuis longtemps pour un développement interne plus ambitieux.

Un pivot stratégique pour réduire la dépendance à OpenAI

Bien que Microsoft reste étroitement lié à OpenAI — ses outils comme Copilot reposant sur GPT-5 —, ces nouveaux modèles représentent une assurance stratégique.

Les tensions récentes autour de la transparence technique, de la propriété intellectuelle et du partage des revenus ont poussé Redmond à accélérer ses propres efforts. Selon Ars Technica, Microsoft investit déjà des centaines de millions de dollars pour renforcer l’efficacité de ses modèles et les intégrer nativement à Azure.

Une alliance fragilisée mais encore nécessaire

Le partenariat entre Microsoft et OpenAI, scellé en 2019, a été jusqu’ici bénéfique. En effet, OpenAI profite de la puissance des datacenters Azure, tandis que Microsoft bénéficie des modèles les plus avancés du marché.

Mais les secousses internes chez OpenAI, combinées aux 80 milliards investis par Microsoft dans son infrastructure IA, accentuent la volonté de ce dernier de prendre son destin en main.

Impacts produits et avantages compétitifs

Si ces modèles maison venaient à être déployés à grande échelle, les bénéfices seraient multiples :

  • réduction de la latence et des coûts,
  • une personnalisation accrue des performances pour les entreprises,
  •  un renforcement de l’attrait d’Azure auprès des clients en quête de solutions IA adaptées.

Des médias estiment que l’arrivée de MAI-1-preview dans Copilot pourrait rendre l’assistant de Microsoft plus performant et plus compétitif face à Anthropic, Meta ou Google.

Un avenir hybride : entre collaboration et autonomie

Microsoft ne coupe pas les ponts avec OpenAI mais se construit une voie parallèle. Cette stratégie hybride pourrait devenir un nouveau standard dans l’industrie, alors que d’autres géants comme Google ou Meta développent eux aussi leurs propres modèles pour limiter les dépendances.

À long terme, ce choix pourrait stimuler l’innovation d’OpenAI, intensifier la concurrence mondiale dans l’IA, et donner naissance à un écosystème où partenariats et indépendance cohabitent.

Microsoft trace sa propre voie dans l’IA

Avec MAI-Voice-1 et MAI-1-preview, Microsoft franchit une étape décisive vers l’autonomie technologique. Tout en maintenant son partenariat avec OpenAI, l’entreprise se prépare à un futur où elle pourra s’appuyer sur ses propres modèles pour alimenter ses produits et services.

Ce mouvement, encore expérimental, envoie néanmoins un message clair : Microsoft ne veut plus seulement être un partenaire d’OpenAI, mais un acteur indépendant et incontournable dans l’IA mondiale.

Lire plus
Intelligence Artificielle

Sora 2 : comment obtenir un code d’invitation pour l’app vidéo d’OpenAI

Sora 2 : comment obtenir un code d’invitation pour l’app vidéo d’OpenAI

OpenAI a lancé Sora 2, son nouveau modèle révolutionnaire de génération de vidéos. Problème : l’application mobile Sora est encore en accès limité.

Pour l’instant, elle est réservée aux utilisateurs iOS aux États-Unis et au Canada, et il faut un code d’invitation pour y accéder. Bonne nouvelle toutefois : vous n’avez pas besoin d’un abonnement ChatGPT payant pour essayer l’app.

Comment accéder à Sora 2 sur iPhone ?

  1. Téléchargez l’app Sora depuis l’App Store.
  2. Connectez-vous avec votre compte ChatGPT, Apple ou Google.
  3. À l’écran qui demande un code d’invitation, touchez « Notify me when access opens » et autorisez les notifications.
  4. OpenAI enverra un code alphanumérique à 6 caractères dès que votre accès est activé.
  5. Entrez ce code dans l’app pour débloquer Sora.

Ce qu’il faut savoir

  • OpenAI a confirmé sur X que le déploiement sera rapidement élargi à d’autres pays.
  • Les abonnés ChatGPT Pro peuvent déjà tester la version Sora 2 Pro depuis un navigateur sur sora.chatgpt.com.
  • La fonctionnalité la plus populaire est Cameo, qui permet de générer des vidéos courtes et personnalisées à partager sur les réseaux.

En résumé, l’accès à Sora 2 reste pour l’instant exclusif, mais les invitations se multiplient. Installez l’app, activez les notifications, et vous serez parmi les premiers à tester cette IA vidéo qui fait déjà beaucoup parler d’elle.

Lire plus
Intelligence Artificielle

Microsoft rend Copilot plus humain : L’IA aura bientôt un visage animé pour vous parler

Microsoft rend Copilot plus humain : L'IA aura bientôt un visage animé pour vous parler

Microsoft veut rendre son assistant IA plus humain. La firme déploie Portraits, une nouvelle expérimentation disponible via Copilot Labs aux États-Unis, au Royaume-Uni et au Canada.

L’idée : ajouter un visage animé à Copilot pour accompagner les conversations vocales en temps réel.

40 avatars stylisés au choix

Les utilisateurs peuvent choisir parmi 40 portraits générés par IA, chacun synchronisé avec une voix et des expressions faciales naturelles. Sourires, hochements de tête, mouvements de lèvres : tout est animé grâce à VASA-1, une technologie mise au point par Microsoft Research qui transforme une simple image en vidéo expressive, sans modélisation 3D complexe.

Contrairement aux « Copilot Appearances » annoncés cet été (basés sur des blobs cartoon), Portraits adopte une approche plus humaine et stylisée, mais volontairement pas photoréaliste pour éviter toute confusion avec de vraies personnes.

Un assistant plus naturel à l’oral

Selon Mustafa Suleyman, patron de Microsoft AI, Portraits répond à une demande des utilisateurs : « beaucoup se sentent plus à l’aise de parler à un visage qu’à une simple voix ». Avec ce système, Copilot devient plus engageant et plus proche d’une interaction humaine classique.

Screenshot 2025 09 30 at 12.51.5

Sécurité et limites d’usage

  • Portraits est réservé à un nombre limité d’utilisateurs de plus de 18 ans.
  • Des limites quotidiennes et par session sont appliquées.
  • Des indicateurs clairs rappellent qu’il s’agit d’une IA.

Cette prudence contraste avec certains concurrents : X a par exemple lancé des avatars 3D pour son chatbot Grok, allant jusqu’à proposer une « petite amie virtuelle » en mode NSFW.

Pour l’instant, Microsoft teste la réception de Portraits avant d’envisager un déploiement plus large. L’objectif est clair : transformer Copilot en compagnon visuel et vocal plus agréable, tout en gardant la maîtrise sur les dérives potentielles.

Avec Portraits, Microsoft tente un équilibre entre humanisation et sécurité. Suffisant pour rendre Copilot plus séduisant que les assistants concurrents ?

Lire plus