fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Copilot se métamorphose : Vision, Actions, Podcasts, Microsoft dévoile l’avenir de l’IA

Copilot se métamorphose : Vision, Actions, Podcasts, Microsoft dévoile l'avenir de l'IA

À l’occasion du 50e anniversaire de Microsoft, le géant de Redmond a dévoilé un grand nombre de fonctionnalités pour Copilot. Microsoft Copilot se dote de la mémoire, des actions, de la vision, de la recherche approfondie, des podcasts, des pages et bien plus encore.

Avec toutes ces nouvelles fonctionnalités, Microsoft rend Copilot presque aussi performant que ChatGPT ou Gemini.

Voici toutes les nouvelles fonctionnalités annoncées par Microsoft pour Copilot.

Copilot Vision

Copilot on Windows scaled

Commençons par Copilot Vision. Copilot Vision est capable de voir à travers la caméra et d’analyser votre écran pour interagir en temps réel par le biais d’un chat vocal. Copilot Vision a déjà été déployé sur le Web, mais Microsoft l’étend désormais à Android et iOS. De plus, grâce à l’application Copilot native sur Windows, vous pouvez utiliser la fonctionnalité Vision sur toutes les applications Windows.

En ce qui concerne la disponibilité, Copilot Vision est déployé sur Android et iOS à partir d’aujourd’hui. Et Vision sera disponible pour les Windows Insiders à partir de la semaine prochaine.

Copilot Actions

Ensuite, Copilot a reçu un support pour les Actions, ce qui le rend agentique dans une certaine mesure. Les Copilot Actions peuvent prendre des mesures en votre nom. Par exemple, vous pouvez demander à Copilot de réserver des billets pour un événement ou une table dans un restaurant. Il fonctionne avec la plupart des sites Web, mais Microsoft s’est associé à de nombreux sites web pour rendre l’expérience transparente.

Voici les sites Web optimisés pour les actions Copilot : Flowers.com, Booking.com, Expedia, Kayak, OpenTable, Priceline, Tripadvisor, Skyscanner, Viator et Vrbo.

Mémoire et personnalisation

En outre, Microsoft Copilot s’améliore en matière de personnalisation, grâce à la prise en charge de la mémoire. Copilot se souvient de vos préférences lors des conversations et personnalise votre expérience en fonction de ce qu’il a appris sur vous. Par exemple, au fil de la conversation, il apprend quel type de film vous aimez, où vous vivez, quel type de nourriture vous appréciez, etc. Si vous souhaitez que Copilot oublie certains souvenirs, vous pouvez les supprimer ou désactiver complètement la fonction.

Par ailleurs, Microsoft expérimente la possibilité de donner aux utilisateurs le contrôle de la création d’une apparence pour Copilot. Ainsi, vous pouvez concevoir et personnaliser l’apparence de Copilot pour créer un personnage divertissant.

Deep Research

Deep Research scaled

Deep Research est un outil d’intelligence artificielle qui sera intégré à Copilot et qui vous permettra d’effectuer des recherches en plusieurs étapes en quelques minutes. Il peut naviguer sur le Web, recueillir des informations à partir de sources multiples et extraire des informations de documents et d’images volumineux. Il analyse ensuite toutes les informations et crée pour vous un document de recherche de niveau expert. Cet agent est similaire à l’agent Deep Research disponible sur ChatGPT et Gemini.

Copilot Pages

Les Pages sont une autre fonctionnalité de Copilot. Vous pouvez créer des pages dans Copilot où vous pouvez jeter vos pensées, vos notes de recherche et votre contenu, et Copilot les organise de manière ordonnée. Vous pouvez utiliser les pages pour réfléchir, planifier, écrire, étudier et organiser vos notes éparses. Avec l’aide de Copilot, vous pouvez affiner et itérer vos notes dans Pages de manière transparente.

Podcasts

Copilot Podcasts 1 1

Microsoft apporte également à Copilot des podcasts alimentés par l’IA. Copilot peut générer des podcasts personnalisés en fonction de vos centres d’intérêt, tout comme NotebookLM. Vous pouvez également fournir vos notes ou votre matériel d’étude, et Copilot crée un podcast alimenté par l’IA pour vous. Le plus intéressant, c’est que vous pouvez également interagir avec le podcast généré et parler pour en savoir plus sur le sujet. En fait, vous pouvez créer un podcast IA interactif sur tout et n’importe quoi.

Shopping

Microsoft veut faire de Copilot votre acheteur personnel. Par exemple, vous pouvez simplement demander à Copilot de vous suggérer des tasses élégantes. Il effectue les recherches pour vous et vous propose des articles correspondant à votre budget. Vous pouvez consulter les détails et acheter l’article directement sur Copilot, mais notez que cette expérience n’est prise en charge que sur les sites web partenaires. En outre, Copilot peut suivre les baisses de prix et comparer les produits pour vous.

Recherche Copilot dans Bing

À l’instar des AI Overviews de Google, Microsoft intègre Copilot Search à Bing. Lorsque vous effectuez une recherche sur Bing, Copilot Search parcourt le Web et compile les informations des sites Web pertinents pour vous présenter une réponse détaillée. Il ajoute également des citations afin que vous puissiez vérifier les informations.

Microsoft indique que la nouvelle expérience Copilot Search dans Bing est déployée dès aujourd’hui. Toutefois, il s’agit d’un déploiement limité et dans les semaines et mois à venir, davantage d’utilisateurs auront accès à Copilot Search dans Bing.

Lire plus
Intelligence Artificielle

Recaps : Amazon lance des résumés de livres générés par IA sur Kindle

Recaps : Amazon lance des résumés de livres générés par IA sur Kindle

Amazon a récemment introduit une nouvelle fonctionnalité pour les utilisateurs de Kindle appelée « Recaps ». Cette fonction vise à aider les lecteurs à se remémorer les intrigues et les arcs des personnages avant d’entamer le dernier livre d’une série. Bien que le communiqué de presse de l’entreprise ne mentionne pas explicitement l’utilisation de l’intelligence artificielle, Amazon a confirmé à TechCrunch que ces résumés sont générés par IA.

Selon Ale Iraheta, porte-parole d’Amazon, « Nous utilisons des technologies, y compris GenAI et des modérateurs Amazon, pour créer de courts résumés de livres qui reflètent fidèlement le contenu du livre ». Cette approche combine donc l’intelligence artificielle générative avec une supervision humaine pour assurer l’exactitude des résumés.

Cependant, certains utilisateurs ont exprimé des inquiétudes concernant l’utilisation de l’IA pour cette fonctionnalité, notamment en ce qui concerne la précision des résumés. Malgré les assurances d’Amazon quant à la fidélité des contenus, des discussions sur Reddit montrent que certains lecteurs restent sceptiques.

download

Actuellement, seuls les utilisateurs de Kindle aux États-Unis peuvent accéder à ces courts résumés pour des milliers de livres électroniques en anglais, qu’ils aient été achetés ou empruntés. Amazon prévoit également d’étendre cette fonctionnalité à l’application Kindle pour iOS dans un avenir proche.

Pour accéder aux résumés, les utilisateurs doivent disposer de la dernière version du logiciel Kindle. Ils peuvent vérifier si une série dispose d’un résumé en recherchant le bouton « View Recaps » sur la page de la série dans leur bibliothèque Kindle ou via l’option « View Recaps » dans le menu à trois points du regroupement de la série.

Une nouvelle fonctionnalité Kindle actuellement réservée aux États-Unis

Il est important de noter que, avant de lire le résumé, une alerte informe l’utilisateur que celui-ci contient des spoilers concernant les principaux points de l’intrigue et les personnages. Une fois cette mise en garde acceptée, l’utilisateur peut accéder au résumé.

Amazon décrit cette initiative comme une nouvelle commodité pour la lecture de séries, permettant aux lecteurs de s’immerger plus profondément dans des mondes et des personnages complexes sans perdre la joie de la découverte, tout en assurant une expérience de lecture ininterrompue à travers tous les genres.

Cette démarche s’inscrit dans une tendance plus large chez Amazon d’intégrer l’intelligence artificielle pour améliorer l’expérience utilisateur.

Lire plus
Intelligence Artificielle

Anthropic réinvente l’éducation avec Claude : Fin des réponses faciles, place à la réflexion

Anthropic réinvente l'éducation avec Claude : Fin des réponses faciles, place à la réflexion

Anthropic a dévoilé Claude for Education, une version spécialisée de son assistant IA conçue pour encourager la pensée critique chez les étudiants, plutôt que de leur fournir directement des réponses.

Ce lancement intervient dans un contexte où les établissements d’enseignement supérieur cherchent encore leur position face aux outils d’IA comme ChatGPT, oscillant entre interdiction, expérimentation et adoption partielles.

Une IA qui apprend à réfléchir plutôt qu’à répondre

Au cœur de cette initiative se trouve le Learning Mode, une fonctionnalité qui modifie radicalement la manière dont les étudiants interagissent avec l’IA. Plutôt que de livrer des réponses toutes faites, Claude pose des questions socratiques comme « Comment aborderais-tu ce problème ? » ou « Quelles preuves soutiennent ta conclusion ? ». Cette approche vise à favoriser le raisonnement autonome, répondant ainsi à l’une des principales critiques faites à l’IA en milieu éducatif : son potentiel à court-circuiter le processus d’apprentissage.

Anthropic positionne Claude comme un véritable tuteur numérique, conçu pour guider l’étudiant dans son cheminement intellectuel, plutôt que de lui fournir des raccourcis cognitifs. Une stratégie qui se distingue de celle de concurrents comme ChatGPT ou Gemini, souvent utilisés comme moteurs de réponse.

Des partenariats à grande échelle pour transformer l’éducation

Pour tester cette vision, Anthropic s’est associé à plusieurs institutions prestigieuses, dont la Northeastern University, la London School of Economics et le Champlain College. Northeastern, par exemple, déploiera Claude sur ses 13 campus internationaux, touchant ainsi 50 000 étudiants et membres du corps professoral. Ce partenariat s’inscrit dans le cadre du plan académique Northeastern 2025, porté par le président Joseph E. Aoun, auteur de l’ouvrage Robot-Proof, qui plaide pour une éducation résistante à l’automatisation.

Contrairement aux approches passées où les outils numériques étaient réservés à certains départements, ces universités adoptent ici une intégration transversale de l’IA, autant pour l’apprentissage que pour la gestion administrative. Claude pourra ainsi aider les étudiants à rédiger des synthèses, mais aussi permettre aux administrateurs d’analyser les tendances d’inscription ou de simplifier la lecture de documents de politiques internes.

Vers une nouvelle norme pédagogique alimentée par l’IA

Anthropic va plus loin en nouant un partenariat avec Internet2 — un réseau qui dessert plus de 400 universités américaines — et avec Instructure, éditeur de la plateforme d’apprentissage Canvas. Ces alliances pourraient offrir un accès massif à Claude dans l’enseignement supérieur, et accélérer son adoption.

Ce positionnement se démarque nettement des outils d’IA classiques que les enseignants doivent encore adapter eux-mêmes à un usage pédagogique. Ici, l’IA a été pensée dès le départ pour favoriser l’apprentissage. Ce virage s’inscrit dans un marché de l’edtech estimé à plus de 80,5 milliards de dollars d’ici 2030, mais au-delà des enjeux économiques, c’est l’avenir de l’apprentissage qui est en jeu.

Des défis à relever malgré les ambitions

Toutefois, plusieurs défis subsistent. La préparation des enseignants à l’intégration de l’IA est encore très inégale, et les préoccupations liées à la vie privée dans les environnements éducatifs n’ont pas disparu. Le fossé entre les capacités technologiques et la maturité pédagogique reste un frein à une intégration réellement bénéfique de l’IA dans l’enseignement supérieur.

Avec Claude for Education, Anthropic propose une alternative prometteuse, plaçant l’IA non pas comme substitut à l’intelligence humaine, mais comme catalyseur de pensée critique. Un modèle qui, s’il est adopté à grande échelle, pourrait redéfinir la relation entre technologie et apprentissage dans l’enseignement du XXIe siècle.

Lire plus
Intelligence Artificielle

NotebookLM révolutionne la recherche avec sa nouvelle fonction « Découvrir des sources »

NotebookLM révolutionne la recherche avec sa nouvelle fonction « Découvrir des sources »

Le bloc-notes et l’outil de recherche alimenté par l’IA avec Google Gemini, NotebookLM, vient de recevoir une nouvelle mise à jour. Google a ajouté l’option « Découvrir des sources » pour vous aider à trouver des sources pour votre travail.

Grâce à la nouvelle fonctionnalité « Découvrir des sources » de NotebookLM, les utilisateurs peuvent désormais effectuer des recherches sur le Web directement dans l’application, ce qui leur permet de gagner du temps et d’économiser des efforts. Le nouveau bouton « Découvrir » se trouve dans le panneau Sources, à côté du bouton « Ajouter ».

Lorsque l’utilisateur clique sur ce bouton, une boîte de recherche apparaît et lui demande de décrire le sujet qui l’intéresse. Après avoir saisi un sujet, le moteur de recherche avancé de NotebookLM, alimenté par la technologie Gemini de Google, entre en action.

NotebookLM effectue alors une recherche sur le Web et collecte les sources possibles en rapport avec la demande de l’utilisateur. L’application utilise ensuite des algorithmes avancés pour examiner ces sources et sélectionner les plus pertinentes et les plus crédibles, en tenant compte de facteurs tels que la qualité du contenu et le degré d’adéquation avec le sujet. Le résultat est une liste de 10 sources recommandées, présentées de manière claire.

Chaque source est accompagnée d’un bref résumé annoté qui explique sa pertinence par rapport à la requête de l’utilisateur, ce qui facilite l’évaluation et le choix. Cette fonction d’annotation réduit considérablement le temps nécessaire pour trier les nombreux résultats de recherche, en se concentrant sur ceux qui sont les plus utiles à l’utilisateur.

NotebookLM : Rendre le workflow plus efficace

Les utilisateurs peuvent contrôler entièrement les sources qu’ils souhaitent ajouter à leur projet NotebookLM. Il peut sélectionner les 10 sources recommandées en une seule fois ou choisir celles qui répondent le mieux à ses besoins. Une fois ajoutées, ces sources s’intègrent de manière transparente dans l’écosystème NotebookLM et sont prêtes à être utilisées dans des fonctionnalités telles que les aperçus audio, les FAQ et les fonctions de questions-réponses.

Cela devrait rendre le workflow plus efficace et permettre aux utilisateurs d’utiliser leurs nouvelles sources dans des projets existants sans interruption. De plus, ces sources restent accessibles dans le carnet de notes pour une révision, une citation et une prise de notes ultérieures. Pour les nouveaux venus ou les personnes en quête d’inspiration, Google ajoutera également un bouton « Je me sens curieux ». Ce bouton se trouve sous le champ de texte et génère des sources pour des sujets aléatoires.

Google utilise son modèle d’intelligence artificielle Gemini pour faire fonctionner NotebookLM. Les puissantes capacités de Gemini permettent à NotebookLM d’exécuter des recherches complexes sur le Web, d’analyser les résultats et de sélectionner rapidement des sources très pertinentes. Ce moteur puissant offre un niveau de précision et d’efficacité qui surpasse les méthodes de recherche traditionnelles.

Bien que vous ne souhaitiez probablement pas qu’un programme entier soit écrit par l’IA, celle-ci peut vous aider à trouver des solutions dans des bribes spécifiques afin que votre code soit plus efficace et fonctionnel. Si vous voulez faire cela, vous pouvez l’utiliser avec Gemini Canvas — il sera beaucoup plus facile de vérifier si le code fonctionne réellement.

Une avancée majeure

Cette mise à jour constitue une avancée majeure dans les capacités de l’application. Je ne doute pas que la recherche de sources soit un processus qui prend du temps. La recherche en elle-même prend du temps, mais cette mise à jour devrait faciliter les choses. Cependant, Google n’est pas toujours le plus fiable, et je ferais donc attention à ne pas me fier uniquement aux sources qu’il vous propose.

Il est toujours préférable de faire des recherches indépendantes et de revérifier ce que l’on vous donne. Ce genre de choses a tendance à prendre tout ce qu’on lui donne pour des faits, et les sites Web ne sont pas toujours corrects. Il est toujours bon de commencer à faire des recherches, et vous pouvez toujours ajouter d’autres sources, alors soyez à l’affût du déploiement, qui devrait avoir lieu dans une semaine. Vous pouvez le consulter sur le site officiel de NotebookLM.

Lire plus
Intelligence Artificielle

Deep Research bientôt pour tous : OpenAI veut démocratiser l’IA avancée !

Deep Research bientôt pour tous : OpenAI veut démocratiser l'IA avancée !

OpenAI s’apprête à offrir l’une de ses fonctionnalités les plus puissantes, Deep Research, aux utilisateurs gratuits de ChatGPT. Jusqu’à présent réservée aux abonnés des formules Plus, Pro, Teams, Enterprise et Edu, cette fonction deviendra bientôt accessible à tous — une avancée notable qui pourrait redéfinir l’expérience utilisateur sur la version gratuite du chatbot.

Qu’est-ce que la fonction Deep Research de ChatGPT ?

Contrairement aux réponses instantanées généralement associées aux assistants IA comme ChatGPT, Deep Research est une capacité autonome de recherche avancée. Elle permet à l’IA de générer un rapport complet et structuré sur un sujet donné, sans interaction continue avec l’utilisateur.

Ce processus peut prendre entre 5 et 30 minutes, le temps pour l’agent de compiler une synthèse enrichie et pertinente sur la base de recherches approfondies.

Une démocratisation de l’IA haut de gamme

Lors d’un webcast diffusé sur X, Isa Fulford, ingénieure chez OpenAI, a confirmé que Deep Research serait bientôt disponible pour les utilisateurs gratuits de ChatGPT : « Si vous n’avez pas encore essayé Deep Research, elle est disponible pour les utilisateurs Plus, Pro, Teams, Enterprise et Edu — et elle sera lancée très bientôt pour les utilisateurs gratuits ».

Aucune date précise n’a encore été avancée, mais cette décision s’inscrit dans une tendance générale chez OpenAI : offrir progressivement ses fonctions premium au plus grand nombre. La version gratuite permet déjà d’accéder à la génération d’images via GPT-4o avec une limite de trois essais par jour, un privilège auparavant réservé aux abonnés payants.

Un mouvement dicté par la concurrence

La décision d’OpenAI intervient dans un contexte de forte compétition. Google, par exemple, a récemment rendu son propre système de Deep Research gratuit sur Gemini, après l’avoir proposé exclusivement aux abonnés de son offre Google One AI Premium. Perplexity AI, autre acteur de l’IA conversationnelle, propose également des fonctions similaires en accès libre, bien que limité en nombre d’utilisations.

De son côté, Microsoft offre gratuitement une fonction appelée Think Deeper via Copilot, que ce soit sur le Web ou l’application dédiée. Alimentée par le modèle o1 reasoning d’OpenAI, cette capacité agit comme une passerelle vers les fonctions plus poussées de Deep Research.

Une stratégie gagnante pour fidéliser les utilisateurs

Proposer gratuitement Deep Research permettra non seulement d’élargir l’usage de ChatGPT, mais aussi de donner aux utilisateurs un avant-goût des possibilités offertes par les abonnements payants. Dans un monde où l’IA devient un outil clé de productivité, la capacité de produire des rapports détaillés, de synthétiser des contenus complexes ou de générer des analyses complètes est un atout considérable — même pour les utilisateurs qui n’envisagent pas (encore) de souscrire à une formule payante.

En résumé, avec Deep Research, OpenAI renforce la valeur ajoutée de ChatGPT, même en version gratuite, tout en répondant aux stratégies agressives de ses concurrents. Un tournant prometteur pour l’accès grand public à l’intelligence artificielle avancée.

Lire plus
Intelligence Artificielle

Qualcomm rachète MovianAI et accélère sa course à l’IA générative !

Qualcomm CES 2016 booth 24369157

Le géant américain des semi-conducteurs, Qualcomm, a annoncé l’acquisition de MovianAI Artificial Intelligence Application and Research JSC (MovianAI), la division d’intelligence artificielle générative précédemment détenue par VinAI Application and Research JSC (VinAI), une entité du groupe vietnamien Vingroup.

Cette acquisition vise à renforcer les capacités de recherche et développement de Qualcomm dans le domaine de l’IA générative, avec pour objectif d’accélérer la création de solutions avancées pour divers produits, tels que les smartphones, les PC et les véhicules définis par logiciel. VinAI est reconnue pour son expertise en IA générative, apprentissage automatique, vision par ordinateur et traitement du langage naturel.

Dr. Hung Bui, fondateur et PDG de VinAI, rejoindra Qualcomm à la suite de cette acquisition. Dr. Bui possède une expérience notable chez Google DeepMind. L’équipe de MovianAI apportera son savoir-faire en recherche IA, développement de modèles personnalisés et ingénierie.

Qualcomm entretient une relation de plus de 20 ans avec l’écosystème technologique vietnamien, fournissant des solutions dans des domaines tels que la 5G, l’IA, l’IoT et l’automobile. Cette collaboration a contribué à la croissance de l’industrie des technologies de l’information et de la communication au Vietnam et a facilité la participation des entreprises vietnamiennes sur le marché mondial.

Jilei Hou, vice-président senior de l’ingénierie chez Qualcomm Technologies, Inc., a déclaré :

Cette acquisition souligne notre engagement à consacrer les ressources nécessaires à la R&D qui fait de nous la force motrice derrière la prochaine vague d’innovation en IA. En intégrant des talents de haut niveau de VinAI, nous renforçons notre capacité à fournir des solutions IA de pointe qui bénéficieront à une large gamme d’industries et de consommateurs.

Dr. Hung Bui a ajouté :

Nous sommes prêts à contribuer à la mission de Qualcomm de réaliser des avancées en recherche fondamentale en IA et de les déployer à grande échelle dans diverses industries, y compris les smartphones, les PC, les véhicules définis par logiciel et plus encore. L’expertise de notre équipe en IA générative et en apprentissage automatique aidera à accélérer le développement de solutions innovantes capables de transformer notre façon de vivre et de travailler.

L’acquisition de MovianAI par Qualcomm est capital

Cette acquisition stratégique intervient dans un contexte de concurrence accrue dans le secteur de l’IA générative, avec des entreprises telles que NVIDIA dominant le marché des puces IA pour centres de données. En intégrant l’expertise de MovianAI, Qualcomm cherche à renforcer sa position et à offrir des solutions IA optimisées en termes de performance et d’efficacité énergétique pour une variété d’applications.

Sur le plan financier, Qualcomm a enregistré une augmentation de 12 % de son chiffre d’affaires en 2024, atteignant 40,7 milliards de dollars, et une hausse de 36 % de son bénéfice net, s’élevant à 10,56 milliards de dollars. Cependant, l’entreprise doit relever des défis dans le secteur de l’IA, où la concurrence pour les puces spécialisées s’intensifie.

L’acquisition de MovianAI par Qualcomm représente une étape significative dans la stratégie de l’entreprise visant à renforcer ses capacités en intelligence artificielle et à maintenir sa compétitivité dans un marché technologique en rapide évolution.

Lire plus
Intelligence Artificielle

ChatGPT : La génération d’images, enfin gratuite pour tous (avec une limite) !

OpenAI a officiellement ouvert les vannes : la génération d’images via ChatGPT, rendue célèbre pour sa capacité à imiter le style visuel des films du studio Ghibli, est désormais accessible à tous les utilisateurs, y compris ceux de la version gratuite.

Jusqu’ici réservée aux abonnés payants (Plus, Pro, Team), cette fonctionnalité basée sur le modèle GPT-4o était attendue avec impatience.

Trois images par jour pour les utilisateurs gratuits

Le PDG d’OpenAI, Sam Altman, a confirmé la nouvelle sur X, précisant que la mise à jour est désormais disponible pour tous, tout en soulignant qu’il y a des limites d’usage. Dans les faits, les utilisateurs gratuits ont droit à trois générations d’image par jour, avant de se voir proposer une formule payante pour continuer. C’est le même quota qui était déjà testé avant la généralisation de la fonctionnalité.

chatgpt image gen now rolled out to all free users!

— Sam Altman (@sama) April 1, 2025

Ce déploiement intervient après un lancement initial le 25 mars, rapidement freiné à cause d’une demande explosive. Altman avait même plaisanté sur X en disant que les « GPU fondaient » tant l’utilisation était massive. À un moment donné, ChatGPT a enregistré un million de nouveaux utilisateurs en seulement une heure.

Un succès qui s’inscrit dans une dynamique explosive

Ce lancement s’inscrit dans une période particulièrement intense pour OpenAI. La startup vient tout juste de lever 40 milliards de dollars lors d’un tour de table historique mené par SoftBank, ce qui la propulse à une valorisation record de 300 milliards de dollars — la plus élevée jamais atteinte pour une entreprise technologique privée.

Cette mise à disposition gratuite de la génération d’images est aussi un geste stratégique : rendre l’IA créative accessible à un public plus large, tout en assurant une monétisation progressive pour les utilisateurs les plus engagés.

En résumé, OpenAI continue d’étendre l’accès à ses outils IA les plus impressionnants, tout en consolidant sa position de leader mondial du secteur. Si vous êtes un utilisateur gratuit de ChatGPT, vous pouvez dès maintenant expérimenter la génération d’images directement depuis l’interface — à condition de ne pas dépasser votre quota journalier.

Lire plus
Intelligence Artificielle

OpenAI adopte l’open-weight : Pourquoi ce changement stratégique est capital

o1 preview general

OpenAI semble prêt à entrer de plain-pied dans l’arène de l’IA open source… ou presque. Son PDG, Sam Altman, a récemment confirmé via un post sur X (anciennement Twitter) que l’entreprise s’apprête à lancer un nouveau modèle de langage « open-weight » doté de capacités de raisonnement avancées, dans les mois à venir.

Qu’est-ce qu’un modèle « open-weight » ?

Contrairement à un modèle open source traditionnel (où le code, les données d’entraînement et les poids sont accessibles), un modèle open-weight donne seulement accès aux poids préentraînés — autrement dit, aux paramètres du modèle — mais pas forcément au code source complet ou aux données d’entraînement.

Cela permet aux développeurs de déployer le modèle localement ou sur leurs serveurs, de le personnaliser et de l’adapter à leurs propres cas d’usage, sans dépendre du cloud d’OpenAI. Ce type de modèle représente un compromis entre transparence, flexibilité et contrôle commercial.

Altman a expliqué que cette décision n’est pas une réaction impulsive, mais le fruit d’une réflexion stratégique de longue date, qu’OpenAI juge désormais « importante à concrétiser ». Le contexte concurrentiel y est pour beaucoup. En janvier, la startup chinoise DeepSeek a fait sensation avec son modèle de raisonnement R1, capable de fonctionner efficacement sur des puces moins performantes, défiant les attentes malgré les sanctions américaines. De son côté, Meta poursuit avec succès le développement de sa gamme Llama, plébiscitée par la communauté open source.

OpenAI, qui a longtemps été critiquée pour avoir abandonné ses engagements initiaux en matière d’open source après GPT-2, semble aujourd’hui vouloir corriger le tir — et ne pas se faire distancer sur ce terrain par ses rivaux.

Un modèle stratégique… et politique pour OpenAI ?

Ce lancement de modèle open-weight s’inscrit également dans une volonté plus large de repositionnement stratégique. OpenAI vient de lever 40 milliards de dollars lors d’un tour de table historique mené par SoftBank, faisant bondir sa valorisation à 300 milliards de dollars. Cette somme colossale servira à financer la R&D, les centres de données (dans le cadre du projet Stargate), et à consolider sa position dans un marché de l’IA de plus en plus concurrentiel.

Altman a également mentionné que les développeurs peuvent déjà s’inscrire pour un accès anticipé au modèle. Ceux-ci auront également la possibilité d’assister à des événements exclusifs organisés par OpenAI aux États-Unis, en Europe et en Asie.

Et la suite ?

Altman a promis la publication de modèles encore plus puissants dans les mois à venir, évoquant même la sortie d’un modèle de raisonnement en open-weight doté de capacités avancées. Bien que la date exacte ne soit pas encore connue, cette annonce marque un tournant pour OpenAI, qui s’engage dans une voie plus ouverte… tout en conservant une partie du contrôle sur ses technologies stratégiques.

Lire plus
Intelligence Artificielle

OpenAI lève 40 milliards et entre dans l’histoire : La folie IA continue !

OpenAI lève 40 milliards et entre dans l'histoire : La folie IA continue !

L’entreprise emblématique à l’origine de ChatGPT, OpenAI, vient de marquer un tournant historique dans le secteur technologique en bouclant une levée de fonds exceptionnelle de 40 milliards de dollars.

Ce tour de table, mené par le géant japonais SoftBank, porte la valorisation d’OpenAI à 300 milliards de dollars, établissant un nouveau record pour une entreprise technologique privée.

Selon les sources de Reuters et Financial Times, SoftBank injecte à lui seul 30 milliards de dollars, tandis qu’un consortium d’investisseurs comprenant Microsoft, Thrive Capital, Altimeter Capital et Coatue Management complète le reste. L’investissement sera décaissé en deux temps : 10 milliards immédiatement, et 30 milliards supplémentaires d’ici là fin de l’année, sous réserve qu’OpenAI finalise sa transition vers un statut d’entreprise à but lucratif. Sans cette conversion, une partie de l’investissement pourrait être compromise.

OpenAI : Un besoin colossal en capitaux pour concrétiser l’AGI

OpenAI justifie cette levée par ses ambitions d’envergure : construire une intelligence artificielle générale (AGI) bénéfique pour toute l’humanité. Pour cela, l’entreprise dit avoir besoin de capacités de calcul massives, d’infrastructures globales, d’énergie… et, bien sûr, de financements titanesques. Ce nouveau capital doit accélérer le développement de modèles toujours plus puissants, comme le futur GPT-5, et soutenir les services déjà en place, comme ChatGPT, utilisé aujourd’hui par plus de 500 millions de personnes chaque semaine.

Cette levée de fonds fait également écho au projet Stargate, un partenariat entre OpenAI, SoftBank, Oracle et le fonds souverain MGX basé à Abu Dhabi. Ce projet vise à créer des méga-centres de données en Amérique du Nord, pour un coût estimé à 500 milliards de dollars sur quatre ans. Le président Donald Trump s’est personnellement engagé à soutenir cette initiative, en la présentant comme un vecteur de souveraineté technologique et de création de plus de 100 000 emplois.

Une croissance fulgurante… mais encore loin de la rentabilité

Malgré des revenus prévus à 12,7 milliards de dollars cette année (contre 3,7 milliards en 2023), OpenAI n’anticipe pas de rentabilité avant 2029, selon les estimations internes rapportées par Bloomberg. Une perspective qui souligne la nature ultra-capitalistique de l’IA générative, où les coûts d’exploitation restent démesurés.

Avec cette opération, OpenAI renforce sa position de leader dans la guerre mondiale de l’IA, face à des concurrents comme Google DeepMind, Anthropic, xAI (Elon Musk) ou encore Meta. Mais elle illustre aussi les tensions croissantes entre régulation, innovation et souveraineté numérique, dans un contexte où l’IA devient un enjeu géopolitique majeur.

Lire plus
Intelligence Artificielle

ChatGPT GPT-4o : Le style Ghibli fait fondre les serveurs d’OpenAI !

ChatGPT GPT-4o : Le style Ghibli fait fondre les serveurs d'OpenAI !

Depuis quelques jours, Internet est inondé d’illustrations générées dans le style emblématique du studio d’animation japonais Studio Ghibli. Cette tendance virale, propulsée par GPT-4o, le dernier modèle d’OpenAI, a rencontré un tel succès que l’entreprise a été contrainte d’imposer des limitations temporaires à la génération d’images.

C’est Sam Altman, cofondateur et PDG d’OpenAI, qui a annoncé la mesure sur X. Il a expliqué que l’engouement massif pour les images générées dans le style de My Neighbor Totoro ou Le Voyage de Chihiro surchargent les capacités des centres de données de l’entreprise. « Ça pourrait faire fondre les GPU », a-t-il plaisanté, soulignant l’ampleur de la demande. Si la remarque est humoristique, elle illustre bien les pressions techniques réelles rencontrées par les serveurs.

Un succès fulgurant pour ChatGPT, mais à quel prix ?

GPT-4o s’est imposé en un temps record comme un modèle d’exception pour la génération d’images. Grâce à sa capacité à comprendre visuellement une scène et à la retranscrire avec fidélité dans un style artistique spécifique, il est particulièrement apprécié pour recréer des scènes de films cultes, des mèmes ou encore des événements d’actualité dans l’esthétique onirique et détaillée de Ghibli.

Cependant, face à la charge démesurée, OpenAI a annoncé des limites temporaires pour réguler la génération d’images. Cette décision survient également après que les utilisateurs gratuits de ChatGPT ont été privés d’accès à la génération d’images via GPT-4o, un choix critiqué mais justifié par les contraintes techniques.

c1731a94 1abe 4be7 bc89 f3b45c06d5fe

Vers un retour progressif des fonctionnalités

Bonne nouvelle néanmoins pour les utilisateurs non abonnés : OpenAI prévoit de rétablir l’accès à la génération d’images, bien que de manière limitée — trois images par jour seront bientôt autorisées gratuitement. Aucun calendrier précis n’a encore été communiqué.

Sam Altman a ajouté que les équipes travaillent activement à améliorer l’efficacité du système, et que ces restrictions « ne devraient pas durer longtemps ».

Une vague créative… et polémique

Malgré ces limites, la communauté continue de fouler les réseaux sociaux de créations inspirées de Ghibli. De nombreux utilisateurs détournent films, personnages célèbres ou même figures politiques dans ce style enchanteur. Cette vague artistique a également ravivé le débat sur les droits d’auteur, la propriété intellectuelle et les usages « équitables » dans le domaine de l’intelligence artificielle.

Alors que les passionnés rivalisent d’ingéniosité pour donner vie à leurs univers Ghibli, la question demeure : jusqu’où peut-on aller en générant de l’art inspiré d’œuvres existantes ? Un sujet brûlant qui dépasse la simple prouesse technique de GPT-4o.

Lire plus
Intelligence Artificielle

Google Gemini : des podcasts immersifs pour consommer vos documents

Google Gemini : des podcasts immersifs pour consommer vos documents

Dans un monde où les podcasts sont omniprésents, Google franchit une nouvelle étape avec Audio Overviews, une fonctionnalité novatrice de son IA Gemini qui transforme vos documents en véritables émissions audio.

Audio Overviews : deux hôtes IA pour résumer vos documents

Plutôt que de proposer un simple résumé texte, Audio Overviews génère un fichier audio simulant une conversation entre deux hôtes IA discutant du contenu de votre document. Cette fonctionnalité, initialement lancée dans l’application de prise de notes NotebookLM, permet une expérience immersive et naturelle. Les deux hôtes échangent comme s’ils animaient un vrai podcast, posant des questions et développant les points clés du sujet abordé.

Screen 2025 03 31 at 13.49.48

La durée des podcasts varie selon la taille du document, allant de 5 à 15 minutes. Un simple PDF d’un planning de ramassage des déchets peut donner lieu à un épisode de 5 minutes, tandis qu’un manuel technique de 146 pages produira un podcast bien plus long et détaillé.

Quels fichiers peut-on utiliser ?

Gemini prend en charge une large variété de formats, notamment les documents texte (PDF, DOCX, TXT), les présentations (PPTX, Google Slides) ou encore les fichiers de code source. Les utilisateurs abonnés à Gemini Advanced peuvent aussi uploader des fichiers HTML, Google Sheets, et plus encore.

Il est même possible de créer un Audio Overview à partir d’un rapport Deep Research, une autre fonctionnalité de Gemini qui effectue une recherche approfondie sur un sujet donné. Une fois le rapport généré, vous pouvez le transformer en podcast pour le consommer de manière plus agréable et synthétique.

Comment générer un « Audio Overview » ?

Pour créer un « Audio Overview » dans Gemini, suivez ces étapes :

  1. Allez sur gemini.google.com
  2. Importer le document : Cliquez sur l’icône « + » dans l’application Gemini pour télécharger le fichier souhaité. Les formats pris en charge incluent les documents texte, les présentations Google Slides, les fichiers PDF, entre autres.
  3. Générer l’aperçu audio : Une fois le document importé, une suggestion « Generate Audio Overview » apparaîtra au-dessus de la zone de saisie. Cliquez dessus pour lancer la création du podcast. Si cette option n’apparaît pas, vous pouvez simplement demander à Gemini de générer un « Audio Overview » du document.

Screen 2025 03 31 at 13.43.34

Note : Assurez-vous d’avoir réglé le langage de votre compte Google à “Anglais”. 

Des résultats bluffants

Les voix générées sont surprenamment naturelles, imitant même les interruptions ou les échanges spontanés. Les tests montrent une bonne capacité à extraire les points essentiels et à les expliquer de manière accessible. Par exemple, un manuel d’appareil photo Canon EOS a été transformé en discussion passionnée sur l’autofocus par suivi du regard. Même un scénario non publié a été résumé avec humour et clarté — bien qu’un élément clé du récit ait été omis.

Audio Overviews n’est pas juste une démonstration technologique : c’est un outil réellement utile. Pour ceux qui préfèrent écouter plutôt que lire, ou qui veulent optimiser leur temps (en marchant, en conduisant…), ce format offre un nouveau moyen d’accéder à l’information.

Google envisage également d’étendre cette fonctionnalité aux pages web, bien qu’il faille actuellement copier le contenu ou enregistrer la page en PDF pour en générer un podcast.

Google bouscule les codes du résumé traditionnel avec Audio Overviews, transformant vos documents en podcasts accessibles et engageants. Bien que tout ne soit pas parfait, cette approche marque un tournant dans la manière dont nous consommons les contenus textuels.

🔊 Et si le futur du podcast, c’était… vous ?

Lire plus
Intelligence Artificielle

Gemini 2.5 Pro : Une version plus performante, enfin disponible

Gemini 2.5 Pro : Une version plus performante, enfin disponible

Durant le weekend, Google a discrètement annoncé la mise à disposition de Gemini 2.5 Pro, sa toute dernière version de modèle d’IA, accessible dès maintenant sur gemini.google.com. Pour l’instant, ce modèle n’est utilisable que depuis un navigateur Web, mais Google promet une arrivée prochaine sur l’application mobile.

Gemini 2.5 Pro est disponible en version expérimentale, et peut être testé librement par tous les utilisateurs. Toutefois, les utilisateurs gratuits devront composer avec des limites d’utilisation plus strictes : selon la complexité de vos requêtes, vous pourriez rapidement atteindre le quota alloué. Par exemple, une simple comparaison du coût de la vie entre pays de l’UE pourrait consommer une grande partie de votre crédit.

Google recommande donc de souscrire à Gemini Advanced pour bénéficier d’une expérience complète et plus fluide. Un essai gratuit d’un mois est proposé avant l’abonnement mensuel.

Des capacités renforcées en mathématiques, en sciences et en code

Gemini 2.5 Pro représente à ce jour le modèle le plus avancé développé par Google. Il se distingue particulièrement dans les domaines du codage, des mathématiques et des sciences. Comme pour les versions précédentes, le modèle est capable de montrer son raisonnement étape par étape, ce qui renforce la transparence et la pédagogie des réponses fournies.

final 2.5 blog 1.width 1000.form 1

Selon Google, cette version combine un nouveau modèle de base amélioré à un post-entraînement optimisé, permettant de franchir un nouveau cap en matière de performance : « Avec Gemini 2.5, nous avons atteint un nouveau niveau en combinant un modèle de base significativement renforcé avec un post-entraînement de qualité ».

Une IA plus performante que la concurrence

D’après le test Aider Polyglot, Gemini 2.5 Pro surclasse nettement ses concurrents. Il atteint 74 % de réussite, contre 64,9 % pour Claude 3.7 (le deuxième meilleur score). Il surpasse également OpenAI dans la compréhension de contextes longs, ce qui est crucial pour les usages professionnels ou complexes.

Google a annoncé que des tarifs spécifiques pour les usages professionnels (avec des limites plus élevées) seront communiqués dans les prochaines semaines. De quoi renforcer l’attractivité de Gemini 2.5 Pro pour les entreprises, développeurs et équipes techniques à la recherche d’un assistant IA puissant et polyvalent.

Lire plus
Intelligence Artificielle

Google Gemini : L’IA qui génère des vidéos arrive bientôt, le modèle Veo 2 se dévoile

Google Veo 2

Depuis plusieurs mois, Google tease des fonctionnalités de génération de vidéos basées sur l’IA avec Gemini, et il semble que leur lancement soit imminent. Une analyse du code de la version bêta 16.11 de l’application Google, réalisée par Abner Li d’Android Authority, a révélé des indices clairs sur l’arrivée prochaine de Veo 2, le modèle de génération vidéo de Gemini.

Veo 2 : des vidéos de haute qualité en quelques minutes

Parmi les découvertes notables dans cette bêta, une ligne de code indique que les utilisateurs pourront « obtenir des vidéos de haute qualité avec Veo 2, le dernier modèle de génération vidéo de Gemini ».

Concrètement, Veo 2 permettra de générer une vidéo de 8 secondes en environ 2 minutes, simplement à partir d’une description textuelle. Les utilisateurs devront donc rédiger quelques phrases expliquant leur vision, et l’IA se chargera du reste.

Toutefois, Google semble vouloir limiter l’accès à cette fonctionnalité. Une autre ligne de code retrouvée dans l’application indique que les utilisateurs pourraient être restreints à un certain nombre de vidéos générées. Il n’est pas exclu que Google propose un système de crédits payants pour permettre de dépasser ces limites, mais, pour l’instant, cela reste de la spéculation.

Une IA plus avancée que Imagen 3

Actuellement, Gemini utilise Imagen 3 pour générer des images, des vidéos et de l’audio, mais ses performances restent limitées. Veo 2 représente une avancée majeure, notamment dans la gestion de la physique réaliste, des détails visuels améliorés et d’une réduction des artefacts.

Selon Google DeepMind, ce modèle devrait offrir une meilleure précision, un réalisme accru et une plus grande variété de styles visuels. Cela permettrait à Google de rivaliser avec d’autres solutions de génération vidéo IA, comme celles proposées par Runway ou OpenAI.

Un lancement imminent dans Gemini, mais encore incertain

La présence de ces lignes de code dans la version bêta de l’application Google indique clairement que Google prépare activement le lancement de Veo 2. Cependant, rien n’est encore gravé dans le marbre. Google teste ces fonctionnalités dans ses versions bêta pour en évaluer la stabilité et la pertinence, et il est toujours possible que des problèmes techniques retardent la sortie officielle.

Si tout se passe comme prévu, Veo 2 pourrait être intégré à Gemini dans les prochaines semaines, offrant aux utilisateurs Android une nouvelle manière de créer des vidéos de manière intuitive grâce à l’IA.

Restez à l’affût pour plus d’informations sur le déploiement officiel de Veo 2 dans Google Gemini.

Lire plus
Intelligence Artificielle

ChatGPT Mode Vocal Avancé : une mise à jour réduit les interruptions, l’IA devient plus patiente

ChatGPT Mode Vocal Avancé : une mise à jour réduit les interruptions, l'IA devient plus patiente

Si vous trouviez que le Mode Vocal Avancé de ChatGPT avait tendance à vous interrompre trop souvent, bonne nouvelle : une récente mise à jour vient améliorer son comportement.

Manuka Stratta, chercheur en post-formation chez OpenAI, a expliqué dans une vidéo publiée lundi que cette mise à jour ajuste la personnalité de l’IA. Désormais, le mode vocal avancé de ChatGPT interrompt beaucoup moins les utilisateurs, leur laissant ainsi plus de temps pour réfléchir et formuler leurs idées sans pression.

En plus de cette réduction des interruptions, le ton de ChatGPT devient plus engageant et naturel, avec des réponses plus directes et concises.

Un mode vocal de ChatGPT en constante évolution

Le Mode Vocal Avancé a été initialement lancé pour certains abonnés ChatGPT Plus en mai dernier, avant d’être élargi à tous les utilisateurs de cette formule en septembre. Puis, en novembre, OpenAI a étendu l’accès à tous les utilisateurs, qu’ils soient en version gratuite ou payante.

Comment l’activer ? Il suffit d’ouvrir l’application mobile, puis d’appuyer sur l’icône en forme d’onde sonore située à côté du microphone. Une fois le cercle affiché à l’écran, l’IA est à l’écoute et prête à engager une conversation fluide. Attention cependant à ne pas partager d’informations personnelles sensibles pour garantir votre confidentialité.

Différences entre les versions gratuites et payantes :

  • Utilisateurs gratuits : Ils ont accès au Mode Vocal Avancé, mais avec des limites d’utilisation quotidiennes et un modèle d’IA GPT-4o mini, moins performant.
  • Abonnés Plus (20 dollars/mois) : Ils bénéficient de conversations plus longues et d’un modèle GPT-4o plus avancé, offrant une meilleure compréhension et des réponses plus pertinentes.
  • Abonnés Pro (200 dollars/mois) : Ils peuvent utiliser le Mode Vocal sans restriction, avec une expérience optimisée pour une interaction encore plus fluide.

Avec ces améliorations, OpenAI continue de peaufiner son assistant vocal pour offrir une expérience toujours plus naturelle et immersive. Reste à voir comment les utilisateurs accueilleront ces changements et si d’autres ajustements seront apportés dans les mois à venir.

Lire plus
Intelligence Artificielle

Otter Meeting Agent : un assistant IA transforme les réunions, les détails

67e29e9918b96bcf4fc57440 Otter M

Otter, le service de transcription automatique alimenté par l’intelligence artificielle, franchit une nouvelle étape avec le lancement de trois agents IA conçus pour optimiser les réunions et les appels professionnels.

Le plus innovant d’entre eux est Otter Meeting Agent, un assistant vocal intelligent capable d’interagir en temps réel avec les utilisateurs et d’exploiter les données de l’entreprise pour répondre aux questions et accomplir des tâches.

Otter Meeting Agent: Un assistant IA qui transforme les réunions

Otter présente son Meeting Agent comme une évolution majeure de son chatbot IA déjà existant. Jusqu’à présent, l’outil pouvait assister aux réunions en ligne, transcrire les conversations et résumer les échanges. Désormais, il va plus loin : il peut répondre aux questions sur la base des données issues des réunions passées, planifier de nouvelles réunions et même rédiger des emails via une interaction vocale naturelle.

Actuellement, Otter Meeting Agent est compatible avec Zoom et son déploiement progressif est en cours pour tous les utilisateurs d’Otter.ai. Une prise en charge pour Microsoft Teams et Google Meet est prévue dans les prochaines semaines.

Des agents dédiés à la vente et au support client

En plus de son assistant de réunion, Otter dévoile deux autres agents IA spécialisés pour le domaine commercial :

  • Sales Agent : Cet assistant fournit un coaching en temps réel aux commerciaux pendant leurs appels. Il les aide à conclure des ventes, gérer les objections des clients et optimiser leurs performances. Disponible sur toutes les plateformes de visioconférence, il est réservé aux clients professionnels d’Otter.
    Agent SDR (Sales Development Representative Agent) : Plus avancé, cet agent peut présenter un produit et interagir avec des prospects sans intervention humaine. Il est accessible via le site d’Otter, mais les entreprises intéressées doivent contacter la société pour l’adopter.

Vers une expansion de l’IA dans les fonctions clés de l’entreprise

Otter ne compte pas s’arrêter là. L’entreprise prévoit de développer d’autres agents IA, notamment pour le marketing, le recrutement et d’autres services spécialisés. Cette initiative marque une nouvelle étape dans l’intégration de l’IA dans les entreprises, offrant des outils toujours plus performants pour gagner du temps et améliorer l’efficacité des équipes.

L’IA deviendra-t-elle un membre à part entière des équipes de travail ? À suivre dans les prochains mois avec l’évolution des agents Otter.

Lire plus