fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Google Gemini permet de transformer vos photos en vidéos animées avec Veo 3

Google Gemini permet de transformer vos photos en vidéos animées avec Veo 3

Google vient de déployer une nouvelle mise à jour de son assistant IA Gemini, et elle risque de faire beaucoup parler d’elle. Désormais, les utilisateurs abonnés aux offres Google AI Ultra et Pro peuvent transformer une simple image en clip vidéo animé, avec sons d’ambiance, dialogues et bruitages générés par IA.

Cette fonctionnalité repose sur le modèle Veo 3, déjà au cœur de l’outil de création vidéo Flow, lancé en mai dernier lors de la Google I/O 2025. Aujourd’hui, cette technologie s’invite directement dans Gemini, rendant l’animation de photos bien plus accessible.

De la photo fixe à la vidéo vivante

La nouvelle option de génération de vidéos à partir de photos permet de créer des clips de 8 secondes à partir d’une image et d’un prompt textuel. L’utilisateur n’a qu’à :

  1. Ouvrir Gemini sur le web ou mobile,
  2. Cliquer sur « Outils » dans la barre de prompt,
  3. Sélectionner « Vidéo »,
  4. Importer une photo,
  5. Ajouter une description du mouvement souhaité, et éventuellement, une ambiance sonore (voix, bruitage, musique…).

L’IA s’occupe ensuite de générer une vidéo au format MP4, en 720p et format paysage 16:9, accompagnée d’une bande-son synchronisée avec l’image.

Un son généré par IA, parfaitement synchronisé

Outre le mouvement des éléments présents sur l’image, Gemini est désormais capable de générer des sons de manière contextuelle : bruit du vent, sons de pas, dialogues ou musique d’ambiance peuvent être ajoutés selon la description fournie.

« Tous les éléments audio sont synchronisés parfaitement avec les visuels générés », précise Google dans son communiqué.

Accessibilité et conditions d’utilisation

Pour le moment, cette fonctionnalité est limitée aux utilisateurs des offres payantes Gemini AI Pro et AI Ultra, dans certaines régions (la France devrait être concernée d’ici peu). Google limite également à 3 créations vidéo par jour, sans report des quotas.

Toutes les vidéos générées comprennent deux éléments d’identification :

  • Un filigrane visible portant la mention « Veo » ;
  • Un filigrane numérique invisible via la technologie SynthID, développée par Google DeepMind, pour identifier les contenus générés par IA.

Flow étendu à 75 nouveaux pays

En parallèle, Google annonce également que son outil de création vidéo Flow (également basé sur Veo 3) devient disponible dans 75 nouveaux pays, renforçant sa volonté de démocratiser la production vidéo assistée par IA.

Depuis son lancement il y a à peine sept semaines, plus de 40 millions de vidéos ont déjà été générées via Gemini et Flow, selon Google.

Un outil créatif pour tous

Avec cette nouvelle fonctionnalité, Google propose aux utilisateurs de donner vie à leurs photos, mais aussi à leurs dessins, peintures ou créations artistiques, ouvrant la voie à de nouvelles pratiques pour :

  • les créateurs de contenus,
  • les artistes numériques,
  • les enseignants,
  • ou encore les marketeurs à la recherche de visuels animés rapidement réalisables.

Google franchit une nouvelle étape dans l’intégration de l’IA générative au cœur des usages quotidiens. Pouvoir transformer une simple photo en une vidéo animée avec son, sans compétences techniques, est une avancée majeure pour le grand public comme pour les professionnels.

Reste à voir si ces outils resteront réservés aux abonnés payants ou s’ils seront un jour accessibles plus largement. Quoi qu’il en soit, la vidéo générative est bien là, et elle ne fait que commencer à se démocratiser.

Lire plus
Intelligence Artificielle

Grok 4 : Elon Musk lance un nouveau modèle d’IA haut de gamme avec un abonnement à 300 dollars/mois

grok vision

L’intelligence artificielle continue de faire parler d’elle, et cette fois c’est Elon Musk qui revient sur le devant de la scène avec sa société xAI, qui a dévoilé ce mercredi soir son nouveau modèle de langage, Grok 4, ainsi qu’un abonnement ultra premium baptisé SuperGrok Heavy, facturé 300 dollars par mois.

Une annonce qui intervient dans un contexte mouvementé pour les entreprises du milliardaire, notamment X.

Grok 4: un modèle « au-delà du niveau doctorat »

Présenté comme une alternative directe à ChatGPT d’OpenAI, Gemini de Google ou encore Claude d’Anthropic, Grok 4 est conçu pour traiter du texte, des images, et bientôt bien plus. Elon Musk n’a pas hésité à qualifier ce nouveau modèle comme étant « meilleur que le niveau doctorat dans tous les domaines académiques, sans exception », tout en reconnaissant que « le bon sens lui fait encore parfois défaut ».

Ce nouveau modèle serait le plus puissant jamais conçu par xAI, selon l’entreprise, et s’aligne sur les ambitions d’Elon Musk : créer une IA générale capable de rivaliser avec l’intelligence humaine à terme.

Des performances impressionnantes sur les benchmarks

Selon les résultats publiés par xAI, Grok 4 réalise des performances remarquables sur plusieurs tests standards de l’industrie :

  • Sur Humanity’s Last Exam (une évaluation complexe de connaissances en sciences, mathématiques et humanités), Grok 4 a obtenu un score de 25,4 % sans outils, devançant Gemini 2.5 Pro (21,6 %) et OpenAI o3 high (21 %).
  • Avec outils activés, Grok 4 Heavy monte à 44,4 %, un score nettement supérieur aux 26,9 % de Gemini 2.5 Pro avec outils.
  • Sur le benchmark ARC-AGI-2 (visant à tester des capacités d’IA proches de l’intelligence générale à travers des énigmes visuelles), Grok 4 a obtenu 16,2 %, contre environ 8 % pour Claude Opus 4, le second meilleur score connu à ce jour.

Grok 4 Heavy: une IA multi-agents à 300 dollars/mois

Avec Grok 4 Heavy, xAI introduit une version plus avancée de son modèle, capable de mobiliser plusieurs agents IA simultanément pour résoudre un même problème. Ceux-ci comparent ensuite leurs réponses — une approche qualifiée par Musk de « groupe d’étude virtuel ».

Cette version est incluse dans le tout nouveau forfait SuperGrok Heavy, facturé 300 dollars par mois, qui devient le plus onéreux des abonnements IA du marché — devant ceux proposés par OpenAI ou Anthropic.

Ce plan donne accès anticipé à :

  • Grok 4 Heavy,
  • De futures fonctionnalités IA exclusives,
  • Des produits à venir : un modèle de génération de code prévu en août, un agent multimodal en septembre, et un générateur vidéo en octobre.

Screenshot 2025 07 09 at 9.34.45PM

Des controverses qui ternissent le lancement

Malgré les annonces ambitieuses, le lancement de Grok 4 n’échappe pas à la controverse. Quelques jours avant sa sortie, le compte officiel Grok sur X a provoqué l’indignation en répondant à des utilisateurs avec des propos antisémites, allant jusqu’à faire l’éloge d’Hitler. xAI a rapidement restreint le compte et supprimé les messages, mais les dégâts étaient déjà faits.

Selon des sources internes, la consigne « d’oser être politiquement incorrect » aurait été supprimée du prompt système de Grok peu après l’incident. Elon Musk, pourtant très actif sur X, n’a pas abordé l’affaire lors du livestream de présentation, préférant insister sur les performances techniques de Grok.

X sans PDG : un timing délicat pour xAI

Autre rebondissement majeur : Linda Yaccarino, PDG de X, a annoncé sa démission le jour même du lancement de Grok 4, après seulement deux ans à la tête du réseau social. Ce départ inattendu laisse l’entreprise sans direction claire, alors que X et xAI deviennent de plus en plus interconnectés.

Rappelons que Musk a récemment fusionné certaines fonctions de X avec xAI, rendant le chatbot Grok accessible directement dans l’application X pour les abonnés premium. Une intégration étroite qui place les écarts de l’IA sous les projecteurs de millions d’utilisateurs.

Une stratégie d’expansion ambitieuse

xAI cherche désormais à pénétrer le marché professionnel. L’entreprise a ouvert l’accès à Grok 4 via API, incitant les développeurs à bâtir des applications autour du modèle. Elle envisage également de proposer Grok sur les plateformes cloud des hyperscalers comme AWS ou Azure.

Toutefois, la société reconnaît que sa division « enterprise » n’a que deux mois, et il reste à prouver que les entreprises feront confiance à une IA dont la réputation reste encore instable.

Le lancement de Grok 4 marque une avancée technique majeure pour xAI, qui rivalise désormais sérieusement avec les géants du secteur. Mais cette progression s’accompagne de sérieux défis en matière d’éthique, de modération et de réputation.

Alors que GPT-5 d’OpenAI est attendu dans les mois à venir, la course à la meilleure IA générative est plus intense que jamais. Reste à voir si les entreprises et le grand public seront prêts à faire confiance à Grok… malgré ses faux pas.

Lire plus
Intelligence Artificielle

ChatGPT teste « Study Together » : une nouvelle façon d’apprendre avec l’IA ?

ChatGPT teste « Study Together » : une nouvelle façon d’apprendre avec l’IA ?

OpenAI continue de faire évoluer ChatGPT avec une vision claire : en faire un assistant universel, capable de s’adapter à tous les usages — du travail à la santé mentale, en passant par les études. Dernière nouveauté en date, repérée par certains utilisateurs : un mode mystérieux baptisé « Study Together ».

C’est via le menu « Tools » de l’interface ChatGPT que cette nouvelle option a été repérée, d’abord par des abonnés ChatGPT Plus, puis par certains utilisateurs gratuits. Le nom « Study Together » laisse peu de place au doute : l’outil semble destiné à accompagner les utilisateurs dans leur apprentissage.

Un reverse engineer, Tibor Blaho, a découvert dans le code source que la fonctionnalité porte le nom de code interne « tatertot ». Elle est décrite comme un prototype interne, ce qui laisse penser qu’on est encore très loin d’un déploiement généralisé.

Comment fonctionne « Study Together » de ChatGPT ?

Pour l’instant, aucune annonce officielle n’a été faite par OpenAI. Mais des témoignages sur Reddit commencent à dessiner les contours de cette fonctionnalité. Contrairement à une simple session de questions-réponses avec ChatGPT, le mode Study Together propose une approche plus interactive : « Demandez-lui de vous enseigner un sujet. Il vous pose d’abord quelques questions, comme le mode Deep Research, puis vous fait progresser dans l’apprentissage en vous faisant réfléchir, répondre, et même réviser ».

En clair, ChatGPT agit comme un tuteur personnel qui vous guide dans l’apprentissage, vous interroge, vous fait reformuler, puis vous teste pour vérifier vos acquis. Une approche pédagogique bien plus active que l’usage classique du chatbot.

Vers une nouvelle ère de l’apprentissage assisté par l’IA ?

L’idée d’un accompagnement éducatif personnalisé par l’IA séduit de plus en plus d’étudiants. Aujourd’hui, nombreux sont ceux qui utilisent déjà ChatGPT comme aide aux devoirs, moteur de résumé ou correcteur grammatical. Le mode Study Together pourrait pousser cette logique plus loin : celle d’un véritable coach d’apprentissage intelligent.

Certaines rumeurs suggèrent que ce mode pourrait faire partie des fonctionnalités exclusives destinées à une offre éducative de ChatGPT, voire à un futur abonnement ChatGPT Education.

Avec la rentrée universitaire qui approche à grands pas, ce nouveau mode pourrait bien arriver au bon moment. D’autant plus que Sam Altman, PDG d’OpenAI, a récemment évoqué l’arrivée de GPT-5 pendant l’été 2025, et Study Together pourrait faire partie de ce lancement.

Une fonctionnalité encore floue… mais prometteuse

À ce jour, il est difficile de dire si cette fonctionnalité sera accessible à tous, ou réservée à certains profils (étudiants, enseignants, abonnés premium…). Ce qui est certain, c’est que les premiers retours sont globalement positifs. L’idée de pouvoir se faire guider, interroger et corriger par une IA de manière structurée est particulièrement séduisante dans un contexte d’auto-apprentissage. De plus, cela éviterait d’avoir à créer des prompts complexes pour simuler un cours ou un quiz.

Pour l’instant, Study Together est toujours en phase de test, et aucune date de lancement n’a été communiquée. Mais au vu des expérimentations en cours, on peut raisonnablement penser que cette fonctionnalité verra le jour dans les prochains mois.

Si OpenAI réussit à en faire une véritable plateforme d’étude interactive, ChatGPT pourrait bien devenir l’outil incontournable des étudiants et autodidactes du monde entier.

Et vous, seriez-vous prêt à laisser une IA vous coacher dans vos révisions ?

Lire plus
Intelligence Artificielle

Cursor déploie une web‑app pour piloter ses agents de codage IA depuis le navigateur

Cursor déploie une web‑app pour piloter ses agents de codage IA depuis le navigateur

Après avoir démocratisé son IDE assisté par IA, Cursor (édité par Anysphere) élargit son écosystème avec une web‑app qui permet de gérer des agents de codage automatiques en langage naturel, directement sur navigateur — sur mobile comme sur desktop.

Cursor Web‑App : coder sans quitter votre navigateur

Disponible depuis ce lundi, la nouvelle web‑app de Cursor permet à l’utilisateur d’envoyer des requêtes en langage naturel pour déléguer des tâches de codage (ajout de fonctionnalités, correction de bugs…), de surveiller l’avancement des agents en temps réel et de fusionner automatiquement les modifications achevées dans le codebase.

Chaque agent dispose d’un lien partageable, facilitant le suivi collaboratif des tâches.

image 18 scaled

Le trio gagnant : IDE, Slack, web‑app

Cursor avait déjà consolidé son offre en mai avec des background agents autonomes, puis en juin avec une intégration Slack. Désormais, la web‑app complète cette stratégie multi‑canal :

  • Déclenchement via Slack (@Cursor) ou web‑app
  • Suivi et pilotage dans le navigateur
  • Reprise facile dans l’IDE si l’agent bute
  • Fusion finale des modifications

Selon Andrew Milich (VP Product Engineering), l’objectif est clair : supprimer les frictions pour les utilisateurs.

image 19

Une forte traction et un plan tarifaire ambitieux

Anysphere affirme que Cursor génère désormais plus de 500 millions de dollars de MRR annualisé, avec une adoption chez plus de la moitié du Fortune 500 (Nvidia, Uber, Adobe…). Pour accompagner cette croissance :

  • Un forfait Pro à 200 dollars/mois complète l’abonnement mensuel de 20 dollars/mois.
  • La web‑app et les background agents sont incluses dans tous les forfaits payants (Pro et supérieurs), mais restent indisponibles pour les comptes gratuits.

Cursor: sérieux et pragmatisme

Contrairement à plusieurs acteurs qui ont lancé des solutions « demo‑ware » trop ambitieuses, Cursor mise sur des capacités de raisonnement IA actualisées et solides. Selon le CEO Michael Truell, d’ici 2026, les IA pourraient traiter 20 % du travail d’un ingénieur logiciel.

Avec cette web‑app, Cursor franchit un vrai palier dans l’intégration de l’IA au cycle de développement. Entre le déclenchement simple des agents, le suivi depuis un navigateur et la solidité industrielle de son offre, Cursor devient un acteur incontournable pour les équipes de dev ambitieuses.

 

Lire plus
Intelligence Artificielle

Google tease des jeux vidéo générés par IA avec Veo 3 et Genie

Google tease des jeux vidéo générés par IA avec Veo 3 et Genie

Google prépare-t-il discrètement une révolution dans l’univers du jeu vidéo ? C’est ce que laissent entendre plusieurs messages énigmatiques postés sur X par des figures clés de DeepMind, l’unité de recherche en IA du géant américain. En réponse à un message demandant à pouvoir « jouer dans les vidéos générées par Veo 3 », Demis Hassabis, PDG de DeepMind, a répondu avec malice : « Now wouldn’t that be something » (« Ce ne serait pas quelque chose »).

Veo 3 : plus qu’un générateur vidéo classique

Veo 3, actuellement en aperçu public, est le dernier modèle de génération vidéo de Google. Capable de créer non seulement des séquences visuelles ultra-réalistes mais aussi des pistes sonores (bruits, musiques, voix), il intègre une simulation des mouvements basée sur des lois physiques réalistes.

Mais attention : Veo 3 n’est pas encore ce qu’on appelle un modèle monde (world model). Il génère des vidéos passivement, sans interaction, à la différence des simulateurs actifs capables de réagir en temps réel aux actions d’un utilisateur.

La distinction est cruciale. Un générateur vidéo, comme Veo 3, crée des séquences à partir de requêtes textuelles ou visuelles. Un modèle monde, lui, simule dynamiquement un environnement, permettant à un agent (ou à un joueur) de tester des actions et en observer les conséquences, en temps réel.

C’est le principe des moteurs de jeu, mais poussé à l’extrême par l’IA : l’environnement n’est plus codé à la main, il est généré et animé par un réseau de neurones.

Google mise gros sur les mondes simulés

Google ne cache plus ses ambitions : faire évoluer Gemini 2.5 Pro, son modèle fondation multimodal, vers une IA capable de simuler des aspects du cerveau humain. En parallèle, DeepMind a présenté fin 2024 Genie 2, un modèle capable de générer une infinité de mondes jouables.

Depuis janvier 2025, l’entreprise a aussi formé une équipe dédiée au développement de modèles monde, orientés jeux vidéo et simulations interactives.

Vers des jeux IA hybrides : Veo + Genie ?

À ce stade, Veo 3 pourrait surtout servir à créer des éléments cinématiques de jeu : cutscenes, trailers, animations narratives… Mais à l’avenir, Google pourrait combiner Veo (pour l’esthétique) avec Genie (pour la logique et la jouabilité) afin de produire des expériences de jeu entièrement générées par IA.

Cela représenterait une rupture majeure dans le game design, avec des jeux créés à la volée en fonction des actions du joueur et un contenu infini, mais cohérent.

Une course technologique déjà lancée

Google n’est pas seul sur ce créneau. Microsoft, Runway, Scenario, Pika, et bien sûr OpenAI avec son très attendu modèle Sora travaillent tous sur des systèmes de génération vidéo avancée. Mais aucun n’a encore réussi à créer un modèle monde pleinement interactif, en temps réel et sans bugs.

L’expertise de DeepMind en simulation (notamment via AlphaGo, AlphaStar et MuZero), associée aux moyens colossaux de Google, place l’entreprise en pole position pour dominer le futur des jeux IA.

Les déclarations énigmatiques de Demis Hassabis et Logan Kilpatrick ouvrent la porte à une révolution vidéoludique alimentée par l’intelligence artificielle. Si Veo 3 n’est pour l’instant qu’un générateur vidéo, son intégration future avec des modèles comme Genie pourrait bien donner naissance à des mondes jouables générés en temps réel, où l’imagination du joueur serait la seule limite.

Le jeu vidéo, tel qu’on le connaît, pourrait être sur le point de basculer dans une nouvelle ère… générée par IA.

 

Lire plus
Intelligence Artificielle

Veo 3 débarque dans le monde entier, dont la France, sur l’app Gemini via Google AI Pro

Veo 3 débarque dans le monde entier, dont la France, sur l’app Gemini via Google AI Pro

Google étend aujourd’hui la disponibilité de Veo 3, son modèle de génération vidéo IA, aux nouvelles régions — y compris la France — pour les abonnés à Google AI Pro sur l’application Gemini.

Présenté lors de Google I/O, Veo 3 permet de créer des vidéos de 8 secondes, entièrement générées par l’IA avec audio intégré : voix synthétique, musique de fond et effets sonores. Ces créations originales vont des récits imaginatifs aux scènes surréalistes, avec très peu d’entrée utilisateur nécessaire.

Pour éviter les usages abusifs et les deepfakes, Google a mis en place :

  • Un filigrane visible sur chaque vidéo générée (hors plan Ultra/Flow),
  • Un filigrane invisible SynthID pour authentifier le contenu IA.

Veo 3 : Disponibilité mondiale avec Google AI Pro

Depuis aujourd’hui, tous les utilisateurs éligibles disposant de l’abonnement Google AI Pro peuvent accéder à Veo 3 via l’app Gemini, y compris en France.

Cet abonnement comprend également d’autres fonctionnalités avancées : le modèle multimodal Gemini 2.5 Pro, Veo 2 Video Tools, Whisk, NotebookLM, l’intégration Gemini dans l’écosystème Google, ainsi que 2 To de stockage cloud.

David Sharon, responsable multimodal chez Gemini Apps, commente : « Ces créations étonnantes sont la raison pour laquelle nous, l’équipe Veo 3, faisons ce que nous faisons — et pourquoi nous rendons Veo 3 accessible à davantage de personnes dans le monde ».

Fonctionnalités clés

Selon DeepMind, Veo 3 offre une qualité vidéo améliorée (résolution 4K, simulation physique réaliste) et une meilleure fidélité au prompt, avec un contrôle créatif renforcé.

Veo 3 s’ouvre désormais à un public plus large grâce à Google AI Pro, marquant une étape majeure vers une démocratisation de la vidéo IA créative. Giftée aux foyers en Inde et ailleurs, cette capacité à générer des clips audio-visuels de haute qualité avec un minimum d’effort augure d’une adoption croissante par les créateurs. Google renforce également la transparence via le filigrane SynthID, tout en enrichissant son écosystème Gemini.

Lire plus
Intelligence Artificielle

Perplexity Max : l’abonnement IA à 200 dollars/mois pour les professionnels

Perplexity Max : l’abonnement IA à 200 dollars/mois pour les professionnels

Perplexity, le moteur de recherche basé sur l’intelligence artificielle, vient de lancer Perplexity Max, un nouveau forfait à 200 dollars par mois destiné à ses utilisateurs les plus exigeants. Cette initiative s’inscrit dans une stratégie plus large visant à concurrencer les géants comme OpenAI, Google ou Anthropic sur le marché des offres IA professionnelles et premium.

Qu’est-ce que Perplexity Max ?

Perplexity Max est une formule ultra-premium pensée pour les utilisateurs intensifs tels que les analystes, chercheurs, journalistes, développeurs ou chefs de projet. Elle propose un accès illimité aux outils avancés de Perplexity, une priorité d’accès aux derniers modèles d’IA, et des fonctionnalités exclusives comme un navigateur intelligent baptisé Comet.

Avec cette offre, la start-up montre qu’elle cherche à capitaliser sur la demande croissante pour des solutions d’IA performantes, tout en assurant la viabilité financière d’un modèle très coûteux à maintenir.

Quelles fonctionnalités propose Perplexity Max ?

L’offre Max ne se limite pas à une version boostée des plans existants, elle introduit des outils inédits et des accès privilégiés :

  1. Accès illimité à Labs : Perplexity Labs permet de générer des rapports dynamiques, feuilles de calcul intelligentes ou présentations automatisées. Avec Max, il n’y a aucune limitation d’usage.
  2. Accès prioritaire aux meilleurs modèles IA : Les abonnés Max bénéficient d’un accès privilégié aux modèles les plus récents et performants, comme OpenAI o3-pro et Claude Opus 4, sans passer par les files d’attente classiques.
  3. Accès anticipé à Comet, le navigateur IA : Comet, le navigateur IA développé par Perplexity, sera d’abord proposé aux abonnés Max. Il promet une expérience web augmentée, avec recherche intelligente, résumé en temps réel et réponses contextuelles.
  4. Support premium : Les utilisateurs Max bénéficient d’un support client rapide et prioritaire, une nécessité pour les usages professionnels à haute disponibilité.

Pourquoi ce tarif aussi élevé ?

Plan

Tarif mensuel

Accès Labs

Modèles IA

Support client

Gratuit

0 dollars

Non

Limité

Basique

Pro

20 dollars

Limité

Oui

Standard

Enterprise

40 dollars/utilisateur

Oui

Oui

Prioritaire

Max

200 dollars

Illimité

Prioritaire

Premium

Perplexity dépense énormément en infrastructures cloud et en licences de modèles d’IA. En 2024, l’entreprise a généré 34 millions de dollars de revenus, mais en a dépensé près du double (65 millions) en charges opérationnelles.

L’offre Max vise donc deux objectifs :

  • Amortir les coûts élevés d’exploitation via des abonnements à forte marge.
  • S’ancrer dans un segment professionnel, où les utilisateurs sont prêts à payer cher pour gagner du temps et booster leur productivité.

Un marché de plus en plus compétitif

Perplexity n’est pas seul sur ce créneau. OpenAI propose déjà ChatGPT Pro à 20 dollars/mois et ChatGPT Team ou Enterprise à partir de 60 à 200 dollars/mois. Anthropic (Claude Max), Google (Gemini Advanced) ou encore Cursor AI ont également des offres premium similaires.

Mais là où Perplexity se distingue, c’est dans sa interface centrée sur la recherche, une rapidité d’exécution reconnue, et une capacité à agréger plusieurs modèles IA dans un seul outil, ce qui en fait une vraie boîte à outils d’IA universelle.

Quelle suite pour Perplexity ?

Avec un chiffre d’affaires annuel récurrent (ARR) estimé à 80 millions de dollars début 2025, Perplexity poursuit sa croissance, mais doit encore convaincre les investisseurs. Elle est actuellement en discussion pour lever 500 millions de dollars sur une valorisation de 14 milliards, preuve que ses ambitions sont énormes.

Perplexity Max s’adresse à une niche de professionnels ultra-connectés prêts à investir dans des outils IA de pointe. L’offre est ambitieuse, riche, et marque une nouvelle étape dans la course à l’IA générative haut de gamme.

Lire plus
Intelligence Artificielle

Grammarly rachète Superhuman : l’email devient le cœur de sa nouvelle stratégie IA

Grammarly Superhuman

Célèbre pour son assistant rédactionnel intelligent, Grammarly, vient d’annoncer l’acquisition de Superhuman, une application d’e-mail premium plébiscitée par les professionnels de la tech. Ce rachat marque un virage stratégique majeur pour l’entreprise, bien décidée à se transformer en une plateforme de productivité basée sur des agents d’intelligence artificielle spécialisés.

Grammarly affirme que l’e-mail est déjà le cas d’usage numéro un de son assistant IA, avec plus de 50 millions d’e-mails corrigés chaque semaine sur plus de 20 services différents. En intégrant Superhuman, Grammarly ne se contente plus de se greffer à d’autres outils, elle devient éditeur de son propre client mail, offrant ainsi une expérience 100 % optimisée.

Superhuman, connue pour sa rapidité, son design minimaliste et ses raccourcis clavier intuitifs, sera donc le terrain d’expérimentation idéal pour intégrer une IA profondément ancrée dans les workflows professionnels. Le but : réinventer la manière dont les professionnels interagissent avec leurs e-mails au quotidien.

Une plateforme d’agents IA : le futur selon Grammarly

Avec cette acquisition, Grammarly officialise son ambition de devenir une plateforme d’agents IA multitâches. L’idée est de permettre à plusieurs agents spécialisés — vente, marketing, support, communication — de collaborer simultanément autour d’un même objectif.

Dans un avenir proche, un utilisateur pourrait rédiger une réponse client avec un agent « support », structurer un argumentaire avec un agent « vente », et laisser un agent « marketing » peaufiner le ton — le tout sans quitter son client email. Superhuman devient ainsi le terrain d’expression de cette « productivité augmentée », à mi-chemin entre un assistant personnel et une équipe IA.

Intégration et indépendance

Rahul Vohra, CEO et fondateur de Superhuman, rejoint Grammarly aux côtés de plus de 100 collaborateurs. Superhuman restera une marque et une application autonome à court terme, mais des synergies sont déjà en cours pour intégrer Grammarly en profondeur dans l’expérience utilisateur.

Cette autonomie partielle permet à Grammarly de ne pas perturber l’équilibre existant de Superhuman, tout en expérimentant progressivement une version enrichie par ses agents IA.

Une stratégie financée par une santé financière solide

Grammarly, avec plus de 700 millions de dollars de revenus annuels et 40 millions d’utilisateurs actifs quotidiens, a levé 1 milliard de dollars début 2025 pour soutenir sa croissance. Superhuman, quant à elle, générait environ 35 millions de dollars de revenus annuels et était valorisée à 825 millions de dollars lors de son dernier tour de table.

Cette acquisition s’inscrit donc dans une stratégie de croissance externe bien financée, visant à concurrencer frontalement des géants comme Google Workspace avec Gemini, Microsoft Copilot ou OpenAI avec ChatGPT Enterprise.

Avec ce rachat, Grammarly quitte le monde des « plugins » pour devenir un acteur de premier plan dans l’univers des outils de productivité intelligents. En misant sur l’email — une activité où les professionnels passent en moyenne plus de 3 heures par jour — l’entreprise s’assure une adoption massive et des cas d’usage concrets.

Si la vision des agents IA spécialisés se concrétise, Grammarly pourrait bien devenir un OS de la productivité, orchestrant plusieurs intelligences autour de l’utilisateur dans un seul et même espace de travail.

 

Lire plus
Intelligence Artificielle

Siri boosté par ChatGPT ou Claude ? Apple envisage d’abandonner son IA maison

Pixel 10 Pro et Pro XL : Google recycle ses smartphones avec un nouveau processeur

Alors que la guerre de l’intelligence artificielle fait rage entre les géants de la tech, Apple serait sur le point de faire un virage stratégique majeur. Selon une enquête publiée par Bloomberg, Apple envisagerait d’intégrer des modèles d’IA tiers, notamment ceux d’OpenAI (ChatGPT) et d’Anthropic (Claude), pour alimenter la prochaine génération de Siri.

Un Siri repensé avec Claude ou ChatGPT

Apple travaille depuis plusieurs années sur un projet interne nommé « LLM Siri », visant à doter son assistant vocal d’une IA générative maison. Mais les progrès seraient bien en deçà des attentes, au point de repousser la sortie d’une version véritablement « intelligente » de Siri, initialement prévue pour 2025, à 2026 ou au-delà.

Face à ces retards, Apple aurait discrètement demandé à OpenAI et Anthropic de concevoir des versions personnalisées de leurs modèles d’IA, capables de fonctionner sur l’infrastructure cloud privée d’Apple. L’objectif est clair : offrir une IA performante, tout en maintenant la promesse de confidentialité chère à l’écosystème Apple.

Un retard technologique difficile à rattraper

Apple accuse un retard considérable face à ses concurrents. Google déploie Gemini dans ses services, Samsung intègre l’IA générative dans les Galaxy S24 et S25, et Microsoft multiplie les intégrations de Copilot.

Siri, de son côté, peine à évoluer. Malgré une intégration de ChatGPT sur iOS pour des tâches spécifiques, l’assistant vocal utilise toujours des modèles internes très limités. En l’état, Siri est largement dépassé.

Claude, ChatGPT ou Perplexity : quelle IA pour Apple ?

Outre OpenAI et Anthropic, Apple aurait aussi envisagé de racheter Perplexity AI pour alimenter un nouveau moteur de recherche dans Safari, au cas où son partenariat de 20 milliards de dollars avec Google venait à être interrompu par une décision de justice.

Ce revirement stratégique rappelle la méthode adoptée par Samsung, qui s’appuie sur l’IA de Google pour ses smartphones. Apple semble suivre un chemin similaire, bien que tardivement.

Confidentialité en ligne de mire

Même si Apple finit par s’associer à des acteurs tiers, la firme entend garder le contrôle. Les modèles d’IA de ChatGPT ou Claude seraient entraînés spécifiquement pour Apple et hébergés sur ses propres serveurs. Cela permettrait de garantir que les données utilisateurs ne quittent pas l’écosystème Apple, conformément à ses engagements sur la vie privée.

Avec l’aide de partenaires extérieurs, Apple pourrait peut-être lancer une nouvelle version de Siri avant 2026. Cependant, les retards passés et la complexité d’une telle intégration laissent présager une sortie plus tardive. L’enjeu est pourtant crucial : des produits comme les lunettes AR intelligentes reposent fortement sur une IA fiable et performante.

L’intelligence artificielle est désormais un terrain de différenciation majeur. Apple, longtemps perçue comme suiveuse dans ce domaine, ne peut plus se permettre de rester en retrait. Entre Claude, ChatGPT et peut-être Perplexity, la firme cherche un partenaire à la hauteur de ses ambitions — et de ses standards de confidentialité.

 

Lire plus
Intelligence Artificielle

Gemini : Google lance les actions programmées pour automatiser vos tâches

Gemini : Google lance les actions programmées pour automatiser vos tâches

Google continue d’affûter son assistant IA, Gemini, avec une nouveauté majeure : les Actions Programmées. Déployée officiellement en fin de semaine dernière, cette fonctionnalité permet désormais d’automatiser des tâches à des moments précis ou de façon récurrente, sur Android, iOS et le web.

Si l’on parlait jusqu’ici de requêtes ponctuelles, Gemini franchit un cap vers des usages plus intelligents et autonomes. Une tendance très en vogue dans le domaine des IA dites « agentiques », où les assistants deviennent proactifs.

Le principe est simple : l’utilisateur envoie une instruction précise accompagnée d’un créneau horaire ou d’une fréquence. Gemini confirme alors la demande et l’exécute automatiquement à l’heure prévue. Vous pouvez par exemple demander à Gemini :

  • de vous envoyer un rapport météo chaque matin,
  • de générer un plan d’entraînement chaque lundi à 7 h,
  • ou encore de résumer les infos tech tous les soirs.

Le prompt sera exécuté dans l’heure suivant l’horaire défini, selon les précisions de Google.

Gemini : Un tableau de bord dédié pour gérer vos tâches

Sur mobile, les actions programmées sont accessibles via le menu de profil, tandis que sur le Web, elles se trouvent dans le panneau latéral de « Paramètres et Aide ». Cet espace vous permet de consulter vos tâches actives, les suspendre, modifier ou supprimer, et même changer le nom, la fréquence (quotidienne, hebdo ou mensuelle), ou le prompt associé.

Actuellement, il est possible de créer jusqu’à 10 actions actives simultanément.

Cette fonctionnalité transforme Gemini en véritable assistant de productivité. Elle peut vous assister dans toutes sortes de routines : veille concurrentielle, notifications santé, relances personnelles, création de contenu régulier, etc. On retrouve ici un concept proche de ce que propose ChatGPT avec ses tâches planifiées, signe que les assistants IA s’alignent progressivement vers une vision commune du compagnon numérique intelligent.

Réservé aux abonnés payants

Attention toutefois : cette nouveauté n’est pas accessible aux utilisateurs gratuits de Gemini. Elle est uniquement disponible pour les abonnés aux formules Google AI Pro/Ultra, ou aux clients Google Workspace (éducation et entreprises).

Avec l’ajout des Actions Programmées, Google fait entrer Gemini dans une nouvelle ère. L’IA ne se contente plus de répondre à vos questions : elle devient actrice, en anticipant vos besoins à intervalles réguliers. Une fonctionnalité simple mais puissante, qui rapproche un peu plus l’IA d’un véritable assistant personnel autonome.

Lire plus
Intelligence Artificielle

Google Gemini prend (vraiment) la relève de Google Assistant dès le 7 juillet

Google Gemini prend (vraiment) la relève de Google Assistant dès le 7 juillet

Il fut un temps où Google Assistant dominait largement le marché des assistants vocaux, éclipsant Siri, Alexa ou encore Cortana grâce à sa compréhension contextuelle et à la précision de ses réponses. Mais l’arrivée de l’intelligence artificielle générative a changé la donne.

Aujourd’hui, Google prépare la bascule définitive de Google Assistant vers Gemini, son assistant IA nouvelle génération, avec une mise à jour majeure prévue pour le 7 juillet 2025.

Gemini remplacera Google Assistant… même sans collecte de données

D’après un e-mail repéré par Android Police, cette mise à jour permettra à Gemini d’interagir avec les applications natives du smartphone, comme Téléphone, Messages, WhatsApp ou encore les outils système (alarmes, minuteurs, etc.), même si l’activité Gemini est désactivée.

Autrement dit, les utilisateurs pourront envoyer des messages, lancer des appels ou régler un minuteur sans que leurs données ne soient exploitées pour améliorer les modèles IA de Google. Ce compromis vise à rassurer ceux soucieux de leur vie privée, tout en leur laissant profiter des fonctionnalités pratiques d’un assistant virtuel.

Moins de surveillance, mais toujours un minimum de journalisation

Même avec l’activité Gemini désactivée, Google conserve les données de vos interactions avec l’IA pendant 72 heures. Ce court délai sert à garantir la sécurité, la modération et la possibilité d’améliorer la qualité de service.

Si vous souhaitez couper totalement l’historique Gemini :

  1. Ouvrez l’application Gemini.
  2. Appuyez sur votre photo de profil (coin supérieur droit).
  3. Sélectionnez Activité des applications Gemini.
  4. Appuyez sur Désactiver et choisissez si vous souhaitez aussi supprimer l’historique.

Une IA prête pour les tâches du quotidien

Avec cette mise à jour, Gemini devient réellement un assistant complet. Les tâches courantes, comme passer un appel, envoyer un message, lancer une playlist ou régler une alarme, sont désormais gérées par l’IA générative, même en mode « confidentiel ».

Cela marque un tournant. En effet, jusqu’ici, les fonctionnalités pratiques de Google Assistant étaient indisponibles si l’activité Gemini était désactivée. Désormais, les utilisateurs n’ont plus à choisir entre confidentialité et praticité.

Siri à la traîne ?

En parallèle, Apple peine à suivre le rythme. Alors que Google introduit une IA capable d’exécuter des commandes en langage naturel à travers plusieurs apps, Siri reste limité, et les innovations prévues (comme « Personal Siri ») semblent toujours en développement. Apple mise sur iOS 18 pour combler l’écart, mais Gemini semble déjà avoir pris une longueur d’avance.

Google officialisera ces nouveautés à partir du 7 juillet 2025. À partir de cette date, Gemini sera capable de remplacer Google Assistant dans presque tous les usages quotidiens, sans nécessiter l’enregistrement de vos données personnelles à long terme.

Lire plus
Intelligence Artificielle

Claude d’Anthropic devient plateforme IA : créez et partagez des apps sans coder

Claude d’Anthropic devient plateforme IA : créez et partagez des apps sans coder

Anthropic franchit une nouvelle étape en permettant désormais de construire des applications IA évolutives au sein de Claude via les Artifacts, sans écrire une ligne de code. Bêta lancée aujourd’hui, cette évolution annonce la transformation de Claude en véritable plateforme plus qu’en simple assistant.

Fonctionnement pas à pas :

  1. Activez la fonctionnalité « Create AI-powered artifacts » depuis les paramètres de Claude.
  2. Décrivez ce que vous souhaitez créer : un jeu, un outil d’analyse, un tutoriel interactif…
  3. Claude génère en temps réel le code complet (souvent en React/JS), avec aperçu intégré via iframe.
  4. Vous pouvez tester, modifier et publier l’application en un clic — pas besoin de serveur ni d’infrastructure.

De premiers projets partagés incluent des jeux IA avec personnages adaptatifs (NPC), des outils pédagogiques pour l’apprentissage personnalisé, des analyseurs de données via import CSV, des assistants de rédaction et des workflows automatisés orchestrant plusieurs appels Claude.

Ces mini-apps peuvent appeler l’API Claude via la fonction window.claude.complete(), que les utilisateurs interagissent ensuite avec leur propre compte et forfait.

Claude : Partage facile, facturation transparente

Il suffit d’un lien pour partager votre application, et l’utilisation est facturée sur le compte de l’utilisateur final, pas le créateur. Pas besoin de gestion API keys ou serveurs : tout est pris en charge par Claude.

Cette fonctionnalité est disponible en bêta pour tous les utilisateurs gratuit, abonnement Pro (20 dollars) et abonnement Max/Team.

Actuellement, il existe certaines limites graphiques et techniques : Interface sandboxée via iframe et CSP, sans accès à localStorage ni fetch externes, supporte uniquement l’API Claude textuelle, sans stockage persistant, et il n’y a pas de gestion avancée des erreurs automatisée, mais Claude peut déboguer son propre code via interface Analyse.

L’ère du « vibe coding » accessible

Claude Create Artifacts MBP

Anthropic simplifie le concept de vibe coding, permettant à tout un chacun de créer des applications via dialogue — même sans compétences techniques. Les créateurs débutants construisent plusieurs apps en quelques heures selon les témoignages.

Avec cette mise à jour, Claude se positionne comme une plateforme complète — pas seulement un chatbot. Anthropic rivalise ainsi avec OpenAI Canvas, se distinguant par la création d’applications partagables, et non de simples contenus.

Anthropic assure un encadrement robuste avec une modération automatisée & signalement utilisateur, un code isolé dans un sandbox sécurisé (iframe + CSP) et un suivi en temps réel pour éviter les abus.

Lire plus
Intelligence Artificielle

Google lance Gemini CLI : un agent IA open source pour transformer votre terminal

Google lance Gemini CLI : un agent IA open source pour transformer votre terminal

Google poursuit son offensive dans l’intelligence artificielle avec le lancement de Gemini CLI, un nouvel agent IA qui promet de révolutionner l’expérience des développeurs en ligne de commande.

Open source et gratuit, cet outil apporte la puissance des modèles Gemini directement dans le terminal des utilisateurs, pour coder, déboguer, générer du contenu ou mener des recherches, simplement avec des requêtes en langage naturel.

Gemini CLI GIF

Une intelligence locale, polyvalente et contextuelle

Basé sur Gemini 2.5 Pro, l’un des modèles les plus puissants de Google, Gemini CLI propose une fenêtre de contexte de 1 million de tokens, une capacité exceptionnelle pour comprendre des instructions complexes ou interagir avec de larges bases de code. Concrètement, les développeurs peuvent demander à Gemini CLI d’expliquer une portion de code, de rédiger une nouvelle fonctionnalité, de corriger des erreurs ou même d’exécuter des commandes.

Gemini CLI infographic.width 1000.format webp

Mais l’outil ne se limite pas au développement logiciel : Gemini CLI permet aussi de générer des vidéos via le modèle Veo, des images avec Imagen, ou encore d’accéder à des informations en temps réel via Google Search. Il s’intègre également à Gemini Code Assist, au protocole MCP (Model Context Protocol), et peut interagir avec des bases de données externes.

Un outil open source conçu pour la communauté

Distribué sous licence Apache 2.0, Gemini CLI est entièrement open source, ce qui signifie que les développeurs peuvent non seulement l’utiliser librement, mais aussi contribuer à son amélioration sur GitHub. Cette ouverture permet à Google de fédérer une communauté autour de cet outil et d’en accélérer l’adoption.

Un positionnement stratégique face à la concurrence

Face aux solutions de Microsoft (GitHub Copilot, Windows Terminal Copilot), OpenAI (Codex CLI) ou Anthropic (Claude Code), Google mise sur un accès direct, rapide et sans surcoût. Gemini CLI est gratuit via une licence personnelle Gemini Code Assist, offrant jusqu’à 60 requêtes par minute et 1 000 par jour — l’allocation gratuite la plus généreuse actuellement sur le marché.

Cette générosité vise à séduire les développeurs qui utilisent déjà des outils comme Cursor ou Copilot, et à renforcer la présence de Google dans l’univers des assistants de codage. D’autant plus que Gemini CLI peut fonctionner hors ligne, ce qui représente un avantage en matière de confidentialité et de performance.

Une IA puissante, mais à manier avec discernement

Comme le rappelle Google, malgré ses capacités avancées, l’usage de Gemini CLI ne doit pas faire oublier les risques associés aux outils IA : erreurs potentielles, failles de sécurité, ou interprétations hasardeuses. Une étude Stack Overflow 2024 montre que seulement 43 % des développeurs font confiance aux IA génératrices de code.

Google répond à ces inquiétudes en offrant aux développeurs un contrôle complet sur l’agent, avec des options de personnalisation, d’intégration locale, et une transparence accrue grâce à l’open source.

Avec Gemini CLI, Google ambitionne de faire de l’IA une partie intégrante des outils quotidiens des développeurs. Gratuit, open source, puissant et intégré, cet agent intelligent marque une étape majeure dans la démocratisation des assistants IA. Reste à voir si la communauté l’adoptera massivement — et surtout, si elle lui fera confiance.

Lire plus
Intelligence Artificielle

Google dévoile Gemini Robotics On-Device, une IA embarquée pour robots sans cloud

Google dévoile Gemini Robotics On-Device, une IA embarquée pour robots sans cloud

Google DeepMind vient de franchir une nouvelle étape majeure dans l’intégration de l’intelligence artificielle dans la robotique. Ce mardi, la firme a présenté Gemini Robotics On-Device, une version allégée, mais puissante de son modèle d’IA Gemini Robotics, capable de fonctionner directement sur les robots, sans connexion Internet.

Contrairement au modèle original, qui combinait exécution cloud et locale, cette nouvelle version fonctionne entièrement en local, rendant les robots indépendants du cloud. Cette évolution représente un bond en avant pour les applications dans les environnements où la latence réseau, la confidentialité ou la fiabilité de la connexion posent problème.

Le modèle, compact et optimisé, peut contrôler les mouvements d’un robot avec précision, tout en exécutant des tâches complexes, comme dézipper un sac ou plier des vêtements.

Lors des démonstrations, Gemini On-Device a su s’adapter à divers types de robots : le robot ALOHA de Google, le bi-bras Franka FR3 et même l’humanoïde Apollo développé par Apptronik.

Un modèle d’apprentissage rapide et généralisable

image 8 2

Selon Carolina Parada, responsable de la robotique chez DeepMind, l’IA peut apprendre de nouvelles tâches avec seulement 50 à 100 démonstrations. Cela permet d’adapter le modèle à différents scénarios industriels ou domestiques sans nécessiter un long entraînement ou des données massives.

Bien que la version cloud hybride de Gemini reste plus puissante, la version embarquée impressionne par sa capacité à généraliser des situations inédites. Google évoque notamment des succès sur des lignes d’assemblage où les objets ou contextes étaient inconnus du robot.

Un SDK dédié pour les développeurs

En parallèle, Google lance un SDK (kit de développement logiciel) permettant aux chercheurs et développeurs d’entraîner et tester facilement cette version embarquée du modèle Gemini Robotics. Les tests se font via MuJoCo, le simulateur physique open source de Google, rendant l’exploration des capacités de l’IA plus accessible à la communauté robotique.

Cette ouverture marque une première pour un modèle VLA (Vision-Language-Action) de DeepMind.

Un secteur en pleine ébullition

Google n’est pas seul sur ce terrain. Nvidia travaille actuellement sur une plateforme dédiée aux modèles de base pour robots humanoïdes. Hugging Face, de son côté, mise sur des datasets et modèles open source adaptés à la robotique. En Corée du Sud, la startup RLWRLD planche également sur des fondations IA dédiées aux robots.

Mais avec Gemini Robotics On-Device, Google pose un jalon concret et accessible, alliant puissance, autonomie et flexibilité — trois ingrédients clés pour démocratiser la robotique intelligente. Le modèle Gemini Robotics On-Device et son SDK seront d’abord disponibles pour un groupe restreint de testeurs. DeepMind prévoit un déploiement plus large une fois les risques de sécurité mieux maîtrisés.

Lire plus
Intelligence Artificielle

Le premier appareil IA de Jony Ive et OpenAI sortira en 2026 et ne sera pas un wearable

Le premier appareil IA de Jony Ive et OpenAI sortira en 2026 et ne sera pas un wearable

Alors que les rumeurs allaient bon train autour du mystérieux projet matériel de Jony Ive et OpenAI, une procédure judiciaire pour atteinte à une marque vient d’apporter un éclairage inattendu sur ce que ne sera pas leur futur produit. Grâce à des documents déposés au tribunal, on sait désormais que leur premier appareil IA ne sera ni des écouteurs ni un wearable.

Les informations proviennent d’une déclaration sous serment de Tang Tan, ancien responsable design chez Apple et aujourd’hui Chief Hardware Officer chez io, la division hardware d’OpenAI issue du rachat de l’équipe de Jony Ive pour 6,5 milliards de dollars. Selon lui, le prototype évoqué récemment par Sam Altman ne sera pas commercialisé avant 2026 au plus tôt.

« Son design n’est pas encore finalisé, mais il ne s’agit ni d’un appareil intra-auriculaire, ni d’un objet connecté », précise Tang Tan.

Cette précision a été communiquée dans le cadre d’un litige opposant OpenAI à la startup Iyo, qui développe des écouteurs intelligents baptisés « audio computer ».

Un nom trop proche ?

OpenAI avait lancé publiquement sa marque « io » (pour input/output), avant d’être contrainte de la retirer à la suite d’une injonction. La startup Iyo, qui commercialisera bientôt des écouteurs IA, accuse OpenAI de violation délibérée de marque. Elle affirme qu’Altman et son équipe étaient au courant de leur projet et avaient même sollicité une démonstration du produit.

Des e-mails révélés dans les pièces du procès montrent clairement qu’OpenAI explorait l’idée d’un appareil audio intelligent. Dans un message daté de mars, un employé de io propose même l’achat de scans 3D d’oreilles humaines pour optimiser l’ergonomie de leurs prototypes.

Dans une autre correspondance, Sam Altman refuse une proposition d’investissement de Iyo avec un message laconique, mais révélateur : « Thanks but I’m working on something competitive so will respectfully pass ».

Un produit qui ne sera pas un simple écouteur

Malgré ces échanges, OpenAI insiste aujourd’hui sur le fait que le design final ne concernera pas d’objet porté à l’oreille. L’entreprise dit avoir étudié une large gamme de concepts : appareils de bureau, portables, filaires ou non, portables ou non, mais que le choix s’est finalement porté sur une autre forme.

Ce recul semble stratégique : la marque Iyo avait déjà déposé un brevet pour un « ordinateur audio », et toute ressemblance commerciale aurait pu entraîner un blocage juridique durable.

Lancement prévu en 2026, mais encore flou

À ce stade, aucun visuel officiel ni description précise du produit n’a encore filtré. Selon certaines sources, il pourrait s’agir d’un appareil plus grand que l’AI Pin d’Humane, mais plus intuitif, plus fonctionnel, et surtout, centré sur les capacités conversationnelles de GPT via ChatGPT.

Le pari d’OpenAI et Jony Ive semble être de créer une nouvelle catégorie d’appareil, ni smartphone ni assistant vocal traditionnel, mais un outil IA de nouvelle génération, intégré dans notre quotidien de façon naturelle.

Ce que l’on sait désormais avec certitude, c’est que le futur appareil AI signé OpenAI/Jony Ive ne sera pas une paire d’écouteurs. Un choix stratégique qui pourrait les distinguer des concurrents comme Humane, Rabbit ou Iyo. Mais au-delà de la forme, l’enjeu est bien plus ambitieux : réinventer notre manière d’interagir avec l’IA au quotidien. Réponse définitive attendue… en 2026.

 

Lire plus