fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Google tease des jeux vidéo générés par IA avec Veo 3 et Genie

Google tease des jeux vidéo générés par IA avec Veo 3 et Genie

Google prépare-t-il discrètement une révolution dans l’univers du jeu vidéo ? C’est ce que laissent entendre plusieurs messages énigmatiques postés sur X par des figures clés de DeepMind, l’unité de recherche en IA du géant américain. En réponse à un message demandant à pouvoir « jouer dans les vidéos générées par Veo 3 », Demis Hassabis, PDG de DeepMind, a répondu avec malice : « Now wouldn’t that be something » (« Ce ne serait pas quelque chose »).

Veo 3 : plus qu’un générateur vidéo classique

Veo 3, actuellement en aperçu public, est le dernier modèle de génération vidéo de Google. Capable de créer non seulement des séquences visuelles ultra-réalistes mais aussi des pistes sonores (bruits, musiques, voix), il intègre une simulation des mouvements basée sur des lois physiques réalistes.

Mais attention : Veo 3 n’est pas encore ce qu’on appelle un modèle monde (world model). Il génère des vidéos passivement, sans interaction, à la différence des simulateurs actifs capables de réagir en temps réel aux actions d’un utilisateur.

La distinction est cruciale. Un générateur vidéo, comme Veo 3, crée des séquences à partir de requêtes textuelles ou visuelles. Un modèle monde, lui, simule dynamiquement un environnement, permettant à un agent (ou à un joueur) de tester des actions et en observer les conséquences, en temps réel.

C’est le principe des moteurs de jeu, mais poussé à l’extrême par l’IA : l’environnement n’est plus codé à la main, il est généré et animé par un réseau de neurones.

Google mise gros sur les mondes simulés

Google ne cache plus ses ambitions : faire évoluer Gemini 2.5 Pro, son modèle fondation multimodal, vers une IA capable de simuler des aspects du cerveau humain. En parallèle, DeepMind a présenté fin 2024 Genie 2, un modèle capable de générer une infinité de mondes jouables.

Depuis janvier 2025, l’entreprise a aussi formé une équipe dédiée au développement de modèles monde, orientés jeux vidéo et simulations interactives.

Vers des jeux IA hybrides : Veo + Genie ?

À ce stade, Veo 3 pourrait surtout servir à créer des éléments cinématiques de jeu : cutscenes, trailers, animations narratives… Mais à l’avenir, Google pourrait combiner Veo (pour l’esthétique) avec Genie (pour la logique et la jouabilité) afin de produire des expériences de jeu entièrement générées par IA.

Cela représenterait une rupture majeure dans le game design, avec des jeux créés à la volée en fonction des actions du joueur et un contenu infini, mais cohérent.

Une course technologique déjà lancée

Google n’est pas seul sur ce créneau. Microsoft, Runway, Scenario, Pika, et bien sûr OpenAI avec son très attendu modèle Sora travaillent tous sur des systèmes de génération vidéo avancée. Mais aucun n’a encore réussi à créer un modèle monde pleinement interactif, en temps réel et sans bugs.

L’expertise de DeepMind en simulation (notamment via AlphaGo, AlphaStar et MuZero), associée aux moyens colossaux de Google, place l’entreprise en pole position pour dominer le futur des jeux IA.

Les déclarations énigmatiques de Demis Hassabis et Logan Kilpatrick ouvrent la porte à une révolution vidéoludique alimentée par l’intelligence artificielle. Si Veo 3 n’est pour l’instant qu’un générateur vidéo, son intégration future avec des modèles comme Genie pourrait bien donner naissance à des mondes jouables générés en temps réel, où l’imagination du joueur serait la seule limite.

Le jeu vidéo, tel qu’on le connaît, pourrait être sur le point de basculer dans une nouvelle ère… générée par IA.

 

Lire plus
Intelligence Artificielle

Veo 3 débarque dans le monde entier, dont la France, sur l’app Gemini via Google AI Pro

Veo 3 débarque dans le monde entier, dont la France, sur l’app Gemini via Google AI Pro

Google étend aujourd’hui la disponibilité de Veo 3, son modèle de génération vidéo IA, aux nouvelles régions — y compris la France — pour les abonnés à Google AI Pro sur l’application Gemini.

Présenté lors de Google I/O, Veo 3 permet de créer des vidéos de 8 secondes, entièrement générées par l’IA avec audio intégré : voix synthétique, musique de fond et effets sonores. Ces créations originales vont des récits imaginatifs aux scènes surréalistes, avec très peu d’entrée utilisateur nécessaire.

Pour éviter les usages abusifs et les deepfakes, Google a mis en place :

  • Un filigrane visible sur chaque vidéo générée (hors plan Ultra/Flow),
  • Un filigrane invisible SynthID pour authentifier le contenu IA.

Veo 3 : Disponibilité mondiale avec Google AI Pro

Depuis aujourd’hui, tous les utilisateurs éligibles disposant de l’abonnement Google AI Pro peuvent accéder à Veo 3 via l’app Gemini, y compris en France.

Cet abonnement comprend également d’autres fonctionnalités avancées : le modèle multimodal Gemini 2.5 Pro, Veo 2 Video Tools, Whisk, NotebookLM, l’intégration Gemini dans l’écosystème Google, ainsi que 2 To de stockage cloud.

David Sharon, responsable multimodal chez Gemini Apps, commente : « Ces créations étonnantes sont la raison pour laquelle nous, l’équipe Veo 3, faisons ce que nous faisons — et pourquoi nous rendons Veo 3 accessible à davantage de personnes dans le monde ».

Fonctionnalités clés

Selon DeepMind, Veo 3 offre une qualité vidéo améliorée (résolution 4K, simulation physique réaliste) et une meilleure fidélité au prompt, avec un contrôle créatif renforcé.

Veo 3 s’ouvre désormais à un public plus large grâce à Google AI Pro, marquant une étape majeure vers une démocratisation de la vidéo IA créative. Giftée aux foyers en Inde et ailleurs, cette capacité à générer des clips audio-visuels de haute qualité avec un minimum d’effort augure d’une adoption croissante par les créateurs. Google renforce également la transparence via le filigrane SynthID, tout en enrichissant son écosystème Gemini.

Lire plus
Intelligence Artificielle

Perplexity Max : l’abonnement IA à 200 dollars/mois pour les professionnels

Perplexity Max : l’abonnement IA à 200 dollars/mois pour les professionnels

Perplexity, le moteur de recherche basé sur l’intelligence artificielle, vient de lancer Perplexity Max, un nouveau forfait à 200 dollars par mois destiné à ses utilisateurs les plus exigeants. Cette initiative s’inscrit dans une stratégie plus large visant à concurrencer les géants comme OpenAI, Google ou Anthropic sur le marché des offres IA professionnelles et premium.

Qu’est-ce que Perplexity Max ?

Perplexity Max est une formule ultra-premium pensée pour les utilisateurs intensifs tels que les analystes, chercheurs, journalistes, développeurs ou chefs de projet. Elle propose un accès illimité aux outils avancés de Perplexity, une priorité d’accès aux derniers modèles d’IA, et des fonctionnalités exclusives comme un navigateur intelligent baptisé Comet.

Avec cette offre, la start-up montre qu’elle cherche à capitaliser sur la demande croissante pour des solutions d’IA performantes, tout en assurant la viabilité financière d’un modèle très coûteux à maintenir.

Quelles fonctionnalités propose Perplexity Max ?

L’offre Max ne se limite pas à une version boostée des plans existants, elle introduit des outils inédits et des accès privilégiés :

  1. Accès illimité à Labs : Perplexity Labs permet de générer des rapports dynamiques, feuilles de calcul intelligentes ou présentations automatisées. Avec Max, il n’y a aucune limitation d’usage.
  2. Accès prioritaire aux meilleurs modèles IA : Les abonnés Max bénéficient d’un accès privilégié aux modèles les plus récents et performants, comme OpenAI o3-pro et Claude Opus 4, sans passer par les files d’attente classiques.
  3. Accès anticipé à Comet, le navigateur IA : Comet, le navigateur IA développé par Perplexity, sera d’abord proposé aux abonnés Max. Il promet une expérience web augmentée, avec recherche intelligente, résumé en temps réel et réponses contextuelles.
  4. Support premium : Les utilisateurs Max bénéficient d’un support client rapide et prioritaire, une nécessité pour les usages professionnels à haute disponibilité.

Pourquoi ce tarif aussi élevé ?

Plan

Tarif mensuel

Accès Labs

Modèles IA

Support client

Gratuit

0 dollars

Non

Limité

Basique

Pro

20 dollars

Limité

Oui

Standard

Enterprise

40 dollars/utilisateur

Oui

Oui

Prioritaire

Max

200 dollars

Illimité

Prioritaire

Premium

Perplexity dépense énormément en infrastructures cloud et en licences de modèles d’IA. En 2024, l’entreprise a généré 34 millions de dollars de revenus, mais en a dépensé près du double (65 millions) en charges opérationnelles.

L’offre Max vise donc deux objectifs :

  • Amortir les coûts élevés d’exploitation via des abonnements à forte marge.
  • S’ancrer dans un segment professionnel, où les utilisateurs sont prêts à payer cher pour gagner du temps et booster leur productivité.

Un marché de plus en plus compétitif

Perplexity n’est pas seul sur ce créneau. OpenAI propose déjà ChatGPT Pro à 20 dollars/mois et ChatGPT Team ou Enterprise à partir de 60 à 200 dollars/mois. Anthropic (Claude Max), Google (Gemini Advanced) ou encore Cursor AI ont également des offres premium similaires.

Mais là où Perplexity se distingue, c’est dans sa interface centrée sur la recherche, une rapidité d’exécution reconnue, et une capacité à agréger plusieurs modèles IA dans un seul outil, ce qui en fait une vraie boîte à outils d’IA universelle.

Quelle suite pour Perplexity ?

Avec un chiffre d’affaires annuel récurrent (ARR) estimé à 80 millions de dollars début 2025, Perplexity poursuit sa croissance, mais doit encore convaincre les investisseurs. Elle est actuellement en discussion pour lever 500 millions de dollars sur une valorisation de 14 milliards, preuve que ses ambitions sont énormes.

Perplexity Max s’adresse à une niche de professionnels ultra-connectés prêts à investir dans des outils IA de pointe. L’offre est ambitieuse, riche, et marque une nouvelle étape dans la course à l’IA générative haut de gamme.

Lire plus
Intelligence Artificielle

Grammarly rachète Superhuman : l’email devient le cœur de sa nouvelle stratégie IA

Grammarly Superhuman

Célèbre pour son assistant rédactionnel intelligent, Grammarly, vient d’annoncer l’acquisition de Superhuman, une application d’e-mail premium plébiscitée par les professionnels de la tech. Ce rachat marque un virage stratégique majeur pour l’entreprise, bien décidée à se transformer en une plateforme de productivité basée sur des agents d’intelligence artificielle spécialisés.

Grammarly affirme que l’e-mail est déjà le cas d’usage numéro un de son assistant IA, avec plus de 50 millions d’e-mails corrigés chaque semaine sur plus de 20 services différents. En intégrant Superhuman, Grammarly ne se contente plus de se greffer à d’autres outils, elle devient éditeur de son propre client mail, offrant ainsi une expérience 100 % optimisée.

Superhuman, connue pour sa rapidité, son design minimaliste et ses raccourcis clavier intuitifs, sera donc le terrain d’expérimentation idéal pour intégrer une IA profondément ancrée dans les workflows professionnels. Le but : réinventer la manière dont les professionnels interagissent avec leurs e-mails au quotidien.

Une plateforme d’agents IA : le futur selon Grammarly

Avec cette acquisition, Grammarly officialise son ambition de devenir une plateforme d’agents IA multitâches. L’idée est de permettre à plusieurs agents spécialisés — vente, marketing, support, communication — de collaborer simultanément autour d’un même objectif.

Dans un avenir proche, un utilisateur pourrait rédiger une réponse client avec un agent « support », structurer un argumentaire avec un agent « vente », et laisser un agent « marketing » peaufiner le ton — le tout sans quitter son client email. Superhuman devient ainsi le terrain d’expression de cette « productivité augmentée », à mi-chemin entre un assistant personnel et une équipe IA.

Intégration et indépendance

Rahul Vohra, CEO et fondateur de Superhuman, rejoint Grammarly aux côtés de plus de 100 collaborateurs. Superhuman restera une marque et une application autonome à court terme, mais des synergies sont déjà en cours pour intégrer Grammarly en profondeur dans l’expérience utilisateur.

Cette autonomie partielle permet à Grammarly de ne pas perturber l’équilibre existant de Superhuman, tout en expérimentant progressivement une version enrichie par ses agents IA.

Une stratégie financée par une santé financière solide

Grammarly, avec plus de 700 millions de dollars de revenus annuels et 40 millions d’utilisateurs actifs quotidiens, a levé 1 milliard de dollars début 2025 pour soutenir sa croissance. Superhuman, quant à elle, générait environ 35 millions de dollars de revenus annuels et était valorisée à 825 millions de dollars lors de son dernier tour de table.

Cette acquisition s’inscrit donc dans une stratégie de croissance externe bien financée, visant à concurrencer frontalement des géants comme Google Workspace avec Gemini, Microsoft Copilot ou OpenAI avec ChatGPT Enterprise.

Avec ce rachat, Grammarly quitte le monde des « plugins » pour devenir un acteur de premier plan dans l’univers des outils de productivité intelligents. En misant sur l’email — une activité où les professionnels passent en moyenne plus de 3 heures par jour — l’entreprise s’assure une adoption massive et des cas d’usage concrets.

Si la vision des agents IA spécialisés se concrétise, Grammarly pourrait bien devenir un OS de la productivité, orchestrant plusieurs intelligences autour de l’utilisateur dans un seul et même espace de travail.

 

Lire plus
Intelligence Artificielle

Siri boosté par ChatGPT ou Claude ? Apple envisage d’abandonner son IA maison

Pixel 10 Pro et Pro XL : Google recycle ses smartphones avec un nouveau processeur

Alors que la guerre de l’intelligence artificielle fait rage entre les géants de la tech, Apple serait sur le point de faire un virage stratégique majeur. Selon une enquête publiée par Bloomberg, Apple envisagerait d’intégrer des modèles d’IA tiers, notamment ceux d’OpenAI (ChatGPT) et d’Anthropic (Claude), pour alimenter la prochaine génération de Siri.

Un Siri repensé avec Claude ou ChatGPT

Apple travaille depuis plusieurs années sur un projet interne nommé « LLM Siri », visant à doter son assistant vocal d’une IA générative maison. Mais les progrès seraient bien en deçà des attentes, au point de repousser la sortie d’une version véritablement « intelligente » de Siri, initialement prévue pour 2025, à 2026 ou au-delà.

Face à ces retards, Apple aurait discrètement demandé à OpenAI et Anthropic de concevoir des versions personnalisées de leurs modèles d’IA, capables de fonctionner sur l’infrastructure cloud privée d’Apple. L’objectif est clair : offrir une IA performante, tout en maintenant la promesse de confidentialité chère à l’écosystème Apple.

Un retard technologique difficile à rattraper

Apple accuse un retard considérable face à ses concurrents. Google déploie Gemini dans ses services, Samsung intègre l’IA générative dans les Galaxy S24 et S25, et Microsoft multiplie les intégrations de Copilot.

Siri, de son côté, peine à évoluer. Malgré une intégration de ChatGPT sur iOS pour des tâches spécifiques, l’assistant vocal utilise toujours des modèles internes très limités. En l’état, Siri est largement dépassé.

Claude, ChatGPT ou Perplexity : quelle IA pour Apple ?

Outre OpenAI et Anthropic, Apple aurait aussi envisagé de racheter Perplexity AI pour alimenter un nouveau moteur de recherche dans Safari, au cas où son partenariat de 20 milliards de dollars avec Google venait à être interrompu par une décision de justice.

Ce revirement stratégique rappelle la méthode adoptée par Samsung, qui s’appuie sur l’IA de Google pour ses smartphones. Apple semble suivre un chemin similaire, bien que tardivement.

Confidentialité en ligne de mire

Même si Apple finit par s’associer à des acteurs tiers, la firme entend garder le contrôle. Les modèles d’IA de ChatGPT ou Claude seraient entraînés spécifiquement pour Apple et hébergés sur ses propres serveurs. Cela permettrait de garantir que les données utilisateurs ne quittent pas l’écosystème Apple, conformément à ses engagements sur la vie privée.

Avec l’aide de partenaires extérieurs, Apple pourrait peut-être lancer une nouvelle version de Siri avant 2026. Cependant, les retards passés et la complexité d’une telle intégration laissent présager une sortie plus tardive. L’enjeu est pourtant crucial : des produits comme les lunettes AR intelligentes reposent fortement sur une IA fiable et performante.

L’intelligence artificielle est désormais un terrain de différenciation majeur. Apple, longtemps perçue comme suiveuse dans ce domaine, ne peut plus se permettre de rester en retrait. Entre Claude, ChatGPT et peut-être Perplexity, la firme cherche un partenaire à la hauteur de ses ambitions — et de ses standards de confidentialité.

 

Lire plus
Intelligence Artificielle

Gemini : Google lance les actions programmées pour automatiser vos tâches

Gemini : Google lance les actions programmées pour automatiser vos tâches

Google continue d’affûter son assistant IA, Gemini, avec une nouveauté majeure : les Actions Programmées. Déployée officiellement en fin de semaine dernière, cette fonctionnalité permet désormais d’automatiser des tâches à des moments précis ou de façon récurrente, sur Android, iOS et le web.

Si l’on parlait jusqu’ici de requêtes ponctuelles, Gemini franchit un cap vers des usages plus intelligents et autonomes. Une tendance très en vogue dans le domaine des IA dites « agentiques », où les assistants deviennent proactifs.

Le principe est simple : l’utilisateur envoie une instruction précise accompagnée d’un créneau horaire ou d’une fréquence. Gemini confirme alors la demande et l’exécute automatiquement à l’heure prévue. Vous pouvez par exemple demander à Gemini :

  • de vous envoyer un rapport météo chaque matin,
  • de générer un plan d’entraînement chaque lundi à 7 h,
  • ou encore de résumer les infos tech tous les soirs.

Le prompt sera exécuté dans l’heure suivant l’horaire défini, selon les précisions de Google.

Gemini : Un tableau de bord dédié pour gérer vos tâches

Sur mobile, les actions programmées sont accessibles via le menu de profil, tandis que sur le Web, elles se trouvent dans le panneau latéral de « Paramètres et Aide ». Cet espace vous permet de consulter vos tâches actives, les suspendre, modifier ou supprimer, et même changer le nom, la fréquence (quotidienne, hebdo ou mensuelle), ou le prompt associé.

Actuellement, il est possible de créer jusqu’à 10 actions actives simultanément.

Cette fonctionnalité transforme Gemini en véritable assistant de productivité. Elle peut vous assister dans toutes sortes de routines : veille concurrentielle, notifications santé, relances personnelles, création de contenu régulier, etc. On retrouve ici un concept proche de ce que propose ChatGPT avec ses tâches planifiées, signe que les assistants IA s’alignent progressivement vers une vision commune du compagnon numérique intelligent.

Réservé aux abonnés payants

Attention toutefois : cette nouveauté n’est pas accessible aux utilisateurs gratuits de Gemini. Elle est uniquement disponible pour les abonnés aux formules Google AI Pro/Ultra, ou aux clients Google Workspace (éducation et entreprises).

Avec l’ajout des Actions Programmées, Google fait entrer Gemini dans une nouvelle ère. L’IA ne se contente plus de répondre à vos questions : elle devient actrice, en anticipant vos besoins à intervalles réguliers. Une fonctionnalité simple mais puissante, qui rapproche un peu plus l’IA d’un véritable assistant personnel autonome.

Lire plus
Intelligence Artificielle

Google Gemini prend (vraiment) la relève de Google Assistant dès le 7 juillet

Google Gemini prend (vraiment) la relève de Google Assistant dès le 7 juillet

Il fut un temps où Google Assistant dominait largement le marché des assistants vocaux, éclipsant Siri, Alexa ou encore Cortana grâce à sa compréhension contextuelle et à la précision de ses réponses. Mais l’arrivée de l’intelligence artificielle générative a changé la donne.

Aujourd’hui, Google prépare la bascule définitive de Google Assistant vers Gemini, son assistant IA nouvelle génération, avec une mise à jour majeure prévue pour le 7 juillet 2025.

Gemini remplacera Google Assistant… même sans collecte de données

D’après un e-mail repéré par Android Police, cette mise à jour permettra à Gemini d’interagir avec les applications natives du smartphone, comme Téléphone, Messages, WhatsApp ou encore les outils système (alarmes, minuteurs, etc.), même si l’activité Gemini est désactivée.

Autrement dit, les utilisateurs pourront envoyer des messages, lancer des appels ou régler un minuteur sans que leurs données ne soient exploitées pour améliorer les modèles IA de Google. Ce compromis vise à rassurer ceux soucieux de leur vie privée, tout en leur laissant profiter des fonctionnalités pratiques d’un assistant virtuel.

Moins de surveillance, mais toujours un minimum de journalisation

Même avec l’activité Gemini désactivée, Google conserve les données de vos interactions avec l’IA pendant 72 heures. Ce court délai sert à garantir la sécurité, la modération et la possibilité d’améliorer la qualité de service.

Si vous souhaitez couper totalement l’historique Gemini :

  1. Ouvrez l’application Gemini.
  2. Appuyez sur votre photo de profil (coin supérieur droit).
  3. Sélectionnez Activité des applications Gemini.
  4. Appuyez sur Désactiver et choisissez si vous souhaitez aussi supprimer l’historique.

Une IA prête pour les tâches du quotidien

Avec cette mise à jour, Gemini devient réellement un assistant complet. Les tâches courantes, comme passer un appel, envoyer un message, lancer une playlist ou régler une alarme, sont désormais gérées par l’IA générative, même en mode « confidentiel ».

Cela marque un tournant. En effet, jusqu’ici, les fonctionnalités pratiques de Google Assistant étaient indisponibles si l’activité Gemini était désactivée. Désormais, les utilisateurs n’ont plus à choisir entre confidentialité et praticité.

Siri à la traîne ?

En parallèle, Apple peine à suivre le rythme. Alors que Google introduit une IA capable d’exécuter des commandes en langage naturel à travers plusieurs apps, Siri reste limité, et les innovations prévues (comme « Personal Siri ») semblent toujours en développement. Apple mise sur iOS 18 pour combler l’écart, mais Gemini semble déjà avoir pris une longueur d’avance.

Google officialisera ces nouveautés à partir du 7 juillet 2025. À partir de cette date, Gemini sera capable de remplacer Google Assistant dans presque tous les usages quotidiens, sans nécessiter l’enregistrement de vos données personnelles à long terme.

Lire plus
Intelligence Artificielle

Claude d’Anthropic devient plateforme IA : créez et partagez des apps sans coder

Claude d’Anthropic devient plateforme IA : créez et partagez des apps sans coder

Anthropic franchit une nouvelle étape en permettant désormais de construire des applications IA évolutives au sein de Claude via les Artifacts, sans écrire une ligne de code. Bêta lancée aujourd’hui, cette évolution annonce la transformation de Claude en véritable plateforme plus qu’en simple assistant.

Fonctionnement pas à pas :

  1. Activez la fonctionnalité « Create AI-powered artifacts » depuis les paramètres de Claude.
  2. Décrivez ce que vous souhaitez créer : un jeu, un outil d’analyse, un tutoriel interactif…
  3. Claude génère en temps réel le code complet (souvent en React/JS), avec aperçu intégré via iframe.
  4. Vous pouvez tester, modifier et publier l’application en un clic — pas besoin de serveur ni d’infrastructure.

De premiers projets partagés incluent des jeux IA avec personnages adaptatifs (NPC), des outils pédagogiques pour l’apprentissage personnalisé, des analyseurs de données via import CSV, des assistants de rédaction et des workflows automatisés orchestrant plusieurs appels Claude.

Ces mini-apps peuvent appeler l’API Claude via la fonction window.claude.complete(), que les utilisateurs interagissent ensuite avec leur propre compte et forfait.

Claude : Partage facile, facturation transparente

Il suffit d’un lien pour partager votre application, et l’utilisation est facturée sur le compte de l’utilisateur final, pas le créateur. Pas besoin de gestion API keys ou serveurs : tout est pris en charge par Claude.

Cette fonctionnalité est disponible en bêta pour tous les utilisateurs gratuit, abonnement Pro (20 dollars) et abonnement Max/Team.

Actuellement, il existe certaines limites graphiques et techniques : Interface sandboxée via iframe et CSP, sans accès à localStorage ni fetch externes, supporte uniquement l’API Claude textuelle, sans stockage persistant, et il n’y a pas de gestion avancée des erreurs automatisée, mais Claude peut déboguer son propre code via interface Analyse.

L’ère du « vibe coding » accessible

Claude Create Artifacts MBP

Anthropic simplifie le concept de vibe coding, permettant à tout un chacun de créer des applications via dialogue — même sans compétences techniques. Les créateurs débutants construisent plusieurs apps en quelques heures selon les témoignages.

Avec cette mise à jour, Claude se positionne comme une plateforme complète — pas seulement un chatbot. Anthropic rivalise ainsi avec OpenAI Canvas, se distinguant par la création d’applications partagables, et non de simples contenus.

Anthropic assure un encadrement robuste avec une modération automatisée & signalement utilisateur, un code isolé dans un sandbox sécurisé (iframe + CSP) et un suivi en temps réel pour éviter les abus.

Lire plus
Intelligence Artificielle

Google lance Gemini CLI : un agent IA open source pour transformer votre terminal

Google lance Gemini CLI : un agent IA open source pour transformer votre terminal

Google poursuit son offensive dans l’intelligence artificielle avec le lancement de Gemini CLI, un nouvel agent IA qui promet de révolutionner l’expérience des développeurs en ligne de commande.

Open source et gratuit, cet outil apporte la puissance des modèles Gemini directement dans le terminal des utilisateurs, pour coder, déboguer, générer du contenu ou mener des recherches, simplement avec des requêtes en langage naturel.

Gemini CLI GIF

Une intelligence locale, polyvalente et contextuelle

Basé sur Gemini 2.5 Pro, l’un des modèles les plus puissants de Google, Gemini CLI propose une fenêtre de contexte de 1 million de tokens, une capacité exceptionnelle pour comprendre des instructions complexes ou interagir avec de larges bases de code. Concrètement, les développeurs peuvent demander à Gemini CLI d’expliquer une portion de code, de rédiger une nouvelle fonctionnalité, de corriger des erreurs ou même d’exécuter des commandes.

Gemini CLI infographic.width 1000.format webp

Mais l’outil ne se limite pas au développement logiciel : Gemini CLI permet aussi de générer des vidéos via le modèle Veo, des images avec Imagen, ou encore d’accéder à des informations en temps réel via Google Search. Il s’intègre également à Gemini Code Assist, au protocole MCP (Model Context Protocol), et peut interagir avec des bases de données externes.

Un outil open source conçu pour la communauté

Distribué sous licence Apache 2.0, Gemini CLI est entièrement open source, ce qui signifie que les développeurs peuvent non seulement l’utiliser librement, mais aussi contribuer à son amélioration sur GitHub. Cette ouverture permet à Google de fédérer une communauté autour de cet outil et d’en accélérer l’adoption.

Un positionnement stratégique face à la concurrence

Face aux solutions de Microsoft (GitHub Copilot, Windows Terminal Copilot), OpenAI (Codex CLI) ou Anthropic (Claude Code), Google mise sur un accès direct, rapide et sans surcoût. Gemini CLI est gratuit via une licence personnelle Gemini Code Assist, offrant jusqu’à 60 requêtes par minute et 1 000 par jour — l’allocation gratuite la plus généreuse actuellement sur le marché.

Cette générosité vise à séduire les développeurs qui utilisent déjà des outils comme Cursor ou Copilot, et à renforcer la présence de Google dans l’univers des assistants de codage. D’autant plus que Gemini CLI peut fonctionner hors ligne, ce qui représente un avantage en matière de confidentialité et de performance.

Une IA puissante, mais à manier avec discernement

Comme le rappelle Google, malgré ses capacités avancées, l’usage de Gemini CLI ne doit pas faire oublier les risques associés aux outils IA : erreurs potentielles, failles de sécurité, ou interprétations hasardeuses. Une étude Stack Overflow 2024 montre que seulement 43 % des développeurs font confiance aux IA génératrices de code.

Google répond à ces inquiétudes en offrant aux développeurs un contrôle complet sur l’agent, avec des options de personnalisation, d’intégration locale, et une transparence accrue grâce à l’open source.

Avec Gemini CLI, Google ambitionne de faire de l’IA une partie intégrante des outils quotidiens des développeurs. Gratuit, open source, puissant et intégré, cet agent intelligent marque une étape majeure dans la démocratisation des assistants IA. Reste à voir si la communauté l’adoptera massivement — et surtout, si elle lui fera confiance.

Lire plus
Intelligence Artificielle

Google dévoile Gemini Robotics On-Device, une IA embarquée pour robots sans cloud

Google dévoile Gemini Robotics On-Device, une IA embarquée pour robots sans cloud

Google DeepMind vient de franchir une nouvelle étape majeure dans l’intégration de l’intelligence artificielle dans la robotique. Ce mardi, la firme a présenté Gemini Robotics On-Device, une version allégée, mais puissante de son modèle d’IA Gemini Robotics, capable de fonctionner directement sur les robots, sans connexion Internet.

Contrairement au modèle original, qui combinait exécution cloud et locale, cette nouvelle version fonctionne entièrement en local, rendant les robots indépendants du cloud. Cette évolution représente un bond en avant pour les applications dans les environnements où la latence réseau, la confidentialité ou la fiabilité de la connexion posent problème.

Le modèle, compact et optimisé, peut contrôler les mouvements d’un robot avec précision, tout en exécutant des tâches complexes, comme dézipper un sac ou plier des vêtements.

Lors des démonstrations, Gemini On-Device a su s’adapter à divers types de robots : le robot ALOHA de Google, le bi-bras Franka FR3 et même l’humanoïde Apollo développé par Apptronik.

Un modèle d’apprentissage rapide et généralisable

image 8 2

Selon Carolina Parada, responsable de la robotique chez DeepMind, l’IA peut apprendre de nouvelles tâches avec seulement 50 à 100 démonstrations. Cela permet d’adapter le modèle à différents scénarios industriels ou domestiques sans nécessiter un long entraînement ou des données massives.

Bien que la version cloud hybride de Gemini reste plus puissante, la version embarquée impressionne par sa capacité à généraliser des situations inédites. Google évoque notamment des succès sur des lignes d’assemblage où les objets ou contextes étaient inconnus du robot.

Un SDK dédié pour les développeurs

En parallèle, Google lance un SDK (kit de développement logiciel) permettant aux chercheurs et développeurs d’entraîner et tester facilement cette version embarquée du modèle Gemini Robotics. Les tests se font via MuJoCo, le simulateur physique open source de Google, rendant l’exploration des capacités de l’IA plus accessible à la communauté robotique.

Cette ouverture marque une première pour un modèle VLA (Vision-Language-Action) de DeepMind.

Un secteur en pleine ébullition

Google n’est pas seul sur ce terrain. Nvidia travaille actuellement sur une plateforme dédiée aux modèles de base pour robots humanoïdes. Hugging Face, de son côté, mise sur des datasets et modèles open source adaptés à la robotique. En Corée du Sud, la startup RLWRLD planche également sur des fondations IA dédiées aux robots.

Mais avec Gemini Robotics On-Device, Google pose un jalon concret et accessible, alliant puissance, autonomie et flexibilité — trois ingrédients clés pour démocratiser la robotique intelligente. Le modèle Gemini Robotics On-Device et son SDK seront d’abord disponibles pour un groupe restreint de testeurs. DeepMind prévoit un déploiement plus large une fois les risques de sécurité mieux maîtrisés.

Lire plus
Intelligence Artificielle

Le premier appareil IA de Jony Ive et OpenAI sortira en 2026 et ne sera pas un wearable

Le premier appareil IA de Jony Ive et OpenAI sortira en 2026 et ne sera pas un wearable

Alors que les rumeurs allaient bon train autour du mystérieux projet matériel de Jony Ive et OpenAI, une procédure judiciaire pour atteinte à une marque vient d’apporter un éclairage inattendu sur ce que ne sera pas leur futur produit. Grâce à des documents déposés au tribunal, on sait désormais que leur premier appareil IA ne sera ni des écouteurs ni un wearable.

Les informations proviennent d’une déclaration sous serment de Tang Tan, ancien responsable design chez Apple et aujourd’hui Chief Hardware Officer chez io, la division hardware d’OpenAI issue du rachat de l’équipe de Jony Ive pour 6,5 milliards de dollars. Selon lui, le prototype évoqué récemment par Sam Altman ne sera pas commercialisé avant 2026 au plus tôt.

« Son design n’est pas encore finalisé, mais il ne s’agit ni d’un appareil intra-auriculaire, ni d’un objet connecté », précise Tang Tan.

Cette précision a été communiquée dans le cadre d’un litige opposant OpenAI à la startup Iyo, qui développe des écouteurs intelligents baptisés « audio computer ».

Un nom trop proche ?

OpenAI avait lancé publiquement sa marque « io » (pour input/output), avant d’être contrainte de la retirer à la suite d’une injonction. La startup Iyo, qui commercialisera bientôt des écouteurs IA, accuse OpenAI de violation délibérée de marque. Elle affirme qu’Altman et son équipe étaient au courant de leur projet et avaient même sollicité une démonstration du produit.

Des e-mails révélés dans les pièces du procès montrent clairement qu’OpenAI explorait l’idée d’un appareil audio intelligent. Dans un message daté de mars, un employé de io propose même l’achat de scans 3D d’oreilles humaines pour optimiser l’ergonomie de leurs prototypes.

Dans une autre correspondance, Sam Altman refuse une proposition d’investissement de Iyo avec un message laconique, mais révélateur : « Thanks but I’m working on something competitive so will respectfully pass ».

Un produit qui ne sera pas un simple écouteur

Malgré ces échanges, OpenAI insiste aujourd’hui sur le fait que le design final ne concernera pas d’objet porté à l’oreille. L’entreprise dit avoir étudié une large gamme de concepts : appareils de bureau, portables, filaires ou non, portables ou non, mais que le choix s’est finalement porté sur une autre forme.

Ce recul semble stratégique : la marque Iyo avait déjà déposé un brevet pour un « ordinateur audio », et toute ressemblance commerciale aurait pu entraîner un blocage juridique durable.

Lancement prévu en 2026, mais encore flou

À ce stade, aucun visuel officiel ni description précise du produit n’a encore filtré. Selon certaines sources, il pourrait s’agir d’un appareil plus grand que l’AI Pin d’Humane, mais plus intuitif, plus fonctionnel, et surtout, centré sur les capacités conversationnelles de GPT via ChatGPT.

Le pari d’OpenAI et Jony Ive semble être de créer une nouvelle catégorie d’appareil, ni smartphone ni assistant vocal traditionnel, mais un outil IA de nouvelle génération, intégré dans notre quotidien de façon naturelle.

Ce que l’on sait désormais avec certitude, c’est que le futur appareil AI signé OpenAI/Jony Ive ne sera pas une paire d’écouteurs. Un choix stratégique qui pourrait les distinguer des concurrents comme Humane, Rabbit ou Iyo. Mais au-delà de la forme, l’enjeu est bien plus ambitieux : réinventer notre manière d’interagir avec l’IA au quotidien. Réponse définitive attendue… en 2026.

 

Lire plus
Intelligence Artificielle

OpenAI contraint de supprimer toute mention d’« io », la startup de Jony Ive, à cause d’un conflit juridique

OpenAI contraint de supprimer toute mention d’« io », la startup de Jony Ive, à cause d’un conflit juridique

Alors que OpenAI s’apprête à finaliser l’une de ses plus grandes acquisitions — une transaction à 6,5 milliards de dollars pour intégrer la startup « io » cofondée par Jony Ive, célèbre designer d’Apple — la société s’est retrouvée au cœur d’un litige pour violation de marque.

Depuis quelques jours, OpenAI a discrètement retiré de son site officiel et de ses réseaux sociaux toute mention de « io », y compris la vidéo de 9 minutes mettant en scène Sam Altman (PDG d’OpenAI) et Jony Ive. L’annonce officielle de leur rapprochement n’est désormais plus accessible.

En cause : une plainte de la startup iyO

Derrière cette disparition soudaine se cache une plainte déposée par iyO, une jeune entreprise spécialisée dans les appareils auditifs alimentés par l’IA, issue du laboratoire de recherche Alphabet X (anciennement Google X). IyO accuse OpenAI d’atteinte à sa marque déposée, estimant que l’utilisation du nom « io » crée une confusion potentielle chez les consommateurs.

Selon des documents judiciaires relayés par Bloomberg Law, une juge aurait émis une ordonnance restrictive forçant OpenAI à suspendre temporairement ses communications autour de la marque « io ». L’argument ? Les vidéos promotionnelles publiées par OpenAI pourraient déjà avoir un impact sur la perception publique et semer le doute sur l’origine des produits.

OpenAI défend sa position, mais se conforme à la décision

Interrogée par The Verge, la porte-parole d’OpenAI, Kayla Wood, a confirmé le retrait du contenu en déclarant : « Cette page est temporairement indisponible en raison d’une ordonnance judiciaire, à la suite d’une plainte pour marque déposée déposée par iyO concernant notre utilisation du nom “io”. Nous ne sommes pas d’accord avec cette plainte et examinons nos options ».

Un bandeau de notification a d’ailleurs remplacé l’ancienne page d’annonce sur le site officiel d’OpenAI.

Le deal avec Jony Ive n’est pas annulé

Malgré ces complications, le rachat de la startup « io » reste en cours. Des sources fiables comme Mark Gurman de Bloomberg affirment que l’opération est toujours « sur les rails » et qu’aucune rupture n’est à l’ordre du jour. Les équipes d’« io » devraient bel et bien rejoindre celles d’OpenAI à San Francisco, comme prévu.

Ce rachat ambitieux vise à renforcer les efforts d’OpenAI dans la conception de matériel dédié à l’IA, un domaine stratégique où la vision de Jony Ive est très attendue.

Ce revers juridique montre à quel point les enjeux autour des marques commerciales sont sensibles, même pour des géants comme OpenAI. La confusion possible entre « io » et « iyO » pourrait retarder temporairement la communication autour de cette fusion stratégique, mais n’affecte en rien le cœur du partenariat entre Altman et Ive.

Reste à savoir si OpenAI choisira de changer le nom de la startup acquise ou s’il tentera de remporter le bras de fer judiciaire dans les mois à venir.

 

Lire plus
Intelligence Artificielle

Apple prêt à racheter Perplexity AI pour muscler son intelligence artificielle

hero image.fill .size 1248x702.v1 1

Apple, longtemps à la traîne dans la course à l’intelligence artificielle, pourrait frapper un grand coup. D’après les révélations du journaliste Mark Gurman de Bloomberg, le géant californien Apple aurait entamé des discussions avec Perplexity AI, l’une des startups les plus prometteuses dans le domaine de l’IA générative.

Objectif : renforcer Apple Intelligence, la nouvelle suite d’outils intelligents présentée lors de la WWDC 2024, mais encore jugée peu convaincante.

Des discussions préliminaires, mais stratégiques

Les premiers échanges auraient impliqué Adrian Perica, responsable des fusions-acquisitions chez Apple, Eddy Cue, patron des services, ainsi que les équipes en charge de l’IA. Si aucun accord n’a été officialisé à ce stade, le ton est donné : Apple explore très sérieusement la possibilité d’un rachat, voire d’un partenariat stratégique.

Ce mouvement interviendrait dans un contexte où Apple peine à imposer Siri et ses solutions d’intelligence artificielle face à des concurrents comme Google (Gemini), Meta (Llama), OpenAI (ChatGPT) ou encore Samsung (Galaxy AI).

Pourquoi Perplexity AI ?

Fondée en 2022, Perplexity AI s’est rapidement imposée comme un acteur clé dans le domaine des moteurs de recherche alimentés par l’IA. Contrairement à un ChatGPT classique, Perplexity combine réponses synthétiques précises et citations de sources en temps réel, offrant une alternative puissante à Google Search.

Déjà valorisée à 14 milliards de dollars lors de sa dernière levée de fonds, la startup a séduit les utilisateurs iOS par la qualité de son assistant conversationnel. Un savoir-faire dont Apple pourrait grandement bénéficier, notamment pour réinventer Siri, encore perçu comme l’un des assistants vocaux les moins performants du marché.

Un enjeu aussi juridique et stratégique

Ce potentiel rachat tombe à un moment charnière. Apple fait actuellement l’objet d’une enquête antitrust aux États-Unis pour son accord avec Google, qui lui verse 20 milliards de dollars par an pour rester le moteur de recherche par défaut dans Safari.

En cas d’interdiction de ce partenariat, intégrer Perplexity comme moteur de recherche IA natif pourrait offrir à Apple une porte de sortie idéale, tout en réduisant sa dépendance à Google. La nouvelle a d’ailleurs eu un impact immédiat : les actions de Google ont chuté à l’annonce des pourparlers entre Apple et Perplexity.

Apple Intelligence : un futur boosté par l’expertise de Perplexity ?

Présenté en grande pompe lors de la WWDC 2024, Apple Intelligence promettait de révolutionner l’expérience iPhone grâce à une IA plus intégrée et contextuelle. Pourtant, à ce jour, de nombreux observateurs dénoncent des fonctionnalités incomplètes et un Siri toujours aussi limité.

L’intégration des talents de Perplexity pourrait accélérer le développement des futures versions d’iOS, macOS et visionOS, notamment en vue de relancer le projet de lunettes AR et le hub domotique intelligent qu’Apple prépare en coulisse.

Face à la montée en puissance de ses rivaux et aux attentes croissantes des utilisateurs en matière d’intelligence artificielle, Apple n’a plus le droit à l’erreur. Un rachat de Perplexity AI serait certes coûteux — potentiellement le plus important depuis Beats en 2014 — mais il pourrait redonner à Apple sa position de leader technologique, tout en posant les bases d’une stratégie IA autonome, souveraine et ambitieuse.

Reste à voir si cet accord se concrétisera… avant que Meta ou un autre géant ne rafle la mise.

Lire plus
Intelligence Artificielle

Midjourney lance son générateur vidéo : IA et animation en 5 secondes

Midjourney lance son générateur vidéo : IA et animation en 5 secondes

Célèbre pour ses capacités de génération d’images ultra-réalistes, Midjourney vient de franchir une nouvelle étape majeure en lançant la première version publique de son générateur vidéo.

Cette nouveauté permet aux utilisateurs de transformer une image statique en un clip animé de quelques secondes, ouvrant la voie à un nouveau pan de la création visuelle assistée par intelligence artificielle.

Midjourney : Générer une vidéo à partir d’une image, en quelques clics

Pour l’instant, la fonction vidéo de Midjourney reste limitée, mais prometteuse. Une fois une image générée via la plateforme (ou téléchargée), un bouton « Animate » permet de créer une séquence de 5 secondes basée sur un prompt texte.

Par défaut, l’outil applique une animation générique « qui fait juste bouger les choses ». Mais un bouton « Manual » permet de décrire manuellement le type de mouvement souhaité, que ce soit au niveau du sujet, de la caméra, ou des deux. L’animation peut ensuite être étendue par tranches de 4 secondes, jusqu’à un total de 21 secondes.

Deux options de mouvement sont proposées : « low motion », où seul le sujet bouge, et « high motion », où la scène entière s’anime avec la caméra.

video header new

Une fonctionnalité réservée aux abonnés

Pour le moment, le générateur vidéo n’est accessible que via le site Web de Midjourney et son serveur Discord, avec un abonnement payant requis. Le forfait de base commence à 10 dollars/mois et comprend 3,3 heures de génération rapide, équivalentes à environ 200 images.

Mais la vidéo a un coût : chaque seconde de vidéo équivaut à une génération d’image, soit un coût environ 8 fois plus élevé qu’une image fixe.

Une innovation sous surveillance judiciaire

Midjourney fait actuellement l’objet d’une poursuite judiciaire lancée par Disney et Universal, deux géants de l’industrie du divertissement. Leur inquiétude : le générateur vidéo pourrait faciliter la reproduction non autorisée d’œuvres protégées par droits d’auteur.

Ces studios estiment que l’entraînement du modèle repose sur des données visuelles appartenant à leur catalogue, et pointent du doigt une potentielle « machine distributrice d’images piratées » capable de générer à l’infini des variantes d’univers Disney ou Universal.

Une première étape vers des mondes génératifs en temps réel

Dans un post publié sur Discord, le fondateur David Holz présente cette première version comme un simple tremplin vers un objectif bien plus ambitieux : construire des modèles capables de générer des simulations interactives en temps réel dans des environnements ouverts.

Cette évolution place Midjourney en compétition directe avec Google, OpenAI et Meta, qui ont également lancé leurs propres générateurs vidéo. Mais, contrairement à eux, Midjourney mise sur une approche esthétique centrée sur les artistes, en gardant son interface à la fois communautaire et contrôlée.

Avec cette incursion dans la vidéo, Midjourney poursuit son objectif de libérer la créativité visuelle grâce à l’IA. Même si cette première version reste limitée en durée et en contrôle, elle marque le début d’une nouvelle ère pour les créateurs de contenu visuel, qu’ils soient graphistes, cinéastes ou simples curieux.

Reste à voir si l’entreprise saura équilibrer innovation technique et respect des droits d’auteur — une équation complexe, mais indispensable pour faire de la génération vidéo une révolution durable.

 

Lire plus
Intelligence Artificielle

Microsoft menace de rompre avec OpenAI : les raisons de la tension

Microsoft menace de rompre avec OpenAI : les raisons de la tension

L’alliance stratégique entre OpenAI et Microsoft, souvent saluée comme l’une des plus fructueuses de l’histoire de la tech, traverse une période de turbulences. En coulisses, les deux géants de l’intelligence artificielle et du cloud computing seraient en désaccord sur plusieurs aspects fondamentaux de leur partenariat.

À tel point que Microsoft menace désormais de rompre les négociations si ses exigences ne sont pas respectées.

Microsoft veut plus qu’un tiers de OpenAI

Selon une enquête du Financial Times, Microsoft cherche à augmenter sa participation dans OpenAI, alors que la startup envisage une transformation structurelle majeure. OpenAI prévoit en effet de passer d’un statut de LLC à but lucratif à celui de Public Benefit Corporation (PBC), un statut hybride visant à équilibrer intérêt public et performance économique.

Mais pour réussir cette transition, OpenAI doit obtenir l’approbation de Microsoft, qui détient déjà environ 49 % des parts économiques via un contrat complexe d’investissement et d’accès exclusif à Azure.

OpenAI serait prête à céder jusqu’à 33 % du capital sous forme d’actions ordinaires, mais Microsoft souhaiterait un contrôle plus étendu. Cette exigence fait monter la tension.

Azure, exclusivités et propriété intellectuelle : les sujets qui fâchent

OpenAI souhaite aussi mettre fin à l’exclusivité Azure, qui impose à ses modèles de tourner exclusivement sur l’infrastructure cloud de Microsoft. Ce verrou pourrait entraver son expansion et sa capacité à signer avec d’autres partenaires stratégiques. Autre point litigieux : OpenAI exige que Microsoft renonce à certains droits de propriété intellectuelle liés au projet Windsurf, une technologie au cœur de son architecture de production.

Ces demandes visent à renforcer l’indépendance d’OpenAI et à faciliter de nouvelles levées de fonds. Toutefois, Microsoft entend sécuriser ses investissements à long terme en imposant la reconduction de son accord commercial actuel jusqu’en 2030.

OpenAI a envisagé une plainte pour pratiques anticoncurrentielles

Selon The Wall Street Journal, OpenAI aurait même envisagé de porter plainte contre Microsoft pour comportement anticoncurrentiel, ou de demander une révision fédérale des termes de leur accord. Ce scénario, encore évité, illustre la profondeur des désaccords. Une plainte officielle exposerait leur partenariat à un examen réglementaire majeur des autorités antitrust américaines.

Malgré ces tensions, les deux entreprises ont publié une déclaration conjointe à visée rassurante : « Nous avons un partenariat productif de long terme qui a permis de proposer des outils d’IA exceptionnels à tous. Les discussions sont en cours, et nous restons optimistes quant à l’avenir de notre collaboration. ».

Cependant, les enjeux financiers et stratégiques sont tels que la rupture reste une hypothèse plausible si aucun terrain d’entente n’est trouvé.

Vers un divorce à l’amiable ou une nouvelle ère ?

L’issue de ce bras de fer pourrait redéfinir l’avenir de l’IA commerciale. Microsoft, moteur financier et technologique d’OpenAI, veut consolider son emprise, tandis qu’OpenAI cherche à reprendre la main sur son avenir. Ce conflit met en lumière les limites du modèle hybride d’OpenAI, tiraillé entre mission éthique et impératifs de croissance.

Si un compromis n’est pas trouvé d’ici la fin 2025, c’est l’équilibre même de l’écosystème IA qui pourrait en être affecté.

 

 

Lire plus