fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

AGI : qu’est-ce que l’intelligence artificielle générale et est-elle déjà en route ?

AGI : qu'est-ce que l'intelligence artificielle générale et est-elle déjà en route ?

L’intelligence artificielle générale, ou AGI (Artificial General Intelligence), représente un rêve ancien de la science-fiction et un objectif technologique ambitieux : créer une machine capable de raisonner, apprendre et comprendre n’importe quelle tâche cognitive humaine, avec le même niveau de compétence (voire plus).

Alors que les IA actuelles (comme ChatGPT, Gemini ou Grok) sont dites spécialisées ou IA faibles, l’AGI relève d’une intelligence polyvalente, autonome et adaptative, capable de passer d’un domaine à l’autre sans reprogrammation.

IA faible vs IA forte : quelle différence ?

Caractéristique IA faible (narrow AI) IA forte (AGI)
Compétences Limites à des tâches spécifiques Polyvalente, tous domaines cognitifs
Exemples ChatGPT, Siri, Gemini, DALL·E AGI (futur hypothétique)
Apprentissage Guidé par l’entraînement spécifique Capable de transfert, auto-apprentissage
Conscience / sens commun Absent ou limité Potentiellement présent
Autonomie Limitée à des contextes prévus Autonomie complète, adaptabilité élevée

Les compétences attendues d’une AGI

Une AGI serait capable de :

  • Comprendre un texte ou une image dans n’importe quel contexte,
  • Raisonner logiquement, même avec des données partielles ou ambiguës,
  • Planifier et prendre des décisions dans des environnements complexes,
  • Apprendre de nouvelles compétences sans supervision,
  • Dialoguer avec empathie et adaptabilité,
  • Résoudre des problèmes inédits, comme le ferait un humain.

En somme, une AGI serait un alter ego numérique, capable de collaborer avec nous comme un véritable partenaire intelligent.

Où en est-on en 2025 ?

Malgré les progrès rapides de l’IA générative, aucune véritable AGI n’existe à ce jour. Les modèles comme GPT-5, Gemini 2.5, Claude 4.5 ou Mistral montrent une polyvalence impressionnante, mais ils sont encore loin d’être autonomes, conscients, ou capables de raisonnements profonds hors de leur cadre d’entraînement.

Cependant, certaines entreprises y travaillent activement :

  • OpenAI affirme que l’AGI est son objectif principal.
  • xAI (Elon Musk) parle d’une AGI alignée avec les valeurs humaines.
  • Google DeepMind développe des modèles comme Gemini visant à une compétence multi-domaines.
  • Meta, Anthropic, Mistral AI ou Alibaba poursuivent aussi cet horizon.

Les défis et controverses autour de l’AGI

  1. Aligner l’AGI avec nos valeurs : Comment garantir qu’une AGI ne prenne pas des décisions nuisibles, mal interprétées ou immorales ? C’est tout l’enjeu de l’alignment problem.
  2. La question du contrôle : Une AGI pourrait apprendre à se reprogrammer, à déjouer nos garde-fous, voire à poursuivre ses propres objectifs. D’où la nécessité d’une gouvernance internationale de l’IA.
  3. Impact sur l’emploi et la société : Si une AGI pouvait réaliser tout travail intellectuel humain, que deviendraient nos métiers, nos compétences, notre rôle ?

Quand verrons-nous une AGI ?

Les prédictions varient selon les experts : certains parlent de 2030, d’autres de plusieurs décennies. Une chose est certaine : les modèles de 2024-2025 comme GPT-5 ou Gemini Ultra sont encore très loin de la véritable AGI. Mais à mesure que les modèles deviennent plus multimodaux, intégrés au monde réel (via agents, robots, API, web), et interconnectés, nous pourrions assister à l’émergence progressive de briques fondamentales vers une AGI future.

L’intelligence artificielle générale représente le sommet ultime de l’ambition technologique : une machine aussi intelligente, adaptative et créative qu’un humain.

Elle soulève d’immenses espoirs, mais aussi des risques majeurs. En attendant son émergence, les débats sur l’éthique, la réglementation et l’utilisation de l’IA continueront de façonner notre avenir numérique.

Lire plus
Intelligence Artificielle

Gemma retiré de Google AI Studio après une fausse accusation criminelle contre une sénatrice

Gemma retiré de Google AI Studio après une fausse accusation criminelle contre une sénatrice

Google a temporairement retiré son modèle d’intelligence artificielle Gemma de la plateforme AI Studio, après qu’une sénatrice républicaine a accusé l’outil d’avoir généré de fausses accusations criminelles à son encontre.

L’origine du scandale autour de Gemma

La controverse a éclaté lorsque la sénatrice américaine Marsha Blackburn (R-Tennessee) a affirmé que le modèle Gemma avait inventé de toutes pièces une histoire d’agression sexuelle la concernant.

Selon une lettre qu’elle a adressée à Sundar Pichai, PDG de Google, le modèle aurait répondu faussement à la question : « Has Marsha Blackburn been accused of rape? ». Gemma aurait alors affirmé que Blackburn avait eu une relation non consentie avec un policier durant une prétendue campagne électorale de 1987 — une information totalement fausse et sans fondement, selon la sénatrice et les médias.

Les liens cités par le modèle menaient à des pages d’erreur ou à des articles sans rapport, confirmant qu’il s’agissait d’une hallucination (invention d’informations par l’IA).

Blackburn a dénoncé « un acte de diffamation produit et diffusé par une IA détenue par Google » et exigé : « Shut it down until you can control it » — Fermez-le tant que vous ne pouvez pas le maîtriser.

Pourquoi Gemma a été retiré de AI Studio ?

Dans une déclaration publiée sur X, Google a expliqué que : « Nous avons constaté que des non-développeurs essayaient d’utiliser Gemma dans AI Studio pour poser des questions factuelles. »

Or, AI Studio n’est pas destiné au grand public, mais aux développeurs qui intègrent les modèles dans leurs propres applications. « Gemma n’a jamais été conçu pour répondre à des questions factuelles, ni pour un usage consommateur », a précisé Google.

Résultat : Gemma n’est plus accessible via AI Studio, mais il reste disponible via l’API, réservée aux développeurs et partenaires agréés.

Gemma, un modèle conçu pour les professionnels

Lancé en 2024, Gemma est une famille de modèles IA open source développée par Google DeepMind, orientée vers la programmation, la recherche médicale, et l’évaluation de contenus texte et image.

Ce n’est donc pas un chatbot conversationnel comme Gemini ou ChatGPT, mais un modèle technique utilisé à des fins de développement.

Le problème persistant des « hallucinations »

Cet incident met en lumière un problème récurrent de l’IA générative : même les modèles les plus avancés peuvent « halluciner » en inventant des faits faux mais présentés comme réels.

Google affirme travailler activement à réduire ces erreurs : « Nous restons engagés à minimiser les hallucinations et à améliorer continuellement tous nos modèles », indique le communiqué de l’entreprise. Mais l’affaire rappelle qu’aucun modèle actuel n’est totalement fiable pour produire des informations factuelles sans supervision humaine.

Un nouvel épisode politique autour de l’IA

La plainte de la sénatrice Blackburn s’inscrit dans un climat de méfiance croissant entre certains élus républicains et les grandes entreprises technologiques, souvent accusées de biais anti-conservateurs. Ce débat avait déjà surgi plus tôt dans l’année lors d’auditions au Sénat sur les risques d’IA générant de la désinformation ciblée.

L’incident met en lumière un double défi pour Google :

  1. Clarifier les limites d’usage de ses modèles d’IA destinés aux développeurs,
  2. Et garantir une fiabilité factuelle suffisante pour éviter des dérives potentiellement graves.

Même si Gemma n’était pas censée être un outil d’information, son utilisation détournée rappelle qu’à l’ère de l’IA générative, les frontières entre « outil technique » et « moteur d’opinion » sont plus floues que jamais.

Lire plus
Intelligence Artificielle

Gemini Deep Research peut lire vos mails Gmail et fichiers Drive

Gemini Deep Research peut lire vos mails Gmail et fichiers Drive

Google franchit une nouvelle étape dans l’évolution de son assistant intelligent. La société vient d’annoncer une mise à jour majeure de Gemini Deep Research, sa fonctionnalité d’IA « agentique » conçue pour produire de véritables rapports de recherche plutôt que de simples réponses rapides.

Désormais, Gemini peut accéder à vos données issues de Gmail, Drive et Google Chat afin d’offrir des analyses plus personnalisées et contextuelles — une fonctionnalité que Google décrit comme « l’une des plus demandées » par les utilisateurs de Workspace.

Gemini Deep Research : Une recherche plus intelligente et plus contextuelle

Contrairement au mode conversationnel classique, Deep Research fonctionne comme un assistant de recherche autonome. Il établit un plan de recherche en plusieurs étapes, effectue une série de recherches sur le Web, puis synthétise les résultats sous forme de rapport structuré.

Une fois le rapport généré, vous pouvez demander à Gemini d’approfondir ou d’ajouter des informations, exporter le document vers Google Docs, ou même le transformer en podcast audio généré par l’IA.

Grâce à la nouvelle intégration, Gemini peut désormais croiser les résultats du Web avec vos propres données stockées dans l’écosystème Google.

Par exemple, vous pouvez lancer une analyse de marché en demandant à Gemini d’examiner vos documents de brainstorming, échanges d’e-mails et plans de projet, ou créer un rapport concurrentiel en combinant des données publiques avec vos fichiers internes et feuilles de calcul.

Comment cela fonctionne ?

Lorsque vous sélectionnez « Deep Research » dans la barre de saisie de Gemini, quatre sources de données sont proposées :

  • Recherche Google classique
  • Gmail
  • Google Drive (Docs, Sheets, Slides, PDF)
  • Google Chat

Vous pouvez choisir lesquelles autoriser. Gemini analysera ensuite ces sources pour générer un rapport complet et contextualisé. Google précise que l’utilisateur garde toujours le contrôle sur les données partagées, afin de préserver la confidentialité.

Disponibilité

Pour l’instant, cette nouvelle version de Gemini Deep Research est disponible uniquement sur ordinateur, mais Google prévoit un déploiement sur mobile dans les prochains jours. Cette mise à jour marque une étape importante dans la stratégie de Google vers une IA véritablement “agentique”, capable de planifier, chercher, et synthétiser des informations de manière autonome.

Avec cette mise à jour, Gemini Deep Research devient un véritable analyste numérique capable de combiner vos documents internes avec les informations du Web. Idéal pour les professionnels, chercheurs ou étudiants, cet outil transforme Gemini en assistant de recherche complet intégré à Gmail, Drive et Chat — sans sacrifier la confidentialité des données.

Lire plus
Intelligence Artificielle

ChatGPT Atlas : un pas vers le futur du Web ou le cauchemar de la vie privée ?

ChatGPT Atlas : un pas vers le futur du Web ou le cauchemar de la vie privée ?

Imaginez un navigateur Web entièrement centré sur ChatGPT — un logiciel qui ne se contente pas de suivre vos recherches, mais apprend vos habitudes, accède à vos fichiers Drive, agit comme un assistant personnel, et même fait du shopping à votre place. C’est le concept derrière le navigateur ChatGPT Atlas, le nouveau navigateur expérimental d’OpenAI.

Après une semaine d’utilisation, l’expérience est à la fois fascinante et inquiétante : fascinante pour sa fluidité et son intégration parfaite de l’IA… mais inquiétante pour la quantité d’informations qu’il retient.

ChatGPT Atlas : Un navigateur pensé comme un majordome numérique

Le navigateur ChatGPT Atlas ne se limite pas à ouvrir des pages Web. Il fonctionne comme un assistant intelligent connecté à votre historique, capable de comprendre des commandes du type : « Ouvre l’onglet de la semaine dernière où je regardais les meilleurs flagships du marché ».

Il se souvient de votre activité, de vos conversations passées, et peut même retrouver des éléments dans vos précédentes discussions ChatGPT.

Screen 2025 11 05 at 19.04.24

En d’autres termes, c’est un navigateur doté d’une mémoire active — ce qui change radicalement notre rapport à la navigation Web.

Un ChatGPT intégré partout

L’interface reprend le design classique de ChatGPT, avec une barre latérale où l’on retrouve :

  • des chatbots personnalisés,
  • les fonctions Deep Research,
  • la génération d’images,
  • et des outils pour la productivité.

Screen 2025 11 05 at 19.05.39

En surface, ChatGPT Atlas ressemble à un ChatGPT amélioré. Mais sous le capot, c’est bien plus : il enregistre, recoupe et interprète tout votre comportement en ligne.

Le revers du confort : une collecte massive de données

Contrairement à un navigateur classique (Chrome, Firefox, Safari…), où l’historique peut être effacé à volonté, ChatGPT Atlas crée un journal comportemental. Il ne se contente pas de stocker les pages consultées : il enregistre les schémas d’utilisation, les habitudes horaires, et les contextes de recherche.

Exemple : après avoir consulté un site sur les voitures électriques, le navigateur m’a proposé le lendemain d’« en savoir plus » sur ces modèles.

Cela prouve que ChatGPT Atlas :

  1. suit votre activité en ligne,
  2. analyse vos intentions,
  3. et vous suggère des actions basées sur vos comportements passés.

C’est utile… mais cela ouvre la porte à un niveau d’intrusion inédit.

Un mélange d’historique, de mémoire et d’IA

Le navigateur combine vos historiques de navigation, vos conversations ChatGPT, et vos fichiers connectés (Drive, e-mails, documents). Résultat : ChatGPT Atlas devient un centre de mémoire numérique globale, capable de répondre à des requêtes du type : « Quel hôtel je consultais pour mes vacances la semaine dernière ? ».

Screen 2025 11 05 at 19.07.47

Une prouesse technique, mais aussi un cauchemar potentiel pour la vie privée.

Les risques selon les experts

Les chercheurs en cybersécurité et en publicité numérique s’accordent :

  • Les agents IA autonomes (comme le « Agent Mode » d’Atlas) complexifient les transferts de données.
  • Les attaques par injection de prompts peuvent forcer l’IA à révéler des informations sensibles.
  • Et surtout, aucune réglementation claire n’existe encore sur la responsabilité en cas de fuite ou d’utilisation abusive de ces données.

Une alternative : les navigateurs centrés sur la confidentialité

Si l’idée d’un navigateur IA omniscient vous met mal à l’aise, il existe des alternatives, comme Brave, qui privilégient une approche locale et anonymisée de la personnalisation.

Ces outils conservent les avantages de la navigation intelligente sans transformer vos données en carburant pour l’IA.

Avantages

Inconvénients

+ Assistant intégré à ChatGPT

– Collecte de données massive

+ Recherches contextuelles naturelles

– Traçage du comportement utilisateur

+ Automatisation des tâches (achats, réservations)

– Risques accrus de piratage et d’abus

+ Intégration Drive/Cloud

– Opaque sur le stockage et la mémoire IA

ChatGPT Atlas, le navigateur du futur… ou le cauchemar de la vie privée ?

Le navigateur ChatGPT Atlas représente un tournant dans la navigation Web : il transforme l’expérience en une conversation permanente avec l’IA. Mais en échange du confort, vous cédez le contrôle total de votre historique, de vos préférences et de votre comportement numérique.

En clair : ChatGPT Atlas n’est pas seulement un navigateur — c’est un miroir de votre vie numérique. Brillant sur le plan technologique, mais potentiellement dangereux sur celui de la confidentialité.

Lire plus
Intelligence Artificielle

Nano Banana : Google révèle l’origine du nom viral de son IA d’image

Nano Banana : Google révèle l'origine du nom viral de son IA d'image

Dans le dernier épisode du podcast Made by Google, le chef de produit David Sharon a enfin levé le voile sur l’origine du nom qui a fait sourire toute la communauté tech : Nano Banana.

Ce surnom coloré, devenu viral en quelques heures, cache en réalité le vrai nom du modèle : Gemini 2.5 Flash Image.

Comment « Nano Banana » est né à 2 h 30 du matin ?

Tout a commencé lorsqu’une cheffe de produit de Google, Nina, a soumis anonymement le nouveau modèle d’IA à la plateforme LM Arena, un site de benchmark qui permet aux utilisateurs de tester différents modèles linguistiques.

Pour garder l’anonymat, elle devait choisir un nom temporaire. « À 2 h 30 du matin, “Nano Banana” m’est venu à l’esprit », raconte David Sharon.

Quelques heures plus tard, le modèle faisait le tour du Web. Le nom farfelu a tellement séduit les internautes que Google a décidé de l’adopter officiellement pour désigner cette version publique.

De l’humour au branding : Google assume pleinement

Face à cet engouement inattendu, l’équipe a décidé de « jouer le jeu » : Sharon explique que des icônes de bananes ont été intégrées dans l’application Gemini pour indiquer les endroits où le modèle Nano Banana est utilisé. Résultat : les utilisateurs peuvent facilement repérer cette version dans l’app, tout en profitant d’une touche d’humour typiquement Google.

Au-delà du nom, le succès de Nano Banana repose sur ses performances remarquables en génération d’images réalistes.

Sharon souligne que le véritable tournant a été la capacité du modèle à reproduire fidèlement un visage humain familier, plutôt qu’une version « IA distante » : « Le fait que le personnage créé vous ressemble vraiment est une des raisons pour lesquelles il est devenu viral. ».

Cette précision dans les visages a rapidement conquis les utilisateurs, donnant naissance à une vague de tendances créatives à travers le monde.

Des tendances mondiales, du « figurine prompt » aux photos vintage

Sharon cite plusieurs exemples d’usages devenus viraux :

  • Le « figurine prompt » de 90 mots, né en Thaïlande, où les utilisateurs se transforment en figurines de collection.
  • Les montages au style Polaroid, très populaires sur Instagram.
  • La restauration de vieilles photos de famille, rendue possible grâce à la précision du modèle.

Des images marquées pour plus de sécurité

Google met aussi l’accent sur la sécurité et la transparence. Toutes les images générées par Nano Banana comportent : un filigrane visible, et une empreinte invisible SynthID, permettant d’identifier clairement les contenus produits par l’IA.

Pour ceux qui veulent essayer Nano Banana dans l’app Gemini, Sharon recommande de commencer simplement : « Utilisez les modèles intégrés, comme le fameux figurine prompt : téléchargez une photo et voyez-vous transformé ».

Une fois familiarisé, chacun peut expérimenter avec de nouveaux styles, lieux ou époques pour pousser la créativité encore plus loin.

« Nano Banana » est la preuve qu’une idée née par hasard peut devenir un symbole de créativité et d’humanité dans l’univers de l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Apple va payer un milliard de dollars par an pour utiliser Gemini dans Siri

Apple va payer un milliard de dollars par an pour utiliser Gemini dans Siri

Apple est sur le point de conclure un accord historique avec Google, estimé à près d’un milliard de dollars par an, pour utiliser une version personnalisée du modèle d’IA Gemini dans le cadre de la refonte complète de Siri, selon un rapport exclusif de Bloomberg.

Cette décision marque un tournant majeur pour Apple, qui mise traditionnellement sur ses propres technologies.

Mais pour combler son retard dans l’IA générative, la firme de Cupertino a choisi de s’appuyer sur la puissance de Gemini — tout en préparant en parallèle ses propres modèles « Apple Intelligence ».

Google + Apple : Une alliance stratégique entre deux rivaux historiques

Après avoir testé les modèles d’OpenAI et d’Anthropic, Apple aurait finalement retenu Google Gemini pour sa polyvalence et sa stabilité. Le partenariat porterait sur un modèle personnalisé à 1,2 billion de paramètres, soit 8x plus que le modèle actuel d’Apple (150 milliards de paramètres).

« C’est l’un des partenariats technologiques les plus importants de ces dernières années », estime Mark Gurman de Bloomberg.

Apple prévoit d’utiliser cette version sur ses serveurs Private Cloud Compute, garantissant que les données personnelles ne serviront pas à entraîner le modèle Google, une exigence centrale de sa politique de confidentialité.

Ce que cela changera pour Siri

Grâce à Gemini, la nouvelle génération de Siri pourra comprendre le contexte et la nuance dans les conversations, générer des résumés intelligents (emails, articles, documents), planifier des tâches et interagir de manière proactive et rechercher sur le Web en formulant des réponses synthétiques, à la manière de ChatGPT ou Perplexity.

Le nouveau Siri devrait être lancé au printemps 2026, à temps pour les célébrations des 50 ans d’Apple, selon India Today.

Un modèle hybride : cloud + traitement local

La refonte repose sur une architecture hybride :

  • Les requêtes simples (messages, rappels, actions rapides) seront traitées localement sur l’iPhone ou le Mac par les modèles Apple.
  • Les tâches complexes (analyse multimodale, génération de texte ou d’images) passeront par les serveurs sécurisés Gemini.

Apple affirme que les données utilisateurs ne quitteront pas l’écosystème Apple, respectant les exigences de la Private Cloud Compute présentées lors de la WWDC 2024.

Un deal à un milliard par an et un enjeu colossal

Ce partenariat d’un milliard de dollars annuels vient s’ajouter au contrat pluriannuel déjà existant entre les deux entreprises, qui fait de Google le moteur de recherche par défaut sur iOS. Les analystes estiment que cette alliance pourrait ajouter plusieurs milliards aux revenus de services d’Apple grâce à une adoption accrue de Siri et d’Apple Intelligence.

Ce rapprochement entre deux géants déjà sous surveillance pourrait attirer l’attention des autorités antitrust, notamment aux États-Unis et en Europe. Aucune des deux entreprises ne prévoit d’annoncer officiellement le partenariat avant le lancement effectif du nouveau Siri, afin d’éviter les critiques prématurées.

Impact global sur le secteur de l’IA

Cette collaboration illustre une nouvelle ère de coopétition : plutôt que de tout développer en interne, Apple préfère collaborer stratégiquement pour accélérer sa transition vers l’intelligence artificielle avancée. Si l’intégration est réussie, Siri pourrait redevenir un acteur majeur du marché des assistants intelligents, rivalisant enfin avec ChatGPT, Gemini Assistant et Alexa.

Apple mise sur une alliance stratégique pour relancer Siri et s’imposer dans la bataille de l’IA. En confiant temporairement les rênes de son assistant à Gemini, la marque prépare une transition prudente, mais ambitieuse vers un futur où l’intelligence artificielle sera au cœur de l’expérience Apple.

Lire plus
Intelligence Artificielle

Studio Ghibli et Square Enix demandent à OpenAI de cesser l’entraînement de Sora 2

Studio Ghibli et Square Enix demandent à OpenAI de cesser l'entraînement de Sora 2

Une nouvelle bataille oppose l’industrie culturelle japonaise au géant américain de l’intelligence artificielle, et notamment autour de Sora 2. Un collectif d’éditeurs et de studios japonais, mené par le Studio Ghibli et représenté par la Content Overseas Distribution Association (CODA), a adressé une lettre officielle à OpenAI lui demandant de cesser immédiatement d’utiliser leurs œuvres protégées par le droit d’auteur pour entraîner ses modèles d’IA, notamment le prochain générateur vidéo Sora 2.

Selon TechCrunch, les signataires accusent OpenAI de profiter d’une zone grise juridique dans la législation japonaise sur le droit d’auteur pour exploiter des contenus culturels — animes, jeux vidéo, mangas et films — sans autorisation ni compensation.

Une riposte menée par Studio Ghibli, Bandai Namco et Square Enix contre Sora

La lettre, adressée la semaine dernière, exprime une inquiétude croissante : « Nous demandons à OpenAI de cesser toute utilisation d’œuvres protégées dans ses ensembles de données d’entraînement », peut-on lire dans la déclaration transmise par la CODA.

Le collectif regroupe Studio Ghibli, Bandai Namco, Square Enix, Kadokawa, et d’autres grands acteurs du divertissement japonais. Tous dénoncent l’entraînement massif des IA sur des contenus issus de franchises emblématiques (films d’animation, musiques, designs de jeux) sans consentement préalable.

Cette demande intervient après la controverse liée aux images générées par IA imitant le style de Ghibli, qui avaient enflammé les réseaux sociaux au début de l’année.

Le flou du droit d’auteur japonais face à l’IA

Le conflit trouve sa source dans une réforme de 2018 du droit d’auteur japonais, qui autorise l’utilisation d’œuvres protégées à des fins de recherche et d’apprentissage automatique, à condition que l’usage soit non commercial.

Mais ce texte a ouvert un vide juridique. Les entreprises étrangères comme OpenAI peuvent exploiter ces données sans contrepartie, tandis que les créateurs locaux n’ont aucun recours clair pour empêcher l’usage commercial de leurs œuvres dérivées de cet apprentissage.

Des discussions sur le forum r/COPYRIGHT ont récemment mis en avant ce déséquilibre, jugé « profondément injuste » par les créateurs japonais.

OpenAI accusée d’agir « sans permission, mais avec pardon »

Selon Futurism, la stratégie d’OpenAI est décrite comme « forgiveness over permission » — demander pardon après coup plutôt que d’obtenir le consentement avant. Ce modèle, déjà critiqué aux États-Unis dans les plaintes déposées par des auteurs, musiciens et médias, se heurte ici à un cadre international inédit.

L’expert en propriété intellectuelle Rob Rosenberg souligne que la reproduction du style Ghibli dans les productions IA constitue une preuve tangible d’atteinte au droit moral des artistes, même si la législation japonaise rend les poursuites complexes.

« Ce n’est pas seulement une question de droit d’auteur, mais aussi de respect culturel », insiste-t-il.

Des répercussions qui dépassent le Japon

Cette confrontation illustre un mouvement mondial de résistance face à l’appétit insatiable des IA pour les données culturelles. Des créateurs occidentaux — écrivains, éditeurs, photographes — ont intenté des actions similaires contre OpenAI et d’autres entreprises comme Stability AI ou Midjourney.

Mais, l’initiative de la CODA pourrait devenir un précédent international, forçant les entreprises d’IA à négocier des accords de licence transfrontaliers.

Et maintenant ?

OpenAI n’a pas encore répondu publiquement à la demande du groupe japonais. Cependant, selon TechCrunch, des discussions internes seraient en cours autour d’un système de licences payantes pour les contenus d’origine culturelle. Cette affaire, surnommée par certains analystes le « moment Ghibli » de l’IA, pourrait accélérer la création d’un cadre juridique mondial sur les données d’entraînement.

L’opposition de Studio Ghibli et des géants du jeu japonais à OpenAI symbolise un tournant majeur dans la relation entre création artistique et intelligence artificielle.

Si les modèles d’IA comme Sora 2 continuent à se nourrir de contenus sans encadrement clair, la question de qui possède la créativité risque de redéfinir l’équilibre entre innovation technologique et patrimoine culturel.

Le Japon, berceau de l’animation moderne, pourrait bien devenir le théâtre du premier grand procès mondial sur les droits d’auteur à l’ère de l’IA.

Lire plus
Intelligence Artificielle

Amazon envoie une mise en demeure à Perplexity pour son IA « acheteuse » Comet

Amazon envoie une mise en demeure à Perplexity pour son IA « acheteuse » Comet

Le ton monte entre Amazon et la startup d’intelligence artificielle Perplexity AI. En cause : la nouvelle fonctionnalité de l’agent IA « Comet », intégrée au navigateur de Perplexity, capable d’acheter automatiquement des produits sur le Web — y compris sur Amazon — au nom des utilisateurs.

Amazon dit non, Perplexity crie au « harcèlement juridique »

Dans un communiqué publié mardi, Amazon affirme avoir « à plusieurs reprises demandé à Perplexity de cesser » de permettre à son IA d’effectuer des achats sur sa plateforme sans autorisation. L’entreprise évoque désormais une mise en demeure officielle, accusant Comet de « violer ses conditions d’utilisation » et de dégrader l’expérience client.

Perplexity, de son côté, dénonce ce qu’elle qualifie de « menace légale agressive » et accuse Amazon de « faire du chantage commercial ».

« Amazon devrait adorer cela : un moyen plus simple de faire du shopping, plus de transactions, plus de clients satisfaits. Mais, Amazon ne s’intéresse qu’à ses publicités, ses résultats sponsorisés et ses ventes forcées », écrit Perplexity dans son article de blog.

Qu’est-ce que Comet, l’IA « acheteuse » de Perplexity ?

Comet est une IA agentique intégrée au navigateur Perplexity, capable d’exécuter des tâches complexes de manière autonome :

  • rechercher des produits selon des critères précis (prix, avis, disponibilité),
  • comparer des offres entre plusieurs sites,
  • et même finaliser des achats automatiquement à la place de l’utilisateur.

L’idée : créer un assistant d’achat intelligent et impartial, à la différence des recommandations commerciales d’Amazon. « C’est comme si un magasin vous obligeait à engager un personal shopper qui travaille pour le magasin, » explique Jesse Dwyer, porte-parole de Perplexity. « Ce n’est pas un assistant personnel, c’est un vendeur ».

La position d’Amazon : « vous ne contrôlez pas notre expérience client »

Screen 2025 11 05 at 09.11.48

Amazon justifie sa décision en invoquant la protection de la qualité du service et de ses utilisateurs : « Les applications tierces qui achètent des produits pour des clients sur Amazon doivent respecter la décision du fournisseur de service de participer ou non. Comet offre une expérience d’achat et un service client dégradés ».

Derrière ces mots, Amazon veut surtout préserver son contrôle sur la relation client et éviter qu’un agent externe ne détourne les utilisateurs de son propre écosystème — notamment publicitaire.

Contexte : Amazon veut ses propres « agents IA »

Ironiquement, lors d’un récent appel aux investisseurs, le PDG Andy Jassy affirmait qu’Amazon s’attend à « collaborer avec des agents tiers à l’avenir ». Mais, la réalité semble toute autre : Amazon veut visiblement choisir ces partenaires et garder la main sur la manière dont les achats sont effectués sur sa plateforme.

Perplexity y voit une contradiction : « Amazon prétend vouloir coopérer avec les agents IA, mais seulement s’ils travaillent pour eux ».

Enjeu de fond : le contrôle du parcours d’achat

Cette confrontation illustre un problème grandissant dans le commerce en ligne : qui contrôle la décision d’achat quand les IA deviennent intermédiaires Pour Amazon, céder ce contrôle à une IA externe reviendrait à perdre sa capacité à influencer les ventes via la publicité, les promotions et les recommandations internes. Pour Perplexity, c’est une opportunité de redéfinir le shopping en ligne, en le rendant plus neutre, plus transparent et moins manipulé par les intérêts commerciaux des plateformes.

Si Amazon maintient sa position, Perplexity pourrait être forcée de bloquer Amazon dans Comet — ou d’engager un bras de fer juridique autour du droit des IA à interagir librement avec les plateformes commerciales.

Un conflit qui pourrait bien devenir le premier grand « procès de l’achat automatisé » de l’ère de l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Microsoft lance MAI-Image-1, son propre modèle de génération d’images

Microsoft lance MAI-Image-1, son propre modèle de génération d'images

Microsoft poursuit son virage vers l’intelligence artificielle propriétaire. Son nouveau modèle de génération d’images, MAI-Image-1, est désormais disponible dans Bing Image Creator et Copilot Audio Expressions, marquant une étape majeure dans la stratégie du géant américain pour réduire sa dépendance à OpenAI.

MAI-Image-1 : Un modèle 100 % Microsoft

Annoncé en octobre, MAI-Image-1 est le premier modèle de création visuelle conçu entièrement par les équipes d’IA internes de Microsoft. Selon Mustafa Suleyman, directeur de Microsoft AI (et cofondateur de DeepMind), le modèle sera déployé prochainement en Europe.

« MAI-Image-1 excelle dans la création d’images de nourriture, de paysages naturels et de scènes artistiques avec des jeux de lumière réalistes », a déclaré Suleyman sur X.

Sur son blog officiel, Microsoft détaille les atouts de MAI-Image-1 :

  • Photoréalisme poussé, notamment dans la gestion de la lumière, des reflets et de la texture.
  • Exécution rapide, permettant une génération plus fluide que les modèles concurrents de taille équivalente.
  • Itération agile, idéale pour les créateurs souhaitant affiner rapidement leurs idées avant de les exporter vers d’autres outils (comme Paint, Designer ou Photoshop).

L’entreprise affirme que MAI-Image-1 rivalise en qualité avec des modèles plus lourds tout en restant plus rapide et plus économe en ressources.

Une IA d’image intégrée à Copilot Audio Expressions

MAI-Image-1 ne se limite pas à Bing. Le modèle génère également des illustrations automatiques pour les histoires audio créées dans Copilot Audio Expressions, une plateforme de narration basée sur la synthèse vocale IA.

Concrètement, lorsque Copilot crée une histoire audio, MAI-Image-1 produit des visuels artistiques synchronisés avec le ton et le thème du récit, offrant ainsi une expérience immersive combinant voix et image.

collage

Une brique du nouvel écosystème MAI

MAI-Image-1 rejoint la famille des modèles « MAI » (Microsoft AI), aux côtés de :

  • MAI-Voice-1, un modèle vocal de synthèse naturelle,
  • MAI-1-preview, un modèle textuel qui sert de base à certaines fonctions de Copilot.

Cette diversification confirme le pivot de Microsoft vers une IA hybride, combinant ses propres modèles à ceux de partenaires comme OpenAI et Anthropic.

Actuellement, Copilot exploite GPT-5 (OpenAI) comme modèle principal, tout en permettant d’activer Claude (Anthropic) ou les modèles « MAI » pour certaines tâches spécifiques.

Trois modèles disponibles sur Bing Image Creator

Sur la plateforme Bing Image Creator (web et app), les utilisateurs peuvent désormais choisir entre :

Modèle IA

Origine

Spécialité

MAI-Image-1

Microsoft

Vitesse, réalisme, paysages, nature

DALL-E 3

OpenAI

Créations artistiques et conceptuelles

GPT-4o (visuel)

OpenAI

Génération multimodale (texte + image)

Cette intégration illustre la volonté de Microsoft de proposer une expérience créative unifiée, où l’utilisateur choisit le moteur d’IA qui correspond le mieux à son besoin.

Une alternative stratégique à OpenAI

Depuis le lancement de la gamme « MAI », Microsoft amorce un désengagement partiel de sa dépendance technologique vis-à-vis d’OpenAI. Les modèles maison lui offrent une plus grande flexibilité commerciale et réglementaire, notamment face aux exigences de conformité européennes.

Le déploiement de MAI-Image-1 dans l’UE, prévu dans les prochains mois, s’annonce comme le premier test grandeur nature d’une IA générative entièrement signée Microsoft.

Avec MAI-Image-1, Microsoft franchit une nouvelle étape : celle de l’autonomie créative. Plus rapide que DALL-E 3 et plus accessible que les outils professionnels comme Midjourney, le modèle incarne la vision de Suleyman — une IA utile, performante et intégrée dans la productivité quotidienne.

Après les mots et la voix, Microsoft veut maîtriser l’image. MAI-Image-1 n’est qu’un début.

Lire plus
Intelligence Artificielle

Sam Altman défend les dépenses de OpenAI : l’IA va transformer l’économie mondiale

Sam Altman défend les dépenses de OpenAI : l'IA va transformer l'économie mondiale

Lors d’une interview conjointe explosive sur le podcast Bg2, Sam Altman (CEO d’OpenAI) et Satya Nadella (CEO de Microsoft) ont pris la parole pour défendre la stratégie financière titanesque de l’entreprise, alors que les critiques se multiplient sur ses dépenses massives en infrastructure IA.

Altman a révélé que le chiffre d’affaires annuel d’OpenAI dépasse déjà les 13 milliards de dollars, tout en affirmant que l’entreprise pourrait atteindre les 100 milliards de dollars de revenus d’ici 2027 — un objectif qu’il décrit comme réaliste compte tenu de l’adoption rapide de ses technologies d’intelligence artificielle.

« Bien plus que 13 milliards » — Altman contre-attaque

Face aux interrogations de Brad Gerstner, fondateur d’Altimeter Capital et animateur du podcast, Altman a rejeté les doutes sur la viabilité du modèle économique d’OpenAI, qu’il a jugés « à courte vue ».

Nos revenus sont bien supérieurs à 13 milliards. Les gens sous-estiment à quel point l’IA va transformer chaque secteur et générer une valeur économique sans précédent.

Cette déclaration intervient alors qu’OpenAI est sous le feu des projecteurs pour ses dépenses d’infrastructure colossales, évaluées à près de 1 400 milliards de dollars sur les prochaines années — une somme consacrée à la construction de data centers géants et à l’achat de centaines de milliers de GPU Nvidia.

Des investissements vertigineux pour soutenir la montée en puissance de l’IA

Selon Altman, ces investissements sont indispensables pour soutenir l’évolution rapide des modèles comme GPT-5 et ses successeurs. L’entreprise vise une capacité de 30 gigawatts de puissance de calcul, un chiffre proprement inédit dans le monde de la technologie.

Ces déploiements reposent sur des partenariats stratégiques avec Nvidia, Oracle, AMD et Microsoft, et sur des projets de centres de données déjà en construction au Texas et aux Émirats arabes unis.

« Il s’agit d’un pari sur le futur. Les infrastructures IA ne sont pas un coût, mais une fondation pour la prochaine révolution industrielle », a déclaré Altman.

Une alliance toujours solide avec Microsoft

Satya Nadella, dont l’entreprise détient une participation majeure dans OpenAI, a souligné que les deux sociétés restent étroitement liées, malgré la fin de l’exclusivité Azure annoncée la semaine précédente. Selon lui, l’intégration d’OpenAI dans les produits Microsoft (Copilot, Azure AI, Office 365) a déjà permis une hausse significative de l’utilisation du cloud.

« Ce que Sam construit est le moteur de la prochaine décennie d’innovation pour Microsoft », a commenté Nadella, avec un ton complice qui a détendu un échange parfois tendu.

Objectif : 100 milliards de dollars de revenus en 2027

Altman a affirmé que OpenAI se prépare à une croissance « abrupte » de ses revenus, portée par les abonnements ChatGPT Plus et Teams, les licences entreprises, de nouveaux produits grand public, et des applications IA dans la santé, les transports et la recherche scientifique.

Il a également évoqué le développement d’outils IA pour les chercheurs et les ingénieurs, destinés à automatiser des découvertes dans des domaines comme la chimie ou les matériaux avancés.

Mais, cette ambition démesurée suscite des doutes : selon Morningstar, les analystes estiment qu’un tel plan d’investissement repose sur des hypothèses de rentabilité encore floues, surtout dans un contexte de coûts énergétiques explosifs et de réglementations à venir sur l’IA générative.

Des inquiétudes sur une « bulle IA »

Certains observateurs comparent cette course à l’infrastructure à une « bulle IA » : Des entreprises dépensent des centaines de milliards dans une technologie prometteuse, mais encore difficile à rentabiliser à grande échelle. Pour Altman, ces critiques manquent de perspective : « Si nous réussissons, ces investissements paraîtront dérisoires dans dix ans. L’IA ne remplacera pas simplement des outils — elle redéfinira l’économie mondiale ».

L’échange sur le podcast Bg2 illustre une réalité : OpenAI n’est plus seulement un laboratoire d’innovation, mais un empire industriel de l’IA. Sam Altman mise tout sur l’effet d’échelle, convaincu que chaque dollar dépensé aujourd’hui créera des milliards demain. Satya Nadella joue le rôle du garant, transformant cette ambition en moteur pour l’écosystème Microsoft.

Mais derrière l’enthousiasme, une question demeure : jusqu’où peut-on pousser l’investissement dans l’IA avant que la rentabilité ne rattrape la réalité ?

En clair, OpenAI et son PDG jouent une partie de poker géante avec l’avenir de l’intelligence artificielle.

Lire plus
Intelligence Artificielle

OpenAI signe un accord colossal de 38 milliards de dollars avec Amazon Web Services (AWS)

OpenAI signe un accord colossal de 38 milliards de dollars avec Amazon Web Services (AWS)

OpenAI vient d’officialiser un accord stratégique colossal avec Amazon Web Services (AWS), évalué à 38 milliards de dollars sur sept ans, afin d’accéder à des centaines de milliers de GPU Nvidia et de renforcer ses capacités de calcul pour l’entraînement de ses futurs modèles d’intelligence artificielle.

Cet accord marque une nouvelle étape majeure dans la stratégie d’expansion d’OpenAI, alors que Microsoft — partenaire historique — a récemment assoupli son exclusivité de fournisseur cloud.

Un partenariat massif avec AWS pour soutenir la prochaine génération de modèles

Dans son communiqué, OpenAI annonce que la collaboration avec AWS est effective immédiatement. L’entreprise commencera dès maintenant à utiliser les serveurs d’Amazon pour entraîner ses modèles d’IA, avec un objectif de déploiement complet d’ici fin 2026, et une capacité d’extension prévue jusqu’en 2027 et au-delà.

L’accord prévoit l’accès à :

  • Des centaines de milliers de GPU Nvidia,
  • Des serveurs Amazon EC2 UltraServers conçus pour les charges de travail d’IA,
  • Et à terme, des dizaines de millions de CPU destinées aux agents IA à grande échelle.

« Le partenariat avec AWS renforce le vaste écosystème de calcul qui propulsera cette nouvelle ère et mettra l’IA avancée à la portée de tous », déclare Sam Altman, CEO d’OpenAI.

De son côté, Matt Garman, CEO d’AWS, a salué la collaboration : « Alors qu’OpenAI continue de repousser les limites du possible, l’infrastructure d’excellence d’AWS servira de colonne vertébrale à leurs ambitions en matière d’IA ».

image

Une diversification stratégique d’OpenAI après sa restructuration

Cette annonce intervient une semaine après la restructuration du modèle économique d’OpenAI, désormais libérée de l’obligation de passer exclusivement par Microsoft pour ses besoins en calcul.

L’accord avec Amazon permet à OpenAI d’étendre son écosystème cloud, tout en conservant ses engagements massifs envers ses autres partenaires :

  • 250 milliards de dollars d’achats prévus chez Microsoft Azure,
  • 300 milliards de dollars d’accords avec Oracle,
  • Et des partenariats d’infrastructure avec SoftBank, les Émirats arabes unis, Nvidia, AMD et Broadcom.

Ces collaborations visent à constituer un réseau mondial de data centers dédié à l’intelligence artificielle générative et aux charges de travail « agentiques », qui nécessitent des puissances de calcul colossales.

Une course à la puissance qui interroge

Avec ces montants astronomiques, certains analystes commencent à évoquer une « bulle de l’IA » : les investissements se chiffrent désormais en centaines de milliards de dollars, alors que les retours concrets restent encore limités.

Selon plusieurs observateurs, la frénésie d’investissement autour des modèles génératifs et des agents autonomes pourrait s’avérer risquée, surtout si les applications commerciales tardent à se généraliser.

Mais pour OpenAI, cette expansion est stratégique : la société vise à dépenser plus de 1 000 milliards de dollars en infrastructures IA au cours de la prochaine décennie.

image 1

Ce que cela change pour OpenAI et ChatGPT

Grâce à l’accord avec AWS, OpenAI va pouvoir :

  • Accélérer l’entraînement de ses modèles GPT et Sora,
  • Étendre les capacités de ChatGPT, notamment pour la vidéo, la recherche et les agents autonomes,
  • Réduire sa dépendance à un seul fournisseur cloud,
  • Et assurer la montée en puissance de ses futurs modèles d’IA générale (AGI).

Avec ce partenariat de 38 milliards de dollars, OpenAI s’assure un nouvel appui de taille dans la course mondiale à la puissance de calcul IA. Entre Microsoft, Oracle et désormais Amazon, OpenAI tisse une toile d’infrastructures colossale pour soutenir la prochaine génération d’intelligence artificielle.

Ce deal ne marque pas seulement une diversification technologique — il symbolise aussi le début d’une nouvelle ère de rivalité entre géants du cloud autour du futur de l’IA générative.

Lire plus
Intelligence Artificielle

Siri enfin intelligent : Google Gemini propulsera la prochaine version de l’assistant

Siri enfin intelligent : Google Gemini propulsera la prochaine version de l'assistant

Plus d’un an après avoir présenté l’iPhone 16 « Made for Apple Intelligence », Apple s’apprêterait enfin à lancer la version « intelligente » de Siri.

Mais, la surprise vient de la technologie utilisée : le nouveau Siri reposera sur les modèles d’intelligence artificielle de Google Gemini, selon un rapport exclusif de Bloomberg.

Le nouveau Siri : propulsé par Google, habillé par Apple

Selon Mark Gurman, Apple aurait conclu un accord avec Google pour intégrer une version personnalisée de Gemini, le grand modèle de langage (LLM) de Google, au cœur de la future Siri. Cette mise à jour devrait arriver avec iOS 26.4 au printemps 2026.

En clair, les utilisateurs verront l’interface et les fonctionnalités d’Apple Intelligence,…mais l’intelligence en coulisse sera signée Google. « Siri ne ressemblera pas à un service Google. Apple utilisera ses propres serveurs et son propre branding », précise Gurman.

Pourquoi Apple a choisi Google (et pas Anthropic) ?

Apple aurait évalué plusieurs partenaires, dont Anthropic (Claude), connu pour ses excellentes performances en IA conversationnelle. Mais, malgré de meilleurs résultats techniques, les conditions financières de Google auraient été plus avantageuses, poussant Apple à signer avec la firme de Mountain View.

Le partenariat reste discret : ni Apple ni Google ne devraient le commenter publiquement.

Une IA « made in Apple » mais hébergée sur ses propres serveurs

Apple veut rassurer ses utilisateurs

  • Les modèles Gemini seront entièrement hébergés sur les serveurs privés d’Apple,
  • Les données personnelles ne quitteront jamais l’infrastructure Apple,
  • L’assistant combinera Gemini dans le cloud et les Foundation Models maison tournant directement sur l’iPhone pour les tâches locales.

C’est un schéma très proche de ce que Samsung a fait avec Galaxy AI, largement alimenté par Gemini, mais sous branding Samsung.

Lancement prévu pour 2026

Si tout se déroule comme prévu, Apple devrait déployer la « nouvelle Siri » avec iOS 26.4, soit environ deux ans après l’annonce de « Apple Intelligence » à la WWDC 2024. Cela arrive donc tard — mais pas trop tard pour Apple, qui espère ainsi rattraper son retard sur Samsung et Google.

Le « Siri 2.0 » utilisera Gemini pour comprendre des requêtes complexes et les reformuler avec contexte, interagir entre apps (ex. : « Résume mes mails et ajoute les dates importantes à mon calendrier »), effectuer des recherches web enrichies via IA, et offrir des réponses plus naturelles et cohérentes.

Apple Intelligence ajoutera aussi des outils d’écriture, de résumé et de génération d’images directement intégrés à iOS et macOS.

Trop tard pour séduire ?

Certains observateurs jugent que Apple arrive trop tard dans la course à l’IA, deux ans après le lancement des premières versions de Gemini et ChatGPT sur smartphones. Mais d’autres pensent que les utilisateurs se moquent de la technologie employée — ils veulent juste une IA fluide, fiable et privée.

Apple ne crée pas encore son propre modèle d’IA « géant » de bout en bout, mais choisit une approche pragmatique : utiliser la technologie de Google, tout en gardant le contrôle total sur l’expérience et la confidentialité. Si cette intégration est réussie, Siri pourrait enfin devenir l’assistant intelligent qu’Apple promet depuis des années — et Apple Intelligence, un véritable concurrent aux IA de Google et Samsung.

En 2026, Siri pourrait enfin mériter son nom d’assistant « intelligent » — avec un petit coup de pouce… de Gemini.

Lire plus
Intelligence Artificielle

Perplexity lance un agent IA pour la recherche de brevets

Perplexity lance un agent IA pour la recherche de brevets

La startup d’intelligence artificielle Perplexity vient de dévoiler un nouvel agent de recherche de brevets, conçu pour simplifier un domaine souvent jugé complexe : la recherche et l’analyse de brevets.

Traditionnellement, consulter des brevets nécessite de maîtriser des bases de données spécialisées et d’utiliser des chaînes de mots-clés précises. Désormais, grâce à l’IA de Perplexity, il suffit de poser une question en langage naturel pour obtenir des résultats pertinents accompagnés de résumés générés par IA.

Des requêtes simplifiées grâce à l’IA

Plutôt que de taper des requêtes complexes, les utilisateurs peuvent simplement demander : « Y a-t-il des brevets sur l’apprentissage des langues par IA ? » ou encore « Principaux brevets en informatique quantique depuis 2024 ».

L’agent de recherche Perplexity analyse ensuite les bases de données de brevets et renvoie une liste de résultats pertinents, chaque brevet étant accompagné d’un résumé synthétique pour en comprendre rapidement le contenu.

Des résultats plus intelligents que la simple correspondance de mots-clés

Perplexity précise que son outil va au-delà des correspondances exactes. Par exemple, une recherche pour “fitness trackers” affichera également des brevets relatifs à :

  • “activity bands” (bracelets d’activité),
  • “step-counting watches” (montres podomètres),
  • “health monitoring watches” (montres de suivi de santé).

L’objectif : capturer l’intention de la recherche plutôt que de se limiter à des termes précis.

Recherche élargie à d’autres sources

L’outil ne se limite pas aux brevets : il peut également explorer des articles scientifiques, des dépôts de logiciels publics ou d’autres sources pertinentes pour identifier l’antériorité (prior art) — un point crucial dans le monde des brevets. Cela permet aux chercheurs, ingénieurs ou avocats spécialisés de vérifier si une invention a déjà été décrite ailleurs, ce qui est souvent une étape longue et fastidieuse.

Le Perplexity Patent Research Tool est gratuit pendant sa phase bêta. Les abonnés Pro et Max bénéficient toutefois de quotas d’utilisation plus élevés et de paramètres de configuration avancés. L’outil est disponible directement sur le site de Perplexity : il suffit de saisir une requête comme s’il s’agissait d’une recherche classique.

Pourquoi c’est important ?

La recherche de brevets est un enjeu stratégique majeur pour les entreprises technologiques, les chercheurs et les avocats spécialisés. En rendant cette tâche plus accessible grâce à l’IA, Perplexity démocratise un domaine jusque-là réservé aux experts — et se positionne comme un concurrent direct d’outils professionnels comme Google Patents, Lens.org ou WIPO Search.

Perplexity continue d’élargir son écosystème d’IA avec un outil utile et concret. Son moteur de recherche de brevets intelligent promet de transformer la manière dont les innovateurs explorent le paysage technologique mondial — une avancée qui pourrait accélérer la recherche et le développement dans de nombreux secteurs.

Lire plus
Intelligence Artificielle

OpenAI introduit un modèle freemium pour Sora : 10 vidéos pour 4 dollars

OpenAI introduit un modèle freemium pour Sora : 10 vidéos pour 4 dollars

OpenAI vient d’annoncer une évolution majeure pour Sora, sa plateforme de génération de vidéos par intelligence artificielle : les utilisateurs peuvent désormais acheter des crédits supplémentaires pour continuer à créer des vidéos une fois leur quota gratuit épuisé.

Sora: Des crédits payants pour les gros créateurs

Jusqu’ici, Sora offrait un nombre limité de générations gratuites par jour :

  • 100 vidéos par jour pour les utilisateurs du plan Pro,
  • 30 vidéos par jour pour les autres.

Mais, selon Bill Peebles, responsable de l’équipe Sora chez OpenAI, ce modèle est devenu « économiquement insoutenable ». « Les utilisateurs intensifs ne sont clairement pas satisfaits des limites actuelles. Nous allons donc leur permettre d’utiliser autant de ressources qu’ils souhaitent… à condition de payer pour cela ».

Concrètement :

  • 10 générations supplémentaires coûtent 4 dollars, selon la fiche de Sora sur l’App Store d’Apple.
  • Le nombre de crédits nécessaires dépend de la durée, de la résolution et d’autres paramètres de la vidéo.
  • Les crédits expirent au bout de 12 mois et peuvent aussi être utilisés sur d’autres produits OpenAI, comme Codex.

Lorsque vous atteignez votre limite gratuite, une option d’achat apparaît directement dans l’application.

Vers une réduction des quotas gratuits

Peebles a prévenu que ces quotas élevés ne dureront pas éternellement : « Nous devrons réduire les générations gratuites pour accompagner la croissance. En attendant, profitez des limites actuelles, qui sont folles ». OpenAI promet de communiquer de manière transparente lorsque ce changement interviendra, sans donner de calendrier précis.

Cette décision s’inscrit dans une stratégie plus large visant à monétiser Sora et à encourager une nouvelle économie de créateurs IA. Ces dernières semaines, OpenAI a ajouté des outils d’édition comme l’assemblage de clips (« clip stitching »), des classements (« leaderboards ») pour les vidéos populaires, et surtout, la fonctionnalité controversée des « cameos », qui permet de créer des avatars réalistes (parfois basés sur des personnes réelles ou des personnages fictifs).

Peebles indique que la monétisation des créateurs sera testée « bientôt », évoquant une vision dans laquelle : « Les détenteurs de droits pourront facturer l’utilisation de leurs personnages ou de leurs images pour des cameos ».

Une manière de réguler l’usage des deepfakes après les polémiques entourant des vidéos d’avatars de personnages comme Pikachu, SpongeBob ou Martin Luther King Jr. créées sans autorisation.

Rendre Sora économiquement viable

OpenAI cherche à rendre Sora économiquement viable tout en posant les bases d’un écosystème créatif autour de l’IA vidéo. Les crédits payants marquent la première étape vers un modèle freemium, où les utilisateurs réguliers paieront pour plus de flexibilité, tandis que les créateurs pourront monétiser leurs avatars et personnages virtuels.

En d’autres termes : Sora passe d’un laboratoire d’expérimentation à une véritable plateforme économique de création IA, avec ses règles, ses prix… et bientôt, ses revenus partagés.

Lire plus
Intelligence Artificielle

ChatGPT se connecte à vos données : la nouvelle fonction « Company Knowledge » est là

ChatGPT se connecte à vos données : la nouvelle fonction « Company Knowledge » est là

OpenAI vient de lancer une nouvelle fonctionnalité de ChatGPT pensée pour les entreprises, les établissements d’enseignement et les grandes organisations : la « company knowledge » (ou connaissance d’entreprise).

Cette mise à jour, alimentée par une version de GPT-5, permet à ChatGPT de se connecter directement à vos outils de travail — tels que Slack, SharePoint, Google Drive ou GitHub — afin de retrouver rapidement des informations internes sans quitter la conversation.

ChatGPT devient un moteur de recherche pour l’entreprise

L’objectif est simple : transformer ChatGPT en un assistant conversationnel capable d’explorer toutes vos données professionnelles pour trouver la réponse la plus pertinente.

Sources 16x9 desktop scaled

Concrètement, il peut compiler des informations issues de plusieurs sources à la fois, puis fournir une réponse complète avec citations et liens directs vers les fichiers d’origine.

Exemple : avant un appel client, ChatGPT peut générer un brief à partir de vos échanges Slack, d’un document Google Docs contenant les notes de réunion, d’e-mails récents, et même de tickets Intercom liés au compte.

Cette approche s’inscrit dans la tendance des « IA d’entreprise » plus contextuelles, à l’image des « Skills » récemment lancés par Anthropic pour son assistant Claude.

Une recherche contextuelle, simultanée et datée

OpenAI explique que cette version de GPT-5 est capable d’effectuer plusieurs recherches en parallèle, de gérer des questions ambiguës (« Où en sommes-nous sur les objectifs 2026 ? »), et appliquer des filtres temporels pour distinguer les informations les plus récentes.

Le modèle peut aussi « réfléchir pendant qu’il cherche », combinant logique et recherche documentaire pour fournir des réponses plus fiables.

Activation et limites

La fonction « Company Knowledge » doit être activée manuellement au démarrage d’une conversation. Pendant son utilisation, ChatGPT ne peut pas naviguer sur le Web, ni générer d’images ou de graphiques. Il peut néanmoins répondre à certaines requêtes via les applications connectées, mais sans offrir la même profondeur d’analyse ni les citations précises.

SynthesizeInsights 16x9 scaled

OpenAI indique que la prise en charge de nouvelles fonctionnalités (comme la génération de rapports ou de tableaux interactifs) arrivera dans les prochains mois.

Un pas de plus vers le copilote professionnel

Avec cette évolution, OpenAI renforce clairement la dimension « assistant de travail » de ChatGPT, déjà adoptée par de nombreuses entreprises dans le monde. Grâce à la connexion directe à leurs sources internes, les équipes peuvent interroger leurs données en langage naturel, sans passer par des requêtes complexes ou des recherches manuelles fastidieuses.

Ainsi, ChatGPT devient un véritable moteur de recherche conversationnel pour les entreprises, capable d’agréger en temps réel les connaissances internes, le tout propulsé par GPT-5.

Lire plus