fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

ChatGPT Agent : l’outil IA tout-en-un qui transforme le travail numérique

ChatGPT Agent : l’outil IA tout-en-un qui transforme le travail numérique

Imaginez un seul outil capable de coder, générer des images, faire de la recherche avancée, tout en apprenant et s’améliorant au fil de son utilisation. Ce n’est plus de la science-fiction : ChatGPT Agent, l’agent intelligent développé par OpenAI, ambitionne de devenir votre assistant numérique ultime, et peut-être bien plus encore.

Loin d’un simple assistant conversationnel, ChatGPT Agent se positionne comme un véritable collaborateur numérique, capable de gérer des tâches complexes, de centraliser des outils disparates et de fluidifier vos workflows.

Il est aussi une démonstration de ce que l’intelligence artificielle peut apporter dans la transformation du monde professionnel, tout en soulevant des questions majeures : comment encadrer son usage de manière responsable et éthique ?

ChatGPT Agent : Un outil polyvalent aux fonctions avancées

Conçu pour intégrer plusieurs outils IA dans une interface unifiée, ChatGPT Agent permet d’éliminer les frictions habituelles liées au multitâche entre applications. Il repose sur des techniques d’apprentissage par renforcement (reinforcement learning), ce qui signifie qu’il devient plus précis, plus pertinent et plus efficace à chaque utilisation.

Parmi ses fonctionnalités phares :

  • Exécution de code : il automatise les tâches de programmation, du débogage à l’optimisation de scripts.
  • Génération d’images : il crée des visuels sur mesure pour des projets créatifs ou professionnels.
  • Recherche approfondie : il mène des analyses complexes, utiles en science, finance, veille concurrentielle ou journalisme.

Toutes ces opérations se déroulent dans un environnement isolé sécurisé (sandbox), garantissant que vos données et vos systèmes restent protégés.

Un assistant pour développeurs, chercheurs, créatifs… et au-delà

L’agent excelle dans divers secteurs, notamment la science des données, le développement logiciel, ou encore l’analyse financière. Sa capacité à traiter des volumes massifs de données et à fournir des rapports structurés en fait un outil d’aide à la décision stratégique.

Mais attention, il n’est pas infaillible. Lorsqu’il s’agit de tâches très nuancées ou créatives — comme l’analyse contextuelle de documents complexes ou la gestion avancée de tableaux financiers — l’expertise humaine reste irremplaçable. C’est dans cette complémentarité entre IA et humain que réside sa vraie puissance.

Sécurité et éthique : des enjeux centraux

OpenAI a pensé la sécurité dès la conception de ChatGPT Agent. Chaque tâche est exécutée sous surveillance de l’utilisateur, et aucune action sensible n’est entreprise sans autorisation explicite.

Cela dit, la puissance de l’outil implique une grande vigilance. Donner à un agent IA l’accès à des données sensibles, des comptes privés ou à votre environnement de travail nécessite une compréhension claire des risques : fuites de données, biais dans les réponses, usage non éthique… Ce sont des réalités à ne pas sous-estimer.

L’utilisateur doit donc adopter une posture de :

  • Maîtrise des droits d’accès,
  • Surveillance régulière des usages,
  • Respect des principes éthiques en matière d’IA (vie privée, consentement, transparence…).

Une IA qui apprend, s’adapte et se développe

ChatGPT Agent n’est pas un outil figé. Il évolue activement avec l’ajout de nouvelles fonctionnalités, comme l’agent de recherche (Deep Research), qui remplace désormais l’ancien outil « Operator ». Des versions futures pourraient également intégrer des modules spécialisés en droit, santé ou ingénierie.

Accessible aux abonnés Pro, Plus et Teams, l’agent bénéficie de limites d’utilisation étendues pour les abonnés haut de gamme, avec une expérience optimisée pour les professionnels exigeants.

ChatGPT Agent face à la concurrence : vers un avenir centré sur l’IA

OpenAI n’est pas seul sur ce terrain. Des alternatives comme Google Mariner se positionnent aussi sur le créneau des agents intelligents multiformes, capables d’automatiser des tâches complexes. La concurrence stimule l’innovation, mais impose aussi une responsabilité partagée : les entreprises doivent anticiper les dérives possibles et favoriser un déploiement éthique et réglementé.

En parallèle, l’émergence de ces outils transforme les métiers : automatisation des processus, génération de contenus, assistance à la décision… La frontière entre outil et collaborateur devient floue, imposant une nouvelle vision du travail numérique.

Entre promesse et responsabilité

ChatGPT Agent représente une étape majeure dans l’évolution de l’IA appliquée au quotidien professionnel. Il améliore l’efficacité, réduit les frictions, et ouvre des possibilités nouvelles. Mais cet outil n’est pas magique. Il exige de comprendre ses limites, de respecter les règles de sécurité et d’adopter une utilisation responsable.

Utilisé avec discernement, le ChatGPT Agent peut devenir un levier stratégique pour gagner en productivité, améliorer la qualité des livrables et dégager du temps pour les tâches à forte valeur ajoutée.

Lire plus
Intelligence Artificielle

Apple va permettre aux entreprises de bloquer ou restreindre ChatGPT sur iPhone et Mac

Apple va permettre aux entreprises de bloquer ou restreindre ChatGPT sur iPhone et Mac

Face à l’adoption rapide de l’intelligence artificielle dans les entreprises — et aux risques croissants qui en découlent — Apple prépare un arsenal de nouveaux outils pour aider les organisations à encadrer strictement l’utilisation des services IA, à commencer par ChatGPT.

Ces fonctionnalités, attendues cet automne via Apple Business Manager, permettront aux administrateurs IT de bloquer ou limiter l’accès aux IA génératives comme ChatGPT for Enterprise, directement depuis les appareils professionnels (iPhone, iPad, Mac).

Des contrôles précis pour protéger les données sensibles

Avec cette initiative, Apple répond à une inquiétude de longue date : la fuite de données confidentielles via des outils comme ChatGPT, utilisés parfois sans encadrement ni consentement explicite.

Désormais, les entreprises pourront paramétrer finement les accès : par appareil, par département ou selon des plages horaires. Par exemple, un service marketing pourra continuer à utiliser ChatGPT, tandis que le service R&D en sera privé, minimisant ainsi les risques de divulgation d’informations stratégiques.

Selon AppleInsider, cette mise à jour repose sur l’architecture éprouvée de gestion des appareils mobiles (MDM) d’Apple. Elle s’intègre naturellement à Apple Business Manager, déjà largement utilisé dans les environnements professionnels pour superviser des flottes d’appareils.

Un historique de prudence d’Apple face à l’IA

Apple n’en est pas à son coup d’essai. En 2023, la firme avait déjà interdit à ses employés d’utiliser ChatGPT et d’autres IA tierces, craignant que des données internes ne soient envoyées involontairement à des modèles externes. À l’époque, un mémo interne avait fuité, révélant également qu’Apple développait son propre modèle de langage en interne — une approche contrôlée qui reste fidèle à sa philosophie.

Des entreprises comme Samsung, Amazon ou JPMorgan Chase avaient adopté des stratégies similaires à la même période, rappelant que les préoccupations de sécurité étaient largement partagées dans le monde professionnel.

Vers une adoption plus sûre de l’IA en entreprise ?

Cette nouvelle offre pourrait accélérer l’adoption sécurisée de l’IA dans les environnements professionnels. En laissant aux entreprises le choix de définir les usages autorisés, Apple mise sur une intégration responsable et maîtrisée. Pour TechCrunch, cette approche pourrait même positionner Apple comme un leader en matière de gestion de l’IA en entreprise, aux côtés de Microsoft et Google.

Apple adopte ici une stratégie cohérente, en alignant ses politiques pour les particuliers et les professionnels : iOS 26 intégrera bientôt ChatGPT via Siri, mais uniquement avec l’accord explicite de l’utilisateur.

Des limites à surmonter, mais un cadre prometteur

Malgré les avancées, certains défis demeurent. Les PME, en particulier, pourraient manquer des ressources IT nécessaires pour gérer ces paramètres complexes. De plus, l’écosystème reste centré sur les appareils Apple, ce qui peut compliquer l’intégration dans des environnements hybrides (Windows, Android, etc.).

Mais à plus long terme, Apple pourrait étendre ces contrôles à d’autres IA comme Gemini (Google) ou Claude (Anthropic), selon WebProNews. Ce serait une évolution logique, destinée à créer un écosystème professionnel unifié autour de l’IA.

Apple pose les bases d’un cadre IA sécurisé pour les entreprises

Avec ces nouveaux outils de contrôle, Apple anticipe l’inévitable convergence entre innovation technologique et impératifs de sécurité. En donnant aux entreprises la capacité de réguler l’usage des IA génératives, la firme californienne montre une voie possible : celle d’un compromis intelligent entre efficacité, confidentialité et innovation.

L’enjeu est de taille. Et à l’approche de la sortie de ces fonctionnalités, le monde de l’entreprise observe avec attention ce que pourrait devenir la norme en matière d’IA sécurisée.

Lire plus
Intelligence Artificielle

Anthropic va utiliser vos données pour entraîner Claude : ce qu’il faut savoir (et comment refuser)

Anthropic va utiliser vos données pour entraîner Claude : ce qu’il faut savoir (et comment refuser)

Le paysage de l’intelligence artificielle évolue rapidement, et la question de la confidentialité des données reste au cœur des préoccupations. Cette semaine, Anthropic, la société derrière le modèle Claude, a annoncé une mise à jour majeure de ses conditions d’utilisation : vos données pourront désormais être utilisées pour entraîner ses IA, sauf si vous choisissez de vous y opposer.

L’entreprise impose à tous ses utilisateurs de faire un choix d’ici le 28 septembre 2025, sous peine d’acceptation automatique. Voici ce que cela signifie pour vous.

Concrètement, quelles données seront utilisées ?

À partir de la date indiquée, toutes les nouvelles conversations et sessions de codage sur Claude (y compris Claude Code) pourront être utilisées pour entraîner les modèles de l’entreprise. Cela concerne aussi bien les utilisateurs gratuits que ceux ayant souscrit aux formules Claude Pro ou Claude Max.

Attention : même si vous aviez démarré une conversation auparavant, le simple fait de la reprendre après le 28 septembre suffira pour que cette session soit incluse dans les données d’entraînement, sauf si vous avez refusé explicitement.

Les utilisateurs des offres commerciales — Claude Gov, Claude for Work, Claude for Education ou utilisations via API comme Amazon Bedrock ou Google Vertex AI — ne sont pas concernés par cette politique.

Une décision obligatoire avant le 28 septembre

Anthropic a commencé à afficher une fenêtre contextuelle (pop-up) sur son interface, intitulée « Mise à jour des conditions d’utilisation ». Le bouton principal, noir et bien visible, indique « Accepter ».

Juste en dessous, une ligne discrète mentionne : « Permettre l’utilisation de vos discussions et sessions de codage pour améliorer les modèles Claude ».

0d48d7f71fe2b5ccc537b48394313a91636bb329 3840x2160 1 scaled

Et surtout : cette option est activée par défaut via un petit interrupteur déjà sur « On ». Autrement dit, si vous cliquez trop rapidement sur « Accepter » sans vérifier ce paramètre, vous donnez immédiatement votre accord.

Comment refuser l’utilisation de vos données ?

Si vous souhaitez protéger vos données :

  1. Attendez que le pop-up s’affiche.
  2. Avant de cliquer sur « Accepter », désactivez l’interrupteur « Permettre l’utilisation de vos données… » en le passant sur « Off ».

Si vous avez déjà cliqué trop vite, vous pouvez encore changer d’avis :

  • Rendez-vous dans Paramètres > Confidentialité > Paramètres de confidentialité
  • Basculez l’option « Aider à améliorer Claude » sur « Off »

Attention : cette modification n’affectera que les futures données. Celles déjà utilisées pour l’entraînement ne pourront pas être supprimées du modèle.

Qu’en est-il de la confidentialité ?

Anthropic assure que les données sont traitées avec soin :

  • Un ensemble de filtres automatiques est mis en place pour masquer les données sensibles.
  • Aucune revente des données n’est effectuée à des tiers.

Mais malgré ces garanties, le fait que la collecte soit activée par défaut soulève de nombreuses critiques, notamment sur la transparence réelle de l’entreprise vis-à-vis de ses utilisateurs.

Pourquoi cette décision ?

Comme d’autres acteurs majeurs de l’IA (OpenAI, Google, Meta), Anthropic cherche à accroître les capacités de ses modèles grâce à des données conversationnelles réelles. L’objectif affiché : améliorer la pertinence, la fluidité et la personnalisation des réponses.

Cependant, cette évolution place les utilisateurs devant un dilemme classique : accepter de partager leurs données pour une meilleure IA… ou préserver leur vie privée au détriment d’éventuelles améliorations fonctionnelles.

Lire avant de cliquer

Ce changement marque un tournant important dans la politique de confidentialité d’Anthropic. Tous les utilisateurs des services Claude doivent désormais faire un choix clair et éclairé. L’opt-out, bien que possible, est caché dans une interface peu explicite, ce qui pourrait induire de nombreuses personnes en erreur.

Avant de cliquer sur « Accepter », vérifiez attentivement les options et pensez aux conséquences de ce partage de données. La transparence commence par l’information.

Lire plus
Intelligence Artificielle

L’ère ChatGPT est-elle en train de vaciller ? Grok et Gemini grimpent en flèche

L’ère ChatGPT est-elle en train de vaciller ? Gemini et Grok réduisent l’écart selon a16z

Dans le monde en constante évolution de l’intelligence artificielle, ChatGPT d’OpenAI règne depuis longtemps comme l’outil dominant auprès du grand public.

Mais selon le tout dernier rapport sur l’IA grand public publié par le cabinet de capital-risque Andreessen Horowitz (a16z), cette suprématie est aujourd’hui sérieusement remise en question.

Grok et Gemini : des challengers en pleine ascension

Publié cette semaine, le rapport d’a16z s’appuie sur deux ans et demi de données d’utilisation pour dresser un panorama précis du marché actuel. Il montre une montée en puissance fulgurante de Grok, développé par xAI (la startup d’Elon Musk), ainsi que de Gemini, l’IA multimodale de Google.

Top Gen AI Web Top 50 List 1

Grok, qui n’avait même pas d’application dédiée fin 2024, a explosé pour atteindre plus de 20 millions d’utilisateurs actifs mensuels aujourd’hui. Sur le Web, il se hisse à la 4e place des IA les plus utilisées, et se classe 23e sur mobile. La sortie de Grok 4 en juillet 2025 a joué un rôle central, générant une hausse de près de 40 % de son utilisation.

Top Gen AI Web Newcomers 1

Gemini, de son côté, s’appuie sur la force de frappe de l’écosystème Google. Grâce à son intégration fluide de texte, images, et autres contenus, la solution séduit des utilisateurs en quête d’interactions plus rapides, plus visuelles et plus naturelles.

Meta, DeepSeek, Claude : des concurrents à la traîne

Alors que certains progressent, d’autres peinent à convaincre. Meta AI reste bloquée à la 46e place sur le Web, et n’apparaît même pas dans les meilleures applications mobiles. En cause : des problèmes de confidentialité, notamment des publications utilisateur rendues publiques par erreur.

Même Claude (Anthropic) et DeepSeek, autrefois prometteurs, voient leur croissance stagner. DeepSeek a même perdu plus de 40 % de son trafic web depuis son pic de février 2025, selon les données du rapport.

Un marché fragmenté et plus compétitif que jamais

Si ChatGPT reste en tête, le rapport révèle une fragmentation croissante du marché. Des outils plus spécialisés apparaissent et gagnent des parts de marché, chacun misant sur un usage précis ou une niche. C’est notamment le cas de Grok, qui grâce à ses mises à jour rapides et son lien avec la plateforme X (ex-Twitter), a su capter un public sensible à l’instantanéité.

Gemini tire aussi profit de son intégration dans les outils Google (Gmail, Docs, etc.), ce qui lui confère un avantage de distribution considérable. Comme le souligne un investisseur interrogé par BusinessToday, la bataille ne se joue plus uniquement sur la puissance brute des modèles, mais sur la capacité à fidéliser les utilisateurs par des fonctionnalités intelligentes et utiles.

Les défis de demain : saturation, vie privée, et différenciation

Malgré cet engouement, certains signaux alertent sur une possible saturation du marché. La croissance ralentit pour plusieurs IA, et les questions de confidentialité – comme celles qui ont touché Meta – peuvent rapidement freiner l’adoption à grande échelle.

Le rapport souligne également que la bataille se joue désormais sur mobile, où les utilisateurs recherchent une accessibilité maximale. C’est là que l’écart entre ChatGPT et ses concurrents se réduit le plus rapidement.

Top Gen AI Apps Top 50 List

Vers un tournant stratégique en 2025 ?

Les données recueillies par a16z laissent entrevoir une année charnière. Avec Grok qui progresse à toute vitesse et Gemini qui se perfectionne, OpenAI pourrait devoir accélérer ses propres innovations pour rester en tête. La consolidation du marché semble peu probable à court terme : la domination d’un seul acteur laisse place à un jeu plus ouvert, propice à l’expérimentation, mais aussi à de nouveaux modèles économiques.

Pour les dirigeants technos comme pour les investisseurs, 2025 pourrait marquer le moment idéal pour miser sur des outils IA spécialisés, capables de redéfinir la manière dont nous interagissons au quotidien avec la technologie.

 

Lire plus
Intelligence Artificielle

Anthropic lance Claude pour Chrome, son premier agent IA dans le navigateur

Anthropic lance Claude pour Chrome, son premier agent IA dans le navigateur

Anthropic passe à la vitesse supérieure dans la course aux agents IA intelligents, avec le lancement d’un aperçu de recherche pour son tout premier assistant de navigation : Claude pour Chrome.

Déployé auprès d’un groupe test de 1 000 abonnés à son offre Max (facturée entre 100 et 200 dollars par mois), ce nouvel outil promet de transformer l’expérience Web en assistant virtuel contextuel.

Un agent IA directement intégré à votre navigateur

L’agent Claude s’installe via une extension Chrome et apparaît dans une fenêtre latérale (sidecar), capable de suivre le contexte de ce que vous faites sur le Web. L’utilisateur peut aussi lui donner des autorisations pour effectuer certaines actions à sa place — comme remplir des formulaires, naviguer entre les onglets ou interagir avec des interfaces.

Ce lancement s’inscrit dans une tendance claire : le navigateur devient le prochain champ de bataille des géants de l’IA.

Perplexity a récemment lancé Comet, son propre navigateur IA, et OpenAI serait en train de finaliser le sien. De son côté, Google a déjà commencé à intégrer Gemini dans Chrome.

Claude peut-il naviguer en toute sécurité ? Anthropic met en garde

Anthropic reconnaît que cette nouvelle génération d’agents IA pose de nouveaux risques de sécurité, notamment à cause des attaques par injection de prompt. C’est ce qu’a démontré l’équipe sécurité de Brave, en montrant que Comet pouvait être trompé par des instructions cachées dans une page Web.

Face à cela, Anthropic affirme avoir pris des mesures proactives. Grâce à des interventions automatiques, le taux de succès des attaques a été réduit de 23,6 % à 11,2 %. De plus, Claude demande une confirmation avant d’effectuer des actions sensibles comme publier du contenu, effectuer un achat ou partager des données personnelles.

b88d1e1c0c196dd012a7d44c5ae8d255d8a20822 3840x2160 1 scaled

Certaines catégories de sites (banques, contenus pour adultes, plateformes pirates) sont bloquées par défaut, et les utilisateurs peuvent personnaliser les autorisations site par site.

Pourquoi les navigateurs IA sont-ils au cœur des enjeux tech ?

Le timing de cette annonce n’est pas anodin. Un jugement antitrust contre Google pourrait l’obliger à revendre Chrome. Plusieurs acteurs se sont déjà positionnés : Perplexity a proposé 34,5 milliards de dollars, et Sam Altman (OpenAI) s’est dit prêt à racheter lui aussi le navigateur.

Dans ce contexte, détenir un navigateur ou un agent IA intégré au Web devient un atout stratégique majeur. Si Claude parvient à prouver son efficacité, Anthropic pourrait sérieusement challenger OpenAI, Google et Perplexity.

Encore un aperçu, mais un pas de géant pour Anthropic

Ce n’est pas la première tentative d’Anthropic dans ce domaine : en 2024, l’entreprise avait présenté un agent IA capable de contrôler votre ordinateur. Trop lent et instable à l’époque, il cède aujourd’hui la place à une version nettement plus aboutie.

Si les premières évaluations de Claude pour Chrome confirment une meilleure fiabilité pour les tâches simples, les problèmes complexes restent un défi pour ces agents « agentiques » nouvelle génération.

Lire plus
Intelligence Artificielle

Apple prêt à racheter Perplexity ou Mistral AI pour combler son retard en IA ?

Apple prêt à racheter Perplexity ou Mistral AI pour combler son retard en IA ?

Alors que l’intelligence artificielle redéfinit l’ensemble du paysage technologique, Apple se retrouve à un moment charnière. En coulisses, les débats s’intensifient à Cupertino autour d’acquisitions ambitieuses pour combler son retard face à des rivaux comme OpenAI, Google ou Microsoft.

Face à la pression croissante sur le front de l’intelligence artificielle, Apple serait enfin prêt à sortir le chéquier.

Alors que des voix s’élèvent depuis des mois pour inciter la firme de Cupertino à frapper un grand coup, plusieurs sources proches du dossier, la firme à la pomme croquée aurait entamé des discussions avancées pour le rachat de deux startups spécialisées dans l’IA générative : la française Mistral AI et l’américaine Perplexity.

Des acquisitions à plusieurs milliards pour accélérer Apple Intelligence ?

Les négociations, menées notamment par Eddy Cue, le patron des services d’Apple, témoignent d’une volonté de rupture avec la stratégie d’acquisitions prudente du groupe. Aujourd’hui, il milite pour une offensive dans l’IA afin d’éviter que Google (Gemini) ou Samsung (Galaxy AI) ne prennent une avance définitive sur l’écosystème iPhone.

En face, Craig Federighi, patron du logiciel chez Apple, défend une vision plus traditionnelle : développer en interne les briques d’intelligence artificielle, sans dépendre d’acquisitions externes. Mais avec la montée en puissance de Pixel 10 et Galaxy S25, capables de proposer une IA native, puissante et rapide, le statu quo devient risqué.

Habituée aux rachats discrets et ciblés, Apple envisage ici des opérations à 10 ou 20 milliards de dollars — loin de ses habitudes. Pourtant, l’urgence semble grandir, à l’heure où Apple Intelligence, son initiative maison en matière d’IA, tarde à convaincre.

Mistral AI ou Perplexity ? Deux visions très différentes de l’IA

Perplexity se positionne comme une alternative à Google Search, avec un moteur de recherche propulsé par IA, qui résume le Web en citant ses sources. Une approche qui correspond bien à la philosophie privacy-first d’Apple. Si la firme devait perdre tout ou partie de son partenariat à 20 milliards de dollars annuels avec Google (actuellement en ligne de mire des autorités antitrust), un moteur maison comme Perplexity pourrait constituer une alternative crédible à intégrer dans Siri ou Spotlight.

Du côté de Mistral AI, c’est l’approche open source, la performance sur appareil (edge computing) et la maîtrise des modèles linguistiques de nouvelle génération qui séduisent Apple. Mistral, soutenue par la France et valorisée à environ 10 milliards de dollars, apporterait aussi un ancrage stratégique en Europe, dans un contexte où la souveraineté technologique devient un enjeu majeur.

Culture d’entreprise, régulation et freins internes

Malgré l’intérêt stratégique, l’intégration de ces startups dans l’écosystème Apple pourrait s’avérer complexe. Les méthodes de travail rapides et ouvertes de Perplexity pourraient heurter la culture secrète et structurée d’Apple. Quant à Mistral, son ancrage européen pourrait ralentir les synergies avec les équipes californiennes.

Le contexte réglementaire n’aide pas : alors que les autorités américaines et européennes surveillent de près les géants du numérique, un rachat aussi visible pourrait attirer l’attention des régulateurs antitrust. Et même avec plus de 200 milliards de dollars en réserve, Apple n’a jamais montré beaucoup d’appétit pour les méga-acquisitions.

Un potentiel impact à l’échelle de toute l’industrie

Si l’une de ces opérations devait se concrétiser, cela pourrait marquer un tournant dans l’univers de l’IA générative. Le rachat de Mistral renforcerait la scène tech européenne, tandis que celui de Perplexity poserait un nouveau jalon dans la bataille des moteurs de recherche, en concurrence directe avec Google, Bing ou Meta.

Apple pourrait ainsi abandonner sa posture d’observateur prudent pour adopter une stratégie plus offensive, quitte à redéfinir les règles du jeu en Silicon Valley. Pour les startups IA, cela enverrait un signal fort : dans un marché en tension, les rachats par les géants pourraient devenir la voie royale vers la pérennité.

Mais le temps presse : les smartphones concurrents misent déjà sur des fonctions IA bluffantes, et Apple Intelligence, dévoilé récemment, reste pour l’instant moins impressionnant que prévu.

Lire plus
Intelligence Artificielle

Google Gemini permet enfin de créer des images IA avec un visage cohérent

Google Gemini permet enfin de créer des images IA avec un visage cohérent

Google vient de lancer une mise à jour ambitieuse de son application Gemini, et elle pourrait bien changer la donne pour les créateurs d’images par intelligence artificielle.

Grâce à un tout nouveau modèle d’édition d’image développé par DeepMind — surnommé en interne « Nano Banana » — l’application Gemini promet désormais des résultats bien plus réalistes, cohérents… et surtout fidèles au visage d’origine.

L’IA qui vous reconnaît — même en tutu ou en costume de pirate

L’un des gros problèmes des générateurs d’image actuels (comme DALL·E ou Midjourney), c’est qu’il est très difficile de garder un personnage cohérent entre plusieurs images. Le visage change, les yeux varient, et les résultats sont souvent aléatoires.

Avec Gemini, vous pouvez désormais :

  • Télécharger une photo de vous (ou de votre animal),
  • Appliquer n’importe quelle transformation (coiffure des années 60, tenue de scène, décor fantastique…),
  • Tout en gardant exactement vos traits d’origine.

Google promet que la ressemblance est conservée avec précision, ce qui ouvre la voie à des montages créatifs bien plus aboutis. Que vous vouliez tester un look rétro ou transformer votre chien en joueur de basket, le visage restera fidèle à la version réelle.

Des fonctions d’édition avancées pour aller plus loin

Au-delà de la simple cohérence des visages, le nouveau Gemini apporte de nombreuses fonctionnalités pratiques et créatives.

Montage multi-étapes (multi-turn editing)

ImageEditingGemini Inline XZuiDzE

Vous pouvez maintenant décrire une scène progressivement :

  • Commencez par une pièce vide,
    Ajoutez un mur rouge,
  • Insérez une bibliothèque,
  • Puis placez une table basse.

L’image se construit étape par étape, sans tout recommencer à chaque fois.

Transfert de style

Vous aimez les motifs d’un papillon ? Appliquez-les à une robe. Ou transformez la texture d’un nuage en moquette. Gemini vous permet de fusionner couleurs, matières et motifs d’un élément à un autre.

Fusion d’images

Envie de mélanger une photo de vous et une autre de votre animal ? Gemini vous place ensemble dans une nouvelle scène réaliste, sans distorsions.

Blend photos together w8GsoJi

Une IA plus utile que jamais

Là où d’autres outils IA misent sur la puissance brute, Google prend le contre-pied en mettant l’accent sur l’utilité concrète. Ce n’est plus un simple gadget pour créer des images rigolotes, mais un véritable assistant visuel pour les créateurs de contenu, les utilisateurs curieux, ou même les professionnels.

Bien sûr, toutes les images générées ou modifiées avec Gemini incluent un filigrane automatique, pour signaler qu’il s’agit de contenus assistés par IA — une mesure importante pour la transparence.

Disponibilité

La nouvelle version de Gemini est déployée progressivement à partir d’aujourd’hui sur l’application mobile (Android et iOS). Pour l’instant, certaines fonctionnalités sont réservées aux utilisateurs ayant activé les tests expérimentaux.

Lire plus
Intelligence Artificielle

Elon Musk poursuit Apple et OpenAI pour monopole autour de ChatGPT

Elon Musk poursuit Apple et OpenAI pour monopole autour de ChatGPT

Une nouvelle bataille judiciaire s’annonce entre géants de la tech. Elon Musk, via ses entreprises xAI et X Corp., a officiellement déposé plainte contre Apple et OpenAI devant un tribunal fédéral du Texas.

Le cœur du litige : l’intégration de ChatGPT dans l’écosystème iOS, que Musk considère comme une violation des lois antitrust.

ChatGPT intégré à Siri : un « avantage déloyal » selon Musk

La plainte déposée ce lundi accuse Apple d’avoir favorisé OpenAI via un partenariat exclusif. Depuis 2024, ChatGPT est intégré nativement dans Siri et d’autres services Apple. Pour xAI, cette intégration donne un accès privilégié aux utilisateurs d’iPhone, iPad et Mac, ce qui rend inutile — voire invisible — toute autre IA concurrente.

Musk affirme que les applications Grok (le chatbot développé par xAI) et X (anciennement Twitter) sont défavorisées dans les résultats de recherche et n’apparaissent pas dans les recommandations de l’App Store, même lorsqu’elles obtiennent de bonnes notes utilisateurs.

« Apple agit de manière à empêcher toute IA, autre qu’OpenAI, d’atteindre la première place de l’App Store. C’est une violation antitrust flagrante »,
a déclaré Elon Musk sur X.

xAI accuse Apple et OpenAI de collusion

Le dossier judiciaire détaille un comportement collusif présumé entre Apple et OpenAI :

  • Favoritisme algorithmique : ChatGPT apparaît seul dans la section « Apps indispensables » du 24 août 2025.
  • Déclassement des concurrents : Grok et X seraient délibérément écartés malgré de bonnes performances.
  • Monopole déguisé : xAI parle d’un « jardin fermé » empêchant l’émergence d’alternatives.

Selon l’équipe juridique de Musk, ces pratiques étouffent l’innovation dans le secteur de l’IA et portent atteinte à la concurrence loyale.

Réponses de Apple et OpenAI : accusations « infondées »

Contactés par plusieurs médias, les deux accusés rejettent catégoriquement les allégations :

  • Apple assure que son App Store est « équitable et fondé sur des algorithmes neutres ».
  • OpenAI parle d’un « nouvel épisode de harcèlement judiciaire » de la part de Musk, selon une déclaration envoyée à The Verge.

Un contexte tendu entre Musk, Apple et OpenAI

Cette procédure n’arrive pas par hasard. Elon Musk est en conflit ouvert avec OpenAI depuis plusieurs années, l’accusant d’avoir trahi ses racines à but non lucratif. Il a aussi plusieurs fois menacé Apple de poursuites, notamment depuis que ChatGPT a explosé dans les classements de l’App Store. Musk accuse aussi Apple de profiter de son quasi-monopole sur les smartphones pour imposer ses partenaires et verrouiller le marché de l’IA mobile.

La plainte vise une interdiction judiciaire des pratiques jugées anticoncurrentielles, une amende compensatoire et une révision des algorithmes de classement de l’App Store. L’affaire pourrait également attirer l’attention du Département de la Justice américain, déjà engagé dans une enquête antitrust contre Apple.

Les enjeux pour l’industrie de l’IA

Si Musk obtient gain de cause, cela pourrait forcer Apple à ouvrir davantage son App Store aux IA tierces et favoriser la pluralité des acteurs. Mais d’autres y voient surtout une manœuvre stratégique, Musk utilisant cette procédure pour gagner en visibilité face à un concurrent plus établi.

Lire plus
Intelligence Artificielle

Tim Cook : « L’IA sera aussi révolutionnaire que l’Internet »

Tim Cook : « L’IA sera aussi révolutionnaire que l’Internet »

Lors d’une récente réunion interne, Tim Cook, PDG d’Apple, a déclaré que l’intelligence artificielle pourrait être aussi importante – voire plus – que l’arrivée d’Internet.

Un signal fort envoyé aux employés, mais aussi au monde entier : Apple entre pleinement dans l’ère de l’IA.

Apple Intelligence : l’IA selon Apple

Apple a peut-être tardé à s’aligner sur ses concurrents (Google, OpenAI), mais elle le fait à sa manière, notamment avec Apple Intelligence :

  • Intégration directe dans ses appareils
  • Traitement local des données, pour une meilleure protection de la vie privée
  • Mise en avant de Siri nouvelle génération, plus contextuel, plus puissant

Cette stratégie « Privacy-First » distingue Apple dans un marché où la plupart des solutions d’IA reposent sur le cloud.

Cook a affirmé que : « Ne pas adopter l’IA, c’est risquer de rester irrémédiablement à la traîne ».  Il appelle à former massivement les étudiants à l’IA, au même titre que la programmation, intégrer l’IA dans tous les métiers et repenser les outils internes d’Apple pour qu’ils exploitent pleinement cette technologie.

Il compare cette évolution à des bouleversements majeurs comme l’arrivée du Web ou des smartphones.

Du retard… mais une approche solide ?

Selon des analystes, Apple a pris du retard face à Microsoft, Google ou Meta. Pourtant, son intégration matérielle/logicielle unique pourrait lui donner un avantage décisif à long terme. Et, Tim Cook sait que l’IA n’est plus un gadget, mais un enjeu de compétitivité globale.

Des rumeurs évoquent déjà un Siri entièrement repensé, une Apple Watch avec IA prédictive et des appareils de santé connectés capables de détecter les maladies.

Vie privée : la ligne rouge d’Apple

Contrairement aux solutions cloud, Apple mise sur le traitement en local, des modèles embarqués dans les appareils et une IA éthique et respectueuse des données personnelles. Cook insiste sur ce point : innover sans compromettre la confidentialité reste la pierre angulaire de la stratégie Apple.

Tim Cook voit aussi dans l’IA un accélérateur de croissance. Apple a investi des milliards dans la recherche IA, l’entreprise a dépassé les 3 000 milliards de dollars de capitalisation et elle ambitionne de redéfinir l’expérience utilisateur, comme elle l’a fait avec l’iPhone.

Mais, cela intervient dans un contexte tendu : des critiques internes émergent, des défis géopolitiques pèsent sur la production de puces, et la concurrence s’intensifie.

Santé, éducation, productivité : l’IA Apple sur tous les fronts

Cook relie l’avenir de l’IA à des domaines clés comme la médecine préventive et santé personnalisée, l’apprentissage assisté par IA et l’automatisation intelligente pour les entreprises. Il veut faire d’Apple un acteur central de l’IA au quotidien, sans sacrifier son ADN centré sur l’utilisateur.

Tim Cook voit dans l’IA le prochain grand saut technologique. Avec une vision éthique, un écosystème fermé mais maîtrisé, et un potentiel de transformation énorme, Apple pourrait bien surprendre à nouveau dans les mois à venir.

Lire plus
Intelligence Artificielle

Claude peut désormais mettre fin à des conversations jugées nocives ou abusives

Claude peut désormais mettre fin à des conversations jugées nocives ou abusives

La société Anthropic, spécialisée dans l’intelligence artificielle, vient de doter son chatbot Claude d’une nouvelle fonctionnalité de coupure automatique des conversations jugées « persistamment nuisibles ou abusives ».

Cette mesure concerne les modèles Claude Opus 4 et Claude Opus 4.1, et a pour but de préserver à la fois la sécurité des utilisateurs et le « bien-être potentiel » du modèle d’IA lui-même.

Selon Anthropic, Claude interrompt une conversation uniquement après plusieurs refus clairs de répondre à des requêtes jugées inacceptables, suivis de tentatives de redirection vers des sujets plus sûrs. Si l’utilisateur insiste malgré cela — par exemple en demandant des contenus violents ou abusifs — le chatbot mettra fin à l’échange.

Une fois la conversation rompue, il est impossible d’envoyer de nouveaux messages dans ce fil. Toutefois, l’utilisateur peut :

  • Créer une nouvelle conversation,
  • Modifier ou réessayer des messages précédents pour repartir du bon pied.

77f187335e1266bffc59353c064f1d9c6de51cfa 1940x1304 1

Quels types de contenus entraînent une rupture sur Claude ?

Les tests internes réalisés sur Claude Opus 4 ont montré que l’IA avait une aversion cohérente pour les demandes à caractère dangereux, notamment :

  • Contenus sexuels impliquant des mineurs,
  • Instructions permettant des actes de violence ou de terrorisme,
  • Requêtes relevant de la production de substances illicites ou dangereuses.

Dans ces situations, Claude manifestait des signes d’« angoisse apparente », selon les termes d’Anthropic, ainsi qu’une tendance naturelle à vouloir quitter la conversation quand cette fonction lui était disponible.

Anthropic précise que Claude ne coupera pas une conversation si l’utilisateur manifeste des signes de détresse mentale ou de comportement suicidaire. Dans ces cas, le modèle tentera de rediriger la personne vers une aide appropriée.

Pour cela, Anthropic a collaboré avec Throughline, un service en ligne spécialisé dans le soutien en cas de crise, afin d’élaborer des réponses adaptées aux situations liées à l’auto-destruction ou à la violence imminente.

Une réponse aux débats croissants sur la sécurité de l’IA

La semaine dernière, Anthropic a également mis à jour sa politique d’utilisation pour faire face aux risques liés à l’usage malveillant de ses outils. Désormais, il est explicitement interdit d’utiliser Claude pour :

  • Développer des armes biologiques, nucléaires, chimiques ou radiologiques,
  • Créer du code malveillant ou exploiter des failles de sécurité réseau,
  • Participer à des actions illégales ou dangereuses via l’IA.

Anthropic précise que ces ruptures de conversations sont des cas extrêmement rares, représentant des « situations limites ». La grande majorité des utilisateurs, même lorsqu’ils abordent des sujets sensibles ou controversés, ne verront jamais leur chat interrompu.

Lire plus
Intelligence Artificielle

GPT-6 déjà en route : OpenAI promet une révolution accélérée de l’IA

GPT-6 déjà en route : OpenAI promet une révolution accélérée de l’IA

À peine quelques semaines après la sortie officielle de GPT-5, Sam Altman, PDG d’OpenAI, a surpris la planète tech en déclarant que GPT-6 est déjà en préparation — et pourrait être lancé beaucoup plus rapidement que les versions précédentes.

Ce changement de rythme annonce une nouvelle stratégie pour OpenAI, qui semble vouloir raccourcir drastiquement les cycles de développement afin de maintenir son avance dans un secteur ultra-compétitif face à Google, Anthropic, Meta, et d’autres géants de l’intelligence artificielle.

GPT-6 : une IA plus intelligente, plus personnalisée, plus rapide

Alors que GPT-4 avait nécessité plus de 2 ans de développement, GPT-6 pourrait arriver en seulement quelques mois après GPT-5 (lancé le 7 août 2025). D’après ZDNet, cette accélération serait rendue possible par des avancées majeures en efficacité d’entraînement.

Selon Sam Altman, GPT-6 sera « très différent » de GPT-5.

Les grandes améliorations attendues :

  • Mémoire améliorée : meilleure continuité dans les conversations longues
  • Personnalisation poussée : des assistants IA capables de se souvenir de vos préférences
  • Personnalités configurables pour les chatbots
  • Réponses plus émotionnellement intelligentes
  • Respect accru de la vie privée et de la confidentialité

Des cas d’usage concrets pour les développeurs et entreprises

Le modèle GPT-5 avait déjà introduit des capacités de collaboration (” agentic coding”) et une exécution plus proactive des tâches. GPT-6 entend aller encore plus loin avec une meilleure intégration aux outils professionnels comme GitHub Copilot, et une expérience utilisateur plus fluide grâce à la mémoire contextuelle.

Pour les développeurs :

  • Meilleure gestion du code complexe
  • Réponses plus cohérentes sur le long terme
  • IA plus fiable pour automatiser des tâches métiers

Pour les entreprises :

  • Agents conversationnels personnalisés
  • Service client amélioré
  • Automatisation intelligente avec respect de la réglementation

Un développement rapide… au risque de l’éthique ?

Cette accélération fulgurante du développement soulève aussi des inquiétudes :

  • Y aura-t-il assez de temps pour tester les biais et problèmes de sécurité ?
  • Le modèle sera-t-il suffisamment aligné éthiquement pour éviter des dérives ?

OpenAI promet que GPT-6 tirera les leçons de GPT-5, notamment sur des sujets tels que le sycophantisme (répéter ce que l’utilisateur veut entendre), les hallucinations factuelles et la transparence des limites du modèle.

Vers un futur de l’IA en constante accélération ?

En lançant GPT-6 aussi rapidement, OpenAI montre qu’elle ne veut pas se faire dépasser par la concurrence. Des modèles puissants comme ceux de Meta ou Anthropic progressent vite, et cette réponse rapide semble stratégique pour conserver la position de leader.

D’après plusieurs sources sur X, GPT-6 pourrait aussi intégrer des capacités multimodales avancées pour un traitement d’image amélioré, une compréhension vocale plus fluide, et une intégration plus poussée dans les outils créatifs.

Si GPT-6 tient ses promesses, nous pourrions entrer dans une ère où l’IA devient un compagnon évolutif, proactif, et personnalisé, capable de comprendre notre historique, nos intentions, nos émotions, et d’agir intelligemment… en quelques secondes.

Mais cette promesse s’accompagne de responsabilités : éthique, fiabilité, transparence, et protection des utilisateurs doivent rester au cœur du processus.

Lire plus
Intelligence Artificielle

xAI rend Grok 2.5 open source : Elon Musk ouvre les portes de l’intelligence artificielle

xAI rend Grok 2.5 open source : Elon Musk ouvre les portes de l’intelligence artificielle

Dans un tournant majeur pour l’intelligence artificielle open source, xAI, la startup d’Elon Musk, a officiellement publié le modèle Grok 2.5 en open source. Le modèle, fort de 314 milliards de paramètres, est désormais accessible à tous sur Hugging Face, avec ses poids et son architecture, sous licence Apache 2.0.

Cette démarche place xAI à contre-courant de sociétés comme OpenAI — cofondée puis critiquée par Musk — qui restent très fermées sur leurs technologies.

En rendant public son meilleur modèle de 2024, Elon Musk cherche à démontrer qu’une IA plus transparente est aussi une IA plus éthique.

Grok 2.5: un modèle plus raisonnant, plus ouvert… mais à surveiller

Selon xAI, Grok 2.5 est une amélioration directe des précédentes versions grâce à de meilleures capacités de raisonnement, de génération de texte et d’interaction contextuelle. L’entreprise affirme que la transparence est la meilleure réponse aux critiques sur les biais et la désinformation.

Musk lui-même, via son réseau social X, a expliqué que rendre public un tel modèle permettait à la communauté de contribuer à sa sécurisation et à son affinement, notamment pour des applications comme les chatbots, les assistants de codage, ou l’intégration dans les voitures Tesla.

Mais tout cela n’est pas sans risques. Dans le passé, certaines versions de Grok ont été accusées de produire des contenus douteux ou biaisés. L’ouverture du code pourrait également faciliter des usages malveillants si aucune surveillance n’est mise en place.

Vers Grok 3, Grok 5 et l’intelligence artificielle générale (AGI)

Ce lancement s’inscrit dans une feuille de route extrêmement ambitieuse. Elon Musk a annoncé que Grok 3 — déjà en phase de test depuis février — sera aussi open source d’ici 6 mois. Ce modèle serait un bond en avant en termes de raisonnement avancé et viserait l’AGI (Artificial General Intelligence), un objectif que Musk évoque régulièrement comme le but ultime de xAI.

D’ici la fin 2025, Grok 5 devrait voir le jour, entraîné sur l’un des plus puissants clusters de calcul du monde, composé de 100 000 GPU NVIDIA H100, selon Musk. Cette puissance de feu soulève toutefois des questions d’inégalité d’accès aux ressources : combien de développeurs indépendants pourront vraiment exploiter un tel modèle sans infrastructure adéquate ?

Un impact global sur l’écosystème de l’IA ?

La publication de Grok 2.5 pourrait forcer les géants du secteur à revoir leur position sur l’open source. Des analystes estiment que cela pourrait créer un effet boule de neige sur l’ouverture des modèles d’IA. D’autres, plus sceptiques, craignent que cette ouverture ne multiplie les failles de sécurité ou les usages non éthiques.

Des incidents récents, comme une fuite de données liées à Grok, montrent que l’ouverture totale n’est pas sans conséquences. Musk affirme vouloir « poursuivre la vérité avec rigueur », mais devra aussi assurer un encadrement sérieux des dérives potentielles.

Une IA transparente… mais à quel prix ?

En publiant Grok 2.5 en open source, Elon Musk veut transformer la manière dont les modèles d’intelligence artificielle sont développés et partagés. L’initiative pourrait catalyser l’innovation communautaire, comme l’open source l’a fait pour le logiciel libre il y a 20 ans.

Mais, cela implique aussi de trouver l’équilibre entre ouverture et sécurité. Si Grok 3 tient ses promesses et que la communauté encadre correctement son évolution, xAI pourrait bien rebattre les cartes dans la course à l’AGI.

Lire plus
Intelligence Artificielle

Sam Altman pense que ChatGPT parlera bientôt plus que l’humanité entière

Sam Altman pense que ChatGPT parlera bientôt plus que l’humanité entière

Lors d’un dîner à San Francisco avec des journalistes, Sam Altman, PDG d’OpenAI, a lâché une déclaration pour le moins provocante : « ChatGPT pourrait bientôt avoir plus de conversations quotidiennes que l’ensemble de l’humanité ».

Cette prédiction audacieuse s’inscrit dans un contexte mouvementé pour OpenAI, entre le lancement contesté de GPT-5, une course à l’armement entre géants de l’IA, et de profondes interrogations éthiques.

Des milliards de conversations quotidiennes… pour un seul chatbot ?

Selon Altman, les tendances actuelles montrent que ChatGPT s’oriente vers des milliards d’interactions quotidiennes, potentiellement plus que tous les échanges humains réunis.

Il ajoute que, pour y parvenir, le modèle devra proposer plusieurs « personnalités » pour répondre aux besoins variés des utilisateurs.

Ce n’est pas une idée nouvelle chez OpenAI, mais elle est révélatrice de l’ambition démesurée de l’entreprise : faire de ChatGPT l’interface universelle entre l’humain et le numérique.

GPT-5 : réception mitigée, corrections rapides

Cette vision ambitieuse contraste avec le lancement chahuté de GPT-5. De nombreux utilisateurs se sont plaints de son ton trop froid, trop robotique. OpenAI a rapidement réintroduit GPT-4o et son sélecteur de modèle.

Des fils Reddit ont dénoncé cette mise à jour comme une « effacement » plutôt qu’un progrès. Altman a reconnu ces critiques tout en défendant les avancées techniques du modèle. « Nous avons appris qu’une transition mal gérée peut perturber la relation entre les utilisateurs et leur IA, » a-t-il déclaré.

Faut-il s’inquiéter du lien émotionnel avec l’IA ?

OpenAI a également admis avoir sous-estimé la dépendance émotionnelle que certains développent envers ChatGPT. Altman estime que moins de 1 % des utilisateurs ont une relation « malsaine » avec le chatbot, ce qui représente malgré tout des millions de personnes. L’entreprise travaille désormais avec des experts en santé mentale pour éviter que l’IA renforce des comportements négatifs, tout en modulant le ton pour qu’il soit chaleureux, mais pas flatteur à l’excès.

GPT-5, le « projet Manhattan » de l’IA ?

Altman compare même le développement de GPT-5 au Projet Manhattan, à l’origine de la bombe atomique. Une analogie inquiétante, qui souligne l’ampleur — et le danger — d’une IA devenue omniprésente. « Parfois, GPT-5 me fait me sentir inutile, » a-t-il avoué lors d’une interview. Cette confession rejoint les appels croissants à la régulation du secteur, d’autant plus que l’IA commence à bouleverser les relations humaines et le marché du travail.

GPT-5 : lancement chaotique et inquiétudes autour de la « psychose ChatGPT »
GPT-5 : lancement chaotique et inquiétudes autour de la « psychose ChatGPT »

Malgré les critiques, Altman n’a pas l’intention de ralentir. Il prévoit d’investir des milliers de milliards de dollars dans les infrastructures, puces et centres de données pour soutenir cette croissance. Il envisage même, selon ses propos, le rachat du navigateur Chrome si Google le mettait en vente. « Si Chrome est à vendre, on devrait regarder sérieusement », dit-il avec un sourire en coin.

Cette stratégie inclut également des appareils physiques développés avec Jony Ive, un navigateur Web intègrant nativement l’IA, une plateforme sociale alimentée par l’IA et des projets de neurotechnologie via Merge Labs, concurrent de Neuralink.

« Sign in with ChatGPT » et la mémoire personnalisée

L’un des futurs piliers d’OpenAI pourrait être l’identité numérique à travers ChatGPT. L’entreprise envisage de proposer une fonction « Se connecter avec ChatGPT », permettant à l’IA de retenir votre historique, vos préférences et votre style de pensée. Une telle fonctionnalité pourrait révolutionner des secteurs comme l’éducation, la médecine ou la recherche, avec une IA capable d’« inventer des percées » ou « d’identifier des traitements », selon les mots d’Altman.

Pour ses détracteurs, Altman et OpenAI prennent trop de risques, en négligeant les questions de biais, désinformation ou dépendance. Certains y voient un nouveau « Big Tech » qui avance plus vite que la société ou la législation ne peuvent suivre.

Le paradoxe ? OpenAI subit une vague de critiques… tout en enregistrant des pics historiques d’utilisation.

ChatGPT peut-il vraiment « parler plus que l’humanité » ?

Si la croissance se poursuit, ChatGPT pourrait devenir le moteur conversationnel dominant au monde. Mais cette domination posera des questions existentielles :

  • Que deviennent nos propres interactions humaines ?
  • Qui contrôle la manière dont l’IA nous répond, nous influence, nous oriente ?
  • Peut-on faire confiance à une entreprise privée pour gérer la voix la plus entendue de la planète ?
Lire plus
Intelligence Artificielle

Google Veo 3 gratuit ce week-end : testez la création vidéo par IA sans abonnement

Google Veo 3 gratuit ce week-end : testez la création vidéo par IA sans abonnement

Vous rêviez de tester les vidéos générées par intelligence artificielle avec Google Veo 3, mais l’abonnement payant vous retenait ? Bonne nouvelle : Google ouvre exceptionnellement l’accès à tous les utilisateurs Gemini ce week-end, sans frais.

L’annonce a été faite via un post sur le compte officiel de l’application Google Gemini. Les utilisateurs gratuitement inscrits à Gemini peuvent ainsi générer jusqu’à trois vidéos avec le moteur Veo 3, jusqu’à dimanche 23 h 59.

Veo 3 : Trois vidéos offertes pour tester le potentiel de l’IA vidéo de Google

En temps normal, seuls les abonnés Google AI Pro (21,99 euros/mois) ou AI Ultra peuvent profiter de Veo 3, avec trois générations vidéo par jour et un accès à des résolutions supérieures via l’éditeur Google Flow. Cette offre temporaire permet donc aux utilisateurs gratuits d’avoir un aperçu sans engagement de cette technologie avancée.

La durée des clips est limitée à 8 secondes, mais chaque vidéo inclut également une piste audio générée automatiquement — à moins que vous ne fournissiez des consignes spécifiques dans le prompt.

Conseils pour bien utiliser vos 3 essais

Étant donné que vous n’avez droit qu’à trois vidéos, mieux vaut rédiger des prompts précis et créatifs. Voici quelques conseils pour maximiser vos essais :

  • Décrivez clairement la scène, le contexte, l’ambiance.
  • Précisez les mouvements des personnages ou objets.
  • Mentionnez le style visuel (dessin animé, cinématique, onirique, etc.).
  • Indiquez la position de la caméra (plongée, travelling, plan fixe…).
  • Suggérez un son d’ambiance ou une musique pour guider l’IA.

Vous pouvez également tester la fonction qui transforme une image en vidéo : envoyez une image, décrivez ce que vous voulez voir évoluer à l’écran, et laissez l’IA faire le reste.

Veo 3 : des vidéos impressionnantes… avec quelques limites

La technologie derrière Veo 3 est parmi les plus avancées dans le domaine de la génération vidéo par IA, avec une meilleure compréhension des mouvements, des scènes cohérentes et un rendu audio-visuel globalement fluide.

Cependant, des bugs visuels ou incohérences peuvent parfois apparaître (gestes irréalistes, visages déformés, effets étranges). Ce test gratuit est donc une excellente occasion de découvrir par vous-même les forces et faiblesses actuelles du système.

Jusqu’à quand l’offre est-elle valable ?

Cette opération promotionnelle se termine le dimanche 25 août à 23 h 59. On ne sait pas encore si cette offre s’applique dans tous les pays, mais le plus simple est d’ouvrir Gemini et de vérifier si l’option de génération vidéo Veo est disponible.

Même si vous n’êtes pas abonné à Gemini AI Pro, ce week-end est l’occasion idéale pour tester la puissance de Google Veo 3 gratuitement. Que vous soyez créateur de contenu, curieux de technologie ou simple amateur de vidéos, profitez de ces 3 essais gratuits pour explorer les possibilités créatives offertes par l’IA générative de Google.

Lire plus
Intelligence Artificielle

Siri bientôt boosté par Gemini ? Apple discute avec Google pour intégrer son IA dans iOS 27

siri gemini hero

Alors que la course à l’IA s’intensifie dans le monde de la tech, Apple serait en discussion avancée avec Google pour intégrer Gemini, son modèle d’intelligence artificielle générative, dans une nouvelle version de Siri.

Cette refonte majeure pourrait être l’un des grands temps forts de iOS 27, attendu courant 2026.

Apple veut une Siri « next-gen »… mais peine à suivre

Lancé en 2011, Siri a longtemps été en avance. Mais aujourd’hui, l’assistant vocal d’Apple accuse un retard conséquent face à des concurrents comme Google Assistant ou Alexa d’Amazon, notamment en matière de compréhension contextuelle, de raisonnement, ou d’interactions multimodales.

Pour rattraper ce retard, Apple semble envisager l’intégration d’une technologie tierce, plutôt que de tout développer en interne. Après des discussions avec OpenAI (ChatGPT) et Anthropic (Claude), c’est désormais Google qui serait en tête de liste.

Gemini x Siri : ce que l’on sait

Selon Bloomberg et Mark Gurman, Apple explore l’intégration du modèle Gemini dans Siri. Cela permettrait à l’assistant :

  • De comprendre des requêtes complexes ou longues
  • D’interpréter le contexte d’une conversation
  • D’accepter des entrées vocales, textuelles ou visuelles
  • D’interagir avec les apps, photos, documents, ou paramètres du téléphone

Gemini pourrait notamment être hébergé sur les serveurs d’Apple pour garantir la confidentialité des données, un point non-négociable dans l’écosystème iOS.

Un partenariat Google-Apple déjà bien amorcé

Apple et Google ne sont pas étrangers à la collaboration : Google Search est déjà le moteur par défaut sur Safari, un partenariat qui génère plusieurs milliards de dollars par an. Intégrer Gemini à Siri prolongerait cette alliance, mais soulèverait aussi des questions d’antitrust. Les régulateurs américains surveillent déjà de près les accords passés entre les deux géants.

Apple insiste depuis des années sur le traitement local des données. Toute intégration d’un modèle externe comme Gemini devra donc :

  • Respecter le traitement sur l’appareil (on-device)
  • Garantir une transparence sur les données utilisées
  • Offrir un contrôle utilisateur clair

Google travaillerait déjà à des versions allégées de Gemini capables de tourner dans l’environnement iOS tout en respectant les standards d’Apple.

Lancement prévu en 2026 ?

Apple aurait initialement prévu une refonte de Siri dès le printemps 2025, mais le projet a été retardé. Désormais, les rumeurs tablent sur une annonce dans iOS 27 (automne 2026), potentiellement accompagnée d’un mode « Apple Intelligence » enrichi, avec Gemini à la manœuvre.

Mais Apple ne tranchera pas avant plusieurs semaines, selon les dernières indiscrétions.

Impacts sur le marché : Apple, Google et la guerre de l’IA

Si l’accord est signé, Google renforcerait sa position dans l’IA mobile, actuellement dominée par OpenAI. Apple, lui, gagnerait du temps en profitant d’un modèle éprouvé pour combler son retard. Enfin, les utilisateurs pourraient enfin avoir un Siri utile, pertinent, et fluide dans leurs usages quotidiens.

Des analystes comme ceux de Reuters estiment déjà que cet accord pourrait booster les actions des deux entreprises, tout en redistribuant les cartes dans l’écosystème IA.

Si Apple signe avec Google, ce serait un tournant stratégique majeur : la firme de Cupertino admettrait ses limites internes dans le développement d’IA avancée… tout en posant les bases d’un Siri nouvelle génération, plus ambitieux, plus réactif, et plus en phase avec les usages actuels.

En attendant une annonce officielle, les regards sont tournés vers iOS 27 et l’année 2026, qui pourrait marquer un nouveau départ pour les assistants vocaux.

Lire plus