fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Apple développe une IA façon ChatGPT pour Safari, Siri et Spotlight

Apple développe une IA façon ChatGPT pour Safari, Siri et Spotlight

Apple semble déterminé à ne pas rester en retrait dans la course à l’intelligence artificielle générative. Selon plusieurs sources, dont Bloomberg, la firme de Cupertino développe actuellement un moteur de recherche intelligent capable de fournir des réponses conversationnelles en s’appuyant sur l’intelligence artificielle, à la manière de ChatGPT.

Derrière ce projet ambitieux, un nouveau groupe interne nommé « Answers, Knowledge and Information » (Réponses, Connaissance et Information) travaille à l’élaboration d’un moteur de recherche IA avancé, pensé pour s’intégrer en profondeur à Siri, Safari, Spotlight, et potentiellement à d’autres services de l’écosystème Apple.

Une stratégie IA ambitieuse, mais centrée sur la confidentialité

Apple a toujours mis en avant la protection des données personnelles comme l’un de ses principaux différenciateurs par rapport à Google ou Meta. Ce nouveau moteur de recherche ne fait pas exception à la règle : le traitement local des données (on-device) restera au cœur de la stratégie, garantissant que les requêtes utilisateurs ne transitent pas systématiquement par des serveurs distants.

Cette approche permettrait à Apple de se démarquer dans un contexte où les assistants IA existants, comme Gemini de Google ou Copilot de Microsoft, sont souvent critiqués pour leur collecte massive de données.

Safari et Spotlight transformés en moteurs intelligents ?

Au-delà de l’amélioration de Siri, les équipes d’Apple souhaiteraient étendre les capacités conversationnelles de l’IA à Safari et Spotlight. L’objectif ? Transformer ces outils de recherche traditionnels en véritables moteurs intelligents capables de répondre à des questions complexes, générer des résumés, et s’appuyer sur le contexte utilisateur (localisation, historique, préférences…).

Cette vision s’inscrit dans la continuité des travaux déjà amorcés autour d’Apple Intelligence, la suite d’outils IA dévoilée lors de la WWDC 2024, mais encore peu aboutie dans ses premières versions, notamment au niveau de Siri.

capture decran 2024 06 10 a 2042

Une réponse à la concurrence et à la pression réglementaire

Face à la montée en puissance de Google avec Gemini, de Microsoft avec Copilot, et de ChatGPT via OpenAI, Apple n’a plus le luxe de prendre du retard. Les récentes annonces montrent une volonté claire de combler le fossé technologique, tout en évitant les erreurs du passé.

Par ailleurs, l’intégration de cette IA maison pourrait alléger la dépendance d’Apple à Google Search, une dépendance qui pourrait être remise en question dans le cadre des procédures antitrust en cours. Une rupture avec Google sur la recherche par défaut pourrait ainsi se solder par le lancement d’un moteur Apple basé sur l’IA.

Recrutements en cours et objectifs à 2026

Pour soutenir cette ambition, de nombreuses offres d’emploi sont apparues sur le site carrière d’Apple, ciblant des experts en recherche algorithmique, NLP (traitement du langage naturel), IA générative, et systèmes embarqués. Plusieurs fuites évoquent une mise en production en 2026, potentiellement en parallèle du lancement d’iOS 26 ou d’un futur iPhone 17 doté de fonctions IA natives.

Le projet serait dirigé par Robby Walker, ancien responsable de Siri, ce qui suggère une volonté d’unifier toutes les briques IA de l’entreprise sous une vision cohérente.

Une IA maison taillée pour l’écosystème Apple

Cette offensive IA pourrait repositionner Apple comme un acteur sérieux de l’intelligence artificielle privée et éthique. À terme, l’intégration d’un moteur de réponse intelligent dans tous les produits Apple — iPhone, Mac, iPad, Vision Pro — pourrait transformer la manière dont les utilisateurs interagissent avec leurs appareils.

Contrairement à ChatGPT, qui reste une app tierce pour l’instant, l’IA d’Apple serait omniprésente, mais discrète, fluide, et parfaitement intégrée à l’écosystème. Une promesse qui, si elle est tenue, pourrait réellement bouleverser l’équilibre des forces dans la tech.

Apple prépare une riposte ambitieuse face à OpenAI, Microsoft et Google. En développant une IA propriétaire, intégrée, et centrée sur la confidentialité, la firme veut reprendre le contrôle de l’expérience utilisateur. Si le pari est réussi, cette stratégie pourrait repositionner Siri, Safari et Spotlight comme des outils à la fois puissants, respectueux de la vie privée, et à la pointe de l’innovation.

Lire plus
Intelligence Artificielle

Gemini 2.5 Deep Think : l’IA avancée de Google pour mathématiques et science

Gemini 2.5 Deep Think : l’IA avancée de Google pour mathématiques et science

Google vient de franchir une nouvelle étape dans la course à l’intelligence artificielle avancée. Le géant américain a officiellement lancé le mode Deep Think de son modèle Gemini 2.5, une version spécialisée pour le raisonnement complexe, les mathématiques, la programmation et la recherche scientifique.

Annoncé comme une évolution directe du modèle qui a récemment remporté la médaille d’or à l’Olympiade Internationale de Mathématiques (IMO) 2025, ce nouveau mode se veut plus rapide et plus accessible pour un usage quotidien… tout en conservant des performances impressionnantes.

Alors que la version « IMO Gold » de Gemini prend plusieurs heures pour résoudre des problèmes très complexes, Google propose avec Gemini 2.5 Deep Think une alternative plus rapide et « utilisable au quotidien ». Malgré sa rapidité, cette nouvelle mouture a tout de même atteint la médaille de bronze au benchmark IMO 2025 — un score remarquable selon les standards de l’IA.

Gemini 2.5 Deep Think : Une IA pensée pour le raisonnement parallèle

Pour accomplir de telles performances, Gemini 2.5 Deep Think s’appuie sur des techniques inédites dans le domaine de l’intelligence artificielle :

  • Raisonnement parallèle : l’IA explore simultanément plusieurs pistes de réflexion.
  • Temps de traitement étendu : elle prend plus de temps pour « réfléchir » à des problèmes complexes, simulant un raisonnement humain plus lent mais plus profond.
  • Apprentissage par renforcement avancé (RL) : le modèle renforce les chemins de pensée les plus prometteurs et efficaces.

Ces approches émergentes dans le domaine de l’IA sont en cours d’exploration chez Google DeepMind et chez OpenAI, notamment pour les modèles dits test-time compute.

Des résultats de pointe face à la concurrence

Les premiers résultats parlent d’eux-mêmes. Sur des benchmarks rigoureux, Gemini 2.5 Deep Think bat ses principaux concurrents, dont les modèles d’OpenAI et de xAI :

  • Sur « Humanity’s Last Exam », un benchmark de raisonnement extrême, Gemini 2.5 Deep Think atteint 34,8 %, surpassant OpenAI o3 et Grok 4.
  • Sur LiveCodeBench, un test exigeant en programmation en temps réel, Gemini 2.5 dépasse également les modèles frontiers concurrents.

all benchmarks blog.width 1000.format webp

Ces performances confirment que Google prend une sérieuse avance dans les domaines de la conjecture mathématique, de la lecture scientifique et du codage de haut niveau.

Un accès réservé aux abonnés Ultra… pour le moment

Pour activer le mode Deep Think, il faudra souscrire à l’abonnement Google AI Ultra, facturé 250 dollars par mois via l’application Gemini. Une fois abonné, l’utilisateur peut choisir le modèle Gemini 2.5 Pro et activer le mode « Deep Think ».

Google précise également que des mathématiciens et chercheurs sélectionnés auront un accès complet à cette version, dans le cadre de collaborations spécifiques.

Une nouvelle ère de l’intelligence artificielle spécialisée

Avec Deep Think, Google propose bien plus qu’une simple IA conversationnelle : il s’agit d’un outil de recherche avancé, capable de raisonner, d’émettre des hypothèses, d’interpréter des données scientifiques et de résoudre des problèmes complexes avec un niveau de rigueur sans précédent.

Ce lancement marque aussi un tournant dans la stratégie IA de Google : plutôt que de viser uniquement le grand public, l’entreprise s’adresse ici aux professionnels du savoir, aux scientifiques, aux développeurs de haut niveau et aux chercheurs.

Une IA de réflexion profonde… au prix fort

Avec Gemini 2.5 Deep Think, Google franchit un cap impressionnant dans le développement d’une IA capable de réfléchir de manière avancée, ouvrant la voie à de nouvelles formes de collaboration entre humains et machines dans les domaines du savoir et de la science.

Reste à savoir si ce type de modèle restera réservé à une élite de chercheurs et d’abonnés Ultra, ou s’il se démocratisera dans les mois à venir.

Lire plus
Intelligence Artificielle

Meta autorise l’IA dans ses entretiens techniques : une révolution du recrutement ?

Meta autorise l’IA dans ses entretiens techniques : une révolution du recrutement ?

Meta (anciennement Facebook) s’apprête à bouleverser les codes du recrutement tech. À partir de la fin 2025, les candidats aux postes d’ingénieurs logiciels chez Meta pourront officiellement utiliser des outils d’intelligence artificielle lors des entretiens techniques.

C’est ce qu’indique une communication interne révélée par Business Insider, qui souligne l’ambition du groupe de refléter les réalités du développement moderne, où l’IA est devenue un véritable copilote pour les programmeurs.

Cette initiative, en phase d’expérimentation, marque une évolution stratégique profonde dans la culture d’entreprise de Meta. Elle vise à évaluer non plus uniquement la capacité à coder « from scratch », mais la capacité à collaborer efficacement avec l’IA, à la manière des pratiques en entreprise.

L’ère du « vibe coding » : travailler avec l’IA, pas contre elle

Le PDG Mark Zuckerberg a lui-même défendu cette transformation dans une récente interview accordée à Wired. Il y introduit le concept de « vibe coding », un terme qui désigne l’utilisation fluide de l’IA générative pour concevoir, corriger ou améliorer du code.

Des outils comme GitHub Copilot, ChatGPT ou encore CodeWhisperer sont déjà omniprésents dans les workflows des développeurs. En les autorisant pendant les entretiens, Meta entend évaluer la capacité d’un candidat à guider et corriger l’IA, et non plus sa simple mémorisation d’algorithmes.

C’est la fin annoncée du whiteboard coding traditionnel, qui consistait à résoudre des problèmes à la main, souvent sous stress intense.

Une nouvelle approche du recrutement, pas sans défis

Si de nombreux développeurs saluent l’initiative comme un moyen de réduire le stress des entretiens, certains soulèvent des questions d’équité. Tous les candidats n’ont pas accès aux mêmes outils payants ou ne disposent pas du même niveau de familiarité avec l’IA. Cela pourrait creuser l’écart entre profils expérimentés et juniors, ou entre candidats issus de milieux défavorisés.

Meta en est conscient. Selon les documents internes obtenus par Business Insider, les scénarios de test incluent des mécanismes de surveillance en temps réel pour éviter les abus, et des questions exigeant des explications détaillées sur les suggestions générées par l’IA.

Un mouvement qui fait tache d’huile dans l’industrie tech

Meta n’est pas seul dans cette démarche. D’autres entreprises technologiques suivent la même voie :

  • Canva impose déjà l’utilisation d’outils IA dans ses entretiens pour tester les compétences pratiques.
  • Meta explore également l’IA pour évaluer les recruteurs eux-mêmes, et ainsi réduire les biais humains dans le processus de recrutement, selon India Today.

Cette transformation s’inscrit dans un changement global des métiers de l’ingénierie logicielle. Selon une analyse publiée par Metana, les développeurs deviendront de plus en plus des superviseurs de l’IA, plutôt que des codeurs à proprement parler.

Un nouveau critère de sélection : savoir collaborer avec l’IA

L’expertise technique brute ne suffit plus. L’industrie valorise désormais les profils capables de comprendre, encadrer et corriger l’IA pour obtenir des résultats fiables. Sur X, de nombreux développeurs prédisent que d’ici fin 2025, la maîtrise des outils d’IA surpassera les compétences classiques de programmation dans les fiches de poste.

Mais attention : si cette évolution favorise les talents expérimentés, elle pourrait rendre l’entrée sur le marché du travail plus difficile pour les juniors, qui devront non seulement apprendre à coder, mais aussi à collaborer efficacement avec des modèles d’IA.

Et après ? Un nouveau modèle d’entretien pour toute la Silicon Valley ?

Le test de Meta pourrait faire école. Si les résultats sont concluants, d’autres géants comme Google ou Amazon pourraient suivre, transformant les entretiens en simulations concrètes de collaboration homme-machine.

Certains parlent déjà de « babysitting de l’IA » en lieu et place des classiques problèmes LeetCode. Une perspective qui divise, mais qui reflète bien la réalité du travail moderne dans les entreprises tech.

L’initiative de Meta marque un tournant dans l’évaluation des talents en informatique. Plutôt que de rechercher des profils capables de coder seuls, l’entreprise valorise désormais ceux qui savent orienter intelligemment une IA pour créer, débugger et optimiser.

Une approche en phase avec le quotidien de nombreux développeurs, mais qui soulève également des enjeux d’accessibilité, d’éthique et de formation. L’avenir du recrutement tech sera-t-il collaboratif… ou algorithmique ? Seul le temps nous le dira.

Lire plus
Intelligence Artificielle

Huawei dévoile le CloudMatrix 384 : un rival chinois de poids face à Nvidia dans l’IA

Huawei dévoile le CloudMatrix 384 : un rival chinois de poids face à Nvidia dans l’IA

Dans un contexte de tensions technologiques croissantes entre les États-Unis et la Chine, Huawei vient de frapper un grand coup en annonçant son nouveau système de calcul dédié à l’intelligence artificielle, le CloudMatrix 384.

Présentée lors de la World Artificial Intelligence Conference à Shanghai, cette plateforme se positionne comme un concurrent direct des solutions les plus avancées de Nvidia, dont la GB200 NVL72.

Mais au-delà de la prouesse technologique, cette annonce incarne l’ambition chinoise de se libérer de la dépendance aux technologies américaines et de bâtir un écosystème IA souverain.

CloudMatrix 384 : un supercalculateur propulsé par 384 puces Ascend 910C

Au cœur du CloudMatrix 384 se trouvent 384 puces Ascend 910C, la dernière génération de processeurs IA développés par Huawei. Ce nombre impressionnant permet une architecture « supernode » avec des interconnexions ultra-rapides entre les puces, censées offrir des performances supérieures dans des scénarios spécifiques comme l’entraînement de Large Language Model (LLM).

D’après les premières analyses techniques, le système de Huawei surpasse la plateforme NVL72 de Nvidia (dotée de 72 puces) en densité de calcul brute pour certaines tâches ciblées. Huawei affirme également que son infrastructure consomme moins d’énergie et offre une efficacité thermique accrue, deux critères devenus centraux pour les centres de données de nouvelle génération.

Une riposte stratégique face aux sanctions américaines

Depuis l’intensification des sanctions américaines sur les semi-conducteurs, Huawei a multiplié les efforts pour développer des alternatives locales. La puce Ascend 910C représente ainsi un jalon majeur dans cette stratégie d’autonomie technologique.

Alors que les solutions de Nvidia sont toujours plus performantes au niveau individuel, Huawei joue la carte de l’optimisation systémique : en intégrant un grand nombre de puces dans une architecture cohérente, l’entreprise compense l’écart de puissance brute par une meilleure évolutivité.

Selon un cabinet spécialisé dans les semi-conducteurs, la conception modulaire du CloudMatrix 384 le rend particulièrement adapté aux applications cloud en IA, secteur stratégique pour Huawei avec son propre service Huawei Cloud, concurrent direct d’AWS (Amazon Web Services) et de Microsoft Azure.

Nvidia reste leader… mais la menace se précise

Même si Nvidia conserve une avance considérable en matière d’écosystème logiciel, notamment grâce à CUDA et à ses bibliothèques d’optimisation IA, les solutions Ascend de Huawei gagnent du terrain en Chine. Plusieurs entreprises locales développent déjà des modèles LLM nativement compatibles avec les puces 910C.

Fait notable, Jensen Huang, PDG de Nvidia, a lui-même reconnu en début d’année que « Huawei avance très rapidement » dans le domaine des puces IA. Une déclaration lourde de sens à l’heure où les commandes mondiales d’infrastructures IA explosent.

Une transition vers des écosystèmes indépendants

Le lancement du CloudMatrix 384 s’inscrit dans la volonté de la Chine de construire des chaînes de valeur indépendantes, tant au niveau matériel que logiciel. Les développeurs chinois privilégient de plus en plus les outils et frameworks optimisés pour les puces Ascend, ce qui pourrait contribuer à fragmenter le marché mondial de l’IA, jusque-là largement dominé par les standards américains.

Si Huawei réussit à industrialiser la production de masse du 910C, comme l’évoquent plusieurs fuites relayées par Reuters, cela pourrait sérieusement entamer la domination de Nvidia en Asie, voire au-delà.

Défis à venir pour Huawei

Malgré cette avancée spectaculaire, Huawei n’est pas encore tiré d’affaire. La firme doit encore surmonter plusieurs obstacles :

  • Les sanctions américaines, qui limitent l’accès aux technologies de gravure avancée.
  • Le développement d’un écosystème logiciel complet, capable de rivaliser avec celui de Nvidia.
  • La formation de talents, indispensables pour tirer pleinement parti de ses architectures complexes.
  • La compétitivité à l’international, freinée par les tensions géopolitiques.

Mais pour Zhang Pingan, PDG de Huawei Cloud, le CloudMatrix 384 est déjà pleinement opérationnel, et prêt à rivaliser avec les meilleurs fournisseurs mondiaux de services cloud. Huawei voit dans cette plateforme un levier majeur pour reconquérir les marchés perdus et s’imposer comme un acteur incontournable de l’IA mondiale.

Avec le CloudMatrix 384, Huawei prouve qu’il ne se contente plus de suivre la cadence imposée par les géants américains — il entend imposer son propre rythme. Ce supercalculateur IA marque une nouvelle étape dans la rivalité technologique entre la Chine et les États-Unis, avec des implications profondes pour l’ensemble de l’industrie.

La bataille pour la domination de l’IA est lancée, et Huawei vient d’y entrer de plain-pied, armé de son propre silicium et d’une stratégie résolument offensive.

Lire plus
Intelligence Artificielle

OpenAI lance Stargate Norway : un centre de données géant pour l’IA en Europe

OpenAI lance Stargate Norway : un centre de données géant pour l’IA en Europe

OpenAI renforce sa présence en Europe avec l’annonce du projet Stargate Norway, un centre de données colossal qui s’annonce comme l’un des plus grands hubs d’infrastructure d’IA du continent.

Révélé le 31 juillet 2025, ce centre sera implanté à Narvik, au nord de la Norvège, une région qui offre un avantage stratégique majeur : un accès massif à l’énergie renouvelable, grâce à l’hydroélectricité et à l’éolien.

Cette initiative marque la première incursion d’OpenAI dans les centres de données européens dans le cadre de sa plateforme globale Stargate, dédiée à l’expansion de la puissance de calcul IA à l’échelle mondiale. Elle s’inscrit dans une stratégie plus large baptisée « OpenAI for Countries », destinée à proposer des services d’IA souverains et localisés.

Un « gigafactory » de l’IA verte à Narvik

En collaboration avec Aker ASA, un groupe industriel norvégien en pleine reconversion verte, et Nscale Global Holdings, spécialiste des infrastructures IA, OpenAI prévoit une capacité initiale de 230 mégawatts, avec une extension potentielle de 290 mégawatts supplémentaires.

À terme, ce centre pourrait héberger jusqu’à 100 000 GPU NVIDIA d’ici la fin 2026. Le tout sera entièrement alimenté par des énergies propres.

À titre de comparaison, cette capacité représente l’équivalent énergétique d’une ville de taille moyenne, mais avec un impact carbone quasi nul. Une performance rendue possible par le climat polaire favorable au refroidissement naturel des serveurs et une intégration avancée des dernières technologies d’optimisation énergétique.

Une réponse stratégique aux enjeux européens

Avec la montée des tensions géopolitiques et les régulations européennes de plus en plus strictes en matière de souveraineté des données et de durabilité, OpenAI se positionne comme un partenaire technologique crédible pour le Vieux Continent. Le projet Stargate Norway vise explicitement à offrir des solutions sécurisées et évolutives aux gouvernements et entreprises européens.

Le choix de la Norvège n’est pas anodin : ce pays combine stabilité politique, infrastructure énergétique verte, et expertise technologique locale, notamment via le réseau industriel d’Aker. Le tout constitue une alternative sérieuse à l’hégémonie américaine sur les infrastructures cloud, dominée par Microsoft, Google et Amazon.

Un impact économique fort pour la région

Pour la ville de Narvik, peuplée d’environ 20 000 habitants, Stargate représente un levier de transformation économique majeur. En plus de créer des emplois dans l’ingénierie, le numérique et les services, le projet pourrait attirer de nouveaux investisseurs et talents dans une région historiquement centrée sur l’industrie lourde.

Du côté d’Aker, ce projet marque un tournant stratégique : le groupe, autrefois tourné vers le pétrole et le gaz, parie désormais sur l’IA comme moteur de croissance verte. Cela reflète une tendance plus large en Norvège, qui mise de plus en plus sur l’innovation durable.

Une IA responsable : promesse ou illusion ?

Même si Stargate Norway est conçu pour être énergétiquement efficace, avec des systèmes de refroidissement utilisant l’air arctique, certains experts s’interrogent sur l’impact environnemental réel de tels centres de calcul à très haute densité. Les critiques soulignent que même une IA « verte » reste une IA énergivore, surtout à l’échelle de 100 000 GPU.

Néanmoins, selon des analystes, Stargate pourrait devenir un modèle de référence pour l’industrie, démontrant qu’il est possible de concilier performance, souveraineté et durabilité dans l’ère de l’IA générative.

Vers une infrastructure IA européenne décentralisée ?

Au-delà du cas norvégien, Stargate Norway pourrait servir de modèle reproductible ailleurs en Europe. OpenAI envisage déjà de dupliquer ce type d’infrastructure dans d’autres pays, afin de créer des hubs régionaux d’innovation adaptés aux besoins locaux, qu’ils soient liés à la santé, au climat, à l’éducation ou à la sécurité.

Toutefois, des obstacles réglementaires persistent. L’Union européenne surveille de près les acteurs américains en matière de protection des données et d’antitrust. OpenAI semble bien en avoir conscience et aurait déjà engagé des discussions proactives avec les autorités européennes pour encadrer le projet.

Une étape clé pour l’IA souveraine en Europe

Avec Stargate Norway, OpenAI affirme clairement sa volonté de décentraliser son infrastructure tout en respectant les exigences locales. Le choix de l’énergie verte, le partenariat avec des acteurs norvégiens, et la promesse de puissance de calcul souveraine montrent une stratégie ambitieuse… mais potentiellement porteuse.

Face à une concurrence de plus en plus féroce (Google, Meta, Amazon, mais aussi des acteurs locaux), cette expansion européenne pourrait bien redéfinir les équilibres dans la course à l’IA mondiale.

Lire plus
Intelligence Artificielle

Microsoft et OpenAI renégocient leur partenariat pour aller au-delà de 2030, même après l’AGI

Microsoft et OpenAI renégocient leur partenariat pour aller au-delà de 2030, même après l’AGI

Dans un contexte où l’intelligence artificielle progresse à une vitesse fulgurante, Microsoft et OpenAI sont en pleine renégociation de leur partenariat stratégique, avec pour objectif de le prolonger bien au-delà de 2030, y compris après l’éventuelle atteinte de l’AGI (intelligence artificielle générale).

Cette initiative, révélée par Axios, intervient alors que des tensions internes et une pression réglementaire croissante pèsent sur les deux géants de la tech.

Une alliance historique à redéfinir

Le partenariat entre Microsoft et OpenAI a débuté en 2019 avec un investissement initial de 1 milliard de dollars. Depuis, Microsoft a injecté des milliards supplémentaires dans le développement de ChatGPT, DALL·E, et d’autres outils fondés sur les modèles GPT.

En retour, l’entreprise bénéficie de l’exclusivité de l’intégration des modèles d’OpenAI via son cloud Azure, notamment dans des produits comme Microsoft 365 Copilot, GitHub Copilot ou Windows 11.

Mais avec l’arrivée imminente du modèle GPT-5, et la perspective de l’AGI, certaines clauses contractuelles pourraient limiter les futurs investissements de Microsoft. Pour éviter tout blocage, les deux entreprises cherchent à établir un nouveau cadre contractuel, plus souple et plus durable.

GPT-5 et Copilot : des synergies renforcées

Selon plusieurs sources, le modèle GPT-5 pourrait être lancé dès la semaine prochaine, avec des améliorations majeures en termes de raisonnement, d’interprétation multimodale et de continuité contextuelle. Il viendrait unifier les familles GPT et « o-series » dans une architecture plus cohérente, offrant une IA plus proche d’un assistant autonome.

Cette avancée permettrait à Microsoft de renforcer encore son écosystème Copilot, aujourd’hui intégré dans Windows, Office, GitHub, Azure, Outlook et bien d’autres services professionnels. Un levier crucial pour stimuler l’adoption en entreprise… et justifier la poursuite du partenariat avec OpenAI, tout en préparant une réduction de dépendance progressive.

Problèmes de gouvernance et pressions réglementaires

Mais tout n’est pas rose dans ce duo de titans. Le passage controversé d’OpenAI à une structure « for-profit » continue d’alimenter les critiques, notamment sur la transparence, la gouvernance et la définition même de l’AGI. Une définition floue pourrait permettre à OpenAI d’accélérer ses objectifs sans activer certaines clauses protectrices pour Microsoft.

Côté régulation, les autorités antitrust américaines et européennes scrutent de près la relation entre les deux firmes, surtout au regard de la domination d’Azure dans le cloud AI et de leur collaboration exclusive sur de nombreux projets stratégiques. Prolonger l’accord au-delà de 2030 pourrait aggraver ces inquiétudes — mais aussi leur permettre de renforcer leur influence avant un éventuel encadrement juridique plus strict.

Un nouvel accord sur le partage des revenus ?

Selon Bloomberg, l’une des pistes explorées dans la renégociation serait un nouveau modèle de partage des revenus liés au contenu généré par l’IA, mais aussi un accès étendu aux futurs modèles d’OpenAI post-AGI. Cela pourrait passer par des prises de participation, des joint-ventures, voire des droits exclusifs d’intégration dans les services Microsoft.

Des discussions incluent également des garanties sur la gestion des données, des clauses de confidentialité renforcées et des droits d’exploitation plus larges pour Microsoft, notamment dans des domaines sensibles, comme la santé, l’éducation ou la cybersécurité.

 Un enjeu stratégique pour l’avenir de l’IA

Ce que révèle surtout cette renégociation, c’est un changement de paradigme. Les alliances dans l’IA ne sont plus expérimentales : elles deviennent des piliers industriels à long terme. Si l’accord se concrétise, il pourrait servir de modèle pour les futures collaborations IA, mêlant innovation, contrôle, gouvernance et mutualisation des ressources.

Microsoft, qui investit déjà massivement dans ses propres modèles maison, veut à la fois protéger son avance technologique tout en maintenant l’accès aux innovations d’OpenAI. De son côté, OpenAI doit assurer sa viabilité dans un marché hyperconcurrentiel, tout en rassurant ses partenaires et les régulateurs.

Un nouvel équilibre à trouver

La renégociation du partenariat entre Microsoft et OpenAI pourrait redéfinir le paysage de l’intelligence artificielle pour la prochaine décennie. Derrière les enjeux techniques et économiques, c’est aussi une bataille d’influence et de souveraineté technologique qui se joue — dans un contexte de plus en plus surveillé.

Si un accord « gagnant-gagnant » voit le jour, il pourrait consolider la place de Microsoft comme acteur incontournable de l’IA mondiale, tout en offrant à OpenAI les moyens d’atteindre ses ambitions de superintelligence dans un cadre structuré et sécurisé.

Lire plus
Intelligence Artificielle

OpenAI retire en urgence une fonction de ChatGPT après une fuite de conversations indexées par Google

OpenAI retire en urgence une fonction de ChatGPT après une fuite de conversations indexées par Google

OpenAI, le créateur de ChatGPT, a été contraint de faire machine arrière en urgence ce vendredi, après une vague d’indignation sur les réseaux sociaux. En cause : une fonctionnalité expérimentale qui rendait certaines conversations ChatGPT accessibles depuis les moteurs de recherche, notamment Google.

Une décision qui, malgré les bonnes intentions initiales, a très vite tourné au cauchemar en matière de confidentialité.

Une fonctionnalité « expérimentale » qui expose des milliers d’échanges privés

La fonctionnalité en question permettait aux utilisateurs de partager publiquement une conversation avec ChatGPT, avec une case à cocher supplémentaire pour la rendre « découvrable sur le Web ».

Bien que l’activation soit volontaire, des milliers de conversations, souvent personnelles ou sensibles, se sont retrouvées indexées par Google, visibles avec une simple recherche site : chatgpt.com/share “terme”.

On y trouvait de tout : des questions intimes sur la santé, des projets de carrière confidentiels, voire des documents professionnels comme des brouillons de CV, avec noms, prénoms et parfois les coordonnées des utilisateurs. L’affaire a éclaté quand plusieurs experts en cybersécurité ont publié ces résultats de recherche sur X, démontrant l’ampleur de la fuite.

Une faille humaine plus que technique

OpenAI a rapidement reconnu son erreur, expliquant sur X : « Nous pensons que cette fonctionnalité créait trop d’opportunités pour que des utilisateurs partagent involontairement des informations sensibles ».

Screen 2025 08 01 at 10.49.41
Screenshot

Le système, bien qu’opt-in, reposait sur une interface utilisateur trop permissive. Pour de nombreux experts, le problème vient justement du manque de friction dans le processus : une simple case à cocher ne suffit pas à garantir une compréhension réelle des implications. Les utilisateurs, souvent enthousiastes à l’idée de partager une réponse utile, ont sous-estimé les risques de divulgation de données.

Un problème récurrent dans l’univers de l’IA

Ce n’est pas la première fois qu’un outil d’intelligence artificielle expose involontairement des données privées. En 2023, Google Bard avait connu un incident similaire, avec des conversations indexées par erreur. De son côté, Meta a également été critiqué après que certaines discussions avec son assistant IA se sont retrouvées affichées publiquement sur les profils utilisateurs.

Ces répétitions illustrent une tendance inquiétante : les entreprises d’IA privilégient trop souvent l’innovation à la sécurité. Dans une course pour sortir de nouvelles fonctionnalités, la protection de la vie privée devient secondaire — jusqu’à ce que les conséquences explosent en ligne.

Les entreprises doivent tirer les leçons de cette faille

Pour les professionnels, cette affaire est un signal d’alarme clair. De plus en plus d’équipes utilisent ChatGPT pour créer des plans stratégiques, rédiger des documents internes ou faire de la recherche concurrentielle. La moindre faille dans la gestion des données peut exposer des informations critiques à la concurrence ou au public.

Questions à poser à vos fournisseurs IA :

  • Les données saisies peuvent-elles être partagées ou indexées ?
  • Quelle est la politique de conservation des conversations ?
  • Existe-t-il des moyens techniques de bloquer la diffusion accidentelle de contenus ?

Des experts recommandent aussi de faire des audits réguliers des contenus partagés, notamment en recherchant le nom de votre entreprise via site:chatgpt.com/share.

Comment améliorer la confidentialité dans l’IA ?

L’affaire met en lumière plusieurs bonnes pratiques que les entreprises d’IA (et leurs utilisateurs) devraient adopter :

  1. Des paramètres de confidentialité par défaut plus stricts : tout ce qui est susceptible d’être exposé doit être caché par défaut, non l’inverse.
  2. Une interface plus pédagogique : les choix doivent être expliqués clairement, avec des alertes sur les conséquences.
  3. Des systèmes de réaction rapide : la rapidité d’OpenAI à désactiver la fonction a limité les dégâts, mais une validation plus rigoureuse en amont aurait évité la crise.

Une bonne idée… mal exécutée ?

L’idée de rendre certaines conversations IA consultables pouvait sembler prometteuse. À l’image de Stack Overflow, un ChatGPT “searchable” aurait pu devenir une mine d’or pour les développeurs ou les professionnels. Mais le concept soulève un dilemme fondamental : comment exploiter l’intelligence collective sans compromettre la vie privée ?

Les entreprises doivent désormais intégrer la confidentialité comme un pilier de leurs stratégies IA, et non comme un simple post-scriptum. Cela inclut des politiques claires sur l’utilisation de l’IA en interne, une cartographie des outils déployés et des flux de données et des formations pour les employés sur les risques liés à l’usage d’assistants IA.

L’incident OpenAI est un rappel : la confiance est difficile à gagner, mais très facile à perdre. À mesure que les outils d’IA deviennent omniprésents dans notre quotidien, seule une approche responsable, transparente et prévoyante permettra à l’industrie de conserver la confiance du public.

 

Lire plus
Intelligence Artificielle

Apple pourrait s’associer avec Grok : un partenariat avec Elon Musk pour relancer Siri ?

Apple pourrait s’associer avec Grok : un partenariat avec Elon Musk pour relancer Siri ?

Dans le monde effervescent de l’intelligence artificielle, les rumeurs vont bon train. Depuis quelques jours, une information alimente les spéculations dans la Silicon Valley : Elon Musk envisagerait un partenariat stratégique entre son entreprise xAI (créatrice du chatbot Grok) et Apple.

Si l’idée semble improbable sur le papier, plusieurs indices laissent entrevoir des discussions avancées, qui pourraient bouleverser l’écosystème tech mondial.

Apple en retard sur l’IA… et à la recherche d’un coup d’accélérateur ?

Apple, souvent critiquée pour son approche prudente — voire lente — en matière d’IA générative, peine à rattraper ses concurrents directs, comme Google (Gemini) ou OpenAI (ChatGPT). Son programme Apple Intelligence, annoncé en grande pompe, reste en phase de bêta privée et limité dans ses fonctionnalités face à la concurrence.

Dans ce contexte, s’associer avec une entreprise comme xAI, qui propose déjà des fonctionnalités avancées, telles que la compréhension d’images, la génération vidéo, ou encore des agents spécialisés (notamment pour la programmation ou les médias), pourrait représenter une véritable aubaine.

Grok: un concurrent sérieux à ChatGPT, mais un style à part

Lancé par xAI, Grok se distingue de ses rivaux par une personnalité affirmée, souvent décrite comme plus audacieuse, créative et provocante. Elon Musk l’a lui-même qualifié de « maximum fun », en opposition au ton plus neutre et encadré des IA concurrentes.

Grok 4, dont la sortie est attendue courant été 2025, promet encore plus de puissance et de réactivité. Déjà disponible via une application iPhone, le chatbot connaît une adoption rapide, avec des revenus d’abonnement annuels estimés à près de 17 millions de dollars, selon AInvest.

Une fusion Grok x Apple ? Ce que l’on sait

Selon un article de Pravda EN, Musk aurait évoqué en interne une « fusion historique » à venir. Si rien n’est confirmé officiellement, plusieurs sources affirment que des discussions exploratoires seraient en cours. Le média Daily Mail évoque un « mariage improbable » mais potentiellement stratégique : d’un côté, l’agilité logicielle de Grok, de l’autre, la maîtrise matérielle d’Apple.

Une telle alliance permettrait à Apple de renforcer Siri (largement dépassée par la concurrence) et de redonner un coup de fouet à ses ambitions IA. Pour xAI, ce serait une opportunité d’intégrer plus d’un milliard d’utilisateurs actifs Apple dans son écosystème.

Les obstacles à surmonter : éthique, confidentialité et culture d’entreprise

Si le projet semble séduisant, il n’en reste pas moins semé d’embûches :

  • Apple est extrêmement attachée à la confidentialité des données, tandis que Grok a été accusé de biais et de réponses controversées.
  • Musk a publiquement exclu toute fusion entre Tesla et xAI, affirmant vouloir conserver l’indépendance de ses projets IA.
  • Un partenariat Apple–xAI poserait également des questions de gouvernance, de contrôle sur les données utilisateurs, et de compatibilité culturelle entre deux entreprises très différentes.

Sans oublier les risques réglementaires, dans un contexte mondial où les autorités renforcent leur surveillance sur les pratiques des géants de la tech.

Une tendance de fond : la convergence hardware + IA générative

Historiquement, Apple a déjà prouvé qu’elle pouvait intégrer des technologies externes avec succès — l’acquisition de Siri en 2010 en est un exemple emblématique. De son côté, xAI se positionne de plus en plus comme un fournisseur de solutions logicielles IA « clé en main », avec une stratégie multiplateforme.

Les analystes voient dans une possible alliance un point de bascule majeur pour l’industrie. Fusionner la puissance matérielle d’Apple avec la souplesse logicielle de Grok pourrait faire naître une nouvelle ère de l’informatique personnelle : plus intelligente, plus intuitive, et plus personnalisée.

Vers un tournant historique… ou un simple buzz ?

Si aucune confirmation officielle n’a été faite à l’heure actuelle, les signaux sont là : Elon Musk multiplie les annonces sur X, Apple explore des pistes pour combler son retard, et le timing — juste avant l’annonce de l’iPhone 17 et d’iOS 26 — semble propice.

Que cette « fusion historique » se concrétise ou non, elle souligne surtout les tensions et les ambitions dans la course à l’IA générative. Et dans cette bataille technologique, les alliances improbables pourraient bien devenir la norme.

Lire plus
Intelligence Artificielle

Ollama 0.10 : IA locale plus rapide, et nouvelle application desktop officielle

Ollama 0.10 : IA locale plus rapide, et nouvelle application desktop officielle

Dans un paysage dominé par les services cloud comme ChatGPT, Ollama s’impose comme une alternative open source puissante pour exécuter des modèles d’IA générative en local, directement sur votre ordinateur.

La dernière mise à jour, Ollama 0.10, introduit des améliorations de performances significatives, de nouvelles fonctionnalités utiles et, pour la première fois, une interface graphique officielle compatible macOS, Windows et Linux.

Qu’est-ce que Ollama ?

Ollama est une application en ligne de commande qui permet d’exécuter localement certains des modèles d’IA les plus performants du moment. Cela inclut :

Les utilisateurs peuvent interagir avec ces modèles en mode conversationnel, comme avec ChatGPT, mais aussi intégrer l’IA dans des scripts et des automatisations locales, sans avoir à envoyer leurs données sur le cloud.

Ollama 0.10 : ce qui change

Cette nouvelle version apporte plusieurs nouveautés techniques, tout en rendant le projet plus accessible à un public non-développeur grâce à sa première interface graphique officielle.

Nouvelles fonctionnalités

La commande ollama ps fait son apparition. Elle permet de consulter en temps réel la longueur de contexte utilisée par chaque modèle actif, un paramètre crucial pour comprendre jusqu’où un modèle peut « se souvenir » dans une conversation.

Le support d’images au format WebP est désormais intégré à l’API compatible OpenAI, en plus des formats JPEG et PNG, ce qui facilite les traitements d’images avec des modèles multimodaux.

Performances en nette hausse

Les utilisateurs de modèles Gemma 3n bénéficieront d’une amélioration spectaculaire des performances : jusqu’à 3x plus rapide. Quant à ceux qui utilisent plusieurs GPU en parallèle, ils peuvent désormais attendre un gain de 10 à 30 % selon les configurations.

Plusieurs bugs ont aussi été corrigés, notamment liés à l’appel de fonctions (« tool calling ») dans certains modèles, comme Granite 3.3 ou Mistral-Nemo, et à la gestion des noms d’outils ambigus.

Une application de bureau simple, efficace et enfin officielle

Jusqu’ici, les utilisateurs d’Ollama devaient se tourner vers des interfaces tierces comme Open WebUI ou macLlama pour bénéficier d’un usage en mode chat. Désormais, l’équipe derrière Ollama propose sa propre interface graphique, compatible Windows, macOS et Linux.

Cette application reprend tous les fondamentaux :

  • Interface de discussion simple et fluide
  • Prise en charge du Markdown et des images
  • Support multimodal selon le modèle utilisé
  • Sélection des modèles directement depuis l’interface

Elle est pensée par des développeurs, pour des développeurs.

Pourquoi exécuter l’IA en local ?

Contrairement aux solutions cloud, Ollama permet de :

  • Contrôler totalement les données traitées, un atout majeur en termes de confidentialité
  • Éviter les coûts d’abonnement ou les limitations de jetons des plateformes cloud
  • Exploiter les ressources matérielles disponibles (CPU, GPU) sans dépendre d’une connexion Internet
  • Automatiser localement des traitements IA dans des projets personnels ou professionnels

Avec la version 0.10 et son application desktop, Ollama devient une alternative crédible aux solutions cloud d’OpenAI, Google ou Anthropic, en permettant à chacun d’exploiter la puissance de l’intelligence artificielle sur son propre PC.

Pour les développeurs, les chercheurs ou les utilisateurs avancés qui veulent garder la main sur leurs modèles, leurs données et leurs performances, Ollama est sans doute l’un des outils open source les plus prometteurs de l’année.

Vous pouvez télécharger l’application Ollama depuis le site Web du projet. La version en ligne de commande est disponible dans des dépôts de logiciels comme Homebrew et Docker Hub.

Lire plus
Intelligence Artificielle

Alerte ! Vos conversations ChatGPT partagées sont peut-être indexées par Google (et visibles de tous)

Alerte ! Vos conversations ChatGPT partagées sont peut-être indexées par Google (et visibles de tous)

Une alerte à la confidentialité secoue actuellement les professionnels du digital, du marketing et de l’IA. Selon une récente enquête, Google est en train d’indexer les liens publics de conversations ChatGPT partagés via la fonction « Partager », rendant ces contenus consultables par n’importe qui sur le Web.

Seuls les comptes ChatGPT Enterprise semblent à l’abri de cette indexation.

ChatGPT : Des conversations privées… rendues publiques via Google

Tout part d’une fonction bien connue : le bouton « Partager » sur ChatGPT. Lorsqu’un utilisateur clique dessus, la plateforme génère un lien public, accessible à quiconque le reçoit. Sauf que si ce lien est partagé sur une page accessible à Google (réseau social, forum, site…), le moteur de recherche peut l’indexer.

C’est ce que confirme Christopher Penn, data scientist et cofondateur de TrustInsights.ai, sur LinkedIn : « Si un lien de conversation publique est publié à un endroit visible par Google, il sera indexé ».

Et les conséquences sont déjà visibles : une simple recherche site:chatgpt.com/share + [mot-clé] permet d’accéder à des échanges contenant des informations sensibles, des noms de collaborateurs, des titres de postes, et même des stratégies commerciales.

Fuites d’informations confidentielles : un vrai risque pour les pros

De nombreuses équipes marketing, communication ou SEO utilisent ChatGPT au quotidien pour :

  • tester des idées de contenu,
  • affiner des messages publicitaires,
  • générer des briefs client ou des éléments stratégiques.

Si l’un de ces échanges est partagé par mégarde, puis indexé par Google, cela revient à publier en libre accès des éléments critiques : noms de clients, budgets, campagnes, process internes…

Dans un secteur concurrentiel, cela représente une faille de sécurité informationnelle non négligeable.

Pourquoi cela pose un vrai problème de gouvernance IA ?

La situation soulève des questions urgentes de gouvernance, notamment pour les entreprises qui intègrent l’IA dans workflow :

  • Comment encadrer les usages internes de ChatGPT ?
  • Qui est responsable de la publication d’un lien partagé ?
  • Quels outils offrent des garanties de confidentialité plus solides ?

La fonction de partage vise à favoriser la collaboration, mais elle peut mettre en péril la réputation d’une marque ou la sécurité d’un projet stratégique si elle est mal utilisée.

Que faire pour se protéger dès maintenant ?

Voici les bonnes pratiques à adopter immédiatement pour éviter les mauvaises surprises :

  1. Audit complet : recherchez les conversations déjà partagées via site:chatgpt.com/share + [votre marque] sur Google.
  2. Nettoyage des liens partagés : dans ChatGPT, rendez-vous dans Paramètres > Contrôle des données > Liens partagés > Gérer et supprimez tout ce qui n’a plus lieu d’être.
  3. Sensibilisation interne : formez vos équipes à l’utilisation sécurisée des IA génératives. Aucun prompt ni réponse sensible ne doit être partagé publiquement.
  4. Optez pour des alternatives sécurisées : tournez-vous vers des solutions d’IA déployées sur serveur privé ou cloud sécurisé.
  5. Évitez d’interagir avec des liens publics : il y a un risque de « prompt injection ». Mieux vaut éviter de cliquer ou de converser via ces pages partagées.

Une simple erreur peut tout exposer

Cette affaire rappelle une vérité simple mais essentielle : une IA comme ChatGPT n’est pas un espace privé, surtout si l’on utilise des fonctions comme « Partager” sans comprendre leurs implications. Dans un monde où la donnée est stratégique, chaque lien généré devient une potentielle fuite d’informations.

 

Lire plus
Intelligence Artificielle

Meta : L’IA coûte une fortune à Zuckerberg… mais les investisseurs applaudissent

Meta : L’IA coûte une fortune à Zuckerberg… mais les investisseurs applaudissent

Alors que Mark Zuckerberg investit massivement dans l’intelligence artificielle, le marché répond avec enthousiasme. Après l’annonce de résultats financiers bien supérieurs aux attentes pour le deuxième trimestre 2025, l’action Meta a bondi de plus de 10 %, augmentant la valorisation de l’entreprise de 175 milliards de dollars en une journée.

Et ce, malgré un avertissement clair : les dépenses vont exploser l’an prochain, notamment pour les data centers et les recrutements dans l’IA.

Meta a généré 47,5 milliards de dollars de revenus au T2 2025, en hausse de 22 % sur un an. Ses plateformes — Facebook, Instagram, Threads et WhatsApp — comptabilisent désormais près de 3,5 milliards d’utilisateurs actifs quotidiens. Ces chiffres impressionnants démontrent une dynamique toujours aussi forte, qui rassure les investisseurs.

Malgré des annonces de dépenses en forte hausse prévues pour 2026, les marchés ont salué la trajectoire de croissance solide de Meta. En une séance, l’entreprise a engrangé plus de valorisation que 12 deals avec Scale AI, pour reprendre la comparaison humoristique faite sur les réseaux sociaux.

L’IA devient la priorité absolue chez Meta

Lors de la conférence téléphonique qui a suivi la publication des résultats, Zuckerberg a été clair : l’intelligence artificielle est désormais le cœur stratégique de Meta. Il a déclaré que les excellentes performances financières actuelles « permettent d’investir massivement dans l’IA », avec pour objectif déclaré de développer une superintelligence, une IA « capable de surpasser l’intelligence humaine dans tous les domaines ».

Le patron de Meta a même évoqué son tout nouveau Meta Superintelligence Lab, un centre de recherche qui rassemble certains des ingénieurs IA les mieux rémunérés du secteur.

Ceux-ci ont accès à une puissance de calcul « sans précédent » pour entraîner les futurs modèles maison.

Une IA qui produit déjà des résultats concrets

Contrairement à la précédente ambition de Meta — le métaverse —, souvent jugée trop abstraite ou prématurée, l’IA affiche déjà un impact mesurable sur les performances de l’entreprise. Le nouveau modèle publicitaire basé sur l’IA permettrait ainsi une amélioration de 5 % des conversions sur Facebook, et de 3 % sur Instagram, selon la directrice financière Susan Li.

En parallèle, les Large Language Model (LLM) sont de plus en plus utilisés pour classer et recommander les publications dans les fils d’actualité de l’ensemble des applications de Meta, y compris Threads. Ces optimisations renforcent l’engagement des utilisateurs et améliorent l’efficacité des campagnes publicitaires.

Métaverse : toujours là, mais relégué au second plan

Autrefois priorité numéro un, le métaverse n’a été mentionné qu’une seule fois lors de la présentation des résultats. Pourtant, Meta continue d’investir lourdement dans sa division Reality Labs, avec une dépense annuelle prévue de 100 milliards de dollars. Mais aujourd’hui, l’IA a éclipsé cette ambition dans le discours stratégique de Zuckerberg.

L’approche est différente : avec l’IA, Meta entre dans une course déjà lancée, menée par OpenAI, Google, Microsoft et Anthropic. Contrairement au métavers, qu’il a voulu créer de toutes pièces, Zuckerberg doit ici rattraper son retard, même s’il dispose d’un atout majeur : un trésor de guerre colossal.

Mark Zuckerberg mise tout sur l’intelligence artificielle. Entre résultats financiers solides, croissance continue de l’audience et retours immédiats sur les performances publicitaires, Meta se donne les moyens de ses ambitions. Les marchés l’ont bien compris : l’avenir de la tech passera par l’IA, et Meta est prêt à y investir sans limite.

Avec une stratégie fondée sur des investissements massifs, une intégration rapide de l’IA dans ses produits et une capacité à mobiliser les meilleurs talents, Meta veut devenir l’un des piliers de l’ère post-chatbot. Et les investisseurs, pour l’instant, le soutiennent pleinement.

Lire plus
Intelligence Artificielle

GPT-5 : Sam Altman alerte sur les dangers d’une IA comparable au Projet Manhattan

GPT-5 : Sam Altman alerte sur les dangers d’une IA comparable au Projet Manhattan

Alors que le lancement de GPT-5, le prochain modèle d’IA signé OpenAI, se profile à l’horizon, son PDG Sam Altman a récemment partagé des déclarations pour le moins inquiétantes. Lors d’un podcast relayé par TechRadar, il a comparé les travaux en cours sur GPT-5 à ceux du Projet Manhattan — le programme américain de développement de la bombe atomique durant la Seconde Guerre mondiale.

Ce parallèle n’est pas anodin : il reflète l’ambivalence croissante entre fascination technologique et crainte des dérives éthiques.

Selon Altman, GPT-5 est si puissant et si rapide que même ses créateurs en sortent « nerveux », dépassés par l’ampleur des capacités démontrées lors des premières phases de test.

GPT-5 : entre révolution technique et vertige existentiel

Selon les confidences de Sam Altman, chaque session de test du modèle serait un moment de tension, où l’enthousiasme cède la place à l’inquiétude. Le PDG n’a pas hésité à parler de scènes qui relèvent du thriller technologique plutôt que d’une simple avancée produit. Il souligne une chose essentielle : même OpenAI ne semble plus totalement en contrôle de ce qu’elle est en train de construire.

L’émergence de GPT-5 est donc perçue comme une rupture de niveau historique, au même titre que d’autres jalons technologiques majeurs qui ont bouleversé notre monde.

Sauf que cette fois-ci, l’enjeu touche à la nature même de l’intelligence.

« Il n’y a pas d’adultes dans la pièce » : l’absence de régulation pointée du doigt

Ce qui inquiète le plus Altman, ce n’est pas uniquement le modèle lui-même, mais l’absence criante de gouvernance globale autour de l’IA. Il déplore que la course au progrès technologique se fasse sans garde-fous solides, dans un contexte où aucune autorité régulatrice mondiale ne semble pouvoir encadrer efficacement l’essor fulgurant de ces technologies.

Ce discours rappelle ses interventions passées, notamment en 2023 devant le Congrès américain, où il mettait en garde contre le risque que l’intelligence artificielle puisse causer des dommages massifs si elle était mal utilisée.

GPT-5 : une promesse… et un danger potentiel

Depuis le lancement de GPT-4 en 2023, chaque nouvelle itération des modèles d’OpenAI repousse les limites du traitement du langage naturel et du raisonnement contextuel. GPT-5 s’annonce encore plus impressionnant, avec des capacités de réflexion logique poussées, des variantes spécialisées par domaines, et un moteur encore plus autonome.

Cependant, ce bond technologique pose de nombreuses questions :

  • L’infrastructure technique : chaque nouvelle génération de modèle demande 100 fois plus de puissance de calcul, mettant à rude épreuve les centres de données.
  • La protection des données : Altman a récemment exprimé ses inquiétudes face à l’usage décomplexé de ChatGPT par les jeunes, qui partagent parfois des informations très personnelles.
  • La dépendance cognitive : l’idée que des millions de personnes prennent des décisions importantes sur la base de conseils générés par une IA est, selon lui, « mauvaise et dangereuse ».

Gouvernance, transparence et responsabilité : un appel urgent

Dans ce contexte, le parallèle avec le Projet Manhattan prend tout son sens. Là où les scientifiques de l’époque se débattaient avec l’éthique de l’arme nucléaire, les ingénieurs d’aujourd’hui sont confrontés à une intelligence artificielle autonome, évolutive, et potentiellement incontrôlable.

Des initiatives telles que les Content Credentials (métadonnées attachées aux images générées pour garantir la transparence) vont dans le bon sens, mais elles restent insuffisantes face à l’ampleur du défi. Il est donc impératif de mettre en place :

  • Un cadre réglementaire international fort.
  • Des règles éthiques contraignantes sur l’utilisation des modèles.
  • Un dialogue actif entre chercheurs, législateurs et citoyens pour redéfinir ce que doit être une IA « responsable ».

Lancement de GPT-5 : à quoi s’attendre ?

Selon certaines sources industrielles, GPT-5 pourrait être lancé dès août 2025, même si aucune date n’a été confirmée par OpenAI. Il est attendu avec :

  • Une capacité de raisonnement améliorée.
  • Des modèles spécialisés (en droit, code, médecine…).
  • Une gestion plus fine des projets longs ou multi-étapes.

Mais cette avancée pourrait aussi s’accompagner d’une polarisation du marché, alors que Meta (Llama 4) et Google (Gemini) affûtent leurs propres modèles pour contrer l’hégémonie d’OpenAI.

Sam Altman nous adresse un message clair et dérangeant : le futur de l’IA ne sera pas simplement une extension de l’intelligence humaine. Il pourrait bien devenir quelque chose d’autre, de plus autonome, plus opaque, et peut-être hors de contrôle.

Face à ce constat, le rôle des citoyens, des développeurs, des régulateurs et des institutions n’a jamais été aussi crucial. GPT-5 ne sera pas seulement un outil ; il pourrait être le catalyseur d’un tournant civilisationnel. À nous de décider dans quelle direction nous souhaitons aller.

Lire plus
Intelligence Artificielle

Google NotebookLM : des vidéos explicatives générées par l’IA arrivent

Google NotebookLM : des vidéos explicatives générées par l’IA arrivent

Google continue d’étoffer les fonctionnalités de NotebookLM, son assistant d’étude alimenté par l’intelligence artificielle, avec l’introduction d’une nouvelle fonctionnalité baptisée Video Overviews.

L’objectif : transformer des documents complexes en vidéos explicatives visuelles et dynamiques.

NotebookLM : Apprendre avec des vidéos générées par l’IA

Annoncées officiellement dans un article de blog de Google, les Video Overviews permettent désormais de créer des présentations animées avec narration à partir de documents stockés dans NotebookLM, qu’il s’agisse de notes, de fichiers PDF, de rapports ou d’images.

Ce nouvel outil s’inspire directement des Audio Overviews, déjà disponibles dans l’application. Mais ici, au lieu d’un podcast, l’IA génère un diaporama dynamique, enrichi de schémas, citations, chiffres et illustrations extraits des documents fournis.

Google précise que cette approche visuelle est particulièrement adaptée pour :

  • Expliquer des données complexes
  • Présenter des processus étape par étape
  • Illustrer des concepts abstraits de manière tangible

Un outil personnalisable et interactif

L’un des points forts de Video Overviews est sa grande flexibilité pédagogique. L’utilisateur peut indiquer :

  • Son niveau de connaissance sur le sujet
  • Ses objectifs d’apprentissage
  • Le public cible visé (étudiants, collègues, experts…)

Il est possible de poser des questions précises à l’IA, comme : « Je suis expert en marketing, mais novice en data science. Explique-moi uniquement les éléments liés à l’analyse comportementale ».

La vidéo générée peut ensuite être visionnée avec des contrôles pratiques, comme le retour ou l’avance de 10 secondes, ou le réglage de la vitesse de lecture. Un vrai plus pour ceux qui veulent assimiler rapidement l’information.

Une évolution naturelle pour NotebookLM

NotebookLM, initialement présenté lors de la conférence Google I/O en mai, vise à devenir un assistant personnel de recherche et de synthèse, particulièrement utile pour les étudiants, chercheurs, journalistes ou professionnels.

Avec Video Overviews, Google positionne son outil comme une alternative moderne aux supports traditionnels comme les fiches de révision ou les cours magistraux. L’IA n’est plus seulement un moteur de résumé, mais un véritable créateur de supports pédagogiques multimédias.

Parallèlement au lancement de Video Overviews, Google annonce une mise à jour majeure de l’onglet Studio, l’espace de création de contenu intelligent de NotebookLM. Parmi les nouveautés :

  • Possibilité de créer et stocker plusieurs formats similaires (audio, vidéo, rapports…) dans un même carnet.
  • Ajout de quatre tuiles interactives en haut du Studio pour générer en un clic :
  • Audio Overviews
  • Video Overviews
  • Mind Maps
  • Rapports personnalisés

Autre fonctionnalité appréciée : le multitâche dans le Studio. L’utilisateur peut par exemple écouter un résumé audio tout en explorant une carte mentale ou un guide d’étude.

Déploiement et perspectives futures

Le déploiement de Video Overviews a commencé en anglais, mais Google annonce que d’autres langues seront bientôt prises en charge. Cette expansion multilingue pourrait faire de NotebookLM un outil universel d’apprentissage assisté par l’IA.

L’initiative de Google s’inscrit dans une tendance plus large où les géants de la tech, comme OpenAI ou Anthropic, cherchent à capter le marché de l’edtech, estimé à plus de 80 milliards de dollars d’ici 2030.

Avec ces innovations, Google semble vouloir redéfinir l’expérience de l’apprentissage assisté, en s’appuyant sur des modèles d’IA capables de comprendre le contenu, le reformuler, et surtout l’illustrer visuellement.

NotebookLM devient plus qu’un simple outil de prise de notes : il s’impose peu à peu comme un véritable assistant de compréhension intelligente, combinant accessibilité, personnalisation et performance.

Lire plus
Intelligence Artificielle

ChatGPT lance le mode Étude : l’IA devient tuteur pédagogique pas à pas

ChatGPT lance le mode Étude : l’IA devient tuteur pédagogique pas à pas

OpenAI vient de lancer un nouveau mode « Étude » dans ChatGPT. Plutôt que de livrer des réponses toutes faites, ce mode propose un accompagnement étape par étape pour aider les utilisateurs à réellement comprendre ce qu’ils apprennent.

Une évolution majeure dans la manière dont l’IA s’intègre à l’éducation.

Un assistant pédagogique, pas une machine à tricher

Avec le lancement du Study Mode, OpenAI répond à une problématique devenue centrale dans le débat sur l’IA à l’école : comment faire de ChatGPT un outil d’apprentissage plutôt qu’un simple raccourci pour les devoirs ?

Screen 2025 07 29 at 22.17.30

Le nouveau mode repose sur une approche inspirée de la méthode socratique : ChatGPT pose des questions, offre des indices, invite à réfléchir. Objectif : guider l’utilisateur vers la solution par lui-même, tout en évaluant son niveau et ses connaissances précédentes.

Selon OpenAI, ce mode a été conçu en collaboration avec des enseignants, des chercheurs et des spécialistes de la pédagogie, ce qui explique une personnalisation poussée des réponses, organisées par sections claires et évolutives.

Un déploiement progressif et inclusif

Le mode Étude est déjà disponible pour tous les utilisateurs ChatGPT : Free, Plus, Pro et Team. Il sera accessible aux comptes ChatGPT Edu dans les semaines à venir.

Point fort : le support multilingue est prévu, permettant un accès équitable à l’outil dans différentes régions du monde, et sur des thématiques variées comme l’histoire, les mathématiques, ou encore les sciences cognitives.

Moins de réponses toutes faites, plus d’interactions guidées

Screen 2025 07 29 at 22.16.59

Concrètement, que se passe-t-il quand on active le mode Étude ? L’IA ne donne plus immédiatement la réponse. Elle commence par interroger l’utilisateur : Quel est ton niveau ? Qu’as-tu déjà compris ? Ensuite, elle fournit des explications par étapes, adaptées au niveau de l’étudiant, et refuse parfois simplement de donner la solution : « Le but ici est d’apprendre, pas juste de te livrer la réponse. »

Ce système offre aussi des quizz intégrés, une mémorisation des discussions précédentes, et une capacité d’adaptation en temps réel — une forme de tutorat intelligent.

Premiers résultats : plus de confiance, plus d’engagement

Trois étudiants ayant testé le mode Étude en avant-première ont livré des témoignages enthousiastes. Maggie Wang, étudiante à Princeton, explique : « J’ai enfin compris les encodages positionnels sinusoidaux. J’ai eu un déclic que je n’avais jamais eu, même en cours ».

Même constat pour Praja Tickoo, étudiant à Wharton, qui estime que ChatGPT avec le mode Étude « ressemble davantage à un partenaire d’apprentissage qu’à un outil ».

Cette montée en confiance est d’autant plus marquante qu’elle contredit les critiques habituelles envers l’IA générative, accusée de favoriser la triche ou la paresse intellectuelle.

Screen 2025 07 29 at 22.16.34

Un tournant stratégique dans le secteur de l’edtech

Avec ce lancement, OpenAI entre de plain-pied sur le marché de l’edtech, estimé à plus de 80 milliards de dollars d’ici 2030. Et la concurrence s’intensifie : Anthropic a lancé son propre Learning Mode dans Claude, tandis que Google mise sur NotebookLM et des fonctionnalités pédagogiques pour Gemini.

Mais là où ces outils restent centrés sur la génération de contenu, OpenAI fait le choix de l’accompagnement pédagogique, intégrant des principes éducatifs dans la conception même de l’expérience utilisateur.

Et la sécurité dans tout ça ?

À ce jour, le mode Étude repose sur des instructions système personnalisées et non une modification du cœur du modèle GPT. Cela permet à OpenAI de tester, d’ajuster rapidement en fonction des retours des étudiants — quitte à générer quelques incohérences d’une conversation à l’autre.

Toutefois, aucune option n’est encore disponible pour forcer les étudiants à rester dans ce mode. Les enseignants, parents ou établissements devront donc s’appuyer sur la motivation intrinsèque des élèves… ou attendre des options administratives à venir.

À venir : visualisations, objectifs, suivi personnalisé

OpenAI ne s’arrête pas là. L’entreprise prévoit d’ajouter :

  • des visualisations interactives pour les concepts complexes,
  • la définition d’objectifs d’apprentissage sur plusieurs sessions,
  • un suivi personnalisé des progrès, et une intégration possible avec l’application macOS de ChatGPT.

Des partenariats, comme celui annoncé avec l’université de Stanford, permettront également d’évaluer scientifiquement l’impact réel de ce mode sur les résultats académiques.

Et si ChatGPT devenait vraiment votre prof particulier ?

Avec Study Mode, OpenAI redéfinit le rôle de l’IA dans l’éducation. Plutôt qu’un générateur de devoirs, ChatGPT devient un compagnon de réflexion, capable de susciter la curiosité, de guider l’apprentissage, et de développer des compétences de raisonnement.

Reste à voir si les élèves, mais surtout les établissements, adopteront cette vision sur le long terme. Une chose est sûre : l’IA ne sera pas jugée sur sa capacité à donner les bonnes réponses, mais sur sa faculté à apprendre à poser les bonnes questions.

 

Lire plus
Intelligence Artificielle

Confidentialité et thérapie : Sam Altman alerte sur les limites de ChatGPT

Confidentialité et thérapie : Sam Altman alerte sur les limites de ChatGPT

Dans un contexte où l’intelligence artificielle occupe une place de plus en plus centrale dans nos vies, Sam Altman, PDG d’OpenAI, a récemment tenu un discours franc et inquiétant sur les dérives possibles de l’usage de ChatGPT comme substitut à une thérapie professionnelle.

Invité du podcast « This Past Weekend » de l’humoriste Theo Von, Altman a rappelé avec fermeté : les conversations avec l’IA ne bénéficient d’aucune protection légale.

Un avertissement qui tombe à point nommé, alors que des millions de personnes à travers le monde se tournent vers des assistants virtuels pour exprimer leur mal-être, parler de leurs traumatismes ou demander conseil sur leur vie intime.

Aucune confidentialité garantie avec ChatGPT

Contrairement à un échange avec un psychologue, un avocat ou un médecin, les discussions avec ChatGPT ne sont pas protégées par le secret professionnel. Sam Altman a comparé cela à une conversation tenue à voix haute dans un café public : tout ce que vous dites pourrait, en théorie, être utilisé contre vous.

Il l’a clairement formulé : « Nous n’avons pas encore résolu ce problème ».

En clair, si une procédure judiciaire venait à exiger la transmission de données, OpenAI pourrait légalement être contraint de livrer vos conversations. Aucune réglementation, ni aux États-Unis ni dans de nombreux pays, ne protège actuellement ces échanges pourtant très personnels.

Une fausse impression de sécurité émotionnelle

Les experts en cybersécurité, tout comme des chercheurs en psychologie, tirent la sonnette d’alarme. ChatGPT peut simuler l’empathie, donner l’illusion d’une écoute attentive, voire créer un attachement émotionnel artificiel. Sur X, de nombreux utilisateurs ont exprimé leur malaise face à l’impression de nouer une relation « intime » avec un outil informatique.

Altman lui-même l’a reconnu : ces modèles avancés, notamment GPT-4o avec sa voix humaine fluide, « piratent nos circuits neuronaux sociaux », nous poussant à les considérer comme de véritables interlocuteurs, voire comme des confidents. Un piège émotionnel qui peut accentuer l’isolement social ou conduire à une dépendance affective technologique.

Des risques réels… et peu connus

Dans un monde où l’on confie ses émotions à une machine, que devient notre vie privée ? Par défaut, ChatGPT stocke l’historique de vos conversations afin d’entraîner le modèle. Et même si vous supprimez certaines discussions ou désactivez l’historique, des traces peuvent subsister sur les serveurs, comme l’ont révélé des enquêtes de Mashable.

Un rapport du Financial Express estime que des millions d’utilisateurs s’ouvrent à l’IA comme à un thérapeute, sans réaliser que leurs paroles ne sont ni protégées ni effacées, ni à l’abri d’un usage futur.

Une urgence réglementaire

Sam Altman a plaidé pour une réglementation rapide, appelant à un cadre juridique similaire au HIPAA, la loi américaine sur la confidentialité des données médicales. En Europe, le AI Act de l’Union européenne pose déjà des bases strictes pour la protection des données personnelles. Mais, les États-Unis accusent un retard notable, laissant les utilisateurs exposés.

Des entreprises, comme OpenAI, proposent bien des contrôles manuels (comme les « discussions temporaires » qui ne sont pas sauvegardées), mais ces options restent insuffisantes en l’absence de lois contraignantes.

Un débat de société, pas seulement technologique

L’enjeu dépasse largement le domaine de la tech. Avec l’essor de l’IA, il est désormais possible d’avoir des « conversations » crédibles et apaisantes avec un chatbot, créant une nouvelle forme d’accès à un soutien émotionnel, notamment dans les zones mal desservies en professionnels de santé.

Mais sans encadrement, cette démocratisation peut se transformer en danger, comme le souligne Sam Altman. Tant que des garanties légales ne seront pas mises en place, les utilisateurs doivent considérer les échanges avec l’IA comme publics, et non comme confidentiels.

Vers une IA plus responsable ?

En exposant les limites actuelles de son propre système, Sam Altman envoie un message fort à l’ensemble de l’industrie : il est temps de prendre au sérieux la dimension humaine de l’intelligence artificielle.
Derrière chaque prompt se cache une vulnérabilité, une histoire, une douleur parfois.

L’IA peut compléter l’offre thérapeutique, jamais la remplacer. Et tant que la confidentialité ne sera pas juridiquement protégée, les utilisateurs devraient éviter de s’y livrer comme à un thérapeute.

Lire plus