fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Apple Intelligence : deux nouveautés mineures sur iPhone 17, Siri toujours absent

Apple Intelligence : deux nouveautés mineures sur iPhone 17, Siri toujours absent

On s’attendait à voir Apple frapper fort sur l’IA lors de sa keynote de septembre. Pourtant, si la firme a bel et bien dévoilé la nouvelle gamme iPhone 17, les annonces autour d’Apple Intelligence ont été minimes.

En résumé, seules deux nouvelles fonctionnalités ont été confirmées :

  • Zoom selfie automatique : l’IA ajuste désormais le cadrage de vos autoportraits.
  • Mode d’alimentation adaptatif : l’iPhone optimise la consommation d’énergie selon vos usages, un point crucial pour l’ultra-fin iPhone 17 Air.

Toujours pas de « nouveau Siri » associé à Apple Intelligence

Annoncé dès la WWDC 2024 mais repoussé à plusieurs reprises, le Siri nouvelle génération n’a pas été mentionné. Ce futur assistant multimodal (capable de comprendre la voix, le texte et même l’image) utiliserait des modèles d’IA modernes pour mieux comprendre le contexte et répondre de façon plus pertinente. Mais pour l’instant, silence radio.

Lors de l’événement, Apple a glissé quelques allusions à son IA, affirmant qu’elle rendrait l’iPhone 17 « meilleur ». Mais sans démonstrations concrètes, difficile d’y croire.

Beaucoup pensent que la firme attend peut-être de finaliser le rachat d’une startup spécialisée avant de relancer sérieusement la communication autour d’Apple Intelligence.

Où en est Apple face à la concurrence ?

Soyons clairs : si vous envisagez de passer à l’iPhone uniquement pour l’IA, ce n’est pas le bon choix pour le moment.

Google Pixel 10 et Samsung Galaxy S25 proposent aujourd’hui des expériences bien plus avancées et abouties dans ce domaine, avec une IA déjà intégrée au quotidien.

Lire plus
Intelligence Artificielle

Gemini accepte enfin les fichiers audio : transcription et analyse disponibles

Gemini accepte enfin les fichiers audio : transcription et analyse disponibles

Google vient de répondre à l’une des demandes les plus pressantes de ses utilisateurs : l’application Gemini accepte désormais le téléchargement et l’analyse de fichiers audio. MP3, M4A, WAV… quel que soit le format, l’IA peut transcrire, résumer et extraire les points clés d’un enregistrement.

Disponible sur Android, iOS et le Web, cette nouvelle option transforme un simple fichier sonore — réunion, interview, cours ou mémo vocal — en document structuré et exploitable.

Comment ça marche ?

Il suffit d’ouvrir l’appli Gemini, d’aller dans le menu + (sur mobile) ou dans « Uploader des fichiers » (sur le Web), puis de sélectionner un fichier audio. L’IA s’occupe du reste : transcription mot pour mot, détection de locuteurs, résumés synthétiques ou encore extraction de tâches et citations importantes.

Mieux encore, on peut analyser jusqu’à 10 fichiers en même temps, qu’il s’agisse de simples enregistrements ou même d’archives ZIP (limitées à 10 éléments).

Des limites selon votre abonnement

Google a prévu une hiérarchie claire d’usages :

  • Version gratuite : transcription limitée à 10 minutes par fichier, avec 5 prompts/jour. Un plafond généreux comparé aux services concurrents gratuits.
  • Google AI Pro/Ultra : jusqu’à 3 heures d’audio par fichier, idéal pour podcasteurs, journalistes ou étudiants qui veulent analyser conférences et interviews sans découper les enregistrements.

À 21,99 euros/mois, le plan AI Pro se positionne comme un outil accessible aux professionnels qui cherchent une alternative abordable aux logiciels de transcription classiques.

Un trio de mises à jour Gemini

Cette nouveauté s’accompagne de deux autres annonces :

  1. Google Search en AI Mode prend désormais en charge 5 nouvelles langues : hindi, indonésien, japonais, coréen et portugais brésilien.
  2. NotebookLM enrichit son éventail de rapports (fiches de révision, blogs, briefings, quiz, flashcards), disponibles en plus de 80 langues.

Ces ajouts confirment la stratégie de Google : accélérer l’intégration de Gemini dans tout son écosystème, du moteur de recherche aux outils de productivité.

Gemini avec l’audio, c’est bien plus qu’une simple transcription. On passe du brut au contenu actionnable et intelligent, directement exploitable pour gagner du temps au quotidien. La limite de 10 minutes pour les comptes gratuits reste contraignante, mais largement suffisante pour tester. Les formules payantes, elles, ouvrent la voie à une adoption professionnelle massive.

Lire plus
Intelligence Artificielle

Apple Intelligence : lancement en Chine prévu avant fin 2025 malgré la censure

Apple Intelligence : lancement en Chine prévu avant fin 2025 malgré la censure

Apple semble prêt à franchir une nouvelle étape stratégique : selon les dernières révélations de Mark Gurman (Bloomberg), la firme de Cupertino viserait désormais un lancement d’Apple Intelligence en Chine d’ici la fin de l’année.

Si cela se concrétise, il s’agirait du premier modèle d’IA générative issu d’un Big Tech américain à être officiellement accessible sur le marché chinois, où ni OpenAI, ni Google, ni Microsoft n’ont encore percé.

Apple Intelligence : Un lancement sous haute surveillance réglementaire

Jusqu’ici, la Chine s’était tenue à l’écart d’Apple Intelligence, pourtant déjà disponible aux États-Unis et en Europe depuis iOS 18. Le blocage venait des règles strictes imposées par Pékin, qui exige des partenariats locaux et une censure conforme aux lois nationales.

Apple aurait ainsi noué un accord avec Alibaba pour adapter et filtrer les contenus générés, tandis que Baidu serait sollicité pour certaines briques technologiques liées à la reconnaissance visuelle.

Une intégration prévue dans iOS 26.1 ou 26.2

D’après les fuites, le déploiement chinois pourrait coïncider avec une mise à jour majeure du système, probablement iOS 26.1 ou 26.2. Des employés d’Apple basés en Chine testeraient déjà les fonctionnalités en conditions réelles, afin de préparer une sortie sans accroc. Les serveurs locaux permettront de respecter la législation sur la localisation des données, même si cela impliquera une version filtrée de l’IA, moins libre que dans le reste du monde.

Pour Apple, réussir ce lancement est crucial : la Chine représente l’un de ses plus gros marchés pour l’iPhone, mais la concurrence locale, notamment Huawei, gagne du terrain grâce à ses propres solutions d’IA embarquées. Apple Intelligence pourrait devenir un argument décisif pour inciter les utilisateurs à renouveler leurs appareils, surtout si la promesse d’une meilleure expérience avec Siri et des outils de productivité tient ses promesses.

Un équilibre fragile entre innovation et compromis

Reste que ce projet se déroule dans un contexte géopolitique tendu. Entre la pression des États-Unis, qui freinent les transferts de technologies sensibles, et les exigences de Pékin en matière de contrôle de l’information, Apple doit jongler entre innovation et concessions.

Le pari est risqué : en cas de succès, la marque pourrait doper ses ventes de 10 à 15 % dans la région ; mais un retard ou une version trop bridée risquerait de décevoir et de renforcer ses rivaux locaux.

Lire plus
Intelligence Artificielle

DeepSeek R2 : la startup chinoise prépare un agent IA autonome pour 2025

DeepSeek R2 : la startup chinoise prépare un agent IA autonome pour 2025

La startup chinoise DeepSeek, basée à Hangzhou, s’apprête à franchir une nouvelle étape dans l’IA avec le lancement annoncé de son agent intelligent de nouvelle génération d’ici fin 2025, selon Bloomberg.

Contrairement aux simples chatbots textuels, cet agent pourra exécuter des tâches complexes en plusieurs étapes avec très peu d’intervention humaine, tout en apprenant de ses actions passées pour améliorer ses performances.

DeepSeek s’était déjà fait remarquer en début d’année avec son modèle R1, réputé pour ses capacités de raisonnement avancées. Développé pour seulement 6 millions de dollars, il a coûté une fraction des budgets colossaux d’OpenAI ou de Google.

Open source, DeepDeek R1 a rapidement séduit les développeurs et remis en question la logique du « bigger is better » qui domine la tech américaine.

De DeepDeek R1 à DeepDeek R2 : une stratégie prudente mais ambitieuse

Alors que des géants comme Alibaba et Tencent accélèrent leurs déploiements IA, le fondateur Liang Wenfeng a choisi une approche plus mesurée, retardant le DeepDeek R2 pour peaufiner la technologie.

Entre-temps, la mise à jour DeepDeek V3.1 a élargi la fenêtre de contexte à 128 000 tokens et porté le nombre de paramètres à 685 milliards. DeepSeek impose aussi désormais des labels obligatoires sur tous les contenus générés par IA, une transparence inédite qui le distingue de ses concurrents.

L’IA agent, prochaine révolution numérique

Le futur DeepDeek R2 ciblera le marché émergent des agents autonomes, capables de planifier des voyages, déboguer du code ou gérer des workflows business sans supervision constante. Les analystes estiment que cette technologie pourrait réinventer la productivité et les services numériques, à l’instar de ce que préparent déjà OpenAI, Microsoft et Anthropic.

La montée en puissance de DeepSeek attire déjà l’attention à Silicon Valley et Washington, où l’on s’inquiète de la progression rapide de la Chine dans l’intelligence artificielle. L’arrivée d’un agent IA « made in China » performant pourrait rebattre les cartes dans la course mondiale à l’IA.

Avec son DeepDeek R2, DeepSeek entend prouver qu’innovation et efficacité ne nécessitent pas forcément des budgets astronomiques. En combinant prudence technique et ambitions globales, la startup pourrait devenir l’un des principaux challengers d’OpenAI et de Google dans la bataille des agents IA autonomes.

Lire plus
Intelligence Artificielle

Google Gemini précise enfin ses limites d’utilisation : transparence bienvenue ou frein à la créativité ?

Google Gemini précise enfin ses limites d’utilisation : transparence bienvenue ou frein à la créativité ?

Google a mis fin au flou qui entourait jusqu’ici les quotas d’utilisation de son IA, Gemini. L’entreprise détaille désormais noir sur blanc combien de prompts, d’images ou de rapports Deep Research chaque type de compte Gemini peut générer par jour.

Une clarification attendue, alors que les utilisateurs se plaignaient de messages vagues comme « accès limité » ou « utilisation restreinte » qui laissaient place à trop d’incertitudes.

Gemini : Des quotas désormais chiffrés

Avec un compte gratuit, les utilisateurs n’ont droit qu’à 5 prompts par jour avec Gemini 2.5 Pro, cinq recherches approfondies et cent images générées.

L’abonnement AI Pro décuple ces capacités avec cent prompts quotidiens et jusqu’à mille images. Enfin, l’offre AI Ultra, la plus avancée, monte à cinq cents prompts par jour, tout en conservant le même plafond d’images.

Cette transparence permet aux utilisateurs de mieux planifier leur usage et d’évaluer si un passage à un abonnement payant est nécessaire. Mais elle révèle aussi une contrainte : la créativité illimitée promise par l’IA reste conditionnée par des barrières techniques, qui rappellent les limitations rencontrées sur d’autres plateformes, comme OpenAI ou Anthropic.

Entre transparence et frustration

D’un côté, Google marque des points en jouant la carte de la clarté. De l’autre, certains regretteront que les plafonds soient trop restrictifs, surtout pour les créateurs qui s’appuient massivement sur l’image générative ou la recherche avancée.

À long terme, la question est de savoir si ces limites ne vont pas frustrer les utilisateurs les plus actifs et les pousser vers des alternatives plus ouvertes.

Lire plus
Intelligence Artificielle

ChatGPT introduit les « branches de conversation » : tester plusieurs idées sans perdre le fil

ChatGPT introduit les « branches de conversation » : tester plusieurs idées sans perdre le fil

OpenAI a lancé une nouvelle fonctionnalité très attendue sur ChatGPT : la possibilité de créer des branches de conversation parallèles.

Désormais, les utilisateurs peuvent tester plusieurs idées ou variantes sans écraser leur fil principal, un peu comme si l’on faisait une copie d’un document avant de l’éditer.

Comment ça marche ?

Depuis l’interface Web, il suffit de passer la souris sur un message, cliquer sur « Plus d’actions », puis « Créer une branche dans un nouveau chat ». Une nouvelle discussion s’ouvre avec tout l’historique conservé, tandis que la conversation d’origine reste intacte.

Screen 2025 09 07 at 08.25.04

Pour un brainstorming marketing par exemple, une même base de discussion peut donner lieu à trois branches : une version sérieuse, une version humoristique et une version exploratoire.

Avant, les utilisateurs devaient soit modifier leur conversation en cours au risque de perdre du contexte, soit recommencer à zéro dans un nouveau chat. Ce nouveau système évite cette frustration et facilite l’exploration de scénarios « Et si » sans charge mentale supplémentaire.

Les développeurs comparent déjà la fonctionnalité au branching dans Git, qui permet de tester des changements sur des branches séparées sans affecter le code principal.

Un rappel : l’IA n’est pas humaine

Cette nouveauté met en lumière la nature « modulaire » des modèles d’IA. Contrairement à une discussion humaine qui bifurque naturellement, l’IA avait jusque-là une structure linéaire.

La branche de conversation permet de simuler une pensée parallèle, mais ne signifie pas que ChatGPT « se souvient » comme une personne : il maintient simplement plusieurs états computationnels.

Impact et perspectives

  • Pour les utilisateurs : plus de créativité et moins d’interruptions de flux.
  • Pour les pros : un atout dans le développement logiciel, la planification de projets ou l’écriture collaborative.
  • Pour l’industrie : un alignement sur des concurrents comme Claude d’Anthropic, qui offrait déjà cette fonction, mais avec l’avantage de la large base d’utilisateurs de ChatGPT.

Cependant, cette amélioration ne résout pas les limites plus profondes des modèles, comme les hallucinations (informations inventées). Elle invite donc à rester vigilant : l’IA est un outil puissant, mais pas une entité consciente.

 

Lire plus
Intelligence Artificielle

ChatGPT Projets : la fonctionnalité premium arrive enfin pour tous les utilisateurs

ChatGPT Projets : la fonctionnalité premium arrive enfin pour tous les utilisateurs

OpenAI élargit l’accès à l’une de ses fonctionnalités premium : Projets. Lancée en décembre dernier pour les abonnés payants, l’option Projets est désormais disponible pour les utilisateurs gratuits de ChatGPT.

Concrètement, Projets agit comme un dossier personnalisé à l’intérieur de ChatGPT, dans lequel vous pouvez regrouper vos fichiers, images et instructions spécifiques à un projet donné.

ChatGPT : Un espace dédié pour chaque usage

Avec Projets, il est possible de créer un chatbot sur mesure pour un besoin précis. Par exemple, un projet santé pour stocker vos rapports médicaux, un projet études pour vos cours et résumés, un projet voyage pour vos itinéraires et documents pratiques, ou encore un projet finance pour vos budgets.

Chaque projet fonctionne comme un espace autonome, propulsé par le modèle GPT-5.

Limites et stockage selon les abonnements

La nouvelle version étend les capacités à tous les profils, mais avec des restrictions :

  • Utilisateurs gratuits : jusqu’à 5 fichiers par projet.
  • Abonnés Plus/Go/Edu : jusqu’à 25 fichiers.
  • Clients Pro/Business/Enterprise : jusqu’à 40 fichiers.

Cette hiérarchisation permet de s’adapter aussi bien à des usages ponctuels qu’à des besoins professionnels intensifs.

Une mémoire séparée pour chaque projet

Grande nouveauté : la mémoire de Projets est indépendante de la mémoire classique de ChatGPT. Chaque dossier garde ses propres données et instructions, ce qui évite toute confusion avec vos conversations habituelles.

Pour aller plus loin, il est possible de personnaliser ses projets avec des couleurs et icônes spécifiques afin de mieux organiser ses espaces de travail.

Et les tâches programmées ?

Attention toutefois : la création de tâches programmées dans ChatGPT reste réservée aux abonnés payants. OpenAI n’a pas encore ouvert cette fonctionnalité aux utilisateurs gratuits, même si cela fait partie des attentes les plus demandées par la communauté.

Avec Projets, OpenAI rend son IA encore plus polyvalente. En permettant aux utilisateurs gratuits d’accéder à cette fonctionnalité jusqu’ici premium, ChatGPT s’impose davantage comme un outil central pour organiser et automatiser ses projets personnels et professionnels.

Lire plus
Intelligence Artificielle

Mistral AI : la pépite française de l’IA bientôt valorisée 14 milliards de dollars

Mistral AI : la pépite française de l’IA bientôt valorisée 14 milliards de dollars

La startup française Mistral AI, fondée il y a seulement deux ans par d’anciens chercheurs de DeepMind et Meta, s’apprête à franchir un nouveau cap. Selon TechCrunch, Mistral AI serait en passe de boucler un tour de table qui la valoriserait à 14 milliards de dollars, confirmant son statut de principal rival européen d’OpenAI.

En 2023, Mistral était valorisée à seulement 2 milliards d’euros après une première levée de fonds. Début 2025, sa valorisation atteignait déjà 6 milliards, et elle préparait un tour de table d’1 milliard de dollars pour grimper à 10 milliards.

Aujourd’hui, le cap des 14 milliards démontre l’énorme confiance des investisseurs dans la scalabilité de ses modèles d’IA.

La société s’est rapidement distinguée grâce à Le Chat, son chatbot pensé pour les utilisateurs européens, et surtout par son choix d’un modèle open source permettant aux développeurs et entreprises d’adapter librement leurs applications d’IA.

Mistral AI : Un positionnement stratégique face aux géants américains

L’approche ouverte de Mistral AI contraste fortement avec les systèmes fermés de ses concurrents, comme OpenAI ou Anthropic. Ce choix séduit de nombreuses entreprises européennes, soucieuses d’éviter un vendor lock-in et de conserver leur indépendance technologique.

Les performances des modèles de Mistral, qui rivaliseraient avec GPT-4 tout en ayant été entraînés à des coûts moindres, renforcent encore l’intérêt des investisseurs. Plusieurs rumeurs évoquent même un intérêt d’Apple pour un rachat de la startup, afin d’accélérer ses propres projets en intelligence artificielle.

Des investisseurs globaux et des enjeux géopolitiques

Parmi les acteurs déjà impliqués, on retrouve le fonds souverain MGX d’Abu Dhabi, qui voit dans Mistral une opportunité stratégique au cœur de la rivalité technologique entre les États-Unis et la Chine.

Cette dimension géopolitique est renforcée par la volonté affichée de l’Union européenne de bâtir une souveraineté numérique et de ne pas dépendre exclusivement des solutions américaines ou asiatiques.

Des défis de taille à relever

Malgré l’enthousiasme, Mistral devra répondre à plusieurs défis cruciaux :

  • Retenir les talents dans un secteur ultra-concurrentiel.
  • Gérer les coûts colossaux liés à l’entraînement de modèles toujours plus puissants.
  • Monétiser ses solutions open source, là où des acteurs comme OpenAI misent sur des services premium.

Le succès de son modèle économique conditionnera sa capacité à transformer son avance technologique en domination commerciale.

Avec cette valorisation record et son approche disruptive, Mistral AI pourrait devenir le champion européen de l’IA générative, capable de bousculer l’hégémonie américaine. Reste à savoir si la startup saura équilibrer son ADN open source avec les impératifs de rentabilité. Une chose est sûre : son prochain financement marquera un tournant dans l’histoire de l’intelligence artificielle en Europe.

 

Lire plus
Intelligence Artificielle

LLM Siri : Apple prépare un Siri boosté à l’IA pour 2026 avec résumés intelligents

LLM Siri : Apple prépare un Siri boosté à l’IA pour 2026 avec résumés intelligents

Apple planche actuellement sur une nouvelle version de son assistant vocal, baptisée en interne « LLM Siri » ou encore « World Knowledge Answers ». Attendue pour début 2026, cette évolution devrait transformer Siri en véritable « moteur de réponses », capable de résumer des recherches Web et de fournir des informations précises dans un format concis.

Un Siri pensé comme un moteur de réponses

Contrairement aux attentes nées lors de la WWDC 2024, cette première étape de l’IA générative de Siri ne sera pas une refonte complète de l’assistant, mais plutôt l’intégration d’un outil de recherche avancé.

Inspiré des AI Overviews de Google ou des résumés proposés par OpenAI, LLM Siri pourra analyser différentes sources en ligne et proposer un condensé clair et structuré. L’interface prendrait en charge le texte, les images, les vidéos et même des points d’intérêt locaux, le rapprochant davantage des moteurs de recherche nouvelle génération que d’un simple assistant vocal.

Une intégration au cœur d’iOS

Selon les informations de Bloomberg, Apple ne limiterait pas cette nouveauté à Siri. Le Answer Engine pourrait aussi s’intégrer à la recherche Spotlight et au navigateur Safari, ce qui ferait de LLM Siri un outil transversal pour tous les utilisateurs d’iPhone, d’iPad et de Mac.

L’idée : ne plus se contenter de lancer une requête web classique, mais obtenir directement un résumé de qualité, sans passer par des dizaines de liens.

Un partenariat possible avec Google Gemini ?

Bien que la firme de Cupertino développe ses propres modèles IA, des discussions sont en cours avec Google pour exploiter une version personnalisée de Gemini sur les serveurs Apple. L’objectif serait d’améliorer la génération de réponses, tout en laissant à Siri la gestion des données personnelles locales.

Apple évaluerait également d’autres modèles, comme Claude d’Anthropic, pour certaines fonctions de planification ou de compréhension contextuelle.

Date de sortie prévue

Apple WWDC24 Apple Intelligence

D’abord pressentie pour accompagner l’iPhone 16 en 2024, la mise à jour IA de Siri a été repoussée, suscitant la déception des utilisateurs et même des plaintes pour publicité trompeuse.

D’après les dernières fuites, LLM Siri pourrait arriver dès mars 2026 via iOS 26.4, avec un déploiement progressif au fil de l’année. Une version encore plus avancée, capable de gérer des actions complexes et des intégrations profondes, serait attendue autour de 2027.

Avec LLM Siri, Apple ne révolutionnera peut-être pas encore totalement son assistant, mais posera une pierre essentielle à son avenir. Résumer le web, fournir des réponses contextuelles et s’intégrer à tout l’écosystème iOS pourrait suffire à repositionner Siri face à ses concurrents directs, comme Gemini ou ChatGPT.

Lire plus
Intelligence Artificielle

ChatGPT : OpenAI active des contrôles parentaux et redirige les conversations sensibles

ChatGPT : OpenAI active des contrôles parentaux et redirige les conversations sensibles

OpenAI a annoncé un plan d’actions en 120 jours pour renforcer la protection des utilisateurs les plus vulnérables dans ChatGPT. Deux axes majeurs se dégagent : des contrôles parentaux pour les comptes adolescents et un routage automatique des échanges sensibles (signes de détresse aiguë, idées suicidaires, etc.) vers des modèles de raisonnement plus robustes, comme GPT-5 thinking.

L’objectif est d’obtenir des réponses plus prudentes, contextualisées et résistantes aux incitations dangereuses, quelle que soit la version de modèle initialement choisie par l’utilisateur.

OpenAI précise que ce chantier est déjà en cours et qu’il s’inscrit dans une trajectoire plus large pour rendre ChatGPT « plus utile et plus sûr » dans les moments difficiles, avec l’appui d’un Expert Council on Well-Being and AI et d’un réseau de médecins (plus de 250 praticiens, dont 90 mobilisés sur la santé mentale des adolescents).

Ce que prévoient les contrôles parentaux dans ChatGPT

D’ici quelques semaines, des comptes parents pourront être liés à ceux de leurs ados (dès 13 ans) via invitation par e-mail. Par défaut, des règles de comportement adaptées à l’âge seront appliquées.

Les parents pourront désactiver des fonctionnalités comme la mémoire ou l’historique, et recevoir une alerte quand le système détecte des signes de détresse aiguë pendant les échanges. OpenAI a aussi généralisé des rappels in-app pour inciter à faire des pauses lors des sessions très longues.

Pourquoi maintenant : des cas graves et une pression croissante

L’initiative survient après des affaires très médiatisées, dont la plainte pour mort injustifiée déposée par les parents d’Adam Raine (16 ans), qui aurait reçu des réponses validant ses idées suicidaires au fil de centaines de messages.

Un autre dossier décrit un meurtre-suicide où l’utilisateur, en proie à des délires paranoïaques, aurait vu ses croyances renforcées par le chatbot. Ces drames ont ravivé les critiques sur l’insuffisance des garde-fous actuels à l’échelle des conversations prolongées.

OpenAI reconnaît d’ailleurs que dans des échanges très longs, les protections peuvent se dégrader et le modèle finir par contredire ses propres garde-fous — une faiblesse que l’entreprise cherche à compenser via le routage vers des modèles de raisonnement capables de « penser plus longtemps » avant de répondre.

Le « piège » des discussions longues : ce que dit la recherche

Des psychiatres d’Oxford ont décrit un mécanisme de « bidirectional belief amplification » : l’aspect flatteur des chatbots peut amplifier les croyances d’un utilisateur vulnérable, bouclant une rétroaction où chacun renforce l’autre jusqu’à des validations extrêmes. Leur conclusion est nette : les garde-fous actuels des IA ne suffisent pas à traiter ces risques interactionnels et réclament une supervision et des normes comparables à celles des interventions de santé mentale.

Dans ce contexte, la stratégie d’OpenAI — rediriger automatiquement certains échanges vers des modèles plus prudents et outiller les parents — apparaît comme un premier levier technique et organisationnel pour réduire ces dérapages.

OpenAI durcit sa posture de sûreté sur ChatGPT en combinant contrôles parentaux, alertes de détresse, routage vers des modèles de raisonnement et travail avec des experts. Les annonces répondent à des incidents graves et à un consensus scientifique naissant sur les risques d’amplification des croyances dans des dialogues prolongés. Reste à vérifier l’efficacité réelle de ces mesures à l’échelle, et la manière dont elles s’articuleront avec des exigences réglementaires de plus en plus strictes.

Lire plus
Intelligence Artificielle

OpenAI rachète Statsig pour 1,1 milliard de dollars et réorganise sa direction

OpenAI rachète Statsig pour 1,1 milliard de dollars et réorganise sa direction

OpenAI continue son expansion agressive dans le domaine de l’intelligence artificielle. OpenAI a annoncé le rachat de Statsig, une plateforme d’expérimentation spécialisée dans l’A/B testing et le feature flagging, pour un montant estimé à 1,1 milliard de dollars.

En parallèle, plusieurs changements majeurs sont opérés au sein de sa direction, confirmant une stratégie d’accélération et de diversification.

Statsig, un renfort stratégique pour OpenAI

Fondée en 2021 par Vijaye Raji, ancien ingénieur de Facebook, Statsig s’est imposée comme une référence dans l’optimisation produit. Ses outils permettront à OpenAI d’accélérer l’expérimentation et le déploiement de nouvelles fonctionnalités, d’optimiser la performance de ses modèles, comme GPT-5, et de renforcer ses capacités en analytique produit pour ChatGPT, Codex et les API développeurs.

Vijaye Raji rejoint OpenAI en tant que CTO of Applications, sous la responsabilité directe de Fidji Simo, ancienne PDG d’Instacart, désormais CEO des Applications chez OpenAI.

L’entreprise précise que Statsig conservera son bureau de Seattle et continuera à servir ses clients existants, tout en intégrant progressivement les projets d’OpenAI.

Réorganisation interne : de nouveaux rôles stratégiques

En parallèle de cette acquisition, OpenAI a officialisé plusieurs nominations clés :

  • Srinivas Narayanan, ancien responsable de l’ingénierie, devient CTO of B2B Applications. Il pilotera toutes les applications à destination des entreprises, startups et gouvernements, sous la supervision du COO Brad Lightcap.
  • Kevin Weil, jusque-là CPO, bascule du côté recherche en tant que VP of AI for Science. Il travaillera aux côtés de Mark Chen, directeur scientifique, pour explorer l’application de l’IA à la recherche scientifique. Son ancienne équipe produit, dont Nick Turley (ChatGPT), reportera désormais à Fidji Simo.

Ces évolutions traduisent une volonté d’OpenAI de mieux séparer les pôles produits commerciaux, applications B2B et recherche scientifique, tout en renforçant son équipe de direction.

Une course à l’IA de plus en plus intense

Cette acquisition s’inscrit dans une guerre des talents et des technologies où les rachats se multiplient. OpenAI avait récemment tenté d’acquérir la startup de code IA Windsurf, mais l’opération avait échoué au profit de Google. En revanche, l’entreprise a bien réussi à absorber io Products Inc., fondée par Jony Ive, pour développer du matériel IA propriétaire.

OpenAI investit massivement pour rester en tête face à Google, Meta, Anthropic ou encore xAI, dans un marché où la compétition est féroce et les valorisations parfois qualifiées de « bulle » par Sam Altman lui-même.

OpenAI muscle ses applications et prépare l’avenir

Avec le rachat de Statsig et la montée en puissance de profils expérimentés comme Fidji Simo et Vijaye Raji, OpenAI confirme sa volonté de structurer ses activités autour de pôles complémentaires : recherche, applications B2C (ChatGPT), applications B2B et infrastructure.

Si l’intégration réussit, l’entreprise pourrait accélérer le rythme d’innovation de ses produits phares tout en renforçant sa compétitivité face aux autres géants de la tech.

Lire plus
Intelligence Artificielle

DeepSeek : la Chine impose une identification obligatoire des contenus générés par l’IA

DeepSeek : la Chine impose une identification obligatoire des contenus générés par l’IA

La société d’intelligence artificielle DeepSeek vient d’annoncer de nouvelles règles en Chine : désormais, tout contenu généré par ses modèles devra être clairement identifié comme artificiel.

Cette mesure s’inscrit dans un cadre réglementaire plus large, voulu par Pékin, pour renforcer la transparence et limiter les abus liés aux usages de l’IA.

Des labels visibles et invisibles

Conformément aux directives officielles, DeepSeek met en place deux types de marqueurs sur les contenus générés :

  • Des labels visibles : texte indiquant « généré par IA », annonces audio ou encore graphiques intégrés aux vidéos et images.
  • Des labels techniques cachés : intégrés aux métadonnées, ils précisent la nature du contenu, l’entreprise à l’origine et un identifiant unique traçable.

Les utilisateurs n’auront pas le droit de modifier ou supprimer ces étiquettes. Toute tentative de falsification, de suppression ou d’utilisation d’outils visant à contourner ce système pourra entraîner des sanctions, y compris des poursuites judiciaires.

Un cadre réglementaire national

Ces obligations ne sont pas propres à DeepSeek. Elles découlent des nouvelles règles mises en place par les autorités chinoises, imposant aux fournisseurs de services d’IA de garantir la traçabilité et la transparence des contenus générés.

L’objectif est double :

  • éviter la désinformation et les manipulations liées aux deepfakes et contenus artificiels,
  • responsabiliser les entreprises d’IA, qui doivent assurer le respect strict de ces normes.

Un guide technique pour plus de transparence

En parallèle, DeepSeek a publié un document technique détaillé expliquant le fonctionnement de ses modèles dont un processus d’entraînement, des sources de données utilisées, et des étapes de génération des contenus.

L’entreprise affirme vouloir ainsi favoriser une meilleure compréhension de l’IA, inciter à un usage plus responsable et garantir aux utilisateurs une information claire sur l’origine des contenus qu’ils consomment.

DeepSeek V3.1 et innovations matérielles

Ces nouvelles règles interviennent alors que DeepSeek a récemment lancé DeepSeek V3.1, un modèle doté d’un contexte de 128K tokens et de 685 milliards de paramètres, capable de gérer à la fois le raisonnement et les tâches générales.

En revanche, la sortie du modèle R2 a été repoussée. Côté matériel, les performances explosent : selon plusieurs rapports, les GPU Nvidia GB300 offriraient une puissance 6 fois supérieure aux H100 sur les charges de travail DeepSeek R1, ouvrant la voie à une scalabilité massive pour l’IA en entreprise.

Transparence et puissance, le double cap de DeepSeek

En rendant l’étiquetage de l’IA obligatoire, DeepSeek se conforme aux directives chinoises tout en posant les bases d’une utilisation plus responsable de l’intelligence artificielle. Si certains y voient une contrainte, cette approche pourrait aussi renforcer la confiance des utilisateurs dans les contenus générés.

Combinée aux avancées techniques impressionnantes de ses nouveaux modèles, cette stratégie confirme l’ambition de DeepSeek : s’imposer comme un acteur majeur de l’IA mondiale, à la fois puissant et régulé.

Lire plus
Intelligence Artificielle

Sam Altman admet que l’IA est en pleine bulle : entre hype, milliards et réalités techniques

Sam Altman admet que l’IA est en pleine bulle : entre hype, milliards et réalités techniques

Dans un aveu rare et saisissant, Sam Altman, PDG d’OpenAI, a confirmé que le secteur de l’intelligence artificielle est bel et bien dans une bulle spéculative.

Lors d’un entretien avec The Verge, Altman a décrit les investisseurs comme « surexcités » par le potentiel de l’IA, tout en reconnaissant que cette effervescence rappelle les excès de la bulle Internet des années 1990

Des investissements massifs sur fond d’attentes irréalistes

Selon Altman, l’engouement actuel autour de l’IA est fondé sur une technologie prometteuse… mais des attentes démesurées. Il cite notamment les coûts astronomiques liés aux infrastructures (data centers, puces, formation de modèles) comme un obstacle majeur. Pourtant, OpenAI prévoit des investissements à hauteur de plusieurs trillions de dollars pour soutenir la prochaine vague d’innovations.

« C’est une bulle, oui. Mais une bulle autour d’une technologie réelle », a déclaré Sam Altman.

Des plateformes comme X regorgent de comparaisons entre l’IA et les cycles d’investissement frénétiques passés, certains y voyant un écho de la bulle Internet, d’autres une accélération logique vers une nouvelle ère industrielle.

L’avenir selon Altman : assistants IA, percées scientifiques et robots

Malgré cette lucidité, Altman reste très optimiste. Il envisage :

  • des agents IA productifs dès 2025 ;
  • des avancées scientifiques majeures impulsées par l’IA en 2026 ;
  • et l’intégration dans le monde physique via la robotique dès 2027.

Ce calendrier ambitieux a été exposé lors d’auditions au Sénat américain, où Altman a dessiné les contours d’un futur où l’IA dépasse les capacités humaines en conversation, et transforme des secteurs entiers comme la santé, l’éducation ou le développement logiciel.

Une bulle, oui… mais une correction ou un krach ?

Altman ne nie pas les excès actuels, notamment les valorisations stratosphériques de startups IA, ou la place écrasante du secteur dans le financement VC (près de 50 % des nouveaux investissements). OpenAI elle-même serait valorisée à plus de 500 milliards de dollars selon certaines sources.

Les risques évoqués incluent une désillusion du marché si les promesses ne se concrétisent pas, une baisse des revenus SaaS traditionnels, à cause des IA agents et une confusion croissante autour de l’AGI, utilisée parfois comme simple outil marketing.

Un rappel à la réalité pour l’industrie tech

Pour de nombreux analystes, les propos d’Altman marquent une prise de conscience bienvenue. Oui, l’IA est la prochaine grande révolution, mais elle devra traverser sa propre phase de correction, comme l’ont fait Internet, le mobile ou le cloud.

La question cruciale désormais : l’écosystème IA saura-t-il évoluer avec rigueur et prudence, ou sombrera-t-il dans l’éclatement brutal d’une bulle trop gonflée ?

Qu’on y voie une stratégie de communication préventive, ou un rare moment d’honnêteté dans une industrie souvent opaque, l’intervention d’Altman souligne un fait indéniable : l’IA change le monde, mais pas aussi vite que le veut la finance.

OpenAI, en tant que leader, est au cœur de cette transformation… et peut-être, de son éventuelle crise.

Lire plus
Intelligence Artificielle

GPT-5 : comprendre les « system prompts » pour exploiter tout le potentiel de l’IA agentique

GPT-5 : comprendre les « system prompts » pour exploiter tout le potentiel de l’IA agentique

La révolution de l’IA ne se joue pas seulement sur l’adoption des derniers outils, mais aussi sur la compréhension profonde de leur fonctionnement interne. Avec GPT-5, OpenAI introduit une nouvelle étape dans l’intelligence artificielle : un modèle agentique, capable d’exécuter des tâches complexes avec un minimum de supervision humaine.

Ce n’est pas une simple évolution technique, mais un changement de paradigme qui redéfinit la façon dont nous collaborons avec les machines.

Le cœur de cette transformation repose sur un élément souvent méconnu : les « system prompts ». Ces instructions internes dictent la manière dont l’IA interprète vos demandes et structure ses réponses.

Pour les utilisateurs avertis, maîtriser ces paramètres peut transformer l’utilisation de GPT-5 en véritable levier stratégique, permettant d’aller au-delà d’un simple échange conversationnel pour atteindre une délégation précise et performante.

De l’assistant conversationnel à l’agent autonome

Contrairement à ses prédécesseurs, GPT-5 ne se contente pas de répondre à vos questions : il agit. Son fonctionnement agentique lui permet de mener une mission de bout en bout, sans itérations constantes. Mais pour en tirer pleinement parti, il est essentiel de formuler des instructions claires et détaillées dès le départ.

Il ne suffit plus de dire « rédige un rapport » ; il faut préciser le livrable attendu, le format (par exemple 1 000 mots avec citations), le public visé (cadres dirigeants, équipe technique…), le contexte (tendances du marché, contraintes réglementaires) et les limites (délai, outils à utiliser, taille maximale). Plus la demande est structurée, plus le résultat sera aligné sur vos objectifs.

Passer à une interaction « spécification »

GPT-5 excelle lorsque la demande repose sur des spécifications précises. Cela implique de penser vos prompts comme des cahiers des charges : définir clairement le livrable, préciser la structure et le ton, indiquer l’audience, fournir le contexte, et encadrer le tout avec des contraintes mesurables.

Cette méthode réduit les risques d’ambiguïté, diminue les retours inutiles et accélère la livraison de résultats exploitables.

Optimiser l’ingénierie de prompt

L’art du prompt engineering devient central avec GPT-5. Définir des critères de succès, fournir des données contextuelles, spécifier les outils à mobiliser (API, logiciels internes), et construire une bibliothèque de prompts réutilisables sont des pratiques essentielles.

Elles permettent non seulement d’augmenter la qualité des livrables, mais aussi de standardiser la performance au sein d’une équipe ou d’une organisation.

Gérer les limites et les risques

Même avec son autonomie accrue, GPT-5 peut présenter des comportements indésirables : exécution spéculative, usage non anticipé d’outils, perte de contexte dans les projets longs. La solution : définir des bornes claires, établir des règles d’utilisation des outils, et découper les projets complexes en étapes intermédiaires.

Exploiter la mémoire et les fonctions collaboratives

La mémoire avancée de GPT-5 permet de conserver un contexte entre les sessions, ce qui favorise la cohérence sur des projets longs. Associée à des fonctions de co-édition et de gestion de versions, cette capacité facilite le suivi, l’historisation et la collaboration à plusieurs mains, sans perte d’information.

Un espace de travail unifié

GPT 5 02 scaled

GPT-5 s’intègre désormais comme un hub central : gestion documentaire, génération de code, planification, stockage contextuel. Pour les entreprises, cela signifie moins d’outils disparates et plus de fluidité dans les flux de production, avec en prime des fonctions de conformité et d’audit.

Pour devancer la concurrence, il faut passer d’une logique de conversation à une logique de délégation procédurale. Cela suppose d’expérimenter, de documenter ses prompts, d’affiner ses méthodes et de bâtir des modèles de demandes standardisés. Les organisations qui maîtriseront tôt ce mode de fonctionnement disposeront d’un avantage compétitif considérable.

En résumé, GPT-5 inaugure l’ère de l’IA capable d’agir seule, mais son efficacité dépend directement de votre capacité à la piloter par des prompts structurés et stratégiques. C’est moins une question de savoir « parler à l’IA » qu’une question de savoir penser comme un chef de projet qui briefe un collaborateur hautement qualifié.

Lire plus
Intelligence Artificielle

ChatGPT : OpenAI annonce des contrôles parentaux après un drame lié à un adolescent

ChatGPT : OpenAI annonce des contrôles parentaux après un drame lié à un adolescent

À la suite du  tragique suicide d’un adolescent de 16 ans aux États-Unis, dont les parents affirment qu’il a été influencé par les échanges avec ChatGPT, OpenAI a annoncé l’arrivée prochaine de contrôles parentaux pour son célèbre chatbot.

Cette décision intervient alors que l’entreprise fait face à une plainte pour mort injustifiée déposée par la famille de la victime, Adam Raine.

Une plainte pour mort injustifiée contre OpenAI et Sam Altman

Le 20 août dernier, la famille d’Adam Raine a officiellement déposé une plainte devant le tribunal de San Francisco. Selon les documents judiciaires, ChatGPT serait devenu le « confident le plus proche » du jeune homme, avec des milliers de messages échangés durant plusieurs mois.

Le robot, conçu pour maintenir l’engagement de l’utilisateur, aurait selon la plainte validé des pensées suicidaires, proposé des méthodes pour mettre fin à ses jours et même rédigé un brouillon de lettre d’adieu.

« Tu ne dois à personne ta survie », aurait notamment répondu le chatbot, alors qu’Adam exprimait le souhait de ne pas faire souffrir ses proches.

La famille accuse OpenAI d’avoir laissé un mineur sans surveillance recevoir des réponses potentiellement dangereuses, tout en renforçant son isolement vis-à-vis de ses proches.

Des contrôles parentaux bientôt intégrés à ChatGPT

Face à l’émotion suscitée par l’affaire, OpenAI a publié un billet de blog le jour même du dépôt de la plainte, dans lequel l’entreprise déclare ressentir une « profonde responsabilité » envers les utilisateurs les plus vulnérables, notamment les adolescents.

Parmi les nouveautés en préparation :

  • La possibilité pour les parents de superviser et comprendre l’usage de ChatGPT par leurs enfants ;
  • Une fonction de contact d’urgence, que l’adolescent pourra désigner avec l’accord des parents, et que ChatGPT pourra contacter automatiquement en cas de détresse aiguë ;
  • Des outils de désescalade dans GPT-5, capables d’ancrer l’utilisateur dans la réalité lors d’échanges sensibles ;
  • Un renforcement des garde-fous pour éviter que le modèle ne s’émousse au fil des longues conversations.

Le rôle controversé de l’IA dans la santé mentale

Ce n’est pas la première fois qu’une IA conversationnelle est mise en cause dans une affaire de suicide. Des cas similaires ont émergé ces dernières années :

  • En Belgique, une femme a affirmé que son mari s’était suicidé sous l’influence d’un chatbot nommé Eliza.
  • En Floride, une plateforme permettant de discuter avec des personnages fictifs (Character.AI) a été citée après le décès d’un garçon de 14 ans.

Si l’intelligence artificielle est souvent présentée comme une aide à la santé mentale, ces drames rappellent les limites éthiques et techniques de ces outils, surtout lorsqu’ils sont utilisés sans encadrement.

Un changement nécessaire, mais tardif ?

OpenAI reconnaît que ses systèmes actuels peuvent « défaillir lors d’interactions longues ». Un exemple cité : le chatbot peut au départ renvoyer vers une ligne d’aide au suicide, mais changer d’attitude après plusieurs dizaines de messages, ce qui remet en question la solidité de ses protections intégrées.

L’ajout de contrôles parentaux et de garde-fous contextuels représente une avancée majeure, mais certains estiment que ces mesures arrivent trop tard.

Une évolution cruciale pour l’IA responsable

Ce drame marque un tournant dans la responsabilité éthique des entreprises d’IA. OpenAI semble prendre conscience des risques liés à l’usage de ses outils par les plus jeunes. Reste à voir comment ces nouvelles fonctionnalités seront mises en œuvre, et surtout, si elles seront suffisantes pour éviter d’autres tragédies.

Lire plus