fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Gemini sans pubs, ChatGPT avec pubs : Google et OpenAI dessinent deux visions opposées du chatbot

Gemini sans pubs, ChatGPT avec pubs : Google et OpenAI dessinent deux visions opposées du chatbot

À mesure que les assistants IA deviennent des « interfaces de confiance » — capables de conseiller, d’arbitrer et parfois d’agir —, la question de la monétisation n’est plus secondaire. Elle touche au cœur du produit. Et, à Davos, Google a choisi d’envoyer un message très clair : pas de publicité dans Gemini… pour l’instant, au moment même où OpenAI officialise l’arrivée de publicités dans ChatGPT.

Lors du World Economic Forum 2026 à Davos, Demis Hassabis (CEO de Google DeepMind) a expliqué qu’il n’y avait « aucun plan » pour intégrer des publicités dans Gemini à ce stade, tout en soulignant le risque de casser la confiance dans un assistant censé agir au nom de l’utilisateur.

Ce n’est pas un « one-off ». En décembre 2025 déjà, Dan Taylor, VP Global Ads chez Google, avait publiquement démenti un article affirmant que des pubs arriveraient dans Gemini en 2026, en rappelant qu’il n’y avait pas de pubs dans l’app Gemini et pas de plan actuel pour en ajouter.

Ce que fait OpenAI : des pubs… mais cadrées, testées et cantonnées à certains plans

De son côté, OpenAI a publié une note de cadrage : la société prévoit de tester des publicités aux États-Unis « dans les prochaines semaines », pour des adultes connectés, sur les offres Free et ChatGPT Go. Les annonces seraient affichées en bas des réponses, clairement étiquetées et séparées du contenu organique, avec la possibilité de comprendre pourquoi on voit une pub et de la masquer.

OpenAI a aussi récemment élargi ChatGPT Go à l’échelle mondiale (formule intermédiaire entre le gratuit et Plus), ce qui donne un sens économique au modèle « ads + abonnement abordable », sans toucher aux offres premium « sans pubs ».

La pub dans un assistant n’est pas la pub dans un moteur de recherche

Le point soulevé par Hassabis est central : dans la recherche, l’utilisateur formule une intention (« acheter X », « comparatif Y »), et la pub s’insère dans une logique transactionnelle. Dans un assistant, la frontière est plus floue : on demande un conseil, on délègue une décision, on s’appuie sur une recommandation — et la suspicion d’influence devient immédiatement toxique, même si la pub est « bien séparée ».

C’est probablement pour cela que Google temporise : Gemini est encore en phase d’installation (produit, usages, fiabilité), et la publicité est un amplificateur de méfiance si le socle n’est pas perçu comme solide. À l’inverse, OpenAI assume une stratégie de financement plus hybride, poussée par l’échelle d’usage (des centaines de millions d’utilisateurs) et le coût de l’infrastructure.

Une « guerre du confort » et de la confiance

À court terme, l’écart est limpide :

  • Gemini : pas de pubs annoncées « pour le moment », focus sur l’expérience et la confiance.
  • ChatGPT : arrivée progressive d’annonces sur les offres gratuites/abordables (Free + Go), avec un test d’abord limité aux États-Unis.

La suite dépendra d’une seule variable : la tolérance du public. Si les pubs restent rares, pertinentes, et réellement séparées de la réponse, OpenAI peut créer un précédent « acceptable ». Si elles deviennent intrusives, elles offriront à Google un argument marketing en or : l’assistant premium, c’est celui qui ne vous vend rien.

Lire plus
Intelligence Artificielle

OpenAI 2026 : Vers une facturation « au résultat » et l’arrivée de la pub dans ChatGPT

OpenAI 2026 : Vers une facturation « au résultat » et l'arrivée de la pub dans ChatGPT

OpenAI prépare un virage qui ressemble moins à une simple optimisation de revenus qu’à un changement de nature : passer d’un produit (ChatGPT) vendu en forfaits à une infrastructure d’intelligence monétisée de plusieurs façons.

En toile de fond : une réalité brutale, celle des coûts de calcul et d’une demande mondiale qui dépasse encore les capacités disponibles.

Une nouvelle doctrine : OpenAI gagne quand ses clients gagnent

Dans une prise de parole récente, la directrice financière Sarah Friar assume un futur où OpenAI pourrait être rémunéré au résultat, via des accords de licence, des « royalties » et des modèles indexés sur la valeur créée. L’exemple qu’elle cite — une entreprise pharmaceutique qui découvrirait un médicament grâce aux outils d’OpenAI, et reverserait une part des ventes — dit l’essentiel : l’IA ne serait plus facturée comme un simple service, mais comme un moteur de performance.

C’est une idée séduisante sur le papier : aligner les incitations, réduire la friction d’entrée (payer moins au départ), et faire d’OpenAI un partenaire de création de valeur plutôt qu’un fournisseur.

Mais, c’est aussi un terrain glissant : mesurer « le succès » (et la contribution exacte de l’IA) est complexe, surtout dans des chaînes décisionnelles longues et multi-acteurs.

Le « Rubik’s Cube » : une stratégie multi-modèles, par design

Friar décrit la stratégie comme un « Rubik’s Cube » : chaque face représente une combinaison différente entre technologie, produit, marché et tarification. Traduction : OpenAI ne veut plus dépendre d’un seul levier (l’abonnement), mais assembler licences, partage de revenus, crédits d’usage, offres entreprises… et, potentiellement, de la publicité.

Ce changement reflète aussi l’évolution de l’entreprise : davantage de produits, davantage de cas d’usage, davantage de partenaires d’infrastructure — et donc, davantage de manières de facturer sans casser l’adoption.

Publicité dans ChatGPT : le tabou devient un test encadré

Le signe le plus visible de cette diversification, c’est l’ouverture — prudente — à la pub dans ChatGPT. OpenAI indique vouloir tester des annonces auprès d’adultes connectés, sur les offres Free et ChatGPT Go, avec des emplacements clairement séparés des réponses, et des garanties : les annonces ne doivent pas influencer les réponses, et les conversations ne seraient pas vendues aux annonceurs.

Même ainsi, c’est un pari délicat. ChatGPT n’est pas un réseau social : c’est un outil que beaucoup utilisent pour travailler, apprendre, demander conseil — parfois sur des sujets sensibles. La pub peut financer l’accès, mais elle peut aussi fragiliser la confiance, surtout si l’écosystème glisse un jour vers une personnalisation agressive.

L’obsession compute : la croissance est bornée par la capacité, pas par la demande

L’autre pilier du récit, c’est que la monétisation suit la puissance disponible. Friar explique que la croissance est aujourd’hui fortement corrélée à l’expansion de la capacité de calcul, avec une accélération massive depuis 2023.

Et OpenAI sécurise ce nerf de la guerre à coups d’accords lourds : partenariat « Stargate » avec Oracle pour développer de nouvelles capacités de data centers, et plus récemment un accord rapporté autour de Cerebras pour acheter jusqu’à 750 MW de compute sur plusieurs années.

Dans la même logique, l’entreprise met en avant la multiplication des partenaires (clouds, puces) et la réduction d’une dépendance unique, afin de soutenir la montée en charge.

OpenAI se rapproche d’un modèle « électricité », avec des factures adaptées à chaque usage

Ce que prépare OpenAI, c’est une tarification qui colle à la maturité des usages :

  • Pour le grand public : freemium, abonnements, et possiblement pub pour subventionner l’accès à grande échelle.
  • Pour les entreprises : offres structurées, crédits, SLA… et demain des modèles « value-based » où l’IA est rémunérée comme un levier business.
  • Pour les secteurs à fort ROI (santé, science, automatisation) : des contrats où OpenAI peut prétendre à une part de la valeur créée, si l’IA devient un composant central du pipeline.

Le vrai tournant, c’est l’arrivée des agents : quand l’IA ne se contente plus de répondre, mais exécute des tâches, prend des décisions, déclenche des workflows. À ce moment-là, facturer « au mois » peut sembler trop simple — et facturer « à l’impact » devient tentant, autant pour OpenAI que pour ses clients.

OpenAI veut, en somme, que l’intelligence devienne une infrastructure fiable — et qu’elle se paie comme une infrastructure : selon la consommation, la criticité… ou la valeur produite.

Lire plus
Intelligence Artificielle

Siri « Campos » : Apple prépare un chatbot IA natif pour remplacer l’assistant actuel

Siri « Campos » : Apple prépare un chatbot IA natif pour remplacer l'assistant actuel

Siri pourrait bientôt changer de nature. D’après Mark Gurman (Bloomberg), Apple ne veut plus seulement « améliorer » son assistant vocal : la marque viserait une refonte complète pour en faire un chatbot IA natif, capable de répondre en conversation, à la voix comme au clavier, directement dans l’interface de l’iPhone et du Mac.

Siri n’évolue plus, il se réinvente

L’annonce — encore au stade de rapport — tombe à un moment où la comparaison avec ChatGPT, Gemini ou Claude est devenue inévitable. Selon Bloomberg, cette refonte remplacerait l’interface actuelle de Siri par une expérience de chat plus moderne, pensée pour des échanges plus longs et plus naturels.

Le projet porterait le nom de code « Campos » et serait prévu plus tard en 2026, avec un calendrier très « Apple » : présentation à la WWDC en juin, puis lancement en septembre en même temps que les nouveaux OS.

Un Siri à deux modes (parler + taper), et un socle Gemini « sur mesure »

Point clé : ce « Siri chatbot » serait distinct des fonctions de personnalisation IA que la firme doit activer « dans les prochains mois » (toujours selon Bloomberg). Autrement dit, Apple avancerait sur deux rails : une version de Siri plus personnelle, plus contextuelle (à court terme), puis un Siri chatbot nettement plus ambitieux (fin 2026).

Côté moteur, nous avons déjà eu la confirmation d’un partenariat pluriannuel avec Google : les prochains Apple Foundation Models seraient basés sur Gemini et l’infrastructure cloud de Google. Campos utiliserait une variante plus avancée de ce socle, avec des capacités censées « dépasser significativement » la personnalisation annoncée.

Apple choisit l’intégration, pas la course aux modèles

Le mouvement raconte une stratégie plus large : Apple semble vouloir gagner la bataille non pas par la taille brute de ses modèles, mais par l’intégration produit. En clair : moins « regardez notre IA », plus « elle est partout, sans effort ».

Le choix de Gemini, lui, ressemble à un compromis très Cupertino : accélérer (en s’adossant à un acteur majeur) tout en gardant la main sur l’expérience — et sur le récit autour de la confidentialité. Google souligne que ces modèles aideront à alimenter des fonctionnalités Apple Intelligence « y compris une itération de Siri plus personnalisée », tandis que Apple met prévoit que le traitement se fera sur l’appareil et son « Private Cloud Computing » pour rester aligné avec ses standards de privacy.

Il y a aussi une lecture concurrentielle : Apple se place en faiseur de rois entre les grandes IA plutôt qu’en challenger frontal sur l’infrastructure.

Ce que ça changerait pour les utilisateurs : Siri devient un « centre de commandes » conversationnel

Si cette refonte se confirme, le basculement le plus visible sera presque banal… et pourtant décisif : taper à Siri devient aussi naturel que lui parler. C’est un détail d’interface, mais c’est surtout un changement d’usage : on ne « lance » plus une commande, on discute avec un système.

Et c’est peut-être ça, l’ambition : faire de Siri non plus un bouton vocal, mais un compagnon de productivité, un moteur de synthèse et d’action, à la hauteur des chatbots qui ont redéfini les attentes depuis 2023.

Apple aurait déjà prévenu : iOS 27 et macOS 27 seraient très axés stabilité, avec Campos comme « principal ajout ». Une manière de dire que l’IA ne sera pas un gadget en surcouche, mais le cœur du millésime.

Lire plus
Intelligence Artificielle

TM Roh (Samsung) : « L’IA doit devenir une infrastructure invisible de notre quotidien »

TM Roh (Samsung) : « L'IA doit devenir une infrastructure invisible de notre quotidien »

Le président et CEO de Samsung,TM Roh, a partagé sa vision d’une intelligence artificielle capable de transformer nos habitudes sans jamais devenir envahissante. Pour lui, les technologies qui marquent vraiment une époque ne sont pas celles qui font le plus de bruit, mais celles qui s’intègrent naturellement au quotidien, jusqu’à devenir évidentes.

« Une bonne technologie est intuitive et ne demande pas d’intervention constante », a-t-il expliqué. Dans cette approche, l’IA ne doit pas chercher à se rendre spectaculaire : elle doit livrer des résultats cohérents, fiables, et s’imposer comme un socle invisible de la vie de tous les jours.

Quand l’innovation devient « infrastructure »

TM Roh a rappelé que les technologies transformatrices suivent souvent le même cycle : elles commencent comme des innovations chères, expérimentales, accompagnées d’un fort effet d’annonce. Puis, avec le temps, celles qui changent réellement la société deviennent plus simples, plus accessibles et plus largement utilisables. Il a évoqué la loi d’Amara : on surestime souvent l’impact à court terme d’une innovation, mais on sous-estime son influence à long terme.

Dans le cas de l’IA, la prise de conscience est déjà massive : selon lui, 86 % des utilisateurs mobiles interagissent avec elle d’une manière ou d’une autre.

Mais, l’enjeu n’est plus l’adoption « par curiosité » : c’est la confiance, et surtout l’utilité concrète.

L’IA doit comprendre, aider et rassurer

PourTM Roh, la valeur de l’IA ne réside pas dans la nouveauté, mais dans sa capacité à comprendre le contexte et l’intention de l’utilisateur, de façon constante et fiable. Cela impose des exigences fortes sur l’infrastructure et sur la manière dont l’IA est conçue.

Il a détaillé plusieurs domaines où l’IA doit exceller :

  • Compréhension du langage : l’IA doit gérer les dialectes, les accents, les expressions du quotidien et les contextes réels. Une erreur de compréhension peut avoir des conséquences tangibles, en particulier dans la traduction.
  • Accessibilité : sous-titres en temps réel, descriptions d’images, résumés simplifiés… Ces fonctions ne sont pas des « options », mais un socle pour garantir une compréhension stable et inclusive.
  • Confiance et sécurité : l’IA s’invite dans des zones intimes — messages, photos, finances, santé. Sans sentiment de contrôle, l’adoption restera fragile. La sécurité et la maîtrise des données doivent être non négociables.
  • Universalité et simplicité : pour être vraiment adoptée, l’IA doit être cohérente à travers les langues, les cultures et les appareils. « La meilleure IA reste souvent en arrière-plan », a-t-il souligné, en insistant sur l’intuitivité.
  • Performance fiable : rapidité, réactivité, et confidentialité « par défaut ». La transparence et le choix utilisateur sur les données deviennent des conditions essentielles de la confiance.

Vers une IA plus « agentique »

TM Roh a aussi évoqué l’arrivée d’une IA plus agentique : non plus seulement une IA qui répond, mais une IA qui exécute et mène des tâches à leur terme.

L’objectif affiché est de réduire la friction du quotidien : gérer des actions routinières, organiser des informations importantes, et simplifier des workflows, sans demander une supervision permanente.

Une promesse : l’IA comme infrastructure invisible

Pour l’avenir, il estime que la réussite de l’IA ne se mesurera ni aux benchmarks ni aux comparatifs techniques. Le vrai test sera fait d’instantanés du quotidien : ces moments où la technologie aide, discrètement, à se repérer, comprendre et agir plus facilement.

Son ambition : faire de l’IA une « infrastructure invisible » — fiable, accessible et digne de confiance — au service de la société, sans jamais exiger l’attention de l’utilisateur.

Pour Samsung, la trajectoire est claire : développer une IA pratique, inclusive et universellement bénéfique, afin que davantage de personnes puissent interagir avec la technologie, comprendre l’information et passer à l’action, simplement.

Lire plus
Intelligence Artificielle

ChatGPT devine votre âge : OpenAI déploie son IA « videuse » pour protéger les mineurs

ChatGPT devine votre âge : OpenAI déploie son IA « videuse » pour protéger les mineurs

L’IA conversationnelle est en train de devenir une interface du quotidien — et c’est précisément pour ça que la question de l’âge ne peut plus rester un simple champ « date de naissance » rempli au hasard. OpenAI vient d’activer un système de prédiction d’âge sur ChatGPT, capable d’estimer si un compte est probablement utilisé par un mineur… et d’ajuster l’expérience en conséquence.

Derrière ce changement, un message clair : l’ère des assistants « grand public » touche désormais à la gouvernance, entre sécurité des jeunes, conformité réglementaire et préparation d’un futur « mode adulte ».

ChatGPT : Une « prédiction d’âge » qui déclenche un mode plus protégé

OpenAI déploie un modèle qui évalue des signaux d’usage et de compte pour estimer si l’utilisateur a moins de 18 ans. Parmi les signaux cités : ancienneté du compte, habitudes d’utilisation (dont les horaires), patterns d’activité et — quand elle existe — l’info d’âge déclarée.

Si le système « pense » qu’un compte est probablement en dessous des 18 ans, ChatGPT bascule automatiquement vers une expérience plus encadrée, en limitant notamment l’accès à des contenus jugés sensibles.

OpenAI indique également que si l’âge est incertain, l’expérience peut « par défaut » devenir plus prudente — autrement dit : quand le doute existe, la plateforme choisit le mode le plus protecteur.

Les garde-fous : ce que ChatGPT restreint pour les comptes suspectés mineurs

Les protections annoncées ciblent explicitement plusieurs catégories :

  • violence graphique/gore
  • défis viraux susceptibles d’encourager des comportements risqués
  • roleplay sexuel, romantique ou violent
  • contenus liés à l’automutilation
  • contenus favorisant idéaux corporels extrêmes, régimes nocifs ou body shaming

Point important : OpenAI insiste sur le fait que les adolescents peuvent toujours utiliser ChatGPT « pour apprendre, créer, poser des questions », mais avec un traitement plus prudent de certains sujets.

Comment corriger une classification… via un selfie (Persona) ?

Forcément, l’angle qui fait réagir : que se passe-t-il si l’IA se trompe et vous classe « moins de 18 ans » ?

OpenAI propose une marche arrière : la vérification d’âge via Persona, un service tiers. Concrètement, l’utilisateur peut confirmer son âge dans les réglages ; la vérification se fait via selfie (selon les cas, potentiellement avec pièce d’identité, selon les marchés et politiques). OpenAI affirme ne pas recevoir directement le selfie/l’ID, et n’obtenir que l’info utile (date de naissance/résultat de vérification).

OpenAI ajoute aussi un détail intéressant : si vous vérifiez votre âge, la plateforme n’exécute plus la prédiction d’âge sur votre compte (logique : vous devenez « catégorisé » de manière stable).

Pourquoi maintenant : l’ombre d’un « mode adulte » et la pression réglementaire ?

Ce déploiement n’arrive pas dans le vide. Plusieurs sources relient cette mécanique à la préparation d’un « mode adulte » évoqué pour début 2026, qui nécessiterait un système robuste pour éviter qu’un mineur n’y accède.

Autre signal : le calendrier européen. OpenAI indique que l’activation dans l’UE arrivera « dans les prochaines semaines », ce qui suggère des contraintes spécifiques de conformité et de déploiement par région.

Et plus largement, l’industrie entière est poussée vers des mécanismes d’age assurance : la promesse d’IA toujours plus personnelle (et potentiellement plus « adulte » sur certains usages) rend l’âge… incontournable.

La ligne de crête entre protection utile et profilage par comportement

Sur le papier, l’idée a une élégance redoutable : au lieu de demander « quel âge as-tu ? » (et de récolter des mensonges), le système observe des signaux d’usage et applique un mode protecteur quand il faut.

Mais, c’est aussi là que les débats commencent :

  • Vie privée : même si OpenAI parle de « signaux » et encadre la vérification via un tiers, l’approche reste une forme d’inférence sur l’identité d’usage — et donc un sujet sensible pour la confiance.
  • Faux positifs/faux négatifs : un adulte « jeune » dans son style, ou un ado très « mature » dans ses usages, peut brouiller les cartes. OpenAI reconnaît implicitement que « aucun système n’est parfait » et prévoit une procédure de correction.
  • Design par défaut : le fait de « basculer vers plus de restrictions en cas d’incertitude » est cohérent côté sécurité, mais peut produire un effet frustrant pour certains adultes — surtout si la vérification devient la seule sortie confortable.

En réalité, OpenAI fait un pari : mieux vaut contrôler l’accès en amont (avec des garde-fous parfois trop stricts) que d’assumer le risque d’une IA qui laisserait passer des contenus sensibles à un public mineur — un risque juridique, mais aussi un risque réputationnel.

Concrètement, qu’est-ce que ça change pour vous ?

Si vous êtes adulte, vous pourriez ne rien voir… sauf si le modèle vous classe « probablement mineur », auquel cas vous basculez dans l’expérience protégée et devrez vérifier votre âge pour revenir à une expérience moins restreinte. Si vous avez moins de 18 ans, l’expérience devient plus encadrée sur certains sujets (violence graphique, roleplay sexuel/violent, etc.).

Et si vous êtes dans l’Union européenne, le déploiement est annoncé dans les prochaines semaines plutôt que « immédiat ».

Lire plus
Intelligence Artificielle

Claude Code d’Anthropic : Comment l’IA qui « vit » dans votre terminal change tout ?

Claude Code d'Anthropic : Comment l'IA qui « vit » dans votre terminal change tout ?

Anthropic n’essaie pas de vous vendre un énième autocompléteur. Avec Claude Code, l’idée est plus radicale : faire du CLI (et de quelques commandes bien choisies) un espace où l’IA peut raisonner, planifier, agir, puis revenir vers vous avec un résultat vérifiable.

Et, c’est précisément pour ça que l’outil fascine… autant qu’il inquiète.

Ce que Claude Code est vraiment (et ce qu’il n’est pas)

Claude Code se présente comme un agent de développement piloté depuis le terminal : vous lui donnez un objectif (« refactor ce module », « ajoute l’authentification », « répare ces tests »), il peut lire/éditer des fichiers, proposer un plan, exécuter une série d’étapes, et itérer.

L’expérience est pensée autour de commandes (dont des slash commands) et d’un mode « sous-agents » pour découper une tâche en sous-tâches.

Un point important : l’outil est adossé à l’écosystème Claude (plans selon formule, modèles disponibles, etc.). Les pages Anthropic indiquent l’accès à des modèles récents (par ex. Sonnet/Opus selon l’offre) et un partage de quotas entre Claude et Claude Code.

Screen 2026 01 20 at 09.45.18

Pourquoi ça buzz autant : l’« agentivité » appliquée au code

Ce qui change la perception, ce n’est pas « l’IA écrit du code » (on sait faire). C’est la persistance de session (continuité de travail), la capacité à lancer des sous-agents (planifier, vérifier, simplifier, documenter), et une logique de workflow où l’humain devient davantage chef d’orchestre que dactylo.

Boris Cherny (créateur de Claude Code) décrit une routine où les sous-agents servent à préparer, vérifier, nettoyer (PRs, commits, validations), tout en gardant l’exigence de test/contrôle.

Le frein (très) concret : les limites d’usage

Le revers de la médaille, c’est la réalité de l’infra : limites hebdomadaires/quotas, parfois ressenties comme abruptes par des utilisateurs intensifs. Anthropic documente l’existence de limites et le fait qu’elles peuvent concerner Claude Code dans les offres concernées..

Traduction : Claude Code peut donner l’impression d’un « collègue infatigable »… jusqu’au moment où le compteur vous rappelle que c’est un service à capacité finie.

Screen 2026 01 20 at 09.45.49 scaled

La meilleure grille de lecture : prototyper vite, produire prudemment

Boris Cherny met lui-même en garde contre le fantasme du « vibe coding » (coder à l’instinct avec l’IA) : excellent pour prototyper ou accélérer des tâches non critiques, risqué dès qu’on parle de maintenabilité et de production.

Donc, une règle simple marche très bien :

  • Claude Code pour aller vite (explorer, factoriser, générer des tests, proposer un plan, défricher)
  • vous pour verrouiller (revue, invariants, architecture, sécurité, perf, tests, observabilité)

Comment en tirer le meilleur (sans se faire piéger) ? Voici les pratiques qui « tiennent » dans la durée :

  1. Toujours exiger un plan avant d’exécuter : Un bon agent se juge d’abord à sa capacité à décomposer
  2. Faire du test une clause contractuelle : « Ajoute la feature + tests + passe la suite existante » (Et si ça casse : répare les tests avant de continuer.)
  3. Forcer la traçabilité : Demandez un récap clair : fichiers touchés, raisons, risques, TODO.
  4. Utiliser des sous-agents pour la vérification : Un agent « implémente », un autre « review », un autre « cherche les régressions »
  5. Traiter l’outil comme un junior très rapide : Capable d’exécuter à grande vitesse, pas forcément de juger le produit.

Faut-il s’attendre à un « nouveau modèle d’équipe » ?

Probablement, oui — surtout dans les phases amont (POC, migration ciblée). Mais, les limites d’usage et l’exigence de relecture gardent une barrière saine : l’outil augmente une équipe plus qu’il ne la remplace.

Et si vous cherchez le signal faible le plus parlant : quand le créateur de l’outil explique publiquement que la « vibe coding » n’est pas ce qu’il faut pour du logiciel durable, c’est qu’on est déjà entré dans l’ère où l’IA peut produire beaucoup… et où le différentiel se déplace vers la qualité d’ingénierie.

Lire plus
Intelligence Artificielle

OpenAI et Jony Ive : Le premier appareil IA officiellement attendu pour fin 2026 !

OpenAI et Jony Ive : Le premier appareil IA officiellement attendu pour fin 2026 !

Pendant des années, OpenAI a dominé l’imaginaire par le logiciel. Désormais, l’entreprise veut toucher le réel — littéralement — avec un premier appareil grand public en préparation aux côtés de Jony Ive. L’idée n’est pas de fabriquer « un nouveau téléphone », mais de proposer une interface plus calme, plus intuitive, presque anti-addictive.

Sauf qu’en 2026, construire un objet IA n’est pas seulement une question de design : c’est une bataille de confidentialité, de chaîne d’approvisionnement… et de crédibilité.

Pas « plus tard cette année », mais une trajectoire vers le second semestre 2026

Le signal le plus solide vient d’Axios : OpenAI vise un lancement de son premier device dans la seconde moitié de 2026, selon Chris Lehane (chief global affairs officer), qui a évoqué le sujet à Davos.

C’est une nuance importante par rapport à l’idée d’une sortie « plus tard cette année » : ce que l’on peut attendre en 2026, c’est plutôt une montée en visibilité (teasing, démonstration, détails produits), pas nécessairement une commercialisation immédiate partout.

Le cœur du projet, c’est l’intégration de io Products, Inc. (la structure cofondée autour de Jony Ive) dans l’orbite OpenAI. OpenAI l’a annoncé publiquement dans une lettre signée « Sam & Jony », confirmant que l’équipe d’io a fusionné avec OpenAI et que LoveFrom prend des responsabilités créatives élargies.

Et côté chiffres, Reuters rapporte un deal valorisé à 6,5 milliards de dollars, ce qui replace le hardware non pas comme un hobby, mais comme une stratégie centrale.

La « razzia » Apple : moins un coup de com’ qu’une nécessité industrielle

Les rumeurs de recrutement agressif d’anciens d’Apple ne sortent pas de nulle part : L’équipe « io » continue d’attirer des profils Apple, signe d’un effort sérieux sur l’industrialisation du produit.

Pourquoi c’est logique ? Parce qu’un objet IA « calme » demande exactement les compétences qu’Apple sait mieux que quiconque assembler : intégration hardware-software, capteurs, acoustique, batterie, miniaturisation, UX « sans friction ».

À quoi ressemblera l’appareil ? Les rumeurs se contredisent — et c’est révélateur

Il y a un point de friction majeur dans le paysage des fuites :

  • D’un côté, des articles parlent d’un wearable derrière l’oreille/type écouteur « toujours active »
  • D’un l’autre, des éléments issus de documents judiciaires autour d’un litige de marque (« io »), indiquent que le premier appareil de OpenAI ne serait pas un wearable ni un appareil in-ear, et qu’il ne sortirait pas avant 2026

Cette contradiction est presque rassurante : elle montre que le projet a pu explorer plusieurs formes avant de converger — ou que le marché confond encore prototypes et produit final. Le plus crédible aujourd’hui, c’est donc moins « un format précis » qu’une intention : un objet compact, possiblement sans écran, centré sur la voix et le contexte, conçu pour réduire le bruit numérique au lieu de l’amplifier.

Foxconn, sortie partielle de Chine : le hardware devient géopolitique

Autre indice que le projet est entré dans une phase « industrie » : plusieurs sources de la chaîne d’approvisionnement évoquent Foxconn comme partenaire de fabrication (avec un déplacement hors de Chine, vers le Vietnam ou les États-Unis). Ce n’est pas un détail : pour un appareil IA, la chaîne d’approvisionnement n’est plus seulement un sujet de coûts, mais de risques (contrôles des exports, tensions commerciales, souveraineté technologique).

Le « calme » est une promesse magnifique… et une pente glissante. Un appareil IA ambiant implique des questions immédiates : écoute et capture du contexte (micro, éventuellement caméra), traitement local vs cloud (latence, confidentialité, coût) et modèle économique (abonnement ? bundle ? intégration à ChatGPT ?).

Et, c’est précisément là que le duo Altman–Ive est attendu : Apple a gagné parce qu’il a su rendre l’informatique « invisible ». OpenAI devra prouver qu’il peut rendre l’IA invisible sans la rendre opaque.

Si OpenAI réussit, ce ne sera pas « un nouveau gadget » — ce sera une nouvelle grammaire

Ce projet ressemble de plus en plus à une tentative de définir un troisième objet dans nos vies : ni smartphone, ni laptop, mais un compagnon computationnel qui se déclenche quand il a une valeur réelle. OpenAI a l’IA. Jony Ive a le langage produit. Reste à inventer l’élément le plus rare : la confiance.

Et si l’appareil arrive vraiment au second semestre 2026, il ne faudra pas seulement juger ce qu’il fait… mais ce qu’il vous évite de faire.

Lire plus
Intelligence Artificielle

Gemini : Le nouveau bouton « Answer now » pour stopper les réflexions trop longues

Gemini : Le nouveau bouton « Answer now » pour stopper les réflexions trop longues

On reproche parfois aux humains de répondre trop vite. Les IA, elles, se font désormais critiquer pour l’inverse : elles « réfléchissent » longtemps — surtout quand vous activez des modes avancés. Google semble l’avoir entendu.

Dans l’app Gemini, un nouveau bouton « Answer now » apparaît pendant la génération de réponse : un raccourci pour court-circuiter la phase de « thinking » et obtenir une réponse plus rapidement, sans quitter le mode sélectionné.

Gemini : Un bouton de vitesse en plein milieu du raisonnement

Concrètement, le bouton « Answer now » s’affiche à côté de l’indicateur de chargement lorsque Gemini est en train de produire une réponse en Pro ou en Thinking. En appuyant dessus, l’interface affiche un message de confirmation du type « Skipping in-depth thinking », puis délivre la réponse plus vite.

Google précise que « Answer now » remplace le bouton « Skip » (au moins côté Android), signe que la fonctionnalité sort d’une phase de test pour s’installer comme une option standard.

Screen 2026 01 19 at 10.42.24

Android vs iOS : même idée, libellé différent

Le déploiement est un peu asymétrique :

  • Sur Android, on voit « Answer now » (et Google le présente comme le remplaçant du précédent bouton « Skip »).
  • Sur iOS, certaines versions affichent encore « Skip », mais le résultat est le même : la phase de réflexion approfondie est ignorée.

Autrement dit, Google unifie l’intention, même si le wording n’est pas encore parfaitement harmonisé entre plateformes.

Gemini ne bascule pas « en douce » vers un modèle plus léger

C’est la nuance qui compte — et qui évite une mauvaise surprise. Plusieurs sources rapportent que même quand vous appuyez sur « Answer now », Gemini continue d’utiliser le modèle/mode que vous aviez choisi (Pro ou Thinking) : il ne switcherait pas automatiquement vers un mode « Fast » plus léger.

En clair : vous ne changez pas d’IA, vous changez le temps qu’elle s’accorde avant de répondre.

Pourquoi Google fait ça maintenant : la guerre de la latence (et l’UX des « modes ») ?

Ce bouton raconte une évolution de fond : les assistants IA ne sont plus jugés seulement sur la qualité, mais sur la maîtrise du tempo. « Fast », « Thinking », « Pro »… Ces modes deviennent des contrôles éditoriaux autant que techniques.

Le problème, c’est que dans la vraie vie, une même session mélange tout : une question triviale (« rappelle-moi la règle ») et une question lourde (« résous ce bug, explique la perf, propose un refactor »). Sans « Answer now », l’utilisateur doit changer de mode à la main ou subir une latence inutile. Avec ce bouton, Google introduit une logique plus fluide : vous restez en mode puissant, mais vous avez un coupe-circuit quand la profondeur n’est pas nécessaire.

Google avait déjà commencé à installer cette grammaire du « raisonnement plus long » dans ses expériences Gemini (Deep Think / Thinking), avec l’idée que certaines réponses peuvent prendre « quelques minutes » lorsque l’outil travaille en profondeur. « Answer now » est, en quelque sorte, le contrepoids : le droit de dire « OK, pas besoin d’un essai, donne-moi l’essentiel ».

Une réponse plus rapide… mais potentiellement moins robuste

Le trade-off est simple : si Gemini « pense moins », il peut aussi vérifier moins d’hypothèses, explorer moins d’options, et corriger moins d’erreurs avant de répondre.

Sur une question factuelle ou une demande légère, ce n’est souvent pas grave. Sur du code, des maths, ou une décision délicate, ça peut l’être. D’ailleurs, Google insiste sur le fait que l’utilisateur peut voir, via le menu en fin de réponse, quel mode a été utilisé — une façon de rendre visible ce compromis.

Lire plus
Intelligence Artificielle

ChatGPT : Vos anciennes conversations deviennent des sources cliquables !

ChatGPT : Vos anciennes conversations deviennent des sources cliquables !

Pendant longtemps, la mémoire de ChatGPT a ressemblé à une promesse à moitié tenue : vos conversations étaient bien là, mais les retrouver — et surtout les réutiliser intelligemment — relevait parfois du hasard.

Depuis le 15 janvier 2026, OpenAI franchit un cap : ChatGPT peut désormais retrouver plus fiablement des détails précis dans vos anciennes discussions et les citer comme sources, à condition d’avoir activé l’option de référence à l’historique.

ChatGPT : Une « mémoire » plus utile, parce qu’elle devient vérifiable

Le changement le plus important n’est pas seulement la capacité à retrouver une info… c’est la traçabilité. Désormais, toute conversation passée utilisée pour répondre apparaît comme une « source » cliquable, que vous pouvez ouvrir pour vérifier le contexte d’origine. C’est une petite touche de design, mais une grande bascule de confiance : on passe du « crois-moi » au « regarde d’où ça vient ».

G xQ6GybQAQ8toY scaled

OpenAI précise aussi le périmètre : l’amélioration vise la recherche de détails dans vos discussions passées quand la fonction « Historique des chats » est activée, et elle est déployée globalement pour les abonnés Plus et Pro.

Ce que ça change au quotidien : moins de « recontextualisation », plus de continuité

L’intérêt, c’est la fin d’un rituel fatigant : recopier des morceaux d’anciens échanges, réexpliquer un projet, remettre les contraintes à plat. Dans les usages « réels » (recettes, programme sportif, brouillons d’articles, roadmap produit, suivi d’apprentissage), ChatGPT peut aller chercher la bonne brique… sans que vous ayez à fouiller manuellement. C’est précisément l’angle mis en avant par plusieurs retours presse autour de cette mise à jour.

À noter : la recherche manuelle dans l’historique (barre de recherche) existe déjà, mais OpenAI rappelle qu’elle fonctionne par mots-clés et correspondances — utile, mais pas toujours suffisante quand vos discussions se ressemblent.

ChatGPT suit — et rattrape — la trajectoire de Gemini

L’idée d’un assistant qui s’appuie sur vos conversations passées n’est pas nouvelle. Google a activé cette logique sur Gemini pour les abonnés Advanced dès février 2025, en mettant en avant une assistance plus « continue » (résumer, reprendre un fil, poursuivre un projet).

La différence, ici, c’est l’exécution « produit » : OpenAI insiste sur le fait que les discussions utilisées apparaissent comme sources consultables. Une manière de répondre à une critique structurelle des IA conversationnelles : leur capacité à « se souvenir » est puissante… mais peut vite devenir opaque.

L’enjeu stratégique : l’assistant devient un système, pas une session

Cette mise à jour arrive à un moment où OpenAI transforme ChatGPT en plateforme (plans, modèles, mémoire, connecteurs, recherche, désormais publicité). Quand un chatbot sait relier vos échanges, il cesse d’être un onglet : il devient une interface de travail.

Et, cela impose une condition non négociable : le contrôle utilisateur. Sur ce point, OpenAI rappelle via sa documentation que la mémoire dépend de réglages (mémoire activée + référence à l’historique), et que l’utilisateur garde la main sur ce qu’il laisse « persistant ».

La prochaine bataille est évidente : convaincre que cette continuité n’est pas une surveillance — mais un confort choisi.

Lire plus
Intelligence Artificielle

OpenAI brise le tabou : Les publicités débarquent dans ChatGPT

OpenAI brise le tabou : Les publicités débarquent dans ChatGPT

OpenAI vient d’officialiser ce que beaucoup pressentaient depuis des mois : ChatGPT va intégrer de la publicité. Le test démarre « dans les prochaines semaines » aux États-Unis, uniquement pour les utilisateurs connectés, adultes, sur les offres Free et Go — la nouvelle formule à 8 euros/mois désormais déployée mondialement.

Ce n’est pas un simple ajustement de revenus. C’est un changement de nature : ChatGPT cesse d’être uniquement un produit « outil + abonnement » pour devenir aussi une surface de monétisation, à la manière d’un moteur de recherche… mais conversationnel.

ChatGPT : Des pubs « au bas des réponses », clairement séparées

OpenAI insiste sur une intégration « propre » : les publications apparaîtront dans une zone distincte, au bas de la réponse, sous forme de produits/services sponsorisés jugés pertinents par rapport à la conversation en cours, elles seront clairement étiquetées et séparées de la réponse « organique », et les annonceurs n’influenceront pas le contenu des réponses, qui restera « optimisé pour être utile ».

OpenAI ajoute des contrôles côté utilisateur : possibilité de désactiver la personnalisation, effacer les données utilisées pour les pubs, masquer une annonce et donner du feedback.

OAI Ad Blog Inline AdMock1 16x9 1 scaled

Garde-fous : pas de publicités pour les mineurs, ni près des sujets sensibles

La société cherche à éviter la zone rouge dès le départ :

  • pas de pubs pour les moins de 18 ans (ou si OpenAI estime que l’utilisateur est mineur) ;
  • pas de pubs à proximité de sujets sensibles/régulés (notamment santé, santé mentale, politique).
  • promesse centrale : OpenAI affirme qu’elle ne vendra pas vos données aux annonceurs et qu’elle veut garder les conversations « privées » vis-à-vis de la pub.

Pourquoi maintenant : Go à 8 € et la pression des coûts

Le même jour, OpenAI déploie ChatGPT Go « partout où ChatGPT est disponible », à 8 euros/mois en France, en le positionnant entre le gratuit et Plus à 23 euros. Go promet 10× plus de messages/fichiers/images que le gratuit (sans chiffres précis), plus de mémoire et de contexte.

Reuters résume bien l’équation : ChatGPT est devenu une infrastructure massive, et OpenAI cherche de nouveaux relais de revenus pour soutenir l’expansion et la capacité, au-delà des abonnements.

L’angle stratégique : ChatGPT devient un « search intent » monétisable

Ce mouvement n’a rien d’anodin. La pub « contextuelle » au bas d’une réponse ressemble moins à une bannière qu’à un format d’intention, très proche de ce qui fait la puissance économique de la recherche : je veux acheter/réserver/choisir, et le produit se place dans le flux.

OpenAI le sait : l’entreprise a déjà laissé entendre qu’elle n’excluait pas la publicité, Nick Turley (head of ChatGPT) parlant d’une approche « réfléchi et de bon goût ». OpenAI promet une séparation stricte : les pubs n’influencent pas les réponses. Techniquement, c’est une ligne de défense. Psychologiquement, c’est un champ de mines.

Parce qu’une IA conversationnelle n’est pas un fil social : on lui confie des décisions, des doutes, des achats, parfois même des situations personnelles. La moindre impression que « le sponsor pousse le résultat » peut casser la magie utilitaire — même si l’annonce est reléguée en bas de page.

C’est pourquoi OpenAI semble calquer ses garde-fous sur une logique de « sécurité de contexte ».

Lire plus
Intelligence Artificielle

ChatGPT Go : l’abonnement à 8 euros d’OpenAI se déploie mondialement

ChatGPT Go : l'abonnement à 8 euros d'OpenAI se déploie mondialement

OpenAI vient de combler un trou béant dans sa grille tarifaire : entre un ChatGPT gratuit vite plafonné et un Plus à 23 euros pensé pour un usage intensif, il manquait une formule « quotidienne » accessible. ChatGPT Go remplit exactement ce rôle… révélant au passage un virage plus profond : l’IA grand public s’aligne désormais sur les logiques de streaming, avec une couche d’entrée de gamme qui assumera bientôt la publicité — au moins aux États-Unis.

Ce que ChatGPT Go change : plus de quotas, plus de mémoire, à prix « milieu de gamme »

Sur son blog, OpenAI présente Go comme une offre « low-cost » destinée à ceux qui veulent davantage d’accès au modèle rapide GPT-5.2 Instant, sans payer le ticket Plus.

Pour 8 euros/mois, ChatGPT Go promet :

  • 10× plus de messages, d’uploads et de générations d’images que le gratuit (sans détailler les chiffres exacts),
  • une mémoire plus longue et une fenêtre de contexte plus généreuse.

C’est volontairement flou sur les quantités : OpenAI communique des ratios plutôt que des quotas. La logique est claire, toutefois : ChatGPT Go vise les utilisateurs qui tapent régulièrement le plafond du gratuit (écriture, études, images, petites tâches pro), mais n’ont pas besoin du confort maximal de Plus.

OAI Go Blog ArtCard 1x1 copy

ChatGPT Go avait d’abord été lancé en Inde (août), avant d’être étendu à plus de 170 pays, puis aux États-Unis et au reste des marchés supportés avec cette sortie « globale ».

Petit détail intéressant : les pages d’aide d’OpenAI ne sont pas toutes synchronisées au même rythme selon la langue.

Le vrai tournant : la publicité arrive… même pour une offre payante

OpenAI confirme un point qui aurait semblé presque impensable il y a deux ans : des pubs dans ChatGPT, d’abord en test aux États-Unis pour les comptes adultes connectés en gratuit et en Go.

Le format annoncé est très « commerce discret » :

  • des annonces en bas des réponses, uniquement quand un produit/service sponsorisé est jugé pertinent,
  • clairement étiquetées et séparées du contenu,
  • avec possibilité d’expliquer « pourquoi je vois cette pub » et de la masquer/feedback.

OpenAI martèle aussi une ligne de défense : les abonnements Plus / Pro / Business / Enterprise restent sans publicité.

Screen 2026 01 16 at 20.54.46 scaled

ChatGPT Go est moins une « promo » qu’un nouveau modèle économique

ChatGPT Go n’est pas seulement un abonnement moins cher. C’est un pivot produit :

  • Un « palier » d’upgrade : OpenAI réduit l’écart psychologique entre 0 euros et 23 euros, et crée une marche à 8 euros pour capter la masse des utilisateurs réguliers.
  • Un modèle hybride : le message est limpide — si vous voulez plus de puissance sans payer trop, vous acceptez une forme de monétisation publicitaire (au moins aux États-Unis). C’est exactement ce que Netflix, Spotify ou YouTube ont normalisé.
  • Une réponse aux coûts : Reuters souligne la pression de rentabilisation et les coûts d’infrastructure, avec un test pub pensé comme relais de croissance.

La question qui va compter : l’expérience. ChatGPT a gagné sa place comme outil « propre », quasi utilitaire. Introduire des ads, même discrètes, change le ressenti. Wired et The Verge notent que l’enjeu sera de préserver la confiance : pertinence, transparence, et surtout séparation stricte entre pub et réponse.

Pour qui c’est pertinent, concrètement ?

  • ChatGPT Go : pour ceux qui atteignent souvent les limites du gratuit et veulent une marge confortable pour écrire, bosser, générer des images, sans viser le « no limit » premium.
  • ChatGPT Plus : pour ceux qui veulent une expérience plus « pro », plus stable, et sans pubs.
  • ChatGPT Gratuit : si vous utilisez ChatGPT de façon occasionnelle, le gratuit reste suffisant — avec l’idée qu’il deviendra progressivement la vitrine monétisée.

Ce que ChatGPT Go confirme, au fond : l’IA grand public entre dans une phase de maturité où le produit n’est plus seulement « le modèle », mais le packaging — quotas, mémoire, confort… et désormais, monétisation à plusieurs étages.

Lire plus
Intelligence Artificielle

OpenAI : Un appel d’offres massif pour fabriquer l’appareil de Jony Ive aux USA

OpenAI : Un appel d'offres massif pour fabriquer l'appareil de Jony Ive aux USA

OpenAI ne se contente plus de fournir un cerveau dans le cloud. L’entreprise veut désormais maîtriser une partie du corps — la chaîne industrielle — et elle vient de le dire beaucoup plus clairement qu’à l’accoutumée. Avec un nouvel appel à propositions (RFP) centré sur la fabrication américaine, OpenAI envoie un signal : ses ambitions matérielles (data centers, robotique, et surtout électronique grand public) entrent dans une phase où « dessiner » ne suffit plus. Il faut produire.

Dans un article publié le 15 janvier 2026, OpenAI officialise le lancement d’un RFP visant des partenaires capables de construire — ou prêts à construire — des capacités industrielles aux États-Unis, sur trois blocs : data centers, robotique, et consumer electronics.

Le document RFP (janvier 2026) est explicite sur le périmètre « consumer devices » : Final Assembly & Test, PCB assembly, outillage mécanique, modules électromécaniques, packaging & fulfillment, et même « advanced node silicon » et « displays & optics ». Il fixe aussi une mécanique de calendrier (propositions initiales jusqu’en juin 2026, sélection fournisseurs mars 2027).

OpenAI n’a (quasiment) qu’un seul projet « consumer » crédible… celui avec Jony Ive

OpenAI ne vend pas d’électronique grand public aujourd’hui. Or, depuis 2025, l’entreprise a officialisé sa collaboration avec Jony Ive (LoveFrom) et l’équipe io — désormais intégrée — pour imaginer une nouvelle catégorie de produit.

La presse a déjà cadré le concept : un appareil de poche, sans écran, « context-aware », pas des lunettes, et pensé pour éviter l’effet gadget façon Humane AI Pin.

Dans ce contexte, le passage du discours « design/vision » à un appel formel portant sur l’assemblage final et la fabrication de modules pour l’électronique grand public ressemble moins à une posture politique qu’à une étape industrielle : trouver qui, où, et comment fabriquer la première « machine OpenAI ».

« Made in USA » : stratégie industrielle, message politique… et protection contre les chocs de supply chain

OpenAI habille l’initiative d’un narratif de réindustrialisation et de « résilience », en soulignant que l’infrastructure IA ne se limite pas aux puces : elle dépend d’un écosystème de câblage, refroidissement, puissance, tests, assemblage.

Mais, l’équation est aussi géo-économique : fabriquer davantage aux États-Unis, c’est réduire l’exposition à certains risques (logistique, tensions commerciales, incertitudes tarifaires), tout en envoyant un signal aux pouvoirs publics sur les besoins en énergie, en permis, et en incitations industrielles.

Et, OpenAI a déjà un véhicule pour ce récit : Stargate, son grand programme d’infrastructure IA aux États-Unis, annoncé en 2025, puis étendu en 2025 avec de nouveaux sites et des objectifs de capacité massifs.

L’arrière-plan le plus révélateur : OpenAI ne veut plus « être le moteur » d’un autre

Cette poussée hardware arrive au moment où Apple vient de choisir Google (Gemini) comme base pour une nouvelle phase de Siri et d’Apple Intelligence (avec un rôle plus secondaire pour ChatGPT sur des requêtes opt-in).

Plusieurs analyses y voient un effet indirect : si OpenAI nourrit l’ambition de lancer ses propres appareils, devenir le « fournisseur principal » d’un écosystème concurrent (Apple) devient politiquement et stratégiquement plus délicat. Le Financial Times note d’ailleurs que l’ambition hardware d’OpenAI a pu peser dans l’équation des partenariats d’Apple.

En filigrane, le message est simple : OpenAI ne veut pas rester une couche logicielle interchangeable. Il veut une surface produit à lui — et une chaîne de production capable d’encaisser l’échelle.

La question n’est plus « à quoi il ressemble », mais « est-ce industrialisable ? »

Le cimetière des gadgets IA est déjà bien rempli, et le piège est connu : un bel objet conceptuel qui échoue à cause du coût, de la fiabilité, de l’autonomie, ou d’une chaîne d’assemblage trop fragile pour le volume.

Le RFP d’OpenAI, lui, parle déjà la langue du réel : qualité IPC Class 2/3, traçabilité (MES), cybersécurité, accès aux utilities, montée en cadence, et même l’usage de l’IA… dans la fabrication elle-même.

Autrement dit : le projet « io » passe potentiellement de la phase désir à la phase usine.

Lire plus
Intelligence Artificielle

Gemini 3 : Google sépare enfin les quotas des modèles Thinking et Pro !

Gemini 3 : Google sépare enfin les quotas des modèles Thinking et Pro !

Google vient de corriger un irritant très concret dans Gemini : les limites d’usage ne sont plus mutualisées entre les modèles « Thinking » et « Pro ». Jusqu’ici, chaque prompt « complexe » venait grignoter la même réserve que vos demandes de code ou de maths avancées.

Désormais, chaque modèle a son quota dédié, avec des plafonds revus à la hausse pour les abonnés.

Fin du « pool partagé », place aux quotas indépendants

Au lancement de Gemini 3, Google appliquait une logique simple (mais frustrante) : Thinking et Pro tiraient dans le même stock — 100 prompts/jour pour AI Pro, 500 prompts/jour pour AI Ultra. Résultat : une session de raisonnement « long » pouvait vous priver rapidement de marge pour coder ou résoudre des problèmes plus techniques.

La nouvelle règle : quotas séparés. Vous pouvez basculer d’un modèle à l’autre sans que l’un n’épuise l’autre.

D’après la page d’assistance Google (et confirmé par 9to5Google), les limites quotidiennes deviennent :

Google AI Pro :

  • Thinking : jusqu’à 300 prompts/jour
  • Pro : jusqu’à 100 prompts/jour

Google AI Ultra :

  • Thinking : jusqu’à 1 500 prompts/jour
  • Pro : jusqu’à 500 prompts/jour

Pour le gratuit, Google reste volontairement flou : les deux modèles sont indiqués en « Basic access – daily limits may change frequently » (accès basique, limites susceptibles de changer).

Screenshot of Googles support page showing Geminis updated usage limits

Pourquoi c’est important : moins d’arbitrage mental, plus de sessions longues

Ce changement a un effet immédiat : il retire la petite gymnastique mentale du « est-ce que je crame mes derniers prompts Pro si je lance un raisonnement lourd ? ».

En clair, Thinking redevient le mode « session longue/réflexion/planification », tandis que Pro redevient le mode « maths + code » sans risque d’être sacrifié par du raisonnement exploratoire.

Derrière l’ergonomie, il y a une logique industrielle : le coût de calcul n’est pas le même selon les modèles et les modes. En séparant les quotas, Google réduit la frustration des power users (et donc les appels à l’abonnement Ultra), limite les pics de charge mal « canalisés », et rend le sélecteur de modèles plus compréhensible (Fast/Thinking / Pro).

C’est aussi un signal : Gemini 3 est sous forte demande, et Google continue d’ajuster le gratuit de manière dynamique quand la charge augmente.

Lire plus
Intelligence Artificielle

Apple Intelligence : DeepMMSearch-R1, l’IA d’Apple apprend à chercher sur le Web comme un humain

Apple Intelligence : DeepMMSearch-R1, l'IA d'Apple apprend à chercher sur le Web comme un humain

Apple avance souvent sans paillettes et strass, mais ses publications de recherche racontent une trajectoire très claire : l’IA maison ne veut plus seulement « comprendre du texte », elle veut raisonner avec des images, en produire, et s’en servir pour chercher sur le Web comme un humain qui recadre, compare et affine.

Derrière l’étiquette Apple Intelligence, on voit émerger une nouvelle génération de modèles multimodaux pensée pour l’iPhone… et pour les serveurs.

L’IA d’Apple se joue sur deux terrains, l’appareil et le cloud privé

Apple a déjà cadré sa stratégie avec deux « piliers » techniques :

  • un modèle on-device d’environ 3 milliards de paramètres, optimisé pour Apple silicon (KV-cache sharing, etc.) ;
  • un modèle serveur basé sur une architecture Parallel-Track Mixture-of-Experts (PT-MoE), conçu pour Private Cloud Compute.

Ce socle n’est pas qu’un exercice académique : il sert à rendre l’IA utile et rapide sur iPhone/iPad/Mac, tout en gardant une voie « cloud » contrôlée quand la demande dépasse ce que l’appareil peut faire.

MANZANO : un modèle qui unifie compréhension visuelle et génération d’images

Le papier MANZANO vise un problème connu : beaucoup de systèmes multimodaux excellent soit en « vision-langage » (décrire/comprendre), soit en génération d’images… rarement les deux, sans compromis. MANZANO propose une approche unifiée via un hybrid vision tokenizer : des embeddings continus pour la compréhension, et des tokens discrets pour la génération, le tout dans un espace sémantique commun, avec un décodeur AR et un décodeur de diffusion pour rendre les pixels.

66373 139199 Screenshot 2026 01

Traduction produit : Apple cherche un modèle « couteau suisse » capable d’alterner analyse et création sans devoir assembler plusieurs briques disparates.

DeepMMSearch-R1 : la recherche Web « multitour » à partir d’images… et de recadrages

Autre signal fort : DeepMMSearch-R1, publié par Apple ML Research. Le modèle est conçu pour faire de la recherche Web multimodale : il peut lancer une recherche à partir de crops pertinents d’une image, puis itérer en ajustant ses requêtes texte au fil des résultats — avec des mécanismes de « self-reflection » et « self-correction » via un pipeline SFT puis RL en ligne.

66373 139197 Screenshot 2026 01 15 at 122750 AM cropped processed by imagy

Ce point est stratégique : l’usage quotidien, ce n’est pas seulement « décris cette photo », c’est « je veux retrouver ce truc dans l’image », « je veux acheter cet objet », « c’est quoi ce modèle ? » — et le recadrage est le geste naturel pour y arriver.

Faire tenir le multimodal dans une expérience Apple (et pas juste un benchmark)

Ce qui se dessine, c’est une IA multimodale à deux vitesses sur l’appareil, pour la latence, l’instantané, les usages privés et offline, et sur Private Cloud Compute, pour les requêtes lourdes et les outils.

Et en toile de fond, Apple a aussi officialisé une bascule d’ampleur : une collaboration pluriannuelle avec Google autour de Gemini et de technologies cloud pour la prochaine génération d’Apple Foundation Model, notamment pour une Siri plus personnalisée.

Ce partenariat ne contredit pas la R&D interne : il donne à Apple un « plancher » industriel pendant que ses équipes poussent des architectures maison et des briques multimodales plus spécifiques.

Ce que ça change, concrètement, pour l’iPhone (et pour la suite)

Si MANZANO et DeepMMSearch-R1 finissent par infuser dans les produits, on se dirige vers :

  • des Photos plus « intelligentes » (comprendre, retrouver, résumer une scène) ;
  • une recherche qui accepte enfin le langage naturel… et l’image comme requête ;
  • des outils créatifs où la génération n’est plus un gadget, mais un workflow.

Apple ne vendra probablement pas ces noms-là au public. Mais, la direction est limpide : l’avenir de l’IA « utile » sur smartphone passera par la capacité à voir, raisonner, chercher — et pas seulement à écrire.

Lire plus
Intelligence Artificielle

Galaxy AI : Samsung confirme la gratuité des fonctions de base (mais prépare une offre payante)

Galaxy AI : Samsung confirme la gratuité des fonctions de base (mais prépare une offre payante)

Pendant un an, Samsung a laissé planer un flou soigneusement calibré : Galaxy AI était « complémentaire jusqu’à fin 2025 », avec la possibilité d’une facturation ensuite.

Une formulation assez pratique pour vendre l’IA comme argument majeur… sans promettre qu’elle resterait un acquis. Cette semaine, la marque change de ton : les « fonctionnalités de base » Galaxy AI fournies par Samsung sont désormais annoncées comme gratuites, sans date de fin — mais la porte s’ouvre explicitement à des fonctionnalités « améliorées » payantes, et à des services tiers soumis à d’autres conditions.

Sur ses pages d’assistance, Samsung affiche maintenant noir sur blanc :

  • « Les fonctionnalités de base de Galaxy AI fournies par Samsung sont gratuites. »
  • « Les fonctionnalités d’IA améliorées par Samsung et les fonctionnalités d’IA tierces peuvent être payantes. »

C’est un basculement net par rapport à l’ancienne mention, encore visible sur d’autres pages Samsung internationales ces derniers mois, qui disait en substance : « gratuit jusqu’à fin 2025, un achat peut être requis après. »

« Fonctions de base » : Samsung publie (enfin) une définition opérationnelle

La subtilité, c’est que Samsung ne se contente pas de promettre : il définit ce qu’il considère comme « basic ». Android Authority rapporte que Samsung rattache ces fonctions à la section « Advanced intelligence » de ses Conditions, et liste notamment : Call Assist, Writing Assist, Photo Assist, Interpreter, Note Assist, Transcript Assist, Browsing Assist, Drawing Assist, Health Assist, Now Brief, Audio Eraser, etc.

En clair, l’essentiel de ce que les utilisateurs identifient aujourd’hui comme « Galaxy AI » côté Samsung resterait gratuit — et c’est précisément ce qui rassure.

La phrase la plus importante n’est pas celle qui rassure, c’est celle qui segmente :

  • « Samsung enhanced AI features » : Samsung se garde le droit de lancer des capacités plus avancées, potentiellement plus coûteuses (compute cloud, nouveaux modèles, nouveaux workflows), avec un accès payant.
  • « Third party AI features » : tout ce qui dépend d’un partenaire peut changer de conditions au fil des contrats. Android Authority cite par exemple Circle to Search comme fonctionnalité alimentée par Google, donc hors du périmètre « basic fourni par Samsung ».

C’est une logique industrielle : à mesure que l’IA devient plus « agentique », plus proactive, plus gourmande, le coût n’est plus marginal. La marque prépare donc un futur où l’IA embarquée est un socle… et l’IA premium, une option.

ZoQqSZuusYQskhmqgvDHAM

Samsung transforme l’IA en « plateforme », pas juste en argument de keynote

Ce changement ressemble à une clarification, mais c’est surtout un repositionnement. Samsung sécurise la confiance : personne n’a envie d’acheter un téléphone à 1 300 € et de découvrir que son « gros » argument devient payant un an plus tard, et Samsung se donne une rampe de monétisation : en sanctuarisant le « basic », la marque rend socialement acceptable l’arrivée d’un niveau « enhanced » — à condition qu’il apporte une vraie valeur (et pas un verrou artificiel).

La question n’est donc plus « Samsung va-t-il faire payer Galaxy AI ? », mais plutôt : qu’est-ce que Samsung estimera suffisamment « nouveau » et « coûteux » pour justifier un abonnement ? Et à quel prix, face à Google et ses propres offres payantes.

Lire plus