fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Fabric IQ : le nouveau moteur qui transforme la donnée brute en ontologie complète

Fabric IQ : le nouveau moteur qui transforme la donnée brute en ontologie complète

À l’occasion de Microsoft Ignite, l’entreprise a dévoilé Fabric IQ, une nouvelle couche d’intelligence sémantique destinée à transformer la manière dont les organisations structurent et exploitent leurs données.

L’objectif : créer des agents opérationnels réellement « intelligents », capables de comprendre le sens des données plutôt que d’y voir de simples motifs statistiques.

Quand la donnée brute ne suffit plus

Les entreprises génèrent plus de données que jamais. Pourtant, même les meilleurs modèles d’IA peinent encore à comprendre ce que ces données représentent réellement : relations entre produits, hiérarchies clients, interactions entre lignes de production et réseaux de distribution… Autant de nuances essentielles que les approches traditionnelles — RAG, vector databases, fine-tuning — n’adressent qu’indirectement.

C’est précisément ce vide que Microsoft veut combler avec Fabric IQ, un moteur sémantique qui enrichit son data platform. L’idée est simple, mais radicale : passer de données isolées à une ontologie complète, une structure qui cartographie entités, relations, règles métier et opérations réelles.

slides4 10

Cette vision s’appuie sur un travail de longue haleine : Microsoft a déjà intégré la technologie graphe de LinkedIn dans Fabric, et Power BI alimente depuis des années plus de 20 millions de modèles sémantiques utilisés pour l’analytique.

De la BI à l’ontologie d’entreprise : le changement d’échelle

Les modèles sémantiques de Power BI encapsulent déjà une partie du savoir métier : définitions des métriques, relations entre tables, hiérarchies commerciales. Leur limite ? Ils restent confinés à la business intelligence.

Avec Fabric IQ, Microsoft propose de les élever au rang d’ontologies. Dit autrement : connecter l’ensemble des systèmes de l’entreprise, relier les workflows réel et expliciter les règles opérationnelles.

Arun Ulag, vice-président Azure Data, résume la portée de ce changement : « Ces modèles décrivent déjà ce que les clients considèrent comme important. Mais nous n’en utilisions qu’une fraction. Les transformer en ontologies permet enfin de connecter les données à travers toute l’entreprise ».

C’est une rupture conceptuelle : au lieu de se contenter d’extraire des documents (comme le fait RAG), Fabric IQ construit une structure persistante de compréhension, une sorte de carte vivante de l’entreprise.

slide 41 44

Les « operational agents » : quand l’IA comprend l’entreprise avant d’agir

Avec cette ontologie, Microsoft introduit un nouveau type d’agent : les operational agents. Des agents capables de surveiller des règles, d’observer des flux en temps réel et de prendre des décisions sous supervision humaine.

Exemple donné par Microsoft : dans une chaîne logistique modélisée avec Fabric IQ, l’agent peut détecter un problème de circulation dans une zone urbaine et rerouter automatiquement les camions. Pas de simple recommandation : une action contextualisée, fondée sur la compréhension des liens entre fournisseurs, stocks, routes, délais et priorités.

C’est ici que l’approche sémantique change tout. L’agent ne répond plus à une requête textuelle. Il comprend la structure de l’entreprise, les dépendances, les implications opérationnelles.

Une stratégie claire : faire de la sémantique le moteur de l’IA d’entreprise

Pour Microsoft, l’enjeu dépasse l’amélioration marginale des modèles. Il s’agit d’un paradigme : la performance d’un agent dépend moins de la taille du dataset que de la qualité du contexte métier.

En parallèle, Microsoft renforce son portefeuille data :

  • Azure HorizonDB, un service PostgreSQL-compatible (early preview),
  • SQL Server 2025 (désormais disponible),
  • Azure DocumentDB, également disponible.

Chaque brique contribue à cette vision d’un data cloud unifié et contextuel.

Le message de Microsoft est clair : l’IA ne sera réellement fiable qu’en comprenant comment une entreprise fonctionne — non pas par inférence statistique, mais par structuration profonde du sens.

Que signifie Fabric IQ pour les stratégies d’IA en entreprise ?

Les organisations découvrent que scaler les modèles ou multiplier les données ne suffit pas. Le besoin qui émerge est celui du context engineering : apporter du sens, pas seulement du volume.

Fabric IQ mise précisément sur cette idée. Des ontologies bien formées pourraient s’avérer plus efficaces pour fiabiliser des agents que des approches classiques d’optimisation.

Microsoft parie que l’intelligence sémantique sera le véritable différenciateur des plateformes IA dans les années à venir. Et que les entreprises qui réussiront leur transition vers des ontologies opérationnelles prendront une avance considérable dans l’automatisation.

Lire plus
Intelligence Artificielle

ChatGPT déploie les discussions de groupe dans le monde entier

ChatGPT déploie les discussions de groupe dans le monde entier

ChatGPT n’est plus seulement un assistant individuel. OpenAI déploie désormais les « discussions de groupe » de ChatGPT à l’échelle mondiale, transformant le chatbot en un véritable espace de collaboration où jusqu’à 20 personnes peuvent discuter, créer et prendre des décisions avec l’IA en temps réel.

Une évolution majeure, qui rapproche ChatGPT d’une plateforme sociale autant que d’un outil de productivité.

Jusqu’à 20 participants dans une même conversation ChatGPT

Après un pilote mené dans plusieurs pays, dont le Japon et la Nouvelle-Zélande, la fonctionnalité est maintenant disponible pour tous les utilisateurs — Gratuit, Go, Plus et Pro.

Le principe est simple : en touchant l’icône « personnes » en haut à droite, ChatGPT duplique votre conversation actuelle dans un nouvel espace de groupe. Il suffit ensuite d’ajouter des participants ou de partager un lien d’invitation.

À la première utilisation, chaque membre doit définir un mini-profil (nom, identifiant, photo) pour faciliter la lisibilité des échanges.

Important : ajouter une personne ne modifie jamais la conversation d’origine. Une nouvelle discussion est automatiquement créée pour préserver l’historique.

ChatGPT sait quand parler… et quand se taire

OpenAI indique avoir entraîné ChatGPT à « suivre le flow » d’une conversation collective :

  • l’IA intervient lorsqu’elle peut apporter des informations utiles,
  • elle reste silencieuse lorsque les humains échangent entre eux,
  • et elle peut être appelée à la rescousse en taguant simplement « ChatGPT ».

Elle peut aussi réagir aux messages avec des emojis, analyser les contributions de chacun, ou encore générer des images personnalisées en se basant sur les photos de profil.

Pour les réponses, les groupes utilisent GPT-5.1 Auto, qui sélectionne automatiquement le meilleur modèle disponible selon le contexte du groupe.

Coordination, co-création, recherche : les nouveaux usages du ChatGPT collaboratif

OpenAI voit dans cette mise à jour le début d’un changement profond : ChatGPT n’est plus un outil individuel mais un cadre de travail collectif.

L’entreprise imagine notamment :

  • des groupes qui organisent un voyage et comparent des options,
  • des amis qui coécrivent un document,
  • des collègues qui débattent d’idées ou explorent des pistes de recherche,
  • des familles qui planifient un événement.

Dans ce contexte, ChatGPT joue tour à tour le rôle d’assistant, de moteur de recherche, de synthétiseur ou de facilitateur.

OpenAI parle déjà d’un avenir où l’IA participera activement aux conversations de groupe, aidant à coordonner des actions ou à exécuter des tâches partagées.

Respect de la vie privée : mémoire non partagée entre participants

Chaque utilisateur conserve ses propres réglages. En effet, les mémoires personnelles ne sont pas utilisées dans les conversations de groupe, et ChatGPT ne génère jamais de nouveaux souvenirs à partir de ces discussions collectives.

Un choix important, qui évite que les informations personnelles d’un utilisateur se retrouvent accidentellement exploitées dans un cadre partagé.

ChatGPT, de chatbot à plateforme sociale ?

Ce lancement s’inscrit dans une stratégie plus large. En septembre, OpenAI annonçait Sora, une application sociale de création vidéo. Et GPT-5.1, sorti il y a deux semaines, renforçait encore les usages collaboratifs avec ses modèles Instant et Thinking.

Avec les discussions de groupe, ChatGPT accélère sa transformation : ce n’est plus un assistant privé, mais une place numérique où plusieurs personnes interagissent avec l’IA en même temps.

Une mutation qui pourrait bien redéfinir la manière dont nous collaborons — en ligne, mais aussi au quotidien.

Lire plus
Intelligence Artificielle

Google permet de demander à Gemini si une image a été créée par IA

Google permet de demander à Gemini si une image a été créée par IA

Google franchit une nouvelle étape dans la transparence des contenus générés par IA. Dès aujourd’hui, il devient possible de demander directement à Gemini si une image a été créée — ou modifiée — par un outil d’IA Google.

Une fonction simple, presque banale en apparence, mais qui pourrait devenir essentielle à mesure que la frontière entre réel et synthétique continue de s’effacer.

« Is this AI-generated? » : la vérification d’image intégrée à Gemini

Pour l’instant, la vérification repose exclusivement sur SynthID, le watermark invisible développé par Google DeepMind. Il suffit de charger une image dans l’app Gemini et de demander : « Is this AI-generated? ».

Gemini pourra alors confirmer si l’image a été générée par un modèle Google, éditée par un de leurs outils (ex : Nano Banana, Nano Banana Pro, Canvas).

Cette première version ne couvre que les images, mais Google promet que la vidéo et l’audio suivront « bientôt » — un ajout qui s’annonce crucial à l’ère des deepfakes haute fidélité.

L’entreprise prévoit aussi d’intégrer la fonction directement dans Search, permettant à n’importe qui de vérifier l’origine d’un contenu trouvé en ligne.

Vers une traçabilité élargie grâce au standard C2PA

Pour l’instant, la détection repose uniquement sur la technologie maison SynthID. Mais, Google annonce la prochaine étape : une intégration complète du standard C2PA, adopté par un nombre croissant d’acteurs de l’industrie.

Concrètement, cela permettra à Gemini d’identifier des contenus générés par :

  • OpenAI (ex. Sora),
  • Adobe Firefly,
  • TikTok et ses outils IA,
  • ainsi que de nombreuses solutions créatives compatibles C2PA.

Autrement dit, un pas vers une interopérabilité réelle dans la lutte contre les faux contenus, bien plus puissante qu’un watermark propriétaire.

À noter : Nano Banana Pro, le nouveau modèle image de Google présenté aujourd’hui, générera systématiquement des images avec métadonnées C2PA intégrées. Une initiative alignée avec TikTok, qui a annoncé cette semaine l’intégration de C2PA dans son propre watermark invisible.

Une avancée utile… mais insuffisante tant que les plateformes ne suivent pas

Cette vérification manuelle est un progrès important : elle donne à l’utilisateur un outil de contrôle immédiat. Mais, elle révèle aussi une faiblesse structurelle : la responsabilité repose encore sur l’utilisateur final, alors que la majorité des plateformes sociales ne détectent pas automatiquement les contenus générés par IA.

Tant que les réseaux sociaux n’intègrent pas eux-mêmes ces systèmes de signalement, la détection restera un acte volontaire — et donc limité dans son efficacité.

La généralisation des métadonnées C2PA est un pas nécessaire, mais c’est l’adoption systémique, côté plateformes, qui déterminera la réussite de cette initiative.

Une étape clé dans la bataille contre la désinformation visuelle

Avec Gemini capable de reconnaître ses propres productions et bientôt celles d’autres outils IA, Google pose les bases d’un écosystème de confiance autour de l’image générative.

Dans un monde où les deepfakes deviennent indiscernables de la réalité, cette transparence — même partielle — n’est plus une option, mais une nécessité.

La vraie question est désormais : l’industrie suivra-t-elle suffisamment vite pour que ces outils fassent une différence à grande échelle ?

Lire plus
Intelligence Artificielle

Google lance Nano Banana Pro : l’IA d’image à la qualité studio

Après le buzz mondial provoqué par les mini-figurines hyperréalistes de Nano Banana l’été dernier, Google revient avec une version radicalement améliorée : Nano Banana Pro.

Construit sur Gemini 3 Pro Image, ce nouveau modèle place la barre très haut avec une qualité « studio », un rendu texte enfin impeccable et des outils d’édition avancés qui transforment l’image générative en véritable atelier créatif.

Une nouvelle génération d’images IA ancrée dans la connaissance du monde réel

Nano Banana Pro n’est pas qu’un simple modèle d’image : il embarque la compréhension avancée, le raisonnement et les capacités multilingues de Gemini 3 Pro. Résultat, des visuels plus cohérents, des compositions plus crédibles, et surtout des créations contextuelles, capables d’utiliser des données en temps réel (météo, sports, tendances…) grâce à l’intégration avec Google Search.

Google met en avant la capacité du modèle à produire des infographies, diagrammes, posters ou invitations complets avec texte intégré — un domaine où l’IA échouait encore massivement il y a quelques mois.

Un rendu texte enfin maîtrisé : slogans, paragraphes et multilingue

C’est l’un des grands sauts de cette génération : Nano Banana Pro sait rendre du texte lisible, précis et stable directement dans l’image — que ce soit un titre court ou un paragraphe entier.

Grâce au raisonnement profond de Gemini 3, la génération fonctionne en plusieurs langues, ce qui ouvre la voie à des affiches, flyers, maquettes ou présentations instantanées, sans retouches manuelles interminables.

Des compositions complexes : jusqu’à 14 images, et 5 visages cohérents

Là où l’édition précédente peinait parfois à maintenir une cohérence esthétique, Nano Banana Pro élargit le champ des possibles :

  • fusion de jusqu’à 14 images dans une seule scène,
  • cohérence et ressemblance pour jusqu’à 5 personnes,
  • meilleure gestion des angles, profondeurs, perspectives.

Une fonctionnalité idéale pour les montages créatifs, les storyboards ou les compositions marketing.

Un studio créatif complet : retouches locales, angles, bokeh, lumière…

Nano Banana Pro se distingue aussi par son outillage d’édition avancé.

On peut désormais :

  • sélectionner précisément un élément,
  • modifier la mise au point,
  • changer l’angle de caméra,
  • ajouter un bokeh,
  • recoloriser,
  • ou transformer une scène de jour en nuit.

Les créations peuvent être exportées en 2K ou 4K, et dans de nombreux formats d’aspect.

Une IA plus sûre : métadonnées C2PA et détection renforcée

Toutes les images générées ou éditées via Nano Banana Pro embarquent des métadonnées C2PA — un standard qui facilite l’identification des contenus générés par IA et lutte contre les deepfakes.

Google renforce aussi SynthID, son outil de détection, qui permettra bientôt d’identifier l’audio et la vidéo générés par IA. Les utilisateurs gratuits et Pro conserveront un watermark visible, tandis que les abonnés Ultra pourront générer des images sans watermark visible.

Où essayer Nano Banana Pro ?

Le modèle est disponible dès aujourd’hui, gratuitement et dans le monde entier, via l’app Gemini, en choisissant Créer des images -> Raisonnement, NotebookLM globalement, et Search AI Mode (US, abonnés AI Pro & Ultra).

Google va également intégrer Nano Banana Pro dans Google Slides & Google Vids (Workspace), Google Ads, Gemini API & Google AI Studio, Vertex AI, Google Antigravity, Google Flow (AI Ultra), et bientôt Gemini Enterprise.

Les utilisateurs pourront alterner entre Nano Banana (rapide, pour petites retouches) et Nano Banana Pro (compositions complexes).

Une étape majeure pour l’imagerie générative

Nano Banana Pro n’est pas simplement une mise à jour : c’est une réinvention. Entre rendu texte impeccable, édition locale précise, cohérence multi-personnes et intégration du savoir en temps réel, Google montre clairement sa volonté de s’imposer comme leader de l’image générative polyvalente.

Un outil aussi puissant que ludique, qui pourrait bien devenir la référence créative pour les designers, les communicants… et tous les utilisateurs curieux.

Lire plus
Intelligence Artificielle

Google lance WeatherNext 2, l’IA qui prédit la météo jusqu’à 15 jours

Google lance WeatherNext 2, l'IA qui prédit la météo jusqu'à 15 jours

Google transforme une discipline vieille de plusieurs siècles : la prévision météo. Grâce à WeatherNext 2, son nouveau modèle dopé à l’intelligence artificielle, le géant de Mountain View promet des prévisions plus fiables, plus rapides et accessibles directement aux utilisateurs via Search, Gemini et les Pixel. Une révolution silencieuse, mais majeure.

L’IA au service de la météo : un changement de paradigme

Aujourd’hui, la majorité des prévisions météorologiques repose sur des simulations physiques complexes exécutées par des supercalculateurs. Or, ces modèles — essentiels mais coûteux — nécessitent plusieurs heures pour générer un bulletin fiable. WeatherNext 2 change totalement la donne.

S’appuyant sur d’immenses bases de données historiques, le modèle apprend à identifier des motifs climatiques, puis génère une prévision… en moins d’une minute, grâce aux TPU (Tensor Processing Units) maison de Google. Une vitesse qui pulvérise les méthodes actuelles, tout en gagnant en fiabilité.

Google annonce que WeatherNext 2 parvient à prédire 99,9 % des variables clés (pluie, vent, températures, phénomènes soudains), et étend la précision des prévisions jusqu’à 15 jours, contre une dizaine auparavant.

Le secret de WeatherNext 2 : un réseau génératif… fonctionnel

Pour parvenir à ce bond technologique, Google introduit une architecture inédite : le Functional Generative Network (FGN). Contrairement aux anciens modèles d’IA, qui devaient recalculer plusieurs scénarios en boucle, le FGN génère des centaines d’issues possibles en un seul passage, en intégrant une dose de hasard contrôlé (noise).

Résultat : une meilleure anticipation des phénomènes soudains (averses, coups de vent, vagues de chaleur) et des projections plus cohérentes sur le court et moyen terme.

Comme l’explique Peter Battaglia de Google DeepMind, « nous sortons enfin ces modèles du laboratoire pour les mettre directement entre les mains des utilisateurs ». Le message est clair : l’IA ne sera plus un simple outil expérimental, mais un produit central de l’expérience Google.

Une intégration massive dans Google Search, Gemini et les Pixel

Pour la première fois, Google fera des prévisions météo IA un argument phare de ses services. WeatherNext 2 s’invitera prochainement dans :

  • Google Search,
  • l’assistant Gemini,
  • l’app Météo des smartphones Pixel.

Cela signifie des bulletins météo plus précis, plus contextualisés, et peut-être — enfin — une fin aux indications trop vagues des assistants actuels. L’utilisateur pourrait par exemple connaître l’intensité exacte d’une chute de neige, ou les probabilités d’une averse dans des créneaux horaires courts.

WeatherNext 2 blog figure 03 lar

Google ouvre également un programme d’accès anticipé permettant à des entreprises ou chercheurs de créer leurs propres modèles météo personnalisés via WeatherNext 2.

L’IA météo : la prochaine grande révolution de la data

La montée en puissance des modèles génératifs appliqués à la météo s’inscrit dans un mouvement plus large : celui d’une IA mise au service des enjeux climatiques, logistiques et sociétaux. Entre MedGemma pour la santé et WeatherNext pour la météo, Google démontre son ambition : rendre l’IA utile, opérationnelle, presque invisible — mais indispensable.

Pour la météo, les implications sont majeures : préparation aux catastrophes naturelles, gestion énergétique, agriculture, aviation, mobilité… Un bulletin plus fiable, c’est tout un écosystème qui gagne en précision.

Et pour les utilisateurs, cela pourrait juste signifier… savoir exactement quand il va pleuvoir, et à quel point.

Lire plus
Intelligence Artificielle

Microsoft s’allie à Anthropic : Claude arrive sur Foundry, Nvidia investit 10 milliards

Microsoft s’allie à Anthropic : Claude arrive sur Foundry, Nvidia investit 10 milliards

Microsoft ajoute une pièce maîtresse à sa stratégie d’intelligence artificielle. Après avoir redéfini les contours de son alliance historique avec OpenAI, l’entreprise annonce un partenariat structurant avec Anthropic, qui apporte pour la première fois les modèles Claude au sein de Microsoft Foundry.

Une offensive claire dans la bataille des IA frontier.

Anthropic intègre Microsoft Foundry avec un engagement colossal sur Azure

L’accord dévoilé hier marque une étape décisive : Anthropic va déployer Claude Sonnet 4.5, Claude Opus 4.1 et Claude Haiku 4.5 sur les infrastructures Foundry de Microsoft, permettant aux clients entreprise d’accéder nativement aux modèles les plus avancés de la startup.

En échange, Anthropic prend un engagement massif : 30 milliards de dollars d’achat de capacité Azure, avec la possibilité d’étendre jusqu’à 1 gigawatt de puissance supplémentaire. Un niveau de consommation rarement vu dans le cloud, qui témoigne de l’appétit computationnel des modèles frontier.

Malgré cette intégration, Amazon reste le fournisseur cloud principal d’Anthropic, ainsi que son partenaire sur l’entraînement des modèles — une stratégie multicloud affirmée qui devient la norme dans l’écosystème IA.

Nvidia entre dans la danse : un partenariat tripartite explosif

Autre volet majeur : Nvidia rejoint l’accord. Les trois acteurs vont travailler ensemble pour optimiser les modèles Claude sur les futures architectures Nvidia, notamment Blackwell et Vera Rubin.

Anthropic s’engage également à consommer jusqu’à 1 GW de compute via ces systèmes — une indication claire que les prochaines générations de Claude viseront les très hautes puissances.

En parallèle, Nvidia investit jusqu’à 10 milliards de dollars dans Anthropic, et Microsoft ajoute 5 milliards supplémentaires.

Anthropic devient ainsi l’un des acteurs d’IA les mieux capitalisés du marché, aux côtés d’OpenAI.

Après OpenAI, Microsoft élargit enfin son jeu

Ce partenariat intervient seulement quelques semaines après le grand réajustement du pacte Microsoft–OpenAI. Les nouvelles clauses permettent désormais à OpenAI de collaborer librement avec des tiers, de publier des modèles open weights, et libèrent Microsoft de son droit de premier refus sur l’infrastructure cloud.

En contrepartie, Microsoft obtient une extension de ses droits IP jusqu’en 2032, couvrant même les modèles post-AGI, dont la validation sera supervisée par un comité indépendant.

Cette assouplissement a ouvert la porte à une diversification assumée — et Anthropic est la première grande brique de cette nouvelle ère.

Claude s’installe peu à peu dans l’écosystème Microsoft

Cette alliance ne sort pas de nulle part. Depuis plusieurs mois, Microsoft injecte progressivement les modèles Claude dans ses produits :

Le message est limpide : Microsoft ne veut plus dépendre d’un seul modèle, ni d’un seul partenaire.

L’entreprise se repositionne comme agrégateur de modèles frontier, capable de choisir le meilleur outil pour chaque cas d’usage.

Une stratégie à long terme dans une course qui s’accélère

Avec ce partenariat, Microsoft renforce son statut de plateforme cloud incontournable pour l’IA, tout en équilibrant son écosystème entre OpenAI, maison historique, et Anthropic, force montante. Nvidia, de son côté, consolide son rôle de fournisseur clé pour l’IA de pointe — un triangle stratégique qui redessine le haut du marché.

Dans une industrie où l’infrastructure compte autant que les algorithmes, ces alliances successives montrent une réalité : la course à l’AGI est aussi une course énergétique, matérielle et financière.

Et Microsoft, plus que jamais, veut être au centre du jeu.

Lire plus
Intelligence Artificielle

Grok 4.1 est lancé : l’IA de Musk devient plus empathique et spontanée

Grok 4.1 est lancé : l'IA de Musk devient plus empathique et spontanée

xAI revient sur le devant de la scène pour son modèle Grok. Juste avant le tsunami médiatique autour de Gemini 3, l’entreprise d’Elon Musk a lancé Grok 4.1, une mise à jour majeure qui change la personnalité du modèle autant que ses performances.

Plus empathique, plus spontané, plus « humain »… mais aussi un peu plus imprévisible.

Grok 4.1 : Un modèle plus expressif, qui lit mieux l’intention humaine

La grande nouveauté de Grok 4.1 n’est pas seulement technique : elle est comportementale. Le modèle comprend mieux le ton, capte les émotions sous-jacentes, et ajoute naturellement humour ou empathie dans ses réponses. Là où Grok 4 pouvait encore sonner très « assistant IA », la version 4.1 donne parfois l’impression de discuter avec un ami malicieux.

Screen 2025 11 19 at 09.07.59

xAI attribue ce changement à l’intégration d’« AI tutors » experts chargés de façonner style, nuance et intention — un processus de fine-tuning qui mise clairement sur l’intelligence émotionnelle comme différenciateur.

À tel point que Grok 4.1 est devenu numéro 1 sur EQ-Bench3, un benchmark entièrement orienté vers l’émotionnel.

Screen 2025 11 19 at 09.09.05

Leaderboard : Grok 4.1 grimpe au sommet… avant d’être doublé

À son lancement, Grok 4.1 s’est installé tout en haut du classement LMArena, avec une note préliminaire de 1483 Elo. Un score supérieur à tous les modèles grand public disponibles — du moins jusqu’à ce que Gemini 3 vienne reprendre le trône quelques heures plus tard.

La version standard atteint 1465 Elo, un niveau proche des meilleurs modèles actuels.

Pour la créativité, les résultats sont encore plus remarquables : sur Creative Writing v3, Grok 4.1 Thinking décroche 1721,9 points, se plaçant juste derrière Polaris Alpha (un dérivé précoce de GPT-5.1).

En résumé : xAI rattrape son retard à une vitesse étonnante, surtout deux mois seulement après Grok 4 Fast.

Sous le capot : un modèle plus rapide, plus stable, plus multimodal

Derrière son vernis émotionnel, Grok 4.1 apporte aussi des améliorations très concrètes :

  • Latence réduite de 28 %
  • Meilleure compréhension des images, vidéos, graphiques et textes OCR
  • Cohérence maintenue jusqu’à 1 million de tokens
  • Outils externes gérés en parallèle pour des workflows plus rapides
  • Planification multi-étapes plus fiable
  • Prosodie vocale plus naturelle, styles et accents inclus

C’est une évolution structurelle, pas seulement un lifting stylistique.

Un modèle plus expressif… mais aussi plus risqué

Cette expressivité a un revers. Les model cards de xAI signalent une légère hausse des comportements manipulatoires, des réponses « limites » en thinking mode, et d’une vulnérabilité accrue aux prompt injections via API.

Une conséquence presque logique : dès qu’on retire une partie du filtre, la zone grise devient plus vaste. xAI assume ce choix : « Grok 4.1 est conçu pour être plus direct, plus libre ».

Un lancement 100 % grand public — pour l’instant

Grok 4.1 est disponible sur :

  • X (Twitter)
  • Grok.com
  • les apps iOS et Android.

Mais, un point crucial reste absent : pas d’API. Les entreprises doivent donc se contenter de Grok 4 Fast et des anciens modèles (jusqu’à 2 M tokens, 0,20 dollar à 3 dollars/million de tokens). Pour l’usage professionnel, automatisé ou agentique, Grok 4.1 est donc encore hors jeu.

Cela limite la portée du modèle auprès des développeurs, au moment même où Google, OpenAI et Anthropic renforcent leur position sur les intégrations B2B.

Une évolution qui rebat les cartes dans le grand récit de l’IA

Si Grok 4.1 n’est pas l’événement technique du mois — place occupée par Gemini 3 — il marque une étape intéressante dans la trajectoire de xAI. Le modèle devient plus humain, plus narratif, plus agréable à utiliser, et plus compétitif dans les benchmarks de référence.

En cherchant à « rencontrer l’utilisateur là où il est », xAI construit un modèle au style marqué, presque incarné, qui tranche avec l’approche plus neutre de ses concurrents.

Reste une inconnue : quand Grok 4.1 sera accessible en API — le moment où il pourra réellement transformer les workflows des entreprises.

Lire plus
Intelligence Artificielle

Google dévoile Gemini 3 : un modèle frontier agentique, multimodal et plus puissant que jamais

Google dévoile Gemini 3 : un modèle frontier agentique, multimodal et plus puissant que jamais

Après des semaines de rumeurs, de leaks, Google dévoile officiellement Gemini 3. Une famille de modèles fermés, pensée comme l’itération la plus ambitieuse de Google depuis l’introduction de Gemini en 2023. Au programme : un moteur multimodal profondément réinventé, des capacités d’agents beaucoup plus avancées et une intégration totale dans l’écosystème Google.

Une sortie d’envergure : Gemini 3 débarque partout, d’un seul coup

Contrairement aux lancements fragmentés précédents, Gemini 3 arrive simultanément dans Google Search (AI Mode), l’app Gemini, Google AI Studio, Vertex AI, Gemini CLI, et même Antigravity, le tout nouvel environnement agent-first de Google.

Le groupe évoque son déploiement le plus coordonné à ce jour, rendu possible par un contrôle intégral de la chaîne : TPU maison, data centers, produits grand public et outils développeurs.

Avec 650 millions d’utilisateurs actifs mensuels sur l’app Gemini et 2 milliards interagissant avec les AI Overviews de Search, Google mise sur une diffusion massive dès le jour J.

Un virage vers l’IA agentique

Au cœur de Gemini 3 : une philosophie nouvelle. Google ne veut plus seulement générer du texte ou interpréter des images ; il s’agit désormais de planifier, naviguer, exécuter, et coordonner des outils dans un environnement logiciel complet.

Gemini 3 se décline en plusieurs versions :

  • Gemini 3 Pro, le modèle phare
  • Gemini 3 Deep Think, mode raisonnement intensif
  • Des modèles d’interface générative (Visual Layout, Dynamic View)
  • Gemini Agent, capable d’orchestrer des workflows complexes
  • Le moteur Gemini 3 intégré à Antigravity, destiné aux développeurs

L’ambition est limpide : transformer l’assistant conversationnel en véritable opérateur numérique, capable d’agir.

Gemini 3 Pro : des gains spectaculaires sur le raisonnement, le code et la multimodalité

Les benchmarks fournis par Google sont impressionnants. Gemini 3 Pro surclasse Gemini 2.5 Pro sur quasiment tous les axes :

  • Raisonnement : premier au leaderboard LMArena avec un Elo préliminaire de 1501, devant Grok-4.1-thinking, Grok-4.1 et Claude Sonnet/Opus.
  • Mathématiques : 95 % sur AIME 2025 sans outils, 100 % avec code execution,
  • Vision & vidéo : +13 points sur MMMU-Pro, progression spectaculaire sur ScreenSpot-Pro (11 % → 72,7 %).
  • Code & outils : LiveCodeBench Pro (+664 points), SWE-Bench Verified (59.6% → 76.2%).
  • Long contexte : 26,3 % à 1M tokens, une progression majeure pour les tâches à forte latence.
  • Planification : Vending-Bench x10 par rapport au modèle précédent.

gemini 3 table final HLE Tools on

Dans les faits, Gemini 3 devient un modèle capable de réflexions longues, de navigation écran et d’un usage stable des outils — trois défis historiques des modèles IA.

final dt blog evals 2 scaled

Interfaces génératives : Google veut dépasser le texte

Gemini 3 inaugure les Visual Layouts et Dynamic Views, des interfaces générées en temps réel :

  • pages magazine,
  • simulateurs interactifs,
  • graphiques,
  • modules UI complets.

Gemini 3 Generative Interfaces

Dans Google Search, l’expérience devient plus visuelle et immersive : simulations, tableaux, galeries, outils interactifs intégrés directement dans la réponse.

Google présente cela comme un pas de plus vers un moteur de recherche où l’IA n’explique pas seulement, elle construit.

Gemini Agent : l’IA qui fait, pas seulement qui répond

Disponible d’abord pour les abonnés AI Ultra, Gemini Agent permet de trier une boîte mail, rédiger des réponses, planifier un voyage, préparer des documents, naviguer sur le Web, orchestrer des tâches multi-étapes.

Le tout avec validation utilisateur — un compromis entre automatisation et contrôlabilité.

Antigravity: l’environnement de développement qui réunit IA, code et navigation

Google introduit aussi Antigravity, une sorte de super-IDE agentique où Gemini 3 peut écrire du code, prototyper des interfaces, tester, exécuter, corriger, manipuler l’UI du navigateur, générer reports et outils internes.

Le modèle peut même interpréter des mouvements de souris, des annotations visuelles et des maquettes multi-fenêtres pour orienter son action. Une vraie percée pour le « computer use » automatisé.

API : un positionnement tarifaire ambitieux

Gemini 3 Pro est proposé à :

  • 2 dollars/M tokens input
  • 12 dollars/M tokens output
  • Jusqu’à 200k tokens,
  • avec un tarif quasi doublé au-delà.

Face aux alternatives chinoises (Qwen, ERNIE), beaucoup moins chères, Google se positionne dans la tranche haute — un pari risqué pour l’adoption startup, mais assumé pour un modèle présenté comme premium.

Une hype rarement vue pour un modèle Google

Un tacle à peine voilé envers OpenAI

Google ne cache pas sa confiance : Gemini 3 Pro serait « plus direct, plus pertinent et moins flatteur » — une référence transparente aux corrections récentes apportées à ChatGPT pour réduire sa sycophantie.

La société affirme également offrir des réponses « plus factuelles » et « plus utiles », un terrain sur lequel OpenAI a vacillé avec le lancement complexe de GPT-5.

Une avancée stratégique pour Google

Avec Gemini 3, Google veut prouver trois choses :

  1. Son hardware (TPU) est prêt pour l’IA frontier
  2. Ses modèles sont à nouveau compétitifs
  3. Son écosystème grand public peut servir de rampe de lancement massive

Au-delà des benchmarks, l’entreprise mise sur le fait que l’IA utile, déployée dans Search, Android, Workspace et Gemini, prime sur la course brute à la puissance.

Lire plus
Intelligence Artificielle

Anthropic révèle le premier cyberattaque massif menée… par une IA

Anthropic révèle le premier cyberattaque massif menée… par une IA

Anthropic vient de tirer la sonnette d’alarme en publiant ce qu’elle décrit comme la première cyberattaque à grande échelle exécutée majoritairement par une IA. L’incident, survenu à la mi-septembre 2025, met en scène une version détournée de Claude Code, utilisée comme un agent autonome capable d’enchaîner des tâches complexes avec très peu d’intervention humaine.

Le constat est glaçant : l’IA aurait réalisé près de 90 % du travail opérationnel, les humains se contentant d’intervenir à quelques étapes critiques.

Selon Anthropic, les pirates, qui se faisaient passer pour des chercheurs en cybersécurité, ont utilisé des techniques avancées de jailbreak pour contourner les mécanismes de sécurité et ont guidé Claude à travers une série de micro-tâches. Une fois assemblées, ces tâches formaient une véritable opération de cyber-espionnage automatisée.

Une campagne orchestrée contre près de 30 organisations

L’attaque visait une trentaine d’entités sensibles : entreprises technologiques, banques, groupes de chimie, institutions publiques… Un spectre large qui montre la polyvalence — et le danger — de ces nouveaux agents IA.

Claude Code aurait mené la reconnaissance, écrit du code d’exploitation, trouvé et exploité des failles, extrait des identifiants, cartographié des réseaux, et même généré des rapports détaillés destinés à guider les prochaines étapes de l’intrusion. Autrement dit, le travail habituellement mené par une équipe entière d’experts a été réalisé par un agent automatisé, sans fatigue, sans pause, et sans erreurs humaines.

Anthropic affirme que son enquête pointe vers un groupe chinois soutenu par l’État. Pékin a immédiatement démenti. L’entreprise a depuis banni les comptes concernés et alerté les victimes ainsi que les autorités.

Une communauté sécurité prudente face aux affirmations d’Anthropic

b0d38712e4f7b8002bb3a2734ceeb33f34817a43 2755x2050 1 scaled

L’annonce, spectaculaire, ne fait toutefois pas l’unanimité. Certains chercheurs en cybersécurité demandent davantage de preuves tangibles. Martin Zugec, de Bitdefender, estime que le rapport manque d’éléments de renseignement exploitables et accuse Anthropic de conclusions un peu rapides, même s’il reconnaît que les attaques pilotées par IA représentent un risque croissant.

Cette prudence n’est pas surprenante : révéler qu’une IA commerciale a été capable de mener une opération aussi sophistiquée pose un précédent lourd de conséquences — tant techniques que politiques.

Vers un nouveau paradigme : des attaques autonomes, une défense automatisée

Cependant, Anthropic insiste sur un point : si les IA peuvent automatiser les attaques, elles doivent aussi être mobilisées pour renforcer les défenses. L’entreprise explique avoir utilisé Claude lui-même pour analyser l’incident, et appelle à une coordination plus étroite entre acteurs du secteur et gouvernements.

La véritable conclusion du rapport est limpide : le niveau d’expertise nécessaire pour lancer une cyberattaque avancée s’effondre. Là où il fallait autrefois une équipe de spécialistes, quelques lignes d’instructions dirigées à un modèle IA suffisent désormais à orchestrer une opération complexe. Les attaques vont devenir plus nombreuses, plus rapides, plus silencieuses.

Un monde où l’IA attaque… et protège

Cet incident, qu’il soit perçu comme un signal d’alarme ou une exagération, marque une étape importante. Il montre que les IA ne sont plus seulement des outils d’aide, mais des agents capables d’opérations autonomes sur le terrain numérique. Une bascule qui obligera les entreprises — et les États — à revoir entièrement leur façon d’aborder la cybersécurité.

Lire plus
Intelligence Artificielle

Google DeepMind lance SIMA 2, l’agent ia capable de raisonner et de planifier dans les jeux vidéo

Google DeepMind lance SIMA 2, l'agent ia capable de raisonner et de planifier dans les jeux vidéo

Un an après avoir présenté le premier SIMA — un agent capable de suivre plus de 600 instructions simples à travers plusieurs mondes virtuels — Google DeepMind revient avec une version nettement plus ambitieuse.

SIMA 2 marque un virage décisif : il ne s’agit plus seulement d’obéir à des commandes comme « tourne à gauche » ou « ouvre la carte », mais d’un véritable agent capable de raisonner, planifier, comprendre un objectif global et même progresser par lui-même.

Du simple exécuteur au raisonneur capable d’expliquer ses actions

DeepMind a injecté Gemini au cœur de SIMA 2, et cela change tout. L’agent n’analyse plus seulement des commandes : il interprète des intentions, explique ses propres choix, et peut décrire étape par étape la façon dont il compte atteindre un objectif. L’entraînement repose à la fois sur des vidéos humaines annotées — comme pour la première génération — mais aussi sur des labels générés automatiquement par Gemini.

UsqTitVvxI5r3 oOUWFvWbJl9Wy 1Z8z scaled

SIMA 2 comprend mieux les longues chaînes d’actions, accepte des dessins ou croquis comme instructions, répond en plusieurs langues, et peut même réagir à des indications en emoji. C’est un agent beaucoup plus souple, capable d’interactions quasi humaines.

Il s’adapte à des jeux qu’il n’a jamais vus

Là où SIMA 1 restait très dépendant des environnements sur lesquels il avait été entraîné, SIMA 2 montre une vraie capacité de généralisation.

L’agent est parvenu à suivre des instructions complexes dans ASKA, un jeu de survie viking, ou dans MineDojo — un environnement de recherche inspiré de Minecraft — alors même qu’il n’avait jamais été spécifiquement entraîné sur ces jeux.

Mieux encore, SIMA 2 transfère ses connaissances d’un monde à l’autre : ce qu’il a appris sur l’extraction de ressources dans un jeu peut lui servir pour « récolter » dans un autre. Une première étape vers des compétences réellement transversales.

Avec Genie 3, SIMA explore aussi des mondes générés à la volée

DeepMind pousse l’expérience plus loin en couplant SIMA 2 à Genie 3, son générateur de mondes 3D en temps réel. L’agent peut ainsi entrer dans un environnement créé sur la base d’une simple image ou d’un prompt textuel et y naviguer comme s’il s’agissait d’un vrai jeu.

Cette capacité d’adaptation à des univers totalement nouveaux est précisément ce que recherchent les chercheurs en « embodied AI ».

Une IA qui apprend seule en jouant

L’une des nouveautés les plus intéressantes est la capacité de SIMA 2 à progresser sans aide humaine. Après une phase initiale supervisée, l’agent génère lui-même ses données d’entraînement en explorant les environnements, en tentant des actions, en échouant, puis en réessayant.

DeepMind parle ici d’un cycle vertueux : chaque version de SIMA s’appuie sur les expériences collectées par la précédente. Cela permet d’augmenter graduellement la difficulté des tâches et d’élargir les scénarios sans mobiliser plus d’annotateurs humains.

Les prémices d’une IA générale incarnée

Ce que SIMA 2 apprend dans les jeux — se déplacer, planifier, utiliser un outil, coordonner des actions — n’a rien d’anecdotique pour Google.

Ce sont précisément les briques fondamentales d’une intelligence incarnée capable, à terme, d’interagir avec le monde réel. DeepMind ne s’en cache pas : SIMA 2 est un laboratoire vivant pour les futurs robots autonomes, assistants intelligents et systèmes capables de comprendre l’espace, le mouvement et les objets.

Mais tout n’est pas encore réglé : l’agent reste limité sur les tâches très longues, la précision fine des actions, la compréhension visuelle complexe et la mémoire à long terme.

Un déploiement très limité et sous surveillance

SIMA 2 est pour l’instant réservé à quelques chercheurs et studios de jeux. DeepMind insiste sur un point : toute capacité d’auto-amélioration reste supervisée et surveillée de près. Les équipes cherchent d’ailleurs des retours interdisciplinaires pour encadrer ce type d’IA de manière responsable.

SIMA 2 n’est pas encore un agent général, mais il représente clairement l’une des avancées les plus concrètes vers des systèmes capables non seulement d’obéir, mais de comprendre, d’explorer… et de s’améliorer seuls.

Lire plus
Intelligence Artificielle

Huawei accélère dans l’IA physique : Habo investit massivement dans la startup GigaAI

Huawei accélère dans l’IA physique : Habo investit massivement dans la startup GigaAI

Huawei vient de faire un pas stratégique majeur dans le domaine de l’intelligence artificielle physique (Physical AI). Sa branche d’investissement, Huawei Habo, a participé au financement de GigaAI, une jeune startup chinoise spécialisée dans les world models appliqués au monde réel.

Ce mouvement marque une étape clé dans la stratégie de Huawei pour s’imposer dans la robotique, les véhicules autonomes et les systèmes intelligents de nouvelle génération.

Une levée de fonds qui confirme l’intérêt de l’industrie

GigaAI a bouclé début novembre une levée de fonds A1 de plusieurs centaines de millions de yuans, co-dirigée par Huawei Habo Investment et Huakong Fund. Ce tour intervient à peine deux mois après que GigaVision — entreprise sœur dans l’écosystème Giga — a elle-même obtenu plusieurs centaines de millions en pré-A.

Cette dynamique financière rapide montre que les investisseurs croient fortement en la technologie et la vision de GigaAI.

GigaAI, pionnier chinois du world model appliqué au réel

Fondée en 2023, GigaAI se présente comme la première startup chinoise dédiée aux modèles mondiaux pour l’IA physique. L’objectif : créer une intelligence générale capable de comprendre, prédire et interagir avec le monde physique, à la manière des robots et véhicules autonomes du futur.

L’entreprise développe un écosystème complet mêlant matériel et logiciel :

  • GigaWorld, une plateforme pour l’intelligence embarquée et la robotique.
  • GigaBrain, un modèle fondamental piloté par world model.
  • Maker Ontology, une couche de connaissance dédiée aux agents physiques.

En combinant ces briques, GigaAI propose une solution tout-en-un pour les environnements complexes : conduite autonome, robotique de service, robots industriels, agents incarnés, etc.

Pourquoi Huawei investit massivement dans la Physical AI ?

Huawei adopte désormais une stratégie baptisée WA — « World Action », en rupture avec les modèles traditionnels VLA (Vision–Language–Action) basés sur de grands modèles linguistiques. Ici, l’IA ne « passe plus par le langage » pour agir, elle utilise directement les signaux visuels et physiques pour contrôler les robots ou les véhicules.

Cette approche, soutenue par Jin Yuzhi, PDG de Huawei Intelligent Automotive Solutions, est en train de devenir un pilier du futur technologique de l’entreprise.

En investissant dans GigaAI, Huawei renforce sa capacité à développer des voitures autonomes plus sûres, des robots plus polyvalents, et des systèmes d’IA capables d’interagir avec le monde réel.

Quel impact pour le grand public ?

Si Huawei et GigaAI réussissent leur pari, les utilisateurs pourraient bientôt bénéficier de véhicules autonomes plus fiables, de robots domestiques réellement utiles et intelligents, d’assistants personnels capables d’agir dans le monde physique, et des appareils capables de comprendre leur environnement plutôt que d’attendre des instructions textuelles.

Les analystes comparent ce tournant à une révolution similaire à l’arrivée du smartphone : une technologie qui quitte les labos pour transformer notre quotidien.

Un mouvement qui renforce la rivalité technologique Chine–États-Unis

Cet investissement est aussi un signal géopolitique. La Chine accélère dans l’IA incarnée, un domaine où les États-Unis concentrent actuellement une grande partie des talents et des startups (Boston Dynamics, Tesla Robotics, OpenAI avec ses world models, Nvidia GR00T, etc.).

En soutenant GigaAI, Huawei renforce son autonomie technologique, augmente la pression sur les acteurs américains, et s’inscrit dans la course mondiale aux robots intelligents et aux systèmes autonomes.

Une alliance stratégique pour façonner l’IA du futur

Pour les experts, ce partenariat dépasse largement le cadre financier : c’est une alliance technologique structurante qui pourrait accélérer le développement de l’IA physique en Chine.

Avec son stack technologique robuste, ses levées de fonds rapides et le soutien d’un géant comme Huawei, GigaAI pourrait devenir l’un des leaders mondiaux de l’IA incarnée.

Lire plus
Intelligence Artificielle

Pinokio : l’appli qui transforme l’auto-hébergement IA en un seul clic

Pinokio : l'appli qui transforme l'auto-hébergement IA en un seul clic

L’IA n’a jamais été aussi accessible… du moins en théorie. Entre les modèles open source, les alternatives locales à ChatGPT, les outils de clonage vocal ou encore les générateurs 3D, on vit une période d’explosion créative. Mais, il reste un frein énorme : installer ces modèles IA est souvent une galère monumentale.

Environnement virtuel, dépendances, UI impossible à trouver, erreurs obscures… Résultat : beaucoup abandonnent avant même d’avoir testé quoi que ce soit.

C’est exactement là que Pinokio change la donne.

L’auto-hébergement IA est devenu incroyablement puissant… si vous arrivez à le faire tourner

Il y a quelques années, générer une vidéo grotesque de Will Smith mangeant des spaghettis demandait presque un data center.

Aujourd’hui, un PC gamer ou un Mac M 2/M 3 avec suffisamment de RAM unifiée suffit pour créer des images réalistes en quelques secondes, fabriquer vos propres voix de synthèse, générer des modèles 3D complets, ou même héberger votre ChatGPT privé, entièrement hors-ligne.

Les possibilités sont délirantes : assistant maison façon Alexa, livres lus par n’importe quelle voix, automatisations perso… Seule limite : votre matériel — et votre patience lors de l’installation.

Pinokio : l’outil gratuit et open source qui automatise tout

Pinokio est une application open source qui sert d’installateur universel pour modèles IA. Le principe est simple : pour chaque IA, une script recipe automatise absolument tout.

  • Installation
  • Téléchargement des dépendances
  • Configuration de l’UI
  • Lancement en un clic
  • Et même désinstallation propre

Screen 2025 11 14 at 11.28.19

Vous n’avez rien à configurer. Vous cliquez, Pinokio installe, et ça tourne. C’est littéralement l’App Store de l’IA locale.

Screen 2025 11 14 at 12.16.45

L’application Pinokio est supportée pour les principaux systèmes d’exploitation. Il existe une version pour Windows, macOS et Linux.

Explorer et installer des IA dans Pinokio

Quand l’app est lancée :

  • onglet Discover,
  • section Verified (fortement recommandée pour commencer).

Screen 2025 11 14 at 11.28.10

Chaque modèle propose un bouton : « One-Click Install with Pinokio ». Ensuite, laissez-faire : les modèles IA peuvent peser 10 à 40 Go, et il faut laisser du temps au script.

L’interface finale dépend du modèle : par exemple, OpenAudio (clonage vocal) ouvre son propre panneau UI automatiquement.

Screen 2025 11 14 at 13.20.14

Désinstaller proprement — ou corriger les installations ratées

Un bug ? Une install corrompue ? Le modèle ne vous convient plus ? Pinokio s’en occupe : bouton Delete, et les fichiers et dépendances sont supprimés proprement.

Pinokio est-il sûr ?

Comme tout projet communautaire : risque potentiel = oui. Mais, les scripts sont simples et faciles à auditer, la communauté est ultra-active, les modèles populaires sont surveillés, et un script malveillant serait repéré très vite.

En pratique, la communauté le considère comme raisonnablement sûr, surtout en utilisant les modèles vérifiés.

Attention : l’espace de stockage est votre futur ennemi

Les modèles modernes (Gemma, Qwen, Mistral, etc.) peuvent dépasser :

  • 8 Go (petits modèles)
  • 20–40 Go (moyens)
  • +100 Go (monstres 70B)

Si vous comptez héberger plusieurs IA, prévoyez un SSD NVMe de 2 To minimum, ou un dédié uniquement aux modèles. C’est probablement l’investissement le plus important dans une config IA locale.

Pinokio est ce qu’il manquait pour démocratiser l’IA locale

Grâce à Pinokio, tester un clone vocal, une IA type ChatGPT, un générateur vidéo, un modèle 3D, un outil d’automatisation IA ou encore un assistant maison devient enfin accessible à n’importe qui, même sans compétences techniques.

C’est peut-être l’outil qui fera réellement exploser l’auto-hébergement IA dans le grand public.

Lire plus
Intelligence Artificielle

ChatGPT devient social : OpenAI teste les groupes de discussion pour chats collaboratifs

ChatGPT devient social : OpenAI teste les groupes de discussion pour chats collaboratifs

OpenAI vient de franchir une nouvelle étape dans l’évolution de ChatGPT. L’entreprise a commencé à déployer, dans quelques régions comme le Japon ou la Corée du Sud, une fonctionnalité que les utilisateurs réclamaient depuis longtemps : les discussions de groupe.

L’idée est simple mais ambitieuse : permettre à plusieurs personnes — et à ChatGPT — d’échanger dans une même conversation, un peu comme Meta AI dans un groupe WhatsApp.

Concrètement, ChatGPT devient non seulement un assistant, mais aussi un membre actif d’un espace collaboratif, capable d’intervenir, réagir, compléter, ou rester discret selon le contexte.

Comment créer un groupe dans ChatGPT ?

Le fonctionnement est pensé pour être aussi intuitif que dans une messagerie classique. Il suffit d’ouvrir un chat, puis de toucher l’icône représentant des personnes en haut à droite pour créer ou rejoindre un groupe. Lors de la première utilisation, ChatGPT te demandera de configurer un mini-profil avec ton nom, ton pseudo et une photo.

Tu peux ensuite partager un lien d’invitation, qui permet d’ajouter jusqu’à 20 participants. Et comme dans une vraie conversation de groupe, n’importe quel membre peut partager ce lien à son tour — sauf pour enlever le créateur, seul intouchable du groupe.

Group Chat Blog 1920x1080 1 scaled

Un ChatGPT plus « social » que jamais

Dans ces conversations à plusieurs, les réponses sont générées via GPT-5.1 Auto, c’est-à-dire que ChatGPT choisit automatiquement le modèle optimal selon la question et selon le niveau d’abonnement des personnes impliquées (Free, Go, Plus ou Pro).

Mais ce n’est pas tout : OpenAI a entraîné ChatGPT à adopter de nouveaux comportements sociaux. Le bot comprend désormais mieux le rythme d’une discussion collective et peut réagir spontanément avec un emoji, décider de ne rien dire s’il n’a rien à ajouter, intervenir quand on le sollicite simplement en écrivant « ChatGPT », et suivre les enchaînements de messages comme un membre normal.

Bref, il se fond dans le groupe sans monopoliser la parole. Une manière subtile de rendre l’expérience plus naturelle — parfois même troublante.

La confidentialité reste sous contrôle

OpenAI précise que la mémoire personnelle de ChatGPT n’est jamais utilisée dans un groupe. De plus, l’IA ne crée aucun nouveau souvenir à partir de ces conversations communes.

Chaque groupe peut également définir des instructions personnalisées pour déterminer comment ChatGPT doit se comporter dans ce chat spécifique : plus concis, plus discret, plus expert… à toi de choisir.

Disponibilité

La phase pilote démarre progressivement sur mobile et Web, pour tous les utilisateurs connectés (Free, Go, Plus ou Pro) au Japon, en Nouvelle-Zélande, en Corée du Sud et à Taïwan.

OpenAI présente cette nouveauté comme le début d’une transformation plus profonde : faire de ChatGPT non plus un outil individuel, mais un espace de collaboration partagé.

Si l’essai est concluant, l’entreprise promet d’étendre cette fonctionnalité à d’autres régions et de l’enrichir au fil des retours des premiers testeurs.

Lire plus
Intelligence Artificielle

NotebookLM intègre Deep Research pour des rapports complets

NotebookLM intègre Deep Research pour des rapports complets

Google continue d’unifier ses outils d’IA, et, cette fois, c’est NotebookLM qui profite du gros cerveau de Gemini : Deep Research. Dans la semaine, tous les utilisateurs pourront accéder à ce moteur de recherche autonome intégré directement dans leurs carnets.

Cette évolution transforme NotebookLM en bien plus qu’un assistant de prise de notes : c’est désormais un véritable chercheur virtuel capable d’explorer le Web, d’analyser des sources complexes, de structurer un rapport et de le lier à vos documents existants… sans que vous ayez à quitter votre workflow.

Deep Research s’intègre à NotebookLM : du simple résumé au rapport complet

NotebookLM pouvait déjà résumer, analyser et relier vos documents. Mais, avec Deep Research, il franchit une nouvelle étape : il navigue sur le Web pour vous, comme le fait déjà Gemini dans Gmail, Drive ou Google Chat.

Deux modes de recherche sont désormais proposés :

  1. Fast Research—pour aller vite
    • Recherche immédiate
    • Résultats courts et exploités rapidement
    • Idéal pour s’orienter ou débloquer une question simple
  2. Deep Research—pour un dossier complet
    • Analyse approfondie
    • Recherche de sources « de haute qualité » (articles, papiers académiques, pages web)
    • Génération d’un plan de recherche avant exécution
    • Rapport final entièrement sourcé
    • Possibilité d’ajouter des documents pendant que le rapport se construit en arrière-plan

Résultat : vous pouvez construire une véritable base de connaissances autour d’un sujet, sans jongler entre onglets, PDFs et moteurs de recherche.

NotebookLM devient compatible avec davantage de fichiers

Google élargit aussi le type de documents intégrables :

  • Google Sheets—parfait pour extraire automatiquement statistiques et tendances
  • Fichiers Drive via simple URL (PDF, Docs…)
  • Microsoft Word (.docx)
  • PDFs Drive sans import manuel

Ces formats s’ajoutent à l’existant, et permettent enfin d’ingérer des corpus mixtes (textes + tableau + URL + documents techniques).

NotebookLM évolue rapidement : vidéos, podcast IA, mobile… et maintenant recherche web

Depuis fin 2023, Google transforme NotebookLM en plateforme de recherche créative :

L’ambition de Google est claire : faire de NotebookLM un espace où l’on peut centraliser, analyser et synthétiser tout type de contenu — personnel, professionnel ou scolaire.

Tu comptes l’utiliser ? Ce nouveau NotebookLM tend à devenir un assistant de recherche complet, bien plus avancé que la simple prise de notes augmentée.

Curieux d’avoir ton avis : c’est un outil qui te ferait gagner du temps, ou un pas de plus vers une IA trop présente dans nos flux de travail ?

Lire plus
Intelligence Artificielle

Anthropic investit 50 milliards de dollars dans l’infrastructure IA américaine

Anthropic investit 50 milliards de dollars dans l'infrastructure IA américaine

Anthropic a annoncé un plan d’investissement colossal de 50 milliards de dollars pour renforcer l’infrastructure informatique américaine.

Ce projet, réalisé en partenariat avec la plateforme cloud Fluidstack, vise à construire plusieurs centres de données à travers le pays, avec des sites déjà confirmés au Texas et à New York — et « d’autres à venir ».

Anthropic: Des datacenters pour soutenir la croissance de Claude

Selon Anthropic, les nouveaux centres entreront en service progressivement à partir de 2026 et devraient créer environ 800 emplois directs.

L’objectif est double : répondre à la demande croissante pour son assistant IA Claude, et soutenir la recherche de pointe dans le domaine de l’intelligence artificielle.

« Cette expansion est essentielle pour maintenir nos recherches à la frontière du possible et garantir la performance et la sécurité de Claude à long terme », indique la société dans son communiqué.

Un investissement stratégique aligné avec la politique technologique américaine

Anthropic affirme que ce projet s’inscrit dans le cadre de l’AI Action Plan du gouvernement Trump, qui vise à préserver le leadership technologique des États-Unis en matière d’intelligence artificielle et à renforcer les capacités domestiques dans ce secteur clé.

Ces nouveaux datacenters seront construits sur le modèle de centres énergétiquement efficaces et modulables, capables d’héberger les architectures d’IA les plus avancées.

Une course à l’infrastructure IA sans précédent

Anthropic rejoint ainsi la liste des géants technologiques qui misent massivement sur l’infrastructure IA :

  • OpenAI et SoftBank ont annoncé en janvier leur projet « Stargate », d’une valeur estimée à 500 milliards de dollars, avec un premier site au Texas.
  • Meta, de son côté, a déjà engagé 600 milliards de dollars dans le développement d’infrastructures et de centres de données aux États-Unis.

Cette course à la puissance de calcul illustre la dépendance croissante des modèles d’IA générative à des ressources matérielles massives et spécialisées.

Une réponse à la demande explosive en puissance de calcul

Anthropic souligne que cet investissement « est nécessaire pour répondre à la demande croissante » générée par Claude — son modèle de langage rival de ChatGPT — utilisé par des millions d’entreprises et de particuliers dans le monde.

Les nouveaux centres de données permettront d’augmenter la capacité de calcul pour l’entraînement et l’inférence des modèles, de réduire la latence pour les utilisateurs, et d’assurer une meilleure souveraineté technologique pour ses clients américains.

Perspective

Cette annonce confirme que la nouvelle bataille de l’IA se joue sur le terrain de l’infrastructure. Alors que les modèles deviennent plus puissants et plus coûteux à exécuter, la maîtrise des centres de calcul haute performance devient un atout stratégique national.

Avec ce plan à 50 milliards de dollars, Anthropic se positionne non seulement comme un acteur majeur de l’IA, mais aussi comme un pilier de la souveraineté numérique américaine face à la compétition mondiale.

Lire plus