fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

DeepSeek : plus transparent, plus performant, moins cher que ChatGPT ?

DeepSeek : plus transparent, plus performant, moins cher que ChatGPT ?

Depuis quelques semaines, DeepSeek, le LLM chinois, fait beaucoup parler de lui. DeepSeek n’est pas d’un simple clone bon marché de ChatGPT, mais d’une réelle avancée dans l’intelligence artificielle. Alors, qu’est-ce qui le distingue vraiment de ChatGPT ?

1. Une meilleure gestion de la « chaîne de pensée » (Chain of Thought)

L’un des aspects les plus importants d’un LLM est sa capacité à raisonner étape par étape, plutôt que de donner une réponse instantanée et parfois erronée. DeepSeek excelle particulièrement dans ce domaine.

Pourquoi est-ce important ?

  • Il montre son raisonnement, permettant à l’utilisateur de vérifier chaque étape du processus.
  • Cela facilite la correction ou l’ajout de précisions en cas de besoin.
  • Il est capable de répondre à des questions complexes et de justifier ses choix, ce qui le rend plus fiable.

2. Un système de cache avancé pour un coût réduit

ChatGPT a des limitations de mémoire et efface rapidement l’historique des échanges (selon le plan d’abonnement). DeepSeek, en revanche, utilise une technique de « Content Caching on Disk », qui optimise la gestion des réponses précédentes.

Avantages du cache DeepSeek :

  • Il détecte les entrées en double et récupère des réponses passées au lieu de recalculer.
  • Cela réduit le coût énergétique et informatique, rendant DeepSeek moins cher à exploiter.
  • Les utilisateurs peuvent construire des échanges plus longs et plus cohérents, un atout majeur pour les professionnels et chercheurs.

3. Une optimisation des prompts facilitée

Grâce à son cache et à la transparence sur son fonctionnement, DeepSeek aide les utilisateurs à améliorer leur manière de rédiger leurs prompts.

Conseil pour optimiser un prompt sur DeepSeek :

  • Placer les informations fixes au début du prompt pour maximiser leur réutilisation.
  • Mettre les données variables au milieu ou à la fin pour éviter d’impacter les réponses précédentes.

Ce niveau de transparence est un vrai plus par rapport à GPT, qui reste plus fermé sur son fonctionnement interne.

DeepSeek, un futur leader de l’IA ?

Avec ses avancées en raisonnement, en gestion mémoire et en coût d’exploitation, DeepSeek pourrait bien bousculer la domination d’OpenAI. Ce n’est pas une simple alternative bon marché, mais un modèle réellement innovant, qui pousse l’intelligence artificielle dans une nouvelle direction.

Le début d’un basculement vers une IA plus performante et accessible ? À suivre de près.

Lire plus
Intelligence Artificielle

OpenAI : l’offre de rachat de Musk rejetée, la guerre de l’IA continue !

OpenAI : l'offre de rachat de Musk rejetée, la guerre de l'IA continue !

Le conseil d’administration d’OpenAI a officiellement répondu à la tentative de rachat d’Elon Musk. Dans une déclaration publiée sur X, le président du conseil, Bret Taylor, a affirmé que « OpenAI n’est pas à vendre, et le conseil a rejeté à l’unanimité la dernière tentative de M. Musk de perturber sa concurrence ».

Au début du mois, Elon Musk et un groupe d’investisseurs avaient proposé d’acheter OpenAI pour 97,4 milliards de dollars. En réponse, le PDG d’OpenAI, Sam Altman, a rapidement réagi sur X en lançant une pique à Musk : « Non merci, mais nous pouvons acheter Twitter pour 9,74 milliards de dollars si vous voulez ».

Une situation complexe pour OpenAI

Cette proposition de rachat intervient alors que OpenAI est en pleine transition vers un modèle à but lucratif. Le conseil d’administration doit donc justifier que le plan de scission de Sam Altman est une meilleure option que l’offre de Musk pour préserver la mission d’OpenAI.

Mercredi dernier, les avocats de Musk ont déclaré dans un dossier judiciaire que le milliardaire retirerait son offre si OpenAI acceptait de rester une organisation à but non lucratif. Cependant, Bret Taylor a laissé entendre que cette option était exclue. Il a ajouté que toute réorganisation d’OpenAI visera à renforcer son engagement envers sa mission principale : garantir que l’AGI bénéficie à toute l’humanité.

Un affrontement aux enjeux stratégiques

L’opposition entre Musk et OpenAI reflète une bataille plus large sur l’avenir de l’intelligence artificielle et la manière dont elle doit être développée et contrôlée. Musk, qui a été l’un des premiers soutiens financiers d’OpenAI avant de s’en éloigner, critique régulièrement la direction prise par l’entreprise et plaide pour une approche plus prudente et transparente dans le développement de l’IA.

Avec la montée en puissance des modèles d’IA générative, la gouvernance d’OpenAI devient un enjeu stratégique. Reste à voir comment cette bataille entre Musk et OpenAI influencera l’avenir du marché de l’IA et l’équilibre des pouvoirs entre les grandes entreprises technologiques.

Lire plus
Intelligence Artificielle

« Un pays de génies » : l’IA va créer une nouvelle forme d’intelligence, selon Anthropic

"Un pays de génies" : l'IA va créer une nouvelle forme d'intelligence, selon Anthropic.

Le PDG d’Anthropic, Dario Amodei, a prédit que les modèles d’IA pourraient dépasser les capacités humaines et produire un « pays de génies » d’ici deux à trois ans, après avoir critiqué le sommet sur l’IA qui s’est tenu cette semaine à Paris.

Dans un article de blog publié mardi, Amodei prévoit que d’ici 2026 ou 2027, les systèmes d’IA seront si avancés que l’on assistera à l’émergence d’un tout nouvel état d’êtres hautement intelligents sur la scène mondiale. Le cofondateur d’Anthropic a écrit que ce serait l’équivalent d’un « pays de génies dans un centre de données », avec les profondes implications économiques, sociétales et sécuritaires que cela impliquerait.

Le sommet de Paris est une « occasion manquée » d’aider l’IA à surpasser l’homme

L’entrepreneur a toutefois qualifié le sommet de Paris d’« occasion manquée », dénonçant la lenteur des efforts mondiaux pour réglementer l’IA. Sa mise en garde intervient à un moment charnière, où les nations démocratiques et autoritaires font la course pour dominer le développement de l’IA.

Il a souligné trois points essentiels qui doivent être abordés pour garantir l’atténuation des risques liés à l’IA. Il s’agit notamment de faire en sorte que les sociétés démocratiques prennent l’initiative en matière d’IA en régissant la chaîne d’approvisionnement de la technologie. Amodei a également souligné que les discussions internationales sur l’IA « doivent davantage prendre en compte les risques croissants de la technologie en matière de sécurité ».

Enfin, si l’IA a le potentiel d’accélérer la croissance économique à l’échelle mondiale, elle pourrait aussi être très perturbatrice. C’est pourquoi Anthropic a publié mardi l’indice économique Anthropic, qui suit la répartition des activités économiques pour lesquelles les gens utilisent actuellement ses systèmes d’IA.

La réglementation de l’IA pose problème

Le sommet a mis en évidence les divisions croissantes dans la manière dont les pays abordent la réglementation de l’IA. Le vice-président américain JD Vance s’est élevé contre les propositions européennes, les qualifiant de « massives » et de trop restrictives. De leur côté, les États-Unis et le Royaume-Uni sont restés sur leurs positions et ont refusé de signer les engagements pris lors du sommet.

Anthropic a été créée en 2021 par Amodei et sa sœur, Daniela Amodei, ainsi que par 5 autres anciens employés d’OpenAI. L’entreprise est ensuite devenue un concurrent sérieux d’OpenAI, s’affrontant avec des modèles tels que GPT-4 et ChatGPT. Dernièrement, son modèle Claude 3.5 Sonnet a reçu beaucoup d’éloges de la part des utilisateurs d’IA et continue de se classer en tête des tests de référence de l’industrie.

Lire plus
Intelligence Artificielle

Gemini Live : l’IA de Google devient plus interactive et connectée !

Gemini Live : l'IA de Google devient plus interactive et connectée !

Google continue d’améliorer son assistant IA Gemini Live en lui ajoutant de nouvelles fonctionnalités, telles que le partage d’écran et la diffusion vidéo en direct, tout en renforçant ses capacités de compréhension linguistique.

Dans un e-mail adressé aux utilisateurs, Google a annoncé que Gemini Live bénéficie désormais de son dernier modèle d’intelligence artificielle, ce qui améliore sa capacité à comprendre différentes langues, accents et dialectes. Cette mise à jour inclut également des améliorations en traduction et introduit le partage d’écran et le streaming vidéo en direct, rendant l’interaction avec l’IA plus dynamique et engageante.

Toutefois, comme pour toute amélioration des assistants IA, ces avancées impliquent une collecte accrue de données personnelles. Google souhaite stocker les données audio, vidéo et de partage d’écran des utilisateurs dans leur historique d’activité Gemini Apps, bien que cette option puisse être désactivée. Actuellement, seules les transcriptions de conversations sont enregistrées si l’utilisateur a activé cette fonctionnalité.

Ces nouveautés s’appuient vraisemblablement sur l’API Multimodal Live, introduite avec Gemini 2.0 à la fin de l’année dernière. Cette API permet aux développeurs de traiter divers types d’entrées — texte, audio, vidéo — et de générer des réponses adaptées sous forme de texte ou de son.

L’évolution de Gemini Live s’inscrit dans une tendance plus large vers des IA multimodales, capables de traiter différents types de données de manière fluide, rendant leur utilisation plus intuitive et polyvalente. Google considère Gemini 2.0 comme le début de « l’ère des agents », où l’IA ne se contente plus de répondre aux requêtes, mais anticipe les besoins et agit de manière proactive.

Gemini Live profite de Gemini 2.0

L’un des premiers modèles à exploiter cette évolution est Gemini 2.0 Flash, qui est 2x plus rapide que son prédécesseur, Gemini Pro 1.5. Ce modèle marque un tournant dans le développement des IA, en passant de simples chatbots conversationnels à des agents capables de raisonner et d’agir de manière autonome.

Cette transformation pourrait révolutionner des secteurs tels que le service client, l’éducation, la santé et la productivité personnelle. Cependant, elle pose aussi la question de la confidentialité, car ces systèmes nécessitent un accès accru aux données des utilisateurs pour fonctionner de manière optimale.

Les mises à jour de Gemini Live sont en cours de déploiement et offrent une expérience IA plus interactive et intelligente, pour ceux qui choisiront d’activer ces nouvelles fonctionnalités.

Lire plus
Intelligence Artificielle

DeepSeek : L’IA chinoise qui défie les géants et inquiète l’Occident !

DeepSeek : L'IA chinoise qui défie les géants et inquiète l'Occident !

L’entreprise chinoise spécialisée dans l’intelligence artificielle, DeepSeek, a récemment fait trembler l’industrie technologique mondiale avec ses innovations révolutionnaires. Leur modèle V3, prédécesseur du célèbre modèle R1, a été formé pour un coût dérisoire de 5,576 millions de dollars, défiant les géants de la tech comme OpenAI avec des performances supérieures et une efficacité accrue de 50 à 75 % par rapport à ses concurrents.

Depuis le lancement du modèle R1, DeepSeek a connu une adoption massive à travers le monde. Des géants technologiques comme Microsoft ont intégré DeepSeek dans leurs infrastructures, tandis que des entreprises chinoises, telles que Huawei, Honor, OPPO, et ZTE collaborent avec DeepSeek pour développer des versions optimisées du modèle R1 pour leurs appareils.

Cependant, cette adoption rapide a déclenché une vague de ventes massives d’actions liées à l’IA, notamment celles de Nvidia, qui a perdu 600 milliards de dollars de valorisation en une seule journée. Les investisseurs craignent que les modèles d’IA moins coûteux de DeepSeek ne réduisent la demande pour les puces AI haut de gamme, bouleversant ainsi le marché technologique.

Préoccupations sécuritaires et réactions internationales

L’ascension fulgurante de DeepSeek a soulevé des préoccupations majeures en matière de sécurité nationale, notamment aux États-Unis. Le CEO d’Arm a prédit que le gouvernement américain pourrait bientôt interdire DeepSeek en raison de ses liens avec le gouvernement chinois. Des institutions comme la NASA et la marine américaine ont déjà pris des mesures pour bloquer l’utilisation de DeepSeek sur leurs systèmes.

Plusieurs pays, dont l’Australie, l’Italie, et Taïwan ont également interdit l’utilisation de DeepSeek sur les appareils gouvernementaux en raison de préoccupations similaires.

Le modèle open source de DeepSeek, qui peut être exécuté localement, complique encore les efforts pour restreindre son utilisation.

Innovations techniques et avantages concurrentiels

DeepSeek se distingue par son approche innovante de la formation des modèles d’IA. En contournant les restrictions imposées par les États-Unis sur les exportations de puces vers la Chine, DeepSeek a réussi à développer un modèle performant avec des ressources limitées. Cette prouesse technique montre que des limitations peuvent parfois stimuler l’innovation, forçant les entreprises à optimiser leurs processus et à trouver des solutions créatives.

DeepSeek représente à la fois une opportunité et un défi pour l’industrie technologique mondiale. Alors que ses innovations promettent de rendre l’IA plus accessible et efficace, les préoccupations sécuritaires et les tensions géopolitiques pourraient freiner son adoption. Les prochains mois seront cruciaux pour observer comment les gouvernements et les entreprises naviguent dans ce paysage complexe, où l’innovation et la sécurité nationale s’entrechoquent.

Lire plus
Intelligence Artificielle

Reddit : OpenAI paie 70 millions de dollars pour utiliser son contenu !

1447303 open ai

Le dernier rapport financier de Reddit, publié mercredi 12 février, révèle combien OpenAI paie pour utiliser le contenu de la plateforme.

Selon Adweek, environ 10 % des revenus de Reddit proviennent des accords de licence avec des entreprises d’intelligence artificielle, soit environ 130 millions de dollars. On sait que Google a payé 60 millions de dollars pour son partenariat avec Reddit, laissant penser que OpenAI aurait payé le reste, soit 70 millions de dollars.

Reddit choisit avec soin ses partenaires IA

Jen Wong, la directrice des opérations de Reddit, a déclaré que la licence de contenu reste une petite partie des revenus, mais qu’elle demeure précieuse. L’entreprise affirme collaborer uniquement avec des partenaires respectant des conditions spécifiques, notamment en matière de protection de la vie privée des utilisateurs et d’image de la marque.

Par ailleurs, Reddit cherche également à concurrencer les géants technologiques en lançant son propre outil d’IA, Reddit Answers, destiné à améliorer la recherche sur la plateforme et potentiellement réduire le trafic des recherches sur Google, où les utilisateurs ajoutent souvent « Reddit » à leurs requêtes.

Reddit se stabilise entre publicité et IA après son entrée en bourse

Reddit a déposé son prospectus d’introduction en bourse (IPO) auprès de la SEC en février dernier et a déclaré son premier bénéfice en octobre.

  • Revenus du quatrième trimestre 2024 : 427,7 millions de dollars
  • Hausse des revenus publicitaires : +60 % en un an

Malgré cette croissance, l’action Reddit a chuté jusqu’à 18 % après la publication des résultats, en raison d’une croissance des utilisateurs plus faible que prévu.

Le PDG Steve Huffman a expliqué que le trafic avait subi une baisse en fin d’année suite à des changements dans l’algorithme de Google Search. Toutefois, il a assuré que le trafic provenant de Google s’est stabilisé début 2025, redonnant confiance aux investisseurs.

Lire plus
Intelligence Artificielle

Thomson Reuters gagne son procès : l’IA ne peut pas copier son contenu !

Thomson Reuters gagne son procès : l'IA ne peut pas copier son contenu !

Ce mardi, un juge a déclaré qu’un ancien concurrent de Thomson Reuters n’était pas autorisé à copier le contenu de l’entreprise pour créer une plateforme juridique basée sur l’IA, conformément à la législation américaine sur le droit d’auteur.

Cette décision marque un tournant dans le monde de l’IA, l’entreprise canadienne étant un géant technologique axé sur le contenu qui couvre l’actualité et propose des outils dans diverses catégories. Elle propose notamment plusieurs solutions basées sur l’IA. L’affaire concerne son service de recherche juridique en ligne et sa base de données propriétaire, Westlaw. C’est le juge Stephanos Bibas qui a pris la décision, devenant ainsi la première décision américaine sur le thème de l’usage loyal dans les litiges de droit d’auteur liés à l’IA.

C’est cette théorie juridique du « fair use » qui est devenue un moyen de défense essentiel pour les entreprises technologiques dans les affaires de droits d’auteur intentées par des auteurs, des maisons de disques, des artistes, etc.

Thomson Reuters est la société mère de Reuters News, dont un porte-parole a donné plus de détails sur le résultat dans un article : « Nous sommes heureux que le tribunal ait rendu un jugement sommaire en notre faveur et ait conclu que le contenu éditorial de Westlaw, créé et mis à jour par nos avocats rédacteurs, est protégé par le droit d’auteur et ne peut être utilisé sans notre consentement ».

La copie de notre contenu n’était pas une « utilisation équitable ».

L’affaire Thomson Reuters sur l’IA et le droit d’auteur devient la première décision sur le sujet

Cette affaire n’est pas la première à soulever une situation analogue dans laquelle une partie est accusée d’avoir entraîné l’IA sur la base du contenu d’une autre partie. C’est devenu un argument contre de nombreux nouveaux outils d’IA, mais on ne sait pas grand-chose de l’orientation juridique qu’il prendra à l’avenir. Il s’agit notamment de l’essor des générateurs d’images, dont certains sont capables de créer des représentations de personnalités publiques.

On ne sait pas comment il est possible de créer des images aussi réalistes de personnes réelles, mais un cabinet d’avocats spécialisé dans les technologies a soulevé la question en août dernier.

L’avocat Charles-Theodore Zerner, du cabinet Munck Wilson Mandala basé aux États-Unis, a déclaré dans un article de blog que Grok 2 présentait « très peu de garanties ». Il a averti que la plateforme était capable de créer des « deepfakes, des personnages protégés par des droits d’auteur et des contenus potentiellement offensants ».

Certaines grandes entreprises technologiques, comme OpenAI, Meta et Microsoft, font l’objet de poursuites judiciaires concernant l’utilisation de contenus écrits.

Lire plus
Intelligence Artificielle

GPT-5 : OpenAI annonce une IA unifiée, plus puissante et accessible d’ici fin 2025 !

GPT-5 : OpenAI annonce une IA unifiée, plus puissante et accessible d'ici fin 2025 !

Le PDG d’OpenAI, Sam Altman, a annoncé mercredi une feuille de route détaillant les plans de la société pour le lancement de GPT-5, le successeur très attendu de GPT-4. D’après Altman, GPT-5 arrivera dans « quelques mois », ce qui suggère un lancement d’ici la fin 2025.

Avant cela, OpenAI prévoit de déployer GPT-4.5, connu en interne sous le nom de « Orion », dans les prochaines « semaines ». Ce sera le dernier modèle OpenAI sans raisonnement simulé. Ensuite, GPT-5 intégrera une fusion des différentes technologies existantes, combinant les modèles conventionnels, les modèles à raisonnement simulé (SR) et des outils spécialisés, comme la recherche sur le Web et l’analyse approfondie.

Avec l’arrivée de GPT-5, OpenAI veut réduire la complexité de son offre actuelle. Aujourd’hui, les utilisateurs Pro de ChatGPT doivent choisir parmi une dizaine de modèles, chacun ayant ses propres forces et faiblesses. Altman reconnaît que cette diversité rend la navigation confuse pour de nombreux utilisateurs.

Nous détestons le sélecteur de modèles autant que vous, et nous voulons revenir à une intelligence unifiée et magique.

GPT-5 permettra ainsi de :

  • Éliminer les choix fastidieux en fusionnant les modèles GPT et séries o.
  • Utiliser dynamiquement les outils d’OpenAI pour optimiser chaque requête.
  • Adapter le niveau d’intelligence selon l’abonnement :
    • Version gratuite : accès illimité à GPT-5 avec intelligence standard.
    • ChatGPT Plus : accès à GPT-5 avec un niveau d’intelligence supérieur.
    • ChatGPT Pro : intelligence encore plus avancée et accès aux outils premium.

Les nouvelles capacités de GPT-5

GPT-5 intégrera des fonctionnalités avancées, comme :

  • Mode vocal avancé : interaction vocale fluide et conversation en temps réel.
  • Canvas: génération et manipulation de contenu multimodal (texte, image, etc.).
  • Recherche & Deep Research : recherches Web approfondies et génération de rapports.

De plus, GPT-5 sera un système unifié, combinant les forces des modèles actuels, comme :

  • GPT-4o : modèle standard performant en compréhension et en génération de texte.
  • o3-mini et o1 pro mode : modèles spécialisés dans le raisonnement complexe.
  • Modèles hybrides : intégration des meilleures fonctionnalités IA d’OpenAI.

Screen 2025 02 13 at 21.37.01

Un marché de l’IA en pleine accélération

Cette annonce intervient alors que la concurrence entre DeepSeek, Anthropic, Meta et Google s’intensifie. Chaque entreprise accélère le développement de ses modèles IA, rendant la bataille encore plus féroce. OpenAI veut donc simplifier son offre et conserver son avance en proposant une intelligence artificielle toujours plus performante et facile d’accès pour les utilisateurs.

La sortie de GPT-4.5 dans les prochaines semaines et de GPT-5 d’ici fin 2025 marquera une évolution majeure dans l’IA générative, avec une expérience utilisateur radicalement améliorée.

Lire plus
Intelligence Artificielle

Gemini : L’IA de Google se souvient de vos conversations pour des réponses plus pertinentes !

Gemini : L'IA de Google se souvient de vos conversations pour des réponses plus pertinentes !

Google déploie une nouvelle fonctionnalité de mémoire contextuelle pour les abonnés Gemini Advanced, permettant à l’IA de se souvenir des conversations précédentes et d’utiliser ces informations pour fournir des réponses plus pertinentes.

Dès aujourd’hui, les abonnés au plan AI Premium de Google One peuvent bénéficier de cette nouveauté : Gemini pourra se souvenir des échanges passés et utiliser ces données pour enrichir ses réponses. Si un utilisateur pose une question liée à une discussion précédente, l’IA pourra s’appuyer sur ce contexte, améliorant ainsi la précision et la pertinence des réponses.

L’IA est également capable de :

  • Synthétiser vos discussions passées.
  • Poursuivre des projets en cours en s’appuyant sur des échanges antérieurs.
  • Se souvenir de vos préférences, une fonction déjà en place, mais désormais optimisée avec une meilleure gestion des références aux discussions passées.

Ce système donne aux utilisateurs un contrôle total sur la mémoire de Gemini. Il est possible de :

  • Consulter et supprimer l’historique des discussions.
  • Définir une durée de conservation des informations.
  • Désactiver totalement la fonctionnalité depuis le paramètre « Gemini Apps Activity » dans « Mon Activité ».
  • Voir quand Gemini utilise des conversations passées, grâce à un indicateur visuel affiché dans le résumé des réponses.

Gemini, comment se compare-t-il à ChatGPT ?

Contrairement à ChatGPT, qui utilise une table de mémoire structurée contenant uniquement les informations essentielles, Gemini semble conserver l’intégralité des discussions passées et y puise lorsque nécessaire.

Si cette approche peut permettre une compréhension plus riche du contexte, elle pourrait aussi être moins efficace, car elle nécessite plus de ressources pour parcourir l’historique des conversations à chaque requête. Il reste à voir si cette méthode sera aussi fluide et efficace que celle de ChatGPT.

Disponibilité et perspectives

Pour l’instant, cette fonctionnalité est uniquement accessible en anglais aux abonnés Gemini Advanced via l’offre Google One AI Premium, disponible sur le Web et l’application mobile.

Google prévoit néanmoins d’étendre cette capacité à d’autres langues ainsi qu’aux utilisateurs professionnels et entreprises de Google Workspace.

Avec cette avancée, Gemini cherche à proposer une expérience plus personnalisée, tout en restant attentif aux questions de confidentialité et de contrôle des données.

Google renforce la mémoire de Gemini AI pour offrir des réponses plus pertinentes à ses abonnés Gemini Advanced via Google One AI Premium.

Lire plus
Intelligence Artificielle

Grok 3 : L’IA « effrayante » d’Elon Musk arrive dans deux semaines !

Grok 3 : L’IA « effrayante » d’Elon Musk arrive dans deux semaines !

Elon Musk a confirmé que Grok 3, la nouvelle version de son chatbot basé sur l’intelligence artificielle, sera finalisé et disponible dans les deux prochaines semaines, selon Reuters.

Lors d’un appel vidéo au Sommet des Gouvernements Mondiaux à Dubaï, Musk a décrit l’outil comme « effrayamment intelligent », mettant en avant ses capacités de raisonnement avancées.

« Grok 3 possède des capacités de raisonnement très puissantes. Dans nos tests, il surpasse tout ce qui a été publié à ce jour, à notre connaissance. C’est bon signe. » — Elon Musk

Un lancement dans un contexte de forte concurrence en IA

L’annonce de Musk s’inscrit dans une course effrénée à l’intelligence artificielle. Ces dernières semaines, plusieurs entreprises du secteur ont dévoilé de nouveaux modèles d’IA ou mis à jour leurs outils, notamment la startup chinoise DeepSeek avec son modèle R1, qui s’est distingué par ses capacités de raisonnement avancées et son coût réduit.

Musk ne compte pas être en reste et a construit le supercalculateur Colossus Supercluster à Memphis, Tennessee, pour soutenir le développement de Grok. Son entreprise xAI prévoit d’embaucher des milliers de « tuteurs IA » en 2024 pour affiner l’apprentissage du modèle. Actuellement, xAI compte environ 900 employés.

Grok 3: un outil encore limité par son intégration à X (ex-Twitter)

Contrairement aux modèles concurrents comme DeepSeek ou OpenAI, Grok est étroitement lié à la plateforme X, bien qu’il soit également disponible via une interface web et des applications iOS et Android.

La première version de Grok était open-source, mais depuis, Musk a fait le choix d’une approche fermée et propriétaire. Cette stratégie pourrait limiter l’adoption du chatbot, selon Tech.co, d’autant que son accès reste exclusif aux utilisateurs de X.

Grok face aux défis réglementaires et aux tensions avec OpenAI

Alors que Grok se prépare à entrer sur le marché, Musk fait face à plusieurs obstacles juridiques et réglementaires :

  • DeepSeek, son rival chinois, a été interdit dans plusieurs pays et certaines administrations américaines (Texas, New York…) ont banni son utilisation sur des appareils gouvernementaux.
  • Musk est engagé dans une bataille juridique contre OpenAI, l’accusant de ne pas respecter son engagement initial en tant qu’organisation à but non lucratif.
  • En août 2023, Musk a intenté un procès pour bloquer la transition d’OpenAI vers un modèle commercial.
  • Plus récemment, il a proposé 97,4 milliards de dollars pour acquérir les actifs d’OpenAI, mais l’entreprise a rejeté cette offre.

De Twitter à l’intelligence artificielle : la stratégie de Musk

Elon Musk a créé Grok en novembre 2023, un an après avoir racheté Twitter. Il s’agit d’un retour à l’IA pour Musk, qui avait cofondé OpenAI en 2015 avant de quitter le projet lorsque sa vision s’est éloignée de celle de l’équipe dirigeante. Il souhaitait notamment intégrer l’IA d’OpenAI à Tesla, une idée qui n’a pas fait l’unanimité.

Désormais, avec Grok 3, Musk entend reprendre sa place dans la course à l’IA, en promettant un modèle de raisonnement supérieur à tout ce qui existe. Reste à voir si cette avancée suffira à concurrencer OpenAI, DeepSeek, Google ou Anthropic, qui dominent actuellement le marché.

Lire plus
Intelligence Artificielle

Deep Research : OpenAI dévoile ses tarifs et la disponibilité de son agent IA révolutionnaire !

Deep Research : OpenAI dévoile ses tarifs et la disponibilité de son agent IA révolutionnaire !

Au début du mois, OpenAI a présenté un nouvel agent d’intelligence artificielle alimenté par son futur modèle d’intelligence artificielle à raisonnement complet o3, appelé « Deep Research ».

À l’instar de l’agent Deep Research de Google, alimenté par Gemini et lancé à la fin de l’année dernière, l’idée derrière Deep Research d’OpenAI est de fournir un assistant largement autonome qui peut parcourir le Web et d’autres sources savantes numériques à la recherche d’informations sur un sujet ou un problème fourni par l’utilisateur, puis compiler le tout dans un rapport soigné pendant que l’utilisateur vaque à ses autres occupations dans d’autres onglets ou abandonne complètement son ordinateur pour vivre sa vie, fournissant le rapport final plusieurs minutes ou même plusieurs heures plus tard par le biais d’une notification.

Contrairement à Deep Research de Google, la valeur de OpenAI o3 Deep Research a été immédiatement perçue par de nombreuses personnes extérieures à la communauté de l’IA, dont l’économiste Tyler Cowen, qui l’a qualifiée d’« étonnante ».

Bien qu’initialement dévoilé comme un produit limité aux abonnés de ChatGPT Pro (200 dollars par mois), OpenAI a déclaré à l’époque qu’il arriverait à d’autres niveaux d’abonnement, comme ChatGPT Plus (20 dollars par mois) et Team (30 dollars par mois), ainsi que vers les plans Edu et Enterprise (prix variables).

Aujourd’hui, le cofondateur et PDG d’OpenAI, Sam Altman, a clarifié la pensée actuelle de l’entreprise concernant la mise à disposition plus large de o3 Deep Research, en citant un autre utilisateur sur X, @seconds_0, qui a écrit : « ok, OAI Deep Research vaut probablement 1000 dollars par mois pour moi. Cela transforme radicalement la façon dont mon cerveau s’engage dans le monde. Je suis plus qu’amoureux et un peu émerveillé ».

Altman a répondu : « Je pense que nous allons initialement proposer 10 utilisations par mois pour ChatGPT Plus et 2 par mois pour le niveau gratuit, avec l’intention d’augmenter ces utilisations au fil du temps. Pour certains utilisateurs, cela vaut probablement 1000 dollars par mois, mais je suis impatient de voir ce que tout le monde va en faire ! ».

Screen 2025 02 13 at 07.34.59

Vers une utilisation progressive de OpenAI Deep Research

Alors que 10 utilisations par mois pour le niveau ChatGPT Plus semblent réalisables, 2 utilisations par mois me semblent presque triviales. Je suppose que si vous êtes un utilisateur gratuit, l’objectif est de vous convaincre de la qualité du service et de vous encourager à passer à un plan plus coûteux, en vous tirant vers le haut de l’entonnoir — ou ce que les vendeurs aiment à dire.

Néanmoins, il est utile de savoir à quoi OpenAI pense lorsqu’il s’agit de la disponibilité de ses nouveaux produits et agents puissants. Si vous êtes un utilisateur gratuit de ChatGPT, vous feriez mieux de vous assurer que vos deux utilisations mensuelles de Deep Research concernent des questions auxquelles vous voulez ou avez vraiment besoin d’une réponse.

Comparé à Deep Research, qui est gratuit (bien qu’alimenté par le modèle Gemini 1.5 Pro de la dernière génération), OpenAI ferait mieux d’espérer que son o3 Deep Research en vaille le prix.

Lire plus
Intelligence Artificielle

Qu’est-ce que Mistral AI, l’IA française qui défie OpenAI et Google !

Qu'est-ce que Mistral AI, l'IA française qui défie OpenAI et Google !

Mistral AI est une startup française spécialisée dans les modèles d’intelligence artificielle open source. Fondée en 2023 par d’anciens chercheurs de Google DeepMind et Meta, elle s’est rapidement imposée grâce à ses modèles ouverts, portables, personnalisables et économiques, qui nécessitent moins de ressources informatiques que d’autres modèles de LLM populaires.

Avec un soutien financier important de la part d’investisseurs tels que Microsoft et Andreessen Horowitz, la startup a atteint une valorisation de 6 milliards de dollars après son dernier tour de financement.

Mistral AI se positionne ainsi comme un concurrent sérieux sur le marché de l’IA générative, rivalisant avec des géants comme Google, OpenAI et Anthropic.

Les modèles de Mistral AI : fonctionnement et innovations

Les modèles de Mistral AI reposent sur des architectures avancées et offrent plusieurs innovations clés.

Une architecture « Mixture of Experts » (MoE)

Certains modèles de Mistral, comme Mixtral 8x7B et 8x22B, utilisent une architecture Mixture of Experts (MoE). Contrairement aux architectures standard des transformeurs, cette approche divise le modèle en plusieurs sous-modèles appelés « experts », qui ne sont activés qu’en fonction du contexte.

Cela permet d’améliorer la performance tout en réduisant la consommation de ressources informatiques.

Open source et personnalisation

Une grande partie des modèles de Mistral AI sont open source, permettant aux utilisateurs d’accéder librement au code, aux données et aux poids des modèles. Cela favorise la transparence, l’adaptabilité et l’optimisation pour des besoins spécifiques. Particulièrement utile pour les secteurs réglementés (banques, hôpitaux), cette approche garantit un contrôle total sur la gestion des données.

Capacités de Function Calling

Les modèles Mistral Large 2, Large, Small, 8x22B et NeMo intègrent des fonctionnalités de Function Calling, facilitant leur intégration avec d’autres systèmes et leur utilisation pour l’extraction de données en temps réel, les calculs complexes et l’accès aux bases de données.

Multilingue par nature

Contrairement à certains LLM qui ne maîtrisent qu’une seule langue, les modèles de Mistral AI sont nativement fluents en anglais, français, espagnol, allemand et italien. Certains, comme Mistral Large 2, couvrent plus de 80 langues de programmation ainsi que le chinois, japonais, coréen, arabe et hindi.

Les modèles phares de Mistral AI

Mistral AI propose des modèles commerciaux et open source, chacun ayant ses spécificités et avantages.

000000098296

Modèles commerciaux (via API uniquement)

  • Mistral Large 2 :
    • Modèle le plus avancé, avec une fenêtre de contexte de 128k tokens
    • Proficient en 80+ langages de programmation
    • Disponible en plusieurs langues européennes et asiatiques
  • Mistral Large :
    • Idéal pour les tâches complexes (génération de texte et de code)
    • Fenêtre de contexte de 32k tokens
    • Rivalise avec GPT-4 sur plusieurs benchmarks
  • Mistral Small :
    • Pensé pour les tâches à faible latence et le traitement en masse
    • Fenêtre de contexte de 32k tokens
  • Mistral Embed :
    • Modèle spécialisé en conversion de texte en représentations numériques
    • Utilisé pour l’analyse de sentiment et la classification de texte

Modèles open source (sous licence Apache 2.0)

  • Mistral 7B :
    • Léger et rapide, avec 32k tokens de contexte
    • Surpasse Llama 2 (13B) et égale des modèles de 30B paramètres
  • Mixtral 8x7B :
    • Basé sur une architecture MoE (utilise 12B sur 45B paramètres)
    • Surpasse Llama 2 (70B) et GPT-3.5 (175B)
  • Mixtral 8x22B :
    • Version plus avancée de Mixtral 8x7B (39B sur 141B paramètres actifs)
    • Conçu pour la synthèse de documents volumineux et la génération massive de texte
  • Codestral Mamba :
    • Conçu pour le codage avec une fenêtre de contexte de 256k tokens
    • Rivalise avec les meilleurs modèles transformeurs spécialisés en programmation
  • Mathstral :
    • Conçu pour les problèmes mathématiques complexes
    • Équilibre précision et rapidité
  • Mistral NeMo :
    • Spécialisé en raisonnement et connaissances générales
    • Fenêtre de contexte de 128k tokens
    • Prend en charge plus de 10 langues, y compris le chinois, l’arabe et le portugais

Le Chat : L’alternative de Mistral à ChatGPT

le chat mistral

Mistral AI propose également Le Chat, un chatbot analogue à ChatGPT, Gemini ou Claude. Il permet de choisir entre différents modèles selon l’usage souhaité :

  • Mistral Large : Raisonnement avancé
  • Mistral Small : Rapidité et coût réduit
  • Mistral Next : Réponses concises et efficaces
  • Mistral Large 2 : Expérimentations et tests avancés

Le Chat est gratuit et accessible sur chat.mistral.ai/chat, avec une version payante prévue pour les entreprises.

Mistral AI vs. OpenAI : Qui est le meilleur ?

Le modèle Mistral Large 2 est comparable à GPT-4o, bien que GPT-4o surpasse Mistral sur les benchmarks de génération de code. Cependant, Mistral excelle en function calling et en rapport coût-performance.

Modèle Performance globale Prix (1M tokens entrée) Prix (1M tokens sortie)
GPT-4o Supérieur 5 dollars 15 dollars
Mistral Large 2 Très compétitif 3 dollars 9 dollars

Avec une différence de quelques points seulement en génération de code, Mistral Large 2 est un choix rentable pour les entreprises cherchant une IA performante à moindre coût.

Où utiliser les modèles Mistral AI ?

Les modèles de Mistral AI sont disponibles sur :

  • La Plateforme, l’environnement de développement et de déploiement de Mistral
  • Amazon Bedrock, Databricks, Snowflake Cortex, Azure AI
  • Le Chat pour tester les modèles en direct

Les modèles de Mistral AI s’intègrent dans diverses applications :

  • Chatbots et assistants virtuels
  • Résumé de texte et génération de contenu
  • Génération et optimisation de code
  • Analyse de texte et classification

Avec sa philosophie open source, ses modèles performants et sa stratégie de coût optimisé, Mistral AI se positionne comme un acteur clé du marché de l’IA générative. En poursuivant son développement, elle pourrait bien remettre en cause la domination d’OpenAI et Google.

Que pensez-vous des modèles de Mistral AI ? Seriez-vous prêt à les utiliser dans vos projets ?

Lire plus
Intelligence Artificielle

GPT-4.5 et GPT-5 : OpenAI précise ses plans pour l’avenir de l’IA !

GPT-4.5 et GPT-5 : OpenAI précise ses plans pour l'avenir de l'IA !

L’entreprise derrière ChatGPT et ses modèles d’IA générative GPT, OpenAI, travaille à la simplification et à la réorganisation de ses modèles d’intelligence artificielle. L’objectif est d’aider la majorité des utilisateurs de ChatGPT et d’outils similaires à obtenir les meilleurs résultats sans avoir à comprendre les différences entre tous les modèles.

Le PDG d’OpenAI, Sam Altman, a annoncé dans un post sur Twitter/X que la feuille de route de ChatGPT et des autres produits de l’entreprise évolue. Il a expliqué : « Nous voulons que l’IA fonctionne simplement pour vous ; nous avons conscience de la complexité croissante de nos modèles et de nos offres de produits. Nous détestons autant que vous le sélecteur de modèles et voulons revenir à une intelligence unifiée et magique ».

Le nouveau plan prévoit la sortie prochaine de GPT-4.5 (le modèle « Orion », mentionné dans des rapports l’année dernière), qui sera le dernier modèle de l’entreprise à ne pas utiliser le raisonnement par étapes (chain-of-thought). OpenAI semble donc vouloir se concentrer uniquement sur des modèles utilisant cette technique, comme GPT o1/o3 et DeepSeek R1, qui décomposent les requêtes en plusieurs étapes afin de réduire les erreurs et les hallucinations.

OpenAI prévoit également de lancer GPT-5 comme un système intégrant une grande partie des technologies de l’entreprise. Ce modèle inclura apparemment les fonctionnalités du modèle o3, qui sera donc abandonné en tant que modèle indépendant. GPT-5 prendra en charge la voix, le dessin (canvas), la recherche, l’analyse approfondie et d’autres usages, bien que l’accès à ces fonctionnalités puisse varier selon les abonnements.

Un des objectifs majeurs d’OpenAI est d’unifier tous ses modèles d’IA en des systèmes capables d’exploiter tous ses outils, de déterminer quand il est nécessaire de réfléchir plus longtemps ou non, et d’être utiles pour une large gamme de tâches. Ainsi, plutôt que de devoir choisir un modèle dans ChatGPT avant de saisir une requête, l’IA pourrait automatiquement sélectionner le modèle le plus adapté en fonction de la complexité du prompt.

Screen 2025 02 13 at 06.58.23

OpenAI prévoit de sortir son prochain grand modèle d’IA d’ici décembre

Le niveau gratuit de ChatGPT bénéficiera d’un accès illimité à GPT-5 avec un niveau d’intelligence standard, tandis que les abonnés Plus et Pro auront accès à un niveau d’intelligence encore plus élevé. Altman n’a pas précisé exactement quand GPT-4.5 et GPT-5 seront disponibles, mais il a donné une estimation vague de « semaines/mois ».

Peu de détails ont été donnés sur le système unifié de GPT-5, mais cette nouvelle approche semble prometteuse. OpenAI propose actuellement plusieurs modèles aux noms parfois confus, et la plupart des utilisateurs ne savent pas quel modèle convient le mieux à une tâche spécifique. Créer une interface unique capable de choisir automatiquement le meilleur modèle et les meilleurs processus pour chaque tâche serait une solution idéale.

Cette semaine, Elon Musk a proposé d’acheter la branche à but non lucratif de OpenAI pour 97,4 milliards de dollars, mais le conseil d’administration d’OpenAI prévoit de rejeter cette offre.

Lire plus
Intelligence Artificielle

OpenAI : Sam Altman prédit un futur dominé par l’IA, mais pas tout de suite

OpenAI : Sam Altman prédit un futur dominé par l'IA, mais pas tout de suite

Sam Altman, PDG d’OpenAI, s’est récemment exprimé sur l’avenir de l’intelligence artificielle dans un article de blog personnel. Contrairement à ceux qui prédisent une révolution instantanée, Altman estime que les changements à court terme seront minimes.

2025 : Une année sans bouleversement majeur dans l’IA

Selon Altman, le monde ne changera pas du jour au lendemain. En 2025, les gens « passeront la plupart de leur temps de la même manière qu’en 2024 ». L’amour, la famille, les débats en ligne et les randonnées dans la nature resteront au cœur de nos vies.

Cependant, le PDG d’OpenAI prédit que « l’avenir se présentera à nous d’une manière impossible à ignorer ». Les changements à long terme pour notre société et notre économie seront considérables.

Trois observations clés sur l’économie de l’IA

Sam Altman met en avant trois observations sur l’économie de l’IA :

  • L’intelligence de l’IA évolue avec le logarithme des ressources.
  • Le coût de l’IA diminue d’environ 10 fois tous les 12 mois, ce qui entraîne une utilisation accrue.
  • La valeur de l’augmentation de l’intelligence de l’IA est super-exponentielle.

Un impact profond sur le travail et l’économie

À long terme, Sam Altman prévoit que « nous trouverons de nouvelles choses à faire, de nouvelles façons d’être utiles les uns aux autres et de nouvelles façons de rivaliser, mais elles ne ressembleront peut-être pas beaucoup aux emplois d’aujourd’hui ».

Il prédit également que « le prix de nombreux biens finira par baisser considérablement (à l’heure actuelle, le coût de l’intelligence et le coût de l’énergie limitent beaucoup de choses), et le prix des biens de luxe et de quelques ressources intrinsèquement limitées comme la terre pourrait augmenter encore plus considérablement ».

L’IA : Une omniprésence croissante

En quelques années seulement, la technologie intelligente et l’IA ont connu une croissance exponentielle. Aujourd’hui, des chatbots d’IA répondent à des questions, gèrent le service client, et les appareils électroménagers et les téléphones portables sont truffés d’outils d’IA. « L’IA s’infiltrera dans tous les domaines de l’économie et de la société ; nous nous attendrons à ce que tout soit intelligent »

Sam Altman souligne la nécessité de donner aux gens plus de contrôle sur la technologie, notamment en open sourçant davantage, et d’accepter un équilibre entre sécurité et autonomisation individuelle.

L’avenir de l’IA reste incertain, notamment en ce qui concerne la réglementation. Cependant, l’omniprésence croissante de l’IA dans nos vies est indéniable.

Lire plus
Intelligence Artificielle

Google One AI Premium permet de débloquer davantage de fonctionnalités de NotebookLM Plus !

Google One AI Premium permet de débloquer davantage de fonctionnalités de NotebookLM Plus !

Nombreux sont ceux qui pensent à Gemini lorsqu’il s’agit d’une IA créée par Google, mais NotebookLM est souvent négligé et pourrait s’avérer plus utile que Gemini lui-même. Aujourd’hui, la version premium de l’IA, récemment arrivée pour les utilisateurs professionnels, est disponible pour tout le monde.

NotebookLM Plus est désormais disponible dans le cadre de l’abonnement One AI Premium de Google, qui donnait déjà accès à la version avancée de Gemini et à une meilleure intégration de l’IA dans les applications et services Google. NotebookLM permet aux utilisateurs de télécharger des sources, telles que des articles de recherche, des documents et, désormais, des vidéos YouTube, puis d’interagir avec l’IA pour obtenir des informations, résumer des points clés et même générer de nouveaux contenus sur la base de leurs documents.

Alors que certaines IA, dont Gemini, se sont récemment orientées vers la réalisation de recherches elles-mêmes, NotebookLM est un bon outil pour vous aider à faire des recherches. C’est un service intéressant que vous pouvez utiliser pour créer un chatbot compétent sur n’importe quel sujet que vous lui donnez.

Lancée en 2023, NotebookLM permet aux utilisateurs d’utiliser l’intelligence artificielle pour effectuer des recherches sur des sujets spécifiques et organiser leurs notes. Depuis son lancement, Google a enrichi l’application avec des fonctionnalités interactives, telles que la possibilité de plonger plus profondément dans les vidéos YouTube et de transformer les recherches en podcasts avec deux hôtes IA avec lesquels les utilisateurs peuvent également interagir.

notebook lm plus features

NotebookLM Plus : Des fonctionnalités premium pour les abonnés

NotebookLM Plus était auparavant disponible sous la forme d’un plan distinct destiné aux entreprises et aux établissements d’enseignement, et il offre une capacité considérablement accrue. Les abonnés bénéficient de 5x plus d’Audio Overviews, de la possibilité de créer plus de blocs-notes, de poser plus de questions et d’analyser plus de sources par bloc-notes.

Les utilisateurs bénéficient également de fonctions de personnalisation haut de gamme, telles que la modification de la manière dont ils partagent leurs carnets de notes et le suivi du nombre de consultations quotidiennes de leurs carnets de notes partagés. Cette option ne vous donne pas accès à un modèle linguistique spécial et plus avancé, mais elle élargit considérablement les capacités déjà existantes.

Google One AI Premium: Un abonnement complet pour les utilisateurs avancés

Pour rappel, Google One AI Premium est actuellement proposé au prix de 21,99 euros par mois. Il n’y a pas que les capacités d’IA, car il fonctionne également comme un abonnement Google One classique de 2 To. Vous bénéficiez de 2 To d’espace de stockage sur Google Drive et d’un grand nombre d’autres fonctionnalités dans les applications Google.

Avec l’intégration de NotebookLM Plus dans l’abonnement One AI Premium, Google offre une valeur ajoutée significative à ses abonnés. Les utilisateurs peuvent désormais profiter de fonctionnalités avancées de prise de notes et de recherche, le tout inclus dans un abonnement unique. Cette initiative renforce la position de Google en tant que fournisseur de solutions complètes et innovantes pour les utilisateurs avancés et les professionnels.

Lire plus