fermer
Couverture MWC  2026

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Baidu : 25 ans d’innovation et une vision ambitieuse pour l’IA

Baidu : 25 ans d'innovation et une vision ambitieuse pour l'IA

Le 1er janvier 2025, Baidu, le géant chinois de la technologie connu pour son moteur de recherche, a célébré son 25e anniversaire. À cette occasion, le cofondateur et PDG Robin Li a adressé une lettre inspirante à ses employés, revenant sur les grandes étapes de l’entreprise tout en partageant une vision audacieuse pour l’avenir de l’intelligence artificielle (IA).

Baidu Wenku : Un succès phare

Parmi les nombreuses réalisations de Baidu, Baidu Wenku s’est imposé comme un exemple de réussite. Cette plateforme de création de contenu alimentée par l’IA a dépassé les 40 millions d’utilisateurs payants et enregistre 70 millions d’utilisateurs actifs mensuels en novembre 2024. Robin Li a décrit Wenku comme une vitrine de la stratégie de Baidu, qui repose sur l’exploitation à grande échelle des applications pour stimuler les innovations technologiques.

Depuis des années, Baidu consacre plus de 20 % de son chiffre d’affaires à la recherche et au développement. Dans sa lettre, Robin Li a réaffirmé cet engagement, soulignant que les avancées technologiques émergent souvent des applications à grande échelle plutôt que l’inverse. Il a cité des exemples concrets, comme les progrès en IA générative et en conduite autonome, rendus possibles par une utilisation massive dans des conditions réelles.

2025 : Une année charnière pour l’IA

Baidu prévoit une croissance explosive des applications « natives IA » dans divers secteurs en 2025. Si le concept de « super apps » reste encore à concrétiser, Robin Li a insisté sur le fait que l’adoption de l’IA progresse rapidement grâce aux modèles de langage avancés et à des plateformes innovantes comme Wenku. Selon lui, l’influence de l’IA continuera de se renforcer, transformant des industries entières.

Innover malgré les risques

Robin Li a également mis en avant la capacité de Baidu à surmonter les risques liés à l’innovation de pointe. Il a rappelé que l’expérimentation est au cœur de la philosophie de l’entreprise, même si cela implique d’affronter des échecs. L’année 2024, bien que difficile, a été marquée par des percées notables, comme l’amélioration de la technologie de recherche d’images et le lancement de MiaoDa, un outil de génération de code performant.

Alors que la compétition dans le secteur de l’IA s’intensifie, Baidu vise à renforcer son leadership en capitalisant sur les innovations semées ces dernières années. Robin Li s’attend à ce que ces efforts portent leurs fruits en 2025, avec une adoption accrue et une reconnaissance du marché pour ses solutions IA.

Dans un message de clôture, Robin Li a appelé ses équipes à continuer d’innover et de persévérer, affirmant que Baidu est prêt à « naviguer sur les vents et les vagues » pour bâtir un avenir où l’IA enrichira les vies et transformera les industries.

À 25 ans, Baidu ne se contente pas de célébrer son passé, mais regarde fermement vers l’avenir. Avec des projets ambitieux dans l’IA, des plateformes à succès comme Wenku, et un engagement renouvelé envers l’innovation, l’entreprise semble déterminée à s’imposer comme un acteur incontournable de l’IA en 2025 et au-delà.

Lire plus
Intelligence Artificielle

DeepSeek : Nvidia salue l’IA chinoise malgré la chute de ses actions

GettyImages 2192215566 e17380115

Nvidia a qualifié le modèle R1 de DeepSeek d’« avancée remarquable dans le domaine de l’IA », malgré l’impact négatif de ce dernier sur le cours de ses actions, qui a enregistré une baisse historique de 17 %. Cette déclaration survient après que le modèle open source de la startup chinoise a surpassé de nombreux modèles américains, mettant en lumière l’efficacité et la compétitivité de DeepSeek.

Dans un entretien accordé à CNBC le 28 janvier, un porte-parole de Nvidia a reconnu les performances de DeepSeek : « DeepSeek est une excellente avancée en IA et illustre parfaitement le concept de Test Time Scaling. Leur travail démontre comment de nouveaux modèles peuvent être créés à l’aide de cette technique, en exploitant des modèles et des capacités de calcul largement disponibles, tout en respectant les contrôles d’exportation ».

Le modèle R1 de DeepSeek a été développé pour un coût de moins de 6 millions de dollars, une somme dérisoire comparée aux milliards investis par des géants comme OpenAI, Microsoft ou Google. Contrairement à ce que certains pourraient penser, Nvidia semble accueillir ce succès comme une opportunité plutôt qu’une menace, bien qu’il s’agisse probablement aussi d’une tentative de regagner la confiance des investisseurs après la chute spectaculaire de son action.

Nvidia a également mis fin à certaines spéculations concernant l’origine des GPU utilisés par DeepSeek. Contrairement aux rumeurs affirmant que DeepSeek avait contourné les interdictions américaines, Nvidia a confirmé que la startup chinoise avait utilisé des GPU conformes aux réglementations d’exportation.

« L’inférence nécessite un grand nombre de GPU Nvidia et des réseaux à haute performance. Nous avons désormais trois lois d’échelle : la préformation, la post-formation, et le Test Time Scaling, qui ouvrent de nouvelles opportunités », déclare société.

Un nouveau chapitre pour l’industrie de l’IA

L’approche de DeepSeek remet en question les investissements massifs nécessaires pour développer des modèles IA avancés. Alors que certaines entreprises misent sur des infrastructures coûteuses et des centres de données énergivores, DeepSeek prouve qu’il est possible d’obtenir des résultats impressionnants avec un budget modeste.

Cependant, Nvidia voit dans ces évolutions une chance d’élargir l’accès à l’IA, tout en restant un acteur clé de cette transformation.
La déclaration de l’entreprise positionne Nvidia comme un facilitateur pour les futurs modèles IA, même si cela signifie repenser les investissements traditionnels.

Une réponse stratégiquement positive

Malgré les pertes boursières, Nvidia adopte un ton optimiste, soulignant que les progrès réalisés par DeepSeek pourraient enrichir l’écosystème de l’IA et stimuler une adoption plus large. Cette déclaration marque également une rupture avec les approches concurrentielles habituelles, Nvidia cherchant à se présenter comme un partenaire essentiel dans cette nouvelle ère d’IA.

Avec des technologies plus accessibles et des coûts réduits, l’industrie pourrait bientôt connaître un bouleversement majeur, et Nvidia semble prêt à en être le pilier.

Lire plus
Intelligence Artificielle

Cybersécurité : l’IA, une arme à double tranchant

Cybersécurité : l'IA, une arme à double tranchant

L’essor de l’intelligence artificielle générative (GenAI) a profondément transformé le paysage de la cybersécurité. Si elle permet aux entreprises de renforcer leurs défenses contre les cyberattaques, elle est également exploitée par les hackers pour orchestrer des attaques de plus en plus sophistiquées.

Un rapport de Splunk CISO 2024 met en lumière cette dualité et révèle des divergences majeures entre les responsables de la cybersécurité et les conseils d’administration quant à la manière d’allouer les ressources et de faire face aux nouvelles menaces.

L’IA, une arme entre les mains des cybercriminels

Les hackers exploitent l’IA générative pour perfectionner leurs attaques, notamment en :

  • Rendant les cyberattaques existantes plus efficaces (+32 %)
  • Augmentant le volume d’attaques (+28 %)
  • Créant de nouveaux types de cybermenaces (+23 %)

Les cybercriminels utilisent des outils basés sur l’IA, comme ChatGPT et les modèles Generative Adversarial Networks (GAN), pour automatiser la création de malwares, faciliter l’ingénierie sociale et contourner les protections traditionnelles.

Dans ce contexte, l’IA est devenue la principale préoccupation des responsables de la cybersécurité (36 %), devant le cyber-extorsion (24 %) et les violations de données (23 %).

Les entreprises ripostent avec l’IA… mais à quel prix ?

Face à cette menace croissante, 52 % des responsables de la cybersécurité souhaitent intégrer des technologies d’IA pour sécuriser leurs infrastructures, contre seulement 33 % des conseils d’administration.

  • 39 % des responsables utilisent l’IA pour identifier les risques
  • 39 % pour l’analyse des menaces
  • 35 % pour la détection et la priorisation des attaques

Toutefois, un déséquilibre persiste entre les besoins en cybersécurité et les ressources allouées :

  • Seuls 29 % des responsables de la cybersécurité estiment avoir un budget suffisant, contre 41 % des conseils d’administration.
  • 64 % des responsables de la cybersécurité attribuent le succès des cyberattaques à un manque de moyens et de soutien interne.

Un manque d’alignement entre cybersécurité et gouvernance

Cette différence de perception entre les responsables de cybersécurité et les conseils d’administration représente un facteur de risque majeur pour les entreprises.

  • Les conseils d’administration sous-estiment souvent l’ampleur des cyberattaques et perçoivent les experts en cybersécurité comme étant « trop alarmistes ».
  • Les responsables de cybersécurité, quant à eux, peinent à faire valoir l’urgence d’investir dans la cybersécurité, malgré la montée en puissance des menaces.

Cependant, la prise de conscience commence à s’étendre, avec 91 % des entreprises augmentant les formations en cybersécurité pour les équipes juridiques et de conformité, et 90 % formant leurs responsables de la sécurité aux aspects légaux et réglementaires.

Comment renforcer la cybersécurité face aux cyberattaques dopées à l’IA ?

Adopter des pratiques d’hygiène cyber strictes

  • Utiliser des mots de passe complexes et uniques
  • Activer l’authentification multi-facteurs (MFA)
  • Déployer des gestionnaires de mots de passe pour éviter les fuites

80 % des violations de données proviennent de mots de passe faibles. Un simple oubli dans ce domaine peut exposer toute l’organisation à un risque majeur.

Former les employés aux bonnes pratiques

  • Organiser des formations régulières sur la cybersécurité
  • Sensibiliser les collaborateurs aux attaques par phishing et aux menaces internes
  • Mettre en place des protocoles clairs pour identifier et signaler les comportements suspects

Évaluer les risques liés aux fournisseurs tiers

  • Auditer les prestataires pour détecter d’éventuelles failles
  • Exiger des protocoles de cybersécurité robustes chez les partenaires
  • Anticiper les risques de dépendance technologique et de fuite de données

Un exemple marquant est l’attaque ayant visé le Trésor américain, considérée comme un « incident majeur ». Elle est survenue via une faille exploitée chez un fournisseur tiers, mettant en lumière les risques liés aux interdépendances technologiques.

Investir dans des solutions de cybersécurité avancées

  • Déployer des outils de détection des menaces basés sur l’IA
  • Mettre en place des pare-feu et des antivirus de nouvelle génération
  • Effectuer des tests d’intrusion réguliers pour identifier les failles de sécurité

L’IA, un allié précieux pour combler le déficit en compétences

La pénurie de talents en cybersécurité reste un défi de taille. Cependant, 86 % des experts estiment que l’IA peut aider à former de nouveaux talents et à pallier ce manque.

  • 65 % pensent que l’IA permet aux experts en cybersécurité d’être plus productifs
  • Les entreprises renforcent la collaboration entre les équipes de cybersécurité, de conformité et juridiques

En somme, l’IA est un levier puissant pour la cybersécurité, mais son utilisation nécessite une gouvernance rigoureuse, des investissements adaptés et une sensibilisation accrue des entreprises.

Face aux cyberattaques toujours plus sophistiquées, investir dans la cybersécurité n’est plus une option, mais une nécessité absolue.

Lire plus
Intelligence Artificielle

Apple Intelligence : encore des retards, sortie complète repoussée à 2026 ?

Apple Intelligence : encore des retards, sortie complète repoussée à 2026 ?

Les acheteurs de l’iPhone 16 attendent toujours le déploiement complet d’Apple Intelligence. Mais les fonctionnalités d’intelligence artificielle annoncées par Apple connaissent un lancement très progressif et subissent des retards répétés. Tim Cook, PDG d’Apple, a récemment déclaré que la nouvelle version de Siri arriverait dans les « prochains mois », laissant entendre un report supplémentaire.

Un Siri amélioré qui prend du retard

Le nouveau Siri est censé être la pièce maîtresse d’Apple Intelligence : un assistant réellement intelligent capable de comprendre le contenu de l’iPhone et d’exécuter des actions à travers plusieurs applications. Pour l’instant, Apple Intelligence se limite essentiellement à la rédaction de textes, à la génération d’emojis et à des résumés de notifications souvent approximatifs.

Les propos de Tim Cook viennent renforcer les affirmations du journaliste Mark Gurman, qui estimait déjà que la version complète d’Apple Intelligence ne serait pas prête avant 2026. Initialement prévu pour avril 2024 avec la mise à jour iOS 18.4, il semblerait désormais que Siri ne soit qu’annoncé cette année, mais réellement disponible l’année suivante.

Un mauvais calcul stratégique pour Apple

Cette situation représente une erreur majeure de la part d’Apple. L’iPhone 16 a été commercialisé sur deux arguments clés : Apple Intelligence et le bouton d’action pour l’appareil photo. Mais aujourd’hui :

  • Apple Intelligence n’est pas encore déployé partout et reste absent dans plusieurs régions.
  • L’iPhone 16 propose des fonctionnalités différentes en Europe en raison des régulations.

Repousser les principales nouveautés d’Apple Intelligence jusqu’en 2026 revient donc à dire aux acheteurs que l’iPhone 16 est un achat inutile et qu’il vaut mieux attendre l’iPhone 17.

Des promesses ambitieuses, mais une mise en œuvre lente

Lors de la dernière conférence sur les résultats financiers, Tim Cook a vanté les nouveaux outils d’intelligence artificielle à venir, affirmant que ce sont des fonctionnalités dont il serait « impossible de se passer une fois testées ». Reste à voir si ces affirmations se vérifieront, car, même si la plupart des consommateurs ne sont pas encore convaincus par l’IA sur smartphone, cette technologie a un véritable potentiel.

Samsung a également mis l’accent sur l’intelligence artificielle lors de son événement Galaxy Unpacked pour présenter le Galaxy S25. Si les promesses étaient élevées, l’expérience Galaxy AI semble pour l’instant peu révolutionnaire et ne change pas fondamentalement l’usage du smartphone.

En l’état actuel des choses, que l’on choisisse un iPhone 16 ou un Galaxy S25, il n’y a pas encore de véritable avancée décisive sur l’intelligence artificielle mobile. Reste à voir si Apple saura tenir ses engagements et proposer des outils réellement innovants avant l’arrivée de l’iPhone 17.

Lire plus
Intelligence Artificielle

DeepSeek : populaire, mais sous enquête pour achat de puces Nvidia

DeepSeek : populaire, mais sous enquête pour achat de puces Nvidia

L’entreprise chinoise DeepSeek connaît une ascension fulgurante aux États-Unis grâce à son modèle DeepSeek-R1, qui se positionne comme un concurrent sérieux des grands modèles de langage open source, dont GPT-4 de ChatGPT. Son principal avantage réside dans son coût réduit et son efficacité accrue, nécessitant moins de puissance de calcul pour générer des réponses.

Cette montée en puissance s’est traduite par une prise de contrôle symbolique : DeepSeek-R1 est devenu l’application gratuite la plus populaire sur l’App Store d’Apple, détrônant ChatGPT.

Des soupçons sur l’acquisition de puces Nvidia malgré les restrictions américaines

Un rapport publié vendredi révèle que DeepSeek aurait contourné les restrictions américaines sur l’achat de semi-conducteurs avancés destinés à l’intelligence artificielle. Selon plusieurs sources proches du dossier, l’entreprise chinoise aurait acheté des puces Nvidia via des intermédiaires situés à Singapour.

Cette révélation relance le débat sur la course à l’IA entre la Chine et les États-Unis. DeepSeek aurait développé son modèle LLM à un coût bien inférieur à celui de ChatGPT d’OpenAI ou de Gemini de Google, ce qui soulève des inquiétudes parmi les analystes américains. Certains se demandent si la Chine a pris une avance significative sur les États-Unis dans cette technologie en plein essor.

Nvidia, interrogé sur la question, a rappelé que ses partenaires doivent respecter la loi et que toute violation entraînerait des mesures appropriées.

Une IA encore perfectible en matière d’exactitude

Malgré l’engouement suscité par DeepSeek, une étude comparant 11 plateformes d’IA a révélé que DeepSeek ne se classe qu’en dixième position en termes de précision des réponses.

  • Seules 17 % des réponses étaient exactes.
  • 30 % contenaient des informations erronées.
  • 53 % des réponses à des questions d’actualité étaient vagues ou inutiles.

Ces résultats soulignent que, bien que prometteur, DeepSeek-R1 présente encore des faiblesses importantes, notamment en matière de fiabilité et de traitement de l’information.

Une enquête en cours du gouvernement américain

Les autorités américaines, notamment la Maison-Blanche et le FBI, enquêtent sur le rôle de Singapour dans l’approvisionnement en puces Nvidia destinées à DeepSeek.

Howard Lutnick, le choix du président Donald Trump pour diriger le Département du Commerce, a déclaré que la concurrence entre entreprises chinoises et américaines en matière d’IA était acceptable, mais que DeepSeek devait cesser d’utiliser des technologies américaines pour concurrencer les entreprises locales.

Des statistiques récentes montrent que la part des revenus de Nvidia provenant de Singapour est passée de 9 % à 22 % en deux ans, laissant penser que le pays pourrait avoir servi d’intermédiaire pour contourner les restrictions américaines.

DeepSeek reconnaît l’utilisation massive de puces Nvidia

DeepSeek a admis avoir utilisé 2 048 GPU Nvidia H800 pour l’entraînement de son modèle DeepSeek V3. Le modèle DeepSeek-R1, qui repose sur une machine encore plus puissante, aurait probablement nécessité l’utilisation de puces Nvidia plus avancées, dont l’exportation vers la Chine est pourtant interdite.

Cette affaire soulève des questions majeures sur la régulation et le contrôle de la technologie IA, à un moment où la course à l’intelligence artificielle entre la Chine et les États-Unis s’intensifie. Les prochaines étapes de l’enquête détermineront si DeepSeek a réellement contourné les restrictions américaines et quelles conséquences cela pourrait avoir sur la coopération technologique entre les deux pays.

Lire plus
Intelligence Artificielle

OpenAI lance o3-mini : Un modèle d’IA plus rapide, plus précis et disponible pour tous !

OpenAI lance o3-mini : Un modèle d'IA plus rapide, plus précis et disponible pour tous !

Face à la montée fulgurante de DeepSeek R1, OpenAI vient de dévoiler o3-mini, son nouveau modèle d’intelligence artificielle conçu pour le raisonnement avancé.

Après plusieurs jours de rumeurs et d’attente, OpenAI met aujourd’hui à disposition o3-mini dans ChatGPT (y compris pour les utilisateurs gratuits) et via son API, proposant une alternative plus rapide et moins coûteuse que son précédent modèle, o1.

Mais cette sortie suffira-t-elle à freiner l’ascension de DeepSeek R1, un modèle open source et peu coûteux, qui a rapidement séduit de nombreux utilisateurs ?

o3-mini : un modèle d’IA axé sur le raisonnement avancé

Annoncé en décembre, o3-mini appartient à une nouvelle famille de modèles dits « reasoners ». Ces modèles sont conçus pour prendre plus de temps à réfléchir, en analysant leurs propres processus et en affinant leur chaîne de raisonnement avant de répondre. L’objectif : atteindre un niveau de performance comparable à un étudiant en doctorat dans des domaines complexes comme les mathématiques, les sciences et l’ingénierie.

Contrairement à DeepSeek R1, o3-mini n’est pas open source. Il n’est donc pas possible de l’héberger localement ou de l’adapter librement, ce qui peut en limiter l’attrait pour certains développeurs et entreprises.

o3-mini a été optimisé pour les tâches de raisonnement en mathématiques, codage et sciences. Ses avantages par rapport à o1-mini incluent :

  • 24 % de temps de réponse en moins (passant de 12,8 à 10,32 secondes pour 100 tokens)
  • 56 % des testeurs préfèrent ses réponses par rapport à o1-mini
  • 39 % d’erreurs en moins sur des questions complexes du monde réel
  • Améliorations significatives en codage et en raisonnement scientifique
  • Trois niveaux de raisonnement disponibles (faible, moyen, élevé) pour ajuster l’équilibre entre rapidité et précision

L’un des points forts de o3-mini est son contexte étendu de 200 000 tokens, surpassant DeepSeek R1 (128,000 tokens), mais restant loin derrière Google Gemini 2.0 Flash Thinking (1 million de tokens).

À noter : o3-mini ne prend pas encore en charge l’analyse d’images. Pour cela, les utilisateurs devront continuer à utiliser o1.

D’après les premiers benchmarks fournis par OpenAI, o3-mini surpasse o1 dans plusieurs tâches de codage et de raisonnement, avec un coût et une latence réduits.

Les développeurs peuvent utiliser o3-mini via l’API d’OpenAI, notamment avec :

  • Chat Completions API
  • Assistants API
  • Batch API

Déploiement dans ChatGPT et nouveaux tarifs

Screen 2025 01 31 at 22.04.48

OpenAI rend o3-mini accessible gratuitement pour la première fois aux utilisateurs gratuits de ChatGPT.

  • Gratuit : les utilisateurs peuvent tester o3-mini en sélectionnant l’option « Reason » dans ChatGPT
  • ChatGPT Plus et Team (20 dollars/mois) : la limite de messages passe de 50 à 150 par jour
  • ChatGPT Pro (200 dollars/mois) : accès illimité à o3-mini et à sa version avancée o3-mini-high
  • API : disponible via Chat Completions API, Assistants API et Batch API

Côté prix, o3-mini coûte 63 % moins cher que o1-mini et 93 % moins cher que le modèle o1 complet :

  • 1,10 dollar/4,40 dollars par million de tokens (entrée/sortie) avec une remise de 50 % sur le cache
  • Toujours bien plus cher que DeepSeek R1 (0,14 dollar/0,55 dollar par million de tokens)

Cependant, OpenAI reste une option privilégiée pour les entreprises occidentales soucieuses de la sécurité des données, alors que DeepSeek R1 est un modèle chinois, soulevant des inquiétudes quant à la souveraineté des données.

DeepSeek R1 : un modèle open source qui bouscule l’équilibre

Depuis son lancement il y a deux semaines, DeepSeek R1 a provoqué un séisme dans l’industrie de l’IA.

  • Disponible gratuitement en open source, il permet aux développeurs et entreprises de l’adapter et de l’héberger localement.
  • Son prix très bas le rend plus accessible que les modèles propriétaires d’OpenAI.
  • Il a pris la première place de l’App Store US, surpassant l’application officielle de ChatGPT.

Même Microsoft et Amazon ont ajouté DeepSeek R1 à leurs plateformes cloud, tandis que Perplexity AI l’a intégré à son moteur de recherche.

Cependant, DeepSeek R1 présente aussi des failles :

  • Il se fait facilement « jailbreaker », exposant des risques de sécurité, contrairement à OpenAI qui met en avant une meilleure gestion de la sûreté des contenus.
  • Il ne dispose pas encore des outils d’intégration et des garanties offertes par OpenAI pour les entreprises.

OpenAI peut-il résister à la vague DeepSeek ?

Avec o3-mini, OpenAI tente d’asseoir sa position sur le marché face à l’essor des modèles open source.

Mais la pression est de plus en plus forte :

  • Google a récemment lancé Gemini 2.0 Flash Thinking, un modèle avancé avec un contexte d’un million de tokens.
  • DeepSeek R1 continue de croître et séduit de plus en plus d’entreprises et de développeurs indépendants.

OpenAI mise sur une meilleure sécurité, une intégration plus fluide et un support pour les entreprises pour maintenir son avance.

Mais à mesure que les modèles open source deviennent plus performants et plus abordables, sa stratégie actuelle suffira-t-elle à convaincre les utilisateurs de payer un abonnement coûteux ?

La concurrence dans l’IA n’a jamais été aussi intense, et les prochains mois seront décisifs pour OpenAI.

Lire plus
Intelligence Artificielle

DeepSeek R1 : l’IA locale débarque sur Windows 11 Copilot+ PC

Copilot PC Hero 1

Vous avez entendu parler de DeepSeek ? Microsoft a récemment annoncé l’intégration de versions distillées du modèle d’intelligence artificielle DeepSeek R1 sur les Windows 11 Copilot+ PC.

Cette initiative vise à permettre aux développeurs de créer des applications d’IA fonctionnant efficacement en local, sans nécessiter de connexion Internet, tout en renforçant la confidentialité des données des utilisateurs. 

Les premiers à bénéficier de cette intégration seront les appareils dotés des processeurs Snapdragon X Plus et X Elite de Qualcomm. Ces puces, présentes dans des ordinateurs portables de marques telles que ASUS, Lenovo, Dell, HP et Acer, disposent de puissantes unités de traitement neuronal (NPU) capables de 45 TOPS, idéales pour gérer les nouveaux modèles d’IA. 

Les dispositifs équipés des processeurs Intel Core Ultra 200V et des chipsets AMD Ryzen AI 300 suivront. AMD a déjà publié des guides pour l’intégration de DeepSeek R1 Distill, y compris pour leurs puces Ryzen 8040/7040 plus anciennes, bien que ces dernières ne disposent pas de la même puissance NPU que les modèles plus récents. 

Microsoft commencera par proposer le modèle « DeepSeek-R1-Distill-Qwen-1.5B » via l’AI Toolkit pour Visual Studio Code. Les variantes plus puissantes de 7B et 14B seront déployées ultérieurement. Ces modèles optimisés permettront aux développeurs de créer et de déployer des applications d’IA fonctionnant efficacement sur les appareils, tirant pleinement parti des NPU des PC Copilot+. 

Avantages de l’intégration locale de DeepSeek R1

  • Efficacité : Les applications d’IA pourront fonctionner sans connexion Internet, réduisant ainsi la latence et améliorant les performances.
  • Confidentialité : Les données des utilisateurs seront traitées localement, diminuant les risques associés au transfert de données vers le cloud.

Cette démarche de Microsoft vise à démocratiser l’accès aux outils d’IA pour les développeurs, en leur fournissant les ressources nécessaires pour créer des applications innovantes et respectueuses de la confidentialité des utilisateurs.

Et si vous voulez d’ores et déjà jouer avec DeepSeek en vocal, suivez le guide !

Lire plus
Intelligence Artificielle

Qu’est-ce qui différencie DeepSeek des autres modèles d’IA ?

Qu'est-ce qui différencie DeepSeek des autres modèles d'IA ?

L’industrie de l’intelligence artificielle a longtemps été dominée par des entreprises américaines comme OpenAI, Google et Meta. Cependant, l’émergence récente de DeepSeek, une startup chinoise d’IA, a bouleversé le paysage mondial de l’IA.

Son dernier modèle, DeepSeek-R1, fait la une de l’actualité grâce à ses performances compétitives, son approche open source et son développement à moindre coût. Alors que l’IA devient un élément clé de l’innovation technologique, comprendre en quoi DeepSeek se différencie des leaders du marché est essentiel.

1. Modèle open source vs IA propriétaire

DeepSeek adopte une approche différente des géants américains de l’IA comme OpenAI en priorisant le développement open source. Son modèle DeepSeek-R1, publié sous licence MIT, permet aux chercheurs, développeurs et entreprises d’accéder librement au code, de le modifier et de le déployer.

En revanche, OpenAI s’est éloigné de son engagement initial envers l’open source, gardant ses nouveaux modèles GPT propriétaires. L’approche open source de DeepSeek favorise la transparence, la collaboration et réduit les barrières à l’adoption de l’IA, rendant son modèle attrayant pour les entreprises et développeurs souhaitant éviter un écosystème fermé.

2. Paramètres et architecture du modèle DeepSeek R1

DeepSeek-R1 repose sur une architecture Mixture-of-Experts (MoE), optimisant l’efficacité computationnelle. Bien que le modèle dispose de 671 milliards de paramètres, seuls 37 milliards sont activés simultanément, ce qui permet de réduire la consommation de ressources tout en maintenant un haut niveau de performance.

En comparaison, GPT-4 d’OpenAI est estimé à 1,8 trillion de paramètres, nécessitant beaucoup plus de puissance de calcul et entraînant des coûts d’exploitation plus élevés. L’optimisation de DeepSeek lui permet d’être plus économe en ressources tout en garantissant précision et efficacité dans les tâches textuelles.

3. Coût et efficacité des ressources

DeepSeek a réussi à rivaliser avec des modèles comme GPT-4o d’OpenAI, Llama 3.1 de Meta et Claude 3.5 Sonnet d’Anthropic, mais avec un budget bien inférieur.

L’entreprise affirme avoir entraîné DeepSeek-R1 avec un budget de 5,6 millions de dollars, bien loin des centaines de millions dépensés par ses concurrents. Cette économie est due à l’architecture Mixture-of-Experts, qui n’active que les parties pertinentes du modèle à chaque interaction, optimisant ainsi les coûts.

De plus, DeepSeek a utilisé des GPU H800 — une version légèrement moins puissante des Nvidia H100, qui sont interdits d’exportation vers la Chine en raison des sanctions américaines. Malgré ces restrictions, DeepSeek prouve qu’il est possible de développer des modèles IA très compétitifs avec des ressources limitées.

4. Raisonnement et compétences en programmation

DeepSeek-R1 excelle dans les tâches techniques, notamment le raisonnement logique, la programmation et les mathématiques.

Screen 2025 01 27 at 22.07.32

Dans les benchmarks, il a surpassé GPT-4o et d’autres modèles dans :

  • La résolution de problèmes logiques
  • Les calculs mathématiques complexes
  • La génération de code

Il a obtenu un score de 2 029 Elo sur Codeforces, dépassant 96,3 % des participants humains aux compétitions de programmation. Son approche par « chain-of-thought » (CoT) lui permet de diviser les problèmes complexes en plusieurs étapes, comme le fait également le modèle o1 d’OpenAI.

Cependant, OpenAI reste supérieur pour l’écriture créative, les interactions conversationnelles naturelles et l’interprétation contextuelle avancée.

DeepSeek s’impose donc comme l’IA préférée des développeurs, ingénieurs et chercheurs, qui recherchent des réponses logiques et précises plutôt qu’une IA orientée vers la créativité.

5. Langues et marchés ciblés

DeepSeek est bilingue par conception, conçu pour l’anglais et le chinois, contrairement à OpenAI, qui se concentre principalement sur l’anglais. Il surpasse les modèles américains dans les tests en chinois, le rendant particulièrement intéressant pour les entreprises et développeurs travaillant en Chine ou dans les régions sinophones.

Cependant, un problème de mélange linguistique a été signalé : l’IA a tendance à insérer du chinois dans des réponses en anglais, ce que DeepSeek tente encore d’améliorer.

6. Prix compétitif

DeepSeek-R1 détrône OpenAI sur le rapport qualité/prix.

  • Prix API DeepSeek : 0,14 dollar/million de tokens
  • Prix API GPT-4o : 7,50 dollars/million de tokens

Ce tarif ultra-compétitif rend DeepSeek particulièrement attractif pour les entreprises et développeurs souhaitant un modèle performant sans exploser leurs coûts opérationnels.

7. Sécurité et censure

En tant qu’entreprise chinoise, DeepSeek est soumis aux lois strictes de censure chinoise. L’IA refuse de répondre aux sujets sensibles, tels que le massacre de Tiananmen ou les droits de l’Homme en Chine.

OpenAI et d’autres IA américaines appliquent également une modération de contenu, mais basée sur des critères éthiques et de sécurité plutôt que des restrictions gouvernementales.

DeepSeek a récemment été banni en Italie, où l’autorité de protection des données Garante enquête sur ses pratiques de collecte de données et sa conformité au RGPD européen.

8. Impact sur le marché et disruption de l’industrie

L’arrivée de DeepSeek-R1 a secoué les marchés mondiaux de l’IA :

  • Nvidia a perdu 600 milliards de dollars en valorisation suite aux craintes que les modèles IA moins coûteux réduisent la demande en puces IA haut de gamme.
  • Alibaba (Qwen) et ByteDance (TikTok) ont immédiatement accéléré leurs propres projets d’IA pour rivaliser avec DeepSeek.
  • Donald Trump et d’autres responsables américains considèrent désormais DeepSeek comme une potentielle menace pour la suprématie américaine dans l’IA.

9. Perspectives d’avenir de DeepSeek et conséquences sur l’industrie

DeepSeek ambitionne d’atteindre l’AGI (Artificial General Intelligence), au même titre qu’OpenAI.

Cependant, son avenir dépendra de :

  • Son adoption internationale
  • Les régulations américaines
  • Ses futures innovations en IA

L’intensification de la course à l’IA montre que les modèles plus petits et plus rentables, comme DeepSeek pourraient bien représenter l’avenir de l’intelligence artificielle, plutôt que les modèles géants nécessitant des ressources colossales.

Lire plus
Intelligence Artificielle

Apple Intelligence : Enfin disponible en français et dans d’autres langues en avril !

Apple Intelligence : Enfin disponible en français et dans d'autres langues en avril !

L’année dernière, Apple a introduit Apple Intelligence, son ensemble de fonctionnalités dopées à l’intelligence artificielle. Dans un premier temps, ces fonctionnalités étaient exclusivement disponibles en anglais. Par la suite, Apple a étendu son support aux variantes anglaises propres à l’Australie, au Canada, à la Nouvelle-Zélande, à l’Afrique du Sud et au Royaume-Uni.

Désormais, Apple s’apprête à intégrer encore plus de langues dans son système d’IA.

Apple Intelligence : Un déploiement prévu en avril pour plusieurs langues

Apple Intelligence sera bientôt disponible en : français, allemand, italien, portugais, espagnol, japonais, coréen et chinois simplifié. En plus, des versions anglaises spécifiques à l’Inde et à Singapour seront ajoutées.

Tim Cook, PDG d’Apple, a confirmé cette expansion linguistique lors de la conférence des résultats du quatrième trimestre 2024. Il a indiqué que le déploiement aura lieu en avril, une annonce qui avait déjà été teasée auparavant.

L’ajout du support pour le français, l’allemand, l’italien, le portugais et l’espagnol coïncide avec le lancement prévu de Apple Intelligence en Europe en avril.

Jusqu’à présent, les fonctionnalités d’Apple Intelligence n’étaient pas disponibles dans la plupart des pays européens, notamment dans les 27 États membres de l’Union européenne. Cette situation était principalement due aux contraintes réglementaires imposées par le Digital Markets Act (DMA).

Le DMA, conçu pour prévenir les abus des grandes entreprises technologiques et protéger la concurrence, a retardé le déploiement d’Apple Intelligence en Europe.

Quels appareils sont concernés ?

  • iPhone et iPad : le déploiement a été retardé en raison des contraintes du DMA.
  • MacBook : Apple Intelligence est déjà disponible sur macOS dans l’UE.

L’arrivée de ces nouvelles langues sera donc une excellente nouvelle pour les utilisateurs européens, qui attendaient depuis longtemps l’accès aux fonctionnalités d’IA d’Apple.

Une sortie progressive et un Siri amélioré en attente

66e007f27ebc6f8e02699ef7 Apple 1

Le lancement d’Apple Intelligence est lent et progressif, et les utilisateurs attendent encore la nouvelle version de Siri, qui devrait comprendre le contexte affiché à l’écran. Tim Cook a mentionné lors de la conférence des résultats qu’un Siri amélioré arrivera dans les prochains mois. Cependant, cette mise à jour avait déjà été annoncée plus tôt, ce qui soulève des doutes sur un nouveau retard potentiel.

L’attente prolongée pourrait profiter à la concurrence, alors qu’Apple doit absolument proposer un Siri véritablement compétitif.

Le marché des assistants intelligents devient de plus en plus compétitif, et Apple doit impérativement rattraper son retard.

Pourquoi Apple doit accélérer ?

  • Google Gemini : Disponible sur iOS et Android, il n’est plus limité aux appareils Google.
  • ChatGPT : Une alternative puissante, disponible sur toutes les plateformes.
  • Assistants tiers : Beaucoup de consommateurs utilisent déjà d’autres IA, ce qui complique la tâche d’Apple pour les faire revenir sur Siri.

Si Apple Intelligence et Siri ne tiennent pas leurs promesses, beaucoup d’utilisateurs pourraient définitivement adopter des alternatives, comme Google Gemini ou ChatGPT.

Reste à voir si Apple Intelligence tiendra ses promesses et si Siri sera enfin à la hauteur des alternatives existantes.

Lire plus
Intelligence Artificielle

Elon Musk: « L’IA a épuisé les données humaines ! », place aux données synthétiques

Elon Musk: « L’IA a épuisé les données humaines ! », place aux données synthétiques

Lors d’une récente interview en direct sur X, le PDG de Tesla et X, Elon Musk, a déclaré que l’industrie de l’IA est arrivée à une étape critique : l’épuisement des données générées par les humains pour entraîner les modèles d’intelligence artificielle.

Ces propos rejoignent ceux d’Ilya Sutskever, ancien chercheur chez OpenAI, qui avait averti l’année dernière que l’industrie approchait du seuil de « données maximales ».

Le plafond des données humaines

Musk estime que l’offre de données issues du monde réel, produites par les humains, n’est plus suffisante pour répondre aux besoins des modèles d’IA de plus en plus sophistiqués, comme son chatbot IA Grok.

« Nous avons maintenant épuisé, pour l’entraînement de l’IA, pratiquement l’ensemble des connaissances humaines cumulées… Cela s’est produit l’année dernière », a déclaré Musk.

Cette pénurie de nouvelles données humaines pourrait freiner le développement des systèmes d’IA, qui dépendent généralement de vastes ensembles de données diversifiées pour améliorer leur précision et leurs performances.

Les données synthétiques comme solution

Pour pallier ce problème, Musk préconise l’utilisation de données synthétiques — des informations générées par l’IA elle-même pour simuler des scénarios du monde réel. Plusieurs grandes entreprises, telles que Google, OpenAI, Meta et Anthropic, utilisent déjà cette approche dans leurs processus d’entraînement.

Musk a détaillé le rôle des données synthétiques dans l’entraînement de l’IA : « La seule façon de compléter [les données du monde réel] est d’utiliser des données synthétiques, où l’IA crée [les données d’entraînement]… [L’IA] s’auto-évalue et traverse ce processus d’auto-apprentissage ».

Bien que les données synthétiques offrent une alternative rentable et évolutive, elles comportent des risques. Certaines études montrent qu’un usage excessif de ces données peut entraîner un effondrement des modèles, où les systèmes d’IA, entraînés de manière récursive, deviennent moins créatifs et affichent des biais plus marqués.

Lancement de Grok AI : une nouvelle étape

Malgré ces défis, Musk continue d’élargir ses initiatives en IA. Jeudi, l’application autonome Grok, auparavant réservée aux abonnés premium de X, a été lancée gratuitement pour iOS. Grok inclut un chatbot et un générateur d’images, qui se distinguent par leur absence de restrictions liées à la propriété intellectuelle et au contenu, un point qui le différencie des concurrents comme ChatGPT ou Gemini.

L’avenir de l’IA face à la rareté des données

Les déclarations de Musk et l’adoption croissante des données synthétiques par l’industrie marquent un tournant majeur pour l’IA. Alors que les sources de données naturelles diminuent, les entreprises doivent trouver un équilibre entre l’utilisation des données synthétiques pour poursuivre leurs progrès et les risques de dégradation de la qualité des systèmes d’IA.

Les implications à long terme de ce virage restent incertaines, mais, pour l’instant, les données synthétiques apparaissent comme la prochaine frontière du développement de l’IA. La question clé sera de savoir si cette approche peut soutenir l’innovation rapide sans compromettre la créativité et la diversité des résultats de l’IA.

Lire plus
Intelligence Artificielle

Meta : Zuckerberg tempère l’impact de DeepSeek sur l’IA

Meta : Zuckerberg tempère l'impact de DeepSeek sur l'IA

Le 29 janvier, le PDG de Meta, Mark Zuckerberg, a déclaré qu’il était encore trop tôt pour évaluer l’impact du modèle d’IA révolutionnaire de DeepSeek sur son entreprise et sur l’industrie technologique en général.

Il a toutefois affirmé que Meta ne réduirait pas ses investissements en IA, malgré les affirmations selon lesquelles DeepSeek a démontré que des IA de pointe peuvent être développées avec moins de ressources financières et de puissance de calcul que prévu.

Zuckerberg a déclaré : « Il est probablement trop tôt pour avoir une opinion tranchée sur ce que cela signifie pour la trajectoire de notre infrastructure et de nos dépenses d’investissement. Plusieurs tendances se manifestent simultanément ».

Malgré cela, Meta poursuit l’expansion de ses capacités en IA. Lors de l’appel sur les résultats du premier trimestre, Zuckerberg a annoncé que le géant technologique investirait « très massivement » des « centaines de milliards de dollars » dans l’IA à long terme.

Meta a enregistré une augmentation de 21 % de ses ventes par rapport à l’année précédente, atteignant 48,39 milliards de dollars, dépassant les attentes de Wall Street.

Le 27 janvier, les actions de Meta ont augmenté de près de 2 %, suggérant que certains investisseurs pensent que la percée de DeepSeek en matière d’IA rentable pourrait aider l’entreprise à développer des systèmes d’IA puissants à moindre coût.

Meta va  ses capacités en IA

Parallèlement, Meta a annoncé la semaine dernière son intention d’investir entre 60 et 65 milliards de dollars cette année dans le cadre de son expansion en IA. Le 29 janvier, l’entreprise a indiqué que ses dépenses totales pour 2025 devraient se situer entre 114 et 119 milliards de dollars.

Zuckerberg a précisé que Meta continuerait à tirer des enseignements de technologies comme celle de DeepSeek tout en poursuivant le déploiement de ses propres modèles d’IA open source, tels que Llama, pour faire progresser l’industrie.

Il a également souligné que l’émergence de DeepSeek renforce la conviction de l’entreprise en une approche open source de l’IA. Il a déclaré : « Il y aura une norme open source au niveau mondial. Pour notre propre avantage national, il est important que ce soit une norme américaine ».

Lire plus
Intelligence Artificielle

NotebookLM : L’outil ultime pour les étudiants et les chercheurs

NotebookLM : L'outil ultime pour les étudiants et les chercheurs

La recherche peut parfois ressembler à une véritable montagne à gravir. Entre la gestion de multiples sources, le décryptage de documents complexes et la nécessité de garder des notes organisées, il est facile de se sentir débordé. NotebookLM vise à révolutionner cette expérience en rendant le processus plus fluide et intuitif grâce à une série de mises à jour innovantes.

Imaginez pouvoir télécharger toutes vos sources, poser des questions précises et recevoir en quelques secondes des réponses claires et référencées. Ou encore, écouter un résumé audio d’un rapport dense pendant vos déplacements. Bien que ces fonctionnalités soient prometteuses, elles nécessitent une utilisation avisée pour maximiser leur potentiel.

Voici un aperçu approfondi des outils de NotebookLM et des considérations clés pour optimiser votre expérience de recherche.

NotebookLM, une interface repensée pour une utilisation simplifiée

Avec sa nouvelle mise à jour, NotebookLM présente une interface à trois volets conçue pour maximiser l’efficacité :

  1. Téléchargement et organisation simplifiés : Importez des fichiers dans divers formats (PDF, Google Docs, liens Web).
  2. Outils d’IA intégrés : Accédez à des résumés, des analyses approfondies et des idées générées par l’IA.
  3. Révision simplifiée : Évaluez les résultats produits sans navigations complexes.

Screen 2025 01 13 at 13.39.20 scaled

Cette interface facilite la gestion des documents de recherche, qu’il s’agisse d’examens de littérature scientifique ou d’analyses de données techniques, permettant aux utilisateurs de se concentrer sur le contenu plutôt que sur le processus.

Une intégration robuste des sources pour une recherche complète

NotebookLM permet de consolider jusqu’à 50 fichiers par notebook, allant des articles académiques aux rapports techniques. Une fois les documents téléchargés, la plateforme génère automatiquement des résumés et identifie les sujets clés, réduisant ainsi considérablement le temps et l’effort nécessaires.

Cette fonctionnalité est particulièrement précieuse pour des projets impliquant de gros volumes d’information. Elle offre une vue d’ensemble des matériaux, permettant de révéler des connexions ou des idées parfois difficiles à identifier manuellement.

Une interaction conversationnelle avec vos données

L’outil d’IA conversationnelle de NotebookLM change la manière d’interagir avec vos matériaux de recherche. En posant des questions spécifiques sur vos sources, vous recevez des réponses détaillées et référencées. Par exemple, l’IA peut vous diriger directement vers la section d’un document contenant les informations recherchées.

Cependant, il est crucial de vérifier les réponses générées par l’IA, car elles peuvent parfois contenir des erreurs ou des interprétations incorrectes. Une validation rigoureuse est essentielle pour garantir la fiabilité de vos résultats.

Résumés audio : accessibilité et efficacité

Screen 2025 01 13 at 13.40.18

L’introduction de résumés audio générés par l’IA est une autre avancée significative. Vous pouvez désormais écouter des synthèses concises de vos sources, ce qui est idéal pour absorber des informations lors de vos déplacements.

Les utilisateurs peuvent personnaliser les résumés en se concentrant sur des sujets ou sections spécifiques. De plus, le mode interactif permet de poser des questions de suivi pendant l’écoute, bien que des interruptions occasionnelles puissent perturber l’expérience.

Gestion avancée des notes et outils d’étude

NotebookLM excelle également dans la gestion des notes et la création d’outils d’étude. Vous pouvez :

  • Créer et organiser des notes liées à des sources spécifiques.
  • Associer des notes à des passages précis pour une meilleure traçabilité.
  • Générer des guides d’étude ou des documents de synthèse à partir de vos matériaux.

Ces fonctionnalités sont particulièrement utiles pour maîtriser des sujets complexes ou peu familiers, en transformant des informations denses en idées exploitables.

Une solution polyvalente pour différents domaines

Les outils de NotebookLM s’adressent à une variété de disciplines et de besoins professionnels. Que vous soyez :

  • Chercheur académique travaillant sur une thèse.
  • Étudiant synthétisant des connaissances existantes.
  • Analyste technique explorant des données scientifiques.

NotebookLM vous aide à rationaliser vos workflows et à améliorer votre productivité. Son aptitude à intégrer et synthétiser des informations issues de plusieurs sources en fait un allié précieux pour révéler des motifs, des connexions et des idées innovantes.

Points clés pour une utilisation efficace

Bien que NotebookLM offre un ensemble d’outils puissants, il est essentiel de les utiliser de manière critique. Les réponses générées par l’IA peuvent ne pas toujours être précises ou contextuellement appropriées. De même, la fonction audio, bien qu’innovante, nécessite encore des améliorations pour garantir une expérience parfaitement fluide.

En combinant les outils de NotebookLM avec une supervision humaine rigoureuse, vous pouvez maximiser les avantages tout en atténuant les éventuels inconvénients. Cette approche équilibrée vous permet de tirer le meilleur parti de la plateforme tout en maintenant la qualité et la fiabilité de vos travaux de recherche.

Lire plus
Intelligence Artificielle

DeepSeek R1 sur Azure : L’IA chinoise accessible aux entreprises !

DeepSeek R1 sur Azure : L'IA chinoise accessible aux entreprises !

DeepSeek, une start-up chinoise spécialisée dans l’intelligence artificielle, a récemment bouleversé le secteur avec son modèle de langage, DeepSeek-R1. Ce modèle se distingue par des coûts de formation réduits, une efficacité énergétique accrue et des performances comparables à celles de ses concurrents occidentaux. Alors que des géants comme Meta, Google et OpenAI tentent de comprendre les raisons de cette avancée soudaine, Microsoft a choisi une approche différente en intégrant cette technologie prometteuse.

Mercredi, Microsoft a annoncé l’ajout de DeepSeek R1 à son vaste catalogue de modèles disponible sur Azure AI Foundry et sur GitHub. Cette collection compte désormais plus de 1 800 modèles, couvrant aussi bien des solutions de pointe et open source que des modèles spécialisés par secteur ou orientés tâches.

Ainsi, DeepSeek R1 est maintenant accessible via Azure AI Foundry, offrant une plateforme fiable, évolutive et adaptée aux entreprises. Cette intégration permet aux entreprises d’adopter facilement des solutions d’IA avancées, tout en respectant les accords de niveau de service (SLA), les normes de sécurité et les principes d’IA responsable — le tout soutenu par l’engagement de Microsoft en matière de fiabilité et d’innovation.

Asha Sharma, Corporate Vice President de la plateforme IA chez Microsoft, a souligné l’essor rapide de l’accessibilité au raisonnement par l’IA, qui transforme la manière dont les développeurs et les entreprises utilisent ces technologies avancées. Elle a insisté sur le fait que DeepSeek R1 constitue un modèle rentable pour les utilisateurs qui souhaitent exploiter des capacités d’IA de pointe en investissant le moins possible en infrastructure.

L’intégration de DeepSeek R1 dans Azure AI Foundry accélère les processus d’expérimentation, d’itération et d’intégration pour les développeurs. Grâce aux outils d’évaluation de modèles, ils peuvent comparer les résultats, mesurer les performances et passer rapidement à l’échelle pour leurs applications d’IA.

Engagement en faveur d’un développement IA fiable

Sharma a également souligné l’engagement de Microsoft pour la sûreté et la sécurité. DeepSeek R1 a fait l’objet de tests rigoureux et de contrôles de sécurité. Azure AI Content Safety propose par défaut un filtrage de contenu, avec possibilité de se désinscrire, tandis que le Safety Evaluation System aide à tester les applications avant leur mise en ligne pour garantir un déploiement en toute sécurité.

Pour utiliser DeepSeek R1 :

  1. Créez un compte Azure si vous n’en possédez pas déjà un.
  2. Recherchez DeepSeek R1 dans le catalogue de modèles d’Azure AI Foundry.
  3. Ouvrez la fiche du modèle et cliquez sur « Deploy » pour obtenir l’API d’inférence et la clé, ainsi que l’accès au Playground.
  4. Utilisez l’API et la clé avec différents clients pour intégrer le modèle dans vos applications.

kSU6o5t7aEu5Syz6hVHMQ6 1200 80

Déploiement local sur les PC Copilot+

Microsoft prévoit également d’apporter des versions de DeepSeek R1 optimisées pour les NPU (Neural Processing Unit) sur les Copilot+ PC, en commençant par la gamme Snapdragon X de Qualcomm, puis en poursuivant avec l’Intel Core Ultra 200V.

La première version, DeepSeek-R1-Distill-Qwen-1.5B, sera disponible dans l’AI Toolkit, suivie de variantes 7B et 14B. Grâce à ces modèles, les développeurs pourront créer et déployer des applications reposant sur l’IA de manière efficace et locale, en exploitant la puissance des NPUs.

Les NPU des Copilot+ PC prennent en charge l’inférence efficace de modèles, permettant une exécution semi-continue de l’IA générative. Les travaux de Microsoft autour de Phi Silica ont permis d’obtenir des résultats performants tant sur le temps de génération du premier jeton (time-to-first-token) que sur le débit, tout en réduisant l’impact sur l’autonomie de la batterie et les ressources du PC.

Les modèles DeepSeek optimisés pour NPU utilisent des techniques tels que la quantification basse résolution (low-bit) et le mappage des transformers sur le NPU, assurant une compatibilité dans l’écosystème Windows via le format ONNX QDQ.

Disponibilité

DeepSeek R1 est désormais disponible via un endpoint serverless dans le catalogue de modèles d’Azure AI Foundry. Vous trouverez davantage de ressources et des guides pas à pas sur GitHub. Les versions distillées de DeepSeek R1 pour un déploiement local sur les Copilot+ PC seront accessibles très prochainement.

Lire plus
Intelligence Artificielle

Gemini 2.0 : l’IA nouvelle génération arrive pour tous les utilisateurs

Google gemini 2 0 Flash

Le mois dernier, Google a commencé à tester Gemini 2.0, censé rendre le chatbot IA de Google plus puissant et plus performant que jamais. Désormais, cette mise à jour est enfin disponible pour tout le monde.

Google a officiellement commencé à déployer les versions stables de Gemini 2.0 dans l’application Gemini, rendant ainsi les nouvelles capacités du modèle IA accessibles à tous les utilisateurs, y compris ceux de la formule gratuite. La version d’aperçu des modèles Flash et Advanced avait déjà été proposée aux utilisateurs de Gemini Advanced pour qu’ils puissent l’essayer.

Édition Gemini 2.0 « Flash » pour les tâches du quotidien

Gemini 2,0 Flash, conçu pour les « tâches de tous les jours », arrive peu à peu chez les utilisateurs. Quant au modèle Advanced, qui s’appellera probablement « Gemini 2.0 Pro », il lui faudra un peu plus de temps avant d’être disponible. La version 2.0 Advanced en préversion a mis quelques jours de plus à apparaître par rapport à Flash, on peut donc s’attendre à la voir d’ici la semaine prochaine si tout est prêt.

Le modèle 1.5 Pro est déjà indiqué comme « ancien modèle », donc la sortie de 2,0 Pro ne devrait plus tarder non plus.

Bien que l’accès aux fichiers et à Google Drive reste réservé aux abonnés Gemini Advanced, le fait que la version gratuite bénéficie désormais du téléversement d’images est plutôt notable. Google vante les mérites de 2,0 Flash, évoquant une vitesse de réponse accrue et de meilleures performances dans divers domaines (code, exactitude des faits, mathématiques et raisonnement) par rapport à l’ancien modèle 1.5 qu’il remplace.

En plus de la rapidité accrue, Gemini 2,0 Flash améliore ses performances sur plusieurs points clés, notamment en matière de précision, de complétude des réponses et de gestion de requêtes complexes. Cela rend l’application encore plus utile pour les tâches exigeantes ou les demandes d’informations approfondies.

Les abonnés à Gemini Advanced bénéficient toujours d’une fenêtre de contexte de 1 million de tokens, permettant de télécharger et de travailler avec des fichiers volumineux pouvant atteindre 1 500 pages. Cette fonctionnalité est particulièrement utile pour les professionnels, les chercheurs ou toute personne traitant de grandes quantités d’informations.

Vers la mise à niveau 2.0 Pro et retrait progressif des anciens modèles

En parallèle du déploiement de 2,0 Flash et de l’arrivée imminente de 2,0 Pro, Google retire progressivement ses anciens modèles, 1,5 Flash et 1,5 Pro, en les indiquant comme « Ancien modèle » dans l’application. Ils restent accessibles pour une période limitée, afin de continuer d’accéder à vos conversations existantes si nécessaire.

Dans une mise à jour distincte, Google a amélioré la génération d’images au sein de Gemini en passant à Imagen 3. Cette évolution promet des détails plus riches, de meilleures textures et une plus grande fidélité par rapport aux instructions de l’utilisateur.

La mise à jour Gemini 2.0 Flash est désormais en cours de déploiement à l’échelle mondiale sur la version Web. Elle devrait bientôt arriver dans l’application.

Lire plus
Intelligence Artificielle

DeepSeek banni en Italie : L’IA chinoise dans la tourmente

DeepSeek banni en Italie : L'IA chinoise dans la tourmente

Une startup chinoise spécialisée en intelligence artificielle, DeepSeek, est actuellement au centre d’une controverse en Italie après le retrait de son application des boutiques Apple App Store et Google Play.

Cette action fait suite à une enquête menée par l’autorité italienne de protection des données, le Garante, concernant les pratiques de collecte et de traitement des données par DeepSeek. Des préoccupations analogues ont également été soulevées aux États-Unis et en Australie, mettant en lumière des inquiétudes mondiales concernant la confidentialité et la sécurité des données.

Enquête du régulateur italien sur les pratiques de DeepSeek

Le Garante a donné à DeepSeek et à ses sociétés affiliées un délai de 20 jours pour fournir des informations détaillées sur leurs pratiques de données. Les autorités exigent des précisions sur la nature des données personnelles collectées, leurs sources, leurs finalités, ainsi que sur la question de savoir si ces données sont stockées sur des serveurs en Chine.

Le régulateur souhaite également comprendre comment DeepSeek informe les utilisateurs, qu’ils soient inscrits ou non, sur le traitement de leurs données, en particulier lorsque ces informations sont obtenues par le biais de techniques de web scraping.

Les préoccupations concernant DeepSeek ne se limitent pas à l’Italie. Aux États-Unis, des responsables évaluent les risques pour la sécurité nationale associés à l’adoption croissante de cette application chinoise d’intelligence artificielle. Le porte-parole de la Maison-Blanche a confirmé que le Conseil de sécurité nationale examine les implications potentielles de la montée en popularité de l’application.

De plus, la marine américaine a déjà pris des mesures de précaution en interdisant à son personnel d’utiliser DeepSeek en raison de préoccupations liées à la sécurité et à l’éthique. Cette interdiction reflète les inquiétudes croissantes concernant la confidentialité des données et les pratiques de collecte de DeepSeek.

Transparence et conformité aux réglementations européennes

La transparence concernant la gestion des données reste une question cruciale pour DeepSeek. La politique de confidentialité de l’entreprise indique que les données des utilisateurs sont stockées sur des serveurs sécurisés en Chine et peuvent être partagées avec des entités affiliées et des prestataires de services.

Cependant, des groupes de consommateurs européens, tels que Euroconsumers, ont remis en question la suffisance de ces divulgations et se demandent si DeepSeek se conforme au Règlement général sur la protection des données (RGPD) de l’Union européenne.

Précédents en matière de régulation de l’IA en Italie

Il est important de noter que l’Italie a déjà pris des mesures analogues par le passé. En 2023, le pays avait temporairement interdit ChatGPT en raison de préoccupations concernant la protection des données des utilisateurs. OpenAI avait alors répondu en mettant en œuvre plusieurs modifications sur la plateforme, notamment une plus grande transparence sur le traitement des données, des droits d’opposition pour les utilisateurs et des mesures de vérification de l’âge pour protéger les enfants de moins de 13 ans. Ces ajustements avaient conduit à la réintégration du chatbot en Italie.

Alors que DeepSeek continue de gagner en popularité à l’échelle mondiale, ses défis réglementaires se multiplient. L’entreprise doit répondre aux questions du régulateur italien d’ici le 17 février, une échéance qui pourrait déterminer l’avenir de ses opérations sur le marché européen. Si les autorités constatent des violations des lois sur la confidentialité, DeepSeek pourrait faire face à des sanctions importantes ou à des restrictions, établissant potentiellement un précédent pour un examen futur des applications d’IA développées en dehors de l’Occident.

Lire plus