fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Pourquoi OpenAI hésite à lancer son outil de filigrane pour ChatGPT ?

Pourquoi OpenAI hésite à lancer son outil de filigrane pour ChatGPT ?

OpenAI, la société à l’origine de ChatGPT, a mis au point un outil permettant de déterminer si le grand modèle linguistique a généré un morceau de texte, mais elle hésite à le diffuser en raison des réactions négatives de ses clients.

L’outil de détection consiste à filigraner le texte, c’est-à-dire à modifier légèrement la façon dont ChatGPT sélectionne ses mots de manière à ce qu’un outil connaissant le filigrane puisse le détecter avec un degré élevé de précision.

Selon le Wall Street Journal, il suffirait d’appuyer sur un bouton pour que l’outil de détection soit disponible, mais les résultats d’une enquête ont montré que près de 30 % des utilisateurs de ChatGPT utiliseraient moins l’outil d’intelligence artificielle (IA) s’il utilisait le filigrane alors que les chatbots concurrents ne le faisaient pas.

Pourquoi OpenAI n’a-t-elle pas publié l’outil de détection du ChatGPT ?

Selon une porte-parole de OpenAI, « la méthode de filigrane que nous développons est techniquement prometteuse, mais comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives ». « Nous pensons que l’approche délibérée que nous avons adoptée est nécessaire étant donné les complexités impliquées et de son impact probable sur l’écosystème élargi au-delà de OpenAI ».

L’entreprise a également mis à jour une page de son site Web pour développer certains de ses raisonnements. L’une de ses principales préoccupations est le fait que le filigrane pourrait « avoir un impact disproportionné sur certains groupes », en particulier les personnes dont l’anglais n’est pas la langue maternelle et qui utilisent l’IA comme outil d’écriture.

Ils s’inquiètent également de la facilité avec laquelle le filigrane pourrait être contourné, déclarant : « Alors qu’il s’est avéré très précis et même efficace contre les altérations localisées, telles que la paraphrase, il est moins robuste contre les altérations globales, telles que l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d’insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère — ce qui le rend facile à contourner par de mauvais acteurs ».

Sur la même page, OpenAI mentionne également qu’elle s’est concentrée sur le développement d’outils de détection de contenu audiovisuel, car les images, le son et les vidéos « sont largement considérés comme présentant des niveaux de risque plus élevés à ce stade des capacités de nos modèles ».

Pourquoi une détection efficace de l’IA est-elle si importante ?

Selon le Wall Street Journal, une récente enquête menée par le Center for Democracy and Technology a montré que 59 % des enseignants de collège et de lycée sont certains que certains élèves utilisent l’IA dans leur travail, contre 42 % l’année précédente, et les débats sur l’IA dans l’éducation font rage.

L’un des problèmes réside dans le manque d’outils efficaces de détection de l’IA. Il en existe de nombreux, mais les plus performants sont bloqués derrière des abonnements, et même ces outils ne sont pas à l’abri de faux positifs et d’autres défaillances. Il existe quelques moyens de savoir si une IA a écrit un texte, mais au fur et à mesure que la technologie qui sous-tend ces LLM devient plus sophistiquée, il sera de plus en plus difficile de la détecter.

Au fur et à mesure que les parties internes à OpenAI comprennent que la méthode du filigrane n’affectera pas la qualité des résultats de ChatGPT, les pressions internes pour retenir l’outil s’intensifient. « Notre capacité à défendre notre absence de filigrane textuel est faible maintenant que nous savons qu’il ne dégrade pas les résultats », ont déclaré des employés qui ont participé aux tests de l’outil, selon des documents internes consultés par le Wall Street Journal. « Sans cela, nous risquons de perdre notre crédibilité en tant qu’acteurs responsables », peut-on lire dans un résumé d’une récente réunion sur la question de la détection de l’IA.

 

Lire plus
Intelligence Artificielle

OpenAI renforce les restrictions d’accès pour les développeurs chinois

OpenAI renforce les restrictions d’accès pour les développeurs chinois

OpenAI a récemment intensifié ses mesures pour empêcher les développeurs chinois d’accéder à ses Large Language Model (LLM) et à ses API, rendant ainsi l’utilisation de ces technologies impossible pour les développeurs basés en Chine. Cette décision fait suite à la mise en place d’un blocage initial le 9 juillet, après que de nombreux développeurs chinois ont contourné les restrictions en utilisant des VPN.

Le motif exact de ces nouvelles restrictions n’a pas été clairement communiqué. Cependant, il est largement supposé que ces mesures font partie des sanctions technologiques imposées par les États-Unis à la Chine, qui se concentraient initialement sur le matériel. La rivalité technologique croissante entre les États-Unis et la Chine joue également un rôle majeur dans cette interdiction.

ChatGPT, le célèbre chatbot d’OpenAI, était déjà interdit en Chine, bloqué derrière le pare-feu du pays. Malgré cette interdiction, certains développeurs parvenaient à accéder aux technologies d’OpenAI via des VPN. Cependant, avec la nouvelle interdiction, OpenAI cible désormais également ces accès contournés, fermant ainsi toute possibilité d’utilisation pour les développeurs chinois.

Face à ces restrictions, la Chine continue de développer ses propres solutions d’IA. Baidu, l’un des géants technologiques chinois, a récemment introduit Ernie 4.0 Turbo AI, un rival direct de ChatGPT. Cette avancée montre la détermination de la Chine à rester compétitive dans le domaine de l’IA malgré les sanctions et les restrictions américaines.

Implications pour l’avenir de l’IA en Chine

Ces restrictions renforcées d’OpenAI marquent un tournant significatif dans la dynamique technologique mondiale. La Chine, avec ses entreprises leaders dans le domaine de l’IA, pourrait accélérer ses propres développements technologiques en réponse aux blocages imposés par les États-Unis.

La guerre technologique entre les deux superpuissances ne fait que s’intensifier, impactant l’innovation et la collaboration internationales.

Lire plus
Intelligence Artificielle

Google Gemini s’enrichit d’une nouvelle voix : Choisissez l’accent de votre assistant IA

Google Gemini s’enrichit d'une nouvelle voix : Choisissez l’accent de votre assistant IA

Google Assistant permet de choisir parmi une douzaine de voix différentes, mais jusqu’à présent, Google Gemini, l’IA générative que Google prévoit de remplacer Google Assistant, n’avait qu’une seule voix. Il semble que cela soit en train de changer.

Il y a environ un mois, il a été découvert que Google travaillait sur un nouveau paramètre de voix pour Gemini. À ce moment-là, la fonctionnalité n’était pas opérationnelle et offrait l’option de choisir entre deux voix, indépendamment des paramètres de voix de Google Assistant. Cependant, il n’était pas clair à l’époque que ce réglage était destiné à Gemini.

Mais maintenant, Gemini commence à obtenir une nouvelle voix. La première voix semblait masculine (même si l’IA n’a pas de genre, vous savez), et maintenant une voix féminine fait son apparition.

Il semble que ce changement soit pour le moment un test limité et qu’il ne soit pas encore disponible mondialement.

Une excellente évolution pour Gemini

Cette nouvelle mise à jour n’est pas révolutionnaire, mais elle constitue certainement un raffinement attendu des assistants numériques. Pouvoir choisir la voix avec laquelle les assistants numériques s’expriment est un élément essentiel, et comme j’aime le dire, les options de personnalisation sont toujours une bonne chose.

Ainsi, lorsque cette mise à jour sera déployée mondialement (aucun calendrier n’est encore disponible), vous pourrez au moins choisir l’ambiance générale avec laquelle Gemini pourra vous parler. Espérons que d’autres options de voix seront ajoutées à l’avenir.

Lire plus
Intelligence Artificielle

Google introduit des extensions Gemini pour Keep, Tasks et Agenda

Google introduit des extensions Gemini pour Keep, Tasks et Agenda

Google s’apprête à lancer de nouvelles extensions pour Gemini, son modèle d’intelligence artificielle conversationnelle. Ces extensions de Gemini permettront aux utilisateurs d’interagir avec divers services Google tels que Keep, Tasks et Agenda.

Découvertes lors d’une analyse approfondie d’un fichier APK, ces fonctionnalités ont été présentées pour la première fois lors de la conférence Google I/O en mai et pourraient offrir davantage de possibilités que celles dévoilées lors des premières présentations.

L’extension Google Keep permettra aux utilisateurs de créer de nouvelles notes et listes, d’ajouter des informations aux notes existantes et de modifier les listes en ajoutant ou en supprimant des éléments. Les utilisateurs pourront ainsi créer des notes et des listes à partir de zéro ou ajouter ou retirer des informations aux notes existantes simplement en donnant des instructions à Gemini.

L’extension Google Tasks offrira la possibilité de créer de nouvelles tâches, telles que des rappels, et de consulter les tâches existantes ainsi que leurs dates d’échéance via Gemini. Cette fonctionnalité simplifiera la gestion des tâches et des rappels pour les utilisateurs.

Avec l’extension Google Agenda, les utilisateurs pourront créer de nouveaux événements dans leur calendrier, consulter les événements à venir ou ceux d’une date spécifique, et modifier les événements existants par l’intermédiaire de Gemini. Cela facilitera la planification et la gestion des rendez-vous et des événements personnels.

Des fonctionnalités Gemini encore en développement

Bien que ces fonctionnalités soient encore en cours de développement, leur apparition dans l’analyse de l’APK laisse présager des améliorations significatives de la fonctionnalité de Gemini et de son intégration avec les autres services Google. Cependant, il est important de noter que certaines de ces fonctionnalités pourraient ne pas être incluses dans la version finale.

L’ajout de ces extensions pourrait rendre Gemini encore plus utiles pour les utilisateurs, en leur permettant de gérer plus efficacement leurs notes, tâches et événements calendaires. Cela démontre également l’engagement de Google à élargir les capacités de son modèle d’IA et à en faire une partie intégrante de son écosystème.

Bien que l’étendue complète des capacités de ces extensions reste à voir, leur potentiel impact est clair. Elles pourraient transformer la manière dont les utilisateurs interagissent avec les services Google, rendant la gestion de divers aspects de leur vie plus facile et intuitive. Cela pourrait également rapprocher Gemini du niveau de fonctionnalité de l’Assistant Google, permettant ainsi à Gemini de devenir un véritable remplaçant à terme.

Lire plus
Intelligence Artificielle

OpenAI révolutionne avec GPT-4o Long Output : 64 000 tokens pour des réponses ultra-détaillées

OpenAI révolutionne avec GPT-4o Long Output : 64 000 tokens pour des réponses ultra-détaillées

OpenAI continue de surprendre le monde de l’IA avec des innovations, malgré de récentes préoccupations financières. La société, leader dans le domaine de l’IA générative, vient de dévoiler discrètement une nouvelle variante de son modèle GPT-4o : le GPT-4o Long Output.

Ce nouveau modèle offre une capacité de sortie étendue de 64 000 tokens, contre 4 000 pour le modèle initial, soit une augmentation de 16x.

Qu’est-ce qu’un token et pourquoi est-ce nécessaire ?

Les tokens sont des représentations numériques de concepts, constructions grammaticales et combinaisons de lettres et chiffres, organisés selon leur signification sémantique dans un modèle de langage. Par exemple, le mot « Bonjour » est un token, tout comme « Salut ». Vous pouvez explorer une démonstration interactive des tokens via le Tokenizer d’OpenAI.

Cette extension répond au retour des clients d’OpenAI qui nécessitent des contextes de sortie plus longs.

La phase de test alpha durera quelques semaines, permettant à OpenAI de collecter des données sur l’efficacité de cette capacité étendue. Cette nouvelle fonctionnalité est particulièrement avantageuse pour les applications nécessitant des sorties détaillées et étendues, comme l’édition de code et l’amélioration de l’écriture. En offrant des sorties plus longues, le modèle GPT-4o peut fournir des réponses plus complètes et nuancées, bénéfique pour ces cas d’utilisation.

Distinction entre contexte et sortie

Depuis son lancement, GPT-4o offrait une fenêtre contextuelle maximale de 128 000 tokens, incluant à la fois les tokens d’entrée et de sortie. Pour GPT-4o Long Output, cette fenêtre reste la même, mais la capacité de sortie est portée à 64 000 tokens, contre 4 000 auparavant. Cela signifie que les utilisateurs peuvent désormais fournir jusqu’à 64 000 tokens d’entrée pour recevoir jusqu’à 64 000 tokens en sortie, s’ils souhaitent privilégier des réponses plus longues.

Tarification compétitive

Le modèle GPT-4o Long Output est proposé à un tarif de 6 dollars par million de tokens d’entrée et 18 dollars par million de tokens de sortie. En comparaison, le tarif du GPT-4o classique est de 5 dollars par million de tokens d’entrée et 15 dollars par million de tokens de sortie, et le GPT-4o mini est à 0,15 dollar par million de tokens d’entrée et 0,60 dollar par million de tokens de sortie. Cette tarification agressive reflète la volonté d’OpenAI de rendre l’IA puissante accessible à un large éventail de développeurs.

L’alpha test en cours fournira des insights précieux sur les applications pratiques et les avantages potentiels du modèle à sortie longue. Si les retours des premiers partenaires sont positifs, OpenAI pourrait envisager d’étendre cette capacité à un plus large public, permettant ainsi à un plus grand nombre d’utilisateurs de bénéficier de sorties améliorées.

Avec le lancement de GPT-4o Long Output, OpenAI espère répondre à une gamme encore plus large de demandes clients et alimenter des applications nécessitant des réponses détaillées.

Lire plus
Intelligence Artificielle

Apple Intelligence : Les premiers pas de l’IA générative avec du matériel Google

uzpud32gsn

La version bêta pour développeurs d’Apple Intelligence, bien qu’encore accessible sur liste d’attente, suscite déjà beaucoup d’enthousiasme. Récemment, une nouvelle recherche en intelligence artificielle publiée par Apple a révélé que la société de Cupertino a utilisé du matériel Google pour les premières bases de son projet d’IA générative, Apple Intelligence.

L’article de recherche, intitulé « Apple Intelligence Foundation Language Models », détaille les sources connues du modèle de langage à la base de l’IA générative d’Apple. Un passage intrigant de cet article suggère qu’Apple aurait utilisé le matériel de Google dans les premières phases de développement.

Selon le document, le modèle de base d’Apple (AFM) et la technologie de serveur utilisée ont été initialement construits sur des « clusters Cloud TPU v4 et v5p » en utilisant des logiciels Apple. Un rapport de CNBC indique que Apple aurait loué du temps sur des clusters de serveurs hébergés par Google. Cependant, la recherche ne mentionne pas directement Google ou Nvidia, laissant plutôt penser qu’Apple a acheté le matériel à la société pour l’utiliser dans ses propres centres de données.

Malgré cette dépendance initiale au matériel de Google, l’impact sur l’avenir de la technologie reste limité. Apple prévoit d’optimiser ses applications d’IA au sein de ses propres datacenters, en s’appuyant sur du matériel basé sur Apple Silicon pour traiter les requêtes liées à Apple Intelligence.

Apple projette d’investir plus de 5 milliards de dollars dans l’amélioration de ses serveurs d’IA au cours des deux prochaines années. L’objectif est de rivaliser avec Microsoft et Meta en matière de capacités technologiques en IA, avec des plans d’acquisition de dizaines de milliers d’unités de serveurs d’IA.

Des perspectives prometteuses pour Apple Intelligence

Apple semble prendre l’IA générative très au sérieux. Les fonctionnalités d’Apple Intelligence pour iOS 18, présentées lors de la conférence de développement de l’entreprise, ont suscité un vif intérêt. Si toutes les fonctionnalités annoncées fonctionnent comme prévu, Apple pourrait rapidement dépasser les leaders actuels du marché de l’IA générative.

Ce nouvel élan d’Apple dans l’IA pourrait bien transformer l’industrie et redéfinir les standards de la technologie générative. Avec des investissements massifs et une vision claire, Apple se positionne pour devenir un acteur majeur dans le domaine de l’IA.

Lire plus
Intelligence Artificielle

OpenAI risque des pertes de 5 milliards de dollars en 2024 : L’IA générative en danger ?

openai cover

La recherche de l’intelligence artificielle générale (AGI) vaut-elle la peine de mettre en péril la stabilité financière ? Cette question se pose avec acuité alors que OpenAI, la force pionnière à l’origine de ChatGPT, est confrontée à une potentielle perte de plusieurs milliards de dollars au cours de l’année à venir.

En effet, une analyse réalisée par The Information révèle que OpenAI pourrait subir des pertes stupéfiantes allant jusqu’à 5 milliards de dollars cette année en raison des coûts énormes liés à l’exploitation de ses produits d’intelligence artificielle comme ChatGPT.

Le paysage de l’IA évolue rapidement, mais à quel prix pour ses pionniers ? Cette révélation a provoqué une onde de choc dans l’industrie technologique, soulevant des questions sur la durabilité du développement de l’IA à un rythme aussi effréné.

Avec une valorisation estimée à 80 milliards de dollars en février, OpenAI prévoit de dépenser jusqu’à 7 milliards de dollars cette année pour former et faire fonctionner son chatbot. Cela implique que la société doit lever davantage de fonds, alors que la voie vers la rentabilité devient de plus en plus incertaine à cause de la concurrence croissante.

La course à l’armement en matière d’IA : une entreprise coûteuse

La course au développement de modèles d’IA avancés s’avère être une entreprise coûteuse. Les difficultés financières d’OpenAI sont en grande partie dues aux coûts énormes associés à la formation des modèles d’IA et aux dépenses opérationnelles.

L’un des principaux postes de dépenses de OpenAI est le fonctionnement quotidien de ChatGPT. L’outil d’IA est coûteux, même s’il compte plus de 100 millions d’utilisateurs hebdomadaires. Les rapports indiquent que le fonctionnement de ChatGPT coûte à l’organisation environ 700 000 dollars par jour. Cela se traduit par une dépense annuelle d’environ 255,5 millions de dollars pour le seul maintien de ce service. En outre, jusqu’à 3 milliards de dollars supplémentaires sont consacrés à la formation des modèles d’IA avec de nouvelles données, y compris des accords avec des éditeurs pour l’utilisation de leur contenu protégé par des droits d’auteur.

OpenAI est également estimée à dépenser 1,5 milliard de dollars par an en coûts de main-d’œuvre pour ses 1 500 employés, selon The Information. Ces estimations sont basées sur des données précédemment non divulguées et des entretiens avec « des personnes impliquées dans l’entreprise ».

Pour mettre ces chiffres en perspective, le rival d’OpenAI, Anthropic, soutenu par Amazon, prévoit un taux d’absorption de 2,7 milliards de dollars pour la même période. Ce contraste saisissant met en évidence l’approche agressive adoptée par l’organisation dans sa quête d’une technologie d’IA de pointe.

La question de la rentabilité de OpenAI

« Les investisseurs devraient se demander : quelle est leur barrière à l’entrée ? Une technologie unique ? » écrit Gary Marcus, expert en intelligence artificielle et professeur à l’Université de New York, sur X (anciennement Twitter). « Quelle est leur voie vers la rentabilité quand Meta offre une technologie similaire gratuitement ? Ont-ils une application incontournable ? La technologie sera-t-elle jamais fiable ? Qu’est-ce qui est réel et qu’est-ce qui n’est qu’une démonstration ? » ajoute Marcus.

GettyImages 1778708098 jpg

Alors que les coûts d’exploitation et de formation de l’IA continuent de grimper, la recherche de solutions moins coûteuses devient cruciale. Voici quelques pistes pour rendre l’IA plus abordable :

  1. Optimisation des algorithmes : L’amélioration des algorithmes de manière à ce qu’ils nécessitent moins de puissance de calcul pourrait réduire significativement les coûts. Les chercheurs peuvent se concentrer sur des modèles plus efficaces et moins gourmands en ressources.
  2. Utilisation de matériel moins coûteux : Explorer des alternatives matérielles plus économiques, comme les processeurs spécifiques à l’IA ou les puces personnalisées, pourrait offrir des performances similaires à moindre coût.
  3. Partage des ressources : Les entreprises peuvent collaborer pour partager des ressources et des infrastructures, réduisant ainsi les dépenses individuelles. Des initiatives de cloud computing collaboratif peuvent aider à mutualiser les coûts.
  4. Formation décentralisée : L’entraînement des modèles d’IA en utilisant des méthodes décentralisées, comme la fédération d’apprentissage, peut répartir les coûts sur plusieurs partenaires ou utilisateurs, rendant le processus plus économique.
  5. Modèles pré-entraîneés : Utiliser des modèles pré-entraînés et les adapter à des tâches spécifiques peut réduire les coûts de formation. Cette approche utilise le transfert de connaissance d’un modèle généraliste vers des applications spécifiques, diminuant ainsi le besoin de grandes quantités de données et de puissance de calcul.

Les sources de revenus : Une lueur d’espoir ?

Malgré ses dépenses considérables, OpenAI n’est pas dépourvue de revenus. L’entreprise gagne de l’argent grâce à deux sources principales :

  • ChatGPT : Revenus potentiels pouvant atteindre 2 milliards de dollars par an.
  • Frais d’accès au LLM : Contribution d’environ 1 milliard de dollars par an

Ces sources de revenus se traduisent par un revenu annuel total compris entre 3,5 et 4,5 milliards de dollars. Bien que substantiel, ce montant ne suffit pas à couvrir les dépenses prévues, d’où la perte anticipée de 5 milliards de dollars.

La situation financière d’OpenAI soulève des questions plus générales sur l’économie du secteur de l’IA. Alors que les géants de la technologie comme Microsoft, Apple et NVIDIA ont vu leur valeur de marché grimper en flèche grâce aux investissements dans l’IA, les acteurs plus modestes sont confrontés à d’importants défis pour concilier l’innovation et la viabilité financière.

OpenAI fait face à des défis financiers considérables, mais en explorant des alternatives plus économiques et en optimisant ses processus, l’entreprise peut peut-être trouver une voie plus durable vers la rentabilité. La quête de solutions moins coûteuses est essentielle non seulement pour OpenAI, mais aussi pour l’ensemble de l’industrie de l’intelligence artificielle, alors que la demande continue de croître et que les ressources se raréfient.

Lire plus
Intelligence Artificielle

ChatGPT Plus : Le mode vocal avancé débute son déploiement

ChatGPT Plus : Le mode vocal avancé débute son déploiement

Certains membres de ChatGPT Plus peuvent commencer à utiliser le mode vocal avancé, mais d’autres devront attendre des mois.

Présenté pour la première fois en mai dans le cadre du lancement de GPT-4o, le mode vocal avancé de ChatGPT promet la possibilité de créer des voix de personnages personnalisables ou d’agir en tant que traducteur en direct. Certains utilisateurs de ChatGPT Plus semblent déjà avoir accès à la nouvelle fonctionnalité, ce qui suggère que le déploiement a commencé — mais pas aussi complètement qu’on pourrait l’espérer.

Lors de l’événement organisé par OpenAI, le nouveau mode vocal s’est avéré nettement plus performant que le mode vocal actuel de ChatGPT. Sur scène, les employés d’OpenAI ont pu interrompre le chatbot et lui demander de raconter une histoire de différentes manières, et le chatbot a profité de ces interruptions pour ajuster ses réponses.

Sam Altman, PDG d’OpenAI, a promis un déploiement « la semaine prochaine » lorsqu’il a été interrogé sur X, précisant que les abonnés Plus seraient les premiers à accéder au mode vocal avancé. Les utilisateurs se sont rendus sur le subreddit ChatGPT de reddit pour partager un nouveau message au bas de l’application ChatGPT, qui se lit comme suit : « Le mode vocal avancé arrive ». « Notre déploiement du mode vocal avancé a commencé, et nous enrôlons lentement les utilisateurs dans l’alpha pour assurer la qualité de l’expérience », poursuit le message. « Tous les utilisateurs Plus y auront accès d’ici la fin de l’automne — nous vous le ferons savoir dès que vous en ferez partie ».

La fin de l’automne pourrait être aussi tardive que novembre et le message est suffisamment vague pour englober n’importe quelle période avant la fin de l’année. Si vous voulez être prudent, vous pouvez opter pour « d’ici la fin de l’année 2024 », qui est une date plus réaliste.

Pourquoi le mode vocal avancé arrive-t-il plus tard ?

OpenAI a fait une déclaration publique sur le X en juin, précisant que des problèmes de sécurité avaient entraîné un retard dans le déploiement du mode.

« Nous avions prévu de commencer à déployer ce mode en version alpha auprès d’un petit groupe d’utilisateurs de ChatGPT Plus à la fin du mois de juin, mais nous avons besoin d’un mois supplémentaire pour atteindre notre barre de lancement », peut-on lire sur X. « Nous améliorons par exemple la qualité de la voix et de l’image, ce qui nous permet d’être plus efficaces. Par exemple, nous améliorons la capacité du modèle à détecter et à refuser certains contenus. Nous travaillons également à l’amélioration de l’expérience utilisateur et à la préparation de notre infrastructure pour qu’elle puisse évoluer vers des millions d’utilisateurs tout en maintenant des réponses en temps réel ».

L’entreprise semble s’en être tenue à cette extension d’un mois, puisqu’un déploiement au moins partiel a eu lieu presque exactement un mois plus tard.

Lors de l’événement organisé par OpenAI, l’une des principales critiques formulées à l’encontre du nouveau mode a été la ressemblance de la voix sur scène, baptisée « Sky », avec celle de Johansson, qui a joué le rôle d’une personnalité IA dans le film Her. Bien que la voix ait été présente dans ChatGPT avant la démonstration d’OpenAI au printemps, l’entreprise l’a retirée peu après que Johansson a révélé avoir envoyé des lettres à OpenAI pour demander comment la voix avait été fabriquée. Christianson précise que le nouveau mode de ChatGPT n’utilisera que 4 voix prédéfinies qu’il a créées avec des acteurs vocaux, ajoutant : « Nous avons fait en sorte que ChatGPT ne puisse pas se faire passer pour la voix d’autres personnes, qu’il s’agisse d’individus ou de personnalités publiques, et qu’il bloque les sorties qui diffèrent de l’une de ces voix prédéfinies ».

Lire plus
Intelligence Artificielle

Canva acquiert Leonardo.AI pour booster ses capacités en IA générative

Canva acquiert Leonardo.AI pour booster ses capacités en IA générative

La plateforme de conception graphique Canva a acquis Leonardo.AI dans le but d’étendre ses capacités en matière d’IA générative. Bien que les conditions financières n’aient pas été divulguées, l’accord permettra à Canva d’accéder à la gamme de générateurs texte-image et texte-vidéo personnalisables de Leonardo.ai.

En activité depuis 2012 et comptant aujourd’hui plus de 100 millions d’utilisateurs, Canva est utilisée comme plateforme de conception graphique par les particuliers et les entreprises. Bien qu’elle ait introduit certains de ses propres outils d’IA générative en interne avec un générateur de texte en image, il semble que l’entreprise souhaite étendre ces possibilités à l’avenir, si l’on en croit sa récente acquisition.

La plus grande entreprise technologique privée d’Australie a annoncé avoir conclu un accord pour acheter Leonardo.AI, une plateforme d’IA générative à croissance rapide. Cela renforcerait les capacités d’IA de Canva avant son introduction en bourse, qui devrait avoir lieu en 2025. Les conditions financières de l’acquisition n’ont pas encore été rendues publiques.

Canva a fait des efforts pour diversifier sa plateforme avec des outils plus proches des suites bureautiques ces derniers temps, mais la plateforme de conception visuelle et de communication reste l’un des plus grands concurrents de la gamme de logiciels créatifs d’Adobe. Alors que l’acquisition d’Affinity pourrait aider Canva à concurrencer les logiciels d’Adobe comme Illustrator, Photoshop et InDesign, Leonardo.ai pourrait se positionner de la même manière comme une alternative aux modèles d’IA générative Firefly d’Adobe.

Qu’est-ce que Leonardo.AI ?

Fondée en décembre 2022, Leonardo.AI est une entreprise relativement nouvelle, même dans le domaine de l’IA. En décembre dernier, la société a levé 47 millions de dollars d’investissements locaux en Australie, avec des investisseurs tels que Blackbird Ventures et Side Stage Ventures.

Leonardo homepage jpg

Leonardo.AI revendique 19 millions d’utilisateurs et est suffisamment efficace pour concurrencer les grands noms de l’IA générative tels que Midjourney et Dall E d’OpenAI. Elle était déjà en train de lever des fonds supplémentaires lors d’un deuxième tour de table avant d’accepter l’acquisition de Canva.

On pense que JJ Fiassion, cofondateur et PDG de Leonardo.AI, a rencontré Cliff Obrecht, cofondateur de Canva, par l’intermédiaire de Blackbird Ventures, et qu’une réunion a eu lieu entre eux au début de l’année. L’acquisition a été motivée par le fait que Leonardo.AI a dévoilé Phoenix, son propre modèle d’IA de base.

Ce modèle est fier de pouvoir répondre efficacement à de longs et détaillés promtps, de créer un texte cohérent (ce qui pose problème à de nombreux outils d’IA générative) et d’effectuer des modifications rapides en cours de route à l’aide de phrases et de prompts courts. Cela se marie bien avec l’approche rationalisée de Canva et serait probablement facile à incorporer dans la plateforme de conception graphique, parallèlement à ses outils. Canva n’a pas confirmé ce projet, mais cela semble être une raison probable pour l’acquisition, d’autant plus que des concurrents comme Adobe développent des outils d’IA générative.

Lire plus
Intelligence Artificielle

Google va améliorer Gemini : Personnalisez vos images en toute simplicité

Google va améliorer Gemini : Personnalisez vos images en toute simplicité

Google s’apprête à lancer une mise à jour révolutionnaire pour son chatbot Gemini, offrant aux utilisateurs la possibilité de raffiner et de personnaliser facilement les images générées par l’IA. Cette fonctionnalité, récemment découverte dans le code de la dernière version bêta de l’application Google pour Android (v15.29.34.29 bêta), promet de transformer l’expérience utilisateur, en particulier pour ceux frustrés par le manque d’options d’édition dans Gemini.

Actuellement, Gemini permet uniquement de créer des images à partir de prompts textuels, sans possibilité de modifier les images générées. Si un détail ne vous plaît pas, vous devez créer une nouvelle image avec un prompt révisé, ce qui peut être fastidieux et chronophage.

La prochaine mise à jour vise à résoudre ce problème en introduisant deux nouvelles méthodes pour affiner les images générées par l’IA.

  1. Compréhension des prompts en langage naturel : Gemini pourra comprendre les instructions en langage naturel pour modifier les images existantes. Par exemple, si vous aimez l’image globale mais souhaitez changer l’arrière-plan, vous pourrez simplement demander à Gemini de le faire sans avoir à recréer entièrement l’image.
  2. Modification par sélection directe : La deuxième méthode est encore plus intuitive. Vous pourrez utiliser votre doigt ou un stylet pour entourer la partie de l’image que vous souhaitez changer, puis indiquer à Gemini les modifications à apporter. Cette approche élimine la nécessité de décrire précisément la zone à modifier, car Gemini comprendra automatiquement la partie sélectionnée.

Implications et bénéfices de Gemini

Bien que cette fonctionnalité soit encore en développement et non entièrement fonctionnelle, elle constitue un ajout prometteur aux capacités de Gemini. Elle montre que Google s’engage à améliorer l’expérience utilisateur en offrant plus de contrôle et de flexibilité sur la génération d’images.

Cette mise à jour sera particulièrement bénéfique pour les professionnels créatifs et ceux qui utilisent fréquemment des images générées par l’IA, comme pour les vignettes YouTube ou les en-têtes d’articles de blog. Elle simplifiera le processus d’édition et permettra une personnalisation accrue, économisant ainsi du temps et des efforts aux utilisateurs.

En somme, l’amélioration de Gemini avec ces nouvelles options de personnalisation d’images renforce la position de Google dans le domaine de l’IA générative, offrant aux utilisateurs des outils plus puissants et intuitifs pour donner vie à leurs idées visuelles.

Lire plus
Intelligence Artificielle

Grok 2 : Le futur chatbot d’Elon Musk prêt à défier ChatGPT

Grok 2 : Le futur chatbot d’Elon Musk prêt à défier ChatGPT

L’entreprise xAI d’Elon Musk devrait bientôt lancer le modèle de langage Grok de nouvelle génération, alias Grok 2, et prévoit d’autres avancées pour concurrencer OpenAI.

Qu’est-ce que Grok ?

En novembre, Elon Musk a annoncé Grok, la réponse de son entreprise au ChatGPT, Grok 1.5 ayant été lancé en avril. Cet outil est disponible pour tous les utilisateurs de X qui souscrivent au service Premium+ pour 17 euros par mois.

Grok peut générer du texte et engager des conversations avec les utilisateurs. Contrairement aux autres chatbots, il peut accéder à des informations en temps réel via X (anciennement Twitter) et est conçu pour répondre à des questions délicates et provocantes par des réponses pleines d’esprit et « rebelles ».

Grok -1, le grand modèle linguistique derrière Grok, a été formé à l’aide d’une pile technologique personnalisée basée sur Kubernetes, le framework d’apprentissage automatique JAX et le langage de programmation Rust. Ces technologies ont aidé xAI à développer Grok plus rapidement et plus efficacement que d’autres chatbots.

Grok 1.5 Vision Preview benchmar jpg

Comme tous les grands modèles de langage, Grok-1 a été formé sur des quantités massives de données textuelles provenant d’Internet, notamment des articles de Wikipédia et des articles scientifiques. Toutefois, la caractéristique unique de Grok est son accès direct aux messages postés sur X. Cela lui donne une « connaissance du monde en temps réel », ce qui lui confère un « avantage considérable par rapport aux autres modèles », comme l’a déclaré Musk.

Deux styles d’interaction pour Grok

Grok propose deux styles d’interaction : « Mode fun » et « Mode normal ». Par défaut, Grok fonctionne en « Mode fun », adoptant une personnalité plus nerveuse ou humoristique et produisant parfois des réponses factuellement incorrectes. Le « Mode normal » fournit généralement des réponses plus précises, mais xAI reconnaît qu’il peut encore générer des informations fausses ou contradictoires.

Le sens de l’humour et la « personnalité » de Grok ont été modelés sur « The Hitchhiker’s Guide to the Galaxy » de Douglas Adams, l’un des livres préférés de Musk. « C’est un livre de philosophie déguisé en livre d’humour ».

Avec Grok, xAI vise à maintenir cette éthique tout en adhérant à « la vérité de l’univers », a expliqué Musk, et en découvrant éventuellement de nouvelles vérités. L’objectif est de se rapprocher de l’intelligence artificielle générale, qui permet à une machine d’apprendre et de penser comme un humain (ou même mieux).

Quelles sont les caractéristiques de Grok 2 ?

Grok 2 présentera plusieurs améliorations, notamment l’intégration de résultats de recherche sur le Web en temps réel, ce qui permet à l’IA de disposer des informations les plus récentes. Cela signifie que l’IA pourra répondre aux requêtes avec les dernières données disponibles, ce qui améliore sa pertinence et son utilité.

En outre, Grok 2 disposera de capacités de génération d’images, ce qui lui permet de produire du contenu visuel à partir de demandes de l’utilisateur. Bien qu’il soit peut-être prématuré d’en parler en détail, Grok 2 devrait également faire preuve d’avancées majeures en matière de raisonnement complexe et de résolution de problèmes, comme en témoignent ses performances attendues aux tests MATH et HumanEval.

Ces critères sont nécessaires pour évaluer les capacités de résolution de problèmes d’une IA.

Quand Grok 2 sera-t-il proposé ?

Début juillet, le milliardaire Tesla a confirmé dans un message sur X que le modèle de langage étendu Grok 2 serait disponible en août. Répondant à la question d’un utilisateur sur les données d’entraînement, il a décrit le modèle comme une « amélioration considérable ».

Il a ajouté que « les modèles qui s’entraînent sur les données des autres sont comme un effet de mille-pattes humains » et a noté qu’il « faut beaucoup de travail pour purger les LLM des données d’entraînement d’Internet », mais il affirme que la prochaine génération de Grok s’améliorera dans ce domaine.

Bien que Musk n’ait pas donné plus de détails, il a déclaré en mars que Grok 2 « devrait dépasser l’IA actuelle dans tous les domaines ».

Y aura-t-il un Grok 3 ?

Musk a révélé que Grok 3 sortirait à la fin de l’année « après avoir été entraîné sur 100 000 H100 » (GPU Nvidia) et qu’il « devrait vraiment être quelque chose de spécial ». xAI entraîne Grok 3 pour qu’il soit équivalent ou supérieur à GPT-5, la prochaine étape prévue par OpenAI en matière de modèles de langage.

Grok 1 et 2 sont-ils aussi bons que ChatGPT ?

Comparativement, ChatGPT travaille sur un ensemble de données beaucoup plus important que Grok, ce qui signifie qu’il peut générer un contenu créatif et traiter un large éventail de requêtes de manière beaucoup plus efficace. Grok fournit toutefois des informations actualisées et des réponses intuitives et humoristiques grâce à son intégration avec X, qui se distingue par son ton rebelle.

Malgré son arrivée tardive, Grok a fait de sérieux progrès, comme le suggère l’étude de xAI. ChatGPT est excellent dans la gestion de requêtes diverses, tandis que Grok AI est réputé pour son contenu plein d’esprit.

La version premium de ChatGPT, optimisée par Microsoft, inclut Bing et propose des centaines de plugins tels que Prompt Perfect, OpenTable et Wolfram, offrant ainsi des outils avancés que Grok AI ne permet pas d’utiliser.

Grok sera-t-il un jour gratuit ?

Grok n’a actuellement pas de version gratuite et n’est disponible que pour les personnes qui paient 17 euros par mois pour un abonnement premium X.

En mars 2024, xAI a publié l’architecture du réseau et les poids du modèle de base de Grok-1 sous la licence open-source Apache 2.0, permettant ainsi aux développeurs d’utiliser et de développer le modèle à des fins commerciales. La version open-source est en phase de pré-entraînement, de sorte que les utilisateurs devront probablement affiner eux-mêmes le modèle avant de le déployer.

Comment utiliser Grok ?

Voici comment accéder à Grok et l’utiliser :

  • S’abonner à Premium+ : souscrire au plan Premium+ sur X, qui coûte 17 euros par mois. Grok est exclusivement disponible pour les utilisateurs de ce plan.
  • Vérifier le compte : Après vous être abonné, visitez la page de connexion à Grok pour vérifier votre compte et vos informations d’identification.
  • Disponibilité de l’accès anticipé : Si le programme d’accès anticipé de Grok n’est pas disponible dans votre région, envoyez votre e-mail pour recevoir des mises à jour.
  • Accès à Grok : une fois l’accès accordé, choisissez entre le « mode normal » pour des réponses typiques et le « mode fun » pour des réponses plus divertissantes.
  • Interagir avec Grok : utilisez la fonction « chatbox » pour soumettre des demandes et entamer des conversations. Grok fournit également des invites de base pour l’inspiration.
Lire plus
Intelligence Artificielle

Apple clarifie : Les données de EleutherAI utilisées uniquement pour OpenELM

Apple clarifie : Les données de EleutherAI utilisées uniquement pour OpenELM

Apple a nié avoir utilisé un ensemble de données collectées de manière non éthique par EleutherAI pour entraîner son produit phare d’intelligence artificielle (IA), Apple Intelligence. La société affirme toutefois avoir utilisé l’ensemble de données pour un autre modèle d’intelligence artificielle.

Après qu’il a été révélé cette semaine qu’une société appelée EleutherAI a utilisé un ensemble de données contenant des centaines de milliers de légendes de vidéos YouTube pour créer un ensemble de données destiné à faciliter l’entraînement à l’intelligence artificielle, Apple a nié que « The Pile » d’EleutherAI ait été utilisé pour entraîner Apple Intelligence.

La société a toutefois confirmé que « The Pile » avait été utilisé lors du développement des modèles OpenELM open source publiés au début de l’année.

Qu’est-ce que la « pile » d’EleutherAI ?

EleutherAI est une organisation à but non lucratif qui souhaite rendre la recherche et le développement en matière d’IA plus accessibles aux entreprises autres que les grandes sociétés technologiques qui travaillent principalement sur d’énormes modèles d’IA comme OpenAI.

Elle y parvient notamment en fournissant des ensembles de données d’entraînement pour les Large Language Model (LLM) et d’autres applications d’IA. Toutefois, au lieu de payer des droits de licence pour accéder aux données ou de conclure des partenariats pour utiliser des données provenant de sources, EleutherAI utilise le Web pour obtenir ses données. Celles-ci comprennent les légendes de plus de 170 000 vidéos YouTube.

Le résultat de cette démarche est « The Pile », un vaste corpus de données d’entraînement non éthique destiné à abaisser la barrière à l’entrée des petites entreprises sur le marché de l’IA. Toutefois, des entreprises plus importantes ont également utilisé cet ensemble de données.

Qu’est-ce que OpenELM d’Apple ?

Bien qu’Apple n’ait pas utilisé « The Pile » pour entraîner Apple Intelligence (et affirme que les modèles d’Apple Intelligence ont été entraînés « sur des données sous licence, y compris des données sélectionnées pour améliorer des fonctionnalités spécifiques, ainsi que des données accessibles au public collectées par notre robot d’exploration du Web »), Apple a admis l’avoir utilisé pour développer des modèles d’intelligence artificielle et des modèles d’intelligence artificielle. Apple a admis l’avoir utilisé pour développer ses modèles OpenELM.

Apple a publié OpenELM en avril. Il a été créé à des fins de recherche et n’est pas utilisé pour alimenter les fonctions ou caractéristiques d’Apple Intelligence. Apple a déclaré à 9to5Mac qu’elle n’avait pas l’intention de développer OpenELM ou de publier d’autres versions de l’outil.

Lire plus
Intelligence Artificielle

Gemini 1.5 Flash : Rapidité, précision et liens sources pour Gemini

Gemini 1.5 Flash : Rapidité, précision et liens sources pour Gemini

Google vient d’annoncer plusieurs mises à jour pour la version gratuite de son chatbot Gemini, avec notamment l’intégration de son modèle multimodal à faible latence, Gemini 1.5 Flash, et l’ajout de liens sources pour réduire les hallucinations.

Précédemment réservé aux développeurs, Gemini 1,5 Flash est désormais accessible au grand public dans la version gratuite de Gemini, dans l’application mobile et dans l’interface Web à l’adresse gemini.google.com. Ce modèle est idéal pour les tâches nécessitant des réponses rapides, comme les questions des clients. Présenté lors de la conférence annuelle Google I/O en mai, il se distingue par sa grande fenêtre de contexte, capable de traiter environ 1 million de tokens.

Sur le chatbot Gemini, cette fenêtre de contexte est de 32K tokens, permettant ainsi de répondre à des questions plus complexes et de maintenir des conversations prolongées.

Google a déclaré dans un billet de blog : « Cela signifie que vous pouvez avoir des conversations plus longues et poser des questions plus complexes à Gemini, le tout gratuitement ». L’entreprise précise également que vous devriez constater « des améliorations générales en termes de qualité et de temps de latence, notamment en ce qui concerne le raisonnement et la compréhension des images ».

Afin de tirer pleinement parti des capacités de Gemini 1.5 Flash, Google a ajouté la possibilité de gérer les téléchargements de fichiers depuis Google Drive ou des appareils personnels, une fonctionnalité auparavant réservée à Gemini Advanced, la version payante du chatbot.

Un autre ajout notable est la fonction « contenu connexe », qui affiche des liens vers des sites Web ou des e-mails pertinents dans les réponses de Gemini. Google a également introduit une fonction de double vérification qui utilise Google Recherche pour vérifier les réponses, mettant en évidence les déclarations corroborées ou contredites sur le Web. Bien que Google ne soit pas la seule entreprise à ajouter des liens pour l’attribution des réponses, il a été constaté que certains chatbots, comme ChatGPT et Perplexity, hallucinaient parfois des liens, associant des liens à des articles inexistants ou sans rapport.

Vitesse et disponibilité de Gemini 1.5 Flash

À son lancement, Google a affirmé que Gemini 1,5 Flash était 40 % plus rapide que le modèle rapide GPT-3.5 Turbo d’OpenAI. Bien que ce modèle ne soit pas de petite taille, comme ceux de la famille Gemma, il a été entraîné avec les mêmes données que Gemini 1,5 Pro. Disponible sur les versions mobiles et desktop, Gemini 1,5 Flash est accessible dans plus de 230 pays et territoires et prend en charge 40 langues.

Comme indiqué précédemment, les hallucinations restent un défi pour les modèles d’IA. Pour y remédier, Google a décidé d’ajouter des liens pertinents aux réponses du chatbot. Cela permet de montrer que les informations fournies ne sont pas créées sans référence. Désormais, pour les requêtes en anglais dans certains pays, les utilisateurs peuvent cliquer sur une puce à la fin d’un paragraphe pour voir les sites Web de référence.

D’autres nouvelles sur Gemini

Google prévoit de communiquer d’autres informations sur Gemini lors de son événement Made by Google, le mois prochain, en même temps que le lancement de ses nouveaux appareils. En attendant, vous pouvez essayer gratuitement toutes ces nouvelles fonctionnalités de Gemini dès aujourd’hui.

Gemini est déjà disponible sur iOS, Android et le Web, mais il arrive enfin sur Google Messages en Europe, au Royaume-Uni et en Suisse. Si vous l’avez déjà, appuyez sur « Démarrer le chat » dans Google Messages et sélectionnez « Gemini » pour commencer à discuter. Autre chose : Gemini dans Messages prend désormais en charge davantage de langues, notamment le français, le polonais et l’espagnol.

Lire plus
Intelligence Artificielle

Meta AI : Nouveaux outils de création d’images et disponibilité élargie à 22 pays

Meta AI : Nouveaux outils de création d’images et disponibilité élargie à 22 pays

Meta, le géant technologique, continue de faire évoluer ses technologies d’intelligence artificielle (IA) avec des mises à jour régulières. Cette fois, c’est Meta AI, l’assistant virtuel gratuit intégré aux applications de Meta — Facebook, Instagram, Messenger et WhatsApp — qui se voit doté de nouvelles fonctionnalités et d’une disponibilité élargie.

Meta AI est désormais disponible dans 22 pays, y compris les nouveaux ajouts :

  • Argentine
  • Chili
  • Colombie
  • Équateur
  • Mexique
  • Pérou
  • Cameroun

00 AI Language

En plus de cette expansion géographique, Meta AI supporte désormais sept nouvelles langues, offrant une interaction en :

  • Français
  • Allemand
  • Hindi
  • Italien
  • Portugais
  • Espagnol

Nouvelles fonctionnalités pour les plateformes de Meta

Meta renforce ses plateformes les plus populaires avec des capacités IA innovantes. Sur Instagram, Facebook, Messenger, et WhatsApp, vous pouvez maintenant créer et personnaliser des images de manière simple. Il suffit de taper « imagine » pour décrire ce que vous voulez, puis demander à Meta AI d’ajuster l’image en ajoutant ou supprimant des objets, voire en animant certaines parties.

452010595 878889830946279 206087 jpg

Cette fonctionnalité, nommée Imagine Edit, est d’abord lancée en anglais, avec des plans pour intégrer d’autres langues prochainement.

La fonctionnalité « Imagine me » permet de vous voir dans divers scénarios. En envoyant « Imagine me » dans une discussion avec Meta AI, vous pouvez vous retrouver dans des situations fantastiques comme « Imagine me avec une autruche ». Actuellement en phase bêta aux États-Unis, cette fonctionnalité sera bientôt disponible dans d’autres langues et pays.

02 IG Imagine Me SR Face Scan

Partage d’images générées par l’IA

Bientôt, il sera possible de partager directement les images créées avec Meta AI dans vos publications. Cette option permettra de générer des images dans le fil d’actualité, les stories, les commentaires et les messages sur Facebook, Instagram, Messenger et WhatsApp. Cette fonctionnalité débutera en anglais cette semaine.

05 Imagine create directly in FB jpg

Avec l’introduction de nouveaux outils créatifs basés sur l’IA et l’expansion de Meta AI à travers le monde, Meta démontre que l’IA est une priorité majeure. Cependant, ces fonctionnalités peuvent potentiellement contribuer à la confusion et à la désinformation sur les réseaux sociaux. Bien que Meta ait promis d’étiqueter les contenus générés par l’IA, cette fonctionnalité n’est pas encore largement disponible. L’étiquette IA n’apparaît que si Meta détecte des indicateurs d’image IA standard de l’industrie ou si les utilisateurs divulguent qu’ils ont téléchargé du contenu généré par l’IA, ce qui signifie que de nombreuses images pourraient ne pas être étiquetées.

Lire plus
Intelligence Artificielle

xAI d’Elon Musk lance Memphis, un supercalculateur d’IA

xAI d’Elon Musk lance Memphis, un supercalculateur d’IA

Elon Musk, PDG de Tesla et propriétaire de Twitter/X, a annoncé lundi que sa startup en intelligence artificielle, xAI, avait officiellement commencé la formation de son supercalculateur, nommé Memphis.

Décrit par Musk comme « le cluster de formation d’IA le plus puissant au monde », ce supercalculateur est installé dans une ancienne usine de production d’Electrolux à Memphis, Tennessee.

Une fois pleinement opérationnel, Musk prévoit d’utiliser ce supercalculateur pour développer « l’IA la plus puissante au monde selon tous les critères d’ici décembre de cette année », ce qui sera vraisemblablement le Grok 3.

Le supercalculateur de xAI, baptisé « Gigafactory of Compute », utilisera 100 000 GPU H100 de Nvidia. Ces GPU sont basés sur l’architecture Hopper, formant un réseau environ 4x plus grand que les clusters actuels les plus avancés, tels que le cluster Intel GPU Aurora (60,000 GPU) au Argonne National Lab, le Frontier d’AMD (environ 38 000 GPU) à Oak Ridge, et l’Eagle de Microsoft qui fonctionne avec 14 400 GPU H100 de NVIDIA.

Un investissement record à Memphis

Selon Ted Townsend, président et directeur général de la Greater Memphis Chamber, l’ouverture de cette installation de formation représente le plus grand investissement en capital par une nouvelle entreprise dans l’histoire de Memphis. Le supercalculateur servira à « alimenter et financer l’espace de l’IA pour toutes ses [Musk] entreprises, en commençant évidemment par Tesla et SpaceX », a-t-il déclaré. « Si vous pouvez imaginer la puissance de calcul nécessaire pour placer des humains à la surface de Mars, cela va se passer ici à Memphis ».

Malgré cet investissement de plusieurs milliards de dollars par xAI, l’installation ne devrait générer que quelques centaines d’emplois locaux. De plus, selon un rapport de WREG, la Tennessee Valley Authority (TVA) n’a pas encore de contrat en place avec xAI. La TVA travaille avec xAI et ses partenaires chez Memphis Light, Gas and Water (MLGW) sur les détails de la proposition et des besoins en électricité. La TVA a également souligné que tout projet dépassant les 100 mégawatts (MW) nécessite son approbation pour se connecter au réseau électrique de l’État. Le président de MLGW, Doug McGowen, estime que l’installation de Musk pourrait consommer jusqu’à 150 MW pendant les périodes de pointe.

Lire plus