fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Grok en open source : Elon Musk défie le monde de l’IA !

grok musk ia

Elon Musk a annoncé que sa startup spécialisée dans l’IA, xAI, pousserait cette semaine Grok en open source, le Large Language Model de l’entreprise. Grok a été dévoilé en novembre de l’année dernière et est actuellement disponible pour les abonnés Premium+ (201,60 euros par an) sur X (anciennement Twitter).

Le chatbot Grok a été lancé en réponse directe au ChatGPT d’OpenAI, mais le modèle n’a pas encore montré de grandes promesses.

Elon Musk s’est ouvertement prononcé contre les garde-fous agressifs qui obligent les modèles d’IA à éviter les sujets sensibles. Grok est donc considéré comme l’aboutissement de la vision de Musk, où le chatbot d’IA n’hésite pas à répondre à des questions politiques ou sensibles.

Cela dit, Grok a beaucoup halluciné sur de nombreux sujets, et même sur l’échiquier politique, il s’est aligné plus à gauche, ce contre quoi Musk s’est élevé. Maintenant, avec la stratégie open source, xAI fait confiance à la communauté open source pour piloter le modèle et l’améliorer de manière significative.

Meta a été le premier à proposer des modèles d’IA en libre accès. Nous avons récemment vu la publication de Llama 2 par Meta AI, et Google a également publié un petit modèle d’IA appelé Gemma. Si xAI choisit de publier les poids du modèle Grok AI sous une licence open source relativement raisonnable, cela pourrait inciter la communauté à travailler et à améliorer le modèle pour différents cas d’utilisation.

Je ne sais pas si xAI publiera Grok avec des restrictions minimales pour un usage commercial. Bien que Llama 2 soit open source, il exige que les applications et les services obtiennent une licence spéciale si la base d’utilisateurs dépasse les 700 millions d’utilisateurs mensuels. De même, xAI pourrait ajouter des restrictions analogues pour l’utilisation commerciale.

Par ailleurs, Elon Musk a récemment intenté un procès à OpenAI et à Sam Altman en raison de la volte-face d’OpenAI, qui est devenue une société à code source fermé. Musk a déclaré par la suite qu’il abandonnerait les poursuites si OpenAI changeait son nom en “ClosedAI”. C’est peut-être dans cet esprit qu’Elon Musk met Grok en open source, ce qui pourrait consolider sa position sur l’open-sourcing des futures technologies d’IA.

Lire plus
Intelligence Artificielle

OpenAI : Sam Altman triomphe et trace l’avenir

altman 1 ap er 240308 1709939515

Dans une tournure événementielle au sein d’OpenAI, Sam Altman, le directeur général, a été officiellement réintégré au conseil d’administration après avoir fait l’objet d’une enquête indépendante menée par le cabinet d’avocats WilmerHale. Cette investigation, commandée par le conseil d’administration à but non lucratif de l’organisation, a conclu que la conduite d’Altman ne justifiait pas son éviction, marquant ainsi la fin d’une période tumultueuse surnommée par les employés « The Blip ». Cette évolution marque un tournant significatif pour OpenAI, pionnier dans le domaine en évolution rapide de l’intelligence artificielle.

La réintégration d’Altman fait suite à une tentative de coup d’État en salle de conseil en novembre, où il a été brusquement évincé, soulevant une vague d’interrogations au sein de la communauté tech. L’analyse de plus de 30 000 documents et les entretiens avec les membres du conseil et les employés ont mené à la validation du leadership d’Altman et de Greg Brockman, soulignant leur rôle crucial pour l’avenir d’OpenAI.

Dans le sillage de ces événements, le conseil a annoncé l’arrivée de trois nouveaux membres : Sue Desmond-Hellmann, ex-PDG de la Fondation Bill et Melinda Gates ; Nicole Seligman, ancienne cadre juridique chez Sony ; et Fidji Simo, PDG d’Instacart. Ils rejoindront un conseil déjà composé de figures éminentes, dont Bret Taylor et Larry Summers, pour piloter la compagnie mère d’OpenAI.

L’entreprise a également signalé son intention de renforcer sa politique de gestion des conflits d’intérêts, suite aux préoccupations soulevées par les investissements parallèles d’Altman. Un dispositif d’alerte pour les lanceurs d’alerte sera aussi mis en place, renforçant les mesures de transparence et de sécurité.

La réunion virtuelle avec la presse a vu un Altman souriant, démontrant une volonté de tourner la page et de se projeter vers l’avenir, malgré les récents défis. La question du rôle futur de Ilya Sutskever, co-fondateur et scientifique en chef, reste en suspens, bien qu’Altman ait exprimé son souhait de continuer à collaborer étroitement avec lui.

De nouveaux horizons !

Cette phase de turbulences semble désormais close, avec OpenAI prête à naviguer vers de nouveaux horizons, sous la gouvernance réaffirmée d’Altman, épaulé par un conseil d’administration renouvelé et engagé envers les principes fondateurs de l’organisation.

OpenAI, qui a considérablement avancé dans le développement de technologies d’IA de pointe, comme le modèle linguistique ChatGPT, a également fait face à des examens minutieux concernant son expansion rapide et les implications sociétales de son travail. La gouvernance et les processus décisionnels d’OpenAI ont été interrogés, tout comme son statut d’organisation à but non lucratif et sa mission déclarée de garantir que l’IA bénéficie à l’humanité dans son ensemble.

Lire plus
Intelligence Artificielle

Qu’est-ce que l’IA générative ? Comment fonctionne-t-elle ?

Qu'est-ce que l'IA générative ? Comment fonctionne-t-elle ?

Lorsque l’on parle d’outils d’intelligence artificielle (IA), il se peut que l’on fasse plus spécifiquement référence à l’IA générative, dont la popularité et l’utilisation explosent.

L’IA générative est un terme utilisé pour englober les modèles linguistiques d’apprentissage profond qui génèrent du texte, des images, des vidéos et d’autres contenus à l’aide de prompts externes. Ils utilisent les ensembles de données à partir desquels ils apprennent pour créer diverses formes de contenu, allant de courts poèmes à de longs articles.

Le thème de l’IA générative a été mis en avant avec la diffusion à grande échelle de l’outil ChatGPT d’OpenAI, qui a mis l’IA générative à la portée du grand public. S’il s’agit peut-être de la première forme d’IA générative avec laquelle de nombreuses personnes ont été en contact, ce n’est certainement pas la seule à être apparue sur le marché.

Il existe aujourd’hui des dizaines de façons différentes d’accéder à l’IA générative, presque toutes les grandes entreprises technologiques publiant leurs propres versions, qu’il s’agisse de Gemini de Google, de l’investissement massif de Microsoft dans OpenAI, de GitHub Copilot, et de bien d’autres encore.

Avant que l’IA générative ne devienne synonyme de chatbots, elle était également utilisée dans les statistiques. Il s’agit d’un outil extrêmement utile pour l’analyse des données numériques, capable de lire rapidement et d’identifier des modèles et des tendances. C’est la montée en puissance de l’apprentissage profond qui a permis d’utiliser la même technologie pour les images, la parole et d’autres types de données complexes.

Le tout premier type de cette nouvelle classe d’IA générative a été introduit en 2013, sous le nom d’auto-encodeurs variationnels (VAE). Ils ont été largement utilisés pour générer des images et des discours réalistes. Au fil du temps, les outils ont été affinés pour créer des images, des sons et des écrits toujours plus réalistes.

Comment fonctionne l’IA générative ?

La définition de l’IA générative signifie que l’outil transforme des données brutes (qui peuvent aller d’un message rapide à la lecture de l’intégralité d’une page Wikipédia) en données de sortie. L’élément d’apprentissage automatique signifie que l’IA apprend quel type de résultat serait le plus probable, sur la base des données auxquelles elle a accès. Elle ne peut pas vraiment créer quelque chose de nouveau ; la véritable créativité reste l’apanage des créatures vivantes.

Cependant, elle peut créer de nouveaux éléments de sortie inspirés ou analogues à ce qu’elle a appris, sans que ce soit une copie directe. En règle générale, un prompt est donné sous n’importe quel format, qu’il s’agisse d’un texte, d’une image, d’une vidéo, d’une page Web ou de toute autre entrée que le système d’IA a appris à traiter. Il utilise ensuite ses algorithmes d’IA internes pour créer un nouveau contenu en réponse au prompt, sur la base des modèles qu’il a appris.

Pour approfondir la technologie requise, les outils d’IA générative combinent généralement plusieurs algorithmes pour traiter le contenu. Les données fournies sont ensuite transformées en caractères bruts, par exemple en transformant les paragraphes en lettres de base, en ponctuation, en mots ou en images en éléments visuels distincts. Ces caractères de base sont ensuite codés sous forme de vecteurs, que l’IA peut utiliser pour créer de nouveaux résultats.

Les biais de l’IA générative

Il convient de noter, en expliquant l’IA générative, que ce processus d’apprentissage des modèles de langage peut exposer la possibilité d’enseigner des biais humains aux modèles d’IA. S’il existe des biais dans les données d’origine, qu’ils soient inconscients ou non, ces biais apparaîtront dans les résultats créés ultérieurement.

Dans le monde réel, cela s’est traduit par la création par l’IA d’images ou de textes contenant des identités ou des références inexactes. Pour ne citer qu’un exemple, Google a récemment dû fermer ses outils de génération d’images au sein de Gemini en raison d’inexactitudes historiques apparaissant dans ses résultats.

Critique de l’IA générative

Ce n’est pas la seule forme de critique adressée à l’IA générative. Des artistes de différentes disciplines se sont plaints que les modèles d’apprentissage profond « volent » l’art créé par l’homme. Après tout, comme nous l’avons vu plus haut, l’IA générative ne peut rien apprendre.

Les données utilisées pour « enseigner » les modèles d’IA proviennent généralement d’œuvres artistiques. Légalement, il doit s’agir d’œuvres d’art ouvertes au public, mais cela n’a pas empêché les gens de s’indigner du fait que des images d’IA et d’autres formes de résultats peuvent être créées instantanément, apparemment sur le dos d’artistes humains.

Comment générer des images d’IA ?

Si vous souhaitez vous essayer à la génération d’images d’IA, vous avez le choix entre de nombreux outils. De nombreux outils de conception graphique, dont Adobe, Pixlr et Canva, ont intégré l’IA générative dans leurs offres, mais certains outils spécialisés permettent également de faire le travail. Il s’agit notamment de :

Bien entendu, ces outils ne sont pas gratuits, et tous nécessitent un abonnement payant pour pouvoir être utilisés. Une fois que vous avez accès à l’outil de votre choix, vous pouvez commencer immédiatement. La plupart des outils d’IA générative ressemblent à un chatbot, avec une boîte de dialogue dans laquelle vous pouvez saisir votre message. Pour tirer le meilleur parti de votre outil, vous devez utiliser d’astucieux prompts, mais il convient de noter que le modèle apprendra littéralement au fur et à mesure qu’il vous connaîtra.

Vous pouvez lui demander de retoucher les images au fur et à mesure, de refaire la même image dans des styles différents ou de modifier des zones spécifiques de l’image. Chaque outil est différent en ce qui concerne le niveau des modifications que vous pouvez apporter, mais la plupart offrent une sorte d’outil qui vous permet de sélectionner des éléments individuels qui peuvent être modifiés dans différentes itérations.

Lire plus
Intelligence Artificielle

Maîtrisez l’art de la gestion du temps avec l’innovant Google Gemini !

bb77753c da2b 46d6 ad61 8896a8ced45f

Dans ce guide, nous allons voir comment vous pouvez utiliser des outils d’IA tels que Google Gemini pour améliorer la gestion du temps. Maîtriser l’art de la gestion du temps n’a jamais été aussi crucial qu’à notre époque, caractérisée par des avancées technologiques rapides et un afflux d’informations écrasant.

Dans ce paysage dynamique, l’introduction de Google Gemini, un modèle linguistique de pointe développé par Google AI, apparaît comme un gage d’efficacité et d’optimisation. Cet outil innovant est conçu pour améliorer votre productivité en automatisant et en affinant vos routines quotidiennes, ce qui vous permet de naviguer dans les complexités de la vie moderne avec plus de facilité.

En exploitant les capacités de Google Gemini, les individus peuvent atteindre de nouveaux niveaux d’efficacité, en s’assurant que chaque seconde est utilisée au maximum de son potentiel. Dans les sections suivantes, nous allons examiner les multiples façons dont Google Gemini peut transformer votre approche de la gestion du temps, en mettant en lumière son potentiel à devenir un allié indispensable dans votre quête de succès et d’équilibre.

1. Comprendre vos habitudes en matière de temps

  • Analysez votre agenda Google : Gemini peut se plonger dans votre Google Agenda et identifier les schémas de votre emploi du temps. Il peut mettre en évidence le temps que vous consacrez à différentes tâches, réunions et événements récurrents. Cette analyse fournit une image basée sur des données de l’utilisation de votre temps.
  • Résumez vos e-mails : Gemini peut traiter votre boîte de réception Gmail pour comprendre le temps consacré à différents fils de discussion. Il peut vous informer sur les communications qui prennent le plus de temps et identifier celles qui requièrent une attention urgente.

2. Une gestion plus intelligente des tâches

  • Hiérarchisez vos listes de tâches : Gemini peut analyser les tâches dans Google Tasks ou d’autres applications de listes de tâches compatibles. Il suggère un ordre d’achèvement en fonction des échéances, du temps estimé et même des informations contextuelles provenant de vos e-mails et documents.
  • Rappels contextuels : Allez au-delà des simples rappels basés sur le temps. Gemini peut suggérer des rappels déclenchés par des informations pertinentes. Par exemple, si un e-mail mentionne une échéance de rapport à venir, Gemini peut définir un rappel contextuel pour commencer à travailler sur le rapport quelques jours à l’avance.

3. Planification efficace

  • Suggestion d’horaires de réunion : Gemini simplifie les problèmes de planification des réunions. Il peut analyser votre calendrier et celui des potentiels participants, et suggérer des créneaux horaires qui conviennent à toutes les personnes impliquées.
  • Optimisation du temps de concentration : Gemini comprend vos habitudes de travail à partir des données de votre calendrier. Il peut alors suggérer de manière proactive des blocs de temps de concentration ininterrompus sur votre calendrier, vous protégeant ainsi des distractions.

4. Workflow rationalisés

  • Rédaction d’e-mails et de documents : Gemini peut vous aider à rédiger diverses communications. Supposons que vous deviez envoyer un e-mail de suivi après une réunion. Gemini peut générer un projet résumant les points clés discutés, ce qui vous permet de gagner un temps précieux.
  • Résumer les notes de réunion : Les capacités de Gemini vous permettent d’obtenir rapidement un récapitulatif des réunions. Il peut analyser des transcriptions de réunions ou des notes dans Google Docs, en extrayant les principaux points d’action et décisions pour référence ultérieure.

Comment démarrer

Bien que Google Gemini soit encore en cours de développement, un grand nombre de ses fonctionnalités peuvent être partiellement réalisées grâce à une utilisation intelligente des outils Google existants et à quelques solutions de contournement :

  • Entrées de calendrier détaillées : Utilisez des mots-clés spécifiques et des descriptions détaillées dans votre agenda Google pour aider les futurs outils d’intelligence artificielle à mieux comprendre vos engagements.
  • Étiquettes et filtres Gmail : Organisez votre boîte de réception à l’aide d’étiquettes et de filtres afin de rationaliser l’analyse des courriels ; ce tri préalable prépare vos données pour le moment où l’analyse avancée de l’IA deviendra largement disponible.
    Intégration avec d’autres applications : Explorez les applications déjà connectées à l’écosystème Google qui offrent des fonctionnalités de planification intelligente ou de gestion des tâches.

Limites à garder à l’esprit

Gemini est un outil puissant, mais il est important de connaître ses limites :

  • Actions limitées : Actuellement, Gemini ne peut pas modifier directement votre calendrier ou votre liste de tâches. Il fournit des informations et des suggestions, mais vous devrez toujours effectuer les actions vous-même.
  • Compréhension du contexte : Bien que Gemini excelle dans le traitement du langage, la compréhension des nuances et du contexte complet de vos tâches n’est pas encore acquise.

L’avenir de la gestion du temps grâce à l’IA

Google Gemini marque un bond monumental dans l’évolution des outils d’efficacité et de productivité pilotés par l’IA. À mesure qu’il progresse dans ses phases de développement, on peut imaginer un avenir où l’intégration d’un assistant IA aussi avancé dans notre vie quotidienne deviendra transparente et indispensable. Cette technologie avant-gardiste est sur le point de révolutionner la façon dont nous gérons notre temps, en offrant un support inégalé dans l’organisation des emplois du temps, en affinant la hiérarchisation des tâches et en gérant les complexités de la communication quotidienne. En automatisant ces processus fondamentaux, mais chronophages, Google Gemini promet de libérer les utilisateurs des aspects banals de la logistique quotidienne.

Cela ouvre à son tour de nouvelles possibilités pour les individus d’investir leur énergie et leur attention dans les activités qui ont le plus d’importance pour eux, qu’il s’agisse de développement personnel, de croissance professionnelle ou de temps de qualité avec les personnes qui leur sont chères.

La perspective d’une IA qui non seulement comprend, mais anticipe nos besoins et travaille en coulisses pour rationaliser nos vies témoigne de l’extraordinaire potentiel de Google Gemini pour nous permettre de nous concentrer sur ce qui enrichit vraiment nos vies.

Lire plus
Intelligence Artificielle

Stable Diffusion 3 : la révolution de la synthèse d’images par IA

sd3

Au milieu des vives controverses suscitées par Stability AI, la société a dévoilé la dernière version de son générateur d’images IA. En effet, Stability AI a récemment dévoilé Stable Diffusion 3, une avancée majeure dans le domaine de la synthèse d’images par intelligence artificielle.

Ce modèle de nouvelle génération promet de transformer des descriptions textuelles en images détaillées avec une précision et une qualité accrues. Bien qu’il n’y ait pas eu de démo publique, Stability a lancé une liste d’attente pour ceux désireux d’expérimenter cette innovation.

Stable Diffusion 3 se décline en plusieurs versions, avec une capacité allant de 800 millions à 8 milliards de paramètres, permettant ainsi une exécution sur divers appareils, des smartphones aux serveurs. Cette diversité de modèles vise à adapter la performance en fonction des détails souhaités dans les images générées, tout en tenant compte des contraintes matérielles spécifiques à chaque dispositif.

De plus, Stability AI a mis l’accent sur la sécurité dans cette version, afin d’empêcher les mauvais acteurs d’utiliser Stable Diffusion 3 à mauvais escient, en ajoutant des mesures de protection.

Depuis 2022, Stability s’est illustrée par le lancement successif de modèles de génération d’images AI, offrant une alternative ouverte face aux modèles propriétaires. Malgré les controverses, notamment sur l’utilisation de données protégées par le droit d’auteur, les biais et le potentiel d’abus, les modèles Stable Diffusion sont restés accessibles et modifiables, favorisant ainsi une approche plus transparente et personnalisable de la synthèse d’images.

dalle3 SD3 comparison jpg

Une architecture novatrice

Emad Mostaque, le PDG de Stability, souligne les innovations techniques de Stable Diffusion 3, notamment l’adoption d’une architecture de transformateur de diffusion, inspirée des transformateurs utilisés pour traiter les séquences et les motifs. Cette méthode, combinée à la technique de « flow matching », optimise la génération d’images en apprenant à passer efficacement du bruit aléatoire à une image structurée, promettant ainsi des résultats de haute qualité.

Bien que Stable Diffusion 3 ne soit pas encore accessible au grand public, les échantillons disponibles témoignent de sa capacité à rivaliser avec les modèles les plus avancés du marché. L’amélioration notable dans la génération de texte et la fidélité des prompts positionne ce modèle comme une avancée significative dans le domaine.

Stability continue d’explorer différentes architectures de synthèse d’images, comme en témoigne l’annonce récente de Stable Cascade, illustrant ainsi son engagement à repousser les limites de l’intelligence artificielle dans la création d’images.

Lire plus
Intelligence Artificielle

OpenAI dynamise le GPT Store avec évaluations d’utilisateurs et profils étoffés

1CNSFhJXVeeeWSsRUlRmVwg

Un peu plus d’un mois après le lancement par OpenAI de son GPT Store, qui a fait couler beaucoup d’encre et qui permet à des utilisateurs tiers de créer et de partager des chatbots personnalisés avec le monde entier, l’entreprise élargit encore la place de marché GPT Store pour y inclure des évaluations d’utilisateurs et des informations sur le profil des constructeurs.

Pourtant, l’idée derrière la boutique — que OpenAI partagerait les revenus avec les créateurs de GPT en fonction de la fréquence d’utilisation de leurs GPT personnalisés — reste insaisissable.

OpenAI a annoncé les mises à jour du GPT Store sur le réseau social X (anciennement Twitter), y compris un GIF animé montrant où les utilisateurs de GPT tiers peuvent accéder à la possibilité de les évaluer, en utilisant un menu déroulant sous le nom du GPT dans le coin supérieur gauche et en se déplaçant vers le bas jusqu’à une nouvelle option « Envoyer des commentaires ».

Cette option ouvre une nouvelle fenêtre interactive permettant de laisser une note sous forme d’étoiles (de 1 à 5) et une zone de texte permettant d’envoyer un « e-mail privé facultatif » au créateur du GPT, ainsi qu’une case à cocher permettant de laisser ou non l’adresse électronique de l’évaluateur.

Profil élargi du créateur de GPT

Par ailleurs, les créateurs de GPT peuvent désormais inclure davantage d’informations dans le profil de leur compte, qui apparaît lorsque les utilisateurs cliquent sur leur nom. Ces informations comprennent la possibilité d’ajouter des liens vers la page ou le profil LinkedIn du constructeur, son compte X, son site Web, son évaluation moyenne globale et le nombre total d’évaluations, ainsi que le nombre total de « conversations » ou de sessions qui ont été lancées à l’aide de ce GPT.

Ces mises à jour font suite à un problème bizarre et quelque peu effrayant de ChatGPT qui a touché de nombreux utilisateurs au début de la semaine, où une mise à jour a fait que le chatbot s’est mis à débiter un charabia incohérent dans ses réponses aux utilisateurs.

Lire plus
Intelligence Artificielle

Le plan de fabrication des puces IA d’Intel est dévoilé

Intel AI chips

Comme beaucoup d’autres entreprises, Intel envisage un avenir où l’intelligence artificielle (IA) sera un élément essentiel de toutes les technologies que nous utilisons. Pour que cela devienne une réalité, Intel, géant de l’industrie des semi-conducteurs, a élaboré un plan détaillé pour prendre la tête du marché des puces d’intelligence artificielle. Cette initiative devrait transformer la façon dont les puces sont fabriquées et utilisées dans le monde entier. Les créateurs de ChatGPT, OpenAI, envisagent également de concevoir et de fabriquer leurs propres puces d’IA.

Vous vous demandez peut-être pourquoi Intel se concentre autant sur l’IA. La réponse est simple : l’IA est partout. Des smartphones aux voitures, en passant par les soins de santé et la finance, l’IA devient un outil essentiel. Pour répondre à cette demande croissante, Intel consacre des ressources à la création de puces d’IA plus puissantes et plus économes en énergie. L’entreprise développe ses datacenters et s’assure que ses opérations peuvent résister à toute perturbation mondiale.

Cependant, Intel n’a pas oublié ses racines. Elle reste fidèle à la loi de Moore, selon laquelle le nombre de transistors sur une puce doit doubler tous les deux ans. Ce principe est à l’origine de ses avancées en matière de technologie des processus, avec des développements passionnants comme Intel 7, Intel 4 et Intel 3, et la transition prochaine vers Intel 20a et Intel 18a.

L’avenir des transistors

Mais, il ne s’agit pas seulement d’ajouter des transistors. Intel repense la structure même des transistors et la manière dont la puissance leur est fournie. Ces innovations sont cruciales pour les applications d’intelligence artificielle, qui ont besoin d’une grande puissance de calcul sans consommer trop d’énergie.

Intel se concentre également sur la manière d’assembler toutes ces puces. Elle améliore ses capacités d’assemblage, de test et de packaging pour répondre aux besoins spécifiques de la fabrication des puces d’IA. Son objectif est de créer une « fonderie de systèmes » capable d’intégrer différents composants dans un système homogène, ce qui facilitera l’entraînement et l’exécution des modèles d’IA. La collaboration est un autre élément clé de la stratégie d’Intel. L’entreprise travaille avec des sociétés telles que Microsoft pour produire des puces de nouvelle génération à l’aide des processus avancés d’Intel. Ces partenariats sont essentiels pour surmonter les difficultés liées au développement des systèmes d’IA.

Lors de l’Intel Foundry Direct Connect, Intel a lancé Intel Foundry en tant que première fonderie de systèmes au monde pour l’ère de l’IA, offrant un leadership en matière de technologie, de résilience et de durabilité. Pat Gelsinger, PDG d’Intel, et Stuart Pann, vice-président senior et directeur général d’Intel Foundry, ont présenté la session d’ouverture du matin. Ils ont été rejoints par des leaders d’opinion de l’industrie et du gouvernement. Gina Raimondo, secrétaire américaine au commerce, et Satya Nadella, président-directeur général de Microsoft, ont fait des apparitions à distance au cours de la session.

Intel sait que pour réussir, elle doit collaborer avec le reste de l’industrie.

Une collaboration nécessaire

L’entreprise milite en faveur de normes industrielles et d’une collaboration ouverte pour s’assurer que les systèmes d’intelligence artificielle sont compatibles et peuvent fonctionner ensemble sur différentes plateformes et différents appareils. L’un de leurs partenariats les plus importants est celui avec Arm. Ensemble, ils travaillent à l’amélioration des capacités de conception et de l’éducation, en fournissant des services de propriété intellectuelle et de navette à grande échelle. Ce partenariat est une mesure stratégique visant à renforcer la position d’Intel sur le marché des puces d’IA.

L’approche globale d’Intel en matière de fabrication de puces d’IA lui permet d’être un leader dans l’avenir dominé par l’IA. En mettant l’accent sur les investissements technologiques, les partenariats stratégiques et la collaboration avec l’industrie, Intel est prêt à stimuler l’innovation et à répondre aux exigences croissantes de l’IA. Il s’agit d’un moment charnière pour Intel et l’industrie technologique dans son ensemble, car ils s’efforcent de façonner l’avenir de l’intelligence artificielle et son rôle dans nos vies.

Lire plus
Intelligence Artificielle

Mistral-NEXT : Excellence en logique et raisonnement dans le dernier modèle IA

mistral ai

L’univers de l’intelligence artificielle est en perpétuelle évolution, et Mistral AI se distingue une fois de plus avec son dernier modèle, Mistral-NEXT.

Bien que la compagnie ait traditionnellement partagé ses innovations en open source, des rumeurs circulent autour de la nouvelle orientation stratégique de l’entreprise, laissant présager que Mistral-NEXT pourrait être l’un des derniers de sa lignée à être librement accessible.

Mistral-NEXT s’impose dans le paysage technologique grâce à ses performances remarquables dans une variété de tâches. Dépassant les attentes initiales, ce modèle démontre une facilité déconcertante avec les opérations computationnelles simples, promettant ainsi d’être un outil fiable pour les utilisateurs en quête d’une assistance AI pour des calculs élémentaires.

Cependant, le modèle montre des résultats variables dans des domaines plus complexes comme la programmation. Bien qu’il soit capable de générer un script Python pour un jeu, le code produit nécessite souvent des ajustements manuels. Sa capacité à résoudre des problèmes logiques et à raisonner est impressionnante, lui permettant de naviguer avec précision à travers divers défis intellectuels.

Performance de Mistral-NEXT

Dans le domaine de la génération de contenu, Mistral-NEXT s’avère compétent, mais il convient de souligner l’importance d’une supervision humaine pour garantir la qualité et la pertinence des résultats, en particulier pour les contenus sensibles ou nécessitant un format spécifique comme le JSON.

Comparé à GPT-4, Mistral-NEXT tient la route, excellant particulièrement dans les tâches de logique et de raisonnement. Toutefois, GPT-4 semble avoir l’avantage dans certains domaines, peut-être en raison de son entraînement sur un ensemble de données plus vaste ou de l’utilisation d’algorithmes plus sophistiqués. Cette comparaison éclaire le potentiel de Mistral-NEXT et ses perspectives d’avenir dans le paysage AI.

L’intérêt grandit autour de la disponibilité potentielle de Mistral-NEXT en tant que modèle open source, une décision qui pourrait transformer radicalement son adoption et son évolution grâce à la collaboration communautaire.

L’avenir de Mistral-NEXT

Le modèle a démontré un potentiel considérable, particulièrement dans les tâches impliquant la logique et le raisonnement. Cependant, il existe un espace significatif pour l’amélioration et l’expansion, surtout en le comparant à des modèles plus avancés comme GPT-4. Les perspectives d’ouverture de Mistral-NEXT au public suscitent un vif intérêt dans la communauté AI, anticipant une ère de progrès collaboratifs et d’innovations significatives dans le domaine de l’intelligence artificielle.

Lire plus
Intelligence Artificielle

Fin de route pour l’Apple Car ? Apple se concentre sur l’intelligence artificielle

file FD7cLRSxmiU5w2giqw1cJExG

Depuis plus de 10 ans, on entend dire qu’Apple construit un véhicule électrique (VE) qui rivaliserait avec Tesla et transformerait l’une des plus grandes entreprises technologiques du monde en constructeur automobile. Mais ce n’est pas le cas. Et cela remet en question de nombreux projets d’Apple.

Selon un rapport de Bloomberg, des cadres supérieurs d’Apple ont récemment annoncé à leurs employés que la société avait décidé d’arrêter le travail sur le projet Titan, le nom de code qu’Apple utilisait pour son activité Apple Car.

Au lieu de cela, les cadres ont dit aux employés que certains d’entre eux seraient transférés à la division d’IA générative d’Apple et que d’autres seraient licenciés. D’autres encore auraient la possibilité de postuler à un nouvel emploi dans une autre division de l’entreprise.

Cette décision a provoqué une onde de choc dans les secteurs de la technologie et de l’automobile. Pendant des années, un nombre incalculable de rumeurs et de rapports ont fait surface sur les ambitions d’Apple en matière de véhicules.

Nous avons entendu dire qu’Apple débauchait des employés de Tesla (et s’est attiré les foudres d’Elon Musk) et nous avons vu Apple déposer brevet sur brevet pour des innovations automobiles.

L’accent mis sur l’IA

Alors que ses concurrents investissent de plus en plus dans l’intelligence artificielle, Apple a clairement compris qu’il lui fallait rattraper son retard. Microsoft a pris une longueur d’avance dans ce domaine, grâce à son investissement dans OpenAI, et Google gagne rapidement du terrain avec sa propre alternative Gemini. Samsung a dévoilé en début d’année un Galaxy S24 doté de fonctions d’intelligence artificielle. Et pour l’instant, nous n’entendons que des promesses d’intelligence artificielle de la part d’Apple.

Lors de la réunion annuelle des actionnaires d’Apple en début de semaine dernière, Tim Cook, PDG de la société, a déclaré que les innovations de l’entreprise en matière d’IA allaient arriver, mais qu’il faudrait attendre un peu plus longtemps. « Plus tard dans l’année, j’ai hâte de partager avec vous les façons dont nous allons innover dans le domaine de l’IA générative, une autre technologie dont nous pensons qu’elle peut redéfinir l’avenir », a déclaré Tim Cook.

Cook n’a pas parlé de l’Apple Car, mais il a déclaré que lorsque Apple conçoit des produits, il s’agit de « se concentrer ». Et pour l’instant, il semble qu’Apple se concentre sur l’IA.

L’Apple Car reviendra-t-elle ?

Cependant, Apple aurait dépensé plus de 10 milliards de dollars pour le projet Apple Car. L’abandon pur et simple au profit de l’IA est une pilule difficile à avaler. La question se pose donc de savoir si Apple finira par relancer le projet lorsqu’elle estimera que son assise en matière d’IA est solide et que l’opportunité de l’Apple Car est toujours là.

On peut s’attendre à ce que l’Apple Car redémarre à long terme, une fois que les lacunes de l’entreprise en matière d’IA auront été comblées. Le marché mondial des véhicules électriques ou à hydrogène autonomes pour les années 2030 et au-delà sera tout simplement trop important pour qu’Apple puisse l’ignorer. Reste à savoir si le projet Car d’Apple sera relancé de manière organique ou via le rachat d’une marque établie.

Lire plus
Intelligence Artificielle

Déchiffrer le futur : Scott Aaronson et la vision d’OpenAI pour l’AGI

d35d17f6 8cb2 49bb bedb 14c0a0aa4e64

Imaginez un avenir où les machines penseront comme nous, comprendront comme nous et dépasseront peut-être même nos propres capacités intellectuelles. Il ne s’agit pas d’une scène tirée d’un film de science-fiction, mais d’un objectif que des experts comme Scott Aaronson, de OpenAI, s’efforcent d’atteindre.

Aaronson, figure emblématique de l’informatique quantique, s’est tourné vers une nouvelle frontière : l’intelligence générale artificielle (AGI). Il s’agit du type d’intelligence qui pourrait égaler, voire dépasser, la puissance du cerveau humain. Wes Roth se penche sur cette nouvelle technologie et sur ce que nous pouvons attendre dans un proche avenir de OpenAI et d’autres acteurs qui développent l’AGI et les lois d’échelonnement des réseaux neuronaux.

Chez OpenAI, Scott Aaronson est profondément impliqué dans la quête de l’AGI. Il s’intéresse à la situation dans son ensemble et tente de déterminer comment s’assurer que ces puissants systèmes d’IA ne causent pas accidentellement des dommages. C’est une préoccupation majeure pour ceux qui travaillent dans le domaine de l’IA, car plus ces systèmes deviennent complexes, plus les risques augmentent.

Aaronson établit un lien entre le fonctionnement de notre cerveau et celui des réseaux neuronaux de l’IA. Selon lui, la complexité de l’IA pourrait un jour être comparable à celle du cerveau humain, qui compte environ 100 000 milliards de synapses. Cette idée est fascinante car elle suggère que les machines pourraient potentiellement penser et apprendre comme nous.

OpenAI AGI

Un article rédigé par Aaronson a fait couler beaucoup d’encre. Il y est question de la création d’un modèle d’IA comportant 100 billions de paramètres. C’est un chiffre énorme, qui a suscité de nombreux débats. Les gens se demandent s’il est possible de construire un tel modèle et ce que cela signifierait pour l’avenir de l’IA.

L’une des grandes questions que pose Aaronson est de savoir si les systèmes d’IA tels que GPT comprennent réellement ce qu’ils font ou s’ils sont simplement bons à faire semblant. Il s’agit d’une distinction importante, car la véritable compréhension est un grand pas vers l’IA.

Lois de mise à l’échelle des réseaux neuronaux

Mais, Aaronson ne se contente pas de critiquer le travail des autres : il contribue également à l’élaboration d’un framework mathématique destiné à rendre l’IA plus sûre. Ce cadre vise à prédire et à prévenir les risques liés aux systèmes d’IA les plus avancés. La manière dont le nombre de paramètres d’un système d’IA affecte ses performances suscite beaucoup d’intérêt. Certains pensent qu’il faut un certain nombre de paramètres pour qu’une IA puisse agir comme un humain. Si c’est le cas, l’IA est peut-être possible depuis longtemps, mais nous ne disposons pas de la puissance de calcul ou des données nécessaires pour y parvenir.

Aaronson réfléchit également à ce que signifierait pour l’IA d’atteindre la complexité du cerveau d’un chat. Cela ne semble pas grand-chose, mais ce serait un grand pas en avant pour les capacités de l’IA. Il y a aussi l’idée de l’IA transformatrice (TII). Il s’agit de l’IA qui pourrait prendre en charge des emplois occupés par des personnes éloignées. Il s’agit d’une question importante car elle pourrait modifier des secteurs entiers et affecter des emplois dans le monde entier.

Les idées divergent quant au nombre de paramètres dont une IA a besoin pour atteindre l’AGI. Ces estimations sont basées sur des recherches en cours et sur une meilleure compréhension de la manière dont les réseaux neuronaux se développent et évoluent. Les travaux de Scott Aaronson sur la complexité informatique de l’optique linéaire contribuent à mettre en lumière ce qui est nécessaire à l’AGI.

Les idées de Scott Aaronson nous donnent un aperçu de l’état actuel de la recherche sur l’AGI. La façon dont les paramètres des réseaux neuronaux évoluent et les questions éthiques liées au développement de l’IA sont au cœur de ce domaine en pleine évolution. Alors que nous repoussons les limites de l’IA, les conversations entre des experts comme Aaronson et la communauté de l’IA au sens large joueront un rôle crucial dans l’élaboration de ce que sera l’AGI à l’avenir.

Lire plus
Intelligence Artificielle

4 jobs technologiques susceptibles d’être dominés par l’IA

cf5726d1 1aab 4c06 b584 582281b6bb2a

Bien que l’IA existe depuis un certain temps, ce n’est que récemment que les employés du secteur technologique ont commencé à s’inquiéter des effets négatifs de l’augmentation des tâches.

La plupart des domaines technologiques ont mis en œuvre l’IA dans le but de rationaliser les processus et d’accroître la précision. Tout cela se fait avec un minimum d’intervention humaine.

En règle générale, la puissance des systèmes informatiques modernes facilite les processus complexes qui étaient auparavant réservés aux professionnels humains. Au fur et à mesure que la technologie de l’IA s’améliore, la plupart des emplois technologiques sont susceptibles d’être dominés par l’IA.

Voici quelques emplois technologiques qui seront les plus touchés par l’IA.

1. Codage et développement

Les compétences en matière de codage et de programmation sont très demandées, mais les outils d’IA avancés domineront probablement ces carrières à l’avenir. La plupart des emplois technologiques tels que la science des données, le développement de logiciels, la programmation et le développement Web se prêtent à l’IA. Cela signifie que la technologie peut remplacer une partie ou la plupart des processus impliqués dans le travail.

Certains outils d’IA sont très compétents pour calculer des chiffres avec une précision stupéfiante. L’IA peut donc effectuer des tâches de codage plus rapidement que les humains, ce qui signifie que les entreprises ont besoin de moins de personnel pour mener à bien un projet.

Toutefois, il n’est pas toujours possible d’éliminer la nécessité de recourir à des employés humains pour l’ensemble du processus. Les professionnels avertis peuvent tirer parti des outils d’IA pour améliorer leurs compétences et devenir plus utiles.

db6d8c5a 23a2 485d b463 cfd65fc7bcbc

2. Graphisme et ingénierie

Si certains emplois exigeant une grande créativité peuvent être difficiles à automatiser, certaines tâches dans le domaine de la conception graphique sont facilement exécutées par des outils d’IA. Ainsi, la fonction de remplissage génératif de Photoshop est un parfait exemple de la manière dont l’IA peut dominer le secteur de la conception graphique. Cet outil permet à toute personne ayant une expérience minimale de l’édition d’effectuer des modifications photoréalistes à l’aide de simples invites.

La conception générative s’appuie sur l’IA pour mener à bien le processus de conception. En règle générale, l’outil aide à la génération d’idées et génère ensuite de nombreuses solutions possibles pour la requête. Quelle que soit la nature de la conception, l’IA travaille selon des paramètres spécifiques pour produire des conceptions réalisables en peu de temps.

3. Analyse de la recherche

L’intelligence artificielle est déjà une tendance puissante dans la recherche et l’analyse des données. Cette technologie est essentielle pour rationaliser le processus et traiter les nouvelles données sans intervention extérieure.

Les ordinateurs modernes dotés de capacités de traitement avancées facilitent l’extrapolation et l’analyse d’ensembles de données complexes. D’autre part, les analystes de recherche jouent un rôle essentiel dans la création du bon message et du bon contenu à des fins de marketing. Toutefois, les outils d’IA peuvent administrer des enquêtes, traiter les données et compiler les informations nécessaires avec plus de précision dans un délai très court.

Si les outils automatisés présentent l’avantage de la rapidité, de l’échelle, de la précision et de la cohérence, les experts humains ont une expérience unique qu’il est difficile de reproduire avec un algorithme. Les chercheurs qui exploitent les outils d’IA peuvent garantir l’efficacité et la pertinence de leur travail.

4. Technologies de la santé

La technologie de la santé est un élément essentiel du système de soins de santé moderne, car elle aide à développer et à fournir des solutions avancées. Les algorithmes d’IA avancés, formés sur un nombre suffisant de données médicales, peuvent surpasser les capacités humaines. La solution technologique peut éliminer les retards et optimiser les coûts des soins de santé. Certains modèles peuvent diagnostiquer avec précision des problèmes de santé des années avant que les symptômes ne se manifestent. En outre, les algorithmes d’IA peuvent déterminer les potentielles réactions aux interventions médicales et personnaliser certains traitements.

Néanmoins, l’adoption de l’IA dans les soins de santé est lente en raison des réglementations et des coûts. Bien que l’IA médicale recèle un énorme potentiel, le remplacement des médecins n’est pas pour tout de suite. La technologie contribuera plutôt à rationaliser la prestation de services dans le secteur médical. Cela signifie que les prestataires de soins de santé ne seront pas surchargés de travail et qu’ils pourront se concentrer sur la fourniture de meilleurs services aux patients.

La révolution fondamentale se produira après l’adoption massive de solutions de diagnostic et de traitement basées sur l’IA. Cela permettra d’éliminer les traitements tardifs et de favoriser la détection précoce et la prévention.

L’intelligence artificielle est un domaine qui évolue rapidement et qui crée une révolution massive dans le secteur technologique. Par conséquent, la future main-d’œuvre n’a d’autre choix que de passer par une transformation similaire pour rester pertinente dans son travail. Si les changements entraînent des perturbations dans les emplois traditionnels, de nouvelles opportunités se présenteront.

 

Lire plus
Intelligence Artificielle

Surpassant Google et OpenAI: L’ascension de Claude 3 d’Anthropic

image 2 1

La bataille pour le meilleur modèle linguistique d’IA fait rage. ChatGPT et son modèle de langage GPT connecté sont peut-être encore les plus populaires, mais quelques entreprises d’IA essaient de faire leur propre affaire, avec plus ou moins de succès. L’une de ces entreprises est Anthropic, une société lancée par quelques anciens employés d’OpenAI et qui fabrique actuellement le modèle « Claude ». Cette semaine, ce modèle Claude a atteint la version 3, et il est plus évolutif et plus puissant que jamais.

En effet, Anthropic vient de dévoiler sa nouvelle famille de modèles d’IA Claude 3, qui surpasse les principaux modèles de Google et d’OpenAI. Ces modèles peuvent traiter à la fois des textes et des images et offrent diverses améliorations par rapport aux versions précédentes.

Selon Anthropic, Claude 3 permet de mieux répondre aux questions, de comprendre les instructions plus longtemps et d’améliorer la précision grâce à une meilleure compréhension du contexte.

Il existe trois variantes : Haiku (la plus rapide et la plus rentable), Sonnet (équilibre entre vitesse et performance) et Opus (la plus grande et la plus intelligente). Chacune est conçue pour être plus petite ou plus grande, en fonction de vos besoins personnels. Haiku est moins gourmand en ressources, tandis qu’e pus est le plus performant, mais aussi le plus gourmand en ressources des trois. Quoi qu’il en soit, les trois variantes de Claude 3 sont très polyvalentes et peuvent être utilisées pour un large éventail d’applications, qu’il s’agisse de créer un chatbot, d’analyser des données ou de générer du contenu.

L’une des plaintes les plus fréquentes concernant les précédentes versions de Claude était qu’il refusait de se conformer à des demandes qui ne violaient pas le code de conduite du modèle, mais Claude 3 a apparemment réduit ce problème.

Des résultats quasi instantanés

Selon Anthropic, Claude 3 est moins enclin à ce genre de comportement. En outre, les modèles de Claude 3 revendiquent des résultats quasi instantanés, même pour des documents complexes tels que des articles de recherche. Les analyses comparatives montrent que Opus surpasse ses concurrents dans des domaines tels que le raisonnement de niveau supérieur, les mathématiques, le codage et la compréhension générale.

Par rapport au modèle Claude 2.1 précédent, Sonnet offre une vitesse deux fois supérieure, ce qui le rend idéal pour les tâches nécessitant des réponses rapides. Les modèles Claude 3 ont été entraînés en utilisant une combinaison d’ensembles de données privés et publics, avec du matériel d’entraînement fourni par Amazon et Google, tous deux investisseurs dans Anthropic.

Ces modèles seront, pour l’instant, disponibles sur la bibliothèque de modèles Bedrock d’Amazon et sur la plateforme Vertex AI de Google.

Lire plus
Intelligence Artificielle

ChatGPT d’OpenAI dispose désormais d’une fonction de lecture à haute voix multilingue

chatgpt can now read its respons

OpenAI a annoncé que populaire outil ChatGPT peut désormais lire à haute voix à ses utilisateurs. La fonction du même nom peut réciter les réponses dans l’une des cinq options vocales. La lecture à haute voix est accessible depuis la version Web de ChatGPT ainsi que les applications ChatGPT pour iOS et Android.

La nouvelle fonctionnalité est disponible en 37 langues et peut détecter automatiquement la langue du texte qu’elle lit. Pour l’instant, l’option est disponible pour les utilisateurs de GPT-4 et GPT-3.5.

OpenAI a annoncé cette fonctionnalité dans un post sur X : « ChatGPT peut maintenant vous lire les réponses. Sur iOS ou Android, appuyez sur le message et maintenez-le enfoncé, puis appuyez sur “Lire à voix haute”. Nous avons également commencé à déployer cette fonctionnalité sur le Web — cliquez sur le bouton “Lire à voix haute” sous le message ».

L’entreprise s’efforce d’améliorer ses capacités multimodales, c’est pourquoi elle a introduit une fonction de chat vocal en septembre 2023, qui permet aux utilisateurs de saisir des messages verbalement sans avoir à les taper. Toutefois, cette fonction permettra aux utilisateurs de se faire lire les réponses du chatbot à haute voix.

Comme mentionné ci-dessus, les utilisateurs peuvent appuyer sur le texte et le maintenir enfoncé pour accéder au lecteur de lecture à haute voix de l’application mobile, ce qui leur permet de lire, de mettre en pause ou de revenir en arrière dans la narration. La version Web affiche quant à elle une icône de haut-parleur sous le texte.

Cette mise à jour intervient alors que Anthropic a lancé son chatbot Claude 3, qui, selon l’entreprise, a atteint des niveaux « quasi humains » lors de certains tests. De nombreux utilisateurs ont réagi à cette annonce sur X, affirmant qu’elle ne répondait pas à leurs attentes.

La lecture à haute voix sur d’autres plateformes d’IA

En juillet 2023, Google a intégré la même fonctionnalité à son chatbot Gemini — anciennement connu sous le nom de Bard — en lui donnant la possibilité de vocaliser ses réponses à haute voix. Il prend en charge 40 nouvelles langues, dont l’arabe, le chinois, l’allemand, l’hindi et l’espagnol.

La fonction de lecture à haute voix de Microsoft Edge fonctionne désormais avec le chatbot Copilot de Windows 11. Cette fonctionnalité, qui était en phase de test, est désormais disponible pour tous.

Lire plus
Intelligence Artificielle

OpenAI révèle les coulisses : Elon Musk voulait-il prendre le contrôle ?

01003230064887 web tete

La semaine dernière, Elon Musk a poursuivi OpenAI pour rupture de contrat et obligation fiduciaire. Selon ce procès, Musk pense que la vision d’OpenAI est manipulée par Microsoft. En outre, le procès de Musk a également révélé comment la vision originale d’OpenAI, qui consistait à développer l’AGI pour « le bénéfice de l’humanité », a été corrompue en raison de ses objectifs lucratifs. OpenAI a riposté cette semaine en dévoilant des informations très sensibles pour rejeter les allégations de Musk.

OpenAI a partagé un article de blog qui comprend une foule d’e-mails entre l’entreprise et Elon Musk. Ces e-mails suggèrent que Musk voulait soit que OpenAI « fusionne avec Tesla », soit qu’il veuille « le contrôle total » de l’entreprise. Pour être plus précis, le blog dit ceci :

Fin 2017, Elon et nous avons décidé que la prochaine étape de la mission était de créer une entité à but lucratif. Elon voulait une participation majoritaire, un contrôle initial du conseil d’administration et être PDG. Au milieu de ces discussions, il a retenu le financement. Reid Hoffman a comblé le fossé pour couvrir les salaires et les opérations.

En outre, OpenAI a ajouté qu’elle ne pouvait pas parvenir à un accord avec Elon Musk parce qu’elle avait l’impression que lui donner un contrôle total allait à l’encontre de la mission et de la vision de l’entreprise.

L’article de blog montre également que Elon Musk a déclaré qu’il avait besoin qu’OpenAI atteigne un « chiffre plus important » que ce que le PDG Sam Altman et le cofondateur Greg Brockman avaient prévu à l’origine. Initialement, ce chiffre avait été fixé à 100 millions de dollars, mais Musk voulait que OpenAI « dise que nous commençons avec un engagement de financement de 1 milliard de dollars ».

Une « filiale » de Microsoft ?

Cependant, l’article précise dès le début que l’entreprise a recueilli moins de 45 millions de dollars auprès de Musk et plus de 90 millions de dollars auprès « d’autres donateurs ». En d’autres termes, l’engagement de financement d’un milliard de dollars a été un échec et, en fin de compte, il n’en est ressorti que peu ou rien. Selon Musk, la nature d’OpenAI s’est progressivement et de manière alarmante transformée, passant d’une plateforme à code source ouvert à une « filiale de facto à code source fermé de la plus grande entreprise technologique du monde : Microsoft ».

Screen Shot 2024 03 05 at 9.21.4 jpg

OpenAI réfute cette affirmation en partageant un e-mail entre Ilya Sutskever (cofondateur et ancien scientifique en chef d’OpenAI) et Musk, dans lequel Ilya déclare spécifiquement,

Au fur et à mesure que nous nous rapprochons de la construction de l’IA, il sera logique de commencer à être moins ouvert. L’ouverture dans OpenAI signifie que tout le monde devrait bénéficier des fruits de l’IA une fois qu’elle est construite, mais qu’il est tout à fait acceptable de ne pas partager la science (même si tout partager est certainement la bonne stratégie à court et peut-être à moyen terme à des fins de recrutement).

Après avoir tout dévoilé, OpenAI a déclaré qu’elle était triste d’en arriver là avec « quelqu’un que nous avons profondément admiré — quelqu’un qui nous a inspiré à viser plus haut, puis nous a dit que nous échouerions, a lancé un concurrent, puis nous a poursuivis en justice lorsque nous avons commencé à faire des progrès significatifs vers la mission d’OpenAI sans lui ».

OpenAI contre Elon Musk : qui a tort ?

Le plus gros problème de ce procès est qu’il n’y a en réalité aucun contrat concret sur lequel s’appuyer. Tout ce fiasco repose sur quelques échanges numériques et accords oraux entre OpenAI et Elon Musk. Ainsi, bien que les deux entreprises fassent parler d’elles, il n’y a que peu ou pas de bases légales à explorer.

Même l’ancien procureur Kevin O’Brien a déclaré à CNBC : « C’est certainement une bonne publicité au profit d’Elon Musk », et il n’est pas sûr que le fondement juridique de tout cela soit très solide.

Il n’y a pas de « gagnant » ici, si c’est ce que vous vous demandez. Il s’agit plutôt d’une question de rivalité concurrentielle, à ce qu’il semble. L’aile xAI de Musk ayant lancé son robot Grok pour rivaliser avec ChatGPT, qui est sans aucun doute le projet le plus populaire d’OpenAI, je ne suis pas sûr que ce procès donnera à Musk l’effet de levier qu’il cherche à trouver.

De plus, alors que de nombreuses personnes telles que le célèbre expert en IA Gary Marcus s’adressent à X pour révéler que la vision même d’OpenAI a été mise à mal, l’entreprise a-t-elle été honnête envers elle-même en premier lieu ?

Lire plus
Intelligence Artificielle

Wix révolutionne la création web avec son nouvel outil IA

Screenshot 2024 03 04 at 10.30.3

Une des plateformes de création de sites Web les mieux notées jusqu’à présent, Wix, a annoncé le lancement de son tant attendu outil de création de sites Web assisté par l’intelligence artificielle.

Cette nouvelle fonctionnalité de Wix fonctionne de manière analogue à d’autres outils disponibles sur le marché. Elle commence par poser une série de questions, telles que le nom souhaité pour le site Web, la description de l’entreprise, et le type de services et produits proposés. L’IA utilise ensuite vos réponses pour créer un site Web sur mesure, complet avec images et textes. Elle fournit également des outils commerciaux dédiés, tels qu’une boutique en ligne et la gestion d’événements.

Après avoir exploré le nouveau site Web et confirmé votre satisfaction, vous serez dirigé vers l’éditeur de site Web habituel de Wix, où vous pourrez apporter les ajustements nécessaires avant de mettre votre site en ligne.

file

La popularité croissante de l’IA dans la création de sites Web

Wix a teasé le lancement de son nouveau constructeur de sites Web IA pendant plus de 7 mois, mais cette nouveauté est loin d’être la première incursion de Wix dans l’IA.

La plateforme héberge déjà plusieurs outils IA, tels qu’un assistant de codage IA pour les utilisateurs de Wix Studio, la génération d’images et de textes par IA, et des outils SEO alimentés par l’IA.

Le lancement du dernier outil IA de Wix fait suite à une série d’annonces analogues dans l’espace des constructeurs de sites Web.

Bien que les outils IA soient désormais prolifiques sur les plateformes de création de sites Web, Wix rejoint une courte liste, aux côtés de Hostinger et GoDaddy, qui proposent aux utilisateurs un site Web entièrement conçu et peuplé par l’IA, basé sur quelques prompts textuels.

Le constructeur de sites est disponible dans toutes les régions, mais seulement en langue anglaise.

Lire plus