fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Elon Musk et xAI visent 6 milliards de dollars dans le sillage de l’IA

httpshypebeast.comimage202311elo

Plusieurs investisseurs ont remis des chèques importants à des startups pour profiter de ce qui a attiré l’attention de la Silicon Valley au cours de l’année écoulée : la course à la création d’une IA plus importante et de meilleure qualité s’est intensifiée.

Aujourd’hui, la start-up d’intelligence artificielle xAI de l’entrepreneur milliardaire Elon Musk est en pourparlers pour lever jusqu’à 6 milliards de dollars.

La start-up cherche à obtenir de l’argent auprès de riches fonds de placement au Moyen-Orient et a eu des discussions avec des bureaux familiaux à Hong Kong, selon un article de Reuters qui cite plusieurs personnes ayant connaissance de la situation.

Pour cette nouvelle levée de fonds, Elon Musk a également contacté des investisseurs en Corée du Sud et au Japon, bien que son bureau n’ait pas répondu à une demande de commentaire.

Elon Musk n’a jamais caché son intention de construire une IA plus sûre. xAI a fait les gros titres l’année dernière lors de la présentation de « Grok », un chatbot qui se positionne comme un adversaire du ChatGPT d’OpenAI. Musk a souvent souligné l’importance de développer l’IA de manière responsable. Il a récemment mis en garde contre le développement de la robotique et de l’intelligence artificielle (IA) en dehors de Tesla jusqu’à ce qu’il ait acquis plus d’influence sur les décisions de l’entreprise. Musk a exprimé son inquiétude quant à la possibilité de diriger Tesla vers l’intelligence artificielle sans avoir obtenu 25 % des voix.

La puissance de l’IA

Pour la petite histoire, OpenAI, la société derrière ChatGPT, a été fondée et établie en 2015 à San Francisco par Elon Musk (Tesla, X, xAI), Llya Sutskever, Wojciech Azremba, Greg Brockman et l’actuel PDG de ChatGPT, Sam Altman. Musk a quitté OpenAI en 2018, invoquant un conflit d’intérêts avec l’IA dans son entreprise Tesla. En juillet 2023, Musk a déclaré que xAI chercherait à « comprendre la véritable nature de l’univers ». Depuis qu’il a quitté OpenAI, Musk n’a cessé de prononcer des discours et de prôner la prudence dans l’innovation en matière d’IA.

Les startups ont connu un marché morose pendant un certain temps, mais grâce à l’IA et à ses points forts tels que ChatGPT, de nombreuses startups dans ce domaine bénéficient d’un excellent environnement de financement.

Lire plus
Intelligence Artificielle

OpenAI prépare le terrain pour ChatGPT-5 : une nouvelle ère d’IA

raw 1

Le monde de l’intelligence artificielle est sur le point de faire un nouveau bond en avant, car OpenAI, le populaire laboratoire de recherche de premier plan dans le domaine de l’intelligence artificielle, travaille assidûment au développement du ChatGPT-5.

Ce nouveau modèle devrait être disponible dans le courant de l’année et apporter des améliorations substantielles par rapport à ses prédécesseurs, des améliorations qui pourraient redéfinir nos interactions avec la technologie.

L’équipe de OpenAI affine actuellement les versions antérieures de ses modèles d’IA, une tâche complexe qui implique non seulement des ordinateurs plus puissants, mais aussi des idées novatrices qui repoussent les limites de ce que l’IA peut faire. En attendant l’arrivée de GPT-5, il est important de comprendre que ce processus est à la fois gourmand en ressources et en temps.

OpenAI a l’habitude de procéder à des tests approfondis et à des évaluations de la sécurité, comme on l’a vu avec GPT-4, qui a fait l’objet de 3 mois de formation. Cette approche méticuleuse suggère que la sortie de GPT-5 pourrait encore prendre un certain temps, car l’équipe s’est engagée à garantir les normes les plus élevées en matière de sécurité et de fonctionnalité.

Détails de ChatGPT-5

  • Début de la formation : L’entraînement à grande échelle de GPT-5 a probablement récemment commencé.
  • Étapes préparatoires : OpenAI entraîne généralement des modèles plus petits (environ 1/1000 e de la taille du modèle complet) pour recueillir des informations avant de lancer un entraînement complet.
  • Ressources informatiques : GPT-5 utilise des ressources informatiques maximales, ce qui indique que le projet est ambitieux.
  • Durée de la formation et tests de sécurité : L’entraînement de GPT-4 a duré environ 3 mois, suivi des tests de sécurité. Le calendrier de GPT-5 pourrait être similaire.
  • Les membres de l’équipe rouge : OpenAI a clôturé les candidatures pour son Red Teaming Network, ce qui implique que les testeurs de sécurité sont prêts à évaluer GPT-5 pendant les points de contrôle de la formation.
  • Versions incrémentales : Il peut y avoir des versions incrémentales, comme GPT 4.2, avant la version finale de GPT-5, car OpenAI peut publier des points de contrôle de l’entraînement.
  • Capacités de raisonnement : GPT-5 devrait avoir des capacités de raisonnement améliorées, capables de présenter et de vérifier en interne ou en externe ses étapes de raisonnement.
  • Taille des paramètres : GPT-5 pourrait compter environ 10 fois plus de paramètres que GPT-4, qui devrait en compter entre 1,5 et 1,8 trillion.
  • Architecture du modèle : Les améliorations pourraient inclure une dimension d’intégration plus importante, davantage de couches et le double du nombre d’experts pour une reconnaissance des formes plus nuancée et plus complexe.
  • Multimodale : GPT-5 devrait progresser dans le domaine des capacités multimodales, y compris une meilleure intégration du texte, de l’image, de l’audio et éventuellement de la vidéo.
  • Amélioration de la fiabilité : GPT-5 vise à être plus fiable, éventuellement en évaluant plusieurs réponses et en sélectionnant la meilleure.
  • Données multilingues : L’ensemble de formation de GPT-5 comprendra probablement davantage de données multilingues, ce qui contribuera à améliorer les performances dans différentes langues.
  • Interaction en temps réel : Des améliorations de l’interaction vocale en temps réel sont attendues, ce qui réduira la latence des réponses.
  • Débrouillage du texte : GPT-5, comme GPT-4, pourrait avoir la capacité de traiter et d’interpréter efficacement les textes brouillés.
  • Calendrier de lancement : Bien que spéculatif, GPT-5 pourrait être lancé vers la fin du mois de novembre 2024, avec des fonctionnalités incrémentales jusqu’en 2025.
  • Performances comparées : Les attentes suggèrent des améliorations significatives par rapport à GPT-4 dans des domaines tels que le codage, les mathématiques et les domaines STEM.

L’une des perspectives les plus intéressantes pour ChatGPT-5 est son potentiel d’amélioration du raisonnement et de la fiabilité. L’objectif est de créer une IA capable non seulement de résoudre des problèmes complexes, mais aussi d’expliquer son raisonnement de manière claire et compréhensible. Cela pourrait considérablement améliorer la façon dont nous travaillons avec l’IA, en en faisant un outil plus efficace pour résoudre un large éventail de problèmes.

Ce que nous pouvons attendre de GPT-5

On pense que GPT-5 pourrait comporter jusqu’à dix fois plus de paramètres que GPT-4. Cette augmentation pourrait permettre d’améliorer les compétences linguistiques de l’IA et sa capacité à apprendre à partir d’un plus large éventail de données. L’implication d’un groupe diversifié d’experts dans le processus de développement devrait également contribuer à une performance plus raffinée.

Une autre caractéristique attendue de GPT-5 est sa capacité à comprendre et à communiquer dans plusieurs langues. Cette capacité multilingue pourrait ouvrir de nouvelles voies de communication et de compréhension, rendant l’IA plus accessible à un public mondial.

La date de sortie de GPT-5 est provisoirement fixée à la fin novembre 2024. Ce calendrier est stratégique, car il permet à l’équipe d’éviter les distractions du cycle électoral américain et de consacrer le temps nécessaire à la formation et à la mise en œuvre de mesures de sécurité. OpenAI travaille également à l’amélioration des interactions vocales en temps réel, dans le but de créer une expérience plus naturelle et transparente pour les utilisateurs.

Outre ces améliorations, OpenAI étudie la possibilité d’étendre les types de données que GPT-5 peut traiter. Cela pourrait signifier qu’à l’avenir, GPT-5 pourrait être capable de comprendre non seulement du texte, mais aussi des images, du son et de la vidéo. De telles capacités feraient de GPT-5 un outil encore plus polyvalent pour toute une série d’applications.

sam altman openai jpg

De gros potentiels

Les initiés de OpenAI ont laissé entendre que GPT-5 pourrait être un produit qui change la donne, suggérant que nous pourrions bientôt assister à des percées qui auront un impact significatif sur l’industrie de l’IA. Les potentiels changements dans la manière dont nous utilisons l’IA dans le cadre professionnel et personnel sont immenses, et ils pourraient redéfinir le rôle de l’intelligence artificielle dans nos vies.

Le développement continu de GPT-5 par OpenAI témoigne de l’engagement de l’organisation à faire progresser la technologie de l’IA. Avec la promesse d’une amélioration du raisonnement, de la fiabilité et de la compréhension du langage, ainsi que l’exploration de nouvelles fonctionnalités, GPT-5 est prêt à laisser une marque significative dans le domaine de l’IA. En attendant son arrivée, l’évolution de l’intelligence artificielle reste un voyage passionnant et dynamique.

Lire plus
Intelligence Artificielle

Kenichiro Yoshida de Sony : l’IA comme soutien aux créateurs, pas comme substitut

file g6Ry72ZN9JOMrYrZVubvEcj3

Kenichiro Yoshida, président-directeur général du groupe Sony, a accordé une interview franche à Nicolai Tangen, de la Norges Investment Bank. Il a parlé ouvertement de l’approche de Sony en matière de jeux par abonnement et de l’application de l’intelligence artificielle (IA) dans le processus créatif.

Interrogé sur le rôle de l’IA dans l’avenir des jeux et dans le processus de développement, Yoshida a fait preuve d’une grande honnêteté en déclarant : « La convergence de l’informatique et du divertissement est une tendance de fond, et l’IA est également issue de l’informatique ».

On craint depuis longtemps que les créateurs ne soient évincés du secteur du divertissement par les contenus générés de manière procédurale. L’impact imminent de l’IA n’a pas encore totalement dominé l’industrie du jeu, mais il est déjà devenu un sujet de discussion majeur dans 2024.

« Le contenu qui constitue la base du divertissement est généré par le créateur et protégé par des droits d’auteur ». Yoshida n’a pas mâché ses mots en ce qui concerne la position de Sony sur l’IA et les créateurs. « L’implication des créateurs est essentielle, c’est pourquoi Sony positionne l’IA comme une technologie qui soutient les créateurs. L’IA ne doit pas les remplacer ».

« Les jeux sont des logiciels informatiques, ils sont fabriqués par un langage de programmation, les LMM (Large Language Models), ils aideront à rationaliser le développement des jeux, permettant aux créateurs de se concentrer davantage sur la créativité ».

Créativité et Kanjō

« Le divertissement est devenu notre objectif », a déclaré Yoshida. « La décision la plus importante pour nous a donc été de déplacer notre attention vers la créativité, autrement dit, notre poursuite de Kanjō ». Kanjō est le mot japonais qui désigne l’émotion et constitue la pièce maîtresse de l’objectif créatif, selon le dirigeant d’entreprise japonais.

Interrogé sur les différents secteurs d’activité de Sony et sur l’avenir des jeux, Yoshida a déclaré : « Les joueurs pourront trouver un endroit où jouer dans différents espaces, tandis que la PlayStation restera notre produit principal, nous étendrons nos expériences de jeu aux PC, aux mobiles et au cloud ».

Sony propose actuellement trois niveaux d’abonnements mensuels à la PlayStation, avec différents niveaux d’accès aux titres. L’abonnement de Sony a longtemps été éclipsé par le Xbox Game Pass. « Nous (Sony) proposons actuellement des modèles commerciaux d’abonnement, mais en même temps, les gens ne jouent généralement qu’à un seul jeu à la fois », a déclaré Yoshida. « C’est pourquoi nous avons équilibré notre service d’abonnement hybride sur le Playstation Network avec des abonnements et des contenus payants ».

Êtes-vous un joueur ?

Tangen a demandé au dirigeant de Sony « êtes-vous un joueur ? », ce à quoi Yoshida a répondu : « En réalité, je n’ai pas beaucoup de temps pour jouer, mais j’ai personnellement hâte de jouer à Marvel’s Spider-Man 2 ». Spider-Man 2 a été développé par Insomniac Games, un studio appartenant à Sony, et est devenu, en octobre 2023, le titre développé par un studio qui a rapporté le plus d’argent au géant japonais du jeu vidéo.

Lorsqu’on lui a demandé ce qu’il pensait de la manière dont le rapprochement entre Microsoft et Activision allait modifier le paysage commercial, Yoshida a déclaré : « Une concurrence saine est nécessaire pour que l’industrie du jeu se développe et, chez Sony, nous pensons qu’il est important d’offrir aux joueurs différentes options de jeu ».

Il a intelligemment esquivé la question avant de conclure l’entretien par quelques anecdotes humbles et profondément personnelles, qui font de lui une rareté dans le monde des dirigeants. Tangen admet que « vous êtes l’un des PDG les plus curieux ».

Lire plus
Intelligence Artificielle

TikTok expérimente une fonction de musique générée par l’IA, suscitant des réactions mitigées

5da9c625 47a7 4d79 9786 46489aab933c

La plateforme qui est devenue un tremplin pour la musique virale, TikTok, teste maintenant les eaux de l’intelligence artificielle avec sa fonction « AI Song ».

Selon Business Insider, cet outil permet aux utilisateurs de générer des pistes d’accompagnement personnalisées pour leurs vidéos, ce qui pourrait donner naissance à une nouvelle tendance en matière de création musicale numérique.

Cette fonction, encore en phase de test, permet aux utilisateurs de saisir des prompts pour créer des paroles et de choisir parmi des genres tels que la pop et le hip-hop. Cette incursion dans la musique générée par l’IA n’est pas encore accessible à l’ensemble de la communauté TikTok, mais elle a déjà attiré l’attention par son approche unique.

Alimentée par un modèle de langage sophistiqué appelé Bloom, « AI Song » a donné des résultats variés. Certains utilisateurs ont partagé des vidéos avec des voix discordantes et des paroles inhabituelles, allant de morceaux EDM sur l’édition de TikTok sur des iPhone à des ballades pop sur la fabrication de béton.

L’imprévisibilité et la diversité de la musique générée par l’IA ressortent clairement de ces premiers exemples.

Une IA utile ?

Un représentant de TikTok a confirmé à Business Insider que la plateforme testait la fonctionnalité, qui pourrait changer de nom. « AI Song » fusionne des paroles générées par l’IA avec de la musique provenant d’un catalogue existant, offrant ainsi un mélange d’innovation technologique et d’expression créative.

Toutefois, l’exploration de TikTok dans le domaine de la musique générée par l’IA n’a pas été sans poser de problèmes. La plateforme a déjà rencontré des problèmes avec « Heart on my sleeve », un morceau d’IA imitant les artistes populaires Drake et The Weeknd, ce qui a conduit à son retrait de Spotify et de YouTube pour des raisons de droits d’auteur. En outre, le célèbre artiste Bad Bunny a ouvertement critiqué une chanson générée par l’IA et utilisant sa voix, exprimant ainsi sa désapprobation à l’égard de ses auditeurs.

Lire plus
Intelligence Artificielle

NVIDIA et TSMC discutent de solutions pour pénurie de puces impactant le développement de l’IA

841232c4 143a 4dce bd7e 35ee5fa7bbae 1

Les PDG de deux des entreprises de puces les plus influentes au monde, NVIDIA et TSMC, se sont rencontrés pour discuter des contraintes d’approvisionnement, qui constituent un obstacle à l’essor de l’intelligence artificielle.

Jensen Huang, président-directeur général de Nvidia Corp. Jensen Huang, directeur général de Nvidia Corp., et C. C. Wei, de Taiwan Semiconductor Manufacturing Co. (TSMC), se sont rencontrés à Taipei cette semaine pour discuter des contraintes d’approvisionnement en puces d’intelligence artificielle, en tant que dirigeants de deux des plus grandes entreprises associées à ces puces.

TSMC produit les puces NVIDIA qui alimentent actuellement la plupart des systèmes d’apprentissage de l’IA générative dans le monde, rapporte Bloomberg.

Le dernier voyage de Huang à Taipei fait suite à sa première visite en Chine continentale depuis 4 ans, alors que les États-Unis ont bloqué l’exportation vers la Chine de la gamme de puces haut de gamme de l’entreprise américaine NVIDIA. Jeudi 25 janvier, Huang a parlé ouvertement à la presse de Taïwan (son pays natal) et de l’importance de TSMC dans les activités de NVIDIA et dans la production et la vente de puces à plus grande échelle.

« Le plus grand défi de l’IA est bien sûr d’augmenter la capacité de l’IA », a déclaré Huang avant de se rendre aux célébrations locales annuelles du Nouvel An lunaire de son entreprise. « Nous travaillons d’arrache-pied, TSMC et tous nos partenaires de la chaîne d’approvisionnement travaillent d’arrache-pied pour répondre à la demande ».

Les entreprises chinoises locales pourraient développer leurs propres solutions

Huang a déjà laissé entendre qu’une escalade des sanctions américaines contre la Chine pourrait inciter les entreprises chinoises locales à développer leurs propres solutions, offrant ainsi une concurrence accrue qui pourrait nuire aux entreprises américaines à terme. Le PDG a notamment fait directement référence à Huawei, qui a intégré un processeur fabriqué en Chine dans un smartphone en 2023. L’inquiétude semble être que si les puces chinoises peuvent être trouvées dans les smartphones, pourraient-elles également être utilisées pour alimenter l’IA générative ?

Pour NVIDIA, cela pourrait être une mauvaise nouvelle, car l’entreprise a triplé sa valeur boursière l’année dernière, en grande partie grâce à sa participation importante au développement de l’IA par le biais de ses puces. De même, l’IA est à l’origine d’une grande partie du succès récent de TSMC, qui a annoncé la semaine dernière une augmentation prévue de ses dépenses en capital.

Lire plus
Intelligence Artificielle

L’ascension de l’IA en santé : évaluation des avantages et coûts

374240aa 24e3 437b 8fb9 aaa25a6a3de9

Dans une ère marquée par les innovations technologiques, l’intelligence artificielle (IA) se distingue comme une technologie qui change la donne, en particulier dans le domaine de la santé. L’IA sur le marché de la santé connaît une croissance exponentielle. Selon Statista, l’IA sur le marché des soins de santé était évaluée à 11 milliards de dollars en 2021 et devrait atteindre 187 milliards de dollars d’ici 2030.

Cette croissance massive de l’adoption de l’IA indique que la technologie transforme remarquablement la façon dont les hôpitaux, les fournisseurs de soins médicaux, les sociétés pharmaceutiques, les sociétés de développement de logiciels de soins de santé et d’autres acteurs de l’industrie effectuent leurs opérations quotidiennes.

Le potentiel de l’IA dans le secteur de la santé est énorme, allant d’une efficacité accrue, d’une meilleure prise de décision, d’un gain de temps, d’une réduction des coûts, d’une rationalisation des dossiers médicaux et d’opérations automatisées à une pression minimale sur le personnel de santé surchargé. En outre, l’importance de l’IA se traduit par l’amélioration des soins aux patients, l’accélération des processus de développement des médicaments, les assistants-infirmiers virtuels, l’efficacité des diagnostics, etc. Il est indéniable que l’IA dans les soins de santé est en train de redéfinir l’ensemble du secteur.

Cet article est un guide complet sur les coûts et les avantages de l’utilisation de l’IA dans les soins de santé. Entrons dans le vif du sujet.

Avantages de l’IA dans les soins de santé

L’IA remodèle rapidement le paysage des soins de santé, offrant de nombreux avantages qui s’étendent à l’ensemble du secteur et redéfinissant tous les aspects du monde médical. Examinons les différents avantages que l’IA apporte à l’industrie des soins de santé.

Détection précoce des maladies

L’IA excelle dans l’analyse de vastes ensembles de données, ce qui permet une détection précoce des potentiels problèmes de santé. Par exemple, les algorithmes d’apprentissage automatique peuvent détecter des modèles subtils et des anomalies dans les images médicales, ce qui permet un diagnostic précoce de maladies mortelles telles que les maladies cardiovasculaires, le cancer et les troubles neurologiques.

Médecine de précision

L’IA facilite l’élaboration de plans de traitement personnalisés en analysant les données individuelles des patients, y compris les informations génétiques, les antécédents médicaux, etc. Cette approche sur mesure garantit que les traitements sont spécifiquement conçus pour répondre à la demande unique de chaque patient, en maximisant l’efficacité et en minimisant les effets secondaires.

Suivi à distance des patients

L’IA analyse les données des patients pour identifier les options de traitement les plus efficaces en fonction des caractéristiques individuelles. Les dispositifs alimentés par l’IA permettent un suivi continu des patients en dehors des établissements de santé traditionnels. Cela est particulièrement utile pour identifier les problèmes médicaux à un stade précoce et gérer efficacement les maladies chroniques.

ead86431 4ea6 491a 918a 152e2f0d6d81

Les capteurs et gadgets alimentés par l’IA fournissent aux prestataires de soins de santé des données en temps réel sur les patients, ce qui permet d’intervenir à temps et d’ajuster les plans de traitement.

Rationalisation des tâches administratives

L’un des principaux avantages de l’IA dans le secteur de la santé est l’automatisation des processus administratifs répétitifs et banals, tels que la saisie des données, la facturation et la tenue des dossiers.

En outre, les systèmes pilotés par l’IA peuvent automatiser la prise de rendez-vous, en tenant compte de divers facteurs tels que la disponibilité du médecin, les préférences du patient et l’urgence de l’état de santé. Il en résulte une amélioration de la satisfaction des patients et une utilisation efficace des ressources de santé. Cela permet également de réduire la charge de travail du personnel soignant et de minimiser le risque d’erreurs humaines.

Réduction des coûts

En automatisant les tâches administratives, l’IA aide les établissements de santé à réduire les coûts de main-d’œuvre associés à la paperasserie manuelle, à la saisie de données et à d’autres activités de routine.

En outre, l’IA contribue aux soins de santé préventifs en analysant les données des patients afin d’identifier les potentiels risques pour la santé, et cette approche proactive permet une intervention précoce. Ainsi, l’IA réduit la nécessité de traitements coûteux associés à des maladies à un stade avancé.

Accélération de la découverte et du développement de médicaments

L’IA accélère le processus de découverte de médicaments en analysant rapidement de vastes ensembles de données, en identifiant de potentiels médicaments candidats et en prédisant leur efficacité. Cela accélère la découverte de nouveaux plans de traitement, ouvrant la voie au développement de thérapies ciblées.

Cette approche personnalisée change la donne pour les patients atteints de maladies chroniques traditionnellement difficiles à traiter.

Infirmières auxiliaires virtuelles

Les assistants-infirmiers virtuels, tels que les chatbots, applications ou autres interfaces pilotés par l’IA, assurent une surveillance continue des patients, offrant des mises à jour en temps réel sur les signes vitaux et les potentielles urgences. Ils constituent une aide précieuse pour répondre aux demandes liées aux médicaments, envoyer des rapports aux professionnels de la santé et garantir une réponse rapide aux changements de l’état d’un patient.

Outre la surveillance, les infirmières auxiliaires virtuelles fournissent aux patients des informations personnalisées sur leur santé, ce qui leur permet de mieux comprendre leur état de santé, leur plan de traitement et les modifications à apporter à leur mode de vie. Cela contribue à améliorer l’engagement du patient et l’adhésion aux recommandations de soins de santé.

Coût de la mise en œuvre de l’IA dans les soins de santé

Si l’IA dans le secteur de la santé offre de multiples avantages, sa mise en œuvre réussie implique des investissements importants. Cela englobe différents facteurs, notamment la configuration initiale, la complexité du projet, le développement d’applications/de logiciels, les mesures de sécurité, la localisation de l’entreprise de développement de l’intelligence artificielle, la maintenance continue, etc.

Si le développement de solutions d’intelligence artificielle pour les soins de santé est un investissement ponctuel, la garantie d’une performance ininterrompue est une dépense permanente. Les dépenses permanentes comprennent les mises à jour régulières, les mesures de cybersécurité, la conformité aux réglementations en matière de santé et la formation continue du personnel pour suivre l’évolution des technologies d’IA.

En moyenne, le coût de la mise en œuvre de l’IA dans le secteur de la santé varie entre 30 000 et 200 000 euros, voire plus, en fonction des exigences propres à votre projet.

Réflexions finales

Les avantages de la mise en œuvre de l’IA dans le secteur de la santé sont considérables, car ils permettent d’améliorer la précision des diagnostics, l’efficacité opérationnelle, les soins aux patients et bien d’autres choses encore.

À mesure que la technologie continue de progresser, l’IA redéfinira l’avenir de l’industrie, en la rendant plus personnalisée, plus efficace et plus accessible pour tous.

Lire plus
Intelligence Artificielle

Sam Altman à la recherche d’une alternative aux GPU Nvidia pour OpenAI

1b76cbc4 c9fb 4d2e be2b 7b5157443f09

La rumeur selon laquelle Sam Altman, PDG d’OpenAI, aurait l’ambition de construire un processeur d’IA qui créerait des puces d’IA en interne a été l’une des histoires les plus surprenantes de la semaine dernière. Mardi, le Financial Times a révélé quelques détails supplémentaires concernant ce projet : bien que Sam Altman cherche réellement à créer son propre substitut aux GPU IA et HPC de Nvidia, il discute de la fabrication de puces avec TSMC.

Le PDG d’OpenAI, Altman, serait en pourparlers avec TSMC et des investisseurs du Moyen-Orient pour lancer une nouvelle société de fabrication de puces afin de réduire la dépendance d’OpenAI à l’égard de NVIDIA (ou plutôt des centres de données Azure qui utilisent le H100 de NVIDIA, que Microsoft achète en gros) et de répondre aux besoins croissants de l’entreprise en matière de puissance de traitement.

Cet ambitieux effort, qui vise à modifier l’approche de OpenAI en matière de création de modèles d’IA et d’utilisation du matériel, intègre des personnalités telles que le cheikh Tahnoon bin Zayed al-Nahyan des Émirats arabes unis. Avec cette initiative, OpenAI s’efforcera de rejoindre les rangs d’entreprises telles que Google et Amazon Web Services, qui créent des puces personnalisées pour les applications d’IA. L’objectif étant d’affronter le titan NVIDIA, les enjeux financiers de cette entreprise sont considérables. Altman a besoin de fonds, car la création de processeurs aussi sophistiqués à partir de la base devrait coûter des centaines de millions, voire des milliards.

Le principal sujet abordé par Altman est l’obtention de fonds auprès de certains des investisseurs les plus riches du Moyen-Orient.

Le cheikh Tahnoon bin Zayed al-Nahyan (conseiller à la sécurité nationale) et l’une des personnalités les plus influentes d’Abu Dhabi sont des acteurs essentiels de ces négociations. Il est en charge d’actifs importants puisqu’il est le président du frère des Émirats arabes unis et un acteur important de la scène commerciale et de l’investissement du pays. Outre la présidence de l’International Holding Company et de l’ambitieuse startup d’IA G42, qui a déjà noué des collaborations avec Microsoft et OpenAI, il s’agit de l’Abu Dhabi Investment Authority et de l’ADQ.

Une grosse négociation : obtenir des fonds et négocier les processeurs

En outre, Altman et TSMC négocient les processeurs. Pour l’entreprise de puces de Altman, cette éventuelle relation avec le fondeur taïwanais est essentielle, car TSMC est l’un des rares fabricants contractuels de semi-conducteurs à disposer de technologies de traitement de pointe. Toutefois, Altman doit marchander pour obtenir une capacité appropriée, car la capacité de production de puces de pointe de TSMC est limitée.

Nous ne connaissons pas la structure organisationnelle de la nouvelle entreprise d’Altman et ne savons pas si elle fonctionnera comme une société distincte ou comme une filiale d’OpenAI. Néanmoins, il semble évident qu’OpenAI sera de toute façon le principal client de l’entreprise, ce qui laisse présager une relation de travail étroite.

Lire plus
Intelligence Artificielle

OpenAI lance de nouveaux modèles embedding et réduit les prix de GPT-3.5 Turbo

slack imgs 4 jpg

La société de recherche en intelligence artificielle, OpenAI, a annoncé jeudi une nouvelle génération de modèles embedding, qui peuvent convertir le texte en une forme numérique pouvant être utilisée pour diverses tâches d’apprentissage automatique.

L’entreprise a également présenté de nouvelles versions de ses modèles GPT-4 Turbo et de modération, de nouveaux outils de gestion de l’utilisation des API, ainsi qu’une baisse du prix de son modèle GPT-3.5 Turbo.

Les embeddings sont des séquences de nombres qui représentent les concepts au sein d’un contenu tel que le langage naturel ou le code. Les embeddings permettent aux modèles d’apprentissage automatique et à d’autres algorithmes de comprendre les relations entre les contenus et d’effectuer des tâches telles que le regroupement ou la recherche. Ils alimentent des applications telles que la recherche de connaissances dans ChatGPT et l’API Assistants, ainsi que de nombreux outils de développement RAG (retrieval augmented generation).

OpenAI a déclaré que ses nouveaux modèles d’intégration, text-embedding-3-small et text-embedding-3-large, offrent de meilleures performances et un prix réduit par rapport au modèle de la précédente génération, text-embedding-ada-002. Les nouveaux modèles peuvent créer des embeddings avec jusqu’à 3072 dimensions, ce qui permet de capturer plus d’informations sémantiques et d’améliorer la précision des tâches en aval.

Selon l’entreprise, les nouveaux modèles ont permis d’augmenter le score moyen d’un benchmark couramment utilisé pour la recherche multilingue (MIRACL) de 31,4 % à 54,9 %, tandis que le score moyen d’un benchmark couramment utilisé pour les tâches en anglais (MTEB) est passé de 61,0 % à 64,6 %. Le prix de text-embedding-3-small a également été divisé par 5 par rapport à text-embedding-ada-002, ce qui rend son utilisation plus abordable pour les développeurs.

Amélioration de GPT-4 Turbo et GPT-3.5 Turbo

L’entreprise a également mis à jour ses modèles GPT-4 Turbo et GPT-3.5 Turbo, qui sont de grands modèles multimodaux capables de comprendre et de générer du langage naturel ou du code. Les nouvelles versions des modèles sont dotées d’un meilleur suivi des instructions, d’un mode JSON, de sorties plus reproductibles et d’appels de fonctions parallèles. L’entreprise a également lancé une nouvelle version de contexte 16k de GPT-3.5 Turbo, qui peut traiter des entrées et des sorties plus longues que la version standard 4k.

En outre, l’entreprise a mis à jour son modèle de modération de texte, qui permet de détecter si un texte peut être sensible ou dangereux. La nouvelle version du modèle peut traiter davantage de langues et de domaines, et peut également fournir des explications sur ses prédictions.

L’entreprise a également proposé aux développeurs de nouveaux moyens de gérer les clés API et de comprendre l’utilisation des API. Les développeurs peuvent désormais créer plusieurs clés d’API avec des autorisations et des portées différentes, et surveiller leur utilisation et les détails de leur facturation sur le tableau de bord OpenAI. L’entreprise a également indiqué qu’elle allait bientôt réduire de 25 % le prix de son modèle GPT-3.5 Turbo, ce qui le rendra plus accessible aux développeurs pour la création d’applications.

OpenAI a déclaré que ces mises à jour s’inscrivent dans le cadre de ses efforts continus pour améliorer ses modèles et ses services, et pour les rendre plus utiles et plus abordables pour les développeurs et les clients. L’entreprise a également invité les développeurs à contribuer aux évaluations afin de l’aider à améliorer le modèle pour différents cas d’utilisation. L’entreprise a déclaré qu’elle continuerait à publier de nouveaux modèles, de nouvelles fonctionnalités et de nouveaux outils à l’avenir.

Lire plus
Intelligence Artificielle

Apple prépare Siri pour l’ère de l’IA générative et des LLM

1RE llPAvataF6MWNcCP JQ

Après le gala de l’IA qu’ont été les smartphones de la série Galaxy S24 de Samsung, Apple pourrait être le prochain à exploiter la magie de l’apprentissage profond et des Large Language Model (LLM) qui alimentent des outils tels que ChatGPT et Google Bard.

Selon un rapport d’analyse de l’industrie publié par le Financial Times, Apple s’est lancé dans une série d’acquisitions, de réorganisations d’équipes et d’embauches afin de développer des capacités d’IA pour les iPhone. Au centre de ces acquisitions dans le domaine de l’IA pourrait se trouver Siri, l’assistant virtuel embarqué qui a récemment perdu beaucoup de terrain face à l’assistant Google, nettement plus intelligent. Et, il semble qu’Apple suivra les traces de Google en renforçant son assistant numérique.

Le rapport du Financial Times mentionne que Siri sera bientôt alimenté par un LLM, développé en interne par Apple au lieu d’un produit sous licence comme le Llama de Meta, le GPT d’OpenAI ou le PaLM de Google. Notamment, et discrètement, Apple a déjà publié un grand modèle de langage appelé Ferret au début de cette année, en partenariat avec des experts de l’université de Columbia.

Un autre objectif d’Apple semble être d’exécuter des tâches basées sur le LLM avec une approche on-device, analogue au Pixel 8 Pro et au Galaxy S24 utilisant le modèle Gemini Nano de Google. L’avantage ici est que les opérations d’IA n’ont plus besoin d’une connexion Internet pour se relier au cloud, ce qui accélère considérablement les opérations et garantit également une confidentialité accrue, car les données de l’utilisateur ne quittent jamais l’appareil.

L’année dernière, un rapport de Bloomberg indiquait qu’Apple travaillait sur un produit appelé « Apple GPT », basé sur le propre modèle de langage de l’entreprise, mais que ce projet se limitait à des tests internes. Les efforts d’Apple en matière d’IA pourraient finalement porter leurs fruits en 2024. Un autre rapport du même média indique également qu’un avatar de Siri alimenté par l’IA pourrait arriver cette année, probablement avec l’arrivée d’iOS 18.

Une intégration poussée de l’IA

En plus de rendre Siri plus intelligent et plus réactif, Apple vise également à intégrer l’IA générative dans davantage d’applications telles que Messages. Samsung et Google nous ont déjà donné un aperçu de la manière dont elle peut être mise en œuvre, grâce à des fonctionnalités astucieuses telles que Magic Compose, les suggestions de style, la traduction hors ligne instantanée pour les discussions, et bien d’autres encore.

Jusqu’à présent, Apple n’a pas révélé quand et comment elle entendait mettre en œuvre l’IA dans ses produits, en particulier sur l’iPhone. Mais si l’on se fie à la concurrence, il ne serait pas surprenant qu’Apple nous en donne un aperçu lors de sa prochaine conférence des développeurs WWDC, qui aura lieu plus tard dans l’année.

Lire plus
Intelligence Artificielle

Gmail pousse l’IA plus loin : dictez, l’IA compose votre e-mail

Blog post 2436 x 1200.max 2500x2 1

L’année dernière, Google a annoncé une nouvelle fonction « Aidez-moi à écrire » pour son application Gmail, en faisant appel à la magie de l’IA pour vous aider à rédiger facilement vos e-mails. Et devinez quoi ? Il semble que le géant de la technologie n’ait pas fini de pimenter les choses.

Selon TheSpAndroid, une prochaine option de la fonction « Aidez-moi à écrire » vous permettra d’utiliser votre voix pour rédiger un e-mail ou de dire à l’IA ce qu’elle doit écrire. Il vous suffira de prononcer l’invite et l’IA de Gmail rédigera l’e-mail à votre place.

Vous vous dites peut-être : « Je peux déjà rédiger un message avec ma voix », mais cette nouvelle fonctionnalité est différente. Au lieu que ce soit vous qui dictiez le texte, c’est l’IA qui se charge de rédiger l’e-mail à votre place.

Lorsque vous commencez à taper un nouvel e-mail ou à répondre à un e-mail, la configuration de la saisie vocale s’affiche avec un gros bouton micro. Cliquez dessus, commencez à parler et votre message s’affiche au-dessus du bouton d’enregistrement. Cliquez sur « Créer » lorsque vous avez terminé, et Gmail écrit un e-mail en utilisant son intelligence artificielle.

On ne sait pas encore quand cette nouvelle option sera ajoutée à l’application Gmail. Il est probable qu’elle soit d’abord proposée aux utilisateurs de Workspace Labs avant d’être généralisée. Actuellement, la fonction « Aidez-moi à écrire » est disponible dans Workspace Labs.

Si vous souhaitez essayer la fonctionnalité « Aidez-moi à écrire », vous pouvez vous inscrire au programme Workspace Labs, disponible uniquement en anglais américain. Cependant, il n’est pas garanti que vous soyez sélectionné pour participer à ce programme.

Lire plus
Intelligence Artificielle

Meta investit dans l’avenir avec Llama 3 : IA avancée et métaverse

4e2f5430 62f7 4205 9ebb af4e8777a225

Le géant technologique anciennement connu sous le nom de Facebook, Meta, fait un bond important dans le domaine de l’intelligence artificielle (IA) avec son nouveau projet, Llama 3. Ce modèle d’IA avancé n’est pas une simple amélioration progressive ; il représente une étape majeure vers la création de machines capables de penser et d’interagir comme des humains. Mark Zuckerberg, PDG de Meta, a dévoilé un plan à la fois audacieux et complet, qui prévoit une expansion spectaculaire des capacités de calcul de l’entreprise.

Le cœur de la nouvelle initiative de Meta est la recherche de l’intelligence artificielle générale (AGI), un type d’IA capable de comprendre, d’apprendre et d’appliquer des connaissances d’une manière indiscernable de l’intelligence humaine. Le Llama 3 est conçu pour être une puissance dans ce domaine, en mettant l’accent sur la maîtrise de l’intelligence générale, le traitement efficace du langage naturel et l’engagement dans des conversations de type humain.

Pour faire fonctionner Llama 3, Meta se prépare à déployer une formidable flotte de processeurs graphiques (GPU) Nvidia H100 – 350 000 d’entre eux d’ici la fin de l’année. Cette initiative permettra d’augmenter considérablement la puissance de traitement de l’entreprise, qui est essentielle pour l’exécution des algorithmes complexes que requièrent les modèles d’IA avancés comme Llama 3. Si l’on tient compte des autres types de GPU que Meta prévoit d’utiliser, la puissance de calcul totale équivaudra à 600 000 GPU H100.

Les enjeux financiers sont importants, Meta ayant investi plus de 10 milliards de dollars dans ce projet. Cette somme considérable reflète la conviction de l’entreprise quant au potentiel de transformation de la technologie de l’IA. Pour souligner son engagement en faveur de l’innovation et de la collaboration, Meta a l’intention de faire de Llama 3 un projet open source. Cela signifie que les développeurs et les chercheurs du monde entier pourront contribuer à son développement et exploiter ses capacités pour leurs propres projets.

Mais les implications de Llama 3 vont bien au-delà de la puissance de calcul brute. Meta a pour objectif d’intégrer l’IA dans le métaverse, un espace virtuel où les gens peuvent interagir par l’intermédiaire d’avatars numériques. L’entreprise estime que d’ici les années 2030, les lunettes connectées seront un moyen courant d’accéder à l’IA dans le métaverse, offrant un moyen plus transparent et plus intuitif d’interagir avec le contenu numérique.

Prêt pour le métaverse

L’engagement de Meta dans le projet Llama 3 et l’expansion de son infrastructure indiquent clairement que l’entreprise fait des progrès significatifs vers la réalisation de l’AGI. Cette initiative ne consiste pas seulement à injecter de l’argent dans la technologie, mais aussi à favoriser un environnement de collaboration open source et à envisager un avenir où l’IA et le métaverse sont intimement liés. L’intégration des GPU NVIDIA H100 fournira la puissance de calcul nécessaire, tandis que les avancées dans le traitement du langage naturel et l’IA conversationnelle sont sur le point de transformer la façon dont nous interagissons avec les plateformes numériques.

Alors que Meta avance avec Llama 3, il est important de garder un œil sur l’évolution de cette technologie. Les efforts de l’entreprise sont destinés à renforcer l’intégration de l’IA dans nos vies numériques, en changeant la façon dont nous nous connectons au monde qui nous entoure. Il ne s’agit pas seulement de créer des machines plus intelligentes, mais aussi de remodeler nos expériences numériques et d’ouvrir de nouvelles possibilités d’interaction entre l’homme et l’ordinateur. Avec Llama 3, Meta ne se contente pas de suivre une nouvelle tendance technologique ; elle tente de jeter un pont vers un avenir où l’IA sera aussi courante et facile à utiliser que n’importe quel autre outil que nous utilisons aujourd’hui.

Lire plus
Intelligence Artificielle

Rabbit r1 fusionne avec Perplexity AI pour une expérience mobile inégalée

introducing r1 12 58 screenshot

La startup et star du CES 2024, Rabbit, a révélé que son appareil mobile r1 utilisera le LLM (Large Language Model) de Perplexity AI pour alimenter son moteur de recherche interne.

L’annonce a été faite sur X (la plateforme anciennement connue sous le nom de Twitter) et fait partie d’un nouveau partenariat de marque. Perplexity, en tant que service, fonctionne de la même manière que ChatGPT : vous lui posez une question, l’IA y répond et vous pouvez converser ensemble. Les détails exacts sur le fonctionnement de l’intégration sont rares. Nous ne savons pas s’il s’agira d’une application autonome ou d’une fonction intégrée. On peut supposer que les utilisateurs devront appuyer sur le bouton situé sur le côté chaque fois qu’ils voudront poser une question à Perplexity ou lui donner une commande.

L’intégration de Perplexity dans le Rabbit r1 présente plusieurs avantages. Le principal d’entre eux est qu’il n’y a pas de seuil de connaissances. L’un des problèmes de ChatGPT est qu’il n’est pas à jour en ce qui concerne les événements actuels. Il ne contient des informations que jusqu’à une certaine date qui, officiellement, est avril 2023. Toutefois, cette date n’est pas tout à fait exacte, car des rapports en ligne affirment qu’il s’agit de septembre 2023.

Perplexity n’a pas ce problème car il reçoit des mises à jour fréquentes et le Rabbit r1 n’aura pas ce problème non plus. Aravind Srinivas, PDG de Perplexity, a confirmé sur X que l’appareil fournira des “réponses actualisées en direct” grâce à l’intégration.

L’autre grand avantage de Perplexity est qu’il offre un accès à des LLM tiers tels que GPT-4 et Claude 2.1. Selon l’entreprise, la raison pour laquelle elle offre cet accès est que certaines IA sont meilleures dans certains domaines. GPT-4, par exemple, est précis, mais ses réponses peuvent sembler robotiques. Le modèle Claude offre des “réponses plus naturelles”. Les abonnés peuvent passer d’une IA à l’autre s’ils ont un cas d’utilisation spécifique.

Les précommandes sont encore possibles

Pour essayer les autres IA, vous devez vous abonner à Perplexity Pro. Mais si vous faites partie des 100 000 premiers acheteurs du r1, Rabbit vous offrira une année gratuite de Perplexity Pro, un service qui coûte normalement 200 dollars par an. L’abonnement introduit également des fonctionnalités supplémentaires telles que la possibilité de télécharger des fichiers vers l’IA.

Le Rabbit r1 est devenu l’enfant prodige du CES 2024. Le gadget a fait l’objet d’une grande médiatisation et les gens se sont empressés de le précommander. Chaque r1 vous coûtera 200 dollars.

Lire plus
Intelligence Artificielle

ByteDance lance MagicVideo-V2, un outil d’IA révolutionnaire pour la création de vidéos

fab10f08 f8fc 452e b1d4 4bf0edc71044

L’entreprise à l’origine de TikTok, ByteDance, a lancé un nouvel outil d’intelligence artificielle appelé MagicVideo-V2 qui repousse les limites de la génération de vidéos à partir de texte.

MagicVideo-V2 s’appuie sur une intelligence artificielle de pointe pour produire un contenu vidéo de haute qualité à partir de textes. Lors d’évaluations humaines comparant les vidéos créées par MagicVideo-V2 et d’autres générateurs de texte-vidéo tels que Pika 1.0 et Stable Diffusion-XT, le nouvel outil de ByteDance s’est avéré nettement plus performant que ses concurrents.

Selon la page GitHub du projet, il combine un « modèle texte-image, un générateur de mouvement vidéo, un module d’intégration d’images de référence et un module d’interpolation d’images dans un pipeline de génération vidéo de bout en bout ».

Le modèle MagicVideo-V2 commence par créer une image 1 024 × 1 024 pixels, qui représente le texte saisi. Cette image fixe est ensuite animée, améliorée et affinée. Enfin, le module d’interpolation allonge l’animation à 94 images. Cela permet d’obtenir un résultat richement animé.

Voilà pour la science, mais en pratique, comment MagicVideo-V2 pourrait-il être utilisé ?

En théorie, il pourrait rationaliser la création de vidéos pour les influenceurs des réseaux sociaux et les spécialistes du marketing, aider à augmenter considérablement la production de vidéos pour les médias ou créer des clips animés pour l’éducation et le divertissement.

Des progrès considérables ont été réalisés dans le domaine de l’IA génératrice de vidéos

Screen 2024 01 13 15.20.46 jpg

Le rythme auquel l’IA générative s’améliore est élevé et ne montre aucun signe de ralentissement. Stability AI, la société à l’origine de Stable Diffusion, a récemment commencé à expérimenter la génération de modèles 3D et a également lancé un modèle de tarification par abonnement. Runway, une startup new-yorkaise spécialisée dans la vidéo assistée par ordinateur, a publié en septembre de l’année dernière une importante mise à jour de son outil phare de réalisation de films assistée par ordinateur.

ByteDance, qui domine le marché du divertissement vidéo de courte durée grâce à TikTok et Douyin (une plateforme chinoise de partage de vidéos), est en mesure de maximiser la valeur de MagicVideo-V2.

Au milieu de l’année dernière, elle a également lancé un générateur de musique basé sur l’IA, appelé Ripple. La possibilité pour les utilisateurs de créer des vidéos incroyablement complexes et d’ajouter des sons générés à l’aide de ces outils place TikTok devant ses concurrents dans le domaine des réseaux sociaux axés sur la vidéo, et il sera difficile pour les autres de suivre si leurs innovations se poursuivent.

Lire plus
Intelligence Artificielle

1X Technologies, soutenu par OpenAI, lève 100 millions de dollars pour son robot humanoïde NEO

6516fa879c8f7d13f799f987 1x NEO 01 1440x900 2x

Les robots de science-fiction du futur se rapprochent un peu plus de la réalité avec l’annonce d’un financement record pour 1X Technologies. La société basée à Oslo a clôturé un cycle de série B avec un investissement notable de 100 millions de dollars.

La société norvégienne, soutenue par OpenAI et Tiger Global, a levé 23,5 millions de dollars en avril 2023. Ce premier tour de financement de série A2 a ouvert la voie à l’étape d’investissement récemment annoncée.

Avec la clôture des cycles de financement de série A2 et de série B, le soutien global de la société d’IA et de robotique atteint l’impressionnante somme de 125 millions de dollars en moins de 12 mois.

La société suédoise EQT Ventures a mené le tour de table aux côtés d’investisseurs internationaux tels que Samsung NEXT, Skagerak Capital et Nistad Group.

Ted Persson, partenaire d’EQT Ventures, a déclaré : « De Léonard de Vinci à la science-fiction d’aujourd’hui, les hommes rêvent de robots humanoïdes depuis plus de 500 ans. C’est un privilège de voir les technologies habilitantes se former sous nos yeux en temps réel ».

NEO

651962d9f46c051ae2438a34 1x NEO 03 B 1240x700 2x jpg

Le robot humanoïde bipède de seconde génération connu sous le nom de NEO est le principal objet de ce nouveau financement. 1X espère donner vie aux robots humanoïdes bipèdes que l’on ne voit que dans des décors fantastiques lointains pour effectuer des tâches ménagères et espère offrir un « robot humanoïde bipède sûr pour travailler parmi les gens ».

« Nous sommes ravis que ces investisseurs de premier plan soutiennent la mission de 1X, qui consiste à déployer en toute sécurité des robots humanoïdes bipèdes au comportement intelligent sur de nouveaux marchés. Notre prochaine étape consistera à étendre notre stratégie de collecte de données pour l’IA incarnée et à proposer NEO aux consommateurs », déclare Bernt Øivind Børnich, PDG de 1 X.

Robotique et droits des travailleurs

Les robots opérant sur le lieu de travail préoccupent les militants syndicaux depuis un certain temps, ce qui a incité l’actuelle administration de la Maison-Blanche à s’immiscer dans la conversation sur l’IA et les droits des travailleurs américains.

651962c64e1cbb1f614be823 1x NEO 03 C 1240x700 2x jpg

La secrétaire américaine au commerce, Gina Raimondo, a déclaré : « Le président Biden a été clair : l’IA est la technologie déterminante de notre génération, et nous avons l’obligation d’exploiter le pouvoir de l’IA pour le bien tout en protégeant les gens contre ses risques. »

Persson poursuit en déclarant : « L’impact de l’intégration des robots humanoïdes bipèdes dans notre main-d’œuvre humaine, selon nos conditions, sera transformateur (c’est le moins qu’on puisse dire). Nous sommes convaincus que 1X, avec ses robots NEO, jouera un rôle crucial dans les étapes pionnières vers les premières incursions de notre avenir technologique et humain ».

OpenAI, l’un des principaux investisseurs de 1X, a constaté une montée en flèche de l’intérêt pour ChatGPT à l’horizon 2023. Des développeurs tiers cherchent à adapter les éléments open source de l’IA pour créer des utilisations plus pratiques. Le logiciel d’IA générative a depuis lancé sa propre place de marché d’applications ce mois-ci, et la société indépendante WeHead a créé un visage humain pour le chatbot.

Lire plus
Intelligence Artificielle

L’usage quotidien d’applications par les leaders de la tech : Altman utilise Slack, Gates Outlook

UnconfuseMe 2023 Ep6 Article Her

Sam Altman dirige l’équipe d’OpenAI en tant que directeur général de l’entreprise. Pionnier de l’intelligence artificielle, il est surtout connu pour sa vision et son travail sur ChatGPT, l’un des outils d’intelligence artificielle les plus utilisés dans le monde aujourd’hui.

Sam Altman, PDG d’OpenAI, s’est récemment entretenu avec Bill Gates (cofondateur de Microsoft) et a discuté longuement de divers sujets. L’impact sociétal des nouvelles technologies, l’état actuel de l’IA et l’avenir d’OpenAI en font partie. Au cours de la discussion, Bill Gates a demandé à Altman : « Quelle est l’application du téléphone que vous utilisez le plus ? ».

À cette question, le créateur de ChatGPT a donné une réponse plutôt inattendue. Il a révélé que ChatGPT n’est pas l’application qu’il utilise le plus sur son téléphone. Le PDG d’OpenAI a déclaré : « J’aimerais pouvoir dire ChatGPT », mais devinez quelle est l’application qu’il utilise le plus ? C’est Slack.

Pour ceux qui l’ignorent, Slack est une application de communication utilisée par de nombreuses entreprises, pour envoyer des messages, partager des fichiers et gérer les tâches quotidiennes sur différents canaux. Il semblerait que de nombreuses entreprises du classement Fortune 100 utilisent également Slack comme interface de communication principale. Slack aide à organiser l’entreprise en différents canaux et équipes. Une communication efficace et fiable avec des fonctionnalités adaptées aux besoins professionnels, c’est exactement ce qu’offre Slack.

Le fait que Sam Altman révèle que Slack est son application la plus utilisée montre à quel point le PDG est occupé à gérer et à coordonner les efforts d’OpenAI. En deuxième position des applications les plus utilisées par Altman, on trouve iMessage d’Apple, qui est très répandu aux États-Unis. Au cours de cette interview, Sam Altman a également déclaré : « Chaque révolution technologique s’est accélérée. [L’intelligence artificielle sera de loin la plus rapide ».

En ce qui concerne l’application la plus utilisée par Gates, il a révélé que c’est Outlook qu’il utilise le plus. Il semblerait qu’il utilise son navigateur Web en deuxième position, après Outlook, car c’est l’application qu’il utilise le plus pour lire les articles d’actualité.

Lire plus