fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Quand la génération Z se tourne vers ChatGPT pour des conseils de carrière

798b3d02 4892 4955 95a6 9463306212f0

Les employés de la génération Z recherchent le support du chatbot d’intelligence artificielle (IA) ChatGPT alors qu’ils naviguent dans leurs premières années dans le monde professionnel.

Cette génération est l’une de celles qui connaissent la croissance la plus rapide sur le marché du travail, mais elle ne serait pas en confiance en ses supérieurs et qu’elle n’a pas d’expérience avec eux.

Les salariés nés entre 1997 et 2012 déclarent obtenir de meilleurs conseils en matière de carrière auprès de leurs amis et de leur famille, de Google, des réseaux sociaux et de l’IA. Près de la moitié d’entre eux (47 %) ont déclaré préférer se tourner vers le ChatGPT, car les managers « ne se soucient pas de leur développement de carrière », selon un rapport d’INTOO et de Workplace Intelligence.

Screen 2024 03 05 06.47.33 jpg

D’autres problèmes fréquemment signalés avec les managers sont qu’ils sont « plus concentrés sur leur propre carrière » et qu’ils « ne savent pas comment aider » au développement de leur rôle. Un nombre significatif de participants, soit 62 %, déclarent qu’ils aimeraient parler plus souvent de leur carrière à leur supérieur, mais que celui-ci est trop occupé.

Ces jeunes adultes recherchent un soutien supplémentaire de la part des entreprises, mais ils demandent plus que ce que les équipes d’apprentissage et de développement offrent actuellement. 80 % des salariés pensent que les employeurs devraient proposer des cours d’auto-apprentissage, alors que seulement 49 % des entreprises ont cette idée en tête.

Les professionnels des ressources humaines prévoient qu’un quart des salariés quitteront probablement leur emploi dans les 6 prochains mois en raison d’un manque de soutien à leur carrière, car ils ne sont pas satisfaits des possibilités offertes pour les aider à progresser dans leur vie professionnelle. Ce chiffre passe à 44 % lorsqu’il s’agit de la génération Z.

Comment les managers peuvent-ils soutenir la génération Z ?

Alors que de plus en plus d’adolescents et de vingtenaires entrent sur le marché du travail, les consultants en ressources humaines invitent les managers actuels à se rappeler que chaque personne a des besoins différents.

Dans un entretien accordé à CNBC, Stacie Haller, conseillère en chef chez Resume Builder, explique les mesures à prendre : « Lorsque les nouveaux employés entrent dans l’entreprise, il faut discuter avec eux de leurs aspirations, de leurs objectifs à long terme. Cela devrait faire partie de leur intégration ».

Les programmes de mentorat sont une autre recommandation pour guider les travailleurs tout au long de leur parcours dans le monde de l’entreprise.

Lire plus
Intelligence Artificielle

Optimisez vos réunions avec CrewAI : L’IA au service de l’efficacité

crewai

La préparation d’une réunion importante peut être une tâche stressante. Vous devez être bien informé, stratégique et prêt à aborder tous les sujets qui se présentent à vous. C’est là que CrewAI intervient avec son cadre de pointe alimenté par l’IA, conçu pour faire passer la préparation de vos réunions au niveau supérieur.

CrewAI ne se contente pas de vous aider à recueillir des informations et à utiliser l’IA pour planifier des réunions ; il vous donne un avantage stratégique qui pourrait faire toute la différence.

CrewAI est conçu pour permettre aux agents de l’IA d’assumer des rôles, de partager des objectifs et de fonctionner dans une unité cohésive, à l’instar d’un équipage bien huilé. Que vous construisiez une plateforme d’assistants connectés, un service client automatisé ou une équipe de recherche multi-agents, CrewAI fournit l’épine dorsale pour des interactions multi-agents sophistiquées.

L’équipe de développement responsable de la création de CrewAI a conçu un système unique qui utilise une équipe d’agents d’IA, chacun ayant un rôle spécifique, pour créer un ensemble de préparation complet pour vos réunions. Ces agents travaillent ensemble pour s’assurer que vous avez toutes les informations dont vous avez besoin à portée de main.

L’agent de recherche se penche sur les antécédents des participants et les détails de leurs entreprises, afin que vous ne soyez jamais pris au dépourvu.

L’agent chargé de l’analyse sectorielle étudie l’environnement commercial au sens large, identifie les tendances et les potentiels points de discussion qui pourraient influencer votre réunion. L’agent chargé de la stratégie de la réunion vous aide à élaborer des points de discussion et des questions clés qui correspondent aux objectifs de votre réunion. Enfin, l’agent de synthèse et de briefing compile toutes ces informations dans un briefing clair et exploitable auquel vous pouvez vous référer rapidement.

Utiliser Crew AI pour planifier vos réunions

Pour commencer à utiliser CrewAI, vous devez créer votre équipe d’IA et lui assigner des tâches. Par exemple, l’agent de recherche peut utiliser l’outil de recherche EXA pour trouver des données pertinentes à partir de diverses sources. Au fur et à mesure que les agents s’acquittent de leurs tâches, ils partagent leurs résultats entre eux, ce qui permet d’enrichir le briefing avec des informations détaillées. Cet effort de collaboration est essentiel pour une compréhension complète du contexte de la réunion, ce qui permet d’obtenir un document qui comprend des vérifications d’antécédents, une analyse de l’industrie et une planification stratégique.

screenshot 1

CrewAI vise à fournir une expérience utilisateur transparente en offrant potentiellement une interface Web via Streamlit. Cette interface permettrait aux utilisateurs de saisir plus facilement les données et d’interagir avec les résultats, ce qui rendrait l’information plus accessible. CrewAI fonctionne grâce à une combinaison d’agents autonomes, chacun conçu pour effectuer des tâches spécifiques liées à la préparation des réunions. Ces agents sont les suivants :

  1. Composants de CrewAI
    • Agent de recherche : Effectue des recherches approfondies sur les participants à la réunion et sur les informations sectorielles pertinentes.
    • Agent d’analyse de l’industrie : Analyse les tendances actuelles du secteur, les défis et les opportunités.
    • Agent de stratégie de réunion : Développe des sujets de discussion, formule des questions et conçoit des angles stratégiques pour la réunion.
    • Agent de synthèse et de briefing : Compile les informations dans un document de briefing concis et informatif.
  2. Configuration de CrewAI
    • Importer les modules CrewAI : Commencez par importer les composants nécessaires de CrewAI, y compris les tâches de préparation de réunion et les agents.
    • Initialiser les tâches et les agents : Définir et initialiser les tâches (par exemple, la recherche, l’analyse de l’industrie, la stratégie de réunion, le résumé et le briefing) et les assigner à leurs agents respectifs.
  3. Configuration des objectifs et du contexte de la réunion
    • Recueillir les informations essentielles : Utilisez une interface Web ou une autre méthode de saisie pour recueillir des informations sur la réunion, notamment les coordonnées des participants (à l’exception de l’adresse électronique de l’utilisateur), le contexte de la réunion et les objectifs spécifiques.
    • Introduire les informations dans le système : Introduire ces informations dans CrewAI afin d’adapter le processus de préparation de la réunion aux exigences spécifiques de chaque réunion.
  4. Agents de mise en œuvre
    • Recherche d’agents de mise en œuvre : Utiliser des outils tels que l’outil de recherche EXA pour une recherche approfondie sur les participants et les entreprises.
    • Analyse du secteur : Employez l’agent pour disséquer les tendances du secteur, en utilisant les mêmes outils ou des outils similaires.
    • Développement de la stratégie : Demandez à l’agent chargé de la stratégie de la réunion d’élaborer des points de discussion et des questions.
    • Compilation du briefing : L’agent chargé du résumé et du briefing doit compiler toutes les informations recueillies dans un document.
  5. Constitution de l’équipe d’IA
    • Définir la pile d’agents : Assemblez votre CrewAI en définissant la pile d’agents et leurs tâches associées, afin d’assurer une approche complète de la préparation de la réunion.
    • Lancer et surveiller : Lancez le système CrewAI et surveillez ses progrès au fur et à mesure qu’il prépare la réunion, en l’ajustant si nécessaire en fonction des résultats et du retour d’information.
  6. Utilisation des résultats pour la préparation de la réunion
    • Examiner les documents d’information : Examinez les documents d’information préparés par CrewAI pour vous assurer que toutes les informations nécessaires, y compris les biographies des participants, les aperçus de l’industrie et les recommandations stratégiques, sont incluses.
    • Mettre en œuvre la boucle de rétroaction : Utiliser le retour d’information des réunions pour affiner et ajuster les tâches et les résultats des agents de CrewAI, afin d’améliorer leur efficacité au fil du temps.
  7. Rationalisation du processus
    • Intégration de l’interface Web : Intégrer une interface Web à l’aide d’outils tels que Streamlit pour rendre le processus de saisie des données et de visualisation des résultats plus convivial et plus efficace.
    • Optimisation : Explorer les moyens de réduire les coûts de calcul associés au fonctionnement de CrewAI, comme l’optimisation des requêtes ou l’utilisation d’algorithmes plus efficaces.

Cependant, il est important d’être conscient des coûts associés à l’utilisation de CrewAI. Les activités des agents d’IA, en particulier le nombre de requêtes GP4, peuvent s’accumuler et entraîner une augmentation des dépenses. Pour gérer efficacement les coûts, il est recommandé d’optimiser l’utilisation des ressources et de réduire le nombre de demandes dans la mesure du possible. Vous pourrez ainsi préparer minutieusement vos réunions sans dépenser trop d’argent.

En intégrant le framework d’IA de CrewAI dans la préparation de vos réunions, vous ne vous préparez pas seulement à une discussion, vous vous dotez d’un outil stratégique qui pourrait vous donner une longueur d’avance sur la concurrence. Alors que les entreprises continuent de rivaliser dans un environnement de plus en plus difficile, l’utilisation de l’IA dans la préparation de vos réunions pourrait être la clé pour rester en tête.

Lire plus
Intelligence Artificielle

Anthropic dévoile Claude 3 : la « Rolls-Royce des modèles d’IA » qui surpasse GPT-4 et Gemini 1.0 Ultra

image 2

Une autre semaine, un autre modèle d’IA a dépassé GPT-4, du moins sur les benchmarks. Cette fois-ci, il s’agit d’Anthropic, la société créée par Daniela et Dario Amodei, deux anciens membres d’OpenAI. La société a lancé une famille de modèles Claude 3 comprenant Opus (le plus grand et le plus performant), Sonnet (de taille moyenne) et Haiku (le plus petit).

Anthropic affirme que le modèle Claude 3 Opus bat le GPT-4 et le Gemini 1,0 Ultra sur tous les benchmarks les plus courants. Cette version innovante marque un tournant avec ses capacités multimodales, permettant une compréhension combinée de texte et d’images, contrairement à ses prédécesseurs.

Anthropic a testé les trois modèles sur des benchmarks populaires tels que MMLU, GPQA, GSM8K, MATH, HumanEval, HellaSwag, et bien d’autres. Sur MMLU, Claude 3 Opus a obtenu un score de 86,8 % tandis que GPT-4 a obtenu un score de 86,4 %. Gemini 1.0 Ultra a obtenu 83,7 % avec la même technique d’incitation à 5 coups.

Sur le test HumanEval, qui évalue la capacité de codage, le plus grand modèle Opus a obtenu un score de 84,9 %, bien supérieur aux 67 % de GPT-4 et aux 74,4 % de Gemini 1.0 Ultra. Le modèle Clade 3 Opus a même battu GPT-4 dans le test HellaSwag, mais avec une légère marge. Il a obtenu un score de 95,4 % alors que GPT-4 a obtenu 95,3 % et Gemini 1.0 Ultra 87,8 %.

Capacités de Claude 3

image 3 jpg

Dans l’ensemble, le plus grand modèle Claude 3 Opus semble très prometteur et on le testera certainement contre GPT-4, Gemini 1,5 Pro et Mistral Large, alors restez à l’écoute. En outre, Anthropic affirme que les trois modèles ont de grandes capacités d’analyse et de prévision, de création de contenu nuancé, de génération de code et de maîtrise des langues internationales telles que l’espagnol, le japonais et le français.

9ad98d612086fe52b3042f9183414669 jpg

Les modèles Claude 3 ont également une capacité de vision, mais Anthropic ne les commercialise pas en tant que modèles multimodaux. Anthropic affirme que la capacité de vision de Claude 3 peut aider les entreprises à traiter les tableaux, les graphiques et les diagrammes techniques. Sur les benchmarks, il fait mieux que le GPT-4V mais est légèrement à la traîne par rapport au Gemini 1.0 Ultra.

Longueur de contexte de 200K

En ce qui concerne la longueur du contexte, Anthropic indique que les trois modèles offriront initialement une fenêtre de contexte de 200 000 jetons, ce qui est assez important. En outre, la société précise que les modèles de la famille Claude 3 peuvent traiter plus d’un million de jetons, mais que cette capacité ne sera disponible que pour certains clients.

image 4 jpg

Lors du test Needle In A Haystack (NIAH) avec plus de 200 000 jetons, le modèle Opus a obtenu des résultats exceptionnels avec une précision de plus de 99 %, tout comme Gemini 1.5 Pro. Claude a été l’un des meilleurs modèles d’IA pour la recherche de contexte long, et la performance s’est considérablement améliorée avec Claude 3.

Performances et prix

En ce qui concerne les performances, Anthropic indique que les modèles Claude 3 sont assez rapides et que le plus grand modèle Opus offre les mêmes performances que Claude 2 et 2.1, mais avec une meilleure intelligence. Le modèle Sonnet, de taille moyenne, est presque deux fois plus rapide que Claude 2 et 2.1. De plus, Anthropic mentionne que les modèles Claude 3 sont beaucoup moins susceptibles de refuser de répondre, ce qui était un problème avec les modèles précédents.

d1fbcf3d58ebc2dcd2e98aac995d70bf jpg

Vous pouvez commencer à utiliser le modèle phare Opus en vous abonnant à Claude Pro, qui coûte 23,60 dollars après taxes. Le modèle de taille moyenne Claude 3 Sonnet est déjà déployé sur la version gratuite de claude.ai. Enfin, les développeurs peuvent immédiatement accéder aux API pour les modèles Opus et Sonnet.

En ce qui concerne le prix de l’API, Claude 3 Opus avec une fenêtre contextuelle de 200K coûte 15 dollars par million de tokens (entrée) et 75 dollars par million de tokens (sortie). Par rapport à GPT-4 Turbo (10 dollars en entrée/30 dollars en sortie avec un contexte de 128 Ko), le prix semble assez élevé.

Les modèles Claude 3, entraînés sur des ensembles de données diversifiés et avec le soutien d’infrastructures fournies par AWS et Google Cloud, sont accessibles via la plateforme claude.ai et son API. Cette initiative est soutenue par d’importants investissements d’Amazon et Google, renforçant ainsi la position d’Anthropic dans le secteur de l’IA.

Lire plus
Intelligence Artificielle

Qualcomm révolutionne l’IA avec son AI Hub : Une bibliothèque gratuite de 75 modèles

Hero Image On deviceAI

Qualcomm, le célèbre fabricant de puces, a récemment inauguré une nouvelle ère dans le domaine de l’intelligence artificielle avec le lancement de son « AI Hub », présenté comme une boutique d’applications pour l’IA.

Cette plateforme innovante propose jusqu’à 75 modèles d’IA accessibles gratuitement, marquant une étape significative dans l’accessibilité et l’optimisation de l’IA pour les appareils grand public. Cependant, cette offre vient avec une spécificité notable : elle est exclusivement disponible pour les appareils intégrant des puces Qualcomm ou équipés de la technologie Snapdragon, soulignant ainsi l’engagement de Qualcomm à fournir des expériences IA optimisées et performantes pour ses utilisateurs.

Lors de sa présentation au MWC 2024, Qualcomm a dévoilé ce hub comme une bibliothèque tout-en-un, proposant des modèles IA pré-optimisés qui couvrent une gamme étendue d’applications, telles que la vision par ordinateur, la détection d’anomalies et le traitement du langage naturel. L’accent est mis sur la haute performance et une consommation énergétique minimale, alignant l’innovation technologique sur les exigences écologiques actuelles.

L’AI Hub se présente comme une solution clé en main pour les développeurs. Le AI Hub de Qualcomm se distingue par sa diversité, offrant des modèles d’IA et d’IA générative de renom, incluant des noms comme Stable Diffusion, Whisper, Baichuan 7B, et ControlNet. Cette initiative reflète la volonté de Qualcomm de démocratiser l’accès à des outils d’IA de pointe, tout en garantissant une intégration harmonieuse avec leur matériel.

Qualcomm AIHub image1 1 jpg

Cependant, l’accessibilité de ces modèles d’IA avancés est conditionnée par l’utilisation d’appareils compatibles avec les technologies Qualcomm, ce qui représente à la fois une opportunité et une limitation. Les utilisateurs bénéficient ainsi d’une expérience IA sur appareil optimisée, exploitant pleinement l’accélération matérielle de l’IA par les cœurs spécialisés de Qualcomm tels que le CPU, le GPU et le NPU.

Une aubaine pour les développeurs

En plus de fournir une riche bibliothèque de modèles, l’AI Hub facilite la traduction des modèles depuis leur framework d’origine vers les environnements d’exécution les plus répandus, tout en assurant des optimisations sensibles au matériel grâce à une intégration directe avec le SDK Qualcomm AI Engine. Cette plateforme est une aubaine pour les développeurs, leur permettant de rechercher, télécharger et intégrer facilement les modèles d’IA dans leurs applications, optimisant ainsi le temps et les ressources.

Qualcomm ne s’adresse pas uniquement aux développeurs chevronnés avec son AI Hub ; la plateforme est également conçue comme un outil pédagogique, offrant une documentation complète et des tutoriels pour ceux qui souhaitent explorer le domaine de l’IA. Avec des outils et des ressources permettant de personnaliser les modèles, les développeurs peuvent affiner les modèles en utilisant le Qualcomm Neural Processing SDK et l’AI Model Efficiency Toolkit.

AI Research Demos scaled

L’émergence des modèles et applications d’IA dans les boutiques d’applications traditionnelles a déjà marqué l’industrie technologique, offrant aux utilisateurs des alternatives innovantes pour intégrer l’IA dans leur quotidien. Avec le lancement du GPT Store par OpenAI et l’intégration croissante de l’IA dans les applications mobiles, Qualcomm renforce cette tendance en rendant l’IA plus accessible, spécifiquement optimisée pour ses dispositifs, promouvant ainsi une expérience utilisateur enrichie et personnalisée.

En résumé, l’AI Hub de Qualcomm représente une avancée significative dans la mise à disposition de l’IA pour le grand public, tout en soulignant l’importance d’une intégration matérielle spécifique pour exploiter pleinement ces capacités. Cette initiative pourrait bien redéfinir les interactions quotidiennes avec la technologie, offrant des possibilités inédites d’innovation et de personnalisation dans l’utilisation de l’intelligence artificielle.

Un AI Hub qui va prospérer

L’entreprise prévoit des mises à jour régulières de l’AI Hub, ajoutant de nouveaux modèles et élargissant le support à d’autres plateformes et systèmes d’exploitation. Les développeurs peuvent s’inscrire pour accéder à ces modèles sur des dispositifs hébergés dans le cloud basés sur les plateformes Qualcomm et bénéficier d’un accès anticipé à de nouvelles fonctionnalités et modèles d’IA.

 

Lire plus
Intelligence Artificielle

Comment le droit d’auteur fonctionnera-t-il à l’ère de l’IA ?

file jyPkt4680omNZOA20nh2SiKn

La montée en puissance de l’IA dans la création de contenus soulève une multitude de questions juridiques complexes, notamment en matière de droit d’auteur.

La question centrale est de savoir si les productions générées par l’IA devraient bénéficier de la protection du droit d’auteur et, le cas échéant, qui devrait être reconnu comme titulaire de ces droits.

L’opinion varie largement, certains plaidant pour que les productions d’IA soient entièrement open source et sans droit d’auteur, tandis que d’autres estiment que le droit d’auteur devrait revenir à l’utilisateur qui a dirigé l’IA ou, potentiellement, à l’IA elle-même si elle acquiert la capacité de ressentir.

Les systèmes d’IA générative tels que ChatGPT, GPT-4 et Dall-E 2, capables de créer des romans, des chansons et des dessins en un temps record, alimentent ce débat. Actuellement, les productions d’IA ne sont pas protégées par le droit d’auteur, une situation que certains jugent appropriée, tandis que d’autres remettent en question la justesse de cette approche. Qui devrait posséder les droits d’auteur : l’utilisateur, le fournisseur de l’IA, ou les individus dont le contenu a servi à l’entraînement de l’IA ?

Les défis ne s’arrêtent pas là. Comment déterminer si une œuvre a été créée avec l’aide de l’IA ? La transparence est-elle une solution viable ? Qu’en est-il de la protection du droit d’auteur pour le développement de logiciels et des éventuels contrats entre les auteurs, l’IA et ses développeurs ? Qui est responsable en cas d’erreurs ?

De réelles interrogations

Il est clair qu’une création assistée par IA peut donner lieu à une nouvelle expression d’une idée, qui devrait alors être protégée par le droit d’auteur. Cependant, la quantité massive de données générées par l’IA pose la question de savoir si cela pourrait submerger et potentiellement étouffer la création humaine continue.

Ces questions et d’autres encore continueront sans doute de préoccuper l’humanité pour les décennies à venir, témoignant de la complexité de réguler l’intersection entre l’IA et le droit d’auteur dans une ère de création numérique en évolution rapide.

Lire plus
Intelligence Artificielle

La Chine approuve plus de 40 modèles d’IA pour usage public

0230eec9 0e0e 4029 993d cbe5379fb37d

La Chine a approuvé plus de 40 modèles d’intelligence artificielle (IA) pour une utilisation publique au cours des 6 derniers mois, selon Reuters.

Cette démarche souligne l’effort du pays pour rivaliser avec les États-Unis dans le secteur de l’IA, tout en maintenant un contrôle réglementaire strict sur la technologie.

Parmi les entreprises ayant reçu des approbations figurent des géants tels que Baidu, Alibaba, ByteDance (propriétaire de TikTok), ainsi que Xiaomi Corp, 4Pradigm, et 01. AI dans le dernier lot d’approbations.

Bien que le gouvernement chinois n’ait pas divulgué la liste complète des entreprises approuvées, le Securities Times a indiqué que plus de 40 modèles d’IA ont été approuvés pour un usage public.

Cette approche réglementée reflète la volonté de la Chine de développer son secteur de l’IA de manière contrôlée, avec un intérêt particulier pour les Large Language Model (LLM), qui ont vu 14 nouveaux modèles approuvés récemment. Ces approbations interviennent alors que les entreprises chinoises s’efforcent de développer des produits d’IA en réponse à l’émergence de ChatGPT d’OpenAI en 2022.

Quelle est la valeur du marché du LLM au niveau mondial ?

Le marché mondial des LLM, qui était estimé à 40 milliards de dollars en 2022, pourrait atteindre une valeur de 1,3 trillion de dollars au cours des 10 prochaines années, selon Bloomberg. La Chine, avec environ 130 LLM estimés, représentait 40 % du total mondial, tandis que la part de marché des États-Unis était de 50 %.

Le rapport poursuit en prévoyant que « l’IA générative est prête à étendre son impact de moins de 1 % du total du matériel informatique, des services logiciels, des dépenses publicitaires et des dépenses du marché des jeux à 10 % d’ici 2032 ». Il poursuit en désignant l’infrastructure d’IA générative en tant que service utilisé pour la formation des LLM comme étant potentiellement le plus grand moteur de cette croissance, représentant 247 milliards de dollars de revenus mondiaux d’ici 2032.

Cette expansion rapide du secteur de l’IA en Chine, ainsi que les prévisions de croissance du marché des LLM, mettent en évidence l’importance croissante de l’intelligence artificielle dans l’économie mondiale et le rôle clé que jouent les réglementations dans le développement et l’adoption de ces technologies.

Lire plus
Intelligence Artificielle

Une étude révèle que l’IA générative devrait bouleverser la majorité des emplois dans les années à venir

0093e65f 7891 47fa a4e1 685942242596

Une nouvelle étude suggère que la plupart des emplois pourraient être perturbés d’une manière ou d’une autre par l’IA générative au cours des 10 prochaines années.

L’étude publiée le 10 janvier par la société de conseil en technologie Cognizant, en collaboration avec Oxford Economics, révèle qu’environ 9 % de la main-d’œuvre américaine actuelle pourrait être déplacée par la nouvelle technologie. Elle indique également que grâce à l’IA, 11 % des employés pourraient perdre leur emploi et avoir du mal à en trouver un autre.

Cette difficulté est due au fait que les compétences que les employés possèdent pour leurs fonctions actuelles peuvent ne pas être facilement transférables à un marché du travail de plus en plus dominé par l’intelligence artificielle.

Un modèle spécialisé a été utilisé pour révéler trois scénarios reflétant les niveaux faible, moyen et élevé d’adoption de l’IA par les entreprises, qui ont d’abord examiné à quelle vitesse l’intelligence artificielle serait utilisée au sein d’une entreprise.

Les auteurs expliquent qu’entre 2023 et 2026, les utilisateurs seront dans la phase « d’expérimentation et de prudence », les organisations déployant provisoirement l’IA générative pour des tâches qui sont « gérables en termes de portée et de faible risque — comme la création d’images, la génération de texte pour les rapports et les e-mails, et les suggestions de code pour les développeurs ». On s’attend à ce que 13 % des entreprises mettent cela en œuvre au cours de cette période.

2026 à 2030, le cap charnière

D’ici à 2026-2030, le rôle de l’IA devrait s’accroître considérablement dans toute une série de professions. La prévision la plus optimiste révèle que l’utilisation de l’IA passera de 13 % à 31 % en seulement 4 à 8 ans. L’étude affirme également que plus de la moitié des directeurs généraux et des directeurs des opérations seront exposés à l’IA d’ici là.

Les chercheurs estiment également qu’après 15 ans, l’emploi de l’IA se poursuivra, mais qu’il est susceptible de ralentir.

L’étude recommande que les employés soient « requalifiés » afin de les protéger contre les pertes d’emploi et de préserver la réputation d’une marque. Elle propose également aux organisations de mettre en place une infrastructure technologique solide conçue pour s’adapter au rythme rapide du développement de l’IA, y compris des politiques, des structures et des processus opérationnels.

Les entreprises doivent se prémunir

Dans le même temps, elle met en garde contre les potentiels préjugés formulés par l’IA. La recherche invite les organisations à créer des garanties qui minimisent le risque de partialité, d’erreur et de décisions problématiques sur le plan éthique. Enfin, elle encourage également l’utilisation de l’IA pour améliorer la vie des employés en raccourcissant la journée ou la semaine de travail.

L’industrie du jeu vidéo a déjà réclamé des garde-fous contre l’IA. En décembre, le syndicat des travailleurs de Zenimax a annoncé qu’il avait conclu un accord avec Microsoft qui « engage Zenimax à utiliser l’IA pour accroître l’ingéniosité et les capacités humaines, afin de garantir que ces outils améliorent la productivité, la croissance et la satisfaction des employés sans leur porter préjudice ».

Lire plus
Intelligence Artificielle

Copilot de Microsoft : un potentiel non exploité malgré un coût élevé

microsoft copilot screenshot

Les assistants d’IA gèrent les e-mails, les réunions et d’autres tâches. Pourtant, certains se montrent sceptiques à leur égard en raison de leur coût élevé et de leurs applications limitées, et le chatbot de Microsoft ne fait pas exception à la règle.

L’assistant intelligent Copilot se vend bien jusqu’à présent, mais les testeurs qui l’utilisent depuis plus de 6 mois ne disent qu’une chose : « Il est utile, mais n’est souvent pas à la hauteur de son prix ». Le prix ? 30 dollars par personne et par mois.

Avec Copilot pour Microsoft 365, une mise à jour de l’IA qui s’intègre à Word, Outlook et Teams, Microsoft obtiendrait l’un de ses plus grands succès depuis des décennies. En utilisant des indices de langage naturel, il peut créer des documents, générer du texte et résumer des e-mails en utilisant la même technologie que ChatGPT d’OpenAI. Selon Microsoft, la demande initiale est sans précédent et les entreprises qui l’ont testé l’ont trouvé utile — mais Microsoft n’a pas communiqué d’informations sur le nombre d’inscriptions.

La plupart des gens se souviendront de la presse sur les milliards que Microsoft a pariée pour que cela se produise pour l’entreprise — 13 milliards de dollars d’investissement dans OpenAI, pour être précis. En conséquence, les actions de Microsoft ont grimpé en flèche, convaincues que cette technologie d’IA allait booster leur chiffre d’affaires. Un analyste de RBC Capital, Rishi Jaluria, a déclaré : « Copilot doit être un succès pour que l’action fonctionne ».

Copilot a été mentionné plus de 50 fois lors de la récente conférence téléphonique sur les résultats.

preview microsoft 365 copilow jpg

Le spot publicitaire de Microsoft pour le Super Bowl

Dimanche dernier, Microsoft a diffusé son premier spot publicitaire du Super Bowl en quatre ans, présentant Copilot comme une ressource susceptible d’aider les entrepreneurs à atteindre leurs objectifs.

Microsoft a parié sur le fait que les entreprises accepteraient de signer de gros contrats parce qu’elles souhaitent utiliser cette IA particulière. En novembre, lorsque le logiciel d’IA a été lancé à l’échelle nationale, les entreprises devaient s’engager à souscrire au moins 300 abonnements à l’assistant. Selon un distributeur de logiciels de Microsoft, de nombreuses personnes ne sont pas disposées à faire un investissement aussi important pour des produits qui n’ont pas encore fait leurs preuves. Le mois dernier, Microsoft a abaissé ses exigences minimales pour permettre à de plus petits groupes d’utiliser le logiciel d’IA.

Certaines entreprises hésitent à utiliser la technologie de l’IA tant que la médiatisation n’est pas retombée. Selon une enquête du Boston Consulting Group, près de deux tiers des dirigeants d’entreprise pensent qu’il faudra au moins 2 ans pour que l’IA générative dépasse la médiatisation, même s’ils déclarent que l’IA est une priorité essentielle pour leur organisation. La plupart des personnes interrogées souhaitent limiter l’utilisation de l’IA générative à des expériences à petite échelle.

Lire plus
Intelligence Artificielle

ChatGPT se transforme : OpenAI travaille sur un assistant personnel révolutionnaire

e7abf675 f917 4336 84ab 153daa8d7505

OpenAI travaillerait sur un assistant « super intelligent » capable de faire fonctionner un ordinateur à la place de son utilisateur.

Selon un rapport de Business Insider, il s’agit de l’un des deux agents en préparation, avec le développement d’un bot ChatGPT capable d’assumer l’autonomie d’un appareil.

La principale société de recherche sur l’intelligence artificielle (IA) semble avoir pour ambition de créer un assistant ultime pour l’ère actuelle, qui permettrait au logiciel d’accomplir pleinement les tâches qui lui sont demandées. Il se concentrera sur les fonctions de saisie de texte, ainsi que sur le déplacement du curseur et le travail avec différentes applications.

Le PDG d’OpenAI, Sam Altman, voudrait faire de ChatGPT un « assistant personnel super-intelligent pour le travail », mais la voie à suivre pourrait entraîner des problèmes avec Microsoft, son partenaire. Le géant technologique des « Big Five » (ainsi que Google) a déjà lancé son propre assistant personnel d’IA pour le travail, mais ces applications n’en seraient qu’à leurs débuts.

Le rapport suggère une attente croissante du développement de OpenAI, dont les travaux ont commencé il y a plus d’un an. L’idée de changer la donne suscite des attentes, mais le produit final n’est pas encore en vue.

Une question de temps

L’IA générative a été saluée pour sa capacité à accroître de manière significative la productivité des travailleurs dans certaines tâches, et le marché des agents d’IA s’est récemment ouvert. Des experts du secteur, dont le cofondateur de DeepMind, la filiale de Google spécialisée dans la recherche sur l’IA, ont parlé de ce domaine de croissance.

Mustafa Suleyman a souligné que tout le monde pourrait avoir un assistant personnel, un « chef de cabinet », dans les cinq prochaines années, lors d’une conversation avec CNBC sur les progrès rapides de l’IA.

« Il sera capable de raisonner sur votre journée, de vous aider à prioriser votre temps, à inventer, à être beaucoup plus créatif », a-t-il déclaré, ajoutant : « Ce sera un assistant de recherche, mais aussi un coach et un compagnon ».

Lire plus
Intelligence Artificielle

Grammarly anticipe l’ère de l’IA en optimisant son équipe

BTS Student Premium Blog 2

Dans un monde numérique en constante évolution, les outils d’aide à la rédaction comme Grammarly deviennent indispensables pour écrivains, étudiants et professionnels.

En offrant une plateforme capable de corriger erreurs grammaticales et fautes d’orthographe, Grammarly s’est imposé comme un incontournable. Sa version premium, à 12 euros par mois, promet non seulement de traquer le plagiat accidentel, mais aussi de fournir des suggestions de rédaction en temps réel, affinant le style et la structure des textes.

Cependant, l’avenir de la rédaction semble se tourner vers l’intelligence artificielle (IA), avec des prédictions annonçant que les robots générateurs de contenu pourraient un jour remplacer les auteurs humains.

Dans cette optique, Grammarly a annoncé la semaine dernière une réduction de son personnel de 230 employés, une décision stratégique visant à se concentrer sur « l’espace de travail habilité par l’IA de demain ». Selon l’entreprise, cette mesure est en phase avec sa vision d’offrir une assistance rédactionnelle responsable basée sur l’IA à un public global, touchant des millions d’utilisateurs et des milliers d’entreprises.

Rahul Roy-Chowdhury, PDG de Grammarly, a partagé dans un mémo aux employés que l’accent serait désormais mis sur le renforcement des capacités techniques en IA et sur la restructuration de l’organisation pour favoriser une collaboration plus efficace. Cette réorientation nécessite une diversification des compétences et des savoir-faire au sein de l’équipe. Il a souligné que cette réduction d’effectifs ne visait pas à diminuer les coûts, mais à préparer Grammarly à intégrer pleinement l’IA dans ses services. Les employés concernés par ces licenciements bénéficieront d’un soutien financier et de services d’accompagnement vers un nouvel emploi, incluant des séances de coaching individuel et des revues de CV. De plus, ils pourront conserver leur ordinateur portable fourni par l’entreprise.

grammarly 12th anniversary scaled

Résolument tourné vers l’IA

En regardant vers l’avenir, Grammarly mise résolument sur l’IA. Roy-Chowdhury voit dans l’IA une opportunité colossale pour chaque individu et entreprise désireux de tirer parti de cette technologie. Depuis près de quinze ans, Grammarly travaille à développer un produit qui aide quotidiennement des millions de personnes, rendant les équipes plus productives et étant déjà utilisé par les employés de 96 % des entreprises du Fortune 500. L’ambition est de continuer à enrichir son offre pour apporter encore plus de valeur à ses clients, en jouant un rôle de premier plan dans l’amélioration de l’espace de travail grâce à l’IA.

Pour les utilisateurs souhaitant installer Grammarly, l’application est disponible, tant sur iOS que sur Android, facilitant ainsi l’accès à une aide à la rédaction de pointe, peu importe le support utilisé.

Lire plus
Intelligence Artificielle

GPT-6 et GPT-7 : Les nouveaux horizons de l’IA par OpenAI

ae5c8107 d3cd 4a45 b8e9 1358a5eb7aff

Pionnier dans le domaine de l’intelligence artificielle, OpenAI, a récemment fait parler d’elle avec l’enregistrement des marques GPT-6 et GPT-7, suggérant l’arrivée « imminente » de ces nouveaux modèles. Ces développements sont perçus comme des pas de géant dans l’évolution de l’apprentissage automatique et du traitement du langage naturel, promettant des avancées significatives par rapport à leurs prédécesseurs.

La démarche d’OpenAI de déposer ces marques, notamment en Chine, montre une stratégie claire pour renforcer sa position sur le marché mondial de l’IA. Ces nouveaux modèles sont destinés à jouer un rôle central dans des domaines variés, allant du support client à la génération de contenu, grâce à leur capacité améliorée à simuler l’intelligence humaine.

Un aspect crucial de ces innovations est l’utilisation de données synthétiques. Ce type de données, qui imite les informations du monde réel, permet aux systèmes d’IA d’apprendre et de s’améliorer tout en évitant les problèmes de confidentialité et les biais souvent associés aux ensembles de données traditionnels.

Le service Feather d’OpenAI illustre parfaitement cette approche, optimisant le processus de formation de l’IA.

Vers une intelligence générale artificielle (AGI)

Le secteur de l’IA aspire à réaliser l’Intelligence Générale Artificielle (AGI), permettant aux machines d’exécuter une gamme étendue de tâches cognitives comparables à celles de l’intelligence humaine. L’intérêt grandissant pour les modèles IA open source comme Mistral Large témoigne de cette ambition, offrant une alternative accessible aux modèles propriétaires et stimulant l’innovation dans le domaine.

Microsoft prend également des mesures importantes dans le domaine de l’IA en formant des partenariats avec des innovateurs en matière d’IA, notamment la société française Mistral AI. Ces collaborations soulignent l’engagement de Microsoft à incorporer des technologies d’IA de pointe dans sa suite de produits.

Cependant, l’avancement rapide de l’IA soulève également des défis juridiques et éthiques, notamment en ce qui concerne la propriété intellectuelle et la création de contenu généré par IA. Les contentieux, comme celui impliquant le New York Times, OpenAI et Microsoft, mettent en évidence les questions complexes que soulève l’intersection de l’IA avec la créativité et l’authorship humains.

Implications pour l’industrie et l’éducation

Les modèles comme GPT-6 et GPT-7 transformeront divers secteurs, de la santé à la finance, en améliorant la précision des diagnostics ou en prévoyant les tendances du marché. Dans le domaine éducatif, des modèles spécialisés comme Orca Math montrent comment l’IA peut renforcer l’apprentissage et l’enseignement.

En outre, les outils d’IA sont de plus en plus largement accessibles aux entreprises, transformant les opérations de diverses manières, de l’amélioration du service à la clientèle à la génération de contenu et à l’analyse de données. Ces technologies aident les entreprises à fonctionner plus efficacement et à rester compétitives sur leurs marchés respectifs.

En résumé, l’initiative d’OpenAI de développer GPT-6 et GPT-7 marque un tournant significatif pour l’intelligence artificielle. En exploitant des algorithmes avancés et des ensembles de données volumineux, ces modèles sont sur le point de définir la prochaine génération de technologies IA, avec un impact potentiel immense sur diverses industries.

Lire plus
Intelligence Artificielle

Elon Musk poursuit OpenAI et son PDG Sam Altman pour rupture de contrat

elon musk reuters jan 2024 scale

Après que le New York Times a poursuivi OpenAI pour violation du droit d’auteur, Elon Musk, fondateur de Tesla et SpaceX et ancien cofondateur d’OpenAI, s’est joint aujourd’hui à une nouvelle action en justice contre OpenAI et son PDG Sam Altman. En effet, Elon Musk poursuit OpenAI, son PDG Sam Altman, ainsi que d’autres personnes, les accusant d’avoir violé des engagements contractuels établis lors de la création de l’entreprise en 2015, alors qu’il avait participé à sa fondation en 2015.

L’action en justice lancée par le PDG de Tesla inclut également le cofondateur d’OpenAI, Greg Brockman. La plainte indique que Brockman, aux côtés d’Altman, a initialement proposé à Musk de créer une entité à but non lucratif et open source visant à faire progresser la technologie de l’intelligence artificielle pour le « bénéfice de l’humanité ». Musk a cofondé OpenAI en 2015, mais s’est retiré du conseil d’administration de la société en 2018.

L’action en justice soutient que la réorientation de l’entreprise soutenue par Microsoft vers des objectifs axés sur le profit va à l’encontre de l’accord initial. Elle souligne que Musk pensait que ce pivot constituait une « menace existentielle dans l’AGI ».

Les avocats représentant Musk ont déclaré que « Altman a proposé à Musk d’unir leurs forces pour former un laboratoire d’IA à but non lucratif qui essaierait de rattraper Google dans la course à l’AGI, mais qui serait à l’opposé de Google ».

Le procès ajoute qu’avec Brockman, ils sont parvenus à un consensus sur l’éthique fondamentale du nouveau laboratoire d’IA. Selon cet accord, OpenAI « serait une organisation à but non lucratif développant l’AGI pour le bénéfice de l’humanité, et non pour une société à but lucratif cherchant à maximiser les profits de ses actionnaires ; et (b) serait open source, équilibrant uniquement les considérations de sécurité compensatoires, et ne garderait pas sa technologie fermée et secrète pour des raisons commerciales exclusives ».

Elon Musk fait concurrence à OpenAI

L’organisation aurait été créée pour faire contrepoids au projet DeepMind de Google. Toutefois, contrairement à ses homologues, la mission d’OpenAI était de faire avancer la cause de l’humanité, en évitant les motivations liées au profit qui sous-tendent généralement les entités privées à but lucratif.

En janvier, la start-up d’intelligence artificielle xAI de l’entrepreneur milliardaire était en pourparlers pour « lever jusqu’à 6 milliards de dollars ». xAI a fait les gros titres en 2023 lorsque « Grok », un chatbot positionné comme un adversaire du ChatGPT d’OpenAI, a été présenté.

Une autre société connue sous le nom de Groq a déposé une marque déposée en 2016, alors qu’elle n’en était qu’à ses débuts. Il n’est donc pas surprenant qu’elle ait envoyé une lettre de cessation et de désistement au milliardaire de Tesla à propos de sa décision d’intituler sa société d’un nom aussi similaire.

Lire plus
Intelligence Artificielle

OpenAI remplace les plugins ChatGPT par des GPT personnalisés !

GPT Store

OpenAI, leader dans le domaine de l’intelligence artificielle, et l’équipe de développement responsable de la création de ChatGPT et plus récemment de SORA, apporte un changement important à sa plateforme d’IA conversationnelle. OpenAI a annoncé qu’elle abandonnerait le système actuel de plugins ChatGPT et introduirait à la place des modèles GPT personnalisés.

Ce changement devrait avoir lieu le 19 mars 2024 et devrait améliorer l’expérience interactive des utilisateurs. Ne vous inquiétez donc pas de perdre votre plugin préféré, car il sera très probablement remplacé par un GPT personnalisé de la même équipe de développement.

Cette nouvelle orientation sera marquée par le lancement du GPT Store, une place de marché qui proposera une variété de modèles GPT. Ces modèles sont conçus pour répondre aux besoins spécifiques des différents utilisateurs. La boutique proposera une fonction de recherche facile à utiliser pour aider les utilisateurs à trouver le bon modèle de GPT pour remplacer les plugins qu’ils utilisent actuellement.

GPT personnalisés

Les modèles GPT personnalisés qui seront disponibles dans le GPT Store sont développés pour être aussi performants que les plugins qu’ils remplacent. OpenAI a écouté les commentaires de sa communauté d’utilisateurs et les a intégrés dans le développement de ces modèles.

Le passage à des modèles GPT personnalisés est le reflet du succès et de l’adoption généralisée de la technologie GPT, ainsi que de l’influence des utilisateurs sur le développement de la plateforme.

Dans le cadre de cette transition, la boutique de plugins n’acceptera plus de nouvelles conversations ou installations après la date annoncée. Cependant, OpenAI encourage ses utilisateurs à commencer à explorer le GPT Store et à se familiariser avec les modèles GPT personnalisés qui seront bientôt disponibles.

Il est important pour les utilisateurs de noter que toutes les conversations en cours avec les plugins actuels continueront à fonctionner jusqu’au 9 avril 2024. Après cette date, ces conversations seront progressivement supprimées.

Suppression des plugins de ChatGPT

La décision d’OpenAI de passer des plugins ChatGPT aux modèles GPT personnalisés reflète la réactivité de l’entreprise aux besoins des utilisateurs et à l’évolution du paysage de la technologie de l’IA conversationnelle. L’introduction du GPT Store est une décision stratégique qui vise à rendre la transition aussi facile que possible pour les utilisateurs. Elle représente une opportunité pour les utilisateurs de continuer à s’engager avec une plateforme d’IA conversationnelle sophistiquée, mais avec une expérience encore plus personnalisée et améliorée.

Le passage à des modèles GPT personnalisés fait partie de la stratégie plus large d’OpenAI visant à rester à la pointe de la technologie de l’IA. En proposant une place de marché avec une gamme variée de modèles, OpenAI s’assure que les utilisateurs ont accès aux outils les plus avancés pour répondre à leurs besoins en matière d’IA conversationnelle. Le GPT Store servira de guichet unique aux utilisateurs pour trouver des modèles adaptés à leurs besoins spécifiques, qu’ils recherchent quelque chose pour traiter les demandes de service à la clientèle, aider à la traduction des langues ou fournir une création de contenu attrayante.

La transition vers des modèles GPT personnalisés est également révélatrice de la tendance croissante de l’IA à la personnalisation et à la spécialisation. À mesure que la technologie de l’IA devient plus sophistiquée, la demande de modèles capables de traiter des tâches spécifiques avec un haut niveau d’expertise augmente. La décision d’OpenAI d’offrir des modèles GPT personnalisés répond à cette demande, en permettant aux utilisateurs de choisir des modèles optimisés pour les tâches qu’ils doivent accomplir.

Comprendre le passage aux modèles GPT personnalisés

Capture decran 2024 01 05 a 17 scaled

Pour les utilisateurs qui se sont habitués aux plugins ChatGPT, la transition vers des modèles GPT personnalisés peut sembler déconcertante. Cependant, OpenAI a assuré aux utilisateurs que le processus serait simple. Le GPT Store offrira non seulement une large sélection de modèles, mais aussi des conseils et un soutien pour aider les utilisateurs à passer à l’étape suivante. L’objectif d’OpenAI est de s’assurer que les utilisateurs peuvent continuer à compter sur sa plateforme pour des interactions d’IA conversationnelle de haute qualité sans aucune perturbation de leurs workflow.

Alors que la date de transition approche, OpenAI travaille avec diligence pour préparer le GPT Store et les modèles GPT personnalisés pour le lancement. L’entreprise s’engage également auprès de sa communauté d’utilisateurs pour recueillir leurs commentaires et procéder aux ajustements nécessaires afin de s’assurer que les nouveaux modèles répondent aux attentes des utilisateurs. L’objectif d’OpenAI est de fournir une plateforme d’IA qui soit non seulement puissante et polyvalente, mais aussi conviviale et accessible.

Le passage des plugins ChatGPT aux modèles GPT personnalisés est une étape audacieuse pour OpenAI, mais elle est fondée sur une compréhension profonde des besoins de ses utilisateurs et du potentiel de la technologie de l’IA. Alors que l’entreprise continue d’innover et de repousser les limites de ce qui est possible avec l’IA conversationnelle, les utilisateurs peuvent s’attendre à un avenir où leurs interactions avec l’IA seront plus personnalisées, plus efficaces et plus efficientes que jamais.

Le rôle du GPT Store dans l’accessibilité de l’IA

Le passage d’OpenAI à des modèles GPT personnalisés marque une évolution significative dans le domaine de l’intelligence artificielle. Cette transition vise à améliorer l’expérience interactive des utilisateurs en leur fournissant des modèles d’IA adaptés à leurs besoins spécifiques. Les modèles personnalisés devraient offrir les mêmes capacités, sinon plus, que les plugins ChatGPT existants. En se concentrant sur le développement de ces modèles spécialisés, OpenAI répond à la demande croissante de solutions d’IA personnalisées, capables d’exécuter des tâches avec une plus grande précision et une plus grande pertinence par rapport aux besoins de l’utilisateur.

La tendance à la personnalisation et à la spécialisation de l’IA devient de plus en plus importante à mesure que la technologie progresse. Les utilisateurs recherchent des modèles d’IA capables de gérer des tâches spécifiques avec un haut degré d’expertise. L’initiative d’OpenAI d’offrir des modèles GPT personnalisés est une réponse directe à cette tendance, permettant aux utilisateurs de sélectionner des modèles qui sont finement réglés pour les tâches qu’ils souhaitent accomplir.

Cette approche permet non seulement d’améliorer l’expérience de l’utilisateur, mais aussi de repousser les limites de ce que l’IA conversationnelle peut réaliser, ouvrant ainsi la voie à des interactions d’IA plus sophistiquées et plus nuancées.

Lire plus
Intelligence Artificielle

WordPress et Tumblr à la croisée des IA : Automattic planifie la vente de données

5b705729 84a3 40d6 a625 83953472f2c1

La société mère de Tumblr et WordPress, Automattic, est en train de conclure un accord pour vendre des données d’utilisateurs afin de former des modèles d’intelligence artificielle (IA).

L’accord a été découvert par 404media, le site d’information technologique ayant mis la main sur des documents internes qui montrent la vente imminente de données à des sociétés telles que Midjourney et OpenAI. 404media affirme qu’il y aura un nouveau paramètre introduit aujourd’hui qui « permettra aux utilisateurs de refuser le partage de données avec des tiers, y compris des entreprises d’IA ».

Automattic a publié sur son site une déclaration intitulée « Protecting User Choice » (Protéger le choix de l’utilisateur) qui décrit en détail la position de l’entreprise sur l’IA.

« L’IA transforme rapidement presque tous les aspects de notre monde, y compris la façon dont nous créons et consommons du contenu », peut-on lire dans la déclaration. « Chez Automattic, nous avons toujours cru en un Web libre et ouvert et au choix individuel. Comme d’autres entreprises technologiques, nous suivons de près ces avancées, y compris la façon de travailler avec les entreprises d’IA d’une manière qui respecte les préférences de nos utilisateurs ».

L’entreprise a également déclaré qu’elle bloquait actuellement les robots d’indexation de l’IA et les sites d’indexation des moteurs de recherche afin de garder les messages des utilisateurs hors de leur champ de vision, à moins que l’utilisateur n’ait accepté que ce contenu soit rendu public.

Des soucis ?

Automattic a également parlé ouvertement de son travail avec des tiers en déclarant : « Nous travaillons également directement avec des entreprises d’IA sélectionnées, tant que leurs plans s’alignent sur ce qui préoccupe notre communauté : l’attribution, les opt-outs et le contrôle ».

« Nos partenariats respecteront tous les paramètres d’exclusion », peut-on lire dans la déclaration sur l’IA. « Nous prévoyons également d’aller plus loin et d’informer régulièrement nos partenaires des personnes qui se sont désinscrites et qui demandent que leur contenu soit supprimé des sources passées et des formations futures ».

Un accord avec les entreprises d’IA et les impacts spécifiques sur les données des utilisateurs restent donc à voir, mais la corrélation entre le rapport 404media et cette déclaration publique montre que Automattic considère déjà les implications des informations publiques et de l’IA.

Pourquoi les entreprises d’IA veulent-elles avoir accès aux données des utilisateurs ?

Les entreprises d’IA et leurs algorithmes complexes ont besoin d’une source de données pour être essentiellement « formés » sur un ensemble ou un sujet spécifique.

Plus les données qui alimentent ces modèles d’apprentissage sont de qualité, plus les résultats seront théoriquement exacts. Par exemple, un modèle d’IA qui ne peut accéder qu’à des données limitées n’aura qu’une autorité limitée sur un certain sujet.

L’entrave à la réglementation de l’IA, qui a été un environnement plutôt anarchique, signifie que davantage d’accords doivent être conclus avec les entreprises qui ont accès à ces ensembles de données pour obtenir le meilleur rendement d’une requête d’IA. Cela signifie également que les propriétaires des modèles d’apprentissage ne tombent pas sous le coup de la loi sur les droits d’auteur et que les propriétaires de plateformes telles que Tumblr et WordPress obtiennent quelque chose en échange de l’accès aux données des utilisateurs.

Lire plus
Intelligence Artificielle

Adobe révolutionne la création musicale avec l’IA : Découvrez Project Music GenAI Control

Adobe vient de présenter une expérience novatrice en matière d’intelligence artificielle générative, destinée à simplifier la création et la personnalisation de musique, même pour ceux n’ayant aucune expérience professionnelle en audio.

Ce nouveau prototype, dévoilé lors du Hot Pod Summit à Brooklyn, se nomme Project Music GenAI Control. Il permet aux utilisateurs de générer de la musique à partir de descriptions textuelles, sur le même principe que pour Firefly, et d’ajuster ensuite ces créations sans avoir à utiliser un logiciel d’édition spécialisé.

Le processus commence lorsque l’utilisateur saisit une description textuelle, ce qui génère de la musique dans le style spécifié. Les outils d’édition intégrés d’Adobe permettent ensuite de personnaliser ces résultats en modifiant les motifs répétitifs, le tempo, l’intensité et la structure de la musique. Il est possible de remixer des sections musicales et de générer de l’audio en boucle, ce qui est idéal pour des usages comme les pistes d’accompagnement ou la musique de fond pour la création de contenus.

Adobe indique également que l’outil peut ajuster l’audio généré en se basant sur une mélodie de référence et prolonger la longueur des clips audio, ce qui est utile pour des applications telles que l’animation fixe ou les segments de podcast. L’interface utilisateur dédiée à l’édition de l’audio généré n’a pas encore été révélée.

La démo publique de Project Music GenAI Control utilise du contenu du domaine public, mais il reste à clarifier si l’outil permettra l’importation directe de tout contenu audio comme matériel de référence, ou jusqu’à quelle longueur les clips peuvent être étendus. Adobe doit encore fournir ces détails.

Encore un projet

Ce projet se distingue des outils similaires, comme MusicLM de Google et AudioCraft en open source de Meta, qui se limitent à la génération d’audio à partir de textes, sans offrir de possibilités d’édition avancées. Selon Nicholas Bryan, scientifique senior chez Adobe Research, l’attrait de ces nouveaux outils réside dans leur capacité à offrir un contrôle approfondi sur l’audio, similaire à la manipulation de pixels pour les images.

Le développement de Project Music GenAI s’effectue en collaboration avec l’Université de Californie et l’École d’Informatique de l’Université Carnegie Mellon. Qualifié d’expérience en phase initiale par Adobe, il pourrait intégrer à terme les fonctionnalités dans les outils d’édition existants de l’entreprise, tels qu’Audition et Premiere Pro, mais cela prendra du temps. Le projet n’est pas encore accessible au public et aucune date de sortie n’a été annoncée.

Lire plus