fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

Google confronté à la polémique : Pichai réagit aux dérapages de l’IA Gemini

Gemini SS.width 1300 2

Sundar Pichai, PDG de Google, a envoyé une note interne au personnel, soulignant que les erreurs de Gemini sont « totalement inacceptables » après que l’application d’intelligence artificielle (IA) a entraîné l’entreprise dans une controverse.

Ces derniers jours, le géant de la technologie a suspendu sa fonction de création d’images sur Gemini après qu’elle a généré des résultats offensants et historiquement inexacts.

Dans certains cas, la technologie représentait des pères fondateurs des États-Unis qui n’étaient pas blancs, des soldats allemands métis de l’époque nazie, ainsi que des représentations inexactes des cofondateurs de Google. La réticence du chatbot à dire si Elon Musk tweetant des mèmes est pire qu’Adolf Hitler tuant des millions de personnes aurait été particulièrement préoccupante.

Pichai a pris la parole pour présenter une position sévère, étant donné la gravité de l’incident, en levant la main sur les résultats de la technologie d’IA.

Il n’y a pas eu d’intransigeance ou de déviation sur l’incident, au contraire, le cadre de 51 ans a promis d’aller au fond des problèmes avec Gemini, après avoir déployé des spécialistes pour concentrer leur attention sur le Large Language Model (LLM).

« Je sais que certaines de ses réponses ont offensé nos utilisateurs et fait preuve de partialité — pour être clair, c’est totalement inacceptable et nous nous sommes trompés », a déclaré Pichai. « Nos équipes ont travaillé 24 heures sur 24 pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail de prompts », a-t-il poursuivi.

Google a été la cible de nombreuses critiques, qui l’ont notamment accusé d’avoir un parti pris contre les Blancs.

Comment Google réagit-il à la controverse sur Gemini ?

L’IA est construite avec des garde-fous et des prompts censés atténuer les abus et les préjugés, mais cet exemple opportun montre les dangers d’une technologie qui émerge rapidement et pourquoi il est si important de mettre en place des garde-fous efficaces pour garantir la confiance et l’autorité.

Auparavant, OpenAI avait été critiquée pour avoir montré des images de personnes blanches occupant des postes professionnels, tandis que les personnes noires étaient représentées dans des rôles typiquement subalternes.

Pichai a indiqué que Google s’efforcerait de corriger la génération d’images de Gemini dans les semaines à venir, sans préciser le temps qu’il consacrerait à ce problème en constante évolution.

Il a déclaré que l’entreprise « travaillait sans relâche » sur cette problématique, tout en soulignant « qu’aucun Al n’est parfait, en particulier à ce stade émergent du développement de l’industrie, mais nous savons que la barre est haute pour nous et nous continuerons à travailler aussi longtemps qu’il le faudra ».

Lire plus
Intelligence Artificielle

Apple et l’IA : Une nouvelle ère d’innovation malgré les défis éthiques

file nZgsBEs5khuR5tcaxo2FOicq

Lors de la récente assemblée annuelle des actionnaires d’Apple, Tim Cook a suscité l’anticipation autour des futures avancées de l’entreprise en matière d’intelligence artificielle (IA) générative.

L’emblématique PDG a promis des innovations révolutionnaires, annonçant que la technologie d’Apple « franchira un nouveau cap » cette année, avec des révélations attendues, notamment lors de la WWDC 2024 prévue en juin.

Bien que l’IA générative d’Apple ne soit pas encore disponible publiquement, les spéculations abondent sur son intégration imminente, marquant un tournant majeur pour la société. Des rumeurs circulent sur une présentation détaillée des avancées en IA générative d’Apple, potentiellement lors de l’annonce d’iOS 18 à la WWDC 2024.

Malgré les attentes élevées, les actionnaires ont récemment voté contre la proposition d’Apple de publier un rapport sur l’IA et l’éthique, laissant le public dans l’attente des innovations sur lesquelles l’entreprise a travaillé ces derniers mois. En effet, cette initiative, portée par les AFL-CIO Equity Index Funds, souhaitait évaluer l’adhésion d’Apple aux principes éthiques dans le déploiement de ses technologies IA.

La proposition rejetée visait à clarifier les lignes directrices d’Apple concernant l’IA, en mettant en lumière les enjeux de politique sociale tels que les potentiels biais, les violations de la vie privée des clients et les risques de licenciements dus à l’automatisation. Présentée par Michael Forsythe, un employé d’un Apple Store, elle reflétait les inquiétudes du personnel face à l’expansion rapide de la compagnie dans le domaine de l’IA.

Bien que la proposition n’ait pas été adoptée, Apple a promis de discuter ultérieurement de ses projets en matière d’IA générative, possiblement lors de sa conférence annuelle des développeurs en juin.

Les nouveautés attendues de l’IA générative d’Apple

L’aspect le plus attendu des développements de l’IA générative d’Apple concerne le prochain système d’exploitation iPhone, iOS 18, que l’on pense être chargé de nouvelles fonctionnalités et technologies. Ce pivot vers l’IA suit l’annulation du projet de voiture Apple Car, redirigeant ainsi l’accent de l’entreprise vers l’IA, intensifiant ses efforts et ses ressources vers cette technologie désormais incontournable.

Depuis le début de la course à l’IA générative en début 2023, des acteurs comme OpenAI, Microsoft et Google ont présenté leurs innovations. Cependant, Apple a pris son temps pour développer sa version, alimentant les spéculations sur une IA de style « ChatGPT » made in Cupertino.

Tim Cook a évoqué à plusieurs reprises d’importantes avancées en IA qui pourraient bientôt être intégrées dans les appareils d’Apple via leurs logiciels. Il a souligné l’expansion rapide de l’IA dans l’industrie, laissant entrevoir sa future intégration dans les produits Apple, sans toutefois donner de détails précis.

De lourds développements

Les développements réalisés par les chercheurs et ingénieurs d’Apple ont fait l’objet de discussions au cours des derniers mois, indiquant que des nouveautés sont en chemin pour enrichir l’expérience utilisateur sur les appareils et logiciels de la marque.

Alors que quelque chose se prépare dans les coulisses d’Apple concernant l’IA générative, l’entreprise n’a pas encore été autorisée à divulguer ces informations. Cependant, il est attendu que les grandes révélations soient faites à mi-année, lors d’un des événements les plus importants pour Apple en 2024.

Lire plus
Intelligence Artificielle

Droits d’auteur vs IA : OpenAI réplique aux accusations du New York Times

f2cb3a47 18f4 4890 bd75 24adcfa877e7

OpenAI a demandé à un juge fédéral de rejeter certaines parties d’un procès sur les droits d’auteur intenté par le New York Times, accusant le journal d’employer des tactiques trompeuses pour générer des preuves mensongères, selon un récent rapport de Reuters.

Le procès, qui porte sur l’utilisation présumée non autorisée du matériel protégé par le droit d’auteur du Times pour entraîner les systèmes d’intelligence artificielle d’OpenAI, dont le populaire ChatGPT, a déclenché un débat animé sur les limites du droit d’auteur et de la technologie de l’intelligence artificielle.

La défense d’OpenAI, exposée dans une récente plainte déposée auprès du tribunal fédéral de Manhattan, affirme que le New York Times a enfreint les conditions d’utilisation d’OpenAI en utilisant des “prompts trompeurs” pour forcer l’intelligence artificielle à reproduire le contenu du journal.

OpenAI affirme que cette stratégie a été conçue pour créer des preuves en vue du procès intenté par le New York Times, ce qui porte atteinte à l’intégrité de la procédure judiciaire. La plainte reproche au Times de ne pas avoir respecté ses propres normes journalistiques élevées, suggérant que le journal a engagé une partie externe pour manipuler délibérément les produits d’OpenAI.

Au cœur de cette bataille juridique se trouve la question controversée de savoir si l’entraînement de l’IA sur des documents protégés par des droits d’auteur constitue une utilisation équitable, un principe qui permet une utilisation limitée de documents protégés par des droits d’auteur sans autorisation à des fins telles que les reportages, l’enseignement et la recherche. Les entreprises technologiques, dont OpenAI, soutiennent que l’utilisation par leurs systèmes d’IA de contenus protégés par le droit d’auteur constitue un usage loyal, essentiel au développement de technologies d’IA qui pourraient potentiellement façonner un secteur d’activité de plusieurs milliards de dollars. Cependant, les titulaires de droits d’auteur, dont le New York Times, soutiennent que de telles pratiques portent atteinte à leurs droits d’auteur et profitent indûment de leurs investissements considérables dans le contenu original.

Précédents judiciaires et avenir de l’IA

L’affaire contre OpenAI et son principal soutien financier, Microsoft, s’inscrit dans une tendance plus large de poursuites en matière de droits d’auteur visant les entreprises technologiques à propos des pratiques d’apprentissage de l’IA. Toutefois, les tribunaux n’ont pas encore rendu de verdict clair sur la question de l’usage loyal dans le contexte de l’IA, certaines plaintes pour infraction ayant été rejetées faute de preuves suffisantes que le contenu généré par l’IA ressemblait de près à des œuvres protégées par le droit d’auteur.

Dans son dossier, OpenAI souligne les difficultés liées à l’utilisation de ChatGPT pour reproduire systématiquement des articles protégés par le droit d’auteur, en faisant valoir que les cas cités par le Times étaient des anomalies résultant d’une manipulation importante. L’entreprise affirme également que les modèles d’IA qui acquièrent des connaissances à partir de diverses sources, y compris des documents protégés par le droit d’auteur, sont inévitables et ne peuvent être empêchés légalement, établissant un parallèle avec les pratiques journalistiques traditionnelles de rediffusion d’informations.

L’issue du procès pourrait avoir de profondes répercussions sur l’avenir du développement de l’IA et sur l’application de la législation sur le droit d’auteur à l’ère numérique. Une décision en faveur d’OpenAI pourrait consolider le statut juridique de l’utilisation équitable par l’IA de matériel protégé par le droit d’auteur, ce qui pourrait accélérer le développement des technologies de l’IA. À l’inverse, une décision favorable au New York Times pourrait imposer de nouvelles limites à la formation de l’IA, ce qui aurait un impact sur l’évolution des capacités de l’IA et sur la trajectoire de l’industrie technologique.

Lire plus
Intelligence Artificielle

Mistral AI lance Mistral Large : un LLM avancé pour des tâches complexes

Mistral Large

La populaire startup d’IA basée à Paris, Mistral AI, a annoncé sa propre alternative à OpenAI et Anthropic avec Mistral Large, son Large Language Model (LLM).

Dans un article de blog, la société décrit Mistral Large comme un « modèle de génération de texte de pointe » doté de « capacités de raisonnement de premier ordre ».

Selon Mistral AI, il peut être utilisé pour des « tâches de raisonnement multilingues complexes » telles que la génération de code, la transformation et la compréhension de la lecture.

Mistral AI a également lancé sa propre réponse à Chat GPT avec Le Chat, qui n’est actuellement disponible qu’en version bêta. Au départ, Mistral AI a mis l’accent sur son caractère open source comme principal argument de vente. Son premier modèle a été publié sous une licence open source, mais d’autres modèles ultérieurs, plus grands, ne l’ont pas été.

Présentation de Mistral Large

mistral large bar plot jpg

À l’instar d’OpenAI, Mistral AI propose Mistral Large via une API payante et une tarification basée sur l’utilisation. Mistral Large coûte actuellement 24 dollars par million de jetons de sortie et 8 dollars par million de jetons d’entrée pour interroger Mistral Large. Les tokens sont conçus pour représenter de petits morceaux de mots, généralement divisés en syllabes. Par exemple, « BlogNT » serait divisé en « blog » et « nt » et traité séparément par le modèle linguistique de l’IA.

Par ailleurs, selon le communiqué, Mistral AI prend en charge, par défaut, des fenêtres contextuelles de 32 000 fenêtres.

Mais ce n’est pas tout. Comme indiqué, Mistral AI lance Le Chat, sa propre version de ChatGPT. Elle est disponible sur chat.mistral.ai et est actuellement en version bêta.

Plus précisément, les utilisateurs peuvent choisir entre trois modèles : Mistral Large, Mistral Small et Mistral Next—un prototype qui, selon TechCrunch, est « conçu pour être bref et concis ». Pour l’instant, en tout cas, l’utilisation de Le Chat est gratuite, mais il est possible que cela change à l’avenir.

Lire plus
Intelligence Artificielle

OpenAI franchit une étape clé vers l’AGI avec le modèle vidéo Sora

openai q star ai agi

Cet article explore une avancée significative réalisée par OpenAI dans le développement de l’intelligence artificielle générale (AGI), centrée sur les modèles de génération vidéo, notamment un Large Language Model nommé Sora.

Ces modèles, capables de générer des vidéos haute fidélité et de démontrer une compréhension du monde physique, de la physique et de l’espace tridimensionnel, représentent une direction prometteuse vers la création de simulateurs polyvalents du monde physique. Cette percée est considérée comme un pas important vers l’objectif ultime de l’AGI : développer des machines capables de penser et d’apprendre comme les êtres humains.

Sora se distingue par sa capacité à comprendre et à reproduire la physique et la nature tridimensionnelle du monde réel, marquant une étape significative sur le chemin de l’AGI. Pour atteindre un niveau d’AGI, il est crucial que les modèles d’IA puissent non seulement générer des vidéos qui semblent réelles, mais aussi se comporter conformément aux lois de la physique.

La compréhension du monde qui nous entoure est cruciale pour les systèmes d’IA. Ils ont besoin de modèles du monde capables de prédire et d’interpréter la physique et la dynamique des environnements réels. Ces modèles sont les éléments de base qui permettent à l’IA de traiter les données de l’environnement et d’interagir avec lui de manière significative. Le développement de tels modèles est un aspect central de la recherche en IA et est essentiel pour la progression vers l’AGI.

Qu’est-ce que l’AGI ?

Le cheminement vers l’AGI consiste essentiellement à passer à l’échelle supérieure. En augmentant la taille et la complexité de modèles tels que Sora, les capacités d’IA sont améliorées et de nouvelles propriétés apparaissent. Il ne s’agit pas seulement d’agrandir les choses, mais aussi de rendre l’IA plus intelligente. À mesure que ces modèles se développent, ils parviennent mieux à imiter les interactions nuancées qui se produisent dans notre monde.

Cependant, ce type de progrès nécessite beaucoup de ressources. La progression vers l’AGI dépend d’une augmentation significative de la puissance de calcul.

Pour atteindre les sommets de l’AGI, nous devrons probablement augmenter considérablement la taille des modèles et des systèmes, ce qui signifie plus de puissance de traitement, plus de données et plus de ressources.

De potentiels avantages

Les potentiels avantages de la réalisation de l’AGI sont immenses, offrant la possibilité de révolutionner divers secteurs tels que la santé, les transports et la réponse aux urgences. Néanmoins, cette technologie de pointe soulève également une série de controverses, notamment des débats au sein de la communauté de recherche en IA sur la faisabilité de l’AGI et les conséquences d’une mise à l’échelle supplémentaire.

L’article met en lumière les spéculations concernant les progrès internes d’OpenAI vers l’AGI et le potentiel impact d’une mise à l’échelle supplémentaire sur ces avancées. Tandis que la quête de l’AGI continue de susciter un intérêt mondial, les travaux récents d’OpenAI avec des modèles de génération vidéo comme Sora représentent un point critique dans la poursuite de l’intelligence artificielle générale, ouvrant de nouvelles possibilités et défis.

Lire plus
Intelligence Artificielle

Le lancement du Ai Pin de Humane reporté à mi-avril pour peaufiner l’innovation

Humane AI Pin

La startup de Bay Area spécialisée dans l’IA, Humane, a annoncé un léger retard dans la livraison de son très attendu Ai Pin, repoussant la sortie de mars à mi-avril.

Cette information a été communiquée par Sam Sheffer, responsable des médias de la société, dans une récente vidéo. Selon Sam Sheffer, les premières unités devraient quitter l’usine à la fin du mois de mars, les clients bénéficiant d’un « accès prioritaire » recevront leur appareil à la mi-avril et les autres précommandes suivront peu de temps après.

Le Ai Pin, le premier produit de Humane, a suscité beaucoup d’intérêt dans la communauté technologique, en partie grâce à l’expérience des fondateurs chez Apple et à une série de teasers intrigants avant le lancement. Dévoilé en novembre dernier à San Francisco, l’Ai Pin, d’une valeur de 699 dollars, représente une aventure pionnière dans l’utilisation de l’IA générative dans le matériel grand public, se positionnant comme une nouvelle alternative au facteur de forme traditionnel des smartphones.

Alors que l’industrie technologique s’oriente de plus en plus vers l’intégration de l’IA générative dans les appareils grand public, le Ai Pin de Humane devrait être l’un des premiers à explorer ce nouveau territoire. Cette initiative s’inscrit dans la tendance plus large des « smartphones à intelligence artificielle » et autres appareils grand public à intelligence artificielle, tels que ceux présentés par la startup Rabbit au CES le mois dernier.

Selon TechCrunch, Humane a levé environ 230 millions de dollars à ce jour, dont une série C de 100 millions de dollars l’année dernière, ce qui souligne l’importance des enjeux du lancement du Ai Pin. La décision de l’entreprise de retarder la sortie du produit pour s’assurer qu’il est prêt à être utilisé par les consommateurs reflète une approche prudente visant à répondre aux attentes élevées suscitées par ce dispositif innovant.

Malgré la récente réduction de 10 % des effectifs annoncée au CES, qui a suscité des interrogations étant donné le financement important de l’entreprise, Humane reste déterminée à fournir un produit qui réponde aux besoins et aux attentes de ses premiers utilisateurs.

Lire plus
Intelligence Artificielle

Partenariat stratégique entre Microsoft et Mistral AI : un tournant pour l’IA sur Azure

Mistral featured image

Microsoft a annoncé aujourd’hui un partenariat stratégique avec la startup française Mistral AI. Cette collaboration vise à aider Mistral à étendre la portée de ses modèles d’IA et a acquis une participation minoritaire dans la société pour consolider le partenariat.

Cet accord fait de Mistral la deuxième entreprise à proposer des modèles linguistiques commerciaux sur la plateforme Azure de Microsoft, après OpenAI.

Outre Microsoft, d’autres grandes entreprises technologiques comme Google et Amazon investissent massivement dans l’IA générative. Les analystes estiment que l’IA générative a le potentiel de révolutionner diverses industries, de la santé à la finance en passant par le divertissement et la création de contenu.

Principaux points du partenariat :

  • Microsoft fournira à Mistral AI l’accès à l’infrastructure d’IA de pointe d’Azure pour l’entraînement et le déploiement de ses modèles Large Language Model (LLM) de nouvelle génération.
  • Les modèles haut de gamme de Mistral AI seront disponibles depuis Azure AI Studio et Azure Machine Learning Models as a Service (MaaS), offrant aux clients une sélection variée de modèles open source et commerciaux.
  • Collaboration sur la formation de modèles d’IA personnalisés pour les besoins spécifiques des clients, y compris des collaborations dans le secteur public européen.

Les détails financiers de l’accord n’ont pas encore été divulgués. Fondée en 2023, Mistral a été évaluée à 2 milliards d’euros lors d’un tour de table de 400 millions d’euros en décembre. Microsoft a investi environ 13 milliards de dollars dans l’entreprise américaine OpenAI, spécialisée dans l’IA.

Selon le Financial Times, ce partenariat comprend une participation minoritaire de Microsoft dans cette entreprise de l’IA âgée de 10 mois, un peu plus d’un an après l’investissement de Microsoft de plus de 10 milliards de dollars dans son partenariat avec OpenAI.

Qu’est-ce que Mistral ?

Fondée par Arthur Mensch (anciennement DeepMind), Timothée Lacroix (anciennement Meta) et Guillaume Lample (anciennement Meta) en avril 2023, Mistral AI est une entreprise française spécialisée dans le développement de Large Language Model.

Le partenariat de Microsoft avec Mistral est un développement important dans le paysage de l’IA. Il met en évidence la diversité et la concurrence croissantes au sein de l’IA générative. Bien que les implications à long terme soient inconnues, il contribue à l’évolution rapide du monde de l’intelligence artificielle.

Mistral annonce aujourd’hui un nouveau modèle d’IA, baptisé Mistral Large, conçu pour rivaliser plus étroitement avec le modèle GPT-4 d’OpenAI. Contrairement à certains des précédents modèles de Mistral, celui-ci ne sera pas open source. « Mistral Large obtient d’excellents résultats sur les benchmarks habituellement utilisés, le classant comme le deuxième modèle mondial disponible via une API (après GPT-4) », déclare l’équipe de Mistral AI.

Mistral Large est accessible sur l’infrastructure propre de Mistral, hébergée en Europe, ou via Azure AI Studio et Azure Machine Learning. Mistral Small, offrant une latence améliorée par rapport au modèle 8x7B de Mistral, est également disponible dès aujourd’hui. Mistral lance aussi un nouveau chatbot conversationnel, Le Chat, basé sur divers modèles de Mistral AI.

Lire plus
Intelligence Artificielle

Le monde n’est pas prêt pour ChatGPT-5, déclare un employé de OpenAI

raw 5

OpenAI, un important laboratoire de recherche en intelligence artificielle responsable de la création des modèles d’IA ChatGPT, a suscité des inquiétudes quant à l’état de préparation de la société à des systèmes d’IA avancés, tels que l’hypothétique ChatGPT-5. La déclaration, faite par un employé d’OpenAI, suggère que l’organisation a l’intention de ne pas partager largement certaines technologies d’IA, dans l’espoir de susciter une réponse sociale pour se préparer à des systèmes plus avancés.

Au cours des 18 derniers mois, l’intelligence artificielle (IA) a repoussé les limites de ce que les ordinateurs peuvent faire. OpenAI, l’entreprise responsable de l’explosion des applications d’IA grâce à la sortie de ChatGPT 3 l’année dernière, a récemment pris une mesure qui a suscité un vif débat sur la manière dont la société devrait gérer les progrès rapides des technologies d’IA.

Elle a suggéré de ralentir la diffusion de certaines capacités d’IA, telles que celles que l’on pourrait trouver dans une future version de ses modèles d’IA, afin de permettre à la société de rattraper son retard et de se préparer à ce qui se profile à l’horizon.

Cette approche prudente a divisé l’opinion publique. D’un côté, il y a l’enthousiasme suscité par le potentiel de l’IA à transformer nos vies, comme le montre le dernier modèle de conversion de texte en vidéo d’OpenAI. D’un autre côté, il y a un sentiment d’inquiétude. Pour les employés, les progrès de l’IA soulèvent d’importantes questions sur la sécurité de l’emploi et les implications éthiques de la prise en charge par les machines de rôles traditionnellement occupés par des humains.

L’émergence de contenus générés par l’IA pose également des dilemmes moraux auxquels la société doit faire face. Ces préoccupations ne sont pas seulement hypothétiques ; il s’agit de questions urgentes qui doivent être abordées à mesure que l’IA continue d’évoluer.

ChatGPT-5 sommes-nous prêts ?

Les progrès réalisés par OpenAI à huis clos font l’objet de nombreuses spéculations. Étant donné les améliorations constantes enregistrées, certains pensent que l’organisation est sur le point de réaliser une percée majeure, peut-être dans le domaine de l’intelligence artificielle générale (AGI). Toutefois, les communications de OpenAI ont été quelque peu ambiguës, ce qui laisse place à l’interprétation et alimente les spéculations sur ses capacités.

Le développement rapide des technologies de l’IA et le lancement imminent du ChatGPT-5 ont conduit certains experts à suggérer qu’une diffusion progressive de modèles d’IA mis à jour pourrait être la meilleure façon d’intégrer ces systèmes dans la société. Cette approche pourrait atténuer le choc provoqué par l’introduction simultanée de modèles entièrement nouveaux et avancés. Malgré les potentiels avantages de l’IA, l’opinion publique est souvent sceptique ou carrément négative. En témoignent les réactions hostiles aux véhicules autonomes sur les réseaux sociaux, ainsi que les appels à des réglementations strictes, voire à l’interdiction pure et simple de l’IA.

L’impact sociétal de l’IA est une question complexe qui va au-delà de la technologie. Certains craignent que l’IA n’aggrave les troubles sociaux et n’accroisse les inégalités. Ces préoccupations ont incité les décideurs politiques à prendre des mesures proactives pour veiller à ce que les avantages de l’IA soient répartis de manière juste et équitable.

Une autre préoccupation pressante est la possibilité d’une « course vers le bas » de l’IA. Selon ce scénario, les entreprises rivalisent pour mettre sur le marché de puissants modèles d’IA sans se demander si la société est prête à les accueillir. Une telle précipitation pourrait conduire à des systèmes d’IA qui dépassent les cadres éthiques et réglementaires nécessaires pour les gérer de manière sûre et responsable.

Inquiétudes liées à la diffusion de GPT-5

L’intégration de technologies d’IA avancées dans divers secteurs peut conduire à une efficacité accrue et à des économies pour les entreprises, mais elle pose également un risque important de déplacement d’emplois. À mesure que les systèmes d’IA tels que GPT-5 deviennent capables d’effectuer des tâches allant du service à la clientèle à la création de contenu et même à l’analyse technique, les rôles traditionnellement occupés par des humains dans ces domaines peuvent être réduits ou éliminés.

Cette évolution peut avoir des répercussions économiques et sociales considérables, notamment une augmentation du taux de chômage, une réduction des dépenses de consommation et une aggravation des inégalités économiques. Le tissu social pourrait être mis à rude épreuve, car les communautés qui dépendent des industries les plus touchées par l’IA sont confrontées à des ralentissements économiques, ce qui pourrait entraîner des troubles sociaux et des difficultés de réintégration de la main-d’œuvre.

Implications éthiques et morales

La capacité de l’IA à générer des contenus réalistes pose d’importants problèmes éthiques. Par exemple, la création de « deepfakes » peut compromettre l’authenticité des informations, en rendant difficile la distinction entre un contenu réel et un contenu artificiel.

Cette capacité pourrait être utilisée à mauvais escient pour diffuser des informations erronées, manipuler des élections ou mener des activités frauduleuses, ce qui constituerait une menace pour la démocratie, la vie privée et la confiance du public. Le dilemme éthique s’étend à la responsabilité des développeurs et des plateformes dans la prévention des abus tout en garantissant la liberté d’expression et d’innovation.

Sécurité et contrôle

À mesure que les systèmes d’IA deviennent plus complexes, il devient de plus en plus difficile de garantir leur alignement sur les valeurs humaines et les principes éthiques. Il existe un risque que l’IA développe des comportements nuisibles ou involontaires non prévus par ses créateurs, potentiellement en raison de la complexité de ses processus de prise de décision ou des propriétés émergentes de ses algorithmes d’apprentissage.

Cela soulève des inquiétudes quant aux mesures de sécurité mises en place pour prévenir de tels résultats et à la capacité de contrôler ou de corriger les systèmes d’IA une fois qu’ils sont opérationnels.

Progrès technologique et état de préparation de la société

Le rythme auquel les technologies de l’IA progressent pourrait dépasser la capacité de la société à comprendre, réguler et intégrer ces systèmes de manière efficace. Ce décalage peut entraîner des perturbations, car les cadres juridiques, éthiques et réglementaires existants risquent d’être inadaptés pour relever les défis posés par l’IA avancée.

L’introduction rapide des technologies d’IA pourrait entraîner des problèmes sociétaux, notamment des violations de la vie privée, des dilemmes éthiques et la nécessité de nouvelles lois et réglementations, qu’il pourrait être difficile d’élaborer et de mettre en œuvre en temps voulu.

Transparence et responsabilité

Le développement de systèmes d’IA tels que GPT-5 implique des décisions qui peuvent avoir de vastes implications. La transparence des processus utilisés pour former ces modèles, les sources de données et les critères de prise de décision suscitent des inquiétudes. La responsabilité des organisations qui développent des technologies d’IA est cruciale, en particulier dans les cas où les actions de l’IA conduisent à des préjudices ou à des préjugés.

Il est essentiel de veiller à ce que ces systèmes soient développés et déployés de manière transparente, avec des lignes de responsabilité claires, afin de maintenir la confiance du public et de garantir une utilisation éthique.

Une course vers le bas

La nature concurrentielle de l’industrie de l’IA pourrait pousser les entreprises à donner la priorité au progrès technologique plutôt qu’à la sécurité, à l’éthique et à l’impact sociétal, ce qui conduirait à une « course vers le bas ». Cette concurrence peut entraîner la mise sur le marché de technologies d’IA puissantes sans garanties suffisantes, sans surveillance ni prise en compte des effets à long terme, ce qui accroît le risque de conséquences négatives. La pression exercée pour rester en tête peut compromettre l’engagement en faveur de normes éthiques et d’une innovation responsable.

IA et inégalités

Les technologies avancées d’IA peuvent profiter de manière significative à ceux qui y ont accès, ce qui risque d’exacerber les inégalités existantes. La « fracture numérique » entre les individus et les pays qui ont accès à l’IA avancée et ceux qui n’y ont pas accès pourrait se creuser, entraînant des disparités en matière d’opportunités économiques, d’éducation, de soins de santé, etc. Cette fracture n’affecte pas seulement la prospérité individuelle et nationale, mais soulève également des questions éthiques sur la répartition équitable des avantages de l’IA et la gestion mondiale de ses impacts.

Pour répondre à ces préoccupations, les gouvernements, l’industrie, le monde universitaire et la société civile doivent coordonner leurs efforts afin d’élaborer des stratégies globales comprenant des lignes directrices éthiques, des cadres réglementaires solides, l’engagement du public et la coopération internationale. Il est essentiel de veiller à ce que le développement de l’IA soit guidé par des principes d’équité, de sécurité et de transparence afin d’exploiter ses avantages potentiels tout en atténuant les risques et les incidences négatives.

Les récentes déclarations de OpenAI ont mis en lumière les défis multiples posés par l’évolution rapide de l’IA.

Lire plus
Intelligence Artificielle

Reddit : de la controverse API à un accord d’IA de 60 millions de dollars

reddit logo

Pendant des années, Reddit a fonctionné comme son célèbre slogan l’indique : « La première page d’Internet ». Cependant, l’année dernière, tout a changé lorsque la direction du site a annoncé qu’elle passait à un modèle d’API payant, ce qui a entraîné la disparition de plus de 6 000 subreddits en signe de protestation et la fermeture de nombreuses applications tierces. Aujourd’hui, d’autres changements sont en vue, qui pourraient provoquer encore plus de réactions négatives à l’encontre du site populaire.

Après les changements apportés par le site l’année dernière, lorsqu’il a commencé à faire payer son API, des rapports ont commencé à faire surface, indiquant qu’il prévoyait d’empêcher les sites de récupérer ses données. Cela a bien sûr inquiété ceux qui cherchaient normalement du contenu sur le site en ajoutant « reddit » à leurs recherches sur Google. Alors que le scrapping de données par des chatbots d’intelligence artificielle a été critiqué par des personnes telles qu’Elon Musk, de X, Reddit n’a pas vraiment réjoui ses utilisateurs, car cela a eu une incidence sur l’expérience utilisateur.

Aujourd’hui, comme le rapporte Bloomberg, Reddit vend l’accès à son énorme contenu généré par les utilisateurs à une grande entreprise d’IA (qui n’est pas nommée). L’accord vaut 60 millions de dollars par an en prévision de l’introduction en bourse très attendue de Reddit, qui, selon les rumeurs, devrait avoir lieu dès le mois prochain.

Le fait de permettre à une société d’IA d’accéder aux rouages du contenu pourrait être considéré comme un moyen d’attirer davantage d’investisseurs avant que la plateforme n’entre dans le domaine du commerce public, comme rapporté le mois dernier. L’initié de Bloomberg a déclaré que « la société basée à San Francisco a dit aux investisseurs potentiels de son introduction en bourse qu’elle avait signé l’accord, d’une valeur d’environ 60 millions de dollars sur une base annualisée, plus tôt cette année ».

Cette démarche illustre l’importance que revêtent les licences de contenu pour les entreprises d’IA qui utilisent le matériel source pour alimenter les algorithmes qui créent leurs résultats.

À la suite de plusieurs débats très médiatisés sur la validité des sources des résultats de l’IA, de plus en plus d’entreprises cherchent à établir des partenariats officiels avec des entreprises enregistrées auxquelles les algorithmes d’IA espèrent apporter leur expertise.

Qu’en est-il de l’introduction en bourse de Reddit ?

Steve Huffman, le PDG de Reddit, a évoqué la possibilité d’une introduction en bourse à la fin de l’année dernière et a mentionné que les personnes qui tentent d’utiliser la plateforme pour lancer des entreprises pourraient être au cœur du besoin d’expansion. « Les gens essaient de créer des entreprises sur Reddit, mais la plateforme n’a pas été conçue pour cela », a déclaré Huffman à Fast Company lors d’une interview l’année dernière, « Je pense donc que le simple fait d’essayer d’étoffer cet écosystème sera très puissant ».

Selon Bloomberg, 16 banques sont impliquées dans l’introduction en bourse de Reddit, dirigée par Morgan Stanley et Goldman Sachs Group Inc. et comprenant également « JPMorgan Chase & Co, Bank of America Corp et Citigroup Inc ». Une introduction en bourse est le processus d’offre d’actions d’une société privée au public après que la société a satisfait aux exigences de la Securities and Exchange Commission (SEC). C’est de là que vient l’expression « faire appel public à l’épargne ».

À ce stade du cycle de vie d’une entreprise, les premiers investisseurs et actionnaires conviennent qu’ils ont besoin de plus d’argent pour se développer. Ils s’appuient alors sur l’expertise des institutions bancaires pour faire entrer le prix des actions d’une entreprise dans le domaine public et dans les mers concurrentielles du marché boursier.

Cela permet à ces entreprises d’être mieux exposées et d’obtenir des prêts et des investissements, mais cela s’accompagne également d’une plus grande transparence dans la comptabilité qui doit être divulguée publiquement.

Lire plus
Intelligence Artificielle

Découvrez AnyGPT : le futur LLM multimodal de l’IA open source

b362d1eb f303 441f be67 fe2e2ef78376

AnyGPT est un Large Language Model (LLM) multimodal innovant capable de comprendre et de générer du contenu à partir de différents types de données, notamment la parole, le texte, les images et la musique. Ce modèle est conçu pour s’adapter à différentes modalités sans modification significative de son architecture ou de ses méthodes d’apprentissage.

Le LLM multimodal open source AnyGPT peut être entraîné de manière stable sans aucune modification de l’architecture ou des paradigmes d’entraînement des LLM actuels. Au lieu de cela, il repose exclusivement sur le prétraitement au niveau des données, ce qui facilite l’intégration transparente de nouvelles modalités dans les LLM, à l’instar de l’incorporation de nouveaux langages. Nous construisons un ensemble de données multimodales centrées sur le texte pour le pré-entraînement à l’alignement multimodal.

Il utilise la modélisation de séquences discrètes pour traiter et comprendre diverses informations de manière structurée. Cet outil polyvalent attire l’attention des développeurs et des chercheurs, car il offre un aperçu d’un avenir où l’IA peut s’engager de manière transparente avec nous à travers de multiples sens. L’approche unique d’AnyGPT réside dans sa technique de modélisation de séquences discrètes, qui décompose des informations complexes en éléments plus petits et plus faciles à gérer, appelés « tokens ». Cela permet au modèle de traiter un large éventail de types de données avec une précision impressionnante. Qu’il s’agisse d’analyser une image détaillée ou de composer un morceau de musique, AnyGPT peut gérer la tâche avec facilité.

model scaled

Le développement d’AnyGPT a été une entreprise considérable, impliquant la création d’un ensemble de données diversifié qui comprend différentes formes de discours, de texte, d’images et de musique. C’est cette formation approfondie qui donne à AnyGPT sa remarquable capacité à comprendre les nuances des différents types de données et la manière dont elles peuvent être combinées ou transformées. Le résultat est une IA qui peut interagir avec les humains de manière plus naturelle et intuitive.

Un aspect clé du développement d’AnyGPT est la création de son ensemble de données, qui ne consiste pas seulement à recueillir du contenu multimodal, mais aussi à enrichir les interactions textuelles avec des dialogues riches et multimodaux. Cela signifie qu’AnyGPT n’est pas seulement un interprète, mais aussi un créateur, capable de générer des résultats qui peuvent stimuler nos sens de différentes manières.

Caractéristiques d’AnyGPT

L’une des caractéristiques les plus intéressantes d’AnyGPT est sa technologie de clonage de la voix. Celle-ci permet au modèle de reproduire le discours de n’importe quelle personne, offrant ainsi de nouvelles possibilités de communication personnalisée. Mais, les talents d’AnyGPT ne s’arrêtent pas là ; il peut également écrire de la poésie, traduire des émotions en musique et créer de l’art visuel, démontrant ainsi son potentiel en tant qu’outil puissant d’expression créative.

data construction scaled

Capacités multimodales unifiées 

  • Peut comprendre et travailler avec différents types d’informations, y compris la parole, le texte, les images et la musique.
  • Il démontre sa capacité à traiter différentes modalités de données sans nécessiter de modifications significatives de son architecture ou de sa méthodologie de formation.

Modélisation de séquences discrètes 

  • Emploie une méthode de décomposition de l’information en séquences plus petites ou en jetons, ce qui lui permet de traiter et de comprendre divers types de données.
  • Il utilise la tokenisation discrète pour la parole, le texte, les images et la musique, ce qui facilite son intégration multimodale.

Génération automatique de contenu 

  • Capable de générer du contenu couvrant plusieurs types de données, y compris l’art visuel, la musique et les sorties textuelles, grâce à une approche automatique, étape par étape.
  • Les exemples incluent le dessin d’images, la création de musique, l’écriture de poèmes et l’élaboration de lignes de personnages dramatiques, mettant ainsi en évidence sa polyvalence.

Démonstrations d’applications pratiques 

  • Fournit des exemples tels que la conversion de la sensation de la musique en images, la traduction des émotions des images en musique et la génération de contenu basé sur la voix.
  • Démonstration de la capacité à cloner la parole pour la création de contenu, comme la rédaction d’un poème avec la voix clonée.

Traitement efficace des données 

  • L’architecture est conçue pour être simple et efficace, en maintenant l’efficacité du traitement des données d’entrée et de la génération des données de sortie sans nécessiter de préparation extensive des données avant ou après leur traitement.

Un riche ensemble de données de formation

  • Il utilise un ensemble de données complet contenant des informations mixtes (parole, texte, images, musique) pour former le modèle au traitement des entrées multimodales
  • L’ensemble de données comprend une grande variété d’exemples pour s’assurer qu’Any-GPT peut gérer et comprendre les nuances de différents types de données.

Processus de création d’un ensemble de données en deux étapes 

  • Il s’agit de générer des dialogues multimodaux à partir de conversations textuelles et d’incorporer diverses modalités telles que des images et des sons pour enrichir l’ensemble de données de formation.
  • L’accent est mis sur la création d’un contenu multimodal riche, améliorant la capacité du modèle à comprendre et à générer des réponses multimodales complexes.

Pour ceux qui souhaitent approfondir le fonctionnement de cette IA, le code d’AnyGPT est disponible en open source. Cela signifie que toute personne intéressée par l’IA peut accéder au modèle, le modifier et éventuellement améliorer sa fonctionnalité. C’est une invitation à la communauté à participer au développement continu de cette technologie de pointe.

AnyGPT est plus qu’un simple modèle d’IA ; c’est une plateforme sophistiquée qui élargit les possibilités d’interaction multimodale avec l’IA. Sa capacité à s’adapter à différents types de données, sa nature open source et sa communautée en font un atout inestimable pour quiconque s’intéresse à l’avenir de l’IA. AnyGPT représente une avancée significative dans le domaine, offrant une plateforme polyvalente à ceux qui souhaitent repousser les limites de ce que la technologie peut faire.

Lire plus
Intelligence Artificielle

Des hackers nord-coréens exploitent ChatGPT pour le phishing sur LinkedIn

b3134ada 19a7 4253 aa99 50527f840a27

Selon un rapport, des pirates nord-coréens utiliseraient ChatGPT pour inciter les utilisateurs de LinkedIn et d’autres réseaux sociaux à fournir des informations et des données sensibles.

La société mère de ChatGPT, OpenAI, et l’investisseur Microsoft ont révélé la semaine dernière qu’ils avaient « perturbé 5 acteurs affiliés à des États qui cherchaient à utiliser des services d’IA pour soutenir des activités cybernétiques malveillantes ».

Grâce à Microsoft Threat Intelligence, les comptes associés à deux acteurs affiliés à la Chine et connus sous le nom de Charcoal Typhoon et Salmon Typhoon, à l’acteur affilié à l’Iran et connu sous le nom de Crimson Sandstorm, à l’acteur affilié à la Corée du Nord et connu sous le nom d’Emerald Sleet, et à l’acteur affilié à la Russie et connu sous le nom de Forest Blizzard, ont été identifiés et supprimés.

Microsoft, qui possède LinkedIn, a noté qu’Emerald Sleet, également connu sous le nom de Kimsuky, s’est fait passer pour « des institutions académiques et des ONG réputées afin d’inciter les victimes à répondre avec des idées et des commentaires d’experts sur les politiques étrangères liées à la Corée du Nord ».

Dans son article de blog, elle indique qu’elle n’a pas trouvé de preuves que ces acteurs ont mené des cyberattaques importantes, mais que la plupart de ses découvertes sont « représentatives d’un adversaire explorant les cas d’utilisation d’une nouvelle technologie ».

OpenAI a indiqué que le compte Emerald Sleet de la Corée du Nord a utilisé ses services « pour identifier des experts et des organisations axés sur les questions de défense dans la région Asie-Pacifique, comprendre les vulnérabilités accessibles au public, aider à effectuer des tâches de script de base et rédiger des contenus susceptibles d’être utilisés dans des campagnes de phishing ».

Featured image jpg

Comment les pirates nord-coréens ciblent LinkedIn ?

Selon Yonhap, l’agence de renseignement de l’État sud-coréen a détecté des signes indiquant que la Corée du Nord essayait d’intégrer l’IA générative dans ses attaques de piratage et autres cyberactivités illicites.

« Récemment, il a été confirmé que les pirates nord-coréens utilisent l’IA générative pour rechercher des cibles de piratage et des technologies nécessaires au piratage », a déclaré à la presse un haut responsable du Service national de renseignement (NIS). Le NIS a déclaré avoir constaté une moyenne quotidienne de 1,62 million de tentatives de piratage dans le secteur public sud-coréen l’année dernière, soit une augmentation de 36 % par rapport à l’année précédente.

Le NIS a ajouté qu’il est également soupçonné d’utiliser ses travailleurs informatiques à l’étranger pour trouver des emplois dans des entreprises informatiques afin d’implanter des codes malveillants dans les programmes logiciels qu’ils ont développés dans les entreprises pour voler des crypto-monnaies.

Erin Plante, vice-président des enquêtes de Chainalysis, une société de cybersécurité spécialisée dans les cryptomonnaies, a déclaré au Financial Times que « des groupes de pirates nord-coréens ont été vus en train de créer des profils de recruteurs d’apparence crédible sur des sites de réseautage professionnel tels que LinkedIn ».

« L’IA générative aide à discuter, à envoyer des messages, à créer des images et de nouvelles identités — toutes les choses dont vous avez besoin pour établir une relation étroite avec votre cible », a-t-elle ajouté.

GPT-4 peut-il aider les hackers ?

OpenAI a déclaré que ses conclusions s’alignaient sur les évaluations externes, indiquant que les capacités de GPT-4 à aider les « tâches malveillantes de cybersécurité » sont limitées à ce qui peut déjà être accompli à l’aide d’outils accessibles au public qui n’utilisent pas l’IA.

L’année dernière, il a été rapporté que des pirates soutenus par la Corée du Nord avaient ciblé des clients de crypto-monnaies en infiltrant les systèmes de la société américaine de logiciels d’entreprise JumpCloud.

Lire plus
Intelligence Artificielle

Innovation publicitaire chez Google : l’IA Gemini pour transformer la création d’annonces

ed562e5d 221d 4c9d 8019 2919bf6e5e7c

Google a annoncé jeudi son intention d’améliorer ses produits publicitaires en y intégrant ses modèles d’intelligence artificielle Gemini, dans le but d’offrir des capacités d’IA avancées à un plus grand nombre de ses clients.

Selon un rapport de Reuters, cette initiative s’inscrit dans le cadre d’une stratégie plus large de Google visant à intégrer la technologie d’intelligence artificielle générative, capable de produire du texte et des images réalistes, dans un plus grand nombre de ses services. Après avoir annoncé que Gemini serait appliqué aux outils d’entreprise de Google, le géant technologique a révélé que le modèle d’IA viendrait également renforcer Performance Max, un produit conçu pour optimiser le placement des annonces sur les plateformes de Google, notamment la messagerie électronique, la recherche et YouTube.

Afin de rendre la publicité plus efficace et plus créative, Google a introduit des outils d’IA dans Performance Max en novembre dernier, permettant la génération automatique d’images et de textes pour les annonces.

Avec l’intégration de Gemini, les annonceurs auront désormais la possibilité de créer des annonces plus attrayantes avec des titres plus longs pouvant aller jusqu’à 90 caractères, ce qui représente une augmentation significative par rapport à la limite précédente de 30 caractères.

En outre, l’outil de génération d’images de Google sera amélioré avec son modèle d’IA, Imagen 2, ce qui permettra aux marques de créer des images mettant en scène des personnes. Cette évolution ouvre de nouvelles possibilités pour les annonceurs, par exemple pour un fleuriste qui génère rapidement des images d’une personne en train d’arranger des fleurs. Brendon Kraham, vice-président de Google chargé des solutions publicitaires mondiales pour la recherche et le commerce, a souligné le potentiel de ces outils pour produire du contenu en quelques secondes seulement.

Éviter les « deepfakes »

Pour répondre aux inquiétudes concernant l’utilisation abusive de l’IA générative pour créer des contenus trompeurs ou des « deepfakes », Google a mis en place des mesures de sécurité. Celles-ci comprennent des restrictions concernant la génération d’images de personnes connues, de célébrités, de personnalités publiques ou de contenus représentant la violence ou des activités illégales.

En outre, les photos générées par l’IA seront marquées d’un filigrane pour indiquer clairement qu’il s’agit d’images synthétiques, afin de garantir la transparence et de prévenir toute utilisation abusive potentielle.

Lire plus
Intelligence Artificielle

Google et Reddit : un partenariat IA pour révolutionner la recherche en ligne

file QL9VhXdNQ4JRznoeVgw47Et0

Dans une ère où l’intelligence artificielle (IA) redéfinit continuellement notre interaction avec le contenu en ligne, Google et Reddit ouvrent un nouveau chapitre de leur collaboration.

Cette initiative vise à intégrer les capacités avancées d’IA de Vertex AI dans la plateforme de Reddit, avec l’objectif d’améliorer divers aspects de Reddit, notamment sa fonction de recherche.

Google a observé une tendance croissante des utilisateurs se tournant vers ses services pour découvrir du contenu de valeur sur Reddit, allant des recommandations de produits aux conseils de voyage. L’objectif de cette collaboration est d’enrichir l’affichage des informations de Reddit, rendant les produits Google plus conviviaux et facilitant l’engagement au sein des communautés de Reddit.

À travers ce partenariat, Google obtient un accès à l’API de données de Reddit, lui permettant de récupérer du contenu structuré en temps réel de la vaste plateforme de Reddit. Cet accès améliore la capacité de Google à comprendre, afficher et utiliser le contenu de Reddit efficacement, sans modifier ses pratiques existantes concernant le contenu disponible publiquement.

Reddit souligne que cette collaboration permet un accès programmatique à une large gamme de posts publics et de commentaires sur Reddit à travers différents produits Google. Cet accès structuré simplifie l’intégration du contenu, permettant à Google d’améliorer ses produits et services, avançant ainsi la mission de Reddit de favoriser la communauté, l’appartenance et l’empowerment à l’échelle mondiale.

Maintien des termes et conditions

Reddit assure que les termes et conditions régissant l’utilisation de son API de données restent inchangés. L’utilisation commerciale du contenu accessible via l’API nécessite l’approbation de Reddit, tandis que l’utilisation non commerciale reste gratuite sous certaines conditions. Cela réaffirme l’engagement de Reddit à maintenir la transparence et l’équité dans ses partenariats.

Rajan Patel, Vice-président de l’expérience de recherche Google, a commenté le partenariat :

Nous attendons avec impatience les possibilités qui s’ouvrent à nous avec ce partenariat et nous nous engageons à simplifier l’accès au contenu exceptionnellement utile de Reddit, tant sur leur plateforme que sur la nôtre, garantissant ainsi des avantages accrus pour les utilisateurs.

Annonçant la collaboration, Reddit a posté :

Au cours des 18 dernières années, Reddit est devenu l’un des dépôts les plus vastes d’interactions humaines authentiques et en constante évolution et de récits sur Internet. Conformément à notre conviction que chacun mérite d’accéder aux connaissances et aux rencontres qu’ils recherchent en ligne, nous avons étendu notre collaboration avec Google pour rationaliser l’exploration et l’accessibilité des communautés diverses et des discussions recherchées sur Reddit.

Cette alliance entre Google et Reddit illustre parfaitement comment la technologie IA peut améliorer notre façon de découvrir et d’interagir avec le contenu en ligne, en favorisant une expérience utilisateur plus riche et plus connectée.

Le montant du partenariat n’est pas encore connu, mais il serait de l’ordre de 60 millions de dollars par an.

Lire plus
Intelligence Artificielle

Nvidia et Huawei : la nouvelle course à la suprématie des puces d’IA

file qWAXBUWwKdAktmJcAf1yBAoU

L’ascension de l’intelligence artificielle (IA) dans notre quotidien est presque magique, évoquant des comparaisons avec des œuvres classiques. Au cœur de cette magie se trouvent les puces d’IA, éléments vitaux de l’infrastructure qui alimente les outils d’IA dans nos appareils, tels que la série Pixel 8 de Google et la série Galaxy S24 de Samsung. Actuellement, Nvidia est en tête du marché de l’IA, mais la concurrence se fait de plus en plus sentir.

Selon Reuters, Nvidia a récemment identifié Huawei comme un concurrent majeur dans la production de puces d’IA, une première pour l’entreprise.

Cette révélation intervient peu après que l’administration Biden a renforcé les restrictions contre SMIC (Semiconductor Manufacturing International Corp), le principal fabricant de puces chinois soumis à des sanctions, en l’empêchant d’accéder aux importations américaines avancées. Cette décision fait suite à la production par SMIC d’une puce sophistiquée pour le Mate 60 Pro de Huawei.

Nvidia a souligné que Huawei est un concurrent dans la fourniture de puces conçues pour l’IA, y compris les unités de traitement graphique (GPU), les unités de traitement central (CPU) et les puces de réseau. Huawei est également reconnu comme une entreprise de services cloud concevant son propre matériel et logiciel pour optimiser le calcul d’IA.

Les puces les plus recherchées de Huawei sont celles de la série Ascend, le 910B étant son principal concurrent au chip A100 de Nvidia, lancé il y a environ 3 ans. Huawei a choisi de privilégier la fabrication de ses puces Ascend pour l’IA plutôt que ses smartphones haut de gamme Mate 60, utilisant la même installation de production pour ses puces Kirin et Ascend. Cette stratégie s’est avérée difficile en raison d’un faible taux de rendement, c’est-à-dire le pourcentage de puces acceptables produites par rapport au nombre maximum de puces pouvant être obtenues à partir d’une seule plaquette de silicium.

Le développement par Huawei des puces de la série Ascend en tant que concurrentes aux puces d’IA de Nvidia montre l’importance croissante du marché chinois des puces d’IA, estimé à 7 milliards de dollars. Cette compétition indique une évolution rapide du paysage technologique, soulignant l’importance stratégique de l’innovation dans le domaine des semi-conducteurs et de l’IA.

Lire plus
Intelligence Artificielle

ChatGPT déraille : une soirée de réponses incohérentes sème le doute

ChatGPT 4 dOpenAI

Mardi soir, ChatGPT s’est mis à dérailler. Des utilisateurs ont signalé que le chatbot d’IA répondait de manière incorrecte et parlait en charabia, comme l’a rapporté 404Media.

Les membres d’un subreddit ChatGPT ont partagé leurs expériences avec des captures d’écran d’échanges extraordinaires avec la technologie, des réponses qui n’avaient aucun sens ou des réponses à des questions qui étaient complètement à côté de la plaque.

L’une des captures d’écran montrait cette réponse à une question : « C’est le travail du service et de tout médecin aujourd’hui dans le domaine des données ». Elle se poursuivait ainsi : « Le 12ème au degré et la piscine à la terre au sommet de la couture, avec le commerce et la fonctionnalité, peut dépenser le grand et le tout avant qu’il ne soit sous les soins ».

Un autre utilisateur a expliqué qu’il avait demandé à ChatGPT « un synonyme de overgrown » et qu’il avait obtenu la réponse : « Un synonyme de “overgrown” est “overgrown” est “overgrown” est “overgrown”… » D’autres utilisateurs ont affirmé que l’application donnait des réponses totalement incorrectes aux questions de base, comme « Tokyo, Japon » lorsqu’on lui demandait de citer la plus grande ville du monde commençant par un « A ».

OpenAI, les créateurs de ChatGPT, a confirmé avoir résolu le problème dans un message sur sa page de statut. Il s’agit néanmoins d’un nouveau rappel que, bien que nous soyons en plein boom de l’IA, la technologie n’est pas encore à l’abri d’une défaillance ou, tout simplement, d’une erreur.

Les modèles d’IA comme ChatGPT ont encore un long chemin à parcourir

Il s’agit là d’un nouvel exemple de technologie d’IA qui prouve qu’elle n’est pas encore capable de gagner la confiance totale de ses utilisateurs, malgré les craintes que l’intelligence artificielle ait le potentiel de remplacer les humains dans une variété de tâches quotidiennes, à la fois à la maison et sur le lieu de travail.

Il y a déjà eu plusieurs cas où des avocats se sont retrouvés en difficulté pour avoir cité des cas fictifs générés par l’IA. Le mois dernier, Reuters a rapporté qu’un avocat new-yorkais faisait l’objet de mesures disciplinaires après avoir utilisé ChatGPT à des fins de recherche dans le cadre d’un procès pour faute professionnelle médicale et n’avoir pas confirmé que le cas cité était valide.

Lire plus