fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

ChatGPT se met à jour : Découvrez la nouvelle version de GPT-4 Turbo

OpenAI annonce une version améliorée de ChatGPT pour ses abonnés payants

ChatGPT vient de bénéficier d’une nouvelle mise à jour importante. Le 12 avril, OpenAI a annoncé que les utilisateurs premium de ChatGPT, c’est-à-dire ceux qui paient pour ChatGPT Plus, Team ou Enterprise, peuvent désormais profiter d’une version améliorée du modèle GPT-4 Turbo.

Le modèle mis à jour, appelé « gpt-4-turbo-2024-04-09 », présente plusieurs améliorations en matière d’écriture, de raisonnement, de mathématiques et de codage. Il dispose également d’une base de connaissances plus récente, puisqu’il est entraîné sur des données publiques disponibles jusqu’en décembre 2023. À titre de comparaison, la précédente édition de GPT-4 Turbo n’était entraînée que jusqu’en avril 2023.

OpenAI a ajouté dans un post sur X, anciennement Twitter, que lorsqu’il génère des réponses écrites, ChatGPT sera « plus direct, moins verbeux et utilisera un langage plus conversationnel ».

Si vous souhaitez l’essayer, lancez simplement ChatGPT si vous êtes un utilisateur payant et envoyez-lui quelques messages. Si vous êtes un utilisateur gratuit, vous devrez payer pour l’abonnement Plus, car l’ancien modèle est toujours basé sur le vieux modèle fiable GPT-3.5.

La mise à jour de ChatGPT intervient au cours d’un mois difficile pour OpenAI

Cette mise à jour de ChatGPT intervient après un mois tendu pour OpenAI. Alors que son modèle de génération de vidéos, Sora, a fait sensation en ligne, il a également fait l’objet d’accusations de violation du droit d’auteur après que Mira Murati, le directeur technique d’OpenAI, a déclaré qu’il ne savait pas si les données d’entraînement de Sora comprenaient du contenu provenant de YouTube, d’Instagram ou de Facebook.

Mais ces accusations sont loin d’être nouvelles. En fait, OpenAI a fait l’objet de nombreuses poursuites judiciaires. Plus récemment, le New York Times a porté plainte contre l’entreprise pour violation des droits d’auteur. Espérons que ChatGPT 5 donnera lieu à moins de problèmes juridiques.

Lire plus
Intelligence Artificielle

Elon Musk prédit que l’IA surpassera l’intelligence humaine d’ici fin 2025

Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici fin 2025

PDG de Tesla et propriétaire du X, Elon Musk, a prédit que l’intelligence artificielle (IA) sera plus intelligente que n’importe quel humain d’ici la fin de l’année prochaine. Les entreprises spécialisées dans l’IA se lancent dans une course à l’intelligence générale artificielle (AGI), le niveau auquel l’IA atteindra une véritable intelligence lui permettant d’accomplir des tâches complexes aussi bien, voire mieux, que les humains.

Le terme est également utilisé en relation avec une IA atteignant la conscience ou la sensibilité. En revanche, les modèles d’IA actuels sont encore beaucoup plus rudimentaires et ne répondent à aucun des critères associés à une véritable AGI. Malgré l’état actuel de l’IA, Musk est convaincu que nous nous rapprochons rapidement de l’AGI.

Ce n’est un secret pour personne que l’IA s’est développée et améliorée à un rythme rapide au cours des dernières années, et plus particulièrement au cours des derniers mois, avec des craintes croissantes concernant son potentiel de suppression d’emplois humains. Mais la marche du progrès ne s’arrête pas et de nouveaux outils d’IA apparaissent en permanence, apportant avec eux de nouvelles possibilités et une plus grande accessibilité à la technologie.

Elon Musk est depuis longtemps un partisan de l’IA. En effet, le PDG a récemment augmenté les salaires des employés de l’IA pour que Tesla reste dans la course. Aujourd’hui, s’exprimant sur sa propre plateforme X Spaces, le PDG prédit « beaucoup, beaucoup de percées logicielles ».

« L’IA est la technologie qui progresse le plus rapidement que j’ai vue, quelle qu’elle soit, et j’ai vu beaucoup de technologies », a déclaré le milliardaire. « Le matériel d’IA et les ordinateurs dédiés à l’IA qui sont mis en ligne augmentent d’un facteur 10 chaque année, voire tous les 6 à 9 mois ». « De très nombreuses percées logicielles sont démontrées sur la courbe. Je pense que l’IA sera plus intelligente que n’importe quel être humain vers la fin de l’année prochaine ».

L’avenir de l’IA

L’avenir de l’intelligence artificielle suscite à la fois des inquiétudes et des espoirs. Si beaucoup craignent que l’IA ne rende certains emplois humains obsolètes, d’autres prédisent qu’elle pourrait, à terme, offrir aux humains des emplois plus nombreux et mieux rémunérés.

L’IA générative est la forme à laquelle le commun des mortels a tendance à penser lorsqu’il s’agit d’intelligence artificielle, mais il y a bien d’autres façons dont elle peut aider les gens dans leur vie quotidienne. Des prévisions météorologiques plus précises à l’accélération des tâches administratives répétitives pour les entreprises, les avantages sont nombreux.

Toutefois, cela ne veut pas dire qu’il n’y a pas de risques. De plus en plus de gouvernements internationaux s’inquiètent de la croissance incontrôlée de l’IA, certains groupes plaidant pour l’introduction de réglementations.

Lire plus
Intelligence Artificielle

Huawei révolutionne les prévisions météorologiques avec son IA de haute précision

Huawei révolutionne les prévisions météorologiques avec son IA de haute précision

Les prévisions météorologiques viennent de gagner en précision grâce à Huawei, qui a mis au point un modèle d’intelligence artificielle capable de fournir des prévisions sur 5 jours avec une précision de 3 km.

L’entreprise chinoise Huawei Technologies a partagé pour la première fois ses projets de prévisions météorologiques via Pangu-Weather en juillet 2023, et la première version a été publiée un mois plus tard. L’équipe a déclaré qu’il s’agissait du « premier modèle de prévision par IA à démontrer une plus grande précision que les méthodes numériques traditionnelles de prévision météorologique ».

Le modèle Zhiji AI de Huawei, développé à partir de Pangu-Weather et en collaboration avec le bureau météorologique de la municipalité de Shenzhen, est la dernière itération en date à défier les prévisions traditionnelles. Il a été lancé à la fin du mois de mars. La précision de Zhiji est passée de 25 km à seulement 3 km et cette précision peut être fournie sur une prévision à 5 jours pour Shenzhen et ses régions voisines.

Le président de Huawei Cloud Marketing Dept, William Dong, a déclaré dans un communiqué de presse : « Le lancement de ce modèle météorologique régional d’IA pour Shenzhen signifie que l’IA peut fournir de nouveaux moyens pour permettre des prévisions météorologiques précises et à plus petite échelle… ».

« Les conditions météorologiques extrêmes sont de plus en plus fréquentes dans le monde, et les systèmes de prévision météorologique par l’IA ont déjà fait la preuve de leur capacité à prédire toutes sortes de conditions météorologiques », poursuit-il. « À l’avenir, Huawei Cloud continuera d’innover dans les méthodes de prévision météorologique par l’IA et de les étendre pour bénéficier à davantage de secteurs, fournir des services météorologiques plus raffinés et améliorer la préparation aux catastrophes ».

Huawei va utiliser l’outil pendant la saison des moussons en Chine

La saison des moussons approchant à grands pas, Huawei Cloud et le Bureau météorologique de la municipalité de Shenzhen travailleront ensemble pour vérifier et évaluer l’outil météorologique pendant la saison. Cette IA devrait être capable de détecter des schémas qui permettront de lancer des alertes plus tôt.

Le directeur adjoint du bureau météorologique de la municipalité de Shenzhen, Lan Hongping, a déclaré que l’équipe n’a cessé « d’explorer les moyens d’affiner les prévisions météorologiques et les services d’alerte, et nous considérons l’IA comme un moyen important d’y parvenir ».

Lire plus
Intelligence Artificielle

Au-delà du buzz : Décryptage de l’IA et de l’apprentissage automatique

Au-delà du buzz : Décryptage de l'IA et de l'apprentissage automatique

Il y a tellement de mots à la mode dans le monde de la technologie aujourd’hui qu’il peut être difficile de se tenir au courant des dernières tendances. L’intelligence artificielle (IA) domine l’actualité, à tel point que le dictionnaire Collins l’a désignée comme le mot le plus remarquable de 2023. Toutefois, des termes spécifiques comme « apprentissage automatique » ont souvent été utilisés à la place d’IA.

Introduit par l’informaticien américain Arthur Samuel en 1959, le terme « apprentissage automatique » est décrit comme « la capacité d’un ordinateur à apprendre sans être explicitement programmé ».

Quelle est donc la différence entre l’IA et l’apprentissage automatique ?

Tout d’abord, l’apprentissage automatique est un sous-ensemble de l’intelligence artificielle (IA). Bien qu’elles soient souvent utilisées de manière interchangeable, en particulier lorsqu’il est question de big data, ces technologies populaires présentent plusieurs distinctions, notamment en ce qui concerne leur champ d’application, leurs applications et au-delà.

FR machine learning vs deep lear jpg
Crédit IONOS

Qu’est-ce que l’intelligence artificielle ?

La plupart des gens connaissent aujourd’hui ce concept. Pourtant, l’intelligence artificielle désigne un ensemble de technologies intégrées dans un système, lui permettant de penser, d’apprendre et de résoudre des problèmes complexes. Elle a la capacité de copier des capacités cognitives analogues à celles des êtres humains, ce qui lui permet de voir, de comprendre et de réagir au langage parlé ou écrit, d’analyser des données, de faire des suggestions, et bien plus encore.

Qu’est-ce que l’apprentissage automatique ?

L’apprentissage automatique n’est qu’un domaine de l’IA qui permet à une machine ou à un système d’apprendre automatiquement et de s’améliorer grâce à l’expérience acquise.

Plutôt que de s’appuyer sur une programmation explicite, il utilise des algorithmes pour passer au crible de vastes ensembles de données, en extraire des enseignements et les utiliser ensuite pour prendre des décisions éclairées. L’apprentissage consiste à s’améliorer au fil du temps grâce à la formation et à l’exposition à davantage de données.

Les « modèles d’apprentissage automatique » sont les résultats ou les connaissances que le programme acquiert en exécutant un algorithme sur des données d’entraînement. Plus les données utilisées sont nombreuses, meilleures sont les performances du modèle.

Quel est le lien entre l’apprentissage automatique et l’IA ?

L’apprentissage automatique est un aspect de l’IA qui permet aux machines de tirer des connaissances des données et d’apprendre à partir de celles-ci. En revanche, l’IA représente le principe général qui consiste à permettre aux machines ou aux systèmes de comprendre, de raisonner, d’agir ou de s’adapter comme des êtres humains.

Par conséquent, il faut considérer l’IA comme l’océan tout entier, qui englobe diverses formes de vie marine. L’apprentissage automatique est comme une espèce spécifique de poisson dans cet océan. Tout comme cette espèce vit dans l’environnement plus large de l’océan, l’apprentissage automatique existe dans le domaine de l’IA et ne représente qu’un élément ou un aspect parmi d’autres. Il n’en reste pas moins une partie importante et dynamique de l’ensemble de l’écosystème.

Quelles sont les différences entre l’apprentissage automatique et l’IA ?

L’apprentissage automatique ne peut pas se substituer à l’intelligence humaine, ce qui n’est pas son objectif. Il se concentre plutôt sur la construction de systèmes capables d’apprendre de manière indépendante et de s’adapter à de nouvelles données en identifiant des modèles. L’objectif de l’IA, en revanche, est de créer des machines capables de fonctionner de manière intelligente et indépendante, en simulant l’intelligence humaine pour effectuer un large éventail de tâches, des plus simples aux plus complexes.

Par exemple, lorsque vous recevez des e-mails, votre service de messagerie utilise des algorithmes d’apprentissage automatique pour filtrer les spams. Le système d’apprentissage automatique a été formé sur de vastes ensembles de données d’e-mails, apprenant à distinguer le spam du non-spam en reconnaissant des modèles dans le texte, les informations sur l’expéditeur et d’autres attributs. Au fil du temps, il s’adapte aux nouveaux types de spam et à vos préférences personnelles (par exemple, les e-mails que vous marquez comme spam ou non), ce qui lui permet d’améliorer constamment sa précision.

Dans ce scénario, votre fournisseur de messagerie peut utiliser l’IA pour proposer des réponses intelligentes, trier les e-mails par catégories (sociales, promotionnelles, principales, etc.) et même donner la priorité aux e-mails essentiels. Ce système d’IA comprend le contexte de vos e-mails, les classe et suggère des réponses courtes basées sur le contenu qu’il analyse. Il imite un niveau élevé de compréhension et de génération de réponses qui nécessite habituellement une intelligence humaine.

Quels sont les 4 types d’apprentissage automatique ?

Il existe trois principaux types d’apprentissage automatique et quelques formes spécialisées, notamment l’apprentissage supervisé, non supervisé, semi-supervisé et l’apprentissage par renforcement.

Dans l’apprentissage supervisé, la machine est enseignée par un opérateur. L’utilisateur fournit à l’algorithme d’apprentissage automatique un ensemble de données reconnues contenant des entrées spécifiques associées à leurs sorties correctes, et l’algorithme doit trouver comment produire ces sorties à partir des entrées données. Bien que l’utilisateur connaisse les solutions correctes, l’algorithme doit identifier des modèles, tout en apprenant à partir de ceux-ci et en faisant des prédictions. Si les prédictions comportent des erreurs, l’utilisateur doit les corriger, et ce cycle se répète jusqu’à ce que l’algorithme atteigne un degré substantiel de précision ou de performance.

L’apprentissage semi-supervisé se situe entre l’apprentissage supervisé et l’apprentissage non supervisé. Les données étiquetées se composent d’informations étiquetées avec des étiquettes significatives, permettant à l’algorithme de comprendre les données, tandis que les données non étiquetées ne contiennent pas ces étiquettes informatives. Grâce à ce mélange, les algorithmes d’apprentissage automatique peuvent être entraînés à attribuer des étiquettes aux données non étiquetées.

L’apprentissage non supervisé consiste à entraîner l’algorithme sur un ensemble de données sans étiquettes explicites ni réponses correctes. L’objectif est que le modèle identifie de lui-même des modèles et des relations dans les données. Il tente d’apprendre la structure sous-jacente des données afin de les classer en grappes ou de les répartir selon les dimensions.

Enfin, l’apprentissage par renforcement s’intéresse aux approches d’apprentissage structurées, dans lesquelles un algorithme d’apprentissage automatique reçoit un ensemble d’actions, de paramètres et d’objectifs. L’algorithme doit ensuite naviguer dans divers scénarios en expérimentant différentes stratégies, en évaluant chaque résultat pour identifier l’approche la plus efficace. Il utilise une approche par essais et erreurs, s’appuyant sur ses expériences précédentes pour affiner sa stratégie et ajuster ses actions en fonction de la situation donnée, afin d’obtenir le meilleur résultat possible.

Comment l’IA et l’apprentissage automatique s’appliquent-ils dans le monde réel ?

Dans le contexte financier, l’IA et l’apprentissage automatique servent d’outils essentiels pour des tâches telles que l’identification des activités frauduleuses, la prévision des risques et l’offre de conseils financiers proactifs améliorés. Apparemment, les plateformes pilotées par l’IA peuvent désormais offrir un contenu éducatif personnalisé basé sur le comportement et les besoins financiers d’un individu. En fournissant des informations pertinentes, ces plateformes s’assurent que les utilisateurs sont bien équipés pour prendre des décisions financières éclairées, ce qui conduit à de meilleurs scores de crédit au fil du temps. Nvidia AI a publié sur X que l’IA générative était en train d’être incorporée dans les programmes d’études.

Pendant la pandémie de Covid-19, l’apprentissage automatique a également permis de comprendre les événements les plus urgents. Ce sont également des armes puissantes pour la cybersécurité, qui aident les organisations à se protéger et à protéger leurs clients en détectant les anomalies. Les développeurs d’applications mobiles ont activement intégré de nombreux algorithmes et une programmation explicite pour que leurs applications soient exemptes de fraude pour les institutions financières.

Lire plus
Intelligence Artificielle

Meta dévoile sa puce MTIA de nouvelle génération

Meta dévoile sa puce MTIA de nouvelle génération

Meta promet que la prochaine génération de ses puces d’IA personnalisées MTIA sera plus puissante et capable d’entraîner ses modèles de classement beaucoup plus rapidement. Meta poursuit ses investissements massifs dans le domaine de l’intelligence artificielle (IA) générative, cherchant à rattraper ses concurrents grâce à des dépenses se chiffrant en milliards de dollars.

Une part significative de ces fonds est allouée au recrutement de chercheurs en IA, tandis qu’une portion encore plus importante est dédiée au développement de matériel, en particulier des puces destinées à exécuter et entraîner les modèles d’IA de Meta.

La dernière innovation de Meta dans ce domaine a été dévoilée hier, juste un jour après l’annonce par Intel de son dernier accélérateur IA. Baptisée « Meta Training and Inference Accelerator » (MTIA) de nouvelle génération, cette puce succède à la version MTIA v1 de l’année dernière.

435321098 654756326784825 4945254250884100116 n

Conçue avec un processus de fabrication de 5 nm contre 7 nm pour son prédécesseur, la MTIA de nouvelle génération est plus grande physiquement, possède davantage de cœurs de traitement, consomme plus d’énergie (90W contre 25W), et dispose d’une mémoire interne plus importante (128 Mo contre 64 Mo), tout en fonctionnant à une vitesse d’horloge moyenne supérieure (1,35 GHz contre 800 MHz).

Meta affirme que la MTIA de nouvelle génération est actuellement en service dans 16 de ses régions de datacenters et offre une performance globale jusqu’à 3x supérieure à celle de la MTIA v1. Bien que ce chiffre de « trois fois » puisse paraître vague, il est issu de tests de performance sur « quatre modèles clés » sur les deux puces.

Dans un article de blog relayé par TechCrunch, Meta explique que cette puce n’est pas actuellement utilisée pour les charges de travail de formation en IA générative, bien que l’entreprise explore cette possibilité avec « plusieurs programmes en cours ». La nouvelle MTIA ne remplacera pas les GPU pour l’exécution ou la formation de modèles, mais viendra plutôt les compléter.

video fbod1 1 fna fbcdn net

Meta est néanmoins sous pression

Les équipes IA de Meta sont sous pression pour réduire les coûts. L’entreprise prévoit de dépenser environ 18 milliards de dollars en GPU d’ici la fin de 2024 pour l’entraînement et l’exécution de modèles d’IA générative, et le développement de matériel en interne représente une alternative attrayante étant donné les coûts d’entraînement élevés des modèles d’IA de pointe.

Alors que le matériel de Meta peine à se développer, ses concurrents, tels que Google avec sa puce TPU v5p pour l’entraînement des modèles IA et Axion pour leur exécution, Amazon avec ses familles de puces IA personnalisées, et Microsoft avec l’accélérateur AI Azure Maia et le CPU Azure Cobalt 100, avancent rapidement.

434741144 1118657252797924 5675366305372323825 n

Meta a réussi à passer du « premier silicium aux modèles de production » de la MTIA de nouvelle génération en moins de 9 mois, un délai plus court que celui habituellement observé chez Google pour les TPUs. Cependant, il reste beaucoup à faire pour Meta afin de parvenir à une certaine indépendance vis-à-vis des GPU tiers et de rivaliser efficacement avec ses concurrents.

Lire plus
Intelligence Artificielle

Google Axion : le nouveau CPU Arm va défier Microsoft et Amazon dans la course à l’IA

Google Axion : le nouveau CPU Arm va défier Microsoft et Amazon dans la course à l'IA

Google a dévoilé ses premiers processeurs Arm personnalisés pour les datacenters, lors de son événement Google Cloud Next 24. Les nouveaux processeurs Google Axion sont destinés aux charges de travail générales tels que les serveurs Web et d’applications, les microservices conteneurisés, les bases de données open source, etc.

Les processeurs basés sur la technologie Arm sont devenus de plus en plus populaires dans les datacenters et les opérations sur le cloud en raison de leurs solides performances et de leur efficacité énergétique supérieure. Google possède déjà sa propre gamme de silicium personnalisé, avec sa puce Tensor qui équipe sa gamme de smartphones et de tablettes Pixel. L’entreprise a donc élargi son offre en ajoutant la puce Axion à sa gamme.

L’investissement de l’entreprise dans le silicium personnalisé remonte à 2015, lorsque le géant de la technologie a lancé ses premières unités de traitement tensoriel (TPU). Google a également développé sa propre unité de codage vidéo (VCU) et ses propres puces Tensor pour les appareils mobiles.

Les principaux rivaux de Google en matière de services en cloud, Amazon et Microsoft, disposent de leurs propres processeurs basés sur la technologie Arm, mais Amin Vahdat, vice-président de Google chargé de l’apprentissage automatique, des systèmes et de l’IA en cloud, a déclaré : « Les processeurs Axion combinent l’expertise de Google en matière de silicium et les cœurs de processeur les plus performants d’Arm pour offrir des instances dont les performances sont jusqu’à 30 % supérieures à celles des instances à usage général basées sur Arm les plus rapides disponibles aujourd’hui dans le cloud ».

Les CPU Axion auront également « des performances jusqu’à 50 % supérieures et une efficacité énergétique jusqu’à 60 % supérieure à celles des instances comparables de la génération actuelle basées sur x86 », a ajouté Vahdat.

Google Axion, une étape importante

Construits à partir du processeur Arm Neoverse V2 et sur l’architecture et le jeu d’instructions standard Armv9, les nouveaux processeurs sont soutenus par Titanium, un système de microcontrôleurs en silicium personnalisés et de charges d’extension hiérarchisées conçu pour optimiser les performances pour les charges de travail des clients.

« L’annonce par Google du nouveau processeur Axion marque une étape importante dans la fourniture de silicium personnalisé optimisé pour l’infrastructure de Google et construit sur notre plateforme haute performance Arm Neoverse V2 », a déclaré Rene Haas, PDG d’Arm. « Des décennies d’investissement dans l’écosystème, combinées à l’innovation continue de Google et à ses contributions aux logiciels libres, garantissent la meilleure expérience pour les charges de travail qui comptent le plus pour les clients fonctionnant sur Arm ».

Les contributions à l’écosystème Arm que Haas a mentionnées comprennent l’open-sourcing d’Android, Kubernetes, TensorFlow et le langage Go, et devraient ouvrir la voie à la compatibilité et à l’interopérabilité des applications d’Axion. Google affirme que les clients pourront déployer de manière transparente des charges de travail Arm sur Google Cloud avec des réécritures de code limitées, en accédant à un écosystème de clients cloud et de développeurs de logiciels qui exploitent des logiciels natifs d’Arm.

Disponible dans le courant de l’année

Les nouveaux processeurs Axion seront mis à la disposition des clients de Google Cloud dans le courant de l’année. Les machines virtuelles basées sur les processeurs seront disponibles en avant-première dans les mois à venir.

L’annonce de Google sur le CPU basé sur l’architecture Arm arrive quelques mois après que Microsoft a révélé ses propres puces de silicium personnalisées conçues pour son infrastructure cloud. Microsoft a développé sa propre puce d’IA pour entraîner de grands modèles linguistiques et un CPU basé sur Arm pour les charges de travail cloud et d’IA. Amazon propose également des serveurs basés sur Arm depuis des années grâce à son propre CPU personnalisé, les dernières charges de travail pouvant utiliser les serveurs Graviton3 sur AWS.

Comme Microsoft et Amazon avant lui, Google peut désormais réduire sa dépendance à l’égard de partenaires tels que Intel et Nvidia, tout en les concurrençant sur le marché des puces personnalisées pour alimenter les charges de travail d’IA et de cloud.

Lire plus
Intelligence Artificielle

OpenAI révolutionne l’API avec GPT-4 Turbo et Vision

OpenAI révolutionne l'API avec GPT-4 Turbo et Vision

Dans le paysage actuel du développement logiciel, l’interface de programmation d’applications (API) est devenue un pivot essentiel. OpenAI vient de renforcer significativement son API avec l’intégration de la nouvelle version améliorée de son modèle de langage, GPT-4 Turbo avec des fonctionnalités visuelles, désormais disponible pour le grand public.

Révélée initialement en novembre lors de la conférence des développeurs d’OpenAI, la version GPT-4 Turbo promet des performances accrues, une capacité de traitement élargie pouvant gérer jusqu’à 128 000 jetons — l’équivalent d’environ 300 pages de texte — et une meilleure accessibilité en termes de coût.

Ce modèle étendu permet désormais l’analyse d’images par des appels API simples en format JSON, facilitant l’intégration dans les applications tierces pour des actions automatisées telles que l’envoi d’e-mails, la publication en ligne ou les achats. Cependant, OpenAI recommande la mise en place de flux de confirmation par les utilisateurs avant toute action ayant un impact réel, afin de renforcer la sécurité et la fiabilité des applications.

Cette unification des capacités de traitement de texte et d’image en une seule requête API simplifie le workflow des développeurs et optimise l’efficacité des applications. Parmi les utilisateurs de la première heure de GPT-4 Turbo avec Vision, on trouve Cognition, une startup innovante dont l’agent de codage autonome, Devin, génère automatiquement du code complet pour les utilisateurs.

De plus, l’application Healthify utilise ce modèle pour analyser les photos de repas des utilisateurs et fournir des recommandations nutritionnelles, tandis que la startup britannique TLDraw l’exploite pour transformer les dessins sur tableau blanc virtuel en sites web fonctionnels.

GPT-4 Turbo avant GPT-5

Bien que GPT-4 Turbo ne surpasse pas certains des modèles plus récents dans les tests de performance, tels que Claude 3 Opus d’Anthropic ou Command R+ de Cohere, et même le Gemini Advanced de Google, son intégration étendue auprès des développeurs et des clients potentiels devrait continuer à renforcer la position d’OpenAI dans l’arène mondiale des Large Language Model en attendant la sortie de son prochain LLM.

Lire plus
Intelligence Artificielle

Gemini 1.5 Pro : Google étend les capacités d’IA à l’audio et à la vidéo

Gemini Pro GfD

Lors de l’événement Cloud Next, Google a annoncé une mise à jour significative pour son modèle d’intelligence artificielle, Gemini 1.5 Pro. Annoncé pour la première fois en février, ce modèle est désormais disponible en preview public et se distingue par sa faculté à analyser non seulement le texte et les images, mais aussi l’audio et la vidéo.

Ainsi, cette nouvelle version permet désormais au modèle d’écouter des fichiers audio et d’en extraire des informations, ce qui est particulièrement utile pour analyser des appels de résultats ou des contenus audiovisuels sans nécessiter de transcription écrite.

Gemini 1.5 Pro, décrit comme le modèle intermédiaire de la gamme Gemini, se distingue en surpassant en performances Gemini Ultra, le modèle le plus avancé jusqu’à présent. Cette version améliorée de Gemini élimine le besoin de personnalisation fine des modèles, simplifiant son utilisation.

Ce développement marque une avancée majeure pour l’IA de Google, permettant une analyse intermodale fluide. Les utilisateurs peuvent désormais obtenir des transcriptions de haute qualité et effectuer des recherches dans le contenu audio et vidéo, ce qui est particulièrement utile pour parcourir des appels de résultats ou des réunions d’investisseurs.

maxresdefault jpg

Google affirme que Gemini 1.5 Pro surpasse Gemini 1.0 Pro dans 87 % des benchmarks et rivalise presque avec Gemini 1.0 Ultra. Le modèle est capable de traiter 1 heure de vidéo, 11 heures d’audio, des bases de code de plus de 30 000 lignes, ou plus de 700 000 mots en un seul flux, soulignant ainsi sa puissance et sa polyvalence, ce qui est 4x plus que le modèle phare de Anthropic, Claude 3, et 8x plus que le contexte maximal de GPT-4 Turbo d’OpenAI.

Screenshot 2024 02 21 at 3.55.11 jpg

Cette fenêtre de contexte élargie permet à Gemini 1.5 Pro de mieux suivre le flux narratif des données, de générer des réponses plus riches en contexte et de réduire le besoin de peaufinage et d’ancrage factuel.

Gemini 1.5 Pro exclusif Vertex AI

Cependant, l’accès à Gemini 1.5 Pro est exclusif aux utilisateurs de Vertex AI, la plateforme de développement d’applications IA de Google. La plupart des utilisateurs connaissent les modèles Gemini à travers le chatbot Gemini, avec Gemini Ultra alimentant la version avancée de ce chatbot.

Google a également révélé que Gemini 1.5 Pro commencerait à intégrer d’autres produits de son écosystème d’entreprise, notamment Code Assist, son outil d’assistance à la programmation générative. Les développeurs pourront effectuer des modifications « à grande échelle » dans les bases de code, par exemple en mettant à jour les dépendances entre fichiers et en révisant de grands blocs de code.

D’autres nouveautés annoncées

Outre Gemini, Imagen 2, le modèle de génération d’images de Google, a également été mis à jour pour inclure les fonctionnalités d’inpainting et d’outpainting, permettant aux utilisateurs de modifier les images plus librement. Google a aussi intégré la fonctionnalité de watermarking digital SynthID à toutes les images créées par les modèles Imagen, qui ajoute un filigrane invisible détectable par des outils spécifiques, garantissant l’origine des images.

En parallèle, Google explore une intégration de ses réponses d’IA avec Google Recherche pour fournir des informations actualisées, répondant à un besoin crucial d’informations à jour, notamment écartées délibérément parfois, comme pour les questions relatives aux élections américaines de 2024.

Lire plus
Intelligence Artificielle

Meta prévoit le lancement de Llama 3 : Vers une nouvelle ère IA

Meta prévoit le lancement de Llama 3 : Vers une nouvelle ère IA

Meta va apparemment lancer des versions plus petites de son modèle Llama, car les entreprises cherchent à offrir au public des modèles d’IA plus rentables. En effet, Meta a annoncé à Londres le lancement prochain de Llama 3, la nouvelle génération de son modèle de langage pour assistants IA génératifs.

Cette annonce a confirmé les informations de The Information sur une sortie imminente. Nick Clegg, président des affaires mondiales chez Meta, a révélé que ce déploiement débuterait dans un mois, introduisant plusieurs versions du modèle avec diverses capacités. Chris Cox, le chef des produits, a souligné que Llama 3 serait intégré à plusieurs produits de Meta.

Cette initiative souligne la tendance croissante des développeurs d’IA à ajouter des options de modèles d’IA légers. Meta propose déjà une version plus petite de son modèle Llama 2, le Llama 2 7B, qu’elle a lancé en février de l’année dernière. Google a lancé la famille de modèles Gemma en février, et la société française d’IA Mistral propose également le modèle Mistral 7B.

Next generation of Llama 2 AI he jpg

Ces modèles ne peuvent généralement pas traiter de longues chaînes d’instructions de la part des utilisateurs, mais ils sont plus rapides, plus flexibles et, surtout, moins coûteux à faire fonctionner qu’un modèle de taille normale. Il s’agit néanmoins de modèles d’IA puissants, capables de résumer des PDF et des conversations et d’écrire du code. Les modèles de plus grande taille sont généralement utilisés pour des tâches plus complexes, comme la génération de photos, ou pour des tâches dont l’exécution nécessite plusieurs commandes.

Contrairement à OpenAI et Google, Meta a adopté une approche prudente en matière d’IA, ce qui n’a pas toujours été bien reçu par le public. Les précédentes versions de Llama, jugées trop limitées, ont suscité des critiques.

Llama 3 pourrait être « plus souple »

Cependant, Llama 3 promet une couverture plus large et une capacité à traiter des sujets plus controversés, dans l’espoir de séduire davantage d’utilisateurs.

Llama 3, dont on estime à 140 milliards le nombre de paramètres, double presque la capacité du modèle Llama 2. Meta a choisi de développer ses modèles Llama comme des produits open source, visant à séduire les développeurs par une approche moins propriétaire que ses concurrents. Cependant, Meta reste prudent, notamment sur le front de la génération d’images avec Emu, son outil de création d’images, dont le lancement n’a pas encore été annoncé.

Ce positionnement de Meta révèle une stratégie mixte : innovation ouverte pour le développement technologique tout en conservant une prudence certaine face aux enjeux de l’IA générative.

Lire plus
Intelligence Artificielle

Google Imagen 2 : L’avenir animé des images IA

ImageGen KeywordHero.width 1200

L’incursion de Google dans l’intelligence artificielle génératrice d’images a rencontré plusieurs obstacles, notamment avec les problèmes du générateur d’images Gemini qui ont conduit à son retrait. L’introduction de Imagen 2 au sein de sa plateforme Vertex AI marque une autre tentative de Google de naviguer dans ce domaine complexe.

La famille de modèles de génération d’images de Google reçoit des mises à jour significatives. La société a annoncé que Imagen 2 intégrera désormais des capacités de transformation de prompts textuels en images animées, ainsi que des fonctionnalités de retouche d’images telles que l’inpainting, l’outpainting et l’identification numérique, désormais disponibles pour le grand public.

Présentée lors de la conférence Google Cloud Next, la fonctionnalité text-to-live de Imagen 2 génère l’équivalent de GIFs animés, initialement à 24 images par seconde, avec une résolution de 360 x 640 pixels et une durée de quatre secondes. Cependant, Google annonce des « améliorations continues » pour ces spécifications.

« Imaginez, au lieu d’avoir une photo statique d’un objet, comme une voiture, vous pouvez voir une image courte comme un véhicule en mouvement animé. De nombreuses organisations, notamment dans les domaines des médias et de la publicité, s’y intéressent car cela améliore l’engagement des utilisateurs », a partagé Thomas Kurian, le PDG de Google Cloud, lors d’un point presse.

Google se targue que Imagen 2 sera capable de créer des images utilisant une gamme d’angles de caméra et de mouvements « tout en maintenant la cohérence sur toute la séquence ». Il intègre également des filtres de sécurité et des filigranes numériques, répondant aux deux principales préoccupations des organisations concernant l’IA générative.

Imagen 2 dispose d’outils de retouches

Pour ce qui est des fonctionnalités de retouche d’image désormais publiques, Imagen 2 peut ajouter ou supprimer des éléments d’une photo, de manière analogue au remplissage génératif ou au contenu conscient d’Adobe Photoshop. De plus, il est possible d’élargir les bordures d’une image pour offrir une vue plus étendue.

Ces mises à jour font partie des annonces de Google concernant Vertex AI, sa plateforme cloud AI entièrement gérée.

Lancé en 2023, Imagen 2 est un produit de Google DeepMind, commercialisé comme une IA capable de générer des images photoréalistes, de haute résolution et esthétiquement agréables à partir de prompts en langage naturel. Il se positionne dans la même catégorie que DALL-E de OpenAI, Midjourney et Adobe Firefly, et est spécifiquement conçu pour aider les entreprises à créer des images qui correspondent à leurs directives de marque et aux besoins de gouvernance.

Pas encore au niveau de la concurrence

Malgré ces capacités, Imagen 2 semble être à la traîne par rapport à des concurrents tels que Runway et Stability AI en termes de polyvalence et de qualité de génération vidéo. Les images animées de Google offrent actuellement une résolution plus basse et des durées plus courtes comparées à ces alternatives.

Lire plus
Intelligence Artificielle

Quand la pénurie de données pousse les géants de l’IA aux limites légales

Quand la pénurie de données pousse les géants de l'IA aux limites légales

La quête de données d’entraînement de haute qualité constitue un défi pressant pour les entreprises spécialisées en intelligence artificielle, comme le soulignent les récents rapports de grands médias. Alors que ces entreprises s’efforcent d’améliorer leurs modèles d’IA, la rareté des données utilisables les pousse à explorer divers moyens, certains frôlant les limites des normes légales et éthiques.

Selon le Wall Street Journal et le New York Times, des géants de l’IA tels que OpenAI et Google trouvent de plus en plus difficile de sourcer les énormes quantités de données nécessaires pour entraîner leurs modèles sophistiqués.

Par exemple, OpenAI, aurait utilisé plus d’un million d’heures de vidéos YouTube transcrites pour entraîner son modèle GPT-4, bien qu’elle reconnaisse les potentiels problèmes légaux impliqués. Le président de l’entreprise, Greg Brockman, aurait été personnellement impliqué dans la sélection de ces vidéos.

L’utilisation de telles données est controversée car elle implique du contenu qui pourrait ne pas être explicitement autorisé à des fins d’entraînement d’IA. Google a également été scruté pour ses pratiques de données. Un porte-parole de Google a commenté les rapports non confirmés des méthodes d’OpenAI et a réitéré que le scraping ou le téléchargement de contenu YouTube sans autorisation viole leurs conditions de service.

OpenAI a fait preuve d’opacité en ce qui concerne les données d’entraînement qu’elle utilise pour créer ses Large Language Model (LLM) et d’autres outils d’IA générative. Cette situation a donné lieu à plusieurs poursuites judiciaires.

Approche et défis de Meta face à l’IA

Pendant ce temps, Google admet utiliser le contenu de YouTube pour entraîner ses modèles mais affirme le faire dans les limites des accords passés avec les créateurs de contenu.

Meta, un autre acteur majeur de l’espace IA, aurait discuté de l’utilisation de contenus protégés par le droit d’auteur sans autorisation pour entraîner ses modèles. Cette approche semble être un dernier recours après avoir épuisé presque tous les textes en anglais disponibles en ligne. Les stratégies internes de Meta semblent inclure la considération de l’acquisition de licences ou même l’achat d’entités éditoriales importantes pour sécuriser les données nécessaires.

L’épuisement continu des données disponibles pourrait amener les entreprises d’IA à adopter de nouvelles stratégies telles que la création de données synthétiques ou l’emploi d’un apprentissage par curriculum, qui organise l’ingestion de données pour forger des connexions conceptuelles plus efficaces avec moins d’informations. Cependant, ces méthodes ne sont pas encore prouvées à grande échelle.

Équilibre entre innovation et respect du droit d’auteur

Alors que les entreprises d’IA naviguent dans le paysage complexe de l’acquisition de données, elles doivent équilibrer l’innovation avec le respect du droit d’auteur et de la vie privée. La nature évolutive de la recherche en IA et les cadres juridiques qui l’accompagnent continueront probablement de défier ces entreprises alors qu’elles développent et affinent leurs technologies.

Lire plus
Intelligence Artificielle

Comment utiliser ChatGPT sans compte ?

Comment utiliser ChatGPT sans compte ?

OpenAI a récemment annoncé un changement majeur pour ChatGPT : l’accès sans nécessité de création de compte ou de connexion. Cet ajustement vise à rendre l’IA plus accessible à tous, permettant à quiconque de découvrir ses capacités sans barrière initiale.

Avec cet accès sans identifiant, vous obtiendrez ChatGPT 3.5 et sa fonction de base — vous pouvez taper une requête et obtenir des réponses. Cependant, pour accéder à des fonctionnalités avancées ou sauvegarder l’historique des discussions, il reste nécessaire de se créer un compte. En effet, toutes les autres offres premium d’OpenAI, comme GPT-4 et DALL-E, continueront à nécessiter un compte et un abonnement pour fonctionner.

Bien que cette ouverture facilite l’accès, elle s’accompagne de mesures de sécurité renforcées pour contrer les risques, bien que les détails spécifiques de ces restrictions ne soient pas explicitement clarifiés. Cette fonctionnalité est pour l’instant disponible uniquement via la version Web, les utilisateurs d’applications mobiles devant toujours se connecter.

Pour commencer, rendez-vous sur chat.openai.com et lancez une requête. N’oubliez pas que si vous avez déjà utilisé ChatGPT avec un compte, vous devrez peut-être effacer vos cookies ou ouvrir le chatbot dans une fenêtre Incognito. OpenAI indique qu’elle déploie cette fonctionnalité progressivement.

Il est également important de noter que, bien que l’utilisation de ChatGPT sans connexion permette une certaine anonymité, OpenAI peut toujours collecter des données pour l’entraînement de ses modèles. Cependant, les utilisateurs ont la possibilité de désactiver cette collecte depuis les paramètres du site.

Utiliser ChatGPT sans connexion

La déclaration de l’entreprise suggère que l’ajout d’un accès sans connexion a pour but de rendre le chatbot plus accessible à un plus grand nombre de personnes, et c’est une stratégie viable.

En permettant un accès plus facile, OpenAI cherche non seulement à démocratiser l’usage de l’IA mais aussi à se positionner favorablement face à des concurrents comme Gemini de Google ou Copilot de Microsoft, qui proposent également des accès simplifiés. Malgré ces innovations, les utilisateurs doivent rester prudents, notamment à cause des zones d’ombre de la politique de confidentialité d’OpenAI et des incidents de sécurité survenus par le passé.

Dans un marché en pleine expansion, où la confidentialité des données devient un enjeu majeur, cette stratégie d’OpenAI pourrait bien redéfinir les standards d’accès aux outils d’IA, tout en accentuant la nécessité de naviguer prudemment dans cet univers numérique.

Lire plus
Intelligence Artificielle

Révolution AI : Jony Ive et Sam Altman au-delà du smartphone

Révolution AI : Jony Ive et Sam Altman au-delà du smartphone

Il semble que Jony Ive, ancien pilier du design chez Apple, et Sam Altman, fondateur d’OpenAI, soient à la tête d’un nouveau projet révolutionnaire dans le domaine de l’IA.

Selon des informations divulguées par The Information, l’influent Jony Ive et Sam Altman serait en pourparlers avec plusieurs firmes de capital-risque pour financer leur nouvelle entreprise. Cependant, ce qui captive davantage l’attention, c’est la nature inédite de leur dispositif prévu : contrairement aux attentes, il ne s’agirait pas d’un smartphone.

Les sources indiquent que ce dispositif, pouvant intégrer le célèbre ChatGPT d’OpenAI pour certaines de ses fonctionnalités, adopterait une forme totalement différente de celle d’un smartphone. Cette annonce vient bousculer les pronostics initiaux qui suggéraient un appareil mobile IA vu le passé de Jony Ive chez Apple.

Ce ne serait pas le premier appareil IA à adopter une forme originale. En effet, la startup Humane a récemment fait sensation avec son gadget AI Pin, dévoilé lors du MWC 2024. Ce dispositif, qui se fixe à l’avant des vêtements tel une broche, permet d’accéder à des services IA par la voix ou via un projecteur intégré.

Un autre exemple récent est le dispositif Rabbit R1 de la startup Rabbit, qui apprend l’utilisation que son propriétaire fait des applications pour ensuite permettre leur manipulation par langage naturel.

Il reste à voir en quoi le dispositif de Ive et Altman se distinguera de ces précédentes innovations. Cependant, étant donné que le domaine est encore naissant, il serait prudent de modérer ses attentes vis-à-vis des produits de première génération.

Lire plus
Intelligence Artificielle

OpenAI innove : ChatGPT cite désormais ses sources pour plus de transparence

OpenAI innove : ChatGPT cite désormais ses sources pour plus de transparence

Alors que les chatbots génératifs comme ChatGPT offrent une mine d’informations à la demande, un doute persistant subsiste : s’agit-il d’informations factuelles ou d’une fabrication de l’IA ? C’est là que Microsoft Copilot s’est illustré, en citant les liens sources depuis longtemps. Aujourd’hui, il semble qu’OpenAI comprenne enfin l’importance de la citation des sources.

L’entreprise a annoncé dans un article sur X vendredi dernier que ChatGPT inclura désormais des liens vers les sources utilisées dans ses réponses. Le message précise que « cela donne plus de contexte à ses réponses et permet aux utilisateurs de découvrir plus facilement le contenu des éditeurs et des créateurs ».

Dans la vidéo ci-jointe, les réponses incluent des liens pertinents pour la source à la fin de la phrase. Vous pouvez directement cliquer sur le lien pour visiter le site de la source et obtenir plus d’informations sur le sujet. Il vous sera ainsi plus facile de vérifier la légitimité de la réponse fournie et d’en apprendre davantage sur le sujet si nécessaire.

Cependant, il y a un gros problème. Cette fonctionnalité n’est disponible que sur les plans payants incluant ChatGPT Plus, Team, et Enterprise.

En effet, ces versions vous donnent accès à GPT-4 qui peut parcourir l’Internet à la recherche de réponses, contrairement à la version gratuite. C’est un gros inconvénient, car la plupart des gens ne sont pas prêts à payer un supplément pour quelque chose d’aussi basique que les citations.

ChatGPT, un ajout pour les utilisateurs Premium 

Les liens vers les sources seront bénéfiques à la fois pour les utilisateurs comme nous et pour les éditeurs qui travaillent dur pour rédiger des articles informatifs. Curieusement, c’est une chose à laquelle même Google n’a pas beaucoup pensé. Leur chatbot Gemini ne mentionne pas non plus les sources, à l’exception de quelques rares cas ici et là.

Copilot, de Microsoft, se distingue par le fait qu’il propose gratuitement des liens vers des sources dans ses réponses. Parfois, il peut même vous donner un lien vidéo s’il couvre votre requête. Que pensez-vous de l’ajout par OpenAI de citations dans ChatGPT ?

Lire plus
Intelligence Artificielle

Yahoo intègre la technologie AI d’Artifact pour révolutionner Yahoo News

Yahoo intègre la technologie AI d'Artifact pour révolutionner Yahoo News

Yahoo a officiellement fait l’acquisition de l’application de news AI Artifact, créée à l’origine par les cofondateurs d’Instagram, et utilisera sa technologie dans l’ensemble de l’entreprise. Artifact ne sera donc plus une application autonome, mais sa technologie sera intégrée au site et à l’application Yahoo News dans les mois à venir.

Créée en janvier 2023, l’application d’IA n’a jamais vraiment pris son essor. La mission du cofondateur était de proposer aux utilisateurs les articles les plus pertinents grâce à l’intelligence artificielle, en utilisant une technologie propriétaire pour fournir une expérience d’actualité personnalisée.

Dans un communiqué de presse publié mardi 2 avril, il est indiqué que ce que les fondateurs de l’application ont créé « aura encore plus d’impact avec l’ampleur du réseau Yahoo News ».

L’acquisition a été officiellement finalisée le 29 mars 2024 et les cofondateurs d’Artifact, le PDG Kevin Systrom et le directeur technique Mike Krieger, travailleront avec le fournisseur de services Web en tant que conseillers pendant la transition.

Le PDG et cofondateur d’Artifact, Kevin Systrom, en dit plus :

Nous avons créé un produit intuitif que les utilisateurs adorent et qui peut profiter à des millions de personnes.

Yahoo apporte l’envergure nécessaire pour aider le produit à réaliser ce que nous avons imaginé, tout en maintenant la conviction que connecter les gens à des sources fiables d’informations et de nouvelles est plus important que jamais.

L’IA nous a permis d’offrir aux utilisateurs une meilleure expérience de découverte des contenus qui les intéressent. Yahoo reconnaît cette opportunité, et nous ne pourrions pas être plus enthousiastes à l’idée de voir ce que nous avons construit se perpétuer à travers Yahoo News.

Qu’est-ce que Artifact ?

Artifact est un agrégateur de nouvelles sociales personnalisées qui utilise une technologie d’apprentissage automatique pour suggérer des articles, des sujets et des auteurs à ses utilisateurs.

Elle a été fondée par Kevin Systrom et Mike Krieger et lancée par leur société Nokto, Inc. Bien que l’accent ait été mis sur les nouvelles écrites, des versions audio des articles ont été incluses, lues à haute voix par des voix générées par l’IA, y compris une simulation des voix de Snoop Dog et de Gwyneth Paltrow.

Un an après le lancement, en janvier 2024, l’équipe a publié un article de blog intitulé « Shutting down Artifact ». Le PDG a déclaré qu’ils avaient « construit quelque chose qu’un noyau d’utilisateurs adore, mais nous avons conclu que l’opportunité de marché n’est pas assez importante pour justifier la poursuite de l’investissement de cette manière ».

Lire plus