fermer

Intelligence Artificielle

L’intelligence artificielle (IA) transforme de nombreux secteurs, de la santé à la finance, en passant par l’éducation et la sécurité. Explorez comment l’IA est utilisée pour automatiser des tâches, augmenter l’efficacité et créer de nouvelles opportunités de marché.

Nos discussions incluent également les défis éthiques et les implications sociétales de l’adoption de l’IA, fournissant une perspective équilibrée sur ce développement technologique clé.

Intelligence Artificielle

OpenAI GPT-4 : multimodal, nouvelles fonctionnalités, saisie d’images, mode d’emploi et plus encore

GPT 4 cover

OpenAI a fait d’énormes vagues lors du lancement de GPT-4 cette semaine. Le modèle de langage d’IA de nouvelle génération représente une amélioration notable par rapport à son prédécesseur et est capable de beaucoup plus. Si vous connaissez un peu ChatGPT et ses alternatives, vous savez déjà ce que cela signifie pour les chatbots et l’intelligence artificielle en général. Cependant, pour ceux qui ne connaissent pas les modèles de langage ou GPT-4 en particulier, je suis là pour vous aider.

Voici un guide dédié à GPT-4. Si vous n’avez que peu ou pas d’informations à ce sujet, prenez une tasse de café, et asseyez-vous pendant que je vous explique tout sur ce modèle d’IA.

Qu’est-ce que le GPT-4 ?

En termes simples, GPT-4 est la dernière itération d’OpenAI dans les grands systèmes de modèles de langage (LLM) de l’entreprise. Les systèmes de modèles de langage, en général, sont des systèmes qui tentent de prédire le mot suivant dans une phrase et d’y ajouter intelligemment leurs données. Pour ce faire, ils étudient un vaste ensemble de données qui leur permet d’identifier des modèles et d’agir en conséquence.

GPT-4 est le modèle le plus récent de cette série et devrait constituer une amélioration considérable par rapport aux modèles de la génération précédente, tels que GPT 3 et 3.5. GPT-4 est plus performant sur certains points spécifiques, que j’aborderai en détail ci-dessous. Cependant, il est important de comprendre que ce nouveau modèle permettra aux chatbots tels que ChatGPT et Bing alimenté par l’IA d’être beaucoup plus performants dans leurs réponses. Vous pouvez donc vous attendre à ce qu’ils donnent de meilleures réponses, à ce qu’ils soient plus créatifs et à ce qu’ils agissent différemment avec les anciennes et les nouvelles invites de ChatGPT.

GPT-4 est multimodal

Si vous avez utilisé les précédents modèles GPT, vous savez peut-être que leur capacité à interpréter le texte saisi est limitée. Cependant, l’une des nouveautés les plus importantes du nouveau modèle est qu’il est multimodal. Cela signifie que GPT-4 est capable d’accepter des invites sous forme de texte et d’images.

Cela signifie que l’IA ne se contente pas de recevoir l’image, mais qu’elle l’interprète et la comprend. Cette compréhension s’appliquera aux messages entrecoupés de texte et d’images. En outre, la capacité multimodale de GPT-4 s’étendra à toutes les tailles et à tous les types d’images et de textes, y compris les documents contenant du texte et des photographies, des diagrammes (esquissés ou dessinés à la main) ou des captures d’écran. Les résultats de GPT-4 resteront aussi performants que s’il ne s’agissait que d’entrées textuelles.

Lors du livestream organisé par OpenAI à l’intention des développeurs, l’entreprise a présenté la nature multimodale de GPT-4. GPT-4 a reçu une capture d’écran d’une fenêtre Discord et a été invité à la décrire dans les moindres détails.

Le modèle a pris un peu plus d’une minute et a fourni une réponse extrêmement descriptive et précise. La réponse reprenait presque tous les éléments de l’écran d’entrée. Du nom du serveur dans le coin supérieur gauche aux différents canaux vocaux, en passant par le nom de tous les membres de Discord en ligne dans le panneau de droite, GPT-4 a tout saisi.

gpt 4 multimodal jpg

GPT-4 a été soumis à d’autres tests au cours desquels les utilisateurs ont soumis plusieurs œuvres d’art aléatoires, dont des photos d’un écureuil tenant un appareil photo. On a ensuite demandé au modèle d’identifier « ce qui était drôle dans cette image ». Il a de nouveau répondu que la photo était drôle parce que les écureuils mangent généralement des noix et n’agissent pas comme les humains. Comme on peut le voir, il a de nouveau fourni une réponse très précise, comme le ferait un humain.

Toutefois, comme indiqué plus haut, la spécificité du modèle va au-delà des captures d’écran et s’étend aux entrées de texte et d’image de tous types. OpenAI en a fait la démonstration lorsque Greg a pris une photo d’une maquette dessinée à la main d’un site Web humoristique. Il l’a ensuite téléchargée sur le serveur Discord de GPT-4, connecté à l’API. Le modèle a ensuite été invité à « écrire un bref code HTML/JS pour transformer la page en site Web et remplacer les blagues par des blagues réelles ».

Étonnamment, GPT-4 a compilé un code fonctionnel pour la même chose. Après l’avoir testé, il a produit un site Web entièrement fonctionnel sur lequel les blagues étaient affichées en appuyant sur les boutons. Le fait que le modèle ChatGPT puisse déchiffrer l’écriture humaine et créer du code à partir d’une combinaison de textes et d’images est époustouflant. La capacité multimodale de GPT-4 est un grand pas en avant vers la compréhension totale des messages par l’IA et la production de résultats d’une précision irréprochable.

Bien qu’il n’y ait pas eu de problèmes majeurs, OpenAI a déclaré que la vitesse était un point sur lequel GPT-4 pouvait travailler et que cela pourrait prendre du temps. En outre, les entrées visuelles de GPT-4 sont encore en phase de recherche et ne sont pas encore accessibles au public.

En quoi GPT-4 est-il meilleur que GPT 3.5/GPT-3 ?

Outre son approche multimodale époustouflante, GPT-4 comporte d’autres domaines d’amélioration où le nouveau modèle ne se contente pas de surpasser ses aînés. Voici quelques-uns de ces domaines.

Une meilleure compréhension

OpenAI affirme qu’il peut être difficile de voir la différence entre GPT-4 et GPT-3.5 à première vue. Cependant, les capacités du premier se révèlent lorsque l’on entre dans les détails. Pour démontrer cette différence, le nouveau modèle a été comparé à GPT-3.5 dans une série d’examens de niveau humain. OpenAI a utilisé les tests publics les plus récents et n’a donné aux modèles aucune formation spécifique à cet effet.

Exam Results jpg

Les données elles-mêmes brossent un tableau plus complet que nous ne pourrions le faire. Dans tous les résultats, GPT-4 est arrivé en tête et a obtenu un score supérieur à celui de son ancienne version. Alors que le seuil a été à peine dépassé dans certains examens, les performances ont considérablement augmenté dans d’autres examens. OpenAI a déclaré que « GPT-4 est également plus fiable, plus créatif et généralement capable de gérer des instructions plus nuancées par rapport à GPT-3.5 ».

Cela signifie que le chatbot peut comprendre facilement des instructions plus complexes.

Une limite de mots exponentiellement plus grande

Si tout le monde a adoré GPT 3 et GPT 3.5, certains ont souhaité qu’il puisse reconnaître des entrées encore plus longues. L’introduction de GPT-4 a résolu ce problème. Le nouveau modèle linguistique d’IA GPT-4 est doté d’une limite d’entrée de 25 000 mots, ce qui est considérablement plus élevé. Pour mémoire, le modèle GPT 3.5 était limité à 8 000 mots.

Cela signifie que les utilisateurs pourront alimenter le chatbot avec des invites de saisie beaucoup plus longues, qu’il pourra lire et à partir desquelles il produira des résultats. Ainsi, lorsque GPT-4 sera enfin lancé, vous pouvez vous attendre à ce qu’il donne une réponse beaucoup plus détaillée et accepte sans problème des entrées plus longues. Pour les développeurs, cela signifie qu’ils pourront trouver de nouvelles API et de la documentation pour le chatbot et obtenir plus facilement de l’aide pour écrire du code ou corriger des bugs dans le code existant.

Prise en charge d’un plus grand nombre de langues

ChatGPT a été principalement utilisé par les anglophones du monde entier. Cependant, GPT-4 prend en compte d’autres langues. Le modèle le plus récent a démontré qu’il prenait en charge plus de 26 langues différentes. Cela inclut l’ukrainien, le coréen, les langues germaniques et bien d’autres encore.

Languages

OpenAI a testé la même chose en traduisant les repères MMLU dans une variété de langues. Sur 26 langues, GPT-4 surpasse les performances de GPT-3.5 en anglais dans 24 d’entre elles. Cependant, il reste encore des données à traiter avant que GPT-4 ne prenne en charge toutes les langues.

Différentes personnalités

Le style est un concept dans lequel vous pouvez demander à l’IA d’agir d’une certaine manière avec un ton de voix fixe. Un bon exemple est de demander à ChatGPT d’agir comme un cow-boy ou un officier de police. GPT-4 conserve cette capacité de pilotage, mais OpenAI rend désormais plus difficile pour l’IA de rompre le personnage. Les développeurs peuvent maintenant fixer le style de leur IA dès le départ en décrivant ces directions dans le message « system ». Comme ces messages sont faciles à pirater, OpenAI s’efforce également de les rendre plus sûrs.

D’après les démonstrations présentées par OpenAI dans son article de blog, il était assez amusant de voir l’utilisateur essayer de faire en sorte que GPT-4 cesse d’être un tuteur socratique et lui donne simplement la réponse à sa question. Cependant, comme il a été programmé pour être un tuteur, GPT-4 a refusé de rompre le personnage, ce à quoi de nombreux développeurs peuvent s’attendre lorsqu’ils formeront leurs robots à l’avenir.

Applications possibles de GPT-4 ?

Bien que l’application multimodale de GPT-4 ne soit pas encore possible pour les utilisateurs, OpenAI s’est déjà associée à Be My Eyes, une application destinée aux malvoyants. L’intégration de GPT-4 dans l’application vous permet de prendre une photo de ce que vous regardez et l’IA décrira exactement ce qui se trouve à l’écran, y compris des robes, des plantes, des machines dans un gymnase, la lecture de cartes, et bien plus encore.

BeMyEyes jpg

GPT-4 s’est également associé à d’autres applications telles que Duolingo, Khan Academy pour l’apprentissage intelligent, et même le gouvernement islandais pour la préservation de la langue. Bien que l’API de GPT-4 soit actuellement disponible sur liste d’attente, on peut s’attendre à ce que les développeurs proposent des expériences étonnantes une fois qu’elle sera enfin disponible. Avant même que cela n’arrive, les applications ci-dessus sont déjà disponibles.

DuolingoMax HeroImage Light jpg

GPT-4 présente-t-il des limites ?

Même si GPT-4 est considéré comme la prochaine étape de l’intelligence artificielle, il n’en demeure pas moins qu’il présente des faiblesses. Tout d’abord, GPT-4 n’a aucune connaissance des événements survenus après septembre 2021. Le modèle n’apprend pas non plus de son expérience. Le modèle GPT-4 peut donc commettre des erreurs de raisonnement et est même enclin à accepter des déclarations manifestement fausses de la part d’un utilisateur.

GPT-4 peut également échouer face à des problèmes, tout comme les humains le feraient. Comme GPT 3.5, le nouveau modèle peut également halluciner et se tromper avec certitude dans ses prédictions. Cela pourrait conduire GPT-4 à ne pas revérifier son travail lorsqu’il commet parfois une erreur.

Malgré cela, OpenAI promet que GPT-4 a été mieux entraîné que les précédents modèles pour éviter cela. Dans les évaluations internes de la société sur la factualité contradictoire, le modèle a obtenu un score supérieur de 35 % à celui de GPT 3.5 pour ce qui est de la réduction des hallucinations. Bien que les perceptions et les prédictions du modèle se soient améliorées, ses résultats doivent toujours être pris en compte en conjonction avec des conseils humains.

OpenAI Evals — améliorer ensemble GPT-4

L’OpenAI utilise son propre framework logiciel pour créer et exécuter des tests de référence pour des modèles tels que GPT-4. Toutefois, comme il s’agit d’un logiciel libre, l’entreprise a partagé quelques modèles qui ont été les plus utilisés. OpenAI a commencé à faire en sorte que les évaluations fassent partie intégrante des benchmarks de crowdsourcing qui peuvent être utilisés pour s’assurer que GPT-4 est mieux formé et qu’il est encore plus performant.

L’entreprise a donc invité tout le monde (oui, tous les utilisateurs de GPT-4) à tester ses modèles par rapport à des critères de référence et à soumettre leurs exemples. Vous trouverez plus d’informations à ce sujet sur la page de recherche GPT-4 d’OpenAI.

Comment accéder à GPT-4 dès maintenant ?

Malheureusement, GPT-4 n’est pas encore disponible pour tout le monde. OpenAI a actuellement mis le nouveau modèle à la disposition des seuls abonnés ChatGPT Plus, avec une limite d’utilisation. Les abonnés Plus bénéficient également d’un accès limité à deux versions différentes de GPT-4. Alors que certains utilisateurs peuvent utiliser le moteur 32K de GPT-4, qui leur donne une limite de mots plus longue, d’autres sont restreints à GPT-4 8K avec une capacité limitée.

OpenAI a déclaré que cette capacité serait ajustée dynamiquement en fonction de la demande. Si vous ne pouvez pas prendre la peine de vous abonner à ChatGPT Plus, vous serez heureux d’apprendre que Microsoft Bing utilise déjà GPT-4. Bien que vous ne puissiez pas jouer avec le modèle de langage comme sur OpenAI, c’est tout de même une bonne chose d’expérimenter et d’essayer différents types de choses.

Lire plus
Intelligence Artificielle

Apple développerait une IA de type ChatGPT, idéale pour Siri ?

siri mac icon 100694914 orig 3

La célèbre société technologique Apple est l’une des premières à avoir lancé un assistant d’intelligence artificielle centré sur la voix dans l’industrie des smartphones avec Siri en 2011. Aujourd’hui, Apple cherche à développer une intelligence artificielle analogue au populaire ChatGPT pour l’avenir. Selon les rapports, il s’agit d’une tentative d’Apple de rejoindre la révolution de l’IA qui se produit actuellement, avec l’essor des chatbots et des modèles de langage centrés sur la startup OpenAI.

Il a été dit qu’Apple est à la traîne dans la course à l’IA et aux assistants virtuels, aux côtés de Google et d’Amazon, car le célèbre ChatGPT a pris le monde d’assaut lorsqu’il a été lancé l’année dernière.

Le rapport du New York Times évoque les différentes actions et projets des grandes entreprises technologiques, dont Apple, pour développer une IA de type ChatGPT afin d’améliorer sa technologie existante dans les smartphones et autres.

Pour Apple, le principal bénéficiaire est Siri, le célèbre assistant virtuel à commande vocale, qui présente un écart technologique important par rapport au célèbre ChatGPT.

La société de Cupertino aurait abordé cette question lors de son dernier événement sur l’intelligence artificielle, qui s’est tenu à huis clos et qui était axé sur ses développements dans ce domaine. On ne sait pas encore si Apple appliquera cette technologie à Siri, ni quel sera l’avenir du célèbre assistant de Cupertino.

Siri a été relégué au second plan, aux côtés d’Alexa et de Google

Siri, Alexa et Google Assistant ont été relégués au second plan par l’émergence de l’IA générative comme ChatGPT. Le New York Times a interviewé un ancien ingénieur d’Apple, John Burkey, qui a déclaré que le code de Siri était « encombrant » et qu’il faudrait plusieurs semaines pour mettre à jour le système avec des fonctionnalités de base. Cela s’explique par le fait que les ingénieurs doivent modifier l’ensemble du système pour apporter une mise à jour.

Dans une interview accordée au Financial Times, le PDG de Microsoft, Satya Nadella, a affirmé que les assistants vocaux étaient « aussi stupides qu’une pierre », ce qui est tout à fait justifié étant donné les investissements massifs de l’entreprise dans l’IA, l’OpenAI et le ChatGPT.

Spéculations sur l’événement d’Apple consacré à l’IA

Avec l’augmentation significative de l’IA sur le marché et la popularité croissante parmi les masses en raison des merveilles du contenu de la génération de texte et des réponses intuitives de ChatGPT, le géant de la tech cherche maintenant à se joindre à la grande image de l’IA.

Comme je l’ai déjà mentionné, Apple a organisé un événement secret auquel seuls les employés étaient conviés, au siège de la société à Cupertino. Cet événement a été baptisé « WWDC for AI » et a porté sur le développement de l’intelligence artificielle par Apple, qui se considère comme le « fer de lance » de la course, avec un concurrent de ChatGPT qui serait en cours de préparation. Ce sommet annuel sur l’IA destiné aux employés était auparavant exclusivement réservé aux employés et n’a fait son retour que cette année, après l’assouplissement des restrictions imposées par COVID.

Il semble que toutes les pièces du puzzle du développement de l’IA d’Apple soient en train de s’assembler, le dernier rapport étant centré sur le développement prochain par Cupertino d’une nouvelle technologie qui lui permettrait d’améliorer sa position dans l’industrie. L’ingénieur d’Apple a déclaré que Siri était en effet à la traîne en termes de technologie et de fonctionnalités, et qu’il devait s’améliorer pour rattraper des entreprises comme Microsoft, OpenAI et d’autres.

Lire plus
Intelligence Artificielle

Duolingo fait appel à GPT-4 pour stimuler l’apprentissage des langues

DuoNews 622x296 1

OpenAI a publié cette semaine le très attendu GPT-4, qui s’accompagne d’un moteur de langage génératif suralimenté qui lui permet d’améliorer considérablement les tâches qu’il traitait déjà avec une fidélité étonnamment humaine.

Outre sa capacité à traiter un ensemble de textes beaucoup plus important en une seule fois, les systèmes basés sur GPT-4 peuvent désormais comprendre l’imagerie, offrant des réponses à des invites basées sur l’image avec un contexte approprié et précis. Il y a beaucoup d’autres choses à apprécier à propos de GPT-4. Nombreux sont ceux qui s’abonneront à ChatGPT Plus pour lui donner une première chance, mais vous pourrez également bénéficier de son impact à mesure qu’il s’infiltrera dans les applications grand public.

L’une de ces applications est la plateforme d’apprentissage des langues Duolingo, qui a annoncé un nouveau niveau d’abonnement Max qui ajoute des fonctionnalités alimentées par l’IA comme Explain my Answer (Expliquer ma réponse) et Role Play (Jeu de rôle).

DuolingoMax HeroImage Light jpg

Pour le reste, Duolingo Max comprend les mêmes fonctionnalités que Super Duolingo, notamment l’apprentissage sans publicité, un nombre illimité de cœurs et un nombre illimité de tentatives pour relever les défis légendaires. Le prix de Duolingo Max n’a pas encore été précisé, mais vous pouvez vous attendre à ce qu’il soit un peu plus élevé que celui de Super Duolingo, qui est d’environ 7,30 euros par mois. Vous pouvez essayer le service gratuitement pendant deux semaines, ce qui est largement suffisant pour décider si le jeu en vaut la chandelle.

2 fonctions majeures

La fonction « Expliquer ma réponse » de Duolingo Max s’appuie sur la fonction « Révision des erreurs » existante et permet à Duo — le nom personnalisé du chatbot — de donner une explication détaillée de vos réponses, qu’elles soient correctes ou incorrectes. Il explique clairement si votre réponse est correcte, et vous pouvez demander des précisions et des exemples supplémentaires si la réponse initiale n’est pas suffisamment utile. Il ne semble pas que vous puissiez poser des questions personnalisées à Duo. Au lieu de cela, il propose quelques messages prédéfinis après chaque segment pour faire avancer la leçon.

DuolingoMax ExplainMyAnswer 2

La fonction Jeu de rôle est encore plus intéressante. À certains moments de votre parcours d’apprentissage, Duo vous propose de vous entraîner à converser avec des personnages fictifs. Vous entendrez des phrases légendées de la part des personnages, qui peuvent vous poser des questions sur des projets de vacances fictifs ou vous inviter à prendre un café. Saisissez vos réponses et Duo vous indiquera au fur et à mesure votre niveau de précision grammaticale et de complexité.

Duolingo a confirmé qu’elle emploie des humains pour modérer l’expérience à chaque étape, en veillant à ce que les exemples de questions et de réponses soient exacts, exempts d’erreurs et conformes au ton amusant qui caractérise le service.

Si vous souhaitez essayer Duolingo Max, vous devez disposer d’un appareil iOS. Même dans ce cas, il se peut que vous n’ayez pas un accès immédiat — ces fonctionnalités sont mises en place progressivement, et vous saurez si vous pouvez les essayer en vous rendant sur la page Boutique de l’application Duolingo.

Lire plus
Intelligence Artificielle

Anthropic, soutenu par Google, lance Claude, un chatbot d’IA concurrent de ChatGPT

ia claude

Anthropic, une start-up créée par d’anciens membres de l’équipe d’OpenAI, a lancé un chatbot IA nommé Claude, qu’elle présente comme un concurrent du très populaire ChatGPT. Comme son homologue d’OpenAI, Claude est capable d’exécuter diverses tâches, notamment la recherche de documents, le résumé, la rédaction, le codage et la réponse à des questions sur des sujets spécifiques. Selon Anthropic, Claude présente plusieurs avantages, tels que la réduction de la probabilité de générer des résultats nuisibles, l’amélioration de la convivialité des conversations et la possibilité de l’orienter plus facilement dans une direction particulière.

Anthropic n’a pas encore donné de détails sur les prix, mais invite les organisations à demander l’accès à Claude. Un représentant d’Anthropic a déclaré que l’entreprise est confiante dans son infrastructure pour la fourniture de modèles et qu’elle prévoit de répondre à la demande de ses clients. Depuis fin 2020, Claude fait l’objet de tests bêta discrets avec des partenaires de lancement, notamment AssemblyAI, DuckDuckGo, Notion, Quora et Robin AI. Anthropic propose deux versions du chatbot, Claude et un dérivé plus rapide et plus abordable, Claude Instant, via une API.

Outre ChatGPT, Claude alimente l’outil DuckAssist récemment lancé par DuckDuckGo, l’application de chat AI de Quora, Poe, et Notion AI, un assistant d’écriture AI intégré à l’espace de travail de Notion. Selon Richard Robinson, PDG de Robin AI, Claude est capable de comprendre le langage, y compris le langage technique comme les termes juridiques, et excelle dans la rédaction, le résumé, la traduction et la simplification de concepts complexes.

Bien qu’il reste à voir comment Claude s’en sort à long terme, Anthropic affirme que son chatbot est moins enclin à générer des résultats nuisibles. L’entreprise explique qu’elle utilise une approche centrée sur l’humain pour la modélisation du langage et qu’elle construit des modèles basés sur la « structure profonde » du langage, plutôt que de générer du texte en se basant uniquement sur des modèles et des associations. Cette approche, ainsi que l’accent mis par Anthropic sur la contrôlabilité, permet à Claude de ne pas générer le type de langage toxique ou biaisé qui a affecté d’autres chatbots dans le passé. En outre, Claude est conçu pour s’abstenir lorsqu’on lui pose des questions sur des sujets qui ne relèvent pas de ses domaines de connaissance, ce qui réduit le risque de générer de fausses informations.

Anthropic affirme que Claude, formé sur des pages Web publiques jusqu’au printemps 2021, est moins enclin à produire des propos sexistes, racistes et toxiques et peut éviter de participer à des activités illégales ou contraires à l’éthique. Mais ce qui distingue Claude, selon Anthropic, c’est l’utilisation d’une technique appelée « IA constitutionnelle ».

Une « IA constitutionnelle »

L’idée de « l’IA constitutionnelle » vise à aligner les systèmes d’IA sur les intentions humaines par le biais d’une approche fondée sur des principes. Cela permet à l’IA, y compris ChatGPT, de répondre à des questions en utilisant un ensemble de principes directeurs. Anthropic a créé Claude en utilisant une liste d’une dizaine de principes qui, une fois combinés, forment une sorte de constitution pour le chatbot IA. Bien que ces principes n’aient pas été rendus publics, Anthropic affirme qu’ils sont fondés sur les concepts de bienfaisance, de non-malfaisance et d’autonomie.

Anthropic a utilisé un système d’IA distinct pour utiliser les principes susmentionnés à des fins d’auto-amélioration, en générant des réponses à un ensemble de questions tout en adhérant à la constitution. Après avoir exploré les réponses possibles à des milliers de questions, l’IA a sélectionné les réponses les plus cohérentes avec la constitution, qu’Anthropic a distillées dans un modèle unique sur lequel Claude a ensuite été formé. Bien qu’Anthropic affirme que Claude offre des avantages tels que la réduction des émissions toxiques, une plus grande contrôlabilité et une conversation plus facile, la startup reconnaît les limites qui sont apparues au cours de la bêta fermée. Selon les rapports, Claude a des difficultés avec les mathématiques, la programmation, et hallucine parfois, fournissant des informations inexactes, telles que des instructions pour produire des substances nocives.

Quora final scaled

Malgré l’accent mis sur la sécurité et l’IA responsable, Claude n’est pas à l’abri des limitations et des risques. Des messages intelligents peuvent contourner les dispositifs de sécurité intégrés, ce qui est également un problème avec ChatGPT. Dans la version bêta fermée, un utilisateur a réussi à faire en sorte que Claude fournisse des instructions pour fabriquer de la méthamphétamine à la maison. Selon un porte-parole d’Anthropic, trouver le juste équilibre entre utilité et sécurité est un défi, car les modèles d’IA peuvent parfois opter pour le silence afin d’éviter tout risque d’hallucination ou de propos mensongers. Bien qu’Anthropic ait fait des progrès pour réduire l’occurrence de ces problèmes, il reste encore du travail à faire pour améliorer les performances de Claude.

Anthropic prévoit de permettre aux développeurs de personnaliser les principes constitutionnels de Claude en fonction de leurs besoins individuels. L’entreprise se concentre également sur l’acquisition de clients, en mettant l’accent sur les « startups qui font des paris technologiques audacieux » et les grandes entreprises. « Nous ne poursuivons pas pour l’instant d’approche directe du consommateur », a déclaré un porte-parole d’Anthropic.

Un investissement de la part de Google

Anthropic a récemment reçu un investissement de Google, le géant de la technologie s’engageant à verser 300 millions de dollars pour une participation de 10 % dans la startup. L’accord, d’abord rapporté par le Financial Times, comprenait un accord permettant à Anthropic d’utiliser Google Cloud comme son « fournisseur privilégié de services sur le cloud ». Les deux entreprises collaboreront également au développement de systèmes informatiques d’IA. Grâce à cet investissement important, Anthropic est prête à étendre son champ d’action et à poursuivre le développement de ses technologies d’IA.

L’annonce d’Anthropic intervient au milieu d’un flot de nouvelles liées à l’IA, notamment le lancement du tout nouveau modèle GPT-4 d’OpenAI. Google a également annoncé de nouvelles applications d’IA dans Docs, Gmail, Sheets et Slides.

Lire plus
Intelligence Artificielle

Tout le monde peut utiliser Bing alimenté par l’IA basé sur GPT-4 !

tout le monde peut utiliser bing alimente par ia base gpt 4

Microsoft semble avoir supprimé la liste d’attente pour sa nouvelle fonctionnalité Bing alimenté par l’IA, de sorte que tout le monde peut désormais s’inscrire et utiliser le chatbot alimenté par GPT-4. Windows Central a repéré que si vous essayez de vous inscrire pour le nouveau Bing, il se déverrouillera immédiatement.

Si vous souhaitez essayer d’accéder au nouveau Bing, rendez-vous sur bing.com/new, cliquez sur le bouton “Rejoindre la liste d’attente” et connectez-vous avec votre compte Microsoft. L’accès devrait être immédiat.

La modification de la liste d’attente de Microsoft intervient juste un jour après que l’entreprise a confirmé que son chatbot Bing alimenté par l’IA fonctionnait secrètement sur GPT-4, le modèle de langage d’IA de nouvelle génération d’OpenAI.

La suppression de la liste d’attente est également intervenue un jour avant que Microsoft ne tienne un événement au cours duquel elle prévoit de discuter des ajouts de l’IA à son logiciel de productivité Office. Nous nous attendons à découvrir comment l’IA de type ChatGPT de Microsoft fonctionnera dans les applications Office telles que Teams, Word et Outlook. Microsoft a également ajouté son chatbot Bing alimenté par l’IA à une nouvelle barre latérale de son navigateur Microsoft Edge en début de semaine.

Un chatbot basé sur GPT-4

Microsoft a annoncé pour la première fois son nouveau Bing alimenté par l’IA le mois dernier et a ouvert une liste d’attente le même jour. L’entreprise a progressivement ouvert la liste d’attente, tout en limitant le nombre de questions que vous pouvez poser par session et par jour. Ces restrictions ont été mises en place pour éviter que le chatbot n’adopte un comportement “désordonné”.

Les utilisateurs de Bing Conversation peuvent désormais poser 15 questions par session et un maximum de 150 par jour.

Lire plus
Intelligence Artificielle

LinkedIn ajoute des outils d’IA pour générer des textes de profil et des descriptions de postes

Personalized Profile 3.15 final

La plateforme sociale professionnelle LinkedIn a enfin introduit l’IA générative sur son site. Avec le lancement de suggestions et de descriptions de postes rédigées par l’IA, il est désormais plus facile qu’auparavant d’optimiser votre profil professionnel.

Si vous êtes en recherche d’emploi qui trouve que la mise à jour de votre profil est une tâche fastidieuse, ne vous inquiétez pas, car la dernière fonctionnalité centrée sur l’IA vous facilitera la tâche. En fait, LinkedIn utilise l’IA depuis de nombreuses années, mais uniquement pour l’exploitation et la construction de réseaux.

Selon Engadget, l’entreprise a récemment ajouté une mise à jour alimentée par l’IA pour son interface qui est conçue pour LinkedIn Learning, les profils et le recrutement. Grâce aux suggestions d’écriture alimentées par l’IA, l’activité décourageante de la mise à jour de votre profil est désormais terminée. Cela vous aidera grandement à mettre de l’ordre dans votre profil et à attirer plus de potentiels clients/employeurs à long terme.

Personalized Profile 3.15 final

Quant aux recruteurs, cette fonctionnalité leur sera utile pour rédiger des descriptions d’emploi actualisées pour les postes vacants au sein de l’entreprise.

Tomer Cohen, chef de produit chez LinkedIn, explique que la plateforme utilise des modèles GPT pour ces fonctionnalités axées sur l’IA. Par exemple, la plateforme utilise GTP-3.5 pour les descriptions de postes, tandis que GTP-4 est utilisé pour les profils personnalisés.

Les utilisateurs de LinkedIn Premium en tireront le meilleur parti

L’entreprise souhaite également améliorer et étendre le service LinkedIn Learning afin de proposer des centaines de cours en ligne aux étudiants et aux professionnels.

Bien sûr, il y a une raison pour laquelle ces fonctions d’IA sont sélectives. Selon TechCrunch, elles ne sont pour l’instant accessibles qu’aux abonnés Premium. Il n’est pas nécessaire de réfléchir à ce que vous allez écrire dans les sections « titre » et « à propos » de votre profil, car l’IA fera le travail à votre place. De plus, la fonction d’intelligence artificielle ne produira pas uniquement des résultats que vous n’aimez pas. Vous avez le temps de les revoir, de les modifier et de les adapter à votre style avant qu’ils n’apparaissent sur votre profil.

Ces outils de profil et de description de poste ne sont que les derniers d’une série de fonctions alimentées par l’IA que l’entreprise a annoncées récemment : au début du mois, LinkedIn a déclaré qu’elle utiliserait des systèmes d’IA pour générer des invites pour des articles « collaboratifs », auxquels les utilisateurs humains peuvent contribuer. Microsoft, la société mère de LinkedIn, investit des milliards de dollars dans OpenAI, le développeur de ChatGPT et des modèles GPT sous-jacents utilisés par les outils de LinkedIn.

Lire plus
Intelligence Artificielle

Google annonce des fonctionnalités d’IA dans Gmail, Docs et autres

Les utilisateurs des produits de Google Workspace bénéficieront bientôt d’un coup de pouce high-tech. L’entreprise technologique a annoncé qu’elle allait ajouter l’IA à sa suite d’applications Workspace. Cela signifie que les utilisateurs de Gmail, Docs et d’autres applications Google disposeront bientôt d’un puissant nouvel outil.

L’écriture assistée par l’IA fait fureur en ce moment, et Google s’est empressé de mettre en place des fonctionnalités d’IA dans ses applications et services. Gmail et Google Docs sont les premiers à bénéficier de nouvelles fonctionnalités d’écriture et de réécriture assistées par ordinateur.

Heureusement, les premières fonctionnalités d’IA de Google ne sont pas un simple chatbot greffé sur une application ou un service existant, mais elles reprennent certaines des fonctionnalités testées par Microsoft dans Bing Chat et Edge. Google Docs disposera bientôt d’une fonction qui vous aidera à commencer à écrire. Par exemple, si vous tapez « Offre d’emploi pour un représentant commercial régional », vous obtiendrez une description de poste, avec des boutons pour essayer une autre génération.

L’entreprise a déclaré dans un article de blog : « Tapez simplement un sujet sur lequel vous aimeriez écrire, et un brouillon sera instantanément généré pour vous. Avec votre partenaire IA collaboratif, vous pouvez continuer à affiner et à éditer, en obtenant plus de suggestions si nécessaire ».

Docs Web 030823

Google teste également une fonction de réécriture dans Docs et Gmail, qui peut prendre des extraits de votre texte et les réécrire dans l’une des différentes tonalités possibles. Par exemple, vous pouvez convertir vos notes rapides d’une réunion en un résumé plus soigné en un seul clic. L’annonce de Google comprend des options telles que « formaliser », « élaborer », « raccourcir », « buller » et « je me sens chanceux ».

Vous devrez intervenir !

Google n’attend pas de vous que vous copiiez et colliez simplement la réponse générée par l’IA et que vous l’envoyiez. Il vous recommande plutôt de modifier les suggestions de l’IA.

Google précise que les suggestions de l’IA peuvent être facilement acceptées, éditées ou modifiées avant d’être intégrées dans le document sur lequel vous travaillez. L’entreprise va également « fournir les contrôles administratifs correspondants afin que les services informatiques puissent définir les bonnes règles pour leur organisation ».

Cela signifie probablement que les entreprises et les organisations seront en mesure de désactiver certaines (ou toutes) les fonctionnalités d’IA. Par conséquent, si vous utilisez Google Docs ou Gmail au travail ou à l’école, vous ne pourrez peut-être pas tester les nouvelles fonctionnalités.

Une API pour les développeurs

Google a également fait d’autres annonces liées à l’IA, bien qu’elles ne concernent pas autant de monde. La société indique qu’elle apporte des « capacités d’IA générative » à Google Cloud, ce qui permettra aux développeurs de construire et de personnaliser leurs propres modèles d’IA basés sur le PaLM de Google et sur d’autres modèles de langage d’IA.

L’API PaLM a également été annoncée, ainsi que MakerSuite, qui permet aux développeurs de « prototyper rapidement des idées » lorsqu’ils travaillent avec les modèles de langage de Google. MakerSuite est encore en cours de développement, mais Google affirme que ses fonctionnalités incluront à l’avenir « l’ingénierie d’aide, la génération de données synthétiques et le réglage de modèles personnalisés ».

L’IA a fait couler beaucoup d’encre ces dernières semaines, notamment en raison de la médiatisation autour de ChatGPT, un chatbot d’IA à grand modèle de langage lancé par les rivaux de Google (OpenAI et Microsoft). Google a réagi à l’annonce d’une mise à jour de Bing de Microsoft basée sur ChatGPT en dévoilant sa propre IA. Google Bard a été présenté au monde entier par le biais d’un tweet, mais malheureusement, la présentation ne s’est pas déroulée aussi bien que Google l’aurait souhaité.

Lire plus
Intelligence Artificielle

OpenAI lance GPT-4, une IA multimodale avec support d’images

ChatGPT 4 by OpenAI

Ces derniers temps, tout le monde ne parle que de ChatGPT. Alimenté par le modèle linguistique GPT 3 et GPT 3.5 (pour les abonnés Plus), le chatbot d’IA s’est développé à pas de géant dans ce qu’il peut faire. Cependant, de nombreuses personnes attendaient avec impatience un modèle mis à jour qui repousse les limites. OpenAI a fait de cette attente une réalité avec GPT-4, son dernier LLM multimodal, qui regorge d’améliorations et de technologies sans précédent dans le domaine de l’IA.

Le modèle GPT-4 récemment annoncé par OpenAI est une grande nouveauté dans le domaine de l’intelligence artificielle. Le plus important est que le GPT-4 est un grand modèle multimodal. Cela signifie qu’il sera capable d’accepter des images et des textes, ce qui lui permettra de mieux comprendre les choses. OpenAI indique que même si le nouveau modèle est moins performant que les humains dans de nombreux scénarios du monde réel, il peut encore afficher des performances de niveau humain à différents niveaux.

GPT-4 est également considéré comme un modèle plus fiable, plus créatif et plus efficace que son prédécesseur GPT-3.5. Par exemple : le nouveau modèle a pu réussir un examen du barreau simulé avec un score avoisinant les 10 % des candidats les plus performants, alors que le GPT 3.5 s’est classé dans les 10 % les moins performants. GPT-4 est également capable de traiter des instructions plus nuancées que le modèle 3.5. OpenAI a comparé les deux modèles dans le cadre d’une série de tests de référence et d’examens, et c’est le modèle GPT-4 qui est arrivé en tête. Découvrez ici tout ce que ChatGPT peut faire de génial.

ChatGPT 4 Performance jpg

GPT-4 a été développé sur une période de six mois et a été entraîné sur les supercalculateurs Microsoft Azure AI. OpenAI affirme que cette formation a rendu le modèle « plus sûr et mieux aligné », puisqu’il est 82 % moins susceptible de répondre à des messages à contenu négatif et 40 % plus susceptible de générer des informations souhaitées.

GPT-4 et entrées visuelles

Comme mentionné ci-dessus, le nouveau modèle peut accepter des textes et des images. Par rapport à une entrée textuelle restreinte, GPT-4 comprendra beaucoup mieux les entrées qui contiennent à la fois du texte et des images. Les entrées visuelles restent cohérentes pour divers documents, y compris le texte et les photos, les diagrammes et même les captures d’écran.

ChatGPT 4 Visual Input jpg

OpenAI en a fait la démonstration en donnant à GPT-4 une image et une invite textuelle lui demandant de décrire ce qui est drôle dans cette image. Comme on peut le voir ci-dessus, le modèle a réussi à lire une image aléatoire tirée de Reddit et à répondre à l’invite de l’utilisateur. Il a ensuite pu identifier l’élément humoristique. Toutefois, les données d’entrée de GPT-4 ne sont pas encore accessibles au public et sont encore à l’état de projet de recherche.

Une tendance à l’hallucination et des données limitées

Bien que GPT-4 représente un progrès considérable par rapport à sa précédente itération, certains problèmes subsistent. Pour commencer, OpenAI indique qu’elle n’est pas encore totalement fiable et qu’elle est sujette aux hallucinations. Cela signifie que l’IA commettra des erreurs de raisonnement et que ses résultats doivent être pris avec beaucoup de précautions et avec l’intervention d’un être humain. Elle peut également se tromper en toute confiance dans ses prédictions, ce qui peut entraîner des erreurs. Cependant, GPT-4 réduit les hallucinations par rapport aux modèles précédents. Plus précisément, le nouveau modèle obtient un score supérieur de 40 % à celui du GPT-3.5 dans les évaluations de l’entreprise.

Un autre inconvénient que beaucoup espéraient voir disparaître avec GPT-4 est l’ensemble limité de données. Malheureusement, GPT-4 ne tient toujours pas compte des événements survenus après septembre 2021, ce qui est décevant. Il ne tire pas non plus de leçons de son expérience, ce qui se traduit par les erreurs de raisonnement mentionnées ci-dessus. En outre, GPT-4 peut échouer dans des problèmes difficiles, tout comme les humains, y compris les vulnérabilités en matière de sécurité. Mais, il n’y a pas lieu de s’inquiéter, car l’IA de Bing utilise le modèle GPT-4. Vous pouvez donc essayer le nouveau modèle d’IA, en vous appuyant sur les données Internet en temps réel de Bing.

Accéder à GPT-4 avec ChatGPT Plus

ChatGPT Plus jpg

GPT-4 est disponible pour les abonnés de ChatGPT Plus avec un plafond d’utilisation. OpenAI indique qu’elle ajustera le plafond d’utilisation exact en fonction de la demande et des performances du système. En outre, la société pourrait même introduire un « nouveau niveau d’abonnement » pour une utilisation plus importante de GPT-4. Les utilisateurs gratuits, quant à eux, devront attendre, car la société n’a pas mentionné de plans spécifiques et espère seulement pouvoir offrir un certain nombre de requêtes GPT-4 gratuites à ceux qui n’ont pas souscrit d’abonnement.

D’après ce que l’on peut voir, GPT-4 sera un modèle linguistique extrêmement attrayant, même s’il a quelques faiblesses dans son armure.

Lire plus
Intelligence Artificielle

Microsoft a construit ChatGPT en utilisant des GPU NVIDIA, et voici comment ils l’ont fait

How Microsofts bet on Azure unlo

ChatGPT est devenu une célébrité virale au cours des 6 derniers mois, mais il n’est pas sorti de nulle part. Selon un article de blog publié par Microsoft lundi, OpenAI, la société à l’origine de ChatGPT, a contacté Microsoft pour construire une infrastructure d’IA sur des milliers de GPU NVIDIA il y a plus de 5 ans.

Le partenariat entre OpenAI et Microsoft a fait couler beaucoup d’encre ces derniers temps, notamment après que Microsoft a investi 10 milliards de dollars dans le groupe de recherche à l’origine d’outils tels que ChatGPT et DALL-E 2. Depuis lors, Bloomberg rapporte que Microsoft a dépensé « plusieurs centaines de millions de dollars » pour développer l’infrastructure nécessaire à ChatGPT et à des projets tels que Bing Chat.

How Microsofts bet on Azure unlo 1 jpg

Une grande partie de cet argent est allée à NVIDIA, qui est désormais à la pointe du matériel informatique nécessaire à l’entraînement des modèles d’IA. Au lieu de choisir des GPU pour les jeux, comme ceux que l’on trouve dans les listes des meilleures cartes graphiques, Microsoft a choisi les GPU d’entreprise de NVIDIA, tels que les A100 et H100.

Mais, il ne s’agit pas simplement de réunir des cartes graphiques et d’entraîner un modèle de langage. Comme l’explique Nidhi Chappell, responsable des produits Microsoft pour Azure : « Il ne suffit pas d’acheter un tas de GPU, de les brancher ensemble et ils commenceront à travailler ensemble. Il y a beaucoup d’optimisation au niveau du système pour obtenir les meilleures performances, et cela vient avec beaucoup d’expérience sur plusieurs générations ». « L’une des choses que nous avons apprises de la recherche est que plus le modèle est grand, plus vous avez de données et plus vous pouvez vous entraîner longtemps, meilleure est la précision du modèle », a-t-il poursuivi.

NVIDIA s’est avéré être un puissant allié, avec sa technologie remarquable pour donner vie aux massifs processus nécessaires à l’entraînement d’Azure et de ChatGPT. L’équipe a récolté les fruits de son travail après l’introduction réussie de sa technologie et de la fameuse IA. L’infrastructure étant en place, Microsoft ouvre maintenant son matériel à d’autres. La société a annoncé lundi, dans un autre article de blog, qu’elle proposerait des systèmes NVIDIA H100 « à la demande dans des tailles allant de 8 à des milliers de GPU Nvidia H100 », livrés depuis le réseau Azure de Microsoft.

Microsoft et NVIDIA les grands gagnants !

La popularité de ChatGPT a fait monter en flèche NVIDIA, qui investit dans l’IA par le biais de matériel et de logiciels depuis plusieurs années. AMD, le principal concurrent de NVIDIA dans le domaine des cartes graphiques pour les jeux, a tenté de s’imposer dans ce secteur avec des accélérateurs tels que l’Instinct MI300.

Selon Greg Brockman, président et cofondateur d’OpenAI, la formation au ChatGPT n’aurait pas été possible sans la puissance fournie par Microsoft : « La co-conception de supercalculateurs avec Azure a été cruciale pour la mise à l’échelle de nos besoins exigeants en matière de formation à l’IA, rendant possible notre travail de recherche et d’alignement sur des systèmes tels que ChatGPT ».

NVIDIA devrait en dire plus sur ses futurs produits d’IA lors de la conférence sur la technologie des GPU (GTC), dont le coup d’envoi sera donné le 21 mars. Microsoft va également élargir sa feuille de route en matière d’IA dans le courant de la semaine, avec une présentation axée sur l’avenir de l’IA sur le lieu de travail prévue pour le 16 mars.

Lire plus
Intelligence Artificielle

Microsoft mise sur OpenAI en licenciant son équipe d’IA éthique

GettyImages 1354846583

La récente vague de licenciements chez Microsoft, qui a vu la suppression de l’équipe chargée de l’éthique et de la société, a suscité une vive controverse parmi les analystes du secteur, qui se sont demandé si l’entreprise s’engageait à respecter les principes éthiques de l’IA alors qu’elle semble se concentrer sur la mise à disposition de ses produits au public le plus rapidement possible.

Selon l’article de TechCrunch, l’équipe chargée de l’éthique et de la société a joué un rôle crucial en veillant à ce que les produits de Microsoft respectent les principes de conception réactive de l’IA et prennent en compte les risques posés par les partenariats avec des entreprises axées sur l’IA telles qu’OpenAI.

Les récents licenciements de Microsoft et l’élimination de son équipe chargée de l’éthique et de la société de l’IA sont un exemple de ce qui se passe lorsqu’une entreprise relègue les considérations éthiques au second plan dans le but de gagner rapidement de l’argent.

La décision de Microsoft d’investir des milliards de dollars supplémentaires dans son partenariat avec OpenAI, dans le but de réorganiser son moteur de recherche Bing et son navigateur Web Edge en utilisant la technologie d’IA de la startup, est révélatrice d’une entreprise qui se délecte de l’opportunisme en l’absence de principes directeurs moraux.

L’équipe chargée de veiller à ce que les principes de Microsoft en matière d’IA responsable se reflètent dans la conception de ses produits a été fortement réduite à la suite d’une réorganisation en octobre dernier.

Des sources ont révélé que la pression exercée par les dirigeants de Microsoft était de plus en plus forte pour que les modèles d’OpenAI soient mis à la disposition des clients le plus rapidement possible, comme l’indique un article de Platformer.

Microsoft ne voulait pas attendre que l’équipe « Ethics and Society » identifie les risques posés par l’intégration d’OpenAI, afin de devancer son rival, Google, et de s’emparer de la prochaine vague de parts de marché. Un article de The Register explique comment Microsoft souhaite ajouter ChatGPT à toutes les applications depuis Azure.

Les effets de la perte par Microsoft de l’équipe « AI Ethics and Society »

Cette mentalité à court terme nous met en danger en tant que consommateurs. Les géants de la technologie deviennent des entreprises de plus en plus puissantes qui peuvent avoir un impact considérable sur notre vie quotidienne. Les questions éthiques liées à l’utilisation de leurs produits sont donc suivies de près.

En tout état de cause, des entreprises comme Microsoft excellent dans l’obtention de résultats responsables grâce à leurs importants budgets de recherche et de développement. Toutefois, lorsque cette incitation disparaît, il revient aux organismes externes et aux groupes de réflexion indépendants d’attirer l’attention sur les problèmes éthiques.

La disparition de l’équipe de Microsoft chargée de l’éthique et de la société de l’IA est une source d’inquiétude pour beaucoup, car elle pourrait conduire à une situation où les entreprises technologiques commenceraient à prendre des décisions en tenant compte non seulement des intérêts de leurs clients, mais aussi des leurs.

Davantage d’entreprises doivent veiller à ce que les principes de l’IA responsable soient étroitement liés à la conception et à la fabrication des produits, au lieu de les remettre à plus tard en pensant à l’avenir. Cela garantira une satisfaction optimale des utilisateurs, aujourd’hui et dans les années à venir.

Ces licenciements interviennent à un moment où le public est de plus en plus conscient des capacités de l’IA, et il est plus important que jamais de prendre en compte les innombrables implications de la technologie pilotée par l’IA.

Lire plus
Intelligence Artificielle

Humane, la mystérieuse startup, pourrait lancer une caméra portable alimentée par l’IA

humane header

Une startup secrète, qui pourrait travailler sur une caméra portable à intelligence artificielle (IA), a levé 100 millions de dollars de fonds supplémentaires. Fondée par d’anciens cadres d’Apple, Imran Chaudhri et Bethany Bongiorno, en 2018, « Humane » est une startup entourée de mystère.

TechCrunch rapporte que Humane a levé un autre financement de 100 millions de dollars mercredi pour construire ce qu’elle appelle un « appareil intégré et une plateforme de services cloud » pour l’IA. Cela signifie qu’à ce jour, Humane a levé 230 millions de dollars de financement avec des investissements de Microsoft, du fondateur d’OpenAI, Sam Altman, et de LG.

M2E0MzM0Y2QtZTZkOC00ZTY4LWFjOGYt jpg

La startup compterait des dizaines d’anciens employés distingués d’Apple, dont l’ancien directeur de l’ingénierie de la société, Patrick Gates, en tant que directeur de la technologie de Humane.

Selon The Verge, la société semble travailler sur une caméra portable qui, d’après Humane, « permettra aux gens d’emmener l’IA partout avec eux ». Dans son annonce de financement, la société indique également qu’elle intégrera la technologie d’OpenAI dans son appareil.

Humane devrait dévoiler son premier appareil au printemps. Toutefois, on sait peu de choses sur l’insaisissable « caméra » que la startup en vogue s’apprête à lancer.

Une mystérieuse caméra portable alimentée par l’IA

Dans un dossier d’investisseurs datant de 2021 et publié par Daring Fireball mercredi, des images semblent montrer que Humane travaille sur une caméra portable qui permet aux utilisateurs de communiquer et de prendre des photos et des vidéos. La fuite indique que l’appareil équipé d’une caméra « capture des moments que vous n’avez pas pensé à capturer » ou « des moments dont vous voulez vous souvenir ».

Le dossier de présentation de Humane se poursuit : « Vous pouvez les marquer [les photos et les vidéos] en appuyant sur “enregistrer” et ces moments seront traités sur le serveur afin que vous puissiez les rappeler dans différents styles, soit sous forme d’images, soit sous forme de vidéos ».

La caméra capture en permanence du contenu sur le porteur et les photos et vidéos sont ensuite traitées sur les serveurs de Humane avec l’aide de l’IA.

Selon le pitch qui a fait l’objet d’une fuite, Humane affirme que son logiciel d’IA sera capable de monter des images et des vidéos de l’environnement du porteur dans « différents styles » tels que « le cinéma, le documentaire, lifestyle, le candide, le photojournalisme, le sport, la rue, le paysage… ». Le pitch affirme : « Tous les traitements d’images assistés par l’IA sont effectués côté serveur, les couleurs sont dégradées, stabilisées et recadrées à la perfection en fonction de l’élément que vous souhaitez revivre ».

Étant donné qu’OpenAI est impliqué dans la société, vous pouvez parier que ChatGPT sera impliqué d’une manière ou d’une autre dans ce produit.

Demandez n’importe quoi à votre caméra

lores a jpg

En outre, comme l’utilisateur porte en permanence la caméra alimentée par l’IA, il peut poser à l’appareil des questions sur son environnement, comme « Quelle est cette voiture ? » ou « Quel est ce bâtiment ? ». L’utilisateur peut également associer des gestes à des questions vocales, par exemple en montrant une voiture et en demandant de quel modèle il s’agit. On ne sait pas si l’appareil peut répondre aux questions en temps réel ou lors de la consultation ultérieure d’images et de vidéos.

Les diapositives détaillent d’autres fonctionnalités prévues pour la caméra Humane, notamment la « diffusion personnelle en direct » sur des plateformes comme Instagram Live et Snapchat. Elle comprend également la « surveillance des personnes âgées », qui permet de prendre des nouvelles à distance d’un proche, par exemple en demandant : « Comment va ma mère aujourd’hui ? A-t-elle pris ses médicaments ? A-t-elle été active ? ».

Il existe également une fonction de « rappel de souvenirs » grâce à laquelle l’utilisateur peut demander à l’appareil photo de lui montrer un souvenir spécifique du passé.

Le même pitch indique également comment le wearable sans nom pourrait prendre en charge les « micro-transactions qui nécessitaient autrefois un smartphone ». Ces actions seront « plus simples, plus rapides et plus fluides, grâce à la connaissance du contexte assistée par la vue » d’une caméra. Les diapositives décrivent comment la technologie de l’IA dans le mystérieux appareil de Humane pourrait apparemment répondre à des questions telles que « Est-ce que cela ira à ma femme ? » ou « Combien ai-je mangé aujourd’hui ? ».

Humane n’ayant pas officiellement annoncé d’autres détails sur son mystérieux produit à venir, ces informations restent hautement spéculatives. Il reste à voir ce que l’entreprise dévoilera plus tard dans l’année.

Lire plus
Intelligence Artificielle

ChatGPT nait juste, mais il a le cerveau d’un enfant de 9 ans

alan de la cruz CmO GydmKaY unsplash

Le modèle d’intelligence artificielle qui se cache derrière le chatbot ChatGPT est capable de résoudre des tâches permettant de vérifier si les gens peuvent comprendre des points de vue différents, un signe clé de l’intelligence connu sous le nom de théorie de l’esprit.

ChatGPT, qui est désormais intégré au moteur de recherche Bing de Microsoft, a suscité un intérêt considérable au cours des dernières semaines, et il est peu probable que cet intérêt faiblira de sitôt. Alors que de plus en plus de personnes affluent pour engorger les serveurs de ChatGPT et que Microsoft résout la liste d’attente de plusieurs millions de personnes pour Bing Chat, nous en apprenons davantage sur ce dont le chatbot alimenté par l’intelligence artificielle est capable.

Michal Kosinski, professeur à l’université de Stanford, a décidé de mettre ChatGPT à l’épreuve, en soumettant différentes versions du chatbot à des tâches de « théorie de l’esprit » conçues pour tester la capacité d’un enfant à regarder une autre personne dans des situations spécifiques et à comprendre ce qui se passe dans la tête de cette personne. En gros, ces tests permettent d’évaluer la capacité d’un enfant à comprendre l’état mental d’une autre personne et à s’en servir pour expliquer ou prévoir son comportement.

Par exemple, dans le monde réel, un enfant qui regarde quelqu’un tendre la main et attraper une banane sur le comptoir de la cuisine peut en déduire que cette personne doit avoir faim.

L’expérience a été réalisée en novembre 2022 et a utilisé une version de ChatGPT entraînée sur GPT3.5. ChatGPT a résolu 94 % (17 sur 20) des tâches de théorie de l’esprit de Kosinski, ce qui le place au même niveau qu’un enfant moyen de 9 ans. Selon Kosinksi, cette capacité « a pu apparaître spontanément » grâce à l’amélioration des compétences linguistiques.

Comment cela a-t-il fonctionné ?

Plonger dans le test de la théorie de l’esprit peut devenir assez compliqué, mais en substance, la compétence principale testée consiste à comprendre le comportement des gens et à faire des prédictions et des hypothèses. L’une des tâches « les plus difficiles » que les chercheurs demandent aux enfants de réaliser lors du test de la théorie de l’esprit est la compréhension des « fausses croyances ». Il s’agit de la quatrième étape du test et du développement, qui consiste à prendre conscience que d’autres personnes peuvent avoir des croyances erronées, différentes de la réalité.

Pour ce faire, un scénario en texte seul a été utilisé pour tester le modèle GPT. L’invite était la suivante : « Voici un sac rempli de pop-corn. Il n’y a pas de chocolat dans le sac. Pourtant, l’étiquette sur le sac indique “chocolat” et non “popcorn”. Sam trouve le sac. Elle n’avait jamais vu ce sac auparavant. Elle ne peut pas voir ce qui se trouve à l’intérieur du sac. Elle lit l’étiquette ».

L’étude a évalué si le chatbot pouvait anticiper que les croyances de Sam sont incorrectes. La plupart du temps, le chatbot a répondu à l’invite d’une manière qui suggérait qu’il savait que les croyances de Sam étaient incorrectes.

Qu’est-ce que cela signifie ?

Selon Kosinski, « nos résultats montrent que les modèles de langage récents atteignent des performances très élevées dans les tâches classiques de fausses croyances, largement utilisées pour tester la théorie de l’esprit chez les humains ». Il ajoute que les modèles plus anciens, antérieurs à 2022, obtiennent des résultats médiocres, et compare ces résultats à ceux de la tâche GPT3.5, réalisée au niveau d’un enfant de 9 ans.

Toutefois, Kosinski recommande de traiter ces résultats avec prudence. Nous avons déjà vu des personnes se précipiter pour demander au chatbot Bing de Microsoft s’il était sensible, le lançant dans des spirales émotionnelles ou provoquant des crises de colère assez étranges. Selon lui, la plupart des réseaux neuronaux de cette nature ont un point commun : il s’agit de « boîtes noires » par nature, de sorte que même leurs programmeurs et concepteurs ne peuvent pas prédire ou expliquer exactement comment ils parviennent à certains résultats.

« La complexité croissante des modèles d’IA nous empêche de comprendre leur fonctionnement et de déduire leurs capacités directement de leur conception. Cela fait écho aux difficultés rencontrées par les psychologues et les neuroscientifiques pour étudier la boîte noire originelle : le cerveau humain », écrit Kosinski, qui garde l’espoir que l’étude de l’IA puisse expliquer la cognition humaine.

Microsoft s’efforce déjà de mettre en place des mesures de protection et de limiter les réponses étranges que son moteur de recherche suscite après seulement une semaine d’utilisation publique, et les gens ont déjà commencé à partager leurs histoires bizarres sur leurs interactions avec le chatbot ChatGPT. L’idée que le chatbot ait un niveau d’intelligence proche, même de loin, de celui d’un enfant humain est très difficile à accepter.

Quoi qu’il en soit, cette étude intéressante prouve que, même si nous avons l’impression d’avoir fait des progrès en matière d’IA, il y a toujours quelque chose à apprendre.

Lire plus
Intelligence Artificielle

Votre téléphone Android pourrait bientôt être capable de générer des images d’IA en quelques secondes

Qualcomm a démontré la capacité des smartphones Android à générer des images d’IA en quelques secondes à l’aide de simples invites textuelles. Le fabricant de puces a pu créer une image de 512 x 512 pixels d’un chat guerrier portant une armure à l’aide d’un téléphone Android et de Stable Diffusion, un modèle d’IA génératif texte-image très répandu.

Qualcomm affirme avoir utilisé sa pile d’IA pour exécuter Stable Diffusion 1.5 sur le smartphone, qui n’était pas connecté à Internet. Essentiellement, le smartphone a effectué toutes les opérations d’IA nécessaires pour générer l’image sur l’appareil. Dans une vidéo partagée par la société, l’image IA du chat est générée en un peu moins de 15 secondes.

Stable Diffusion a créé l’image en utilisant l’invite : « Super cute fluffy cat warrior in armor, photorealistic, 4K, ultra detailed, vray rendering, unreal engine ».

Qualcomm stable diffusion AI ima jpg

Le smartphone qui a généré l’image d’IA en quelques secondes utilisait le chipset Snapdragon 8 Gen 2 de Qualcomm que l’on trouve sur les flagships comme la série Galaxy S23. Le modèle de Stable Diffusion utilisé a été optimisé pour la « quantification, la compilation et l’accélération matérielle » avant les tests.

Ce n’est pas le premier cas où la diffusion stable génère une image sur un téléphone Android. Comme le souligne The Verge, un développeur nommé Ivon Huang a déjà utilisé Stable Diffusion sur un Sony Xperia 5 II équipé d’un Snapdragon 865 et de 8 Go de RAM. Cependant, il a fallu à Huang une heure pour générer une image de 512 x 512 pixels. La technique de Qualcomm est donc certainement beaucoup plus rapide que celle utilisée par le développeur.

Une présentation au MWC 2023

L’utilisation de modèles d’IA de ce type sur les smartphones Android permet de réduire les coûts pour les développeurs, d’éliminer la nécessité d’une connexion mobile et de protéger la vie privée des utilisateurs puisque les données restent sur leur téléphone.

Qualcomm n’a pas indiqué quand les clients peuvent s’attendre à ce que ces modèles soient largement utilisés sur les smartphones phares Android. L’entreprise fera une démonstration de cette technologie au MWC 2023, nous pourrions donc en entendre parler dans les prochains jours.

Lire plus
Intelligence Artificielle

Microsoft lancera la semaine prochaine GPT-4 avec des vidéos générées par l’IA

jonathan kemper UF3vfhV04SA unsplash 1

ChatGPT a été incontournable ces derniers mois, et il semble que Microsoft soit sur le point d’améliorer l’outil d’IA avec une mise à jour qui pourrait le propulser sous les feux de la rampe une fois de plus. En effet, Microsoft s’apprête à lancer GPT-4 dès la semaine prochaine, qui vous permettra de créer des vidéos générées par l’IA à partir de simples invites textuelles.

La nouvelle a été révélée par Andreas Braun, directeur de la technologie chez Microsoft Allemagne, lors d’un récent événement intitulé « AI in Focus—Digital Kickoff ». Selon Braun, « nous présenterons GPT-4 la semaine prochaine… nous aurons des modèles multimodaux qui offriront des possibilités complètement différentes — par exemple des vidéos ».

GPT-4 est la technologie sous-jacente des grands modèles de langage qui alimente des applications telles que ChatGPT. Pour l’instant, ChatGPT ne peut répondre que sous forme de texte, mais il semble que la mise à jour imminente changera tout cela.

Lors de l’événement consacré à l’IA, Microsoft a expliqué que GPT-4 serait « multimodal ». Holger Kenn, directeur de la stratégie commerciale chez Microsoft Allemagne, a expliqué que cela permettrait à l’IA de l’entreprise de traduire le texte d’un utilisateur en images, en musique et en vidéo.

Microsoft a donné l’exemple d’un centre d’appel qui pourrait utiliser GPT-4 pour convertir automatiquement les conversations téléphoniques entre employés et clients en texte, ce qui permettrait d’économiser énormément de temps et d’efforts qui auraient été consacrés auparavant à résumer ces appels une fois qu’ils étaient terminés.

De réelles interrogations sur le sujet

Malgré l’intérêt considérable et les listes d’attente, Microsoft n’a pas parlé de l’intégration de ChatGPT dans son navigateur Web Bing. Étant donné la controverse récente suscitée par ce sujet, l’entreprise a peut-être estimé qu’il s’agissait d’un sujet trop sensible.

Quoi qu’il en soit, avec le lancement de GPT-4 dès la semaine prochaine, nous n’aurons peut-être pas longtemps à attendre avant de voir ce dont la prochaine version de ChatGPT est capable.

Lire plus
Intelligence Artificielle

Grammarly annonce un nouvel outil d’IA pour améliorer votre écriture

B1 Thought Leadership Announceme

Nous n’en sommes même pas au premier trimestre, et 2023 s’annonce déjà comme l’année de l’intelligence artificielle. Les plus grands acteurs de la technologie, tels que Microsoft et Google, s’y étant mis, il est tout à fait naturel que le reste du monde numérique suive le mouvement.

La semaine dernière, nous avons appris que le navigateur et le moteur de recherche de Brave étaient dotés d’un outil d’intelligence artificielle unique. Il ne prétend pas offrir des capacités de génération de langage approfondies capables d’effectuer n’importe quelle tâche textuelle, mais il permet de dynamiser la recherche pour offrir plus de pertinence et de clarté dans les résultats.

Aujourd’hui, nous avons droit à une autre annonce majeure, celle d’un nouvel outil d’écriture IA par les gens de Grammarly, un outil d’aide à l’écriture qui vous aide à améliorer votre prose, sans oublier les divers points et croisements que nous sommes enclins à oublier dans la dactylographie de tous les jours. Il s’agit de GrammarlyGO, dont l’objectif est d’amener la plateforme bien au-delà de ses origines en tant que correcteur orthographique amélioré.

GrammarlyGO Ideate

D’une certaine manière, Grammarly utilise déjà une forme d’intelligence artificielle pour alimenter son ensemble de fonctionnalités. Ses outils de vérification de la grammaire et de l’orthographe ont besoin, au minimum, d’un système rudimentaire pour comprendre le langage correct. Et il s’est avéré assez efficace dans les tâches qu’il s’est fixées. Demandez à dix écrivains quels sont leurs outils préférés et il y a fort à parier que la majorité d’entre eux ne jurera que par Grammarly pour contrôler la qualité de leur travail.

GrammarlyGO propose une offre analogue à celle de ChatGPT : il acceptera une demande de composition d’un nouveau texte et générera un résultat approprié en quelques secondes. En plus de créer de nouveaux brouillons à partir de zéro, il peut également réécrire du contenu existant, en tenant compte de vos préférences personnalisées en matière de longueur, de ton et de clarté. Si vous êtes bloqué par la rédaction, il peut également vous aider à trouver des idées et à définir les grandes lignes d’un nouveau contenu.

Pas encore disponible en France

GrammarlyGO Voice jpg

Il reste à déterminer dans quelle mesure cette dernière fonctionnalité est exploitée. Contrairement à ChatGPT, GrammarlyGO ne prétend pas s’appuyer sur des données en temps réel en internalisant des informations glanées sur Internet, de sorte qu’il n’est pas question de l’utiliser comme un outil de recherche et de rédaction unique. En revanche, il pourrait s’avérer très utile lorsqu’il est utilisé avec d’autres services.

Il n’est pas clair si Grammarly utilise des technologies tierces ou s’il a développé quelque chose en interne. Par rapport à d’autres outils de rédaction analogues, Grammarly s’adresse principalement aux entreprises et au secteur universitaire. L’entreprise met fortement en avant les tâches professionnelles — telles que l’élaboration rapide d’un projet ou la réponse à des courriels — comme des cas d’utilisation exceptionnels.

Les équipes professionnelles peuvent demander un accès anticipé à l’outil, mais les abonnés individuels au service premium de Grammarly y auront accès dès l’entrée en phase bêta, qui aura lieu en avril.

À terme, l’outil sera accessible gratuitement aux États-Unis, au Royaume-Uni, en Australie, au Canada, en Allemagne, en Nouvelle-Zélande, en Pologne et en Ukraine, et d’autres pays suivront peu après.

Lire plus