close

IA

Vous adorez l’IA ? L’intelligence artificielle est de plus en plus présente dans notre quotidien, notamment au travers de nouveaux produits ou services. Nous allons les découvrir.

IA

Spotify lance un projet pilote de traduction vocale pour les podcasts

Alors que tout le monde est impatient d’en savoir plus sur la version Hi-Fi, Spotify a annoncé le lancement d’une nouvelle fonctionnalité beaucoup plus modeste : la traduction vocale pour les podcasts.

Le pilote « Voice Translation for podcasts » est une nouvelle fonctionnalité alimentée par l’IA, qui fait exactement ce que son nom suggère : elle traduit les podcasts dans d’autres langues avec la voix du podcasteur. Spotify explique que cette fonctionnalité permet « une expérience d’écoute plus authentique, plus personnelle et plus naturelle que le doublage traditionnel », ajoutant : « Un épisode de podcast enregistré à l’origine en anglais peut désormais être disponible dans d’autres langues tout en conservant les caractéristiques distinctives de la voix du locuteur ».

Développée en partenariat avec OpenAI, la traduction vocale correspondra à la voix du locuteur original pour une expérience d’écoute plus authentique. Grâce à cette nouvelle fonctionnalité, un épisode de podcast enregistré à l’origine en anglais sera disponible dans d’autres langues tout en conservant les caractéristiques vocales du locuteur.

Spotify a également annoncé avoir travaillé avec des podcasteurs populaires tels que Dax Shepard, Monica Padman, Lex Fridman, Bill Simmons et Steven Bartlett dans le cadre du projet pilote.

Selon Spotify, les premiers épisodes traduits vocalement par les créateurs du pilote seront disponibles dans le monde entier pour les utilisateurs Premium et gratuits. Cependant, le premier lot d’épisodes traduits ne sera disponible qu’en espagnol, et le français et l’allemand seront disponibles dans les jours et semaines à venir.

Les podcasts sont en vogue

À partir d’aujourd’hui, les épisodes de podcast suivants seront mis à la disposition des utilisateurs dans les vues en lecture immédiate correspondantes :

Par ailleurs, Spotify a révélé que plus de 100 millions de personnes écoutent régulièrement des podcasts sur sa plateforme de streaming, ce qui prouve qu’il existe un vaste public pour ceux qui souhaitent créer ce type de contenu. Sa nouvelle offre de traduction vocale alimentée par l’IA pourrait permettre d’obtenir des millions d’écoutes supplémentaires pour les émissions qui se retrouvent soudainement sur de nouveaux marchés gigantesques.

Lire plus
IA

OpenAI ajoute la prise en charge des capacités vocales et visuelles à ChatGPT

OpenAI déploie de nouvelles fonctionnalités pour ChatGPT qui permettront d’exécuter des invites avec des images et des directives vocales en plus du texte.

La marque d’IA a annoncé lundi qu’elle mettrait ces nouvelles fonctionnalités à la disposition des utilisateurs de ChatGPT Plus et Enterprise au cours des deux prochaines semaines. La fonction vocale est disponible sur iOS et Android en opt-in, tandis que la fonction images est disponible sur toutes les plateformes ChatGPT. OpenAI indique qu’elle prévoit d’étendre la disponibilité des images et des fonctions vocales au-delà des utilisateurs payants après le déploiement échelonné.

Le chat vocal fonctionne comme une conversation auditive entre l’utilisateur et ChatGPT. Vous appuyez sur le bouton et posez votre question. Après avoir traité l’information, le chatbot vous donne une réponse sous forme de discours auditif et non de texte. Le processus est analogue à l’utilisation d’assistants virtuels tels qu’Alexa ou Google Assistant et pourrait être le préambule à une refonte complète des assistants virtuels dans leur ensemble. L’annonce d’OpenAI intervient quelques jours seulement après qu’Amazon a révélé qu’une fonction analogue allait être intégrée à Alexa.

Pour mettre en œuvre la communication vocale et audio avec ChatGPT, OpenAI utilise un nouveau modèle de synthèse vocale capable de générer « un son analogue à celui d’un humain à partir d’un simple texte et de quelques secondes d’échantillon de discours ». En outre, son modèle Whisper peut « transcrire vos paroles en texte ».

OpenAI se dit consciente des problèmes qui pourraient survenir en raison de la puissance de cette fonction, notamment « la possibilité pour des acteurs malveillants d’usurper l’identité de personnalités publiques ou de commettre des fraudes ».

C’est l’une des principales raisons pour lesquelles l’entreprise prévoit de limiter l’utilisation de ses nouvelles fonctionnalités à des « cas d’utilisation spécifiques et à des partenariats ». Même lorsque les fonctionnalités seront plus largement disponibles, elles seront accessibles principalement aux utilisateurs privilégiés, tels que les développeurs.

Une fonctionnalité très utile

La fonction d’image vous permet de capturer une image et de la saisir dans ChatGPT avec votre question ou votre message. Vous pouvez utiliser l’outil de dessin de l’application pour clarifier votre réponse et avoir une conversation avec le chatbot jusqu’à ce que votre problème soit résolu. Cette approche est analogue à la nouvelle fonction Copilot de Microsoft dans Windows, qui est construite sur le modèle d’OpenAI.

OpenAI a également reconnu les défis posés par ChatGPT, tels que le problème des hallucinations. En s’alignant sur la fonction d’image, la marque a décidé de limiter certaines fonctionnalités, telles que la « capacité du chatbot à analyser et à faire des déclarations directes sur les gens ».

ChatGPT a d’abord été présenté comme un outil de synthèse vocale à la fin de l’année dernière. Cependant, OpenAI a rapidement étendu ses prouesses. Le chatbot initial, basé sur le modèle de langage GPT-3, a depuis été mis à jour avec GPT-3.5 et maintenant GPT-4, qui est le modèle qui reçoit la nouvelle fonctionnalité. Lors du lancement de GPT-4 en mars, OpenAI a annoncé plusieurs collaborations avec des entreprises, telles que Duolingo, qui a utilisé le modèle d’IA pour améliorer la précision de l’écoute et des leçons basées sur la parole sur l’application d’apprentissage des langues. OpenAI a collaboré avec Spotify pour traduire des podcasts dans d’autres langues tout en préservant le son de la voix du podcasteur. L’entreprise a également évoqué son travail avec l’application mobile Be My Eyes, qui aide les personnes aveugles et malvoyantes. Nombre de ces applications et services étaient déjà disponibles avant la mise à jour des images et de la voix.

Lire plus
IA

Google Bard est-il la meilleure alternative à ChatGPT ?

Google Bard vient de recevoir des mises à jour majeures, il est maintenant capable de communiquer avec une série d’applications Google, est-ce que cela en fait la meilleure alternative à ChatGPT ?

Google Bard et ChatGPT sont tous deux de grands modèles de langage (LLM) capables de générer du texte, de traduire des langues, de rédiger différents types de contenus créatifs et de répondre à vos questions de manière informative.

Cependant, il existe un certain nombre de différences essentielles entre les deux modèles, qui font de Google Bard la meilleure alternative à ChatGPT.

Accès à des informations en temps réel

L’un des principaux avantages de Google Bard est qu’il a accès à des informations en temps réel provenant d’Internet. Cela signifie que Bard peut vous fournir les informations les plus récentes sur n’importe quel sujet, même s’il s’agit de quelque chose de nouveau ou d’inédit.

ChatGPT, quant à lui, est entraîné sur un ensemble de données de texte et de code dont la dernière mise à jour remonte à 2021. Par conséquent, ChatGPT n’est pas en mesure de vous fournir les informations les plus récentes sur des événements d’actualité ou d’autres sujets qui évoluent rapidement.

Une meilleure compréhension du contexte

Un autre avantage de Bard est qu’il a une meilleure compréhension du contexte. Cela signifie que Bard peut mieux comprendre le sens de vos messages et de vos questions, et vous fournir des réponses plus précises et plus pertinentes.

ChatGPT, en revanche, peut parfois avoir du mal à comprendre le contexte de vos messages et de vos questions. Cela peut conduire à des réponses inexactes ou non pertinentes. C’est quelque chose que Bard peut également faire à l’occasion.

Des réponses plus complètes et plus informatives

Bard est également plus à même de générer des réponses complètes et informatives. Cela s’explique par le fait que Bard est entraîné sur un ensemble de données de texte et de code beaucoup plus important que l’ensemble de données sur lequel ChatGPT est entraîné.

ChatGPT, en revanche, peut parfois générer des réponses courtes ou incomplètes. Cela peut être frustrant si vous cherchez une réponse détaillée et informative à votre question.

Une interface plus conviviale

L’interface de Bard est également plus conviviale que celle de ChatGPT. L’interface de Bard est plus attrayante visuellement et plus facile à naviguer. Bard vous permet également d’éditer vos prompts et vos questions après les avoir posés, et de visualiser les réponses multiples que Bard a générées.

L’interface de ChatGPT, en revanche, est plus basique et moins conviviale. Elle ne vous permet pas de modifier vos messages-guides et vos questions après les avoir posés, et n’affiche qu’une seule réponse à la fois.

Intégration avec d’autres produits Google

Enfin, Bard est mieux intégré aux autres produits Google, tels que Google Recherche et Google Docs. Il est donc plus facile d’utiliser Bard en conjonction avec d’autres outils que vous connaissez déjà.

ChatGPT, en revanche, n’est pas aussi bien intégré aux autres produits Google. Cela peut rendre plus difficile l’utilisation de ChatGPT dans votre workflow. Cependant, il est fourni avec une gamme de plugins qui peuvent être utilisés pour un large éventail de tâches.

Dans l’ensemble, Google Bard est la meilleure alternative à ChatGPT, car il offre un certain nombre d’avantages que ChatGPT n’a pas, comme l’accès à des informations en temps réel, une meilleure compréhension du contexte, des réponses plus complètes et plus informatives, une interface plus conviviale et une meilleure intégration avec d’autres produits Google.

En résumé

Google Bard est l’une des meilleures alternatives à ChatGPT, car il offre un certain nombre d’avantages que ChatGPT n’a pas, comme l’accès à l’information en temps réel, une meilleure compréhension du contexte des informations récentes, des réponses plus complètes et informatives, une interface plus conviviale, une meilleure intégration avec les autres produits Google.

Si vous êtes à la recherche d’un chatbot capable de vous fournir les informations les plus récentes, de répondre à vos questions de manière complète et informative, et de vous aider à être plus productif et créatif, Google Bard est la meilleure option pour vous.

Voici comment Bard peut vous aider à être plus productif et créatif :

  • Idées pour le brainstorming : Si vous êtes bloqué sur un projet créatif, Bard peut vous aider à trouver de nouvelles idées. Il suffit de lui donner un sujet ou un problème pour qu’il génère une liste de potentielles solutions
  • Générer du contenu : Bard peut vous aider à générer du contenu, tel que des articles de blog, des articles et des messages sur les réseaux sociaux. Il vous suffit de fournir à Bard un sujet ou un mot-clé pour qu’il génère une ébauche de contenu que vous pourrez ensuite éditer et affiner
  • Traduire des langues : Bard peut vous aider à traduire des langues, qu’elles soient écrites ou parlées. Cela peut être utile si vous travaillez avec des clients internationaux ou si vous voyagez dans un pays étranger
  • Codage : Bard peut vous aider à coder dans différents langages de programmation. Cela peut être utile si vous apprenez à coder ou si vous travaillez sur un projet de développement logiciel
  • Recherche de sujets : Bard peut vous aider à faire des recherches sur des sujets et à trouver des informations auprès de différentes sources. Cela peut s’avérer utile si vous rédigez un rapport, si vous préparez une présentation ou si vous en apprenez simplement plus sur un sujet qui vous intéresse

Dans l’ensemble, Bard est un outil polyvalent et puissant qui peut vous aider à être plus productif et créatif de diverses manières. Il sera intéressant de voir si les changements apportés récemment par Google aideront Google Bard à devenir plus populaire. Pour l’instant, ChatGPT est le plus populaire et le plus utilisé des deux.

Lire plus
IA

Amazon mise sur l’IA avec Anthropic, l’un des principaux concurrents de ChatGPT

Une nouvelle semaine débute, et une autre grande entreprise technologique s’engage dans la recherche sur l’IA générative. Amazon a récemment annoncé un investissement important dans Anthropic, une entreprise leader dans le domaine de l’intelligence artificielle (IA), responsable de la création du modèle Claude.

L’investissement, qui s’élève à la somme astronomique de 4 milliards de dollars, s’inscrit dans le cadre d’une collaboration plus large entre les deux entreprises en vue de développer des modèles de base fiables et performants. Cette initiative témoigne de l’engagement d’Amazon à faire progresser la technologie de l’IA et ses potentielles applications dans divers secteurs d’activité.

Dans le cadre de cette collaboration, Amazon Web Services (AWS), la plateforme de cloud computing d’Amazon, deviendra le principal fournisseur de cloud d’Anthropic pour les charges de travail critiques. Ce partenariat s’appuiera sur l’infrastructure robuste et les technologies de pointe d’AWS, notamment les puces AWS Trainium et Inferentia, qu’Anthropic utilisera pour l’entraînement et le déploiement des modèles. Ces puces sont conçues pour fournir une inférence et un entraînement de machine learning performants et rentables, ce qui les rend idéales pour les besoins de développement de l’IA d’Anthropic.

La collaboration portera également sur le développement des futures technologies Trainium et Inferentia. Cette approche tournée vers l’avenir souligne l’engagement des deux entreprises en faveur d’une innovation continue dans le domaine de l’IA. En outre, le partenariat élargira la prise en charge d’Amazon Bedrock, un service qui permet de personnaliser et d’affiner les modèles en toute sécurité. Cette extension répond à la demande croissante des clients pour Claude, un modèle d’IA développé par Anthropic.

Claude 2, la dernière itération de ce modèle, peut être utilisé pour une série de tâches dans tous les secteurs d’activité. Ces tâches comprennent la génération de dialogues et de contenus, des raisonnements complexes et des instructions détaillées. Plusieurs entreprises exploitent déjà les capacités des modèles d’Anthropic sur Amazon Bedrock. Il s’agit notamment de LexisNexis Legal & Professional, Bridgewater Associates et Lonely Planet, qui exploitent tous la puissance de l’IA pour améliorer leurs opérations et leurs services.

Amazon et Anthropic s’engagent à former et à déployer en toute sécurité des modèles de fondation avancés. Elles collaborent activement avec des organisations telles que le Global Partnership on AI (GPAI), le Partnership on AI (PAI) et le National Institute of Standards and Technology (NIST). Ces engagements soulignent leur volonté de veiller à ce que la technologie de l’IA soit développée et utilisée de manière responsable.

Amazon prend une participation minoritaire dans Anthropic

Outre l’investissement financier, Amazon prendra également une participation minoritaire dans Anthropic. Toutefois, cela n’affectera pas la structure de gouvernance d’entreprise d’Anthropic, qui restera inchangée. Cet accord permet à Anthropic de conserver son indépendance opérationnelle tout en bénéficiant des ressources et de l’expertise d’Amazon.

Anthropic effectuera également des tests de pré-déploiement de nouveaux modèles afin de gérer les risques liés à des systèmes d’IA de plus en plus performants. Cette approche proactive de la sécurité de l’IA est cruciale à une époque où les capacités de l’IA progressent rapidement. Enfin, l’investissement d’Amazon et la fourniture de la technologie AWS soutiendront les efforts d’Anthropic en matière de sécurité et de recherche dans le domaine de l’IA. Ce soutien permettra à Anthropic de poursuivre son travail de pionnier dans le domaine de l’IA, contribuant ainsi au développement plus large de ce domaine.

L’investissement de 4 milliards de dollars d’Amazon dans Anthropic représente une avancée significative dans le développement de la technologie de l’IA. La collaboration entre les deux entreprises, qui s’appuie sur les technologies avancées d’AWS et les modèles d’IA innovants d’Anthropic, promet de fournir des solutions d’IA fiables et performantes. Ce partenariat profite non seulement aux deux entreprises, mais il a également le potentiel de faire progresser de manière significative le secteur de l’IA dans son ensemble.

Lire plus
IA

L’assistant génératif de Zoom se dote d’un nouveau nom et de nouvelles fonctionnalités

Il n’est pas surprenant que même Zoom veuille injecter de l’IA dans sa plateforme. Plus tôt cette année, l’entreprise de communication vidéo a annoncé un assistant d’IA nommé Zoom IQ en tant qu’option payante pour ses clients. Cet outil peut fournir des commentaires sur les messages rédigés, des traductions en temps réel et des résumés de conversations par SMS. L’assistant IA a également introduit une fonction utile pour les personnes fréquemment en retard. Toute personne ayant rejoint une réunion en retard pouvait discuter avec le chatbot pour savoir ce qu’elle avait manqué.

Aujourd’hui, la société a annoncé que Zoom IQ s’appelait désormais Zoom AI Companion. Elle a également déployé le service pour tous les clients disposant d’un compte Zoom payant. En outre, la branche du programme axée sur les ventes a été rebaptisée Zoom Revenue Accelerator. Cela dit, cette mise à jour ne se limite pas à de nouveaux noms. Zoom a également introduit une myriade de nouvelles fonctionnalités dans Zoom AI Companion qui feront évoluer le chatbot. Cependant, elles ne seront pas toutes disponibles immédiatement.

Smita Hashim, chef de la direction de l’entreprise, a déclaré : « Nous transcendons l’engouement pour l’IA générative en proposant des produits tangibles et en bouleversant le modèle de tarification de l’industrie, ce qui permet aux entreprises et aux personnes comme vous et moi d’exploiter facilement tous les avantages de l’IA générative dans leur travail quotidien ».

Au printemps de l’année prochaine, les utilisateurs payants de Zoom auront accès à AI Companion pour la préparation des réunions. Cette fonctionnalité analysera les tableaux blancs, les e-mails, les documents, les chats, les réunions et même les applications tierces de l’utilisateur afin de lui fournir des mises à jour sur un projet en cours pour l’aider à mieux se préparer. En outre, à la fin de la réunion, le AI Companion peut résumer ce qui s’est passé et prendre des mesures en conséquence. Par exemple, le compagnon IA peut « identifier les actions à entreprendre et les principales parties prenantes, et présenter les prochaines étapes aux parties prenantes concernées dans le chat de l’équipe ».

L’intégration de l’IA dans Zoom Whiteboard est également prévue. Dans Whiteboard, les utilisateurs pourront bientôt obtenir de l’aide pour développer et catégoriser des idées. Plus tard, le AI Companion aura le pouvoir de remplir les modèles de tableau blanc et de générer des images. Zoom Mail bénéficie également de l’assistance de l’IA. À partir de l’automne, il sera possible d’obtenir des suggestions sur les brouillons d’e-mails. Mais ce n’est pas tout. La société a écrit que d’ici le printemps, Zoom Notes et Zoom Phone recevront également l’aide de l’AI Companion.

Elle revient sur la vie privée

Dans la mise à jour, Zoom a également répondu aux préoccupations des utilisateurs en matière de confidentialité. L’entreprise précise qu’elle n’utilise pas le contenu de ses utilisateurs, comme les vidéos ou les conversations textuelles, pour entraîner le modèle d’IA. C’est un point sur lequel Zoom a déjà insisté. Elle a également expliqué que les fonctions d’intelligence artificielle sont désactivées par défaut et qu’elles alertent l’utilisateur lorsqu’elles sont utilisées.

La société de San Jose affirme que l’élimination de tous frais supplémentaire a été rendue possible en partie grâce à la façon dont elle incorpore dynamiquement ses propres LLM avec des homologues tiers, y compris le Llama 2 de Meta et les offres d’OpenAI.

Lire plus
IA

YouTube annonce de nouveaux outils pour inonder sa plateforme d’informations générées par l’IA

De plus en plus de contenus sur YouTube seront créés, du moins en partie, à l’aide de l’IA générative. Ce jeudi, Google a annoncé que son clone de TikTok, YouTube Shorts, serait doté de plusieurs nouvelles fonctionnalités pour les créateurs, notamment un générateur de vidéos par intelligence artificielle appelé « Dream Screen », directement intégré à l’application.

Lors de l’événement Made on YouTube, les dirigeants de l’entreprise ont essayé de souligner qu’ils voulaient permettre à tout le monde de « créer ».  Dream Screen est un outil qui permet aux utilisateurs de générer des vidéos d’arrière-plan ou des images fixes à l’aide d’un simple texte. Les outils d’IA commenceront également à influencer le type de contenu produit par les créateurs.

L’entreprise n’a pas révélé le modèle qu’elle utilise pour ces vidéos d’IA, mais les vidéos ressemblent déjà aux clips générés par l’IA et basés sur Imagen que Google a présentés à la fin de l’année dernière. L’idée générale est de laisser libre cours à l’imagination des utilisateurs.

Alors que de plus en plus de générateurs de vidéos par IA se répandent, le principal problème du contenu généré est qu’il a une apparence bizarre, même dans le meilleur des cas. Si les générateurs d’images d’IA sont désormais capables de produire des images quelque peu crédibles, la vidéo d’IA n’a pas encore fait le même bond en avant. Comme le suggère la vidéo promotionnelle de Google, le logiciel de conversion de texte en vidéo n’est qu’une nouveauté plus inquiétante qu’imaginative.

D’autres éléments d’intelligence artificielle seront intégrés à YouTube, notamment des doublages générés par l’intelligence artificielle dans plus de 120 langues, ainsi que des sujets, des plans et des sons recommandés par l’intelligence artificielle pour les vidéos.

YouTube Create pour faciliter la production de vidéos

L’autre annonce faite lors de l’événement de jeudi est beaucoup plus importante, du moins pour les amateurs de vidéo. Google prévoit de lancer sa propre application mobile YouTube Create, gratuite, qui offre des outils d’édition vidéo simplifiés en déplacement. Les utilisateurs peuvent télécharger des clips vidéo depuis leur téléphone et l’application propose des outils simplifiés de découpage, de sous-titrage, de voix off et de nettoyage audio. Elle propose également une bibliothèque de filtres, d’effets, de transitions et de musiques libres de droits. L’application fonctionne dans les rapports d’aspect horizontaux et verticaux pour les vidéos YouTube ordinaires ainsi que pour les courts métrages.

Les utilisateurs peuvent télécharger la vidéo éditée sur leur appareil, et il y a une option pour télécharger immédiatement le clip sur YouTube.
L’application est actuellement en version bêta sur Android dans 8 pays, dont la France. L’entreprise prévoit de lancer une version iOS l’année prochaine.

Les responsables de YouTube ont déclaré que l’entreprise commencerait à « tester » Dream Screen dans le courant de l’année et qu’il devrait être lancé au début de l’année prochaine. Cela laisse un peu de temps à Google pour continuer à travailler sur ses capacités de conversion de texte en vidéo, mais la volonté de Google d’être le premier dans la course à l’IA n’a fait que montrer à quel point l’IA générative est limitée et problématique à l’heure actuelle.

Lire plus
IA

OpenAI lance la troisième version de DALL-E, promettant une meilleure génération d’images

Le modèle de génération d’images DALL-E 2 d’OpenAI n’est plus à la pointe de la technologie. DALL-E, sorti pour la première fois en janvier 2021, a précédé d’autres plateformes d’art généré par l’IA de Stability AI et Midjourney. Au moment de la sortie de DALL-E 2 en 2022, OpenAI a ouvert une liste d’attente pour contrôler qui pouvait utiliser la plateforme après les critiques selon lesquelles DALL-E pouvait générer des images explicites photoréalistes et faisait preuve de partialité lorsqu’il générait des photos. L’entreprise a supprimé la liste d’attente en septembre de l’année dernière et a ouvert DALL-E 2 au public.

Aujourd’hui, OpenAI a annoncé DALL-E 3, son dernier générateur de texte à partir d’images, et a présenté certaines de ses nouvelles fonctionnalités impressionnantes, notamment la capacité de générer du texte lisible directement dans les images elles-mêmes — ce qui n’était pas facile avec DALL-E 2, et que d’autres modèles d’IA générateurs d’images concurrents, tels que Midjourney, ont encore du mal à réaliser.

« DALL-E 3 apporte des améliorations significatives par rapport à DALL-E 2 lorsqu’il s’agit de générer du texte à l’intérieur d’une image et dans des détails humains tels que les mains », écrit OpenAI sur sa page Web expliquant le nouveau modèle.

Cette fonctionnalité place OpenAI en concurrence directe avec Ideogram, une startup d’anciens Googlers lancée le mois dernier, qui propose également la génération d’images avec texte/typographie intégré(e) en utilisant son propre modèle d’IA.

En outre, OpenAI a écrit que DALL-E 3 comprend beaucoup mieux les relations spatiales que les utilisateurs incluent dans leur le prompt, générant des images qui placent les personnages et les objets là où l’utilisateur les a décrits, les uns par rapport aux autres. Cela signifie que les messages descriptifs peuvent désormais être rendus de manière beaucoup plus précise, comme le montre l’exemple de la capture d’écran ci-dessous.

Disponible pour ChatGPT Plus

OpenAI a également indiqué que DALL-E 3 serait disponible pour ChatGPT Plus, le niveau d’abonnement payant de 20 dollars par mois de son modèle de langage étendu (LLM), et pour ses nouveaux plans ChatGPT for Enterprise annoncés le mois dernier, ce qui signifie que les entreprises clientes auront désormais la possibilité de générer des images avec du texte pour leur marketing ou leurs documents internes.

En outre, OpenAI indique que ChatGPT peut aider les utilisateurs à affiner automatiquement leurs prompts afin de générer l’imagerie qui correspond le mieux à leur intention.

Dans le même temps, OpenAI écrit que « comme pour les versions précédentes, nous avons pris des mesures pour limiter la capacité de DALL-E 3 à générer des contenus violents, adultes ou haineux ».

Lire plus
IA

Le chatbot Bard peut désormais trouver des réponses dans les services de Google

Le chatbot Bard de Google ne se contente plus d’extraire des réponses du Web : Google Bard peut désormais analyser vos Gmail, Docs et Drive pour vous aider à trouver les informations que vous recherchez.

Grâce à cette nouvelle intégration, vous pouvez demander à Bard de trouver et de résumer le contenu d’un e-mail ou même de mettre en évidence les points les plus importants d’un document que vous avez stocké dans Drive.

Les cas d’utilisation de ces intégrations, que Google appelle des extensions, sont multiples, mais elles devraient vous éviter de devoir passer au crible une montagne d’e-mails ou de documents pour trouver un élément d’information particulier. Vous pouvez ensuite demander à Bard d’utiliser ces informations d’une autre manière, par exemple en les insérant dans un graphique ou en créant un résumé à puces. Pour l’instant, cette fonctionnalité n’est disponible qu’en anglais.

Si le fait de donner à Bard l’accès à vos e-mails et documents personnels suscite des inquiétudes quant à la confidentialité et à l’utilisation des données, Google affirme qu’il n’utilisera pas ces informations pour entraîner le modèle public de Bard, et qu’elles ne seront pas non plus vues par les évaluateurs humains. Vous n’avez pas non plus à activer les intégrations avec Gmail, Docs et Drive. Google vous demandera d’abord de l’activer et vous pourrez la désactiver à tout moment.

Les extensions de Bard ne se limitent pas non plus à Gmail, Docs et Drive. Google a également annoncé que le chatbot se connectera également à Maps, YouTube et Google Flights. Cela signifie que vous pouvez désormais demander à Bard d’obtenir des informations sur les vols en temps réel, de trouver des attractions à proximité, de faire remonter des vidéos YouTube sur un certain sujet, et bien d’autres choses encore. Google activera ces trois extensions par défaut.

Le Bouton « G » s’améliore

Google apporte également d’autres améliorations notables à Bard. Il s’agit notamment d’un nouveau moyen de vérifier les réponses de Bard grâce au bouton « Google It » du chatbot. Alors que ce bouton permettait auparavant de rechercher des sujets liés à la réponse de Bard sur Google, il indiquera désormais si les réponses de Bard contiennent des informations que Google Recherche corrobore ou contredit.

Lorsque vous appuyez sur le bouton « Google It » sur les réponses prises en charge, Google surligne en vert les informations vérifiées par la recherche, tandis que les réponses non validées sont surlignées en orange. Vous pouvez passer la souris sur les phrases surlignées pour obtenir plus de détails sur ce que Bard a pu faire de bien ou de mal. Google ajoute également un moyen de poursuivre une conversation avec Bard sur la base d’un lien partagé, ce qui vous permet d’approfondir une question déjà posée par quelqu’un.

Depuis l’introduction de Bard en février, Google a progressivement ajouté de nouvelles fonctionnalités, notamment la possibilité de générer et de déboguer du code, ainsi que de créer des fonctions pour Google Sheets. Google a récemment ajouté la prise en charge de Google Lens dans Bard, ce qui vous permet d’utiliser l’outil pour trouver des idées de légendes pour une photo ou pour trouver plus d’informations à son sujet.

 

Lire plus
IA

Qu’est-ce que Google Gemini : la nouvelle génération d’IA ?

Issu de la division IA de Google, Google Gemini représente le zénith des systèmes d’intelligence artificielle (IA) multimodaux de nouvelle génération.

Conçu comme une merveille d’intégration technologique, ce modèle d’IA avancé est capable de traiter et de générer simultanément un nombre impressionnant de types de données et de s’attaquer à une grande variété de tâches. Qu’il s’agisse d’interpréter des textes écrits, de visualiser des images, de déchiffrer des signaux audio, d’analyser des flux vidéo, de générer des modèles 3D complexes ou de donner un sens à des graphiques complexes, Gemini fait tout, souvent simultanément, ce qui en fait un hub de capacités multitâches.

Un élément fondamental de la création de Google Gemini est la célèbre architecture Google Transformer, un framework éprouvé qui a fait partie intégrante du succès d’autres modèles de langage à grande échelle tels que BERT (Bidirectional Encoder Representations from Transformers) et OpenAI GPT-3 (Generative Pre-trained Transformer 3). Cependant, ce qui différencie Gemini de ces incarnations antérieures, ce sont ses avancées révolutionnaires et ses nouvelles fonctionnalités. Ces innovations ne se contentent pas de booster ses capacités existantes, elles étendent également sa portée, le rendant plus polyvalent et plus robuste que ses contemporains. Ce faisant, Gemini vise à redéfinir les limites de ce qui est réalisable dans le domaine de l’intelligence artificielle.

Traitement multimodal des données

La pierre angulaire de l’innovation qui distingue Gemini dans le monde de l’intelligence artificielle est sa capacité à traiter des données multimodales, ce qui représente un bond en avant significatif dans les capacités de l’IA. Contrairement à la plupart de ses prédécesseurs qui se limitent à des tâches textuelles, Gemini a été conçu pour transcender ces limites. Il est capable de traiter non seulement des informations textuelles, mais aussi un large éventail d’autres types de données telles que des images, des clips audio, des séquences vidéo et même des formats spécialisés tels que des modèles 3D et des graphiques complexes. Cette capacité multimodale dote Gemini d’un ensemble de compétences polyvalentes qui lui permettent d’entreprendre des tâches complexes qui seraient soit très difficiles, soit tout à fait irréalisables pour les modèles d’IA conventionnels.

Pour illustrer ses capacités, prenons l’exemple d’un scénario dans lequel Gemini est chargé de générer une image haute résolution et réaliste d’un chat uniquement à partir d’une description textuelle. Il pourrait prendre des phrases descriptives telles que « un chat siamois aux yeux bleus frappants » et les traduire en un chef-d’œuvre visuel qui capture les nuances des caractéristiques du félin. Imaginons également une vidéoconférence dont le dialogue est en anglais, mais qui doit être compris par un public français. Gemini peut non seulement transcrire et traduire les mots prononcés, mais aussi générer un son en français qui peut être parfaitement synchronisé avec la vidéo originale, éliminant ainsi les barrières linguistiques. Ces exemples soulignent l’extraordinaire portée et la polyvalence de Gemini, grâce à ses capacités multimodales révolutionnaires.

Apprentissage par renforcement

Une autre caractéristique révolutionnaire qui propulse Gemini au premier rang de l’innovation en matière d’intelligence artificielle est son utilisation adroite des techniques d’apprentissage par renforcement. L’apprentissage par renforcement est un sous-ensemble spécialisé de paradigmes d’apprentissage automatique qui fonctionne selon les principes de l’essai et de l’erreur, ce qui permet au modèle d’IA de s’adapter et d’affiner ses stratégies au fil du temps. Cet apprentissage est particulièrement utile pour les tâches qui exigent des capacités de prise de décision complexes, qu’il s’agisse de s’engager dans des environnements de jeu compétitifs ou d’écrire des lignes de code informatique complexes.

Pour concrétiser ce concept, imaginons que Gemini soit utilisé pour former un système robotique au jeu intellectuel des échecs. Au départ, Gemini utiliserait une stratégie de débutant, exécutant des mouvements sur l’échiquier qui pourraient sembler aléatoires ou sans modèle discernable. Au fur et à mesure que le jeu progresse, le modèle reçoit des renforcements positifs, c’est-à-dire des récompenses, pour chaque mouvement qui le rapproche stratégiquement d’un échec et mat ou d’une victoire. Ces récompenses servent d’expériences d’apprentissage précieuses, agissant comme des points de données que Gemini utilise pour ajuster ses algorithmes de prise de décision. Au fil des parties, le système commence à accumuler une grande quantité de connaissances tactiques. Ce processus d’apprentissage itératif continuera à affiner les stratégies d’échecs de Gemini, faisant passer son jeu d’un niveau novice à un niveau avancé. En fin de compte, il sera suffisamment compétent non seulement pour comprendre les stratégies nuancées des échecs, mais aussi pour surpasser et vaincre un adversaire humain expérimenté. Cet exemple illustre la remarquable capacité d’adaptation et les prouesses en matière de prise de décision que l’apprentissage par renforcement confère à Gemini, établissant une nouvelle norme pour ce qui est réalisable dans les tâches pilotées par l’IA qui nécessitent une prise de décision nuancée.

Potentielles applications

Actuellement en phase de développement, Google Gemini promet néanmoins de transformer radicalement nos paradigmes d’interaction avec les technologies informatiques. Lorsqu’il aura atteint son plein potentiel, il pourrait ouvrir la voie à un assortiment innovant d’applications exploitant l’intelligence artificielle de manière inédite.

Voici quelques-unes des applications potentielles de Google Gemini :

  • Assistants virtuels : Gemini pourrait être utilisé pour créer des assistants virtuels plus naturels et plus intuitifs, capables de comprendre et de répondre à un plus grand nombre de commandes. Par exemple, Gemini pourrait être utilisé pour contrôler des appareils de la maison connectée, prendre des rendez-vous ou faire des réservations
  • Chatbots : Gemini pourrait être utilisé pour créer des chatbots plus attrayants et plus réalistes, capables de tenir des conversations qui ne se distinguent pas de celles avec un être humain. Gemini pourrait être utilisé pour fournir un service à la clientèle, répondre à des questions ou même rédiger des contenus créatifs
  • Outils éducatifs : Gemini pourrait être utilisé pour créer de nouveaux types d’outils éducatifs capables de personnaliser l’apprentissage et de fournir un retour d’information en temps réel. Par exemple, Gemini pourrait être utilisé pour créer des manuels interactifs, des plans d’apprentissage personnalisés ou même des tuteurs virtuels
  • Recherche médicale : Gemini pourrait être utilisé pour accélérer la recherche médicale en aidant les scientifiques à analyser de grands ensembles de données médicales. Par exemple, Gemini pourrait être utilisé pour identifier de nouveaux modèles dans les données médicales ou pour développer de nouveaux traitements pour les maladies
  • Créativité artificielle : Gemini pourrait être utilisé pour créer de nouvelles formes d’art, de musique et de littérature impossibles à distinguer de celles créées par les humains. Par exemple, Gemini pourrait être utilisé pour créer des peintures réalistes, composer de la musique ou écrire des romans.

L’avenir de l’IA

Google Gemini n’en est peut-être qu’à ses premiers stades de développement, mais l’ampleur de son potentiel impact sur notre vie quotidienne et sur le paysage professionnel est presque incalculable. Prêt à redéfinir les repères de ce qui est possible avec l’intelligence artificielle, Gemini se distingue comme l’une des initiatives d’IA les plus électrisantes et les plus conséquentes actuellement en cours de développement.

Il ne s’agit pas simplement d’une avancée technologique progressive, mais plutôt d’un changement transformateur qui pourrait révolutionner divers secteurs. Qu’il s’agisse de faciliter le télétravail grâce à des bureaux virtuels alimentés par l’IA, de permettre des services de télémédecine sophistiqués ou même de transformer la façon dont nous consommons des divertissements et des informations, Gemini promet de toucher toutes les facettes de l’activité humaine. Il ne s’agit pas seulement d’une innovation pour aujourd’hui ; c’est une avant-garde pour l’avenir, qui jette les bases d’applications de l’IA que nous n’avons pas encore conçues.

Même si ce projet révolutionnaire n’en est qu’à ses débuts, les retombées de ses avancées technologiques se font déjà sentir. Au fur et à mesure de son évolution et de sa maturation, Gemini est destiné à devenir un acteur clé de l’avenir de l’intelligence artificielle. Son développement est plus qu’un simple projet ; c’est le signe avant-coureur de changements transformateurs qui pourraient remodeler notre compréhension de ce que l’intelligence artificielle peut accomplir. J’espère que ce guide explique ce qu’est Google Gemini.

Lire plus
IA

Coca-Cola aurait utilisé l’IA pour créer un soda « du futur »

Le géant des boissons Coca-Cola s’est bel et bien lancé dans l’aventure de l’intelligence artificielle (IA) en lançant une boisson apparemment créée à l’aide de cette technologie en vogue.

Baptisé Y3000, le soda en édition limitée de Coca-Cola présente une « saveur futuriste » conçue à partir des commentaires des clients. Et avec l’aide de l’IA.

Selon un communiqué de presse, la société a demandé aux consommateurs de Coca-Cola du monde entier de partager leur façon « d’envisager l’avenir à travers des émotions, des aspirations, des couleurs, des saveurs et bien plus encore ».

Après avoir combiné la myriade de points de vue avec les « informations recueillies par l’IA », Coca-Cola a déclaré avoir été en mesure de créer le goût unique de Y3000.

« Espérons que Coca-Cola sera toujours aussi pertinente et rafraîchissante en l’an 3000 qu’il l’est aujourd’hui, c’est pourquoi nous nous sommes mis au défi d’explorer le concept de ce que pourrait être le goût d’un Coca-Cola du futur », a déclaré Oana Vlad, cadre de l’entreprise, dans un communiqué, avant d’ajouter : « Nous avons intentionnellement fait appel à l’intelligence humaine et à l’intelligence artificielle pour créer un nouveau Coca-Cola : nous avons intentionnellement réuni l’intelligence humaine et l’IA pour exprimer de manière stimulante ce que Coca-Cola croit que demain apportera ».

La boisson sans sucre sera disponible pour une durée limitée sur certains marchés, notamment aux États-Unis, au Canada, en Chine, en Europe et en Afrique.

Le design de la canette a également fait appel à l’IA

Se lançant à fond dans le charabia marketing, Coca-Cola explique que le design de la canette de la boisson, dont le processus a également fait appel à l’IA, « met en scène le liquide dans un état de morphing et d’évolution, communiqué par des changements de forme et de couleur qui soulignent un avenir positif ». La liste est longue.

Bien que l’IA existe depuis des années, l’engouement pour cette technologie a atteint des sommets après le lancement, en novembre dernier, de ChatGPT, un impressionnant chatbot doté d’IA — créé par OpenAI, soutenu par Microsoft — qui est capable de produire des textes à consonance naturelle en réponse à des demandes de l’homme. L’explosion de l’intérêt a incité un nombre croissant d’entreprises à trouver des moyens de tirer parti de la technologie pour stimuler les ventes. Coca-Cola n’est certainement pas la première entreprise de produits alimentaires et de boissons à se lancer dans l’aventure.

Lire plus
IA

Microsoft Edge pourrait introduire une nouvelle fonction d’écriture générée par l’IA

Microsoft Edge pourrait radicalement changer la façon dont nous interagissons avec le contenu écrit sur le Web grâce à une nouvelle fonction d’écriture dotée d’une intelligence artificielle, qui copie le contenu existant et régurgite l’information dans un ton plus « personnel » en cliquant sur un bouton.

Selon Windows Latest, la fonction alimentée par GPT-4 permet aux utilisateurs de sélectionner du texte sur une page Web et de le faire réécrire dans le ton et la longueur de leur choix. L’IA de Microsoft Edge offre des tons personnalisables tels que « professionnel », « décontracté », « enthousiaste » et « informatif », ainsi que des options de format qui incluent un simple paragraphe, un e-mail ou une mise en page d’article de blog.

La fonction est intégrée au navigateur lui-même, ce qui permet à un plus grand nombre d’utilisateurs d’y accéder beaucoup plus rapidement. C’est utile si vous souhaitez trouver des idées ou modifier rapidement le ton de votre texte.

Jusqu’à présent, Microsoft a testé la fonctionnalité avec un petit groupe d’utilisateurs dans la version Canary de Edge (Chromium), nous devrons donc attendre et voir si la fonctionnalité finit par faire son chemin officiellement dans Microsoft Edge.

L’IA de Microsoft Edge pourrait permettre à un plus grand nombre de personnes de se lancer dans la rédaction d’un blog, alors qu’elles se sentent peut-être un peu nerveuses à l’idée de publier leur travail sans commettre d’erreurs dans le texte. Cet outil serait utile lorsque vous faites des recherches et que vous cherchez un tremplin pour des idées, et il vous aiderait à rédiger des ennuyeux e-mails mais importants sans trop d’efforts.

Il peut faire peur

Toutefois, comme l’outil est intégré au Web et utilise du texte sur le Web, il deviendra pratiquement impossible de détecter si l’e-mail ou le pitch d’un blog d’une personne a été plagié et généré par l’IA. N’importe qui pourrait fournir à l’outil le texte d’un site, le modifier légèrement très rapidement et le faire passer pour le sien, sans aucune des compétences ou du travail acharné que requiert la rédaction d’un travail personnel.

Les efforts de Microsoft pour intégrer l’intelligence artificielle dans ses propres produits aussi rapidement que possible, en particulier après le succès de Bing AI, pourraient avoir des répercussions imprévues si la société n’y prend pas garde.

Lire plus
IA

Adobe Premiere Pro utilise l’IA pour améliorer la qualité de la parole

À l’occasion du salon IBC qui se déroule cette semaine à Amsterdam, Adobe introduit de nouvelles fonctionnalités IA et 3D en version bêta pour Premiere Pro, After Effects et Frame.io, sa célèbre suite d’applications de montage vidéo et audio, conçues pour améliorer le workflow et accélérer les tâches généralement fastidieuses.

Premiere Pro s’enrichit d’une IA de pointe en version bêta

Une nouvelle version bêta de Premiere Pro ajoute une intelligence artificielle (IA) de pointe à quelques fonctionnalités intéressantes. Pour commencer, Premiere Pro s’enrichit d’une fonction « Améliorer la parole », alimentée par l’IA, qui, selon Adobe, peut donner aux dialogues mal enregistrés l’impression d’avoir été enregistrés dans un studio professionnel.

« Améliorer la parole » supprime automatiquement les bruits de fond et propose aux utilisateurs de Premiere Pro un curseur de mixage pour personnaliser la quantité de bruit qu’ils souhaitent incorporer dans leurs projets. Une nouvelle fonction de marquage des catégories audio est également disponible. Elle permet de marquer automatiquement les clips contenant des dialogues, de la musique, des effets sonores ou des bruits ambiants.

Par ailleurs, l’outil d’édition basée sur le texte de Premier Pro, qui a été ajouté au début de l’année, comprend désormais une fonction de détection des mots de remplissage qui permet d’identifier et de supprimer automatiquement les pauses, les « euh » superflus dans les dialogues et la transcription. Il n’est plus nécessaire de nettoyer tous les mots de remplissage et les pauses non naturelles, un par un.

Parallèlement à ces améliorations en matière de montage, Adobe a considérablement amélioré les performances globales de Premiere Pro. Citons une timeline plus rapide pour un montage plus réactif (jusqu’à 5x plus rapide), des améliorations du mappage automatique des tons et de nouveaux modèles de projet pour aider les créatifs à démarrer rapidement de nouvelles tâches.

After Effects ajoute un véritable espace de travail 3D pour les projets VFX et de motion graphics, qui prend en charge les imports de modèles 3D en mode natif. L’éclairage basé sur l’image place les modèles dans une scène avec un éclairage et des ombres réalistes, et les effets d’édition qui font référence à d’autres calques comme la carte de déplacement, le flou vectoriel ou les calculs peuvent utiliser un calque de modèle 3D comme source. Le célèbre outil Roto Brush, qui sélectionne automatiquement les objets en mouvement, a également été amélioré pour séparer plus facilement les objets difficiles à isoler, tels que les membres et les cheveux qui se chevauchent.

Améliorations apportées à Frame.io

Enfin, Frame.io a mis à jour sa visionneuse de comparaison pour permettre aux utilisateurs d’afficher côte à côte des vidéos, des fichiers audio, des photos, des fichiers de conception et des fichiers PDF, ce qui leur permet de comparer et de commenter deux types de ressources correspondantes. Le logiciel d’évaluation vidéo introduira également Frame.io Storage Connect dans le courant de l’année, un nouveau moyen pour les entreprises de réduire leurs coûts de stockage en se connectant directement au stockage AWS S3 qu’elles possèdent déjà.

« Frame.io Storage Connect accélère la collaboration et réduit les coûts pour les entreprises qui ont besoin de solutions évolutives et rentables, en leur permettant d’utiliser le stockage qu’elles possèdent déjà, tout en conservant le contrôle total de leurs actifs. Storage Connect permet une connexion directe au stockage AWS S3 avec des proxys légers disponibles dans Frame.io. Storage Connect sera disponible dans le courant de l’année pour les clients de Frame.io Enterprise », explique Adobe.

Toutes ces fonctionnalités peuvent être testées dès à présent en version bêta, la disponibilité générale étant prévue pour la fin de l’année. Si vous souhaitez les essayer, vous pouvez obtenir plus d’informations sur les différentes applications bêta d’Adobe sur son site Web.

Lire plus
IA

ChatGPT répond aussi bien que les humains aux questions sur la santé, selon une étude

ChatGPT, et d’autres projets d’IA analogues, pourraient bien façonner notre destin. Après tout, l’IA a maintenant prouvé qu’elle pouvait construire les processeurs d’autres machines, et ce de manière très efficace. Nous devons nous méfier de cette technologie et l’utiliser comme un outil à manier, pour nous aider, plutôt que comme un ennemi insidieux à qui nous donnons les bonnes armes pour qu’il les utilise contre nous quand il sera prêt. À la base, ChatGPT est un chatbot très avancé, et il semble que ses capacités dans ce domaine puissent nous aider à vivre plus longtemps et en meilleure santé.

Les professionnels de la santé seront toujours les premiers à être appelés en cas de problème, mais il est difficile de les contacter pour chaque petite plainte. C’est pourquoi des services de triage et autres sont mis en place. Apparemment, ChatGPT peut également être une source utile d’informations sur les soins de santé : Il peut étonnamment bien donner des conseils en matière de santé.

Voici les conclusions d’une étude réalisée en juin 2023 sur le sujet, et la manière dont l’IA pourrait collaborer avec les professionnels de la santé à l’avenir pour simplifier le processus pour eux et leurs patients.

Le chat médical des chatbots

L’article d’Oded Nov, Nina Singh et Devin Mann intitulé « Putting ChatGPT’s Medical Advice to the (Turing) Test: Survey Study » est paru dans JMIR Medical Education Volume 9. L’étude visait à déterminer dans quelle mesure des chatbots sophistiqués peuvent répondre aux préoccupations des patients et si ces derniers tiennent compte de leurs réponses.

Pour ce faire, une série de 10 questions médicales légitimes ont été choisies dans les archives en janvier 2023 et adaptées pour garantir l’anonymat. ChatGPT, qui a reçu les questions, a été invité à donner sa propre réponse et, pour faciliter la comparaison, à conserver sa réponse aussi longtemps que celle du professionnel de la santé. À partir de là, les répondants devaient répondre à deux questions importantes : Pouvaient-ils dire quelles réponses avaient été écrites par le chatbot, et acceptaient-ils celles qui l’avaient été ?

Les résultats de près de 400 participants ont été compilés et se sont révélés intéressants. Les chercheurs notent dans l’étude que « en moyenne, les réponses du chatbot ont été identifiées correctement dans 65,5 % (1284/1960) des cas, et les réponses du prestataire humain ont été identifiées correctement dans 65,1 % (1276/1960) des cas ». Cela représente un peu moins de deux tiers des cas, dans l’ensemble, et il semble également qu’il y ait une limite au type de support en matière de soins de santé que les participants attendaient de ChatGP : « la confiance était plus faible à mesure que la complexité de la tâche liée à la santé dans les questions augmentait. Les questions d’ordre logistique (par exemple, la prise de rendez-vous et les questions relatives à l’assurance) ont obtenu le taux de confiance le plus élevé », indique l’étude.

Dr ChatGPT ? Pas tout à fait

Bien que la taille de l’échantillon de l’étude soit limitée, les conclusions que l’on peut en tirer sont intrigantes. Le fait qu’un chatbot puisse répondre aux questions des patients « aussi bien » que les professionnels est remarquable en soi, mais ce n’est pas tout. L’étude semble suggérer que le ChatGPT tel que nous le connaissons actuellement est plus efficace dans le domaine de la logistique. C’est le rôle que les personnes interrogées sont le plus à l’aise pour confier à un tel système, plutôt que des choses plus personnelles, plus complexes, plus liées à la santé. Pour ces questions, c’est un avis professionnel et humain que les patients recherchent.

L’accès rapide à une assistance ciblée que les chatbots pourraient fournir, s’il est cultivé de la bonne manière, pourrait s’avérer important pour résoudre les déserts médicaux à l’avenir. S’ils sont capables de créer d’excellentes listes de lecture Spotify, qui sait de quoi ils seront capables à l’avenir ?

Lire plus
IA

Comment Azure AI Studio de Microsoft permettra aux entreprises de créer leur Copilot ?

Microsoft, en tandem avec OpenAI, fournit le service Azure OpenAI : un partenariat qui permet d’accéder à tout ce que ChatGPT a à offrir, tout en protégeant prudemment les utilisateurs conformément à la politique de Microsoft en matière d’IA responsable. Les capacités sur le cloud d’Azure semblent parfaitement adaptées à l’utilisation de l’IA, d’autant plus que l’entreprise se concentre toujours sur les risques, et ce concept est aujourd’hui poussé un peu plus loin.

Comme l’a annoncé la société lors de la Build 2023, Microsoft Azure AI Studio, est une nouvelle initiative qui permettra aux utilisateurs d’approfondir le potentiel florissant de l’IA. Grâce à cet outil, ils pourront adapter ses capacités à leurs propres exigences et s’assurer qu’elle peut accomplir les tâches spécifiques qu’ils lui demanderont.

Dans un article de blog de Microsoft, l’entreprise a déclaré que GitHub Copilot — un programme sophistiqué qui utilise OpenAI Codex pour aider les développeurs à effectuer le travail historiquement complexe et chronophage du codage — était le premier exemple d’un Copilot tel que Microsoft le définit : « Une application qui utilise l’IA moderne et les grands modèles de langage (LLM) comme GPT-4 pour aider les gens à accomplir des tâches complexes ».

Microsoft Azure AI Studio n’est pas simplement une application, mais une autre suite d’outils.

Comment les Copilot fonctionneront-ils avec Microsoft Azure AI Studio ?

Grâce à elle, les développeurs pourront créer leurs propres Copilot d’IA en fonction des tâches à accomplir. ChatGPT a suscité la controverse pour la manière dont il « apprenait » en extrayant des informations de tout l’Internet comme un grand aspirateur numérique, mais avec Microsoft Azure AI Studio, les choses seront différentes. Jessica Hawk, vice-présidente de Microsoft chargée des données, de l’IA et du marketing des produits d’application numérique, a expliqué comment lors de la Microsoft Build 2023.

Hawk a déclaré qu’Azure OpenAI Studio s’appuierait sur les capacités fournies par la mise en œuvre précoce de GPT-4 dans Azure OpenAI Service. L’arrivée d’Azure AI Studio signifie « qu’en quelques clics, les développeurs peuvent désormais ancrer de puissants modèles d’IA conversationnelle, tels que ChatGPT et GPT-4 d’OpenAI, sur leurs propres données ».

En tandem avec Azure Cognitive Search, il est promis que des informations clés (telles que les niveaux de stock de l’entreprise) peuvent faire surface en utilisant des modèles conversationnels de plus en plus sophistiqués.

John Montgomery, de Microsoft, a expliqué à TechCrunch que le processus laborieux d’entraînement d’une IA sur ces données serait inutile avec le Studio. Un développeur peut choisir le modèle sur lequel il se base, les types de données et la manière dont il les utilise, ce dernier point étant crucial pour répondre potentiellement à certaines préoccupations en matière de sécurité.

Pour gérer la demande, les utilisateurs peuvent actuellement s’inscrire pour demander l’accès au service sur le site officiel.

Lire plus
IA

La première conférence de développeurs de OpenAI espère attirer des « centaines de développeurs »

Ce mercredi, OpenAI a annoncé qu’elle organisera sa toute première conférence de développeurs, OpenAI DevDay, le 6 novembre 2023, à San Francisco. Cet événement d’une journée espère rassembler des centaines de développeurs pour leur permettre de découvrir en avant-première de nouveaux outils et de discuter avec le personnel technique d’OpenAI.

Lancé en novembre, ChatGPT a suscité un vif intérêt pour l’IA générative dans le monde entier, y compris des investissements technologiques, des discussions sur les réglementations, un boom du matériel GPU et l’émergence de concurrents. OpenAI explique dans un article de blog que depuis le lancement de sa première API en 2020, plus de 2 millions de développeurs utilisent désormais ses modèles tels que GPT-3, GPT-4, DALL-E et Whisper pour une variété d’applications, « depuis l’intégration d’assistants intelligents dans des applications existantes jusqu’à la création d’applications et de services entièrement nouveaux qui n’étaient pas possibles auparavant ».

L’événement DevDay d’OpenAI se déroulera principalement en présentiel, mais la conférence principale et éventuellement certaines parties de la conférence seront diffusées en ligne. « L’événement d’une journée réunira des centaines de développeurs du monde entier avec l’équipe d’OpenAI pour présenter de nouveaux outils et échanger des idées », écrit OpenAI. « Les participants en personne pourront également participer à des sessions dirigées par des membres de l’équipe technique d’OpenAI ».

Les modalités d’inscription pour la participation en personne et en direct seront annoncées dans les semaines à venir, et OpenAI a lancé un site Web où les gens peuvent s’inscrire pour recevoir plus d’informations sur la conférence au fur et à mesure qu’elles apparaissent. Dans un communiqué de presse, le PDG d’OpenAI, Sam Altman, a déclaré : « Nous sommes impatients de montrer nos derniers travaux pour permettre aux développeurs de construire de nouvelles choses ».

OpenAI n’a pas précisé quels « derniers travaux » elle comptait présenter, mais il est possible que l’entreprise profite de l’événement pour lancer de nouveaux produits ou services majeurs. GPT-4 n’ayant que 6 mois d’existence et étant très gourmand en ressources, on ne s’attend pas à voir quelque chose de l’ampleur d’un « GPT-5 », mais il se peut que nous ayons encore des surprises.

Lire plus