fermer
IA

Bard, le chatbot IA de Google, commet une erreur factuelle lors de sa première démonstration

Bard, le chatbot IA de Google, commet une erreur factuelle lors de sa première démonstration

Si vous suivez le monde de l’intelligence artificielle (IA), vous vivez une époque excitante. ChatGPT envahit le monde, Microsoft ajoute sa technologie à Bing, et Google travaille sur sa propre IA appelée Bard. Sauf que Bard n’est peut-être pas tout à fait prêt pour le prime time — et Google vient de le prouver lors de sa propre démonstration technologique. Oups.

En début de semaine, Microsoft a organisé un événement surprise sur l’IA au cours duquel il a fait une démonstration en direct de son moteur de recherche Bing alimenté par l’IA. Pour ne pas être en reste, Google a publié sur Twitter une démonstration de son propre chatbot d’IA. Cependant, les choses ne se sont pas passées exactement comme prévu.

Ce n’est un secret pour personne que la popularité écrasante de ChatGPT inquiète Google. Pour lutter contre cette menace, Google a dévoilé son propre chatbot IA, Bard. Cet outil peut produire des réponses intelligentes à des requêtes en langage naturel en utilisant des informations extraites d’Internet.

Un jour après la démonstration en direct de Bing alimenté par l’IA de Microsoft, Google a publié sur Twitter un GIF montrant son nouvel outil d’IA en action. Le GIF montre Bard répondant à la question « Quelles sont les nouvelles découvertes du télescope spatial James Webb dont je peux parler à mon enfant de 9 ans ? ». Bard fournit ensuite une liste à puces de réponses.

Dans le dernier point, il est dit que « le JWST a pris les toutes premières photos d’une planète en dehors de notre propre système solaire ». Sur Twitter, les astronomes ont rapidement fait remarquer que cette information était fausse. L’astrophysicien Grant Tremblay a ensuite cité la publication en expliquant que la première image d’une planète en dehors de notre système solaire a été prise en 2004 — c’est-à-dire avant la création du télescope spatial James Webb.

Les actions de Google ont chuté

Si cette gaffe peut être un moment drôle pour certains sur les réseaux sociaux, Google, lui, ne fait que rire. Peu de temps après la diffusion de l’erreur, les actions de la société mère de Google — Alphabet — auraient chuté de 8 %, selon Reuters. Cela a entraîné une perte de plus de 100 milliards de dollars en valeur boursière.

Il n’est pas rare que des outils d’IA comme Bard et ChatGPT fassent des erreurs factuelles, car ils tirent des informations d’Internet plutôt que d’une base de données vérifiée. Le problème, c’est que ces systèmes présentent les informations d’une manière qui fait autorité et vous fait croire que les réponses sont vraies.

Microsoft s’est protégée de manière préventive contre la responsabilité qui en découle en faisant porter la charge sur l’utilisateur. C’est ce qu’indique sa clause de non-responsabilité : « Bing est alimenté par l’IA, des surprises et des erreurs sont donc possibles. Assurez-vous de vérifier les faits, et partagez vos commentaires afin que nous puissions apprendre et nous améliorer ! ».

L’IA a encore besoin de progresser

En réponse à cet incident, un porte-parole de Google a déclaré à The Verge :

Cela souligne l’importance d’un processus de test rigoureux, quelque chose que nous lançons cette semaine avec notre programme Trusted Tester. Nous combinerons les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard répondent à des critères élevés de qualité, de sécurité et d’ancrage dans des informations du monde réel.

Dans un tweet de suivi, Tremblay mentionne : « Mais, ChatGPT, etc., bien qu’impressionnant de manière effrayante, est souvent faux de manière *très sûre*. Il sera intéressant de voir un avenir où les LLM vérifient eux-mêmes les erreurs ». Reste à savoir si cet incident convaincra ces entreprises de mettre en place une assurance qualité par le biais de contrôles d’erreurs.

Les IA de recherche ont manifestement besoin de beaucoup de travail avant de pouvoir être traitées avec plus qu’un iota de confiance. Google affirme lui-même qu’il ne publiera pas Bard tant qu’il n’aura pas atteint un « niveau élevé de sécurité ». Il est clair que le chemin à parcourir est encore long.

Tags : BardGoogleGoogle Bard
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.