fermer
Intelligence Artificielle

L’avertissement de Google à son propre personnel concernant les chatbots pourrait être mal perçu

Google Bard IO 1280x640 1
L'avertissement de Google à son propre personnel concernant les chatbots pourrait être mal perçu

Il semble qu’en dépit des efforts considérables déployés pour accroître sa propre part de marché dans le domaine des chatbots d’IA, Alphabet, la société mère de Google, a mis en garde son propre personnel contre les dangers des chatbots d’IA.

« La société mère de Google a conseillé à ses employés de ne pas entrer ses documents confidentiels dans les chatbots d’IA et a averti ses ingénieurs d’éviter d’utiliser directement le code informatique que les chatbots peuvent générer », selon un rapport de Reuters. La raison de ces précautions de sécurité, qu’un nombre croissant d’entreprises et d’organisations ont mises en garde à l’égard de leurs employés concernant ces programmes de dialogue en ligne accessibles au public, est double.

D’une part, les réviseurs humains, dont on a constaté qu’ils alimentaient essentiellement les chatbots tels que ChatGPT, pourraient lire les données sensibles saisies dans les discussions. D’autre part, les chercheurs ont constaté que l’IA pouvait reproduire les données qu’elle absorbait et créer un risque de fuite. Google a déclaré à Reuters que « son objectif était d’être transparent sur les limites de sa technologie ».

Entre-temps, Google a déployé son propre chatbot Google Bard dans 180 pays et dans plus de 40 langues, avec des milliards de dollars d’investissement ainsi que des revenus publicitaires et de cloud provenant de ses programmes d’IA. L’entreprise a également étendu son ensemble d’outils d’IA à d’autres produits Google tels que Maps et Lens, malgré les réserves de certains dirigeants concernant les défis potentiels de sécurité interne présentés par les programmes.

La dualité de Google

L’une des raisons pour lesquelles Google tente de jouer sur les deux tableaux est d’éviter tout potentiel préjudice commercial. Comme indiqué précédemment, le géant de la technologie a investi massivement dans cette technologie, et toute controverse majeure ou erreur de sécurité pourrait lui coûter énormément d’argent.

D’autres entreprises ont tenté de mettre en place des normes analogues sur la manière dont leurs employés interagissent avec l’IA des chatbots dans le cadre de leur travail. Certaines ont confirmé cette idée à Reuters, notamment Samsung, Amazon et Deutsche Bank. Apple n’a pas confirmé, mais aurait fait de même.

En fait, Samsung a carrément banni ChatGPT et d’autres IA génératives de son lieu de travail après avoir subi trois incidents au cours desquels des employés ont divulgué des informations sensibles par l’intermédiaire de ChatGPT au début de l’année 2023. Cela est d’autant plus dommageable que le chatbot conserve toutes les données saisies, ce qui signifie que les secrets commerciaux internes de Samsung sont désormais essentiellement entre les mains d’OpenAI.

Bien que cela semble assez hypocrite, il y a de nombreuses raisons pour lesquelles Google et d’autres entreprises sont si prudentes en interne en ce qui concerne les chatbots d’IA.

Tags : chatbotGoogle
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.