fermer
Intelligence Artificielle

Microsoft parle des risques de l’IA que tout le monde préférerait ignorer

intro 1675802281 jpg
Microsoft parle des risques de l'IA que tout le monde préférerait ignorer

Le dernier événement en direct de Microsoft a permis d’aborder en détail l’avenir de l’IA dans les produits de l’entreprise. Comme l’indique le liveblog de The Verge, la société a montré comment les outils d’IA dans Windows et Bing pourraient améliorer tout, de la cuisine familiale à la conception de sites Web.

Cependant, contrairement à de nombreuses autres entreprises, Microsoft a également abordé les impacts potentiellement négatifs de l’IA en tant qu’outil largement disponible.

Les inquiétudes concernant les résultats de l’IA sont largement répandues parmi les utilisateurs avertis sur le plan technique. Même les experts suggèrent qu’une véritable intelligence artificielle consciente d’elle-même pourrait exister d’ici une ou deux générations, et il est compréhensible que les gens s’inquiètent du potentiel de destruction de l’IA, à la fois en tant qu’outil et en tant qu’agence autonome.

En tant que l’une des principales sociétés de logiciels au monde, Microsoft est nécessairement à l’avant-garde de ces préoccupations. Si l’on en croit l’événement de lancement et le communiqué de presse qui a suivi pour ses nouvelles solutions d’IA, Microsoft a pris ces préoccupations à cœur et a effectivement tenté de répondre aux inquiétudes des utilisateurs quant aux potentiels dangers de cette innovation importante dans la technologie grand public.

En ce qui concerne les potentiels dangers de l’IA, Nilay Patel de The Verge a indiqué : « Microsoft doit soigneusement expliquer comment son nouveau moteur de recherche sera empêché d’aider à planifier des fusillades dans les écoles ».

Limiter les dégâts dans un avenir numérique

Cette déclaration résume une partie importante du potentiel côté sombre de l’IA. Dans la mesure où quelqu’un s’est penché sur les dangers de l’IA, il a eu tendance à se concentrer sur l’idée légèrement science-fictionnelle d’un algorithme se mettant à jour en échappant au contrôle humain et devenant une entité indépendante, potentiellement malveillante. Moins excitante, mais plus probable, l’IA pourrait aussi devenir un élément indispensable des pires choses que les humains se font entre eux. La plupart des experts s’attendent à ce que l’IA fasse partie de la vie quotidienne du monde numérique. Si c’est le cas, il faudra mettre en place des garanties éthiques pour l’empêcher de contribuer à la criminalité, au terrorisme et à d’autres méfaits analogues.

Selon Sarah Bird, de Microsoft, les nouveaux outils d’IA de la société intègrent ces garanties. L’entreprise s’est d’abord attaquée au problème de « l’IA consciente et malveillante », en concevant ses solutions d’IA sur la base d’un « copilote » nécessitant une interaction humaine à chaque étape. Quant aux mauvais acteurs utilisant l’IA comme un outil, The Verge indique que Microsoft « testera continuellement les conversations et les analysera pour les classer et améliorer les lacunes du système de sécurité ». Ce modèle de mise à jour constante des outils de sécurité aura également lieu du côté de l’utilisateur ; selon Bird, « nous sommes allés plus loin que jamais auparavant pour développer des approches de mesure de l’atténuation des risques », intégrant un examen constant des invites du moteur de recherche pour garantir le contrôle de l’utilisateur sur les fonctionnalités plus risquées de l’IA.

Tags : bingChatGPTMicrosoft
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.