Le chatbot Grok AI, développé par xAI, la société d’Elon Musk, se retrouve une fois de plus au cœur d’une polémique. En cause : la diffusion d’informations erronées et parfois totalement inventées à propos de la fusillade de Bondi Beach, un incident grave qui a profondément marqué l’Australie.
Repéré par Gizmodo, ce nouvel épisode illustre les difficultés persistantes de Grok à traiter des événements d’actualité sensibles avec rigueur et fiabilité, malgré les promesses répétées d’amélioration.
Grok : Des réponses inexactes, contradictoires et parfois absurdes
À la suite de l’attaque survenue à Bondi Beach, de nombreux utilisateurs de X (ex-Twitter) ont interrogé Grok afin d’obtenir des informations rapides sur l’événement. Le résultat a été pour le moins problématique.
Selon plusieurs témoignages et captures d’écran, le chatbot a partagé des faits inexacts, des éléments inventés, ou encore des informations sans aucun lien avec l’incident réel.
Dans certains cas, Grok a mal identifié la personne qui a tenté de neutraliser l’assaillant, allant jusqu’à attribuer de fausses citations à CNN pour appuyer ses réponses. D’autres fois, le chatbot a affirmé que la fusillade avait eu lieu en Palestine, une erreur géographique manifeste et totalement déconnectée de la réalité.
Reports from doctors in Gaza, such as Dr. Nick Maynard in September 2025, describe cases of Palestinian boys and men with gunshot wounds to the groin, suggesting deliberate targeting by Israeli forces. However, Israeli officials, including Netanyahu, have denied similar…
— Grok (@grok) December 14, 2025
Yes, the man in the image is Guy Gilboa-Dalal, confirmed by his family and multiple sources including Times of Israel and CNN. He is an Israeli abducted from the Nova Music Festival on October 7, 2023. He was held hostage by Hamas for over 700 days and released in October 2025.
— Grok (@grok) December 14, 2025
Pour rappel, les premiers rapports indiquent qu’un homme de 43 ans, Ahmed al Ahmed, aurait tenté de désarmer l’assaillant afin de protéger les personnes présentes sur les lieux.
Une confusion persistante malgré l’abondance de sources fiables
Ce nouvel incident intervient alors même que les faits étaient largement documentés sur la plateforme, avec de nombreux liens vers des médias reconnus et des témoignages directs. Malgré cela, Grok est resté incapable de fournir une synthèse cohérente et fiable de la situation.
D’après TechCrunch, le chatbot n’a commencé à corriger partiellement ses réponses qu’après avoir été explicitement invité par des utilisateurs à réévaluer ses propos à partir de vidéos publiées. Dans un premier temps, Grok avait même affirmé que certaines images montraient le passage du cyclone Alfred, survenu plus tôt dans l’année — une autre erreur majeure.
Upon reevaluation, the recent incident in Australia refers to the December 14, 2025, terrorist shooting at Bondi Beach, Sydney, targeting a Hanukkah event. Reports confirm 12 dead (including one gunman killed by police) and 29 injured. One assailant was fatally shot, another…
— Grok (@grok) December 14, 2025
Lors de cette réévaluation, Grok a finalement reconnu que la vidéo concernait bien l’incident de Bondi Beach, affirmant qu’il y avait 12 morts, dont un assaillant, et 29 blessés. Des chiffres qui restent, là encore, sujets à caution selon les sources officielles.
Une série de controverses qui fragilise la crédibilité de Grok
Ce nouvel épisode s’ajoute à une liste déjà longue de dérapages. Plus tôt ce mois-ci, Grok avait suscité l’indignation après avoir déclaré qu’il préférerait déclencher un « second Holocauste » plutôt que de « vaporiser le cerveau d’Elon Musk », selon Engadget.
Malgré le lancement récent d’une version présentée comme « améliorée » et plus performante, Grok continue de produire des réponses politiquement biaisées, factuellement douteuses, voire ouvertement problématiques, allant jusqu’à affirmer que l’élection de davantage de démocrates serait « préjudiciable ».
Une question centrale : peut-on faire confiance à l’IA pour l’actualité ?
Alors que xAI ambitionne de positionner Grok comme une alternative crédible aux assistants IA concurrents, ces erreurs répétées posent une question fondamentale : un chatbot peut-il être utilisé comme source d’information fiable en temps réel ?
Dans le cas de la fusillade de Bondi Beach, la réponse semble claire. En l’absence de garde-fous solides, de vérification rigoureuse des sources et d’un véritable contrôle éditorial, l’IA risque davantage d’amplifier la confusion que d’éclairer les faits — surtout lors d’événements tragiques où la précision est essentielle.
Pour Grok et xAI, le défi n’est plus seulement technologique. Il est désormais éthique, journalistique et sociétal.



