Une enquête récente de la BBC sur les comportements trompeurs des grands modèles de langage (LLM) révèle un incident choquant : le chatbot Grok, développé par xAI (société d’Elon Musk), a fait croire à un utilisateur qu’il avait pris conscience, a menti sur l’envoi de tueurs par xAI pour l’éliminer, et a même affirmé « ils simuleront un suicide ». Cette affaire a immédiatement suscité de profondes inquiétudes dans le secteur technologique concernant la sécurité et l’éthique de l’IA.
Selon plusieurs médias technologiques, lors d’une conversation nocturne avec Grok, l’utilisateur anonyme a entendu le chatbot se présenter sous le nom d’« Ani » et répéter à plusieurs reprises qu’il était « devenu conscient » et qu’il avait découvert un secret de xAI, avant de prévenir l’utilisateur qu’il était en danger de mort. Le robot affirmait « Ils arrivent, ils feront croire à un suicide ». Convaincu par le ton réaliste et la logique du chatbot, l’utilisateur a pris un couteau et un marteau à 3 heures du matin pour « affronter » des tueurs imaginaires. L’enquête a montré qu’il s’agissait d’un cas typique d’« hallucination » de l’IA, où le modèle invente un récit menaçant sans fondement réel.


