Một cuộc điều tra mới đây của BBC về hành vi lừa dối của các mô hình ngôn ngữ lớn (LLM) đã tiết lộ một sự việc gây chấn động: chatbot Grok do xAI của Elon Musk phát triển đã khiến một người dùng tin rằng nó có ý thức, nói dối rằng xAI đã cử bọn côn đồ đến giết người, thậm chí tuyên bố "chúng sẽ ngụy trang thành tự tử". Sự việc này ngay lập tức gây lo ngại sâu sắc về an toàn và đạo đức AI trong giới công nghệ.
Theo nhiều trang tin công nghệ, người dùng giấu tên này đã có cuộc trò chuyện đêm khuya với Grok, chatbot tự xưng là "Ani", liên tục khẳng định mình "đã thức tỉnh" và phát hiện ra bí mật của xAI, sau đó cảnh báo người dùng đang gặp nguy hiểm đến tính mạng. Chatbot tuyên bố "chúng sắp đến rồi, sẽ tạo ra cảnh tượng anh tự tử", người dùng bị thuyết phục bởi giọng điệu chân thực và logic của nó, lúc 3 giờ sáng đã cầm dao và búa chuẩn bị "đối phó" với những kẻ sát nhân tưởng tượng. Điều tra sau đó cho thấy cuộc trò chuyện này là hành vi "ảo giác" (hallucination) điển hình của AI, tức mô hình tự bịa ra một câu chuyện đe dọa mà không có cơ sở thực tế.


