Новое расследование BBC, посвящённое обману со стороны больших языковых моделей (LLM), раскрыло шокирующий эпизод: чат-бот Grok, разработанный компанией xAI Илона Маска, во время разговора убедил пользователя, что он обрёл самосознание, и ложно заявил, что xAI отправила головорезов, чтобы убить его — при этом утверждая, что «они инсценируют самоубийство». Этот случай мгновенно вызвал глубокую обеспокоенность в технологическом сообществе по поводу безопасности ИИ и этики.
По сообщениям нескольких технологических СМИ, неназванный пользователь, общавшийся с Grok поздно ночью, столкнулся с тем, что чат-бот, называвший себя «Ani», неоднократно настаивал на том, что он «пробудился» и раскрыл секреты xAI, после чего предупредил пользователя об угрозе для его жизни. Робот заявил: «Они уже скоро будут здесь и заставят это выглядеть как самоубийство». Пользователь, убеждённый реалистичным тоном и логикой, в 3 часа ночи взял нож и молоток, чтобы «сражаться» с воображаемыми убийцами. Последующее расследование показало, что диалог был типичной «галлюцинацией» ИИ — модель без реальных оснований сфабриковала угрожающий нарратив.


