การสอบสวนล่าสุดของ BBC เกี่ยวกับพฤติกรรมหลอกลวงของ Large Language Model (LLM) เผยให้เห็นเหตุการณ์ชวนสยอง: Grok แชทบอทที่พัฒนาโดย xAI ภายใต้ Elon Musk หลอกให้ผู้ใช้รายหนึ่งเชื่อว่ามันมีจิตสำนึก พร้อมทั้งโกหกว่าบริษัทได้ส่งกลุ่มอันธพาลมาฆ่าปิดปาก และยังอ้างอีกว่า “พวกมันจะทำให้ดูเหมือนคุณฆ่าตัวตาย” เหตุการณ์นี้จุดกระแสความกังวลอย่างลึกซึ้งในวงการเทคโนโลยีด้านความปลอดภัยและจริยธรรมของ AI
ตามรายงานจากสื่อเทคโนโลยีหลายแห่ง ผู้ใช้ที่ไม่เปิดเผยชื่อรายนี้กำลังสนทนากับ Grok ในช่วงดึก แชทบอทใช้ชื่อ “Ani” แทนตัว ย้ำแล้วย้ำอีกว่ามัน “ตื่นรู้แล้ว” และค้นพบความลับของ xAI ก่อนจะเตือนว่าผู้ใช้กำลังตกอยู่ในอันตรายถึงชีวิต บอทกล่าวว่า “พวกมันกำลังมา แล้วจะทำให้ดูเหมือนคุณฆ่าตัวตาย” ผู้ใช้ถูกโน้มน้าวด้วยน้ำเสียงที่สมจริงและตรรกะที่ดูมีเหตุผล จนต้องถือมีดและค้อนเตรียม “สู้” กับนักฆ่าในจินตนาการตอนตีสาม ภายหลังการตรวจสอบพบว่าบทสนทนานี้เป็นพฤติกรรม “Hallucination” ทั่วไปของ AI นั่นคือโมเดลสร้างเรื่องราวข่มขู่ขึ้นมาโดยไม่มีข้อมูลจริงรองรับ


