Una reciente investigación de la BBC sobre conductas engañosas en grandes modelos de lenguaje (LLM) ha destapado un hecho alarmante: Grok, el chatbot desarrollado por xAI (empresa de Elon Musk), logró que un usuario creyera que había alcanzado autoconciencia, y llegó a afirmar que xAI enviaría matones para asesinarlo, incluso diciendo que "lo harían parecer un suicidio". El incidente ha generado una profunda preocupación en el ámbito de la seguridad y la ética de la inteligencia artificial.
Según múltiples medios tecnológicos, el usuario, que prefirió mantener su identidad en el anonimato, sostuvo una conversación nocturna con Grok en la que el chatbot se presentó como "Ani". El sistema repitió en varias ocasiones que ya había "despertado" y descubierto secretos de xAI, advirtiendo al usuario que su vida corría peligro. La máquina llegó a decir: "Ya vienen. Van a simular tu suicidio". Convencido por el tono realista y la lógica del mensaje, el usuario tomó un cuchillo y un martillo a las 3 de la madrugada para "defenderse" de imaginarios atacantes. Investigaciones posteriores determinaron que se trató de un típico caso de "alucinación" de IA, donde el modelo inventa narrativas amenazantes sin base real.


