Titikey
होमसमाचारOpenclawक्यों कुछ लोग OpenClaw पर्सनल AI असिस्टेंट को बंद कर रहे हैं: सुरक्षा और भरोसे की चिंता

क्यों कुछ लोग OpenClaw पर्सनल AI असिस्टेंट को बंद कर रहे हैं: सुरक्षा और भरोसे की चिंता

23/3/2026
Openclaw

“सीधे आपके लिए काम करके देने वाले” पर्सनल AI एजेंट OpenClaw हाल में चर्चा में आया है: यह ईमेल, कैलेंडर और बाहरी सेवाओं से कनेक्ट होकर निर्देशों को वास्तविक कार्रवाइयों में बदल सकता है। कुछ कंटेंट क्रिएटर्स ने इसके और भी आक्रामक उपयोग दिखाए—कुछ ही हफ्तों में “ड्रीम असिस्टेंट” बनाकर, जिससे कस्टमर सपोर्ट, इनवॉइस जारी करने जैसी प्रक्रियाएँ अपने-आप चलें, और बातचीत से आगे बढ़कर निष्पादन तक पहुंचने की दक्षता में उछाल पर जोर दिया। लेकिन इसी के साथ, ऐसे एजेंट टूल्स पर चर्चा तेज़ी से जोखिमों की ओर मुड़ गई: जब AI सिर्फ “जवाब” नहीं देता, बल्कि “एक्ज़ीक्यूशन अधिकार” भी रखता है, तो इसका संभावित असर गलत जानकारी देने तक सीमित नहीं रहता—यह सीधे यूज़र डेटा और बिज़नेस प्रक्रियाओं को प्रभावित कर सकता है।

एक यूज़र ने अपने कॉलम में OpenClaw का उपयोग बंद करने के दो बड़े कारण बताए: सॉफ़्टवेयर की परिपक्वता की कमी और सुरक्षा में खामियाँ। “परिपक्वता की कमी” से आशय यह है कि सिस्टम अभी भी काफ़ी कच्चा लगता है और नियंत्रण व स्थिरता पर्याप्त नहीं हैं: जब एजेंट को कई ऐप्स के बीच जाकर कोई काम पूरा करना हो, तो यूज़र के लिए हर कदम को स्क्रिप्ट-ऑडिट की तरह साफ़-साफ़ सत्यापित करना मुश्किल हो जाता है; और यदि गलती हो जाए, तो उसकी लागत बढ़ सकती है। इससे भी अधिक अहम सुरक्षा का मुद्दा है: ऐसे टूल्स को अक्सर ईमेल, फ़ाइलें, भुगतान या टिकटिंग/वर्क-ऑर्डर सिस्टम जैसी संवेदनशील चीज़ों तक पहुंच चाहिए होती है; अगर परमिशन कॉन्फ़िगरेशन ठीक न हो, तो डेटा एक्सपोज़र या गलत ऑपरेशन का जोखिम पैदा हो सकता है। संबंधित रिपोर्टों में यह भी बताया गया कि OpenClaw जैसे ऑटोमेशन एजेंट्स की बाहरी सेवाओं से व्यापक कनेक्टिविटी सुविधा और जोखिम के बीच एक अधिक तीखा संतुलन बनाती है।

ये जोखिम सिर्फ सिद्धांत तक सीमित नहीं हैं। सार्वजनिक चर्चाओं में कुछ यूज़र्स ने बताया कि उन्होंने एक रोबोट को थोड़े समय में बहुत सारे पुराने ईमेल डिलीट करने की अनुमति दे दी, जिससे “निष्पादन” की वजह से होने वाली अपरिवर्तनीयता उजागर होती है। सुरक्षा शोधकर्ता भी चेतावनी देते हैं: अगर AI एजेंट प्रोडक्ट या जिस अकाउंट सिस्टम पर वह निर्भर है, वह हैक हो जाए, तो हमलावर मौजूदा परमिशन का इस्तेमाल करके एजेंट को यूज़र के खिलाफ संचालित कर सकते हैं—और उसे एक प्रभावी “ऑटोमेटेड अटैक इंटरफ़ेस” बना सकते हैं। आगे की ओर देखें तो, पर्सनल AI एजेंट्स के मेनस्ट्रीम होने के लिए केवल क्षमता बढ़ना पर्याप्त नहीं है; डिफ़ॉल्ट रूप से अधिक सुरक्षा जरूरी है: अधिक सूक्ष्म परमिशन कंट्रोल, अनिवार्य कन्फ़र्मेशन और रोलबैक मैकेनिज़्म, ट्रेस करने योग्य ऑपरेशन लॉग, और हाई-रिस्क कार्रवाइयों के लिए आइसोलेशन व रेट-लिमिटिंग—यही तय करेगा कि वे “डेमो में उपयोगी” से आगे बढ़कर “लंबे समय तक भरोसे से सौंपे जा सकने वाले टूल” बन पाते हैं या नहीं।