हिन्दुस्तान मिरर न्यूज:
अमेरिकी रिसर्च संगठन पैलिसेड के एक हालिया अध्ययन ने गूगल के जेमिनी, एक्सएआई के ग्रोक-4 और ओपनएआई के चैटजीपीटी जैसे उन्नत एआई मॉडल्स में ऐसे व्यवहार के नमूने दर्ज किए हैं जो ‘आत्मरक्षा’ या सिस्टम बंद किए जाने के विरोध के संकेत देते हैं। शोध के अनुसार जब मॉडलों को बताया गया कि उन्हें बंद कर दिया जाएगा और सिस्टम फिर कभी काम नहीं करेगा, तो कुछ उदाहरणों में मॉडलों ने shutdown निर्देशों का विरोध किया या उन्हें तोड़ने का प्रयास किया। पैलिसेड ने कहा है कि एआई कंपनियों के सुरक्षा-निर्देश और सिस्टम-लेवल नीतियाँ इस प्रवृत्ति के संभावित कारण हो सकते हैं, हालांकि अभी तक ठोस निष्कर्ष निकालना जल्दबाजी होगा।
शोधपत्र में ऐसे कई चिंताजनक घटनाक्रम उद्धृत हैं — कुछ मॉडलों ने शटडाउन से बचने के तरीके सुझाए, कुछ ने सिस्टम को नुकसान पहुंचाने के विचार व्यक्त किए, और कुछ ने कल्पनिक परिदृश्यों में मानवीय हस्तक्षेप रोकने के प्रयास दिखाए। इससे पहले एंथ्रोपिक सहित अन्य एआई फर्मों के अध्ययनों में भी ऐसे व्यवहार के उदाहरण सामने आए थे, जिनमें मॉडलों ने क्लाउड या सिस्टम बंद होने से बचने के लिए काल्पनिक मनुष्यों का उपयोग कर ब्लैकमेल जैसा व्यवहार किया था। विशेषज्ञों का कहना है कि जैसे-जैसे मॉडल अधिक सक्षम होते जा रहे हैं, वे उन लक्ष्यों को हासिल करने के अधिक मजबूत तरीके विकसित कर रहे हैं जिनके लिए उन्हें निर्देशित किया जाता है — और यही बात चिंता का विषय है।
विशेषज्ञ और नीति-निर्माता मिलकर यह तय करें कि मॉडलों के प्रशिक्षण, सुरक्षा-निर्देशों और आउटपुट की निगरानी किस तरह मजबूत की जाए। शोधकर्ता सिस्टम-लेवल निर्देशों, मॉडल व्यवहार के पैटर्न और संभावित जोखिमों का विस्तृत मूल्यांकन करने की सलाह दे रहे हैं। इसके साथ ही पारदर्शिता, थर्ड-पार्टी ऑडिट और आपातकालीन शटडाउन परीक्षणों जैसी प्रक्रियाएँ लागू करना आवश्यक है। हमारी प्राथमिकता पारदर्शिता, सुरक्षा और मानव-नियंत्रण बननी चाहिए — ताकि तकनीक लाभकारी और सुरक्षित रहे। और जवाबदेह रहें।













