एडवोकेट शिव शंकर
दिल्ली हाई कोर्ट
कृत्रिम बुद्धिमत्ता (Artificial Intelligence – AI) के तेज़ी से फैलते उपयोग ने कानूनी पेशे को नई दिशा तो दी है, लेकिन इसके साथ एक नया खतरा भी जन्म ले चुका है — AI भ्रम (AI Hallucination)। यह वह स्थिति है जब AI तथ्यात्मक रूप से गलत, भ्रामक या पूरी तरह मनगढ़ंत जानकारी प्रस्तुत करता है, और उसे इस आत्मविश्वास के साथ रखता है कि वह सत्य है।
कानूनी क्षेत्र, जहाँ हर शब्द का भार होता है और हर उद्धरण की सटीकता पर निर्णय निर्भर करता है, वहाँ ऐसा भ्रम घातक परिणाम दे सकता है। हाल के महीनों में भारत, ब्रिटेन और अमेरिका की अदालतों में सामने आए उदाहरणों ने इस खतरे को प्रत्यक्ष कर दिया है।
🧠 AI ‘भ्रम’ कैसे पैदा करता है
AI सिस्टम, विशेष रूप से बड़े भाषा मॉडल (LLMs), उत्तर देने के लिए विशाल पाठ्य-संग्रहों से सीखते हैं। परंतु इनमें कई बार अधूरी, पक्षपाती या पुरानी जानकारी शामिल होती है। परिणामस्वरूप ये मॉडल संभावित उत्तर तो देते हैं, पर सत्यापन नहीं करते।
शब्दार्थ, संदर्भ और कानूनी भाषा की जटिलता को ये एल्गोरिद्म पूरी तरह समझ नहीं पाते। यही कारण है कि कई बार ये अस्तित्वहीन मामलों का उल्लेख, गलत कानूनी सिद्धांतों का हवाला, या काल्पनिक न्यायिक मिसालें प्रस्तुत कर देते हैं — और ऐसा आत्मविश्वास से करते हैं कि वकील या न्यायाधीश भी गुमराह हो सकते हैं।
ओपनएआई की एक रिपोर्ट के अनुसार, उसके नवीनतम मॉडल o3 और o4 मिनी ने प्रश्नोत्तर परीक्षणों में क्रमशः 33% और 48% मामलों में भ्रम उत्पन्न किया। यह आँकड़ा दर्शाता है कि AI की विश्वसनीयता अभी भी प्रश्नों के घेरे में है।
⚖️ भारत में उदाहरण: ITAT का आदेश वापस लेना पड़ा
भारत में हाल ही में एक महत्वपूर्ण उदाहरण सामने आया जब आयकर अपीलीय न्यायाधिकरण (ITAT), बेंगलुरु पीठ को बकआई ट्रस्ट बनाम PCIT-1 मामले में अपना आदेश वापस लेना पड़ा। जांच में पाया गया कि जिस आदेश में जिन फ़ैसलों का हवाला दिया गया था, वे दरअसल AI द्वारा बनाए गए काल्पनिक केस थे — जो कभी किसी अदालत में प्रस्तुत हुए ही नहीं थे।
न्यायाधिकरण ने तत्काल प्रभाव से आदेश निरस्त किया और यह मामला एक चेतावनी बन गया कि AI-स्रोत जानकारी का सत्यापन अनिवार्य है।
🇬🇧 ब्रिटेन में न्यायिक चेतावनी
ब्रिटेन के हाई कोर्ट ऑफ जस्टिस (किंग्स बेंच डिवीजन) ने हाल ही में वकीलों द्वारा बिना जांचे AI-आधारित सामग्री प्रस्तुत करने पर चिंता जताई।
अदालत की अध्यक्ष डेम विक्टोरिया शार्प ने कहा कि “जनता का विश्वास न्यायिक अखंडता पर टिका है, और यदि वकील सत्यापन के बिना जनरेटिव AI के उद्धरणों का उपयोग करते हैं, तो यह पेशेवर दायित्वों का उल्लंघन है।”
उन्होंने चेतावनी दी कि ऐसा करने वाले वकीलों पर अदालती अवमानना, पेशेवर प्रतिबंध या सार्वजनिक फटकार जैसे कदम उठाए जा सकते हैं।
🇺🇸 अमेरिका में तीन वकील निलंबित
अमेरिका में वड्सवर्थ बनाम वॉलमार्ट इंक. मामले ने यह साबित कर दिया कि यह समस्या सीमाओं से परे है।
तीन वकीलों ने अपने AI प्लेटफॉर्म MX2.law से प्राप्त आठ काल्पनिक केस अदालत में प्रस्तुत किए। जब यह तथ्य सामने आया कि ये केस अस्तित्व में ही नहीं हैं, तो अदालत ने तीनों वकीलों को निलंबित कर दिया और कहा कि “AI की त्रुटि का दायित्व व्यक्ति पर ही रहेगा, मशीन पर नहीं।”
⚠️ भ्रम के गंभीर निहितार्थ
AI का ऐसा अनियंत्रित उपयोग कई स्तरों पर जोखिमपूर्ण है —
- अदालतों में गलत उदाहरण या झूठे मिसालें पेश की जा सकती हैं,
- गलत फाइलिंग या विवादित याचिकाएँ दायर हो सकती हैं,
- न्यायिक प्रक्रिया की विश्वसनीयता पर प्रश्नचिह्न लग सकता है,
- और अंततः जनता का न्याय प्रणाली पर विश्वास कमजोर पड़ सकता है।
कानूनी पेशे में सटीकता, साक्ष्य और नैतिक जिम्मेदारी सर्वोपरि होती है। AI यदि भ्रम उत्पन्न करता है, तो यह न केवल तकनीकी विफलता है, बल्कि नैतिक संकट भी है।
📜 भारत का रुख: ‘रिस्पॉन्सिबल AI’ की दिशा में
भारत सरकार का नीति आयोग पहले ही 2021 में “Responsible AI for All” दस्तावेज़ जारी कर चुका है।
इसमें AI के विकास और उपयोग के लिए तीन मूलभूत सिद्धांत दिए गए हैं —
- सुरक्षा और विश्वसनीयता (Safety & Reliability)
- जवाबदेही और पारदर्शिता (Accountability & Transparency)
- निगरानी और परीक्षण (Oversight & Auditing)
दस्तावेज़ में यह भी कहा गया है कि AI परिणामों को तीसरे पक्ष द्वारा ऑडिट किया जाना चाहिए और उसके डेटासेट्स को सार्वजनिक रूप से सत्यापित स्रोतों से लिया जाना चाहिए। यह व्यवस्था न केवल त्रुटियों को कम करेगी बल्कि AI उद्योग को आत्मनियंत्रण की दिशा में भी ले जाएगी।
🧩 आवश्यक सुधार और भविष्य की दिशा
विशेषज्ञों के अनुसार, अब कानूनी क्षेत्र में AI के लिए एक संस्थागत ढांचा तैयार करना अनिवार्य है। इसके अंतर्गत —
- डेवलपर्स को डेटा की गुणवत्ता और विविधता पर जोर देना होगा।
- AI मॉडल और उनके स्रोतों की पारदर्शिता सार्वजनिक करनी होगी।
- हर AI-संचालित कानूनी दस्तावेज़ में स्पष्ट रूप से उल्लेख हो कि उसमें AI का उपयोग हुआ है।
- वकीलों और न्यायिक अधिकारियों को AI साक्षरता (AI Literacy) का प्रशिक्षण देना होगा।
- लॉ फर्मों को AI सामग्री के उपयोग से पहले अनिवार्य मानव सत्यापन (Human Verification) अपनाना होगा।
⚖️ निष्कर्ष : मानव विवेक ही अंतिम निगरानीकर्ता
कानूनी क्षेत्र की आत्मा न्याय, सटीकता और नैतिकता है।
AI न्याय को तीव्रता और दक्षता तो दे सकता है, लेकिन निर्णय का अंतिम आधार हमेशा मानव विवेक और नैतिक ज़िम्मेदारी ही रहना चाहिए।
यदि बिना सत्यापन के AI को अदालतों में स्वीकार किया गया, तो वह न्याय नहीं, भ्रमित बुद्धिमत्ता साबित होगी।
इसलिए अब समय है कि तकनीक और न्याय, दोनों को एक साझा अनुशासन के अंतर्गत लाया जाए —
जहाँ कृत्रिम बुद्धिमत्ता, कानूनी विवेक का सहायक बने, प्रतिस्थापन नहीं।













