TCS Infosys Wipro Google Microsoft Deloitte Accenture LTIMindtree Cognizant Meta Amazon IBM

---Advertisement---

SC: AI से तैयार फर्जी फैसलों पर सुप्रीम कोर्ट ने जताई चिंता, न्यायिक प्रक्रिया की निष्पक्षता को लेकर क्या कहा?

On: March 2, 2026 3:54 PM
Follow Us:
SC: AI से तैयार फर्जी फैसलों पर सुप्रीम कोर्ट ने जताई चिंता, न्यायिक प्रक्रिया की निष्पक्षता को लेकर क्या कहा?
---Advertisement---

देश की सर्वोच्च अदालत, सुप्रीम कोर्ट ने हाल ही में आर्टिफिशियल इंटेलिजेंस (AI) द्वारा तैयार किए गए फर्जी फैसलों (fake judgments) को लेकर गहरी चिंता व्यक्त की है। यह चिंता न्यायिक प्रक्रिया की निष्पक्षता और अखंडता पर AI के संभावित नकारात्मक प्रभाव को उजागर करती है। यह मुद्दा तब सामने आया जब कोर्ट के संज्ञान में ऐसे मामले आए जहां AI चैटबॉट्स द्वारा जनरेट किए गए गलत या मनगढ़ंत कानूनी रेफरेंस और फैसलों को पेश किया जा रहा था। सुप्रीम कोर्ट ने स्पष्ट रूप से कहा कि AI से उत्पन्न होने वाली “hallucinations” या गलत जानकारी का judicial process में कोई स्थान नहीं है और इसके गंभीर परिणाम हो सकते हैं।

न्यायिक प्रणाली में AI के बढ़ते उपयोग और इसकी क्षमताओं के बीच, फर्जी फैसलों की आशंका ने एक नई बहस छेड़ दी है। कोर्ट का यह रुख AI की शक्ति और सीमाओं को समझने की आवश्यकता पर जोर देता है, खासकर ऐसे संवेदनशील क्षेत्र में जहां हर फैसला लाखों लोगों के जीवन को प्रभावित करता है। AI के जरिए फर्जी दस्तावेजों का निर्माण न केवल न्यायिक प्रक्रिया को बाधित करता है बल्कि जनता के विश्वास को भी ठेस पहुंचाता है, जो किसी भी न्याय प्रणाली की आधारशिला है।

यह घटनाक्रम कानूनी पेशे के सामने एक बड़ी चुनौती पेश करता है। वकीलों, न्यायाधीशों और कानूनी शोधकर्ताओं के लिए यह बेहद महत्वपूर्ण हो गया है कि वे AI टूल्स का उपयोग करते समय अत्यधिक सावधानी बरतें और हर जानकारी को स्वतंत्र रूप से सत्यापित करें। सुप्रीम कोर्ट की इस चिंता ने AI फर्जी फैसले सुप्रीम कोर्ट के दायरे में एक महत्वपूर्ण विमर्श को जन्म दिया है, जो टेक्नोलॉजी और न्यायपालिका के बीच बढ़ते इंटरसेक्शन को दर्शाता है।

AI का बढ़ता प्रभाव और न्यायिक प्रणाली में चुनौतियां

पिछले कुछ वर्षों में, आर्टिफिशियल इंटेलिजेंस ने टेक्नोलॉजी के हर क्षेत्र में क्रांति ला दी है। generative AI मॉडल्स, जैसे कि Large Language Models (LLMs), टेक्स्ट, इमेज और कोड बनाने में अभूतपूर्व क्षमता दिखाते हैं। कानूनी क्षेत्र भी इससे अछूता नहीं है। AI-powered tools अब legal research, document review, contract analysis और यहां तक कि legal drafting में भी सहायता प्रदान कर रहे हैं। इन टूल्स की मदद से कानूनी पेशेवरों का काम आसान हुआ है और efficiency बढ़ी है। हालांकि, इन क्षमताओं के साथ कुछ गंभीर चुनौतियाँ भी सामने आई हैं।

एक तरफ, AI कानूनी जानकारी के vast amounts को प्रोसेस करके और पैटर्न की पहचान करके वकीलों और न्यायाधीशों को बहुमूल्य insights प्रदान कर सकता है। यह जटिल मामलों में अनुसंधान में लगने वाले समय को कम कर सकता है और अधिक सटीक परिणाम दे सकता है। दूसरी तरफ, AI मॉडल्स, विशेष रूप से LLMs, ‘hallucinate’ करने के लिए जाने जाते हैं। इसका मतलब है कि वे कभी-कभी ऐसी जानकारी या तथ्य बना सकते हैं जो पूरी तरह से असत्य या काल्पनिक होते हैं, लेकिन believable लगते हैं। न्यायिक संदर्भ में, जहां सटीकता और सत्यता सर्वोपरि है, AI की यह “hallucination” क्षमता बेहद खतरनाक साबित हो सकती है। फेक legal precedents या नकली फैसलों का निर्माण न्याय प्रणाली की विश्वसनीयता को सीधे तौर पर चुनौती देता है।

सुप्रीम कोर्ट की चिंता का विस्तृत विश्लेषण

सुप्रीम कोर्ट ने इस मामले पर अपनी चिंता स्पष्ट रूप से व्यक्त की है। कोर्ट ने उन instances को उजागर किया जहां वकीलों ने अनजाने में या असावधानी से AI द्वारा जनरेट किए गए काल्पनिक legal judgments को कोर्ट के सामने पेश कर दिया। यह न केवल कोर्ट का समय बर्बाद करता है बल्कि न्यायिक प्रक्रिया को भी गुमराह कर सकता है। सुप्रीम कोर्ट ने साफ कहा कि AI से उत्पन्न फर्जी फैसलों का कोई कानूनी आधार नहीं है और उन्हें न्यायिक रिकॉर्ड का हिस्सा नहीं बनाया जा सकता है।

न्यायाधीशों ने इस बात पर जोर दिया कि न्यायिक प्रणाली में हर जानकारी को सत्यापित (verified) किया जाना अनिवार्य है। AI चैटबॉट्स द्वारा दी गई जानकारी को सीधे स्वीकार करना बेहद जोखिम भरा है, खासकर जब यह किसी कानूनी फैसले या precedent से संबंधित हो। यह चिंता सिर्फ भारत तक ही सीमित नहीं है; वैश्विक स्तर पर कई अन्य न्यायालयों में भी इसी तरह की घटनाएं सामने आई हैं जहां वकीलों को AI-जनरेटेड झूठे केस रेफरेंस प्रस्तुत करने के लिए फटकार लगाई गई है। इस समस्या की गंभीरता को देखते हुए, सुप्रीम कोर्ट ने लीगल प्रोफेशनल्स को AI टूल्स का उपयोग करते समय अत्यधिक सतर्क रहने की सलाह दी है और उन्हें original sources से जानकारी को cross-verify करने की सख्त हिदायत दी है। यह एक गंभीर चेतावनी है कि AI फर्जी फैसले सुप्रीम कोर्ट के लिए एक बड़ा खतरा बन गए हैं।

न्यायिक प्रक्रिया और जनता के विश्वास पर प्रभाव

AI फर्जी फैसलों का संभावित प्रभाव न्यायिक प्रक्रिया और जनता के न्याय प्रणाली पर विश्वास के लिए बेहद गंभीर है। न्याय की नींव सच्चाई, पारदर्शिता और सटीक तथ्यों पर टिकी होती है। यदि AI द्वारा मनगढ़ंत फैसले या रेफरेंस न्यायपालिका में प्रवेश करते हैं, तो इसके कई गंभीर परिणाम हो सकते हैं:

  • गलत निर्णय: फर्जी फैसलों के आधार पर दिए गए निर्णय गलत हो सकते हैं, जिससे बेगुनाह को सजा या दोषी को बरी किया जा सकता है। यह न्याय के मूलभूत सिद्धांतों के खिलाफ होगा।
  • न्यायपालिका में अविश्वास: यदि जनता को यह विश्वास हो जाए कि न्यायालय AI-जनरेटेड झूठी जानकारी पर निर्भर कर रहे हैं, तो न्यायपालिका की credibility और integrity पर गंभीर सवाल उठेंगे। यह सामाजिक व्यवस्था को कमजोर कर सकता है।
  • कानूनी अराजकता: झूठे कानूनी precedents का प्रसार कानूनी अराजकता पैदा कर सकता है। कौन से फैसले वैध हैं और कौन से नहीं, इस पर भ्रम की स्थिति उत्पन्न होगी, जिससे कानूनी शोध और अभ्यास जटिल हो जाएगा।
  • कानूनी पेशेवरों पर बोझ: वकीलों और न्यायाधीशों को हर रेफरेंस और दस्तावेज़ को मैन्युअल रूप से सत्यापित करने के लिए अतिरिक्त समय और संसाधनों का निवेश करना होगा, जिससे न्यायिक प्रक्रिया में देरी होगी और लागत बढ़ेगी।
  • ethical dilemmas: AI टूल्स का गैर-जिम्मेदाराना उपयोग legal ethics पर सवाल उठाता है। वकीलों की यह जिम्मेदारी है कि वे अपनी प्रस्तुतियों की सत्यता सुनिश्चित करें।

इन प्रभावों को देखते हुए, सुप्रीम कोर्ट की चिंता बिल्कुल जायज है। यह सिर्फ तकनीकी समस्या नहीं है, बल्कि यह न्याय की delivery और fairness से जुड़ा एक गहरा मुद्दा है।

उद्योग और विशेषज्ञ प्रतिक्रिया

कानूनी टेक्नोलॉजी (LegalTech) उद्योग और AI एथिक्स विशेषज्ञों ने सुप्रीम कोर्ट की इस चिंता का स्वागत किया है। उनका मानना है कि यह एक महत्वपूर्ण कदम है जो AI के जिम्मेदार उपयोग की दिशा में जागरूकता बढ़ाएगा। विशेषज्ञों ने इस बात पर जोर दिया है कि AI टूल्स, चाहे वे कितने भी शक्तिशाली क्यों न हों, मानव विवेक (human discretion) और सत्यापन (verification) का विकल्प नहीं हो सकते।

लीगल टेक कंपनियों ने यह भी स्वीकार किया है कि उनके AI मॉडल्स में सुधार की गुंजाइश है और वे “hallucinations” को कम करने पर लगातार काम कर रहे हैं। कई विशेषज्ञों ने यह सुझाव दिया है कि AI को एक सहायक उपकरण के रूप में देखा जाना चाहिए, न कि एक अंतिम निर्णय निर्माता के रूप में। उन्होंने कानूनी पेशेवरों के लिए AI लिटरेसी और ट्रेनिंग प्रोग्राम्स की आवश्यकता पर बल दिया है ताकि वे AI टूल्स की क्षमताओं और सीमाओं दोनों को समझ सकें। AI एथिक्स के क्षेत्र में काम करने वाले विद्वानों ने रेगुलेटरी फ्रेमवर्क और उद्योग-व्यापी दिशानिर्देशों की वकालत की है ताकि AI के दुरुपयोग को रोका जा सके और न्याय प्रणाली में इसका सुरक्षित और प्रभावी ढंग से integration सुनिश्चित किया जा सके।

आगे क्या? संभावित कदम और समाधान

सुप्रीम कोर्ट की इस चिंता के बाद, कई संभावित कदम उठाए जा सकते हैं ताकि इस समस्या का समाधान किया जा सके और न्यायिक प्रक्रिया की अखंडता बनी रहे:

  • सख्त दिशानिर्देश: भारतीय बार काउंसिल (Bar Council of India) और अन्य न्यायिक निकायों को वकीलों और कानूनी शोधकर्ताओं के लिए AI के उपयोग से संबंधित स्पष्ट और सख्त दिशानिर्देश जारी करने चाहिए। इन दिशानिर्देशों में AI-जनरेटेड सामग्री को सत्यापित करने के लिए mandatory protocols शामिल होने चाहिए।
  • टेक्नोलॉजी आधारित समाधान: AI-जनरेटेड फेक कंटेंट का पता लगाने के लिए नए AI टूल्स और सॉफ्टवेयर विकसित किए जा सकते हैं। कोर्ट सिस्टम्स को ऐसे verificación systems से लैस किया जा सकता है जो प्रस्तुत किए गए कानूनी दस्तावेजों और रेफरेंस की प्रामाणिकता की जांच कर सकें।
  • शिक्षा और प्रशिक्षण: कानूनी शिक्षा संस्थानों और न्यायिक अकादमियों को अपने पाठ्यक्रम में AI एथिक्स, AI लिटरेसी और जिम्मेदार AI उपयोग पर modules शामिल करने चाहिए। वकीलों और न्यायाधीशों को AI टूल्स की बारीकियों, उनकी क्षमताओं और सीमाओं के बारे में प्रशिक्षित किया जाना चाहिए।
  • जागरूकता अभियान: कानूनी बिरादरी के बीच AI के जोखिमों, विशेष रूप से AI फर्जी फैसलों के खतरों के बारे में व्यापक जागरूकता अभियान चलाए जाने चाहिए।
  • नियामक ढांचा: सरकार और न्यायपालिका को मिलकर एक नियामक ढांचा विकसित करना चाहिए जो AI के कानूनी क्षेत्र में उपयोग को नियंत्रित करे, यह सुनिश्चित करते हुए कि नवाचार को बढ़ावा मिले, लेकिन सुरक्षा और नैतिकता से समझौता न हो।

इन कदमों से यह सुनिश्चित करने में मदद मिलेगी कि AI का उपयोग न्याय प्रणाली को मजबूत करने के लिए किया जाए, न कि उसे कमजोर करने के लिए।

निष्कर्ष: AI और न्याय का संतुलन

सुप्रीम कोर्ट द्वारा AI फर्जी फैसलों पर जताई गई चिंता भारतीय न्यायपालिका के लिए एक महत्वपूर्ण मोड़ है। यह न केवल टेक्नोलॉजी के उदय के साथ आने वाली चुनौतियों को उजागर करता है, बल्कि यह भी दर्शाता है कि न्यायपालिका, जो अक्सर परंपरा और precedents पर आधारित होती है, नए तकनीकी परिदृश्यों के अनुकूल होने के लिए तैयार है। यह स्पष्ट है कि आर्टिफिशियल इंटेलिजेंस में न्यायिक प्रक्रिया को revolutionize करने की क्षमता है, लेकिन इसकी क्षमताओं का उपयोग सावधानी, नैतिकता और निरंतर सत्यापन के साथ किया जाना चाहिए।

न्याय की देवी की आंखों पर बंधी पट्टी impartiality का प्रतीक है, लेकिन अगर AI जैसी अनियंत्रित तकनीक इस पर अंधेरा कर दे, तो न्याय प्रणाली की निष्पक्षता खतरे में पड़ सकती है। इसलिए, AI फर्जी फैसले सुप्रीम कोर्ट के लिए एक गंभीर चुनौती हैं, जिसका समाधान टेक्नोलॉजी और कानून के बीच एक मजबूत और जिम्मेदार साझेदारी के माध्यम से ही संभव है। भविष्य में, न्यायपालिका और कानूनी पेशेवरों को टेक्नोलॉजी को embrace करते हुए भी सच्चाई और न्याय के मूलभूत सिद्धांतों को प्राथमिकता देना जारी रखना होगा।

Join WhatsApp

Join Now

Join Telegram

Join Now

Leave a Comment