अपनी मनपसंद भाषा में पढ़ें :
News Samvad : आर्टिफिशियल इंटेलिजेंस (AI) और खासकर जेनरेटिव AI (GenAI) का दुरुपयोग अब चिंता का गंभीर विषय बन गया है। सोमवार को सुप्रीम कोर्ट में दाखिल एक याचिका पर सुनवाई के दौरान मुख्य न्यायाधीश (CJI) ने भी इस समस्या पर चिंता व्यक्त की। सुनवाई के दौरान CJI ने कहा कि वे भी अपने मॉर्फ किए गए फोटो देख चुके हैं, जिससे साफ है कि डिजिटल टूल्स का गलत इस्तेमाल न्यायपालिका तक को निशाना बना रहा है।
फर्जी प्रोफाइल, एडिटेड वीडियो और झूठी खबरों से बढ़ा संकट
पिछले कुछ वर्षों में न्यायपालिका से जुड़े कई फर्जी वीडियो, जजों के नाम पर झूठे बयान और एडिटेड क्लिप सोशल मीडिया पर वायरल किए गए हैं। यहां तक कि सुप्रीम कोर्ट में जूता फेंकने की फर्जी वीडियो भी फैलाई गई। अदालत ने माना कि AI और डिजिटल तकनीक के गलत इस्तेमाल से कोर्ट और जज भी अछूते नहीं रहे हैं।
GenAI पर नीति की मांग, क्यों है यह ज्यादा खतरनाक?
याचिकाकर्ता कार्तिकेय रावल ने कोर्ट से आग्रह किया कि GenAI के लिए नीति और ढांचा तैयार किया जाए, ताकि न्यायिक प्रक्रिया प्रभावित न हो। उन्होंने स्पष्ट किया कि पारंपरिक AI केवल डेटा विश्लेषण करता है, जबकि GenAI खुद नया डेटा, टेक्स्ट, फोटो, वीडियो और कोड तक बना सकता है, जिससे भ्रम और गलत सूचना फैलने का खतरा कई गुना बढ़ जाता है।
‘ब्लैक बॉक्स’ और ‘हैलुसिनेशन’—सबसे बड़ा खतरा क्या?
याचिका के अनुसार, GenAI की तकनीक ‘ब्लैक बॉक्स’ की तरह काम करती है—यानि इसका प्रोसेस पारदर्शी नहीं है। इससे अदालतें ऐसे डेटा या फैसलों पर भरोसा कर सकती हैं जो AI द्वारा “हैलुसिनेशन” में बनाए गए हों, यानी पूरी तरह मनगढ़ंत। इससे गलत केस लॉ, पूर्वाग्रह आधारित निर्णय और Article 14 के तहत समानता के अधिकार का उल्लंघन हो सकता है।
डेटा बायस और भेदभाव की चिंता
रावल ने चेताया कि यदि GenAI को पक्षपातपूर्ण प्रशिक्षण डेटा पर प्रशिक्षित किया गया तो महिलाओं, दलितों और अल्पसंख्यकों पर आधारित मामलों में पक्षपातपूर्ण सुझाव सामने आ सकते हैं। उन्होंने मांग की कि भविष्य में न्यायपालिका में यदि AI का इस्तेमाल हो, तो डेटा की मालिकाना हक, जवाबदेही और मानव समीक्षा अनिवार्य की जानी चाहिए।
इसे भी पढ़ें : रमा खलखो के हाथ अब झारखंड महिला कांग्रेस की कमान

