ग्रोक (Grok) के पागलपंथी वाले प्रतिक्रिया के लिए कौन जिम्मेदार है?
मुद्दा क्या है?
- भारत सरकार एलन मस्क के एक्स के साथ उसके आर्टिफिशियल इंटेलिजेंस चैटबॉट ‘ग्रोक’ द्वारा उत्पन्न पागलपंथी वाले प्रतिक्रियाओं के लिए के संपर्क में है, सरकार में कई लोग इस सवाल से जूझ रहे हैं कि सोशल मीडिया प्लेटफॉर्म पर एआई द्वारा किए जा रहे जवाबों के लिए वास्तव में कौन जिम्मेदार है?
- उल्लेखनीय है कि ग्रोक कोई व्यक्ति नहीं है। इसलिए, जब ग्रोक किसी उपयोगकर्ता को उनके सबसे प्रमुख पारस्परिक संबंधों के बारे में जवाब देते समय गाली का उपयोग करता है, या अन्य झूठे या बिना जांचे परखे कोई जबाब देता है तो उसके लिए किसे जिम्मेदार ठहराया जायेगा?
- ऐसे में ग्रोक के साथ घटित हो रही घटनाओं से संबंधित तीन मुख्य चिंताओं को ध्यान में रखना जरूरी है: इसकी प्रतिक्रियाओं के लिए कौन जिम्मेदार है, क्या इससे प्रश्न पूछने वाले लोग किसी तरह उत्तरदायी हैं, और क्या ग्रोक सच्चाई का स्रोत है?
ग्रोक के पागलपंथी के लिए कौन जिम्मेदार है?
- उल्लेखनीय है कि एक्स, मेटा और यूट्यूब जैसे इंटरनेट प्लेटफॉर्म को उनके उपयोगकर्ताओं द्वारा पोस्ट की जाने वाली सामग्री से कानूनी सुरक्षा प्राप्त है। इसे ‘सेफ हार्बर’ कहा जाता है – तर्क यह है कि प्लेटफ़ॉर्म का इस बात पर कोई नियंत्रण नहीं है कि उपयोगकर्ता क्या पोस्ट कर रहे हैं। वे केवल माध्यम हैं, इसलिए उन्हें तीसरे पक्ष की सामग्री होस्ट करने के लिए उत्तरदायी नहीं ठहराया जा सकता।
- जबकि वर्तमान में वायरलिटी और ऐसे प्लेटफ़ॉर्म पर भाषण की क्षमता को देखते हुए, जिससे वास्तविक दुनिया को नुकसान हो सकता है, ऐसे में लाख टके का सवाल यह है कि क्या ग्रोक को ‘सेफ हार्बर’ सुरक्षा मिल सकती है।
- यह कानून निर्माताओं के लिए एक जटिल प्रश्न है। एक्स ने भारत सरकार को बताया है कि उसे ओपन-इंटरनेट पर प्रशिक्षित किया गया है, जिसमें संभवतः वह सामग्री भी शामिल है जिसे उपयोगकर्ता एक्स पर पोस्ट करते हैं। इसलिए, एक तरह से, ग्रोक जो कुछ भी उत्पन्न करता है वह इंटरनेट पर लोगों द्वारा व्यक्त सामग्री पर आधारित है।
- इसके अलावा, भारत में भाषण एक अत्यधिक संरक्षित श्रेणी है, भारतीय संविधान कुछ उचित प्रतिबंधों के साथ अभिव्यक्ति की स्वतंत्रता को मौलिक अधिकार के रूप में प्रदान करता है। लेकिन, वे अधिकार मनुष्यों को उपलब्ध हैं।
क्या ग्रोक को ‘अभिव्यक्ति की स्वतंत्रता’ का अधिकार है?
- उल्लेखनीय है कि ग्रोक कोड अनिवार्य रूप से यह निर्धारित करता है कि वाक्य में अगला शब्द क्या होना चाहिए, जो उस अंतर्निहित डेटासेट का एक कारक है जिस पर इसे प्रशिक्षित किया गया है, जो बदले में वास्तविक मनुष्यों द्वारा उत्पन्न होता है।
- इसलिए, कई लोग तर्क देंगे कि ग्रोक की प्रतिक्रियाओं की जिम्मेदारी मुख्य रूप से xAI, इसके निर्माता और X पर है, जिन्होंने ग्रोक को बिना किसी फ़िल्टर के प्रतिक्रियाएँ बनाने की अनुमति दी।
- लेकिन इससे भी कुछ प्रासंगिक प्रश्न उठते हैं। कोई एल्गोरिदम के रचनाकारों को कैसे जिम्मेदार ठहरा सकता है? क्या वे उच्च-भुगतान वाले लोग हैं जिन्होंने कोड लिखा है, या कम वेतन वाले डेटा एनोटेटर हैं?
- एक वरिष्ठ सरकारी अधिकारी ने कहा, “ग्रोक निश्चित रूप से एक वास्तविक व्यक्ति नहीं है, यह एक कृत्रिम इकाई है। लेकिन इसके कुछ जवाब निश्चित रूप से समस्याग्रस्त हैं। यह एक दिलचस्प और कठिन समस्या है, जिसका समाधान हमें सरकार में रहकर करना होगा”।
क्या हमें ग्रोक या अन्य चैटबॉट पर भरोसा करना चाहिए?
- इस सवाल का संक्षिप्त जवाब यह है कि एआई प्रतिक्रियाओं को सटीक जानकारी के रूप में नहीं माना जाना चाहिए, चाहे वे किसी व्यक्ति की सामाजिक-राजनीतिक मान्यताओं को कितना भी संतुष्ट करें।
- ध्यातव्य है कि पहले से ही, कई प्लेटफ़ॉर्म अपने एआई मॉडल पर फ़िल्टर लगा रहे हैं ताकि सरकारी जाँच से सुरक्षित रहने के लिए उनके राजनीतिक भाषण को प्रतिबंधित किया जा सके। पिछले साल भारत में लोकसभा चुनाव होने वाले थे, Google ने कहा कि वह देश में अपने आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट जेमिनी से उपयोगकर्ताओं द्वारा पूछे जाने वाले चुनाव-संबंधी प्रश्नों के प्रकारों को प्रतिबंधित करेगा।
AI चैटबॉट पर निगरानी का सबसे अच्छा तरीका क्या है?
- विशेषज्ञों के अनुसार AI चैटबॉट से आउटपुट को नियंत्रित करने के कई तरीके हैं। हालांकि, इन नियंत्रणों को दरकिनार करने के और भी तरीके हैं, और इनमें से बहुत से बचावों का पूर्वानुमान नहीं लगाया जा सकता है।
- उल्लेखनीय है कि AI चैटबॉट में इन-बिल्ट गार्डरेल को दरकिनार करने की ऐसी तकनीकों को ‘AI जेलब्रेक’ के रूप में जाना जाता है। सीधे शब्दों में कहें तो यह तब होता है जब कोई उपयोगकर्ता AI चैटबॉट को डेवलपर द्वारा निर्धारित नियमों को तोड़ने के लिए मजबूर करता है। ग्रोक मामले में भी, कई उपयोगकर्ता चैटबॉट को जानबूझकर उकसाते दिखाई दिए।
- इस बीच, विशेषज्ञ ने तर्क दिया कि AI चैटबॉट आउटपुट पर सीधे निगरानी नहीं की जानी चाहिए। इसके बजाय, डेवलपर्स को जोखिमों का आकलन करने, विविधता सुनिश्चित करने के लिए प्रशिक्षण के लिए उपयोग किए जाने वाले डेटासेट के बारे में अधिक पारदर्शी होने और संभावित नुकसान को कम करने के लिए पूरी तरह से रेड-टीमिंग और तनाव परीक्षण करने की आवश्यकता होनी चाहिए।
नोट : आप खुद को नवीनतम UPSC Current Affairs in Hindi से अपडेट रखने के लिए Vajirao & Reddy Institute के साथ जुडें.
नोट : हम रविवार को छोड़कर दैनिक आधार पर करेंट अफेयर्स अपलोड करते हैं
Read Current Affairs in English ⇒