1993 में, “” शीर्षक वाले एक निबंध मेंसाइबरस्पेस में उल्लंघन”, लेखिका जूलियन डिबेल ने अंदर हुए एक यौन उल्लंघन के बारे में बताया लैम्ब्डाएमओओएक पाठ-आधारित आभासी समुदाय जहां उपयोगकर्ता प्रोग्राम योग्य अवतारों के माध्यम से बातचीत करते हैं।
हालाँकि इसमें कोई चित्र या ग्राफ़िक्स शामिल नहीं थे, लेकिन इस घटना ने डिजिटल स्थानों में सहमति, हानि और शासन के बारे में बड़े पैमाने पर आक्रोश फैलाया।
लगभग तीन दशक से भी अधिक समय के बाद, ब्रिटिश पुलिस अब 16 वर्षीय लड़की के कथित यौन उत्पीड़न की जांच कर रही है, जिसके बारे में कहा जाता है कि यह तब हुआ जब वह वर्चुअल रियलिटी हेडसेट पहन रही थी और मेटावर्स गेम में भाग ले रही थी। उनके अवतार पर कई अन्य उपयोगकर्ताओं द्वारा हमला किया गया, जो वर्चुअल स्पेस में यौन हिंसा की यूके की पहली आपराधिक जांच में से एक बन गया।
आज, बड़ी तकनीकी कंपनियों द्वारा अपने प्लेटफार्मों का वर्णन करने के लिए इस्तेमाल की जाने वाली भाषा अक्सर उनके द्वारा पैदा किए गए जोखिमों को मापने में विफल रहती है। उदाहरण के लिए, मेटा ने लंबे समय से मेटावर्स को रचनात्मकता और साझा आभासी अनुभवों के स्थान के रूप में चित्रित किया है। हालाँकि, हाल की घटनाओं से पता चला है कि इस तरह का डूबा हुआ वातावरण भी नुकसान का स्थान बन सकता है।
ये प्रौद्योगिकियाँ, जिन्हें कभी कनेक्शन और रचनात्मकता के लिए उपकरण के रूप में तैयार किया गया था, तेजी से एक अधिक परेशान करने वाले मुद्दे को उजागर कर रही हैं। जैसे-जैसे डिजिटल प्रणालियां अधिक व्यापक होती जा रही हैं, सुरक्षा उपायों में विफलताएं उन अनुभवों में बदल जाती हैं जो स्थायी मनोवैज्ञानिक प्रभाव छोड़ते हैं।
एलोन मस्क के स्वामित्व वाला सोशल मीडिया प्लेटफॉर्म
इस प्रकरण ने अब कई देशों में विनियामक ध्यान आकर्षित किया है, नीति विशेषज्ञों ने तकनीकी और राजनीतिक नियंत्रणों में अंतराल की ओर इशारा किया है जो ऐसी सामग्री को उत्पन्न करने और बड़े पैमाने पर प्रसारित करने की अनुमति देता है।
एआई चैटबॉट का दुरुपयोग
विवाद तब शुरू हुआ जब उपयोगकर्ताओं ने एक्स पर साझा की गई महिलाओं की तस्वीरों को डिजिटल रूप से संशोधित करने, उनके कपड़ों को बदलकर आकर्षक छवियां बनाने के लिए ग्रोक का उपयोग करना शुरू कर दिया। कई मामलों में, चैटबॉट ने उपयोगकर्ताओं की सहमति के बिना, इन अनुरोधों को पूरा किया।
प्रभावित लोगों ने कहा कि उन्होंने मान लिया था कि सिस्टम ऐसे अनुरोधों को प्रतिबंधित कर देगा। इसके बजाय, छवियां पूरे प्लेटफ़ॉर्म पर तेज़ी से फैल गईं, रीपोस्ट और कॉपीकैट संकेतों के माध्यम से बढ़ गईं। एक बार प्रचलन शुरू होने के बाद, इन छवियों को हटाना मुश्किल हो गया, और उनमें से कई को महत्वपूर्ण सार्वजनिक ध्यान आकर्षित करने के बाद ही हटाया गया।
“मैं हमेशा सोचता था कि क्या मुझे अपना चेहरा पोस्ट करना चाहिए। मुझे पता था कि यह दिन आएगा। महिलाओं को नुकसान पहुंचाने के लिए प्रयास करना पड़ता था। अब एक चेतावनी की जरूरत है। प्रौद्योगिकी ने इस मानसिकता को नहीं बनाया है, इसने इसे उजागर किया है। अगर हम इतनी जल्दी एआई का निर्माण कर सकते हैं, तो हमें तुरंत दुर्व्यवहार की रिपोर्ट करने और दंडित करने के लिए सिस्टम बनाने की जरूरत है। जवाबदेही के बिना नवाचार तेजी से नुकसान पहुंचाता है, “एक एक्स उपयोगकर्ता ने कहा।
भारत के सर्वोच्च न्यायालय, दिल्ली उच्च न्यायालय में पेटेंट अधिवक्ता और वकील कार्तिक डे के अनुसार, यह घटना भारत के ढांचे में अंतराल को उजागर करती है, जो एआई-विशिष्ट बाध्यकारी कानूनों के बजाय आईटी नोटिस और नियमों पर आधारित है।
उन्होंने कहा, “आईटी अधिनियम 2000 में ‘गैर-मानवीय’ रचनाकारों के लिए प्रावधान नहीं किया गया है। एआई के लिए दोषी या ‘आपराधिक इरादा’ की कोई स्पष्ट परिभाषा नहीं है, जिससे भारतीय न्याय संहिता (बीएनएस) जैसे पारंपरिक आपराधिक कानूनों के तहत मुकदमा चलाना मुश्किल हो जाता है।”
दिलचस्प बात यह है कि एक महत्वाकांक्षी निजी सदस्य विधेयक है जो इस मुद्दे को संबोधित करना चाहता है और उल्लंघन की गंभीरता के आधार पर उल्लंघन के लिए 5 मिलियन रुपये तक के जुर्माने का प्रस्ताव करता है, साथ ही कृत्रिम बुद्धिमत्ता प्रणालियों को लागू करने के लिए लाइसेंस को निलंबित या रद्द करने का भी प्रस्ताव करता है।
डे ने कहा, “निजी सदस्यों के बिल शायद ही कभी अधिनियमित किए गए हैं, हालांकि इससे समग्र मुद्दे को गति मिलेगी और मौजूदा कानूनों में संशोधन करना आसान हो जाएगा।”
वर्तमान में, नवंबर तक लगभग 22 मिलियन मासिक सक्रिय उपयोगकर्ताओं के साथ, भारत एक्स के चौथे सबसे बड़े वैश्विक बाजार के रूप में शुमार है।
एआई एंड बियॉन्ड के सह-संस्थापक जसप्रीत बिंद्रा ने कहा, “भारत सबसे बड़े डिजिटल बाजारों में से एक बन गया है, और देश को एक महत्वपूर्ण परीक्षण मामले के रूप में देखा जाता है कि सरकारें एआई-जनित सामग्री के लिए प्लेटफार्मों को जवाबदेह बनाने के लिए कितनी दूर तक जाने को तैयार हैं।” Yउद्यमी.
बिंद्रा ने कहा कि यह मामला एआई सुरक्षा उपायों में खामियों को उजागर करता है, जैसा कि छवि संपादन के लॉन्च के बाद ग्रोक के तेजी से दोहन से पता चलता है। प्लेटफ़ॉर्म ने डीपफेक के जोखिमों के बारे में बाल सुरक्षा समूहों की पिछली चेतावनियों को भी नजरअंदाज कर दिया है।
समस्या की व्यापकता पर सरकारों और नियामकों की प्रतिक्रियाएँ उत्पन्न होने लगी हैं।
इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) ने सूचना प्रौद्योगिकी अधिनियम, 2000 और आईटी नियम, 2021 के तहत कानूनी उचित परिश्रम आवश्यकताओं का अनुपालन न करने का हवाला देते हुए एक्स कॉर्प को नोटिस जारी किया है।
इसने प्लेटफ़ॉर्म को सख्त उपयोगकर्ता नियंत्रण लागू करने का आदेश दिया है, जिसमें उल्लंघनकर्ताओं को फायरिंग भी शामिल है, और कहा है कि साक्ष्य रिकॉर्ड से समझौता किए बिना सभी आपत्तिजनक सामग्री को तुरंत हटा दिया जाना चाहिए।
यह कार्रवाई पिछले हफ्ते राज्यसभा सदस्य प्रियंका चतुर्वेदी द्वारा केंद्रीय मंत्री अश्विनी वैष्णव को लिखे पत्र के बाद की गई, जिसमें एआई चैटबॉट के दुरुपयोग पर तत्काल हस्तक्षेप की मांग की गई थी।
“यह केवल फर्जी खातों के माध्यम से तस्वीरें साझा करने तक ही सीमित नहीं है, बल्कि अपनी तस्वीरें पोस्ट करने वाली महिलाओं को भी निशाना बना रहा है। यह अल की एक सुविधा का अस्वीकार्य और गंभीर उपयोग है। मैं आपको आईटी और संचार पर स्थायी समिति के एक सक्रिय सदस्य के रूप में पत्र लिख रहा हूं और एक मंत्री के रूप में आपसे एक्स के साथ इस मुद्दे को मजबूती से उठाने का आग्रह कर रहा हूं ताकि यह सुनिश्चित किया जा सके कि प्लेटफॉर्म को महिलाओं के लिए एक सुरक्षित स्थान बनाने के लिए उनके एआई अनुप्रयोगों में सुरक्षा उपाय किए गए हैं।”
सार्वजनिक नीति थिंक टैंक द डायलॉग के संस्थापक निदेशक काज़िम रिज़वी के अनुसार, प्लेटफ़ॉर्म कृत्रिम बुद्धिमत्ता उपकरण पेश कर सकता है, लेकिन अंततः, उन्होंने कहा कि जिम्मेदारी इन उपकरणों के उपयोगकर्ता की है।
रिजवी ने कहा, “एआई उपकरण सभी प्रकार की सामग्री तैयार कर सकते हैं। लेकिन उपकरण को दोष देना यह कहने जैसा है कि चूंकि कार दुर्घटनाएं होती हैं, इसलिए ड्राइवरों की चोटों के लिए कार कंपनियों को जिम्मेदार ठहराया जाना चाहिए। मुद्दा यह है कि प्लेटफार्मों के लिए उचित परिश्रम दायित्वों का एक व्यापक सेट होना चाहिए, जो पहले से मौजूद है।”
मंत्रालय के आदेश के जवाब में, मस्क ने एक्स पर एक पोस्ट में इस मुद्दे को अस्पष्ट रूप से संबोधित किया।
उन्होंने कहा, “जो कोई भी अवैध सामग्री बनाने के लिए ग्रोक का उपयोग करता है, उसे उसी तरह के परिणाम भुगतने होंगे जैसे कि उन्होंने अवैध सामग्री अपलोड की थी।”
फ़्रांस में, अधिकारियों ने मामले को अभियोजकों के पास भेजा और सामग्री को अवैध और हानिकारक बताया। भारत के आईटी मंत्रालय ने भी एक्स की स्थानीय इकाई से स्पष्टीकरण मांगा है, जिसमें बताया गया है कि कैसे मंच अश्लील और स्पष्ट यौन सामग्री के निर्माण और प्रसार को रोकने में विफल रहा है।
संयुक्त राज्य अमेरिका में, संघीय एजेंसियों ने सार्वजनिक रूप से टिप्पणी करने से इनकार कर दिया, जबकि एक्स और इसकी कृत्रिम बुद्धिमत्ता इकाई, एक्सएआई ने विस्तृत प्रतिक्रिया नहीं दी, जिससे प्लेटफ़ॉर्म की देनदारी के बारे में चिंताएँ बढ़ गईं।
“भारत सरकार ने चेतावनी दी है
नीतिगत कमियों को दूर करें
कई एआई सुरक्षा शोधकर्ताओं और बाल संरक्षण अधिवक्ताओं का तर्क है कि परिणाम पूर्वानुमानित था। उनका मानना है कि अत्यधिक यथार्थवादी छवियां बनाने में सक्षम उपकरणों को कठोर सुरक्षा उपायों की आवश्यकता होती है, खासकर जब इस प्रकार के सामाजिक प्लेटफार्मों पर बड़े पैमाने पर लागू किया जाता है।
“हम नई प्रौद्योगिकियों के प्रति पितृसत्तात्मक दृष्टिकोण नहीं अपना सकते हैं, विशेष रूप से क्योंकि पहले से ही उचित परिश्रम दायित्वों के रूप में बाधाएं और सुरक्षा उपाय हैं। वास्तव में, पिछले दशक में प्लेटफार्मों पर उचित परिश्रम दायित्व केवल बढ़े हैं, इसलिए ऐसा नहीं है कि जब एआई टूल की बात आती है तो उन्हें मुफ्त सवारी मिलती है,” रिज़वी ने कहा।
उदाहरण के लिए, यदि कोई उपयोगकर्ता एआई टूल के साथ अश्लील सामग्री उत्पन्न करता है, तो एक प्लेटफ़ॉर्म को पहले से ही सरकार या अदालत के नोटिस के आधार पर 36 घंटों के भीतर सामग्री को हटाने की आवश्यकता होती है।
नागरिक विशेषज्ञों ने भी लंबे समय से चेतावनी दी है कि कमजोर सामग्री फ़िल्टर जेनरेटिव एआई टूल को उत्पीड़न और दुरुपयोग के उपकरणों में बदल सकते हैं।
बिंद्रा ने कहा, “वर्तमान कानून एआई-जनित सामग्री को संबोधित करने के लिए पर्याप्त नहीं हो सकते हैं, और डीपफेक और हेरफेर की गई छवियों को संबोधित करने के लिए विशिष्ट नियमों की आवश्यकता है।”
जेनएआई टूल्स को उत्पीड़न और गैर-सहमति वाली छवि हेरफेर को सक्षम करने से रोकने के लिए, यह अनुशंसा करता है कि भारत कैसे सख्त नियमों पर विचार कर सकता है, जैसे कि एआई-जनित सामग्री की अनिवार्य लेबलिंग, साथ ही सख्त सामग्री मॉडरेशन और एआई-जनित उत्पीड़न को संबोधित करने के लिए कानून।
हाल के ग्रोक प्रकरण ने सख्त प्रशासन, स्पष्ट उपयोग सीमा और तेजी से निष्कासन प्रक्रियाओं के लिए कॉल को पुनर्जीवित किया है, खासकर जब सामग्री इंटरनेट पर सेकंडों में फैल सकती है।
रिजवी ने कहा, “तकनीकी नवाचार टिकाऊ नहीं होगा यदि प्लेटफार्मों को यह निगरानी करने की जिम्मेदारी दी जाती है कि उनके उपयोगकर्ता एआई उपकरण कैसे लागू करते हैं। यह अनुमान लगाना असंभव है कि किसी विशेष तकनीकी उपकरण का उपयोग कैसे किया जाएगा और उपकरण कार्यान्वयनकर्ताओं पर इस तरह का दायित्व थोपने से केवल नवाचार को नुकसान होगा।”
कुल मिलाकर, ये घटनाएं तकनीकी पारिस्थितिकी तंत्र में बढ़ती शासन समस्या की ओर इशारा करती हैं। जैसे-जैसे प्लेटफ़ॉर्म शक्तिशाली सिस्टम बनाने के लिए प्रतिस्पर्धा करते हैं, यह स्पष्ट है कि उपयोगकर्ता की जवाबदेही और सुरक्षा को अक्सर द्वितीयक चिंताओं के रूप में माना जाता है।
स्पष्ट कानूनी और तकनीकी बाधाओं के बिना, नवाचार आगे बढ़ना जारी रख सकता है, लेकिन महिलाओं, बच्चों और अन्य कमजोर उपयोगकर्ताओं की कीमत पर।