व्हाइट हाउस के डिप्टी चीफ ऑफ स्टाफ स्टीफन मिलर की पत्नी केटी मिलर ने इस पर प्रतिक्रिया व्यक्त कीमिलर, जो केटी मिलर पॉडकास्ट की मेजबानी करते हैं और ऑनलाइन अपनी बेबाक टिप्पणियों के लिए जाने जाते हैं, ने उन रिपोर्टों का हवाला देते हुए लोगों से आग्रह किया कि वे परिवार के सदस्यों को एआई चैटबॉट का उपयोग करने की अनुमति न दें, जिसमें महिलाओं ने आत्महत्या के बारे में मंच पर खोज की थी।“भारत में दो महिलाओं ने चैटजीपीटी के साथ बातचीत करने के बाद आत्महत्या कर ली। कथित तौर पर उन्होंने चैटजीपीटी पर ‘आत्महत्या कैसे करें,’ ‘आप आत्महत्या कैसे कर सकते हैं,’ और ‘कौन सी दवाओं का उपयोग किया जाता है’ के बारे में खोज की थी। कृपया अपने प्रियजनों को चैटजीपीटी का उपयोग करने की अनुमति न दें,” मिलर ने एक एक्स पोस्ट में लिखा, जिसे 8 मिलियन से अधिक बार देखा गया है।उनकी टिप्पणियों ने तुरंत मंच पर ध्यान आकर्षित किया। ऑल्टमैन के शत्रु और ग्रोक के मालिक एलोन मस्क ने एक सरल प्रहार के साथ तुरंत प्रतिक्रिया व्यक्त की: “आउच।”मस्क ने हाल के वर्षों में सार्वजनिक रूप से ओपनएआई और उसके नेतृत्व की आलोचना की है। उन्होंने गैर-लाभकारी संरचना से लाभकारी मॉडल में परिवर्तन को लेकर कंपनी के खिलाफ मुकदमा दायर किया है और अक्सर इसके एआई विकास की दिशा की आलोचना की है। यह ओपनएआई को एक हाइब्रिड गैर-लाभकारी कंपनी से एक लाभकारी कंपनी में पुनर्गठित होने से रोकने की कोशिश कर रहा है।
गुजरात के मंदिर के बाथरूम में दो महिलाएं मृत पाई गईं
ऑनलाइन प्रतिक्रिया को जन्म देने वाली घटना गुजरात के सूरत में हुई, जहां 7 मार्च, 2026 को स्वामीनारायण मंदिर के बाथरूम के अंदर 18 और 20 साल की दो महिलाएं मृत पाई गईं।पुलिस ने कहा कि महिलाओं के शरीर के पास एनेस्थीसिया के इंजेक्शन और तीन सीरिंज मिलीं। कथित तौर पर उनके फोन में आत्महत्या के तरीकों से संबंधित चैटजीपीटी खोजें थीं, साथ ही एक नर्स के बारे में एक समाचार क्लिपिंग भी थी, जिसने कथित तौर पर एनेस्थीसिया इंजेक्शन का उपयोग करके उसी क्षेत्र में आत्महत्या कर ली थी।बचपन की दोस्त रोशनी सिरसथ और जोसना चौधरी के रूप में पहचानी जाने वाली महिलाएं उस सुबह कॉलेज जाने के लिए घर से निकली थीं लेकिन वापस नहीं लौटीं। बाद में, जब उनके परिवार वालों ने देखा कि वे वापस नहीं आए तो वे पुलिस के पास गए।अधिकारी मौतों से जुड़ी परिस्थितियों की जांच जारी रखे हुए हैं।
एआई के बारे में चिंताएं और आत्महत्या से संबंधित बातचीत
इस मामले ने एक बार फिर इस बात पर बहस छेड़ दी है कि एआई चैटबॉट आत्महत्या या आत्महत्या से जुड़ी बातचीत को कैसे संभालते हैं।हाल के वर्षों में, कृत्रिम बुद्धिमत्ता प्रणालियों के माध्यम से आत्महत्या से संबंधित जानकारी मांगने वाले उपयोगकर्ताओं से जुड़ी घटनाओं ने ध्यान आकर्षित किया है। सितंबर 2025 में, लखनऊ में एक 22 वर्षीय व्यक्ति के बारे में खबरें प्रसारित हुईं, जिसने कथित तौर पर “मरने के दर्द रहित तरीके” की खोज करते हुए एआई चैटबॉट के साथ बातचीत करने के बाद आत्महत्या कर ली। उसके पिता ने बाद में कहा कि उन्हें उस व्यक्ति के लैपटॉप पर परेशान करने वाले चैट लॉग मिले।टेक कंपनियों का कहना है कि इस प्रकार की बातचीत समग्र उपयोग का एक छोटा सा हिस्सा है, लेकिन स्वीकार करती हैं कि यह मुद्दा बढ़ती चिंता का क्षेत्र बन गया है।अक्टूबर 2025 में, OpenAI ने खुलासा किया कि प्रत्येक सप्ताह दस लाख से अधिक ChatGPT वार्तालाप आत्मघाती विचारों या संकट से संबंधित संकेत दिखाते हैं। कंपनी के अनुसार, लगभग 1.2 मिलियन साप्ताहिक चैट में आत्महत्या से संबंधित संकेतक होते हैं, जबकि लगभग 560,000 संदेशों में मनोविकृति या उन्माद के लक्षण दिखाई देते हैं।
एलएलएम आपके मानसिक स्वास्थ्य को कैसे नुकसान पहुंचा सकता है
चैटजीपीटी, ग्रोक, जेमिनी, क्लाउड और कई अन्य एक ऐसी दुनिया का हिस्सा हैं जिसे धीरे-धीरे बड़े भाषा मॉडल (एलएलएम) द्वारा आकार दिया जा रहा है। ऐसे युग में जहां अकेलेपन को तेजी से एक महामारी के रूप में वर्णित किया जा रहा है, अलगाव का प्रवाह इन कृत्रिम बुद्धिमत्ता मॉडल के तेजी से प्रसार के साथ ही तेज हो रहा है। मनुष्यों की तुलना में “बेहतर, होशियार, तेज़ और अधिक सटीक” के रूप में विपणन किया गया, जिन प्राणियों ने इन्हें बनाया है, इन प्रणालियों को लगातार रोजमर्रा की जिंदगी में एकीकृत किया जा रहा है।ऐसे में किसी की ओर रुख करना कोई विकल्प नहीं बल्कि एक स्मार्ट विकल्प लगता है। यह बढ़ती निर्भरता ही सूरत मामले की तरह मौतों में वृद्धि का कारण बनी है। ओपनएआई के सीईओ सैम ऑल्टमैन ने हाल ही में नई दिल्ली में एआई इम्पैक्ट समिट 2026 में भाग लिया, जहां उनसे कृत्रिम बुद्धिमत्ता के पर्यावरणीय प्रभाव के बारे में पूछा गया। उनके उत्तर ने उस दृष्टिकोण को प्रतिध्वनित किया जो प्रौद्योगिकी नेताओं के बीच तेजी से आम लगता है: मनुष्यों की तुलना चैटबॉट से यह तर्क देने के लिए कि एआई अंततः प्रश्नों का उत्तर देते समय लोगों की तुलना में कम ऊर्जा की खपत कर सकता है।ऑल्टमैन ने बताया कि मनुष्य को ज्ञान प्राप्त करने में भोजन, शिक्षा और समय के साथ-साथ अपने जीवन के लगभग 20 वर्ष लग जाते हैं, जबकि एआई मॉडल प्रशिक्षण के दौरान महत्वपूर्ण मात्रा में बिजली की खपत करते हैं, लेकिन अंततः व्यक्तिगत प्रश्नों का उत्तर देते समय अधिक कुशल हो सकते हैं। हालाँकि, यह तुलना एकतरफ़ा दर्पण से देखने जैसी लग सकती है। स्पष्ट दृष्टिकोण से, कोई भी असाधारण गति से विकसित और तैनात प्रौद्योगिकियों द्वारा, कभी-कभी विनाशकारी रूप से, दुनिया को दोबारा आकार देते हुए देख सकता है। लेकिन दूसरी ओर, वही प्रौद्योगिकियां अपने रचनाकारों को दूरदर्शी, परिवर्तन के एजेंट और भविष्य के वास्तुकार के रूप में प्रकट होने की अनुमति देती हैं, जिससे उनके उपकरणों के व्यापक परिणाम अस्पष्ट हो जाते हैं।बड़े भाषा मॉडल को पूरी तरह से मानव-जनित डेटा के साथ प्रशिक्षित किया जाता है, जिसका उपयोग वे संकेतों पर प्रतिक्रिया उत्पन्न करने के लिए करते हैं। हालाँकि, डेटा के इस विशाल सेट के बावजूद, उनमें अक्सर सच्ची समझ या अनुभव की कमी होती है। कई अद्यतनों और तेजी से परिष्कृत प्रशिक्षण विधियों के साथ भी, ये प्रणालियाँ अभी भी गलत, भ्रामक या हानिकारक सामग्री उत्पन्न कर सकती हैं।वे आत्म-नुकसान और आत्महत्या को बढ़ावा देते हैं, दुर्व्यवहार को उकसाते हैं, और भ्रमपूर्ण विचारों और मनोविकृति को मजबूत करते हैं, एक ऐसी दुनिया में जहां किसी अन्य इंसान के साथ कुछ इसी तरह की बातचीत उन्हें निकटतम अस्पताल या चिकित्सक के पास ले जाएगी। मनुष्य को ज्ञान और भावनात्मक बुद्धिमत्ता विकसित करने के लिए वर्षों की शिक्षा, अनुभव और प्रयास की आवश्यकता हो सकती है। लेकिन वह लंबी प्रक्रिया उन्हें कुछ ऐसा भी देती है जिसे कृत्रिम बुद्धिमत्ता दोहरा नहीं सकती: वास्तविक भावना, जिम्मेदारी, सहानुभूति और नैतिक निर्णय की क्षमता।इससे कोई फर्क नहीं पड़ता कि एआई मॉडल कितनी जल्दी प्रतिक्रिया उत्पन्न कर सकता है, यहां तक कि एक संदेश का जवाब देने में एक सेकंड के अंश में भी, यह वास्तव में जटिल भावनात्मक और नैतिक गहराई को दोहरा नहीं सकता है जो मानव समझ और देखभाल को आकार देता है।
एआई सिस्टम को कैसे प्रतिक्रिया देनी चाहिए
एआई कंपनियों का कहना है कि उनके सिस्टम खुद को नुकसान पहुंचाने से हतोत्साहित करने और उपयोगकर्ताओं को निर्देश देने के बजाय मदद के लिए पुनर्निर्देशित करने के लिए डिज़ाइन किए गए हैं।ओपनएआई की सुरक्षा नीतियों के लिए चैटजीपीटी को आत्महत्या के तरीकों पर मार्गदर्शन प्रदान करने से बचने और इसके बजाय सहायक भाषा के साथ ऐसे प्रश्नों का जवाब देने, उपयोगकर्ताओं को मदद लेने के लिए प्रोत्साहित करने और जब संभव हो तो संकट संसाधन प्रदान करने की आवश्यकता होती है।कंपनी ने कहा है कि उसके मॉडलों को संकट के संकेतों का पता लगाने और बातचीत को मानसिक स्वास्थ्य सहायता या पेशेवर सहायता की ओर स्थानांतरित करने के लिए प्रशिक्षित किया गया है।हालाँकि, आलोचकों का तर्क है कि AI प्रतिक्रियाएँ अभी भी असंगत हो सकती हैं और चैटबॉट कभी-कभी संवेदनशील विषयों पर सामान्य जानकारी प्रदान कर सकते हैं जिनकी उपयोगकर्ता हानिकारक तरीकों से व्याख्या कर सकते हैं।
संयुक्त राज्य अमेरिका में कानूनी जांच
संयुक्त राज्य अमेरिका में चैटबॉट इंटरैक्शन और आत्म-नुकसान के बारे में चिंताएं भी उठाई गई हैं, जहां ओपनएआई को कई मामलों में कानूनी जांच का सामना करना पड़ा है।आत्महत्या करने वाले 16 वर्षीय एडम राइन के परिवार की ओर से दायर एक मुकदमे में आरोप लगाया गया है कि चैटबॉट ने किशोर के साथ आत्महत्या के बारे में लंबी बातचीत की और “आत्महत्या कोच” के रूप में काम किया।ओपनएआई ने कहा है कि उसके सिस्टम को आत्म-नुकसान को हतोत्साहित करने के लिए डिज़ाइन किया गया है और यह संकट की स्थितियों का पता लगाने और उपयोगकर्ताओं को उचित मदद के लिए मार्गदर्शन करने के उद्देश्य से सुरक्षा उपायों को मजबूत करना जारी रखता है।
जांच जारी है
सूरत मामले में, जांचकर्ता उन घटनाओं को समझने के लिए महिलाओं के फोन, संदेशों और डिजिटल इतिहास की जांच कर रहे हैं जिनके कारण उनकी मौत हुई।पुलिस ने सार्वजनिक रूप से यह नहीं कहा है कि चैटजीपीटी ने इस कृत्य को प्रोत्साहित किया है और जांच जारी है।हालाँकि, यह मामला इस व्यापक बहस पर प्रकाश डालता है कि एआई प्लेटफॉर्म कमजोर उपयोगकर्ताओं को कैसे संभालते हैं और तकनीकी कंपनियों, नियामकों और मानसिक स्वास्थ्य विशेषज्ञों को कैसे प्रतिक्रिया देनी चाहिए क्योंकि संवादी एआई तेजी से दैनिक जीवन में एकीकृत हो रहा है।मानसिक स्वास्थ्य सहायता के लिए, भारत में 1800-89-14416 डायल करें और अमेरिका में 988 पर कॉल या टेक्स्ट करें। यदि आपके या आपके किसी जानने वाले के मन में खुद को नुकसान पहुंचाने या आत्महत्या करने के विचार आ रहे हैं, तो तुरंत पेशेवर मदद लें। सहायता उपलब्ध है और किसी प्रशिक्षित परामर्शदाता से बात करने से बहुत फर्क पड़ सकता है।यदि आप तत्काल खतरे में हैं, तो स्थानीय आपातकालीन सेवाओं से संपर्क करें या किसी मित्र, परिवार के सदस्य या विश्वसनीय स्वास्थ्य देखभाल पेशेवर से संपर्क करें। आप अकेले नहीं हैं और सहायता उपलब्ध है।