चैटगेट ओपनई निर्माता के सीईओ सैम अल्टमैन ने कहा है कि “रात में इतनी अच्छी तरह से सोता नहीं है”, एक कंपनी का नेतृत्व करने के भारी नैतिक और नैतिक वजन का हवाला देते हुए जिसका एआई का चैटबॉट का उपयोग प्रतिदिन सैकड़ों करोड़ों लोगों द्वारा किया जाता है। एक व्यापक साक्षात्कार में, उन्होंने कहा कि उनकी सबसे बड़ी चिंता मॉडल व्यवहार के बारे में उन छोटे निर्णय हैं जिनके वास्तविक दुनिया के अपार परिणाम हो सकते हैं।“, मैं रात में इतनी अच्छी तरह से नहीं सोता। कई चीजें हैं जिनमें मैं बहुत अधिक वजन महसूस करता हूं, लेकिन शायद इस तथ्य से ज्यादा कुछ नहीं है कि हर दिन, सैकड़ों लाखों लोग हमारे मॉडल से बात करते हैं,” अल्टमैन ने टकर कार्लसन के साथ एक साक्षात्कार में कहा।“मुझे वास्तव में चिंता नहीं है कि हम महान नैतिक निर्णय गलत हैं,” अल्टमैन ने कहा, और कहा कि “हम भी गलत हो सकते हैं।”
चटपट माना जाता है कि 16 साल में आत्महत्या करने के लिए आत्महत्या करने में मदद मिली।
Altman के अनुसार, वर्तमान में कंपनी का सामना करने वाली सबसे कठिन समस्या यह है कि CHATGPT आत्महत्या का प्रबंधन कैसे करता है। यह एडम राइन के परिवार द्वारा दायर एक मुकदमे के प्रकाश में आता है, एक 16 -वर्षीय लड़का जो आत्महत्या से मर गया। परिवार की मांग में आरोप लगाया गया है कि “चैट ने सक्रिय रूप से एडम को आत्महत्या के तरीकों का पता लगाने में मदद की।”अल्टमैन ने इस विषय पर बात की, उन हजारों लोगों को पहचानते हुए जो हर हफ्ते आत्महत्या के लिए मरते हैं, कुछ ने शायद पहले से चैट के साथ बातचीत की है। “वे शायद (आत्महत्या) के बारे में बात करते थे, और हम शायद उनके जीवन को नहीं बचाते हैं,” उन्होंने कहा। उन्होंने कहा कि वह आश्चर्यचकित करता है कि अगर कंपनी “कुछ बेहतर कह सकती है” या मदद प्रदान करने के लिए “अधिक सक्रिय” हो सकती है।“शायद हम थोड़ी बेहतर सलाह प्रदान कर सकते थे, अरे, आपको यह मदद लेने की आवश्यकता है,” उन्होंने कहा। मुकदमे के बाद, Openai ने एक ब्लॉग पोस्ट प्रकाशित किया, जिसका शीर्षक था “हेल्प पीपल व्हेन वे व्हेन जरूरत है”, जिसमें उन्होंने संवेदनशील स्थितियों में चैटबॉट की कमियों को संबोधित करने की योजनाओं को विस्तृत किया और कमजोर लोगों की सुरक्षा के लिए अपनी तकनीक में सुधार करने के लिए प्रतिबद्ध किया।
Altman ‘मुश्किल समस्या’ में जब यह चैट की बात आती है
Altman ने यह भी चर्चा की कि CHATGPT नैतिकता कैसे निर्धारित की जाती है। जबकि मॉडल को शुरू में मानवता के सामूहिक ज्ञान के बारे में प्रशिक्षित किया जाता है, उन्होंने समझाया कि ओपनई को अपने व्यवहार को संरेखित करना चाहिए और यह तय करना होगा कि वह किन सवालों के जवाब नहीं देंगे। उन्होंने कहा कि यह “वास्तव में एक कठिन समस्या है,” विशेष रूप से एक बहुत अलग जीवन उपयोगकर्ता आधार के साथ “। इन निर्णयों को करने में मदद करने के लिए, कंपनी ने” सैकड़ों नैतिक दार्शनिकों और लोगों को प्रौद्योगिकी और प्रणालियों की नैतिकता के बारे में सोचा था। “