csenews

एआई के गॉडफादर जेफ्री हिंटन, प्रिंस हैरी, मेघन मार्कल और 800 से अधिक वैज्ञानिकों और मशहूर हस्तियों ने ओपनएआई, मेटा के सुपरइंटेलिजेंट एआई मिशन के खिलाफ खुले पत्र पर हस्ताक्षर किए

एआई के गॉडफादर जेफ्री हिंटन, प्रिंस हैरी, मेघन मार्कल और 800 से अधिक वैज्ञानिकों और मशहूर हस्तियों ने ओपनएआई, मेटा के सुपरइंटेलिजेंट एआई मिशन के खिलाफ खुले पत्र पर हस्ताक्षर किए

प्रौद्योगिकी, राजनीति, मनोरंजन और विज्ञान से संबंधित 800 से अधिक प्रमुख हस्तियों ने एक असाधारण खुले पत्र पर हस्ताक्षर किए, जिसमें सुपरइंटेलिजेंट कृत्रिम बुद्धिमत्ता में अनुसंधान को तत्काल समाप्त करने की मांग की गई। फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा घोषित गठबंधन में एआई गॉडफादर जेफ्री हिंटन, एप्पल के सह-संस्थापक स्टीव वोज्नियाक, ब्रिटेन के प्रिंस हैरी और मेघन मार्कल और पूर्व ट्रम्प रणनीतिकार स्टीव बैनन शामिल हैं। पांच नोबेल पुरस्कार विजेताओं, पूर्व सैन्य नेताओं और जोसेफ गॉर्डन-लेविट और विल.आई.एम जैसी मशहूर हस्तियों ने भी इस उद्देश्य के लिए अपना नाम दिया है।उनका संदेश सरल है: “सुपरइंटेलिजेंस के विकास पर प्रतिबंध” जब तक कि “व्यापक वैज्ञानिक सहमति न हो कि इसे सुरक्षित और नियंत्रणीय तरीके से किया जाएगा” और “मजबूत सार्वजनिक स्वीकृति”। सुपरइंटेलिजेंस कृत्रिम बुद्धिमत्ता प्रणालियों को संदर्भित करता है जो सभी संज्ञानात्मक कार्यों में मानव बुद्धि से आगे निकल जाएगी; एक ऐसी तकनीक जिसके बारे में आयोजकों का मानना ​​है कि यह केवल एक या दो वर्षों में आ सकती है।प्रिंस हैरी ने अपने बयान में कहा, “एआई का भविष्य मानवता की सेवा करना चाहिए, न कि इसे प्रतिस्थापित करना चाहिए।” “प्रगति की सच्ची परीक्षा यह नहीं होगी कि हम कितनी तेजी से आगे बढ़ते हैं, बल्कि यह है कि हम कितनी समझदारी से गाड़ी चलाते हैं।”अभिनेता जोसेफ गॉर्डन-लेविट ने अधिक सीधी आलोचना की: “हां, हम विशिष्ट एआई उपकरण चाहते हैं जो बीमारियों को ठीक करने, राष्ट्रीय सुरक्षा को मजबूत करने आदि में मदद कर सकते हैं। लेकिन क्या एआई को इंसानों की नकल करने, हमारे बच्चों को तैयार करने, हम सभी को जंक जंकी में बदलने और लाखों डॉलर का विज्ञापन करने की भी ज़रूरत है? ज्यादातर लोग ऐसा नहीं चाहते हैं।”

जनता ने एआई रेस का विरोध किया, सर्वेक्षण से पता चला

समय बढ़ते खतरे को दर्शाता है कि अधीक्षण – एआई जो सभी संज्ञानात्मक कार्यों में मानव क्षमता से आगे निकल जाता है – एक या दो साल के भीतर आ सकता है। हालाँकि, पत्र के साथ जारी किए गए सर्वेक्षण एक आश्चर्यजनक असहमति दर्शाते हैं: 64% अमेरिकियों का मानना ​​है कि ऐसी प्रणालियाँ तब तक नहीं बनाई जानी चाहिए जब तक कि वे सुरक्षित साबित न हो जाएँ, जबकि केवल 5% विकास की वर्तमान ख़तरनाक गति का समर्थन करते हैं।संस्थान के कार्यकारी निदेशक एंथनी एगुइरे का कहना है कि “बहुत कम संख्या में बहुत अमीर कंपनियां” किसी और से परामर्श किए बिना मानवता का रास्ता चुन रही हैं। “किसी ने किसी से नहीं पूछा, ‘क्या हम यही चाहते हैं?'” उन्होंने टाइम को बताया।

सुरक्षा चिंताओं के बावजूद टेक दिग्गज आगे बढ़ रहे हैं

यह अपील तब आई है जब सिलिकॉन वैली के सबसे बड़े खिलाड़ी कृत्रिम सामान्य बुद्धिमत्ता और उससे आगे की खोज में तेजी ला रहे हैं। लक्ष्य मार्क ज़ुकेरबर्ग पिछले जुलाई में घोषित अधीक्षण “अब दृष्टि में”। ओपनएआई कार्यकारी निदेशक सैम ऑल्टमैन 2030 तक इसकी उम्मीद है। कंपनियाँ अकेले इस वर्ष एआई बुनियादी ढांचे में सैकड़ों अरबों का निवेश कर रही हैं।यहां तक ​​कि ओपनएआई के एक कर्मचारी, लियो गाओ ने भी हस्ताक्षर करने के लिए रैंकों को तोड़ दिया, एक कंपनी से एक उल्लेखनीय दलबदल जिसे ऑल्टमैन “सुपरइंटेलिजेंस रिसर्च कंपनी” कहता है।यह कथन फ़्यूचर ऑफ़ लाइफ इंस्टीट्यूट द्वारा दूसरे प्रमुख हस्तक्षेप का प्रतिनिधित्व करता है। एआई पर छह महीने के विराम के लिए 2023 का एक पत्र विकास को धीमा करने में विफल रहा, जिससे इस अधिक केंद्रित अभियान को विशेष रूप से सुपरइंटेलिजेंस पर लक्षित किया गया।



Source link

Exit mobile version