प्रौद्योगिकी, राजनीति, मनोरंजन और विज्ञान से संबंधित 800 से अधिक प्रमुख हस्तियों ने एक असाधारण खुले पत्र पर हस्ताक्षर किए, जिसमें सुपरइंटेलिजेंट कृत्रिम बुद्धिमत्ता में अनुसंधान को तत्काल समाप्त करने की मांग की गई। फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा घोषित गठबंधन में एआई गॉडफादर जेफ्री हिंटन, एप्पल के सह-संस्थापक स्टीव वोज्नियाक, ब्रिटेन के प्रिंस हैरी और मेघन मार्कल और पूर्व ट्रम्प रणनीतिकार स्टीव बैनन शामिल हैं। पांच नोबेल पुरस्कार विजेताओं, पूर्व सैन्य नेताओं और जोसेफ गॉर्डन-लेविट और विल.आई.एम जैसी मशहूर हस्तियों ने भी इस उद्देश्य के लिए अपना नाम दिया है।उनका संदेश सरल है: “सुपरइंटेलिजेंस के विकास पर प्रतिबंध” जब तक कि “व्यापक वैज्ञानिक सहमति न हो कि इसे सुरक्षित और नियंत्रणीय तरीके से किया जाएगा” और “मजबूत सार्वजनिक स्वीकृति”। सुपरइंटेलिजेंस कृत्रिम बुद्धिमत्ता प्रणालियों को संदर्भित करता है जो सभी संज्ञानात्मक कार्यों में मानव बुद्धि से आगे निकल जाएगी; एक ऐसी तकनीक जिसके बारे में आयोजकों का मानना है कि यह केवल एक या दो वर्षों में आ सकती है।प्रिंस हैरी ने अपने बयान में कहा, “एआई का भविष्य मानवता की सेवा करना चाहिए, न कि इसे प्रतिस्थापित करना चाहिए।” “प्रगति की सच्ची परीक्षा यह नहीं होगी कि हम कितनी तेजी से आगे बढ़ते हैं, बल्कि यह है कि हम कितनी समझदारी से गाड़ी चलाते हैं।”अभिनेता जोसेफ गॉर्डन-लेविट ने अधिक सीधी आलोचना की: “हां, हम विशिष्ट एआई उपकरण चाहते हैं जो बीमारियों को ठीक करने, राष्ट्रीय सुरक्षा को मजबूत करने आदि में मदद कर सकते हैं। लेकिन क्या एआई को इंसानों की नकल करने, हमारे बच्चों को तैयार करने, हम सभी को जंक जंकी में बदलने और लाखों डॉलर का विज्ञापन करने की भी ज़रूरत है? ज्यादातर लोग ऐसा नहीं चाहते हैं।”
जनता ने एआई रेस का विरोध किया, सर्वेक्षण से पता चला
समय बढ़ते खतरे को दर्शाता है कि अधीक्षण – एआई जो सभी संज्ञानात्मक कार्यों में मानव क्षमता से आगे निकल जाता है – एक या दो साल के भीतर आ सकता है। हालाँकि, पत्र के साथ जारी किए गए सर्वेक्षण एक आश्चर्यजनक असहमति दर्शाते हैं: 64% अमेरिकियों का मानना है कि ऐसी प्रणालियाँ तब तक नहीं बनाई जानी चाहिए जब तक कि वे सुरक्षित साबित न हो जाएँ, जबकि केवल 5% विकास की वर्तमान ख़तरनाक गति का समर्थन करते हैं।संस्थान के कार्यकारी निदेशक एंथनी एगुइरे का कहना है कि “बहुत कम संख्या में बहुत अमीर कंपनियां” किसी और से परामर्श किए बिना मानवता का रास्ता चुन रही हैं। “किसी ने किसी से नहीं पूछा, ‘क्या हम यही चाहते हैं?'” उन्होंने टाइम को बताया।
सुरक्षा चिंताओं के बावजूद टेक दिग्गज आगे बढ़ रहे हैं
यह अपील तब आई है जब सिलिकॉन वैली के सबसे बड़े खिलाड़ी कृत्रिम सामान्य बुद्धिमत्ता और उससे आगे की खोज में तेजी ला रहे हैं। लक्ष्य मार्क ज़ुकेरबर्ग पिछले जुलाई में घोषित अधीक्षण “अब दृष्टि में”। ओपनएआई कार्यकारी निदेशक सैम ऑल्टमैन 2030 तक इसकी उम्मीद है। कंपनियाँ अकेले इस वर्ष एआई बुनियादी ढांचे में सैकड़ों अरबों का निवेश कर रही हैं।यहां तक कि ओपनएआई के एक कर्मचारी, लियो गाओ ने भी हस्ताक्षर करने के लिए रैंकों को तोड़ दिया, एक कंपनी से एक उल्लेखनीय दलबदल जिसे ऑल्टमैन “सुपरइंटेलिजेंस रिसर्च कंपनी” कहता है।यह कथन फ़्यूचर ऑफ़ लाइफ इंस्टीट्यूट द्वारा दूसरे प्रमुख हस्तक्षेप का प्रतिनिधित्व करता है। एआई पर छह महीने के विराम के लिए 2023 का एक पत्र विकास को धीमा करने में विफल रहा, जिससे इस अधिक केंद्रित अभियान को विशेष रूप से सुपरइंटेलिजेंस पर लक्षित किया गया।