साझा करें | प्रिंट | ईमेल
कोविड से पहले, मैं खुद को तकनीकी मामलों में आशावादी मानता था। नई तकनीकें लगभग हमेशा अतिरंजित आशंकाओं के बीच ही आती हैं। रेलगाड़ियों को मानसिक विकार का कारण बताया जाता था, साइकिलों को महिलाओं को बांझ या पागल बनाने वाला समझा जाता था, और शुरुआती बिजली को नैतिक पतन से लेकर भौतिक विनाश तक हर चीज़ के लिए ज़िम्मेदार ठहराया जाता था। समय के साथ, ये चिंताएँ कम हो गईं, समाज ने खुद को ढाल लिया और जीवन स्तर में सुधार हुआ। यह पैटर्न इतना जाना-पहचाना था कि कृत्रिम बुद्धिमत्ता के भी इसी राह पर चलने की संभावना थी: विघटनकारी, कभी-कभी दुरुपयोग की जाने वाली, लेकिन अंततः प्रबंधनीय।
कोविड काल ने उस विश्वास को डगमगा दिया - इसलिए नहीं कि प्रौद्योगिकी विफल हो गई, बल्कि इसलिए कि संस्थाएं विफल हो गईं।
दुनिया के अधिकांश हिस्सों में, सरकारों और विशेषज्ञ निकायों ने अनिश्चितता का सामना करने के लिए अभूतपूर्व सामाजिक और जैव-चिकित्सा हस्तक्षेप किए, जिन्हें सबसे खराब स्थिति के मॉडलों द्वारा उचित ठहराया गया और उल्लेखनीय निश्चितता के साथ लागू किया गया। प्रतिस्पर्धी परिकल्पनाओं पर बहस करने के बजाय उन्हें हाशिए पर डाल दिया गया। आपातकालीन उपाय दीर्घकालिक नीति में तब्दील हो गए। जब साक्ष्य में बदलाव आया, तो त्रुटियों को स्वीकार करना दुर्लभ था, और जवाबदेही तो और भी दुर्लभ थी। इस अनुभव ने किसी एक नीतिगत गलती से कहीं अधिक गहरी समस्या को उजागर किया: आधुनिक संस्थाएँ अतिचार किए बिना अनिश्चितता का प्रबंधन करने में अपर्याप्त रूप से सक्षम प्रतीत होती हैं।
अब कृत्रिम बुद्धिमत्ता पर होने वाली बहसों में उस सबक का गहरा प्रभाव दिखाई देता है।
एआई जोखिम विभाजन
मोटे तौर पर कहें तो, उन्नत कृत्रिम बुद्धिमत्ता को लेकर चिंता दो वर्गों में बँटी हुई है। एक वर्ग—जो एलीज़र युडकोव्स्की और नेट सोरेस जैसे विचारकों से जुड़ा है—का तर्क है कि पर्याप्त रूप से उन्नत कृत्रिम बुद्धिमत्ता स्वाभाविक रूप से ही बेहद खतरनाक है। अपने स्पष्ट शब्दों में, अगर कोई इसे बनाता है, तो सभी मर जाते हैंसमस्या बुरे इरादों की नहीं बल्कि प्रोत्साहनों की है: प्रतिस्पर्धा यह सुनिश्चित करती है कि कोई न कोई नियमों का उल्लंघन करेगा, और एक बार जब कोई प्रणाली सार्थक नियंत्रण से बाहर हो जाती है, तो इरादों का कोई महत्व नहीं रह जाता है।
एक दूसरा समूह, जिसमें स्टुअर्ट रसेल, निक बोस्ट्रॉम और मैक्स टेगमार्क जैसे लोग शामिल हैं, एआई के जोखिम को गंभीरता से लेता है, लेकिन इस बात को लेकर अधिक आशावादी है कि सामंजस्य, सावधानीपूर्वक शासन और क्रमिक तैनाती से प्रणालियों को मानव नियंत्रण में रखा जा सकता है।
अपने मतभेदों के बावजूद, दोनों पक्ष एक निष्कर्ष पर सहमत हैं: अनियंत्रित कृत्रिम बुद्धिमत्ता का विकास खतरनाक है, और किसी न किसी प्रकार की निगरानी, समन्वय या नियंत्रण आवश्यक है। जहाँ वे भिन्न हैं, वह है व्यावहारिकता और तात्कालिकता। हालाँकि, इस बात पर शायद ही कभी विचार किया जाता है कि क्या वे संस्थाएँ, जिनसे यह नियंत्रण प्रदान करने की अपेक्षा की जाती है, स्वयं इस भूमिका के लिए उपयुक्त हैं।
कोविड के कारण संदेह का कारण बनता है।
कोविड महज एक जन स्वास्थ्य संकट नहीं था; यह अनिश्चितता के बीच विशेषज्ञ-संचालित शासन का एक जीता-जागता प्रयोग था। अपूर्ण आंकड़ों का सामना करते हुए, अधिकारियों ने बार-बार काल्पनिक नुकसानों के आधार पर अधिकतम हस्तक्षेपों को उचित ठहराया। असहमति को अक्सर वैज्ञानिक आवश्यकता के बजाय नैतिक विफलता के रूप में देखा गया। नीतियों का बचाव पारदर्शी लागत-लाभ विश्लेषण के बजाय सत्ता के आह्वान और काल्पनिक भविष्य के भय के माध्यम से किया गया।
यह पैटर्न इसलिए महत्वपूर्ण है क्योंकि यह दर्शाता है कि जब दांव अस्तित्वगत होते हैं तो आधुनिक संस्थाएं कैसे व्यवहार करती हैं। प्रोत्साहन निर्णायकता, कथा पर नियंत्रण और नैतिक निश्चितता की ओर स्थानांतरित हो जाते हैं। त्रुटि सुधार प्रतिष्ठा के लिए महंगा पड़ जाता है। सावधानी एक उपकरण होने के बजाय एक सिद्धांत बन जाती है।
इससे यह सबक नहीं मिलता कि विशेषज्ञ ही एकमात्र त्रुटिपूर्ण होते हैं। बल्कि यह सबक मिलता है कि संस्थाएं विनम्रता की तुलना में अति आत्मविश्वास को कहीं अधिक विश्वसनीय रूप से पुरस्कृत करती हैं, विशेषकर तब जब राजनीति, वित्तपोषण और जनता का भय एक साथ मिल जाते हैं। एक बार सुरक्षा के नाम पर असाधारण शक्तियां हासिल कर ली जाएं, तो उन्हें शायद ही कभी स्वेच्छा से छोड़ा जाता है।
एआई की निगरानी से संबंधित चर्चाओं में अब ठीक यही गतिविधियां दिखाई दे रही हैं।
“क्या होगा अगर” मशीन
राज्य के व्यापक हस्तक्षेप का एक बार-बार दोहराया जाने वाला औचित्य काल्पनिक खलनायक है: अगर कोई आतंकवादी इसे बना दे तो क्या होगा? अगर कोई दुष्ट राष्ट्र ऐसा कर दे तो क्या होगा? इसी आधार पर यह तर्क निकलता है कि सरकारों को आपदा को रोकने के लिए पहले से ही बड़े पैमाने पर और अक्सर गुप्त रूप से कार्रवाई करनी चाहिए।
कोविड काल के दौरान, इसी तरह के तर्क ने व्यापक जैव चिकित्सा अनुसंधान एजेंडा, आपातकालीन प्राधिकरण और सामाजिक नियंत्रणों को उचित ठहराया। तर्क का एक चक्र था: क्योंकि कुछ खतरनाक हो सकता है अगर ऐसा होता है, तो राज्य को अब असाधारण कार्रवाई करनी होगी - ऐसी कार्रवाई जिसमें अपने आप में महत्वपूर्ण, अस्पष्ट रूप से समझे जाने वाले जोखिम शामिल हैं।
एआई शासन को भी अब इसी तरह से परिभाषित किया जा रहा है। खतरा केवल यह नहीं है कि एआई प्रणालियाँ अप्रत्याशित रूप से व्यवहार कर सकती हैं, बल्कि यह भी है कि इस संभावना के भय से स्थायी आपातकालीन शासन को वैधता मिल जाएगी—गणना, अनुसंधान और सूचना प्रवाह पर केंद्रीकृत नियंत्रण—इस आधार पर कि कोई विकल्प नहीं है।
निजी जोखिम, सार्वजनिक जोखिम
इन बहसों में एक कम आंका जाने वाला अंतर निजी संस्थाओं द्वारा उत्पन्न जोखिमों और राज्य प्राधिकरण द्वारा उत्पन्न जोखिमों के बीच है। निजी कंपनियाँ दायित्व, प्रतिस्पर्धा, प्रतिष्ठा और बाजार अनुशासन द्वारा सीमित होती हैं—हालांकि अपूर्ण रूप से, लेकिन सार्थक रूप से। ये सीमाएँ नुकसान को पूरी तरह समाप्त नहीं करतीं, बल्कि प्रतिक्रिया चक्र बनाती हैं।
सरकारें अलग-अलग तरीकों से काम करती हैं। जब राज्य आपदाओं की रोकथाम के नाम पर कार्रवाई करते हैं, तो प्रतिक्रिया कमजोर हो जाती है। विफलताओं को आवश्यकता के रूप में प्रस्तुत किया जा सकता है। लागतों को बाहरी स्रोतों पर डाला जा सकता है। गोपनीयता को सुरक्षा के नाम पर उचित ठहराया जा सकता है। भविष्य में होने वाले काल्पनिक नुकसान वर्तमान में नीतिगत उपायों का आधार बन जाते हैं।
कई एआई विचारक इस बात को अप्रत्यक्ष रूप से स्वीकार करते हैं। बोस्ट्रॉम ने "लॉक-इन" प्रभावों के बारे में चेतावनी दी है - न केवल एआई प्रणालियों से, बल्कि घबराहट के क्षणों में बनाई गई शासन संरचनाओं से भी। एंथनी अगुइरे का वैश्विक संयम का आह्वान, तार्किक रूप से सुसंगत होते हुए भी, उन अंतरराष्ट्रीय समन्वय निकायों पर निर्भर करता है जिनका विनम्रता और त्रुटि सुधार के मामले में हालिया रिकॉर्ड खराब है। यहां तक कि अधिक उदार प्रस्ताव भी ऐसे नियामकों की कल्पना करते हैं जो राजनीतिकरण और कार्यक्षेत्र में अतिक्रमण का विरोध करने में सक्षम हों।
कोविड के कारण हमें इस धारणा पर भरोसा करने का कोई खास कारण नहीं मिलता।
पर्यवेक्षण विरोधाभास
इससे कृत्रिम बुद्धिमत्ता पर चल रही बहस के केंद्र में एक चिंताजनक विरोधाभास उत्पन्न होता है। यदि कोई वास्तव में मानता है कि उन्नत कृत्रिम बुद्धिमत्ता को सीमित, धीमा या रोका जाना चाहिए, तो ऐसा करने की शक्ति सबसे अधिक संभावना सरकारों और अंतरराष्ट्रीय संस्थानों के पास ही है। फिर भी, ये वही पक्ष हैं जिनका हालिया व्यवहार उस शक्ति के संयमित और प्रतिवर्ती उपयोग में सबसे कम विश्वास पैदा करता है।
आपातकालीन स्थिति का ढांचा स्थायी होता है। काल्पनिक जोखिमों के प्रबंधन के लिए प्राप्त अधिकार बने रहने और विस्तार करने की प्रवृत्ति रखते हैं। संस्थाएं शायद ही कभी अपने महत्व को कम करती हैं। एआई के संदर्भ में, यह संभावना पैदा करता है कि एआई जोखिम के प्रति प्रतिक्रिया नियंत्रण की कमजोर, राजनीतिक प्रणालियों को मजबूत कर देती है, जिन्हें किसी भी व्यक्तिगत तकनीक की तुलना में समाप्त करना अधिक कठिन होता है।
दूसरे शब्दों में, खतरा केवल यह नहीं है कि एआई मानव नियंत्रण से बाहर हो जाए, बल्कि यह है कि एआई का भय उन संस्थानों में सत्ता के केंद्रीकरण को तेज करता है जो पहले से ही त्रुटि स्वीकार करने में धीमे और असहमति के प्रति शत्रुतापूर्ण साबित हुए हैं।
वास्तविक जोखिम पर पुनर्विचार
यह कृत्रिम बुद्धिमत्ता के प्रति आत्मसंतुष्टि का तर्क नहीं है, न ही यह इस बात से इनकार है कि शक्तिशाली प्रौद्योगिकियाँ वास्तव में नुकसान पहुँचा सकती हैं। यह परिप्रेक्ष्य को व्यापक बनाने का तर्क है। संस्थागत विफलता स्वयं एक अस्तित्वगत कारक है। एक ऐसी प्रणाली जो परोपकारी, स्वतः-सुधार करने वाली शासन व्यवस्था पर आधारित है, वह उस प्रणाली से अधिक सुरक्षित नहीं है जो परोपकारी, समन्वित महाबुद्धिमत्ता पर आधारित है।
कोविड से पहले, तकनीकी निराशावाद के अधिकांश मामलों को मानवीय नकारात्मकता पूर्वाग्रह से जोड़ना तर्कसंगत था—यानी यह मानना कि हमारी पीढ़ी की चुनौतियाँ अद्वितीय रूप से अनियंत्रित हैं। कोविड के बाद, संदेह पूर्वाग्रह से अधिक अनुभव पर आधारित प्रतीत होता है।
इसलिए, कृत्रिम बुद्धिमत्ता पर बहस का मुख्य प्रश्न केवल यह नहीं है कि क्या मशीनों को मानवीय मूल्यों के अनुरूप ढाला जा सकता है, बल्कि यह भी है कि क्या आधुनिक संस्थानों पर अनिश्चितता को बढ़ाए बिना उसका प्रबंधन करने के लिए भरोसा किया जा सकता है। यदि यह भरोसा कमज़ोर हो गया है—और कोविड महामारी से यही संकेत मिलता है—तो व्यापक कृत्रिम बुद्धिमत्ता निगरानी की मांगों की उतनी ही गहन जांच होनी चाहिए जितनी कि तकनीकी अनिवार्यता के दावों की।
सबसे बड़ा खतरा शायद यह नहीं है कि एआई बहुत शक्तिशाली हो जाए, बल्कि यह है कि उस संभावना का डर नियंत्रण के उन रूपों को जायज ठहराता है जिनके साथ जीना या उनसे बचना बाद में कहीं अधिक कठिन हो जाता है।
-
रोजर बेट ब्राउनस्टोन फेलो, इंटरनेशनल सेंटर फॉर लॉ एंड इकोनॉमिक्स में सीनियर फेलो (जनवरी 2023-वर्तमान), अफ्रीका फाइटिंग मलेरिया के बोर्ड सदस्य (सितंबर 2000-वर्तमान), और इंस्टीट्यूट ऑफ इकोनॉमिक अफेयर्स में फेलो (जनवरी 2000-वर्तमान) हैं।
सभी पोस्ट देखें