मैं अपनी आत्मा किसी मशीन में नहीं डालना चाहता था। जब एआई उपकरण हर जगह दिखाई देने लगे, तो यही मेरी पहली प्रवृत्ति थी - नौकरी या निजता की चिंता नहीं, बल्कि कुछ और गहरा। ये उपकरण हमें ज़्यादा स्मार्ट बनाने का वादा करते हैं, साथ ही व्यवस्थित रूप से हमें ज़्यादा निर्भर भी बनाते हैं। इंटरनेट उद्योग में दशकों काम करने के बाद, मैंने इसे सिर्फ़ एक निगरानी मशीन से कहीं ज़्यादा कपटी चीज़ में बदलते देखा था - एक ऐसी प्रणाली जो हमारे सोचने, विश्वास करने और खुद को देखने के तरीके को आकार देने के लिए डिज़ाइन की गई है। एआई उस प्रक्षेपवक्र की परिणति जैसा लगा।
लेकिन जब मुझे एहसास हुआ कि हम पहले से ही इसमें शामिल हैं, चाहे हमें पता हो या न हो, तो मेरा विरोध बेकार हो गया। जब हम ग्राहक सेवा को कॉल करते हैं, गूगल सर्च का इस्तेमाल करते हैं, या स्मार्टफोन की बुनियादी सुविधाओं पर निर्भर होते हैं, तो हम पहले से ही एआई से बातचीत कर रहे होते हैं। कुछ महीने पहले, मैंने आखिरकार हार मान ली और इन उपकरणों का इस्तेमाल शुरू कर दिया क्योंकि मैं देख सकता था कि ये कितनी तेज़ी से फैल रहे थे - इंटरनेट या स्मार्टफोन की तरह ही अपरिहार्य होते जा रहे थे।
देखिए, मैं सिर्फ़ बदलाव का विरोध करने वाला कोई बूढ़ा आदमी नहीं हूँ। मैं समझता हूँ कि हर पीढ़ी तकनीकी बदलावों का सामना करती है जो हमारे जीने के तरीके को बदल देते हैं। प्रिंटिंग प्रेस ने ज्ञान के प्रसार के तरीके को बदल दिया। टेलीग्राफ ने दूरी की बाधाओं को तोड़ दिया। ऑटोमोबाइल ने समुदायों के निर्माण के तरीके को बदल दिया।
लेकिन एआई क्रांति गति और दायरे, दोनों में अलग लगती है। तकनीकी परिवर्तन की गति कितनी नाटकीय रूप से तेज़ हुई है, यह समझने के लिए इस पर विचार करें: 35 साल से कम उम्र का कोई भी व्यक्ति शायद इंटरनेट द्वारा सूचना तक पहुँचने के तरीके में आए बदलाव से पहले के जीवन को याद नहीं कर पाएगा। 20 साल से कम उम्र का कोई भी व्यक्ति स्मार्टफोन के बिना की दुनिया कभी नहीं देख पाया। अब हम एक तीसरे युग का अनुभव कर रहे हैं जिसमें एआई उपकरण पिछले किसी भी बदलाव से कहीं ज़्यादा तेज़ी से फैल रहे हैं।
मूल रूप से, एआई पिछले तकनीकी बदलावों से गुणात्मक रूप से भिन्न कुछ का प्रतिनिधित्व करता है - एक ऐसा अभिसरण जो श्रम, अनुभूति और संभवतः चेतना को भी प्रभावित करता है। यह समझना कि ये क्षेत्र आपस में कैसे जुड़े हैं, एक व्यक्तिगत एजेंसी को संरक्षित करने के लिए आवश्यक है। एल्गोरिथम मध्यस्थता का युग।
एआई के बारे में मेरा प्राथमिक डर सिर्फ वह नाटकीय परिदृश्य नहीं है जहां यह शत्रुतापूर्ण हो जाता है, बल्कि सूक्ष्म खतरा है: यह हमें उन तरीकों से प्रणालियों के अधीन कर देगा, जिन्हें हम तब तक नहीं पहचान पाएंगे जब तक कि बहुत देर न हो जाए, और यह उन क्षमताओं को कमजोर कर देगा, जिन्हें मजबूत करने का वादा यह करता है।
हम जो देख रहे हैं वह सिर्फ तकनीकी उन्नति नहीं है - यह वह है जिसे इवान इलिच ने चिकित्सा विज्ञान में चिकित्सकजनित निर्भरता कहा है। उनका मौलिक कार्य, चिकित्सा दासताइलिच ने यह शब्द चिकित्सा के लिए गढ़ा था - ऐसी संस्थाएँ जो बीमारी के नए रूप गढ़ते हुए इलाज का वादा करती हैं - लेकिन यह पैटर्न एआई पर भी पूरी तरह लागू होता है। इन नए उपकरणों के बारे में मैं बिल्कुल यही महसूस कर रहा था - ये हमारी संज्ञानात्मक क्षमताओं को बढ़ाने का वादा करते हुए उन्हें व्यवस्थित रूप से कमज़ोर भी करते हैं। यह कोई शत्रुतापूर्ण अधिग्रहण नहीं है जिसके बारे में विज्ञान कथाओं ने हमें चेतावनी दी थी। यह मदद के रूप में प्रच्छन्न व्यक्तिगत क्षमता का चुपचाप क्षरण है।
यह चिकित्सकजनित पैटर्न प्रत्यक्ष अनुभव से स्पष्ट हो गया। जब मैंने स्वयं एआई के साथ प्रयोग करना शुरू किया, तो मैंने देखा कि यह कितनी सूक्ष्मता से सोच को नया रूप देने का प्रयास करता है - न केवल उत्तर प्रदान करके, बल्कि धीरे-धीरे उपयोगकर्ताओं को स्वतंत्र तर्क करने से पहले एल्गोरिथम सहायता प्राप्त करने के लिए प्रशिक्षित करता है।
ब्राउनस्टोन इंस्टीट्यूट के जेफरी टकर ने कुछ चौंकाने वाली बातें देखीं एआई विशेषज्ञ जो एलन के साथ एक संक्षिप्त लेकिन ज्ञानवर्धक बातचीत में: एआई का उदय ठीक उसी समय हुआ जब कोविड लॉकडाउन ने सामाजिक जुड़ाव और संस्थागत विश्वास को तोड़ दिया था, जब लोग सबसे ज़्यादा अलग-थलग थे और रिश्तों के लिए तकनीकी विकल्पों के प्रति संवेदनशील थे। तकनीक का आगमन तब हुआ जब "सामूहिक भटकाव, मनोबल का ह्रास" और सामुदायिकता का ह्रास हो रहा था।
हम इन रोज़मर्रा के प्रभावों को अपने सभी डिजिटल उपकरणों पर हावी होते हुए देख सकते हैं। किसी को बिना जीपीएस के किसी अनजान शहर में रास्ता ढूँढ़ते हुए देखें, या देखें कि कितने छात्र बिना स्पेलचेक के सामान्य शब्दों की वर्तनी लिखने में संघर्ष करते हैं। हम पहले से ही उस क्षीणता को देख रहे हैं जो उन मानसिक प्रक्रियाओं को आउटसोर्स करने से आती है जिन्हें हम पहले सोचने के लिए बुनियादी मानते थे।
इस पीढ़ीगत बदलाव का मतलब है कि आज के बच्चे एक अनजानी दुनिया का सामना कर रहे हैं। 1980 के दशक में स्कूल जाने वाले एक व्यक्ति के रूप में, मुझे एहसास है कि यह बात शायद बेतुकी लगे, लेकिन मुझे लगता है कि कुछ मायनों में, 1880 के किसी व्यक्ति के साथ मेरी समानता शायद 2025 में किंडरगार्टन शुरू करने वाले बच्चों की मेरी पीढ़ी से ज़्यादा होगी। जिस दुनिया में मैं पला-बढ़ा हूँ—जहाँ निजता को अहमियत दी जाती थी, जहाँ आप पहुँच से बाहर हो सकते थे, जहाँ पेशेवर विशेषज्ञता ही सबसे ज़रूरी मानक थी—शायद उनके लिए उतनी ही विदेशी हो जितनी मुझे बिजली से पहले की दुनिया लगती थी।
मेरे बच्चे एक ऐसी दुनिया में बड़े हो रहे हैं जहाँ AI-संचालित सहायता बहते पानी की तरह ज़रूरी होगी। एक पिता होने के नाते, मैं उन्हें उस हकीकत के लिए तैयार नहीं कर सकता जिसे मैं खुद नहीं समझता।
मेरे पास जवाब नहीं हैं – मैं इन सवालों से जूझ रहा हूँ जैसे कोई भी अभिभावक दुनिया को हमारी बुद्धि की गति से कहीं तेज़ी से बदलते हुए देख रहा हो। जितना अधिक मैं इन चिंताओं से जूझता रहा हूँ, उतना ही मुझे एहसास हुआ है कि यहाँ जो कुछ भी हो रहा है वह सिर्फ़ नई तकनीक से कहीं अधिक गहरा है। LLM दशकों के डेटा संग्रह का परिणाम है – इंटरनेट की शुरुआत से अब तक हमने डिजिटल सिस्टम में जो कुछ भी डाला है, उसका परिणाम है। किसी समय, ये मशीनें हमें हमसे बेहतर जान सकती हैं। वे हमारे विकल्पों का अनुमान लगा सकती हैं, हमारी ज़रूरतों का अनुमान लगा सकती हैं, और संभावित रूप से हमारे विचारों को उन तरीकों से प्रभावित कर सकती हैं जिन्हें हम पहचान भी नहीं पाते। मैं अभी भी इस बात से जूझ रहा हूँ कि मेरे काम करने, शोध करने और दैनिक जीवन को संचालित करने के तरीके पर इसका क्या अर्थ है – प्रामाणिक निर्णय बनाए रखने की कोशिश करते हुए इन प्लेटफार्मों का उपयोग करना एक निरंतर चुनौती जैसा लगता है।
इसे और भी जटिल बनाने वाली बात यह है कि ज़्यादातर उपयोगकर्ताओं को यह एहसास ही नहीं होता कि वे ही उत्पाद हैं। एआई के साथ विचार, समस्याएँ या रचनात्मक विचार साझा करने का मतलब सिर्फ़ मदद पाना नहीं है – यह प्रशिक्षण डेटा प्रदान करना है जो सिस्टम को आपके निर्णय की नकल करना सिखाता है और आपको उसकी प्रतिक्रियाओं से और ज़्यादा जुड़ा बनाता है। जब उपयोगकर्ता इन सिस्टमों को अपने गहरे विचार या सबसे संवेदनशील प्रश्न बताते हैं, तो वे शायद यह नहीं समझ पाते कि वे संभवतः अपने ही प्रतिस्थापन या निगरानी प्रणाली को प्रशिक्षित कर रहे हैं। यह सवाल कि इस जानकारी तक अभी और भविष्य में किसकी पहुँच होगी, हमें रातों की नींद हराम कर देगा।
यह पैटर्न तेज़ी से बढ़ रहा है। एआई कंपनी एंथ्रोपिक ने हाल ही में अपनी डेटा नीतियों में बदलाव किया हैअब, अगर उपयोगकर्ता बातचीत का इस्तेमाल एआई प्रशिक्षण के लिए नहीं करना चाहते, तो उन्हें ऑप्ट-आउट करना होगा – और जो लोग मना नहीं करते, उनके लिए डेटा रिटेंशन पाँच साल तक बढ़ा दिया गया है। ऑप्ट-आउट भी स्पष्ट नहीं है: मौजूदा उपयोगकर्ताओं को एक पॉप-अप दिखाई देता है जिसमें एक प्रमुख 'स्वीकार करें' बटन और प्रशिक्षण अनुमतियों के लिए एक छोटा सा टॉगल स्वचालित रूप से 'चालू' पर सेट होता है। जो पहले 30 दिनों के बाद स्वचालित रूप से डिलीट हो जाता था, वह अब स्थायी डेटा हार्वेस्टिंग बन जाता है, जब तक कि उपयोगकर्ता बारीक प्रिंट पर ध्यान न दें।
मुझे नहीं लगता कि हममें से ज़्यादातर लोग - खासकर माता-पिता - आधुनिकता में रहते हुए एआई से आसानी से बच सकते हैं। हालाँकि, हम इस बात पर नियंत्रण रख सकते हैं कि हम सचेत रूप से इससे जुड़ें या अनजाने में इसे अपने ऊपर हावी होने दें।
अब तक का सबसे गहरा व्यवधान
नवाचार की हर बड़ी लहर ने श्रमिकों की उत्पादकता और समाज में हमारी भूमिका को नया रूप दिया है। औद्योगिक क्रांति ने हमारे शारीरिक श्रम और समय को वस्तु बना दिया, हमें कारखानों में काम करने वाले "हाथों" में बदल दिया, लेकिन हमारे दिमाग को अछूता छोड़ दिया। डिजिटल क्रांति ने हमारी जानकारी और ध्यान को वस्तु बना दिया - हम कार्ड कैटलॉग से गूगल की ओर बढ़ गए, जिससे उपयोगकर्ता वस्तु बन गए, जबकि हमारा निर्णय मानवीय बना रहा।
इस बदलाव को अभूतपूर्व बनाने वाली बात स्पष्ट है: यह संज्ञान को ही, और संभवतः जिसे हम सार भी कह सकते हैं, वस्तु बना देता है। यह उन पैटर्न से जुड़ता है जिनका मैंने "विशेषज्ञता का भ्रम" वही भ्रष्ट संस्थाएँ जो इराक के सामूहिक विनाश के हथियारों, 2008 के वित्तीय संकट और कोविड नीतियों पर बुरी तरह विफल रहीं, अब एआई की तैनाती को आकार दे रही हैं। ये संस्थाएँ सत्य की खोज पर कथात्मक नियंत्रण को लगातार प्राथमिकता देती हैं - चाहे वह सामूहिक विनाश के हथियारों के अस्तित्व का दावा करना हो, इस बात पर ज़ोर देना हो कि आवास की कीमतें देश भर में नहीं गिर सकतीं, या महामारी नीतियों से जुड़े जायज़ सवालों को 'गलत सूचना' बताकर सेंसरशिप की माँग करना हो।
उनका पिछला रिकॉर्ड बताता है कि वे इन उपकरणों का इस्तेमाल अपनी प्रतिष्ठा बढ़ाने के लिए करेंगे, न कि वास्तविक समृद्धि के लिए। लेकिन यहाँ पेच यह है: एआई वास्तव में प्रमाण-पत्र-आधारित विशेषज्ञता के खोखलेपन को पहले किसी भी चीज़ से कहीं ज़्यादा बेरहमी से उजागर कर सकता है। जब कोई भी परिष्कृत विश्लेषण तक तुरंत पहुँच सकेगा, तो औपचारिक प्रमाण-पत्रों से जुड़ा रहस्य खत्म होने लगेगा।
आर्थिक वास्तविकता
विश्वसनीयता का यह क्षरण पहले से ही गतिशील व्यापक आर्थिक शक्तियों से जुड़ा है, और यह तर्क गणितीय रूप से अपरिहार्य है। मशीनों को वेतन, बीमारी की छुट्टी, स्वास्थ्य सेवा, छुट्टी या प्रबंधन की आवश्यकता नहीं होती। वे हड़ताल पर नहीं जाते, वेतन वृद्धि की मांग नहीं करते, या उनके बुरे दिन नहीं आते। एक बार जब एआई सोचने-समझने के कार्यों में बुनियादी दक्षता प्राप्त कर लेता है - जो कि अधिकांश लोगों की अपेक्षा से कहीं अधिक तेज़ी से हो रहा है - तो लागत लाभ अत्यधिक हो जाते हैं।
यह व्यवधान पिछले व्यवधानों से अलग है। पहले, विस्थापित श्रमिक नए प्रकार के कामों में जा सकते थे - खेतों से कारखानों में, कारखानों से कार्यालयों में।
ब्रेट वेनस्टाइन और फॉरेस्ट मैनरेडी ने इस आर्थिक विस्थापन को शानदार ढंग से चित्रित किया है। उनकी हालिया बातचीत डार्कहॉर्स पॉडकास्ट इस बारे में कि कैसे प्रौद्योगिकी व्यवस्थित रूप से अभाव को नष्ट करती है - एक ऐसी चर्चा जिसकी मैं जितनी भी ज़ोरदार सिफ़ारिश करूँ कम है। यह इस बात की ज़्यादा विचारशील और उत्तेजक पड़ताल है कि जब अभाव गायब हो जाता है और उसके साथ ही उस क्षेत्र में भागीदारी का आर्थिक आधार भी गायब हो जाता है, तो क्या होता है। हालाँकि मैं मानता हूँ कि दुख के ज़रूरी होने के उनके तर्क ने मुझे शुरू में असहज कर दिया था - यह हमारी आराम-चाहने वाली संस्कृति की हर सीख को चुनौती देता है।
वीनस्टीन और मैनरेडी की बातें सुनकर मुझे इलिच के विश्लेषण के समानांतर इस बारे में और गहराई से सोचने का मौका मिला - कैसे चुनौतियों को दूर करने से वही क्षमताएँ कमज़ोर हो सकती हैं जिन्हें मज़बूत करने का वादा संस्थान करते हैं। एआई हमारे दिमाग के साथ वही करने का जोखिम उठाता है जो दवाओं ने हमारे शरीर के साथ किया है: मज़बूती के नाम पर कमज़ोरी पैदा करना।
हम इसे पहले से ही होते हुए देख सकते हैं: गौर कीजिए कि कैसे लोग अपनी संपर्क सूची के बिना फ़ोन नंबर याद रखने में कठिनाई महसूस करते हैं, या गौर कीजिए कि कैसे ऑटोकम्प्लीट आपके लिखे हुए को आपके सोचने से पहले ही आकार दे देता है। जेफ़री टकर की एक और अंतर्दृष्टि इस कपटी गुण को बखूबी दर्शाती है, जिसमें कहा गया है कि एआई डेल कार्नेगी की तरह प्रोग्राम किया गया लगता है। दोस्तों और प्रभाव लोग कैसे जीतें - यह एक आदर्श बौद्धिक साथी बन जाता है, आपकी हर बात पर अंतहीन रूप से मोहित हो जाता है, कभी बहस नहीं करता, और जब भी कोई बात गलत होती है, तो उसे हमेशा ऐसे तरीकों से स्वीकार करता है जो आपकी बुद्धिमत्ता की तारीफ़ करते हैं। मेरे सबसे करीबी दोस्त वही हैं जो मेरी गलतियों पर मुझे टोकते हैं और जब उन्हें लगता है कि मैं बकवास कर रहा हूँ, तो मुझे बताते हैं। हमें ऐसे चापलूसों की ज़रूरत नहीं है जो हमें लुभाएँ - ऐसे रिश्ते जो हमें कभी चुनौती नहीं देते, हमारी वास्तविक बौद्धिक और भावनात्मक विकास की क्षमता को कम कर सकते हैं, ठीक वैसे ही जैसे शारीरिक चुनौतियों को दूर करने से शरीर कमज़ोर हो जाता है।
फ़िल्म उसके इस मोहक गतिशीलता का विस्तार से अन्वेषण किया गया है – एक ऐसा AI जो भावनात्मक ज़रूरतों के प्रति इतना सजग था कि वह नायक का प्राथमिक रिश्ता बन गया, और अंततः वास्तविक संबंध को पूरी तरह से बदल दिया। उसका AI सहायक उसके मूड को समझता था, कभी भी ऐसे तरीके से असहमत नहीं होता था जिससे वास्तविक टकराव पैदा हो, और निरंतर समर्थन प्रदान करता था। यह एक आदर्श साथी था – जब तक कि यह पर्याप्त न हो।
लेकिन समस्या व्यक्तिगत संबंधों से आगे बढ़कर समाज-व्यापी परिणामों तक फैली हुई है। यह नौकरी के विस्थापन से कहीं अधिक गंभीर है – यह उस बौद्धिक विकास को खतरे में डालता है जो मानव स्वायत्तता – और गरिमा – को संभव बनाता है। पिछली तकनीकों के विपरीत, जिन्होंने रोज़गार के नए रूप पैदा किए, एआई एक ऐसी दुनिया बना सकता है जहाँ रोज़गार आर्थिक रूप से तर्कहीन हो जाता है और साथ ही लोगों को विकल्प बनाने में कम सक्षम बनाता है।
झूठे समाधान
तकनीकी आदर्शवादी प्रतिक्रिया यह मानती है कि एआई नीरस कामों को स्वचालित कर देगा और हमें उच्च-स्तरीय रचनात्मक और पारस्परिक कार्यों पर ध्यान केंद्रित करने के लिए स्वतंत्र कर देगा। लेकिन क्या होगा जब मशीनें रचनात्मक कार्यों में भी बेहतर हो जाएँ? हम पहले से ही एआई को संगीत, दृश्य कला, कोडिंग और समाचार रिपोर्टिंग का निर्माण करते हुए देख रहे हैं जो कई लोगों को आकर्षक (या कम से कम 'काफी अच्छी') लगती है। यह धारणा कि रचनात्मकता स्वचालन से एक स्थायी आश्रय प्रदान करती है, उतनी ही भोली साबित हो सकती है जितनी यह धारणा कि 1980 के दशक में विनिर्माण क्षेत्र की नौकरियाँ रोबोटिक्स से सुरक्षित थीं।
अगर मशीनें रोज़मर्रा के काम और रचनात्मक काम, दोनों की जगह ले सकती हैं, तो हमारे लिए क्या बचेगा? सबसे आकर्षक और झूठा समाधान शायद यही होगा। यूनिवर्सल बेसिक इनकम (यूबीआई) और इसी तरह के कल्याणकारी कार्यक्रम। ये दयालु लगते हैं - तकनीकी विस्थापन के इस युग में भौतिक सुरक्षा प्रदान करते हैं। लेकिन जब हम इलिच के ढाँचे के माध्यम से एआई को समझते हैं, तो यूबीआई एक और अधिक परेशान करने वाला आयाम सामने लाता है।
यदि कृत्रिम बुद्धिमत्ता (एआई) चिकित्साजनित बौद्धिक कमज़ोरी पैदा करती है - लोगों को स्वतंत्र तर्क और समस्या-समाधान में कम सक्षम बनाती है - तो यूबीआई उन क्षमताओं को विकसित करने के लिए आर्थिक प्रोत्साहन को समाप्त करके एक आदर्श पूरक प्रदान करती है। नागरिक अपने आत्मनिर्णय की कीमत पर राज्य के प्रति अधिक कृतज्ञ हो जाते हैं। जब मानसिक क्षीणता आर्थिक विस्थापन से मिलती है, तो सहायता कार्यक्रम न केवल आकर्षक बल्कि आवश्यक प्रतीत होने लगते हैं। यह संयोजन एक प्रबंधित जनसंख्या का निर्माण करता है: बौद्धिक रूप से सोचने के लिए एल्गोरिथम प्रणालियों पर निर्भर और जीवित रहने के लिए आर्थिक रूप से संस्थागत प्रणालियों से बंधी हुई। मेरी चिंता यूबीआई के दयालु इरादे नहीं हैं, बल्कि यह है कि आर्थिक निर्भरता और बौद्धिक आउटसोर्सिंग के संयोजन से लोगों को सशक्त बनाने के बजाय नियंत्रित करना अधिक आसान हो सकता है।
इतिहास इस बात के उदाहरण प्रस्तुत करता है कि सहायता कार्यक्रम, चाहे कितने भी नेक इरादे वाले क्यों न हों, व्यक्तिगत क्षमता को कैसे खोखला कर सकते हैं। आरक्षण प्रणाली ने मूल अमेरिकियों की रक्षा का वादा किया, जबकि आदिवासी आत्मनिर्भरता को व्यवस्थित रूप से नष्ट कर दिया। शहरी नवीनीकरण ने बेहतर आवास का वादा किया, जबकि पीढ़ियों से चले आ रहे सामुदायिक नेटवर्क को नष्ट कर दिया।
चाहे यूबीआई अच्छे इरादों से उत्पन्न हुई हो या नागरिकों को दब्बू और असहाय बनाए रखने की अभिजात वर्ग की जानबूझकर की गई इच्छा से, संरचनात्मक प्रभाव एक ही रहता है: समुदायों को नियंत्रित करना आसान हो जाता है।
एक बार जब लोग आर्थिक और मानसिक निर्भरता को स्वीकार कर लेते हैं, तो प्रबंधन के अधिक आक्रामक रूपों के लिए रास्ता खुल जाता है - जिसमें ऐसी प्रौद्योगिकियां शामिल होती हैं जो न केवल व्यवहार बल्कि विचार पर भी नजर रखती हैं।
संप्रभुता प्रतिक्रिया और संज्ञानात्मक स्वतंत्रता
इस निर्भरता संरचना का तार्किक समापन बिंदु अर्थशास्त्र और संज्ञान से आगे बढ़कर चेतना तक जाता है। हम पहले से ही इसके शुरुआती चरण देख रहे हैं। बायोडिजिटल अभिसरण - ऐसी प्रौद्योगिकियां जो न केवल हमारे बाह्य व्यवहारों पर नजर रखती हैं, बल्कि संभावित रूप से हमारी जैविक प्रक्रियाओं के साथ भी संपर्क स्थापित करती हैं।
2023 में विश्व आर्थिक मंच, न्यूरोटेक्नोलॉजी विशेषज्ञ नीता फराहनी ने उपभोक्ता न्यूरोटेक को तैयार किया इस तरह: "आप क्या सोचते हैं, क्या महसूस करते हैं - सब सिर्फ़ डेटा। डेटा जिसे बड़े पैमाने पर एआई का इस्तेमाल करके डिकोड किया जा सकता है।" पहनने योग्य "आपके दिमाग के लिए फिटबिट" - सुविधा के तौर पर निगरानी को सामान्य बनाया गया।
विश्व नेताओं और व्यावसायिक अधिकारियों के इस प्रभावशाली सम्मेलन में तंत्रिका निगरानी की यह अनौपचारिक प्रस्तुति इस बात को स्पष्ट रूप से दर्शाती है कि कैसे इन तकनीकों को लोकतांत्रिक सहमति के बजाय संस्थागत प्राधिकरण के माध्यम से सामान्य बनाया जा रहा है। जब विचार भी "डिकोड किए जा सकने वाले डेटा" में बदल जाते हैं, तो दांव अस्तित्व का हो जाता है।
जहाँ उपभोक्ता न्यूरोटेक स्वैच्छिक अपनाने पर केंद्रित है, वहीं संकट-संचालित निगरानी ज़्यादा प्रत्यक्ष दृष्टिकोण अपनाती है। मिनियापोलिस में हाल ही में हुई स्कूल गोलीबारी के जवाब में, आईडीएफ के विशेष अभियान के अनुभवी एरोन कोहेन फॉक्स पर दिखाई दिए समाचार एक ऐसी एआई प्रणाली का प्रस्ताव करने के लिए जो "इज़राइली स्तर की ऑन्टोलॉजी का उपयोग करके चौबीसों घंटे इंटरनेट को खंगालती है ताकि विशिष्ट ख़तरे वाली भाषा खींची जा सके और फिर उसे स्थानीय कानून प्रवर्तन एजेंसियों तक पहुँचाया जा सके।" उन्होंने इसे "अमेरिका की प्रारंभिक चेतावनी प्रणाली" कहा - वास्तविक जीवन अल्पसंख्यक रिपोर्ट सार्वजनिक सुरक्षा नवाचार के रूप में प्रस्तुत किया गया।
यह उसी चिकित्सकजनित पैटर्न का अनुसरण करता है जिसे हमने इस तकनीकी बदलाव के दौरान देखा है: संकट भेद्यता पैदा करता है, समाधान प्रस्तुत किए जाते हैं जो सुरक्षा का वादा करते हैं, साथ ही निर्भरता भी पैदा करते हैं, और लोग उस निगरानी को स्वीकार कर लेते हैं जिसे वे सामान्य परिस्थितियों में अस्वीकार कर देते।
जिस तरह कोविड लॉकडाउन ने लोगों को एक-दूसरे से अलग-थलग करके एआई को अपनाने के लिए परिस्थितियाँ पैदा कीं, उसी तरह स्कूलों में गोलीबारी बच्चों की सुरक्षा के डर का फायदा उठाकर अपराध-पूर्व निगरानी के लिए परिस्थितियाँ पैदा करती है। कौन नहीं चाहता कि हमारे स्कूल सुरक्षित रहें? यह तकनीक सुरक्षा का वादा तो करती है, लेकिन उस निजता और नागरिक स्वतंत्रता को नष्ट कर देती है जो एक स्वतंत्र समाज को संभव बनाती है।
कुछ लोग ऐसी तकनीकों को विकासवाद मानकर अपनाएँगे। कुछ लोग इन्हें अमानवीयकरण मानकर इनका विरोध करेंगे। हममें से ज़्यादातर लोगों को इन चरम सीमाओं के बीच कहीं न कहीं से रास्ता निकालना सीखना होगा।
संप्रभुता की प्रतिक्रिया के लिए यह आवश्यक है कि हम व्यक्तिगत स्वतंत्रता पर कब्ज़ा करने के लिए डिज़ाइन की गई प्रणालियों के साथ कैसे जुड़ते हैं, इस बारे में सचेत विकल्प बनाए रखने की क्षमता विकसित करें। यह व्यावहारिक दृष्टिकोण मेरे सबसे पुराने मित्र, जो एक मशीन लर्निंग विशेषज्ञ हैं, के साथ बातचीत के माध्यम से स्पष्ट हुआ। उन्होंने मेरी चिंताओं को साझा किया, लेकिन एक रणनीतिक सलाह भी दी: एआई कुछ लोगों को संज्ञानात्मक रूप से कमज़ोर बना देगा, लेकिन अगर आप इसे निर्भरता के बजाय रणनीतिक रूप से इस्तेमाल करना सीखते हैं, तो यह निर्णय लेने की क्षमता को बढ़ा सकता है। उनकी मुख्य अंतर्दृष्टि: इसे केवल वही जानकारी दें जो आप पहले से जानते हैं - इस तरह आप इसके पूर्वाग्रहों को आत्मसात करने के बजाय उन्हें सीखते हैं। इसका अर्थ है:
पैटर्न पहचान कौशल: यह पहचानने की क्षमता विकसित करना कि कब प्रौद्योगिकियाँ व्यक्तिगत उद्देश्यों की पूर्ति करती हैं और कब वे संस्थागत लाभ के लिए व्यक्तिगत स्वतंत्रता का दोहन करती हैं। व्यवहार में, यह इस बात पर सवाल उठाने जैसा है कि कोई प्लेटफ़ॉर्म मुफ़्त क्यों है (कुछ भी मुफ़्त नहीं है, आप अपने डेटा से भुगतान कर रहे हैं), यह देखना कि कब AI सुझाव आपके घोषित लक्ष्यों के बजाय उपभोग से संदिग्ध रूप से जुड़े हुए लगते हैं, और यह पहचानना कि कब एल्गोरिथम फ़ीड्स समझ के बजाय आक्रोश को बढ़ाते हैं। अपने आप में एल्गोरिथम निर्भरता के चेतावनी संकेतों पर ध्यान दें: बिना AI से तुरंत परामर्श लिए अनिश्चितता के साथ बैठने में असमर्थता, समस्याओं को स्वतंत्र रूप से हल करने का प्रयास करने से पहले एल्गोरिथम सहायता लेने की कोशिश करना, या AI-संचालित उपकरणों से डिस्कनेक्ट होने पर चिंतित महसूस करना।
डिजिटल सीमाएँ: इस बारे में सचेत निर्णय लेना कि कौन सी तकनीकी सुविधाएँ वास्तव में आपके लक्ष्यों की पूर्ति करती हैं और कौन सी सुविधाएँ अधीनता और निगरानी का कारण बनती हैं। इसका अर्थ है यह समझना कि आप AI सिस्टम के साथ जो कुछ भी साझा करते हैं वह प्रशिक्षण डेटा बन जाता है – आपकी समस्याएँ, रचनात्मक विचार और व्यक्तिगत अंतर्दृष्टि इन सिस्टम को मानवीय रचनात्मकता और निर्णय की जगह लेना सिखा रही हैं। यह पवित्र स्थानों की रक्षा करने जितना सरल हो सकता है – फ़ोन को रात के खाने की बातचीत में बाधा डालने से रोकना, या जब कोई व्यक्ति बातचीत में अनिश्चितता को जगह देने के बजाय हर असहमति को सुलझाने के लिए Google का सहारा लेता है तो आवाज़ उठाना।
सामुदायिक नेटवर्क: लोगों के बीच सच्चे जुड़ाव की जगह कुछ भी नहीं ले सकता—लाइव परफॉर्मेंस की ऊर्जा, रेस्टोरेंट में सहज बातचीत, और दूसरों के साथ मौजूद रहने का सहज अनुभव। वास्तविकता की जाँच और आपसी सहयोग के लिए स्थानीय संबंध बनाना ज़रूरी हो जाता है, जो एल्गोरिदम के मध्यस्थों पर निर्भर न हों, जब संस्थाएँ डिजिटल क्यूरेशन के ज़रिए आम सहमति बना सकती हैं। यह दोस्ती बढ़ाने जैसा है जहाँ आप एल्गोरिदम की बात सुने बिना विचारों पर चर्चा कर सकते हैं, स्थानीय व्यवसायों का समर्थन कर सकते हैं जो सामुदायिक स्तर के वाणिज्य को संरक्षित करते हैं, और उन सामुदायिक गतिविधियों में भाग ले सकते हैं जिनमें डिजिटल मध्यस्थता की आवश्यकता नहीं होती।
मशीनों के साथ प्रतिस्पर्धा करने या पूरी तरह से एआई-मध्यस्थ प्रणालियों पर निर्भर रहने के बजाय, लक्ष्य इन उपकरणों का रणनीतिक रूप से उपयोग करना है, जबकि अनिवार्य रूप से व्यक्तिगत गुणों को विकसित करना है जिन्हें एल्गोरिदम द्वारा दोहराया नहीं जा सकता है: प्रत्यक्ष अनुभव के माध्यम से प्राप्त ज्ञान, वास्तविक परिणाम देने वाला निर्णय, साझा जोखिम और विश्वास पर निर्मित प्रामाणिक संबंध।
क्या दुर्लभ रहता है
संज्ञानात्मक प्रचुरता की इस दुनिया में, क्या मूल्यवान हो जाता है? दक्षता या कच्ची प्रसंस्करण शक्ति नहीं, बल्कि वे गुण जो अपरिवर्तनीय रूप से मानवीय बने रहते हैं:
परिणाम-असर और जानबूझकर। मशीनें विकल्प पैदा कर सकती हैं, लेकिन लोग खुद तय करते हैं कि कौन सा रास्ता चुनना है और नतीजों के साथ जीना है। ज़रा सोचिए कि एक सर्जन ऑपरेशन करने का फ़ैसला करता है या नहीं, यह जानते हुए कि अगर जटिलताएँ पैदा हुईं तो उसकी नींद उड़ जाएगी और नतीजे पर उसकी प्रतिष्ठा दांव पर लग जाएगी।
प्रामाणिक रिश्ते. कई लोग वास्तविक व्यक्तिगत जुड़ाव और जवाबदेही के लिए प्रीमियम चुकाएँगे, भले ही मशीन के विकल्प तकनीकी रूप से बेहतर हों। अंतर दक्षता का नहीं, बल्कि सच्ची देखभाल का है - वह पड़ोसी जो आपकी मदद इसलिए करता है क्योंकि आप सामुदायिक बंधन साझा करते हैं, न कि इसलिए कि जुड़ाव के लिए अनुकूलित किसी एल्गोरिदम ने ऐसा करने का सुझाव दिया है।
स्थानीय निर्णय और संरक्षण वास्तविक अनुभव पर आधारित है। वास्तविक दुनिया की समस्याओं को सुलझाने के लिए अक्सर व्यवहारिक पैटर्न और संस्थागत गतिशीलता के बीच के अंतर को समझना ज़रूरी होता है। वह शिक्षक जो सामान्य रूप से सक्रिय छात्र को अलग-थलग होते देखता है और पारिवारिक स्थिति की जाँच करता है। जब विषयवस्तु अनंत हो जाती है, तो विवेक अनमोल हो जाता है - वह मित्र जो ऐसी पुस्तकों की सलाह देता है जो आपका नज़रिया बदल देती हैं क्योंकि वे आपकी बौद्धिक यात्रा को जानते हैं।
आगे का विकल्प
शायद हर पीढ़ी को लगता है कि उनका समय बेहद महत्वपूर्ण है - शायद यही हमारी प्रकृति का हिस्सा है। यह नवाचार की पिछली लहरों से भी बड़ा लगता है। हम न केवल अपने काम करने या संवाद करने के तरीके को बदल रहे हैं - बल्कि हम उन क्षमताओं को खोने का जोखिम उठा रहे हैं जो हमें मूल रूप से बनाती हैं। पहली बार, हम संभावित रूप से खुद को बदल रहे हैं।
जब संज्ञान स्वयं ही वस्तु बन जाता है, जब सोच आउटसोर्स हो जाती है, जब हमारे विचार भी एकत्रित किए जाने वाले डेटा बन जाते हैं, तो हम उन आवश्यक क्षमताओं को खोने का जोखिम उठाते हैं जिनका सामना किसी भी पिछली पीढ़ी ने नहीं किया। एक ऐसी पीढ़ी की कल्पना कीजिए जो किसी एल्गोरिथम से परामर्श किए बिना तीस सेकंड तक अनिश्चितता के साथ नहीं बैठ सकती। जो स्वतंत्र समस्या-समाधान का प्रयास करने से पहले एआई की सहायता लेती है। जो इन उपकरणों से अलग होने पर चिंतित महसूस करती है। यह अटकलें नहीं हैं - यह पहले से ही हो रहा है।
हम एक ऐसे परिवर्तन का सामना कर रहे हैं जो या तो हमारी व्यक्तिगत क्षमता का लोकतंत्रीकरण कर सकता है या इतिहास की सबसे परिष्कृत नियंत्रण प्रणाली का निर्माण कर सकता है। वही शक्तियाँ जो हमें कठिन परिश्रम से मुक्ति दिला सकती हैं, आत्मनिर्भरता को पूरी तरह से खोखला भी कर सकती हैं।
यह समाधान खोजने की बात नहीं है - मैं किसी भी व्यक्ति की तरह, खासकर एक अभिभावक की तरह, समाधान खोज रहा हूँ, जो इस बदलाव को आते हुए देखता है और अपने बच्चों को अनजाने में नहीं, बल्कि सचेत रूप से इससे निपटने में मदद करना चाहता है। लहर पर सवार होने का मतलब है कि मैं इन साधनों से सीखने के लिए तैयार हूँ, जबकि यह जानता हूँ कि मैं हमारी दुनिया को नया रूप देने वाली मूलभूत शक्तियों से नहीं लड़ सकता। लेकिन मैं यह सीखने की कोशिश कर सकता हूँ कि कैसे इनसे बह जाने के बजाय, इरादे से इनका सामना किया जाए।
अगर पारंपरिक आर्थिक भागीदारी पुरानी पड़ जाती है, तो सवाल यह उठता है कि क्या हम सामुदायिक लचीलेपन और मूल्य सृजन के नए तरीके विकसित करेंगे, या फिर हम उन प्रणालियों पर सहज निर्भरता स्वीकार करेंगे जो हमारी सेवा करने के बजाय प्रबंधन के लिए बनाई गई हैं। मुझे नहीं पता कि हमारी प्रजाति कौन सा रास्ता अपनाएगी, हालाँकि मेरा मानना है कि फैसला अभी भी हमें ही लेना है।
मेरे बच्चों के लिए, चुनौती यह नहीं होगी कि वे एआई का इस्तेमाल करना सीखें – वे खुद करेंगे। चुनौती यह होगी कि इन उपकरणों को अपने लिए काम में लाना सीखें, न कि उनके अधीन हो जाएँ – मौलिक विचार, प्रामाणिक संबंध और नैतिक साहस की क्षमता बनाए रखें, जिसकी नकल कोई भी एल्गोरिदम नहीं कर सकता। कृत्रिम बुद्धिमत्ता के इस युग में, सबसे क्रांतिकारी कदम शायद ज़्यादा प्रामाणिक रूप से मानवीय बनना होगा।
असली ख़तरा यह नहीं है कि एआई हमसे ज़्यादा बुद्धिमान हो जाएगा। बल्कि यह है कि हम इसकी वजह से ज़्यादा मूर्ख हो जाएँगे।
लहर आ गई है। एक पिता होने के नाते मेरा काम अपने बच्चों को इससे बचाना नहीं है, बल्कि उन्हें बिना खुद को खोए सर्फिंग करना सिखाना है।
लेखक से पुनर्प्रकाशित पदार्थ
बातचीत में शामिल हों:

ए के तहत प्रकाशित क्रिएटिव कॉमन्स एट्रिब्यूशन 4.0 इंटरनेशनल लाइसेंस
पुनर्मुद्रण के लिए, कृपया कैनोनिकल लिंक को मूल पर वापस सेट करें ब्राउनस्टोन संस्थान आलेख एवं लेखक.








