साझा करें | प्रिंट | ईमेल
चिकित्सा क्षेत्र में मेरे अनुभव से मैं वास्तविक नवाचार और सूक्ष्म वर्गीकरण परिवर्तन के बीच अंतर कर सकता हूँ, जो देखने में अपरिवर्तित प्रतीत होते हुए भी चिकित्सा पद्धति को मौलिक रूप से बदल देता है। कृत्रिम बुद्धिमत्ता ने हाल ही में काफी ध्यान आकर्षित किया है, जिसमें यह व्यापक रूप से प्रचारित दावा भी शामिल है कि संयुक्त राज्य अमेरिका में एआई को "चिकित्सा का अभ्यास करने के लिए कानूनी रूप से अधिकृत" कर दिया गया है। शाब्दिक रूप से व्याख्या करने पर, यह दावा गलत है। किसी भी चिकित्सा बोर्ड ने किसी मशीन को लाइसेंस नहीं दिया है। किसी भी एल्गोरिदम ने शपथ नहीं ली है, न्यासी कर्तव्य स्वीकार नहीं किया है, या रोगी को हुए नुकसान के लिए व्यक्तिगत दायित्व नहीं लिया है। कोई रोबोट चिकित्सक क्लिनिक नहीं खोल रहा है, बीमा कंपनियों को बिल नहीं भेज रहा है, या चिकित्सा लापरवाही के मामले में जूरी के समक्ष पेश नहीं हो रहा है।
हालांकि, केवल इस अवलोकन तक सीमित रहना व्यापक मुद्दे की अनदेखी करना है। दायित्व की कानूनी अवधारणाओं को वर्तमान में पुनर्परिभाषित किया जा रहा है, अक्सर जनता की जानकारी के बिना।
एक महत्वपूर्ण परिवर्तन हो रहा है, जिसके लिए केवल बिना सोचे-समझे खारिज करना या तकनीकी उत्साह दिखाना पर्याप्त नहीं है। वर्तमान घटनाक्रम कृत्रिम बुद्धिमत्ता को चिकित्सक के रूप में मान्यता देना नहीं है, बल्कि चिकित्सा की मूल सीमा का धीरे-धीरे क्षरण है: नैदानिक निर्णय और मानवीय जवाबदेही के बीच का अंतर्निहित संबंध। नैदानिक निर्णय में प्रत्येक रोगी की विशिष्ट आवश्यकताओं और परिस्थितियों के अनुरूप सोच-समझकर निर्णय लेना शामिल है, जिसके लिए सहानुभूति, अंतर्ज्ञान और चिकित्सा नैतिकता की गहरी समझ आवश्यक है।
मानवीय जवाबदेही से तात्पर्य उन निर्णयों और उनके परिणामों के लिए स्वास्थ्य सेवा प्रदाताओं द्वारा ली जाने वाली ज़िम्मेदारी से है। यह क्षरण किसी नाटकीय कानून या सार्वजनिक बहस का परिणाम नहीं है, बल्कि पायलट कार्यक्रमों, नियामक पुनर्व्याख्याओं और जानबूझकर ज़िम्मेदारी को अस्पष्ट करने वाली भाषा के माध्यम से चुपचाप होता है। एक बार यह सीमा समाप्त हो जाने पर, चिकित्सा इस तरह से बदल जाती है जिसे पलटना मुश्किल होता है।
मुख्य चिंता यह नहीं है कि एआई नुस्खे दोबारा लिख सकता है या असामान्य प्रयोगशाला परिणामों की पहचान कर सकता है। चिकित्सा जगत में लंबे समय से उपकरणों का उपयोग होता रहा है, और स्वास्थ्य सेवा प्रदाता आमतौर पर ऐसी सहायता का स्वागत करते हैं जो प्रशासनिक कार्यों को कम करती है या पैटर्न की पहचान में सुधार करती है। असली मुद्दा यह है कि क्या चिकित्सा संबंधी निर्णय—सही कार्रवाई, रोगियों और जोखिमों का चुनाव—को नैतिक जिम्मेदारी से अलग एक कंप्यूटर-जनित परिणाम के रूप में देखा जा सकता है। ऐतिहासिक रूप से, निर्णय को जवाबदेही से अलग करने के प्रयासों ने अक्सर जिम्मेदारी लिए बिना नुकसान पहुंचाया है।
हाल के घटनाक्रमों से मौजूदा भ्रम की जड़ स्पष्ट होती है। कई राज्यों में, सीमित पायलट कार्यक्रमों के तहत कृत्रिम बुद्धिमत्ता (AI) संचालित प्रणालियों को कुछ तय प्रोटोकॉल के अंतर्गत स्थिर दीर्घकालिक बीमारियों के लिए नुस्खे के नवीनीकरण में सहायता करने की अनुमति दी गई है। संघीय स्तर पर, प्रस्तावित कानून में इस बात पर विचार किया गया है कि क्या कृत्रिम बुद्धिमत्ता को उचित विनियमन के अधीन विशिष्ट वैधानिक उद्देश्यों के लिए "चिकित्सक" के रूप में माना जा सकता है। इन पहलों को आमतौर पर चिकित्सकों की कमी, पहुँच में देरी और प्रशासनिक अक्षमताओं के व्यावहारिक समाधान के रूप में प्रस्तुत किया जाता है। यद्यपि इनमें से कोई भी स्पष्ट रूप से AI को चिकित्सक के रूप में नामित नहीं करता है, फिर भी ये सामूहिक रूप से इस अधिक चिंताजनक धारणा को सामान्य बनाते हैं कि चिकित्सा संबंधी कार्य बिना किसी स्पष्ट मानव निर्णयकर्ता के हो सकते हैं।
व्यवहार में, यह अंतर मूलभूत है। चिकित्सा को कार्यों के यांत्रिक निष्पादन से नहीं, बल्कि प्रतिकूल परिणामों की स्थिति में उत्तरदायित्व सौंपने से परिभाषित किया जाता है। नुस्खा लिखना तो सीधा है; लेकिन इसके परिणामों की ज़िम्मेदारी स्वीकार करना—विशेषकर सह-रुग्णताओं, सामाजिक संदर्भ, रोगी के मूल्यों या अधूरी जानकारी को ध्यान में रखते हुए—कहीं अधिक जटिल है। मेरे पूरे करियर में, यह ज़िम्मेदारी हमेशा एक ऐसे इंसान के पास रही है जिससे सवाल किया जा सकता है, जिसे चुनौती दी जा सकती है, जिसकी गलतियों को सुधारा जा सकता है और जिसे जवाबदेह ठहराया जा सकता है। जब डॉ. स्मिथ कोई गलती करते हैं, तो परिवार को पता होता है कि किससे संपर्क करना है, जिससे मानवीय जवाबदेही सुनिश्चित होती है। कोई भी एल्गोरिदम, चाहे वह कितना भी परिष्कृत क्यों न हो, इस भूमिका को पूरा नहीं कर सकता।
मुख्य जोखिम तकनीकी नहीं, बल्कि नियामक और दार्शनिक है। यह परिवर्तन नैतिक मूल्यों से प्रक्रियावाद की ओर बदलाव को दर्शाता है। जब कानून निर्माता और संस्थाएं चिकित्सा संबंधी निर्णय लेने को व्यक्तिगत कार्यों के बजाय प्रणालियों के एक कार्य के रूप में पुनर्परिभाषित करते हैं, तो चिकित्सा का नैतिक ढांचा बदल जाता है। जवाबदेही अस्पष्ट हो जाती है, नुकसान का कारण निर्धारित करना अधिक कठिन हो जाता है, और जिम्मेदारी चिकित्सकों से प्रक्रियाओं पर, निर्णय से प्रोटोकॉल पालन पर स्थानांतरित हो जाती है। जब त्रुटियां अनिवार्य रूप से होती हैं, तो प्रचलित स्पष्टीकरण यह बन जाता है कि 'प्रणाली ने स्थापित दिशानिर्देशों का पालन किया।' इस परिवर्तन को पहचानना व्यक्तिगत नैतिक निर्णय लेने से मशीनीकृत प्रक्रियात्मक अनुपालन की ओर बदलाव को स्पष्ट करता है।
यह चिंता केवल सैद्धांतिक नहीं है। समकालीन स्वास्थ्य सेवा पहले से ही जवाबदेही में कमी से संबंधित चुनौतियों का सामना कर रही है। मैंने देखा है कि एल्गोरिदम-आधारित निर्णयों से पीड़ित मरीज प्रशासकों, विक्रेताओं और अस्पष्ट मॉडलों के बीच गुम हो जाते हैं, और इस मूलभूत प्रश्न का कोई स्पष्ट उत्तर नहीं मिलता: यह निर्णय किसने लिया? कृत्रिम बुद्धिमत्ता इस समस्या को और भी बढ़ा देती है। एक एल्गोरिदम नैतिक स्पष्टीकरण नहीं दे सकता, विवेक के आधार पर संयम नहीं बरत सकता, नैतिक चिंताओं के कारण कार्यों को अस्वीकार नहीं कर सकता, या किसी मरीज या परिवार के सामने अपनी गलती स्वीकार नहीं कर सकता।
कृत्रिम बुद्धिमत्ता (एआई) की स्वायत्तता बढ़ाने के समर्थक अक्सर दक्षता को इसके औचित्य के रूप में प्रस्तुत करते हैं। क्लीनिकों में मरीजों की संख्या अत्यधिक है, चिकित्सक तनावग्रस्त हो रहे हैं, और मरीज अक्सर उस उपचार के लिए महीनों इंतजार करते हैं जिसमें केवल कुछ मिनट लगने चाहिए। ये चिंताएँ जायज़ हैं, और कोई भी ईमानदार चिकित्सक इन्हें समझता है। हालाँकि, केवल दक्षता ही चिकित्सा के नैतिक आधार को बदलने का औचित्य नहीं है। गति और व्यापकता के लिए अनुकूलित प्रणालियाँ अक्सर बारीकियों, विवेक और व्यक्तिगत गरिमा का त्याग कर देती हैं। ऐतिहासिक रूप से, चिकित्सा ने इस प्रवृत्ति का विरोध करते हुए इस बात पर जोर दिया है कि देखभाल मूल रूप से एक संबंध है, न कि लेन-देन।
कृत्रिम बुद्धिमत्ता इस रिश्ते को उलटने का जोखिम पैदा करती है। जब व्यक्ति के बजाय प्रणालियाँ देखभाल प्रदान करती हैं, तो रोगी चिकित्सक के साथ किसी समझौते में नहीं रहता बल्कि एक कार्यप्रवाह का हिस्सा बन जाता है। चिकित्सक मशीन पर्यवेक्षक की भूमिका निभाता है या, इससे भी अधिक चिंताजनक रूप से, उन निर्णयों के लिए कानूनी सुरक्षा कवच के रूप में कार्य करता है जो उसने स्वयं नहीं लिए हैं। समय के साथ, नैदानिक निर्णय प्रोटोकॉल के पालन के आगे फीके पड़ जाते हैं, और नैतिक दायित्व धीरे-धीरे कम होता जाता है।
कृत्रिम बुद्धिमत्ता एक सूक्ष्म और अधिक खतरनाक समस्या भी पैदा करती है: अनिश्चितता का छिपाव। चिकित्सा अस्पष्टता पर आधारित है। साक्ष्य संभाव्यता पर आधारित होते हैं। दिशानिर्देश अस्थायी होते हैं। मरीज़ों का डेटा शायद ही कभी स्पष्ट होता है। चिकित्सकों को न केवल कार्रवाई करना सिखाया जाता है, बल्कि संकोच करना भी सिखाया जाता है—यह पहचानना कि कब जानकारी अपर्याप्त है, कब हस्तक्षेप लाभ से अधिक हानि पहुंचा सकता है, या कब प्रतीक्षा करना ही उचित है। एक ऐसे परिदृश्य की कल्पना कीजिए जिसमें कृत्रिम बुद्धिमत्ता डिस्चार्ज की सिफारिश करती है, लेकिन मरीज़ का जीवनसाथी भयभीत प्रतीत होता है, जो एल्गोरिथम निर्णय लेने और मानवीय अंतर्ज्ञान के बीच तनाव को उजागर करता है। इस तरह का वास्तविक दुनिया का टकराव अस्पष्टता के महत्व को रेखांकित करता है।
कृत्रिम बुद्धिमत्ता प्रणालियाँ अनिश्चितता का अनुभव नहीं करतीं; वे परिणाम उत्पन्न करती हैं। गलत होने पर भी, वे अक्सर अनुचित आत्मविश्वास के साथ ऐसा करती हैं। यह विशेषता प्रोग्रामिंग की खामी नहीं, बल्कि सांख्यिकीय मॉडलिंग की एक अंतर्निहित विशेषता है। अनुभवी चिकित्सकों के विपरीत, जो खुले तौर पर संदेह व्यक्त करते हैं, बड़े भाषा मॉडल और मशीन-लर्निंग प्रणालियाँ अपनी सीमाओं को पहचान नहीं पातीं। वे अपर्याप्त डेटा होने पर भी विश्वसनीय प्रतिक्रियाएँ देती हैं। चिकित्सा में, प्रमाण के बिना विश्वसनीयता खतरनाक हो सकती है।
जैसे-जैसे ये प्रणालियाँ नैदानिक कार्यप्रवाहों में पहले से ही एकीकृत होती जाती हैं, इनके परिणाम बाद के निर्णयों को अधिकाधिक प्रभावित करने लगते हैं। समय के साथ, चिकित्सक अनुशंसाओं पर उनकी वैधता के कारण नहीं, बल्कि उनके सामान्य हो जाने के कारण भरोसा करने लगते हैं। निर्णय लेने की प्रक्रिया धीरे-धीरे सक्रिय तर्क से निष्क्रिय स्वीकृति की ओर स्थानांतरित हो जाती है। ऐसी परिस्थितियों में, 'मानव हस्तक्षेप' केवल एक प्रतीकात्मक सुरक्षा कवच के रूप में ही कार्य करता है।
समर्थक अक्सर यह दावा करते हैं कि एआई चिकित्सकों की जगह नहीं लेगा, बल्कि केवल उनकी सहायता करेगा। हालांकि, यह आश्वासन भरोसेमंद नहीं है। एक बार जब एआई दक्षता में सुधार प्रदर्शित कर देता है, तो आर्थिक और संस्थागत दबावों के कारण इसकी स्वायत्तता बढ़ने लगती है। यदि कोई प्रणाली सुरक्षित रूप से नुस्खे दोबारा भर सकती है, तो उसे जल्द ही नुस्खे लिखने की अनुमति दी जा सकती है। यदि यह सामान्य बीमारियों का सटीक निदान कर सकता है, तो चिकित्सक द्वारा समीक्षा की आवश्यकता पर सवाल उठने लगते हैं। यदि यह नियंत्रित मानकों में मनुष्यों से बेहतर प्रदर्शन करता है, तो मानवीय भिन्नता के प्रति सहनशीलता कम हो जाती है।
इन रुझानों को देखते हुए, विशिष्ट सुरक्षा उपायों को लागू करना आवश्यक है। उदाहरण के लिए, एआई-आधारित निर्णयों के 5% पर अनिवार्य विसंगति ऑडिट एक ठोस जाँच के रूप में कार्य कर सकता है, जिससे एआई अनुशंसाओं और मानव नैदानिक निर्णय के बीच सामंजस्य सुनिश्चित हो सके, साथ ही नियामकों और अस्पताल बोर्डों को एआई एकीकरण की निगरानी के लिए कार्रवाई योग्य मापदंड मिल सकें।
ये प्रश्न दुर्भावना से नहीं पूछे गए हैं; लागत नियंत्रण और विस्तारशीलता पर केंद्रित प्रणालियों में ये स्वाभाविक रूप से उभरते हैं। हालांकि, ये एक ऐसे भविष्य की ओर इशारा करते हैं जहां मानवीय निर्णय सामान्य नियम के बजाय अपवाद बन जाएगा। ऐसे परिदृश्य में, संसाधन संपन्न व्यक्तियों को मानवीय देखभाल मिलती रहेगी, जबकि अन्य स्वचालित प्रक्रियाओं के माध्यम से निर्देशित होंगे। दो-स्तरीय चिकित्सा प्रणाली विचारधारा से नहीं, बल्कि अनुकूलन से उत्पन्न होगी।
इस समय की सबसे नाजुक बात यह है कि जवाबदेही की कोई स्पष्ट रेखा नहीं है। जब एआई-आधारित निर्णय किसी मरीज को नुकसान पहुंचाता है, तो कौन जिम्मेदार होता है? क्या सिस्टम की नाममात्र की देखरेख करने वाला चिकित्सक? इसे लागू करने वाला संस्थान? मॉडल को प्रशिक्षित करने वाला विक्रेता? या इसके उपयोग को मंजूरी देने वाला नियामक? स्पष्ट उत्तरों के अभाव में, जिम्मेदारी खत्म हो जाती है। और जब जिम्मेदारी खत्म हो जाती है, तो विश्वास भी जल्द ही टूट जाता है।
चिकित्सा मूल रूप से भरोसे पर आधारित है। मरीज़ अपना शरीर, अपनी आशंकाएँ और अक्सर अपना जीवन भी चिकित्सकों के हाथों में सौंप देते हैं। यह भरोसा किसी एल्गोरिदम को नहीं सौंपा जा सकता, चाहे वह कितना भी परिष्कृत क्यों न हो। यह इस आश्वासन पर टिका है कि एक इंसान मौजूद है—कोई ऐसा व्यक्ति जो सुनने, परिस्थितियों के अनुसार ढलने और अपने कार्यों के लिए जवाबदेह होने में सक्षम है।
कृत्रिम बुद्धिमत्ता को पूरी तरह से नकारना अनावश्यक है। विवेकपूर्ण उपयोग से एआई प्रशासनिक कार्यों का बोझ कम कर सकता है, उन पैटर्न की पहचान कर सकता है जो मनुष्यों की पकड़ से परे हो सकते हैं, और नैदानिक निर्णय लेने में सहायता कर सकता है। यह चिकित्सकों को प्रशासनिक कार्यों के बजाय रोगी देखभाल पर अधिक समय देने में सक्षम बना सकता है। हालांकि, इस भविष्य को साकार करने के लिए चिकित्सा पद्धति के मूल में मानवीय उत्तरदायित्व को बनाए रखने की स्पष्ट प्रतिबद्धता आवश्यक है।
'मानव हस्तक्षेप' का अर्थ केवल प्रतीकात्मक निगरानी से कहीं अधिक होना चाहिए। इसमें यह अनिवार्य होना चाहिए कि प्रत्येक चिकित्सा निर्णय के लिए एक विशिष्ट व्यक्ति जिम्मेदार हो, उसके पीछे के तर्क को समझे और एल्गोरिथम संबंधी अनुशंसाओं को रद्द करने का अधिकार और दायित्व दोनों उसके पास हों। इसमें पारदर्शिता, स्पष्टता और रोगी की सूचित सहमति के साथ-साथ कृत्रिम बुद्धिमत्ता (एआई) के बजाय मानव चिकित्सकों में निवेश करने की प्रतिबद्धता भी शामिल होनी चाहिए।
मुख्य खतरा कृत्रिम बुद्धिमत्ता की अत्यधिक शक्ति नहीं है, बल्कि संस्थानों की जिम्मेदारी से पल्ला झाड़ने की प्रवृत्ति है। दक्षता और नवाचार की खोज में, यह खतरा है कि चिकित्सा एक तकनीकी रूप से उन्नत, प्रशासनिक रूप से सुव्यवस्थित क्षेत्र तो बन जाएगी, लेकिन नैतिक मूल्यों से रहित हो जाएगी।
भविष्य पर विचार करते हुए, यह प्रश्न पूछना आवश्यक है: 2035 में हम रोगी के पास किस प्रकार के चिकित्सक की कल्पना करते हैं? यह प्रश्न सामूहिक नैतिक कल्पना को प्रेरित करता है, और हमें एक ऐसे भविष्य को आकार देने के लिए प्रोत्साहित करता है जहाँ मानवीय उत्तरदायित्व और करुणापूर्ण देखभाल चिकित्सा पद्धति के केंद्र में बनी रहे। कृत्रिम बुद्धिमत्ता में प्रगति इन मूलभूत मूल्यों को कमजोर करने के बजाय मजबूत करे, यह सुनिश्चित करने के लिए सामूहिक प्रयास को सक्रिय करना महत्वपूर्ण होगा।
कृत्रिम बुद्धिमत्ता को चिकित्सा क्षेत्र में काम करने का लाइसेंस नहीं दिया गया है। लेकिन चिकित्सा को चुपचाप ऐसी प्रणालियों के इर्द-गिर्द पुनर्परिभाषित किया जा रहा है जिनका कोई नैतिक महत्व नहीं है। यदि यह प्रक्रिया बिना रोक-टोक के जारी रही, तो एक दिन हम पाएंगे कि चिकित्सक की जगह मशीन ने नहीं, बल्कि एक प्रोटोकॉल ने ले ली है—और जब कोई नुकसान होगा, तो उसके लिए कोई जवाबदेह नहीं बचेगा।
यह प्रगति नहीं होगी। यह तो पदत्याग होगा।
-
जोसेफ वरोन, एमडी, एक क्रिटिकल केयर फिजिशियन, प्रोफ़ेसर और इंडिपेंडेंट मेडिकल अलायंस के अध्यक्ष हैं। उन्होंने 980 से ज़्यादा समकक्ष-समीक्षित प्रकाशन लिखे हैं और जर्नल ऑफ़ इंडिपेंडेंट मेडिसिन के प्रधान संपादक हैं।
सभी पोस्ट देखें