चैतन्य नागर |
तकनीक कभी-कभार कैसे भस्मासुर बन जाती है इसका खुलासा बनावटी बुद्धि उर्फ एआई पर इन दिनों जारी बहस-मुबाहिसे से हो रहा है। अपनी सुख-सुविधाओं की खातिर रची गई डिजिटल तकनीक अब तरह-तरह के संकटों की वजह बनती दिखाई दे रही है। क्या हैं, इसके निहितार्थ?
आइन्स्टाइन ने जब एटमबम से हुई तबाही को देखा तो उन्होंने कहा कि यदि मुझे पता होता कि मेरे गणितीय ज्ञान का इतना भयावह परिणाम होगा तो मैं आजीवन घड़ी बनाने में ही लगा रहता। डिजिटल युग के शुरू होने के समय लोग बहुत उत्साहित थे, पर बाद में जब इसके खतरे सामने आये, बच्चे इसके बुरी तरह शिकार होने लगे, व्यक्तिगत जानकारी सार्वजनिक होने लगी और साइबर अपराध बढ़ने लगे, तब लोगों को इसका अहसास हुआ कि यह सिर्फ एक वरदान भर नहीं; इसके अपने अभिशाप भी हैं।
अब डीपफेक की नई समस्या सामने आई है और स्वयं प्रधानमंत्री नरेंद्र मोदी ने भी इसके खतरे से लोगों को आगाह किया है। डीपफेक किसी को भी एक अन्य इंसान के रूप में बोलते, चलते और काम करते दिखा सकता है। हाल में वायरल हुए विडियो में अभिनेत्री रश्मिका मंधाना, प्रधानमंत्री और विराट कोहली को ऐसे प्रस्तुत किया गया है जैसा उन्होंने कभी नहीं किया। कल्पना कीजिये कि डीपफेक की मदद से अमेरिकी राष्ट्रपति जो बाइडन को किसी बड़े युद्ध की घोषणा करते हुए दिखा दिया जाए !
एआई (आर्टिफीशियल इंटेलिजेंस) या बनावटी बुद्धि को लेकर लोगों ने सजग होना शुरू कर दिया है। यह ऐसी समस्या है जो समाज के सभी वर्गों पर असर डाल सकती है। जिन बड़े उद्योगपतियों ने इस क्षेत्र में निवेश किया है वे खुद भी इसके खतरे के प्रति सतर्क हैं क्योंकि उन्हें अहसास है कि कहीं-न-कहीं, कभी इसका इस्तेमाल उनके खिलाफ भी किया जा सकता है। इनमें एलॉन मस्क भी शामिल हैं।
इस बारे में 2014 में एक फिल्म आई थी जिसका नाम था झ्र एक्स मशीन। इसकी नायिका एवा जो बनावटी बुद्धि से निर्मित एक चमत्कारिक मशीन है, यह साबित करती है कि कैसे वह बुद्धि में अपने इंसानी निमार्ताओं से आगे बढ़ सकती है। ऐसे निर्णय ले सकती है जिनके अकल्पनीय परिणाम हो सकते हैं और लोगों को पूरी तरह तबाह कर सकते हैं। एवा की कहानी बताती है कि हमें कृत्रिम बुद्धि को लेकर कितना अधिक सजग रहने की जरूरत है।
बड़ी समस्या यह है कि जिसे हम अपनी, स्वयं की स्वाभाविक, नैसर्गिक बुद्धि कहते हैं वह भी एक तरह से कृत्रिम है। वह हमारे सामाजिक, धार्मिक, शैक्षिक संस्कारों से, आपसी संबंधों के कारण उपजे पूर्वग्रहों का परिणाम है। ऐसे में देखा जाए तो हम अपनी इसी कृत्रिम और अक्सर विनाशकारी बुद्धि की मदद से एक और बनावटी बुद्धि निर्मित कर रहे हैं। यानी, एक कृत्रिमता दूसरी कृत्रिमता को निर्मित कर रही है। इजराइली इतिहासकार युवल नोआ हरारी ने कृत्रिम बुद्धि और बायो-टेक्नोलॉजी के मिले-जुले परिणाम से मानवता को आगाह किया है। इन दोनों के एक साथ काम करने पर मानव अस्तित्व से जुड़े कुछ बुनियादी सवाल पैदा होते हैं। इनका मिला-जुला परिणाम इंसान की इच्छाओं, उसके विचारों और भावनाओं को बदलने की ताकत रखता है। इसके अलावा सेंटर फॉर एआई सेफ्टी के एक वक्तव्य में एआई से जुड़े करीब तीन सौ पेशेवर लोगों ने इस टेक्नोलॉजी के खतरे के बारे में लोगों को आगाह किया है।
यदि बिजली की आपूर्ति और जल-वितरण प्रणाली का जिम्मा कृत्रिम बुद्धि पर आधारित किसी प्रणाली को दे दिया जाये तो समूची आबादी पर कितना भयावह खतरा पैदा हो सकता है? किसी तरह यह हैक हो जाये या इसमें गड़बड़ी आ जाए तो लोगों को किस संकट से जूझना पड़ेगा यह अकल्पनीय है। यदि ये प्रणालियाँ पूरी तरह कृत्रिम बुद्धि पर आधारित हो जाएँ, उनका कोई विकल्प ना बचे तो मुसीबत कई गुना बढ़ जायेगी। मान लीजिये किसी कारण से एआई नियंत्रण से बाहर हो गया, इसमें कोई ऐसा प्रोग्राम विकसित हो गया जो खुद-ब-खुद काम करने लगे, बगैर किसी मानवीय निर्देश के। ऐसे में क्या होगा?
कृत्रिम बुद्धि का विकास इस तरह से हो रहा है कि यह मनुष्य की बुद्धि से कई कदम आगे निकल सकती है। इसी कारण इसके बहुत खतरनाक होने की आशंका बढ़ जाती है। यह स्वयं को ही बेहतर बना सकती है और एक ऐसी सुपर इंटेलिजेंस विकसित कर सकती है जो मनुष्य की सामूहिक प्रज्ञा से कहीं आगे निकल जाए। किसी भ्रष्ट और विध्वंसकारी उद्देश्य से यदि इस अति-विकसित बुद्धि का उपयोग किया जाए तो इसके विनाशकारी परिणाम होंगे। असली चुनौती है कि कृत्रिम बुद्धि या एआई को किस तरह मानवीय मूल्यों के अनुरूप विकसित किया जाए।
अनियंत्रित एआई के खतरे असीमित हैं और इसे नियंत्रित करने वाला इंसान अभी भी लोभ, घृणा, युद्ध के महिमामंडन, आत्मविस्तार जैसी आदतों से बाहर नहीं निकल पाया है। एआई एक अनुशासनहीन मनुष्य के हाथ में पड़कर भस्मासुर का रूप ले सकती है। एआई को लेकर कोई वैश्विक दृष्टिकोण नहीं है। अलग-अलग देश अपने विकास के स्तर के आधार पर इस पर काम करेंगे। इसके केंद्र में हर देश का मकसद आत्मविस्तार और दूसरे देशों को कमतर साबित करना ही होगा, जैसा कि परमाणु हथियारों के मामले में किया जाता है।
यूरोपीय समुदाय ने हाल ही में कृत्रिम बुद्धि को लेकर जोखिम पर आधारित एक नीति बनाई है जिसके तहत उन क्षेत्रों में अधिक सतर्कता बरतने के लिए कहा गया है जहाँ कृत्रिम बुद्धि से जुड़ी तकनीक लागू की जानी है, पर यह एक सीमित दृष्टिकोण की तरफ इशारा करता है। यह बताना संभव नहीं कि जिन क्षेत्रों को जोखिम भरा नहीं माना जा रहा, वे भी आने वाले समय में जोखिम पैदा कर सकते हैं। जरूरत इस बात की है इस तरह की नीति को अधिक समावेशी और व्यापक बनाया जाए और उन क्षेत्रों की अनदेखी ना की जाये, जहाँ कृत्रिम बुद्धि के खतरे भविष्य में किसी संक्रमण की तरह फैल सकते हैं।
जरूरत इस बात की है कि इसे लेकर दुनिया के देशों में एक आम सहमति हो, क्योंकि यदि चीन और उत्तर कोरिया जैसे देश किसी नीति का पालन नहीं करते तो ऐसे जोखिम पैदा हो सकते हैं जो अभी दूर भविष्य में हैं, दिखाई नहीं दे रहे। कुछ देशों द्वारा विकास के नाम पर कृत्रिम बुद्धि का उपयोग पूरी दुनिया को ही ले डूबेगा। सामरिक क्षेत्र में कृत्रिम बुद्धि के खतरे असीमित हैं। सभी देशों को इस संबंध में स्पष्ट नतीजे पर पहुंचना जरूरी है कि वे परमाणु और रासायनिक हथियारों के उपयोग के संबंध में कृत्रिम बुद्धि का उपयोग किस सीमा तक करेंगे। जो फैसले हम आज करेंगे वे भविष्य की पीढ़ियों को बहुत अधिक प्रभावित करेंगे। किस हद तक उनके लिए खतरनाक होंगे, इसका अंदाजा भी हम आज नहीं लगा सकते।