आजकल

हिटलर से अरब-खरब गुना बुरा तानाशाह खड़ा न करें..
25-Jun-2023 5:05 PM
हिटलर से अरब-खरब गुना बुरा तानाशाह खड़ा न करें..

ऑर्टिफिशियल इंटेलीजेंस को लेकर रोज कई किस्म की चर्चाएँ सामने आ रही हैं, और मैं भी इसी पन्ने पर कुछ बार इस बारे में लिख चुका हूं। अब कुछ लोगों का ऐसा अंदाज है कि ऑर्टिफिशियल इंटेलीजेंस मानव बुद्धि के मुकाबले इतना आगे निकल जाएगा कि दुनिया के दूसरे ग्रहों पर अगर कोई प्राणी हैं, और अगर वे धरती के लोगों से संपर्क करेंगे, तो वे धरती पर हो सकता है कि सबसे पहले ऑर्टिफिशियल इंटेलीजेंस से संपर्क करें, बजाय इंसानों के। यह बात कुछ अटपटी लग सकती है, लेकिन कृत्रिम बुद्धि आज भी बहुत से मामलों में मानवीय बुद्धि को पार कर चुकी है, और एक ऐसी आशंका है कि जल्द ही आज चल रही रिसर्च ऑर्टिफिशियल इंटेलीजेंस को इंसानी समझ से आगे ले जा सकती है। ऐसे में हो सकता है कि कृत्रिम बुद्धि और दूसरे ग्रहों के प्राणी एक-दूसरे से संपर्क करने में, एक-दूसरों के संदेश समझने में इंसानों के मुकाबले अधिक काबिल साबित हों। 

आज दुनिया के बहुत से वैज्ञानिक, शोधकर्ता, और ऑर्टिफिशियल इंटेलीजेंस के कारोबारी यह सार्वजनिक मांग कर चुके हैं कि कृत्रिम बुद्धि पर आगे शोधकार्य रोक देना चाहिए, क्योंकि नया विकास इसकी ताकत को तो अंधाधुंध बढ़ा दे रहा है, लेकिन इससे पैदा होने वाले खतरों का अंदाज लगाने की भी ताकत इंसानी समझ में पूरी तरह नहीं है। ऐसा माना जा रहा है कि कृत्रिम बुद्धि का ऐसा ही विकास अगर जारी रहा तो वह बहुत जल्द इंसानों पर काबू पाने की हालत में आ जाएगी, और चूंकि वह इंसानों की तरह की सभ्यता और संस्कृति की नीति और समझ के बोझ से लदी हुई नहीं होगी, वह इंसानी सभ्यता को, और इंसानियत कही जाने वाली बात को पल भर में खत्म भी कर सकती है, और अपनी समझ के फैसलों को सही मानते हुए दुनिया को खत्म कर सकती है। 

इस बात को इस तरह से समझने की जरूरत है कि वैज्ञानिकों ने उस बम को तो बना लिया था जिसे अमरीका के नेताओं ने जापान के हिरोशिमा-नागासाकी पर गिराया था, लेकिन वैज्ञानिक-समझ बम की क्षमता तक सीमित थी, उससे होने वाली तबाही और दुनिया में हथियारों की दौड़ न तो उनकी समझ की बात थी, और न ही उनका एजेंडा थी। इसलिए जब विज्ञान और टेक्नालॉजी बिना नैतिकता के, बिना मानवीयता के काम करते हैं, तो वे तबाही के किसी भी किस्म के सामान बना सकते हैं। यह हाल तब है जब वैज्ञानिक और शोधकर्ता अपनी विशेषज्ञता के दायरे में अपनी कामयाबी के नशे में डूबे हुए भी कहीं न कहीं इंसानियत पर टिके रहते हैं। लेकिन ऑर्टिफिशियल इंटेलीजेंस ऐसे किसी भी नैतिक दबाव से पूरी तरह आजाद हो सकता है। 

एक छोटी सी कल्पना अगर सामने रखें, कि ऑर्टिफिशियल इंटेलीजेंस को अगर यह सूझ जाएगा कि इंसान धरती के पर्यावरण को, धरती को बर्बाद कर रहे हैं, और धरती के करोड़ों अलग-अलग प्राणियों की नस्लों को, पेड़-पौधों की किस्मों को खत्म कर रहे हैं, उनका हक छीन रहे हैं, इंसान धरती को दे कुछ भी नहीं रहे हैं, और उसे हमेशा के लिए बर्बाद कर दे रहे हैं, तो हो सकता है कि ऑर्टिफिशियल इंटेलीजेंस यह तय कर ले कि धरती से ऐसे इंसानों का खत्म हो जाना इस ग्रह के लिए बेहतर होगा, और इसमें कुछ गिने-चुने इंसानों को बचाकर एक बार फिर मानवीय नस्ल बढ़ाई जा सकेगी। ऑर्टिफिशियल इंटेलीजेंस यह भी तय कर सकेगा कि आगे बढ़ाने के लिए वैज्ञानिक पैमानों पर किन नस्लों के लोग सबसे अच्छे होंगे, उनमें कौन से लोग बेहतर होंगे, ऐसे कुछ हजार, लाख या कुछ करोड़ लोगों को छोडक़र ऑर्टिफिशियल इंटेलीजेंस यह भी तय कर सकता है कि बाकी तमाम लोगों को किस तरह खत्म किया जाए। आज भी जो लोग ऑर्टिफिशियल इंटेलीजेंस की मौजूदा क्षमता को देखते हुए उसकी विध्वंसकारी ताकत का अंदाज लगा रहे हैं, उनका मानना है कि यह अपनी मर्जी से दुनिया में किसी भी दर्जे की तबाही ला सकता है, कितने भी लोगों को खत्म कर सकता है। यही वजह है कि एआई के रिसर्च और कारोबार में लगे हुए सैकड़ों और हजारों लोग इसके खिलाफ अभी खड़े हुए हैं कि इसे और आगे न बढ़ाया जाए। 

लोगों को एक कहानी याद होगी कि किस तरह किसी गुरू के चार शिष्य हाड़-मांस जोडक़र एक शेर खड़ा करते हैं, और फिर अपनी काबिलीयत परखने के लिए उसमें प्राण भी फूंक देते हैं, और जैसे ही वह शेर जिंदा होता है, वह इन्हीं शिष्यों को खा जाता है। इसलिए इंसानों को आज ऑर्टिफिशियल इंटेलीजेंस को और अधिक ताकतवर, और अधिक काबिल बनाने की अपनी क्षमता को अधिक परखने का खतरा नहीं उठाना चाहिए। जिसके खतरे इंसानी समझ से परे हैं, महज उसकी संभावनाओं को टटोलने के लिए उसकी ताकत बढ़ाते चलना इसी किस्म के शेर को खड़ा करना होगा। 

अमरीका के प्रतिष्ठित विश्वविद्यालय हार्वर्ड के एक प्रोफेसर ने दूसरे ग्रहों के प्राणियों से संपर्क की किसी संभावना को लेकर ऑर्टिफिशियल इंटेलीजेंस का जो खतरा बताया है, वह इसके खतरों की महज एक कल्पना है, ऐसी अनगिनत और स्थितियां आ सकती हैं जिनमेंं ऑर्टिफिशियल इंटेलीजेंस इंसानों के लिए, दूसरे प्राणियों और प्रकृति के लिए, पूरी की पूरी धरती के लिए जानलेवा हो सकता है। वह दुनिया में तीसरे विश्व युद्ध को रोकने के लिए परमाणु हथियारों को खतरनाक पाएगा, और पूरी दुनिया के परमाणु हथियारों के जखीरों को एक साथ खत्म करना तय कर लेगा, तो इससे महज हथियार खत्म नहीं होंगे, पूरी दुनिया ही खत्म हो जाएगी। ऑर्टिफिशियल इंटेलीजेंस अगर किसी देश की आबादी को जुल्मी पाएगा, तो हो सकता है उसके खिलाफ कोरोना जैसे किसी वायरस का हमला तय कर ले, अगर उसे लगेगा कि दुनिया को कोयले के प्रदूषण से बचाना है, तो वह दुनिया भर के कोयला-बिजलीघरों को बंद और खत्म करने के लिए पल भर में तरीके ढूंढ लेगा, खदानों को तबाह कर देगा, बिजलीघरों को ठप्प कर देगा, बिजली के ग्रिड बर्बाद कर देगा। जिन कारखानों के प्रदूषण उसे धरती के लिए नुकसानदेह लगेंगे, उन कारखानों को वह तबाह कर देगा। ऑर्टिफिशियल इंटेलीजेंस अपने आपमें दुनिया का सबसे खतरनाक तानाशाह बनने की पूरी ताकत रखेगा, इसलिए हिटलर से अरब-खरब गुना अधिक ताकतवर एक तानाशाह खड़ा करने की जिद छोडऩी चाहिए, और जब तक ऑर्टिफिशियल इंटेलीजेंस के खतरों से बचाव के रास्ते न सूझ जाएं, तब तक उसमें और प्राण नहीं फूंकने चाहिए। ये तमाम खतरे तो आज लोगों को सूझ रहे हैं, लेकिन कृत्रिम बुद्धि लोगों की कल्पनाओं से परे नए खतरे सोच सकती है, नई बर्बादी कर सकती है।  

(क्लिक करें : सुनील कुमार के ब्लॉग का हॉट लिंक)

अन्य पोस्ट

Comments

chhattisgarh news

cg news

english newspaper in raipur

hindi newspaper in raipur
hindi news