अंतरराष्ट्रीय
मेलबर्न, 12 अप्रैल इजरायली सेना ने एक नई कृत्रिम बुद्धिमत्ता (एआई) प्रणाली का उपयोग करके गाजा में संभावित हवाई हमलों के लिए हजारों मानव लक्ष्यों की सूची तैयार की। पिछले सप्ताह प्रकाशित एक रिपोर्ट में यह जानकारी दी गई। रिपोर्ट गैर-लाभकारी आउटलेट +972 मैगज़ीन से आई है, जो इज़रायली और फ़लस्तीनी पत्रकारों द्वारा चलाया जाता है।
रिपोर्ट में इज़रायली ख़ुफ़िया विभाग के छह अज्ञात स्रोतों के साक्षात्कार का हवाला दिया गया है। सूत्रों का दावा है कि सिस्टम, जिसे लैवेंडर के नाम से जाना जाता है, का उपयोग अन्य एआई सिस्टम के साथ संदिग्ध आतंकवादियों को लक्षित करने और उनकी हत्या करने के लिए किया गया था - जिनमें से कई अपने ही घरों में थे - जिससे बड़ी संख्या में नागरिक हताहत हुए।
गार्डियन की एक अन्य रिपोर्ट के अनुसार, +972 रिपोर्ट के समान स्रोतों के आधार पर, एक खुफिया अधिकारी ने कहा कि सिस्टम ने बड़ी संख्या में हमलों को अंजाम देना ‘‘आसान बना दिया’’, क्योंकि ‘‘मशीन ने इसे ठंडे दिमाग से किया’’।
जैसा कि दुनिया भर की सेनाएं एआई का उपयोग करने की होड़ में हैं, ये रिपोर्टें हमें दिखाती हैं कि यह कैसा दिख सकता है: सीमित सटीकता और कम मानवीय निरीक्षण के साथ मशीन-स्पीड युद्ध, जिसमें नागरिकों को भारी नुकसान होगा।
इज़रायली रक्षा बल इन रिपोर्टों में कई दावों का खंडन करता है। गार्जियन को दिए एक बयान में, उसने कहा कि वह ‘‘आतंकवादी गुर्गों की पहचान करने वाली कृत्रिम बुद्धिमत्ता प्रणाली का उपयोग नहीं करता है’’। इसमें कहा गया है कि लैवेंडर एक एआई सिस्टम नहीं है बल्कि ‘‘सिर्फ एक डेटाबेस है जिसका उद्देश्य खुफिया स्रोतों को क्रॉस-रेफरेंस करना है’’।
लेकिन 2021 में, येरूसलम पोस्ट ने एक खुफिया अधिकारी की रिपोर्ट में कहा कि इज़राइल ने अपना पहला ‘‘एआई युद्ध’’ जीता है। डेटा का निरीक्षण करने और लक्ष्य तैयार करने के लिए वह कई मशीन लर्निंग सिस्टम का उपयोग कर रहा है।
उसी वर्ष द ह्यूमन-मशीन टीम नामक एक पुस्तक, जिसमें एआई-संचालित युद्ध के दृष्टिकोण को रेखांकित किया गया था, एक लेखक द्वारा छद्म नाम के तहत प्रकाशित की गई थी, जिसे हाल ही में एक प्रमुख इजरायली गुप्त खुफिया इकाई का प्रमुख बताया गया था।
पिछले साल, एक अन्य +972 रिपोर्ट में कहा गया था कि इज़राइल संभावित आतंकवादी इमारतों और बमबारी सुविधाओं की पहचान करने के लिए हब्सोरा नामक एक एआई सिस्टम का भी उपयोग करता है। रिपोर्ट के अनुसार, हब्सोरा ‘‘लगभग स्वचालित रूप से’’ लक्ष्य उत्पन्न करता है, और एक पूर्व खुफिया अधिकारी ने इसे ‘‘सामूहिक हत्या का कारखाना’’ बताया।
हालिया +972 रिपोर्ट में एक तीसरी प्रणाली का भी दावा किया गया है, जिसे व्हेयर इज डैडी? कहा जाता है, जो लैवेंडर द्वारा पहचाने गए लक्ष्यों की निगरानी करती है और जब वे अपने परिवार के पास घर लौटते हैं तो सेना को सचेत करती है।
कई देश सैन्य बढ़त की तलाश में एल्गोरिदम की ओर रुख कर रहे हैं। अमेरिकी सेना का प्रोजेक्ट मावेन एआई लक्ष्यीकरण की आपूर्ति करता है जिसका उपयोग मध्य पूर्व और यूक्रेन में किया गया है। चीन भी डेटा का विश्लेषण करने, लक्ष्यों का चयन करने और निर्णय लेने में सहायता के लिए एआई सिस्टम विकसित करने की ओर अग्रसर है।
सैन्य एआई के समर्थकों का तर्क है कि यह तेजी से निर्णय लेने, अधिक सटीकता और युद्ध में हताहतों की संख्या को कम करने में मदद करेगा।
वैसे पिछले साल, मिडिल ईस्ट आई ने बताया कि एक इजरायली खुफिया कार्यालय ने कहा कि गाजा में प्रत्येक एआई-जनित लक्ष्य की मानव समीक्षा करना ‘‘बिल्कुल भी संभव नहीं है’’। एक अन्य सूत्र ने +972 को बताया कि वे व्यक्तिगत रूप से ‘‘प्रत्येक लक्ष्य के लिए 20 सेकंड लगाएंगे’’ जो केवल अनुमोदन से ज्यादा और कुछ नहीं होगा।
नवीनतम रिपोर्ट पर इजरायली रक्षा बल की प्रतिक्रिया में कहा गया है, ‘‘विश्लेषकों को स्वतंत्र परीक्षा आयोजित करनी चाहिए, जिसमें वे सत्यापित करें कि पहचाने गए लक्ष्य अंतरराष्ट्रीय कानून के अनुसार प्रासंगिक परिभाषाओं को पूरा करते हैं’’।
सटीकता के लिए, नवीनतम +972 रिपोर्ट में दावा किया गया है कि लैवेंडर पहचान और क्रॉस-चेकिंग की प्रक्रिया को स्वचालित करता है ताकि यह सुनिश्चित किया जा सके कि संभावित लक्ष्य हमास का एक वरिष्ठ सैन्य व्यक्ति है। रिपोर्ट के अनुसार, लैवेंडर ने निम्न-रैंकिंग कर्मियों और साक्ष्य के कमजोर मानकों को शामिल करने के लिए लक्ष्यीकरण मानदंडों को ढीला कर दिया, और ‘‘लगभग 10 प्रतिशत मामलों’’ में त्रुटियां कीं।
रिपोर्ट में यह भी दावा किया गया है कि एक इजरायली खुफिया अधिकारी ने बताया है कि व्हेयर इज डैडी? से जानकारी मिलने पर प्रणाली, लक्ष्यों पर ‘‘बिना किसी हिचकिचाहट के, पहले विकल्प के तौर पर’’ उनके घरों पर बमबारी करेगी, जिससे नागरिक हताहत होंगे। इज़रायली सेना का कहना है कि वह ‘‘हजारों लोगों को उनके घरों में मारने की किसी भी नीति के दावे को सिरे से खारिज करती है’’।
जैसे-जैसे एआई का सैन्य उपयोग आम होता जा रहा है, नैतिक और कानूनी चिंताओं पर बहुत कम ध्यान दिया गया है। सैन्य एआई के बारे में अभी तक कोई स्पष्ट, सार्वभौमिक रूप से स्वीकृत या कानूनी रूप से बाध्यकारी नियम नहीं हैं।
संयुक्त राष्ट्र दस वर्षों से अधिक समय से ‘‘घातक स्वायत्त हथियार प्रणालियों’’ पर चर्चा कर रहा है। ये उपकरण ऐसे हैं जो मानव इनपुट के बिना लक्ष्य साधने और फायरिंग करने का निर्णय ले सकते हैं, जिन्हें कभी-कभी ‘‘हत्यारे रोबोट’’ के रूप में जाना जाता है।
संयुक्त राष्ट्र महासभा ने यह सुनिश्चित करने के लिए एक नए मसौदा प्रस्ताव के पक्ष में मतदान किया कि एल्गोरिदम को ‘‘हत्या से जुड़े निर्णयों पर पूर्ण नियंत्रण नहीं होना चाहिए’’। पिछले अक्टूबर में, अमेरिका ने एआई और स्वायत्तता के जिम्मेदार सैन्य उपयोग पर एक घोषणा भी जारी की, जिसे तब से 50 अन्य देशों ने समर्थन दिया है। सैन्य एआई के जिम्मेदार उपयोग पर पहला शिखर सम्मेलन भी पिछले साल नीदरलैंड और कोरिया गणराज्य की सह-मेजबानी में आयोजित किया गया था।
कुल मिलाकर, सैन्य एआई के उपयोग पर अंतरराष्ट्रीय नियम उच्च तकनीक, एआई-सक्षम युद्ध के लिए देशों और हथियार कंपनियों के उत्साह के साथ तालमेल रखने के लिए संघर्ष कर रहे हैं।
एआई-सक्षम उत्पाद बनाने वाले कुछ इज़राइली स्टार्टअप कथित तौर पर गाजा में अपने उपयोग को विक्रय बिंदु बना रहे हैं। फिर भी गाजा में एआई सिस्टम के उपयोग पर रिपोर्टिंग से पता चलता है कि एआई गंभीर मानवीय नुकसान भले पहुंचा ले, लेकिन सटीक युद्ध के सपने को पूरा करने के मामले में बहुत पीछे है।
एआई सुझावों को बिना किसी मानवीय जांच के स्वीकार करना भी संभावित लक्ष्यों के दायरे को बढ़ाता है, जिससे अधिक नुकसान होता है।
लैवेंडर और हब्सोरा पर रिपोर्ट हमें दिखाती है कि वर्तमान सैन्य एआई पहले से ही क्या करने में सक्षम है। सैन्य एआई के भविष्य के जोखिम और भी बढ़ सकते हैं।
उदाहरण के लिए, चीनी सैन्य विश्लेषक चेन हंगहुई ने भविष्य की ‘‘युद्धक्षेत्र विलक्षणता’’ की कल्पना की है, जिसमें मशीनें निर्णय लेती हैं और इतनी तेज़ गति से कार्रवाई करती हैं कि कोई इंसान उनका अनुसरण नहीं कर सकता। इस परिदृश्य में, हम दर्शकों या हताहतों से अधिक कुछ नहीं रह गये हैं।
इस साल की शुरुआत में प्रकाशित एक अध्ययन में एक और चेतावनी दी गई थी। (द कन्वरसेशन)