मेलबर्न, पिछले सप्ताह प्रकाशित एक रिपोर्ट के अनुसार, इजरायली सेना ने गाजा में संभावित हवाई हमलों के लिए हजारों मानव लक्ष्यों की सूची तैयार करने के लिए एक नई कृत्रिम बुद्धिमत्ता (एआई) प्रणाली का उपयोग किया। यह रिपोर्ट गैर-लाभकारी आउटलेट +972 मैगज़ीन से आई है, जो इज़रायली और फ़िलिस्तीनी पत्रकारों द्वारा चलाया जाता है।

रिपोर्ट में इजरायली खुफिया विभाग के छह अज्ञात स्रोतों के साथ साक्षात्कार का हवाला दिया गया है। सूत्रों का दावा है कि सिस्टम, जिसे लैवेंडर के नाम से जाना जाता है, का उपयोग संदिग्ध आतंकवादियों को लक्षित करने और उनकी हत्या करने के लिए अन्य एआई सिस्टम के साथ किया गया था - कई अपने घरों में ही बड़ी संख्या में नागरिक हताहत हुए।

गार्जियन की एक अन्य रिपोर्ट के अनुसार, +972 रिपोर्ट के समान स्रोतों के आधार पर, एक खुफिया अधिकारी ने कहा कि सिस्टम ने बड़ी संख्या में हमलों को अंजाम देना "आसान बना दिया", क्योंकि "मशीन ने इसे ठंडे बस्ते में डाल दिया"।जैसा कि दुनिया भर की सेनाएं एआई का उपयोग करने की होड़ में हैं, ये रिपोर्टें हमें दिखाती हैं कि यह कैसा दिखता है: सीमित सटीकता और थोड़ी मानवीय निगरानी के साथ मशीन-स्पीड युद्ध, जिसमें नागरिकों के लिए उच्च लागत होती है।

इज़रायली रक्षा बल इन रिपोर्टों में कई दावों का खंडन करता है। गार्जियन को दिए बयान में, इसने कहा कि यह "आतंकवादी गुर्गों की पहचान करने वाली कृत्रिम खुफिया प्रणाली का उपयोग नहीं करता है"। इसमें कहा गया है कि लैवेंडर एक ए सिस्टम नहीं है बल्कि "केवल एक डेटाबेस है जिसका उद्देश्य इंटेलिजेंट स्रोतों को क्रॉस-रेफरेंस करना है"।

लेकिन 2021 में, जेरूसलम पोस्ट ने एक खुफिया अधिकारी की रिपोर्ट में कहा कि इज़राइल ने अपना पहला "एआई युद्ध" जीता है - हमास के साथ पहले का संघर्ष - डेटा को छानने और लक्ष्य तैयार करने के लिए कई मशीन लर्निंग सिस्टम का उपयोग कर रहा है।उसी वर्ष द ह्यूमन-मशीन टीम नामक एक पुस्तक, जिसमें एआई-संचालित युद्ध की रूपरेखा प्रस्तुत की गई थी, एक छद्म नाम के तहत एक लेखक द्वारा प्रकाशित की गई थी, जिसे हाल ही में एक प्रमुख इजरायली गुप्त खुफिया इकाई का प्रमुख बताया गया था।

पिछले साल, एक अन्य +972 रिपोर्ट में कहा गया था कि इज़राइल संभावित आतंकवादी इमारतों और बमबारी सुविधाओं की पहचान करने के लिए हैब्सोर नामक एआई प्रणाली का भी उपयोग करता है। रिपोर्ट के अनुसार, हब्सोरा "लगभग स्वचालित रूप से" लक्ष्य बनाता है, और एक पूर्व ख़ुफ़िया अधिकारी ने इसे "सामूहिक हत्या का कारखाना" बताया है।

हालिया +972 रिपोर्ट में एक तीसरी प्रणाली का भी दावा किया गया है, जिसे व्हेयर इज डैडी कहा जाता है? लैवेंडर द्वारा पहचाने गए लक्ष्यों पर नज़र रखता है और जब वे घर लौटते हैं तो सेना को सचेत करते हैं, अक्सर अपने परिवार को।कई देश सैन्य बढ़त की तलाश में एल्गोरिदम की ओर रुख कर रहे हैं। यू सेना का प्रोजेक्ट मावेन एआई लक्ष्यीकरण की आपूर्ति करता है जिसका उपयोग मध्य पूर्व और यूक्रेन में किया गया है। चीन भी डेटा चयन लक्ष्यों का विश्लेषण करने और निर्णय लेने में सहायता के लिए एआई सिस्टम विकसित करने के लिए दौड़ रहा है।

सैन्य एआई के समर्थकों का तर्क है कि यह तेजी से निर्णय लेने, अधिक सटीकता और युद्ध में हताहतों की संख्या को कम करने में सक्षम करेगा।

फिर भी पिछले साल, मिडिल ईस्ट आई ने एक इजरायली खुफिया कार्यालय साई को गाजा में प्रत्येक एआई-जनित लक्ष्य की मानव समीक्षा करने की सूचना दी थी, जो "सभी के लिए संभव नहीं था"। एक अन्य सूत्र ने +972 को बताया कि वे व्यक्तिगत रूप से "प्रत्येक लक्ष्य के लिए 20 सेकंड का निवेश करेंगे" केवल अनुमोदन का "रबर स्टांप" होगा।नवीनतम रिपोर्ट पर इजरायली रक्षा बल की प्रतिक्रिया में कहा गया है, "विश्लेषकों को स्वतंत्र परीक्षा आयोजित करनी चाहिए, जिसमें वे सत्यापित करते हैं कि पहचाने गए लक्ष्य अंतरराष्ट्रीय कानून के अनुसार प्रासंगिक परिभाषाओं को पूरा करते हैं"।

सटीकता के लिए, नवीनतम +972 रिपोर्ट में दावा किया गया है कि लैवेंडर पहचान और क्रॉस-चेकिंग प्रक्रिया को स्वचालित करता है ताकि यह सुनिश्चित किया जा सके कि संभावित लक्ष्य एक वरिष्ठ हामा सैन्य व्यक्ति है। रिपोर्ट के अनुसार, लैवेंडर ने निम्न-रैंकिंग कर्मियों और साक्ष्य के कमजोर मानकों को शामिल करने के लिए लक्ष्यीकरण मानदंडों को ढीला कर दिया और "लगभग 10 प्रतिशत मामलों" में त्रुटियां कीं।

रिपोर्ट में यह भी दावा किया गया है कि एक इजरायली खुफिया अधिकारी ने कहा था कि डैडी कहां हैं? प्रणाली, लक्ष्यों पर उनके घरों में "बिना किसी हिचकिचाहट के, पहले विकल्प के रूप में" बमबारी की जाएगी, जिससे नागरिक हताहत होंगे। इज़रायली शाखा का कहना है कि वह "हज़ारों लोगों को उनके घरों में मारने की किसी भी नीति के दावे को सिरे से ख़ारिज करती है"।जैसे-जैसे एआई का सैन्य उपयोग आम होता जा रहा है, नैतिक, नैतिक और कानूनी चिंता काफी हद तक बाद में सोची जाने लगी है। सैन्य एआई के बारे में अभी तक कोई स्पष्ट, सार्वभौमिक रूप से स्वीकृत या कानूनी रूप से बाध्यकारी नियम नहीं हैं।

संयुक्त राष्ट्र दस वर्षों से अधिक समय से "घातक स्वायत्त हथियार प्रणालियों" पर चर्चा कर रहा है। ये ऐसे उपकरण हैं जो मानव इनपुट के बिना लक्ष्यीकरण और फ़िरिन निर्णय ले सकते हैं, जिन्हें कभी-कभी "हत्यारा रोबोट" के रूप में जाना जाता है। पिछले वर्ष कुछ प्रगति हुई।

संयुक्त राष्ट्र महासभा ने यह सुनिश्चित करने के लिए एक नए मसौदा प्रस्ताव के पक्ष में मतदान किया कि एल्गोरिदम को "हत्या से जुड़े निर्णयों पर पूर्ण नियंत्रण नहीं होना चाहिए"। पिछले अक्टूबर में, अमेरिका ने एआई और स्वायत्तता पर जिम्मेदार सैन्य उपयोग पर एक घोषणा भी जारी की, जिसे तब से 50 अन्य राज्यों द्वारा समर्थन दिया गया है। सैन्य एआई के जिम्मेदार उपयोग पर पहला शिखर सम्मेलन पिछले साल भी नीदरलैंड और कोरिया गणराज्य की सह-मेजबानी में आयोजित किया गया था।कुल मिलाकर, सैन्य एआई के उपयोग पर अंतरराष्ट्रीय नियम उच्च तकनीक, एआई-सक्षम युद्ध के लिए राज्यों और हथियार कंपनियों के उत्साह के साथ तालमेल बिठाने के लिए संघर्ष कर रहे हैं।

एआई-सक्षम उत्पाद बनाने वाले कुछ इज़राइली स्टार्टअप कथित तौर पर गाजा में अपने उपयोग का विक्रय बिंदु बना रहे हैं। फिर भी गाजा में एआई सिस्टम के उपयोग पर रिपोर्टिंग से पता चलता है कि एआई सटीक युद्ध के सपने से कितना कम है, बल्कि गंभीर मानवीय नुकसान पैदा करता है।

जिस औद्योगिक पैमाने पर लैवेंडर जैसे एआई सिस्टम लक्ष्य उत्पन्न कर सकते हैं, वह निर्णय लेने में प्रभावी रूप से "मानवों को डिफ़ॉल्ट रूप से विस्थापित" करता है।एआई सुझावों को बिना किसी मानवीय जांच के स्वीकार करने की इच्छा संभावित लक्ष्यों के दायरे को बढ़ाती है, जिससे अधिक नुकसान होता है।

लैवेंडर और हब्सोरा पर रिपोर्ट हमें दिखाती है कि वर्तमान सैन्य एआई पहले से ही क्या करने में सक्षम है। सैन्य एआई के भविष्य के जोखिम और भी बढ़ सकते हैं।

उदाहरण के लिए, चीनी सैन्य विश्लेषक चेन हांगहुई ने भविष्य की "युद्धक्षेत्र विलक्षणता" की कल्पना की है, जिसमें मशीनें निर्णय लेती हैं और इतनी तेज गति से कार्रवाई करती हैं कि कोई इंसान उनका अनुसरण नहीं कर सकता। इस परिदृश्य में, हम केवल दर्शकों या हताहतों से अधिक कुछ नहीं रह गए हैं।इस साल की शुरुआत में प्रकाशित एक अध्ययन में एक और चेतावनी दी गई थी। अमेरिकी शोधकर्ता ने एक प्रयोग किया जिसमें GPT-4 जैसे बड़े भाषा मॉडल युद्ध अभ्यास में राष्ट्रों की भूमिका निभाते हैं। मॉडल लगभग अनिवार्य रूप से हथियारों की होड़ में फंस गए और अप्रत्याशित तरीकों से संघर्ष में वृद्धि हुई, जिसमें परमाणु हथियारों का उपयोग भी शामिल था।

जिस तरह से दुनिया सैन्य एआई के वर्तमान उपयोग पर प्रतिक्रिया करती है - जैसे हम गाजा में देख रहे हैं - वह भविष्य में प्रौद्योगिकी के विकास और उपयोग के लिए एक मिसाल कायम करने की संभावना है। (बातचीत)आरयूपी