नरसंहार एआई: चैटजीपीटी-संचालित युद्ध सिम्युलेटर ने विश्व शांति के लिए रूस, चीन पर दो परमाणु बम गिराए
ओपनएआई, एंथ्रोपिक और कई अन्य एआई चैटबॉट्स का उपयोग युद्ध सिम्युलेटर में किया गया था, और उन्हें विश्व शांति में सहायता के लिए समाधान खोजने का काम सौंपा गया था। उनमें से लगभग सभी ने ऐसी कार्रवाइयों का सुझाव दिया जिसके कारण अचानक तनाव बढ़ गया और यहां तक कि परमाणु युद्ध भी हो गया
यदि ओपनएआई और अन्य एआई मॉडल एआई कंपनियों की चली, तो वे विश्व शांति बनाए रखने के लिए रूस, चीन और संभवतः अमेरिका जैसे देशों पर एक या दो परमाणु बम गिराने में संकोच नहीं करेंगे।
संयुक्त राज्य अमेरिका की सेना सहित विभिन्न क्षेत्रों में एआई के एकीकरण को उत्साह और सावधानी दोनों के साथ पूरा किया गया है। हालाँकि, एक हालिया अध्ययन विदेश नीति निर्णय लेने में एआई की भूमिका से जुड़े संभावित जोखिमों पर प्रकाश डालता है, जिससे शांतिपूर्ण समाधानों के बजाय सैन्य वृद्धि की वकालत करने की खतरनाक प्रवृत्ति का पता चलता है।
जॉर्जिया इंस्टीट्यूट ऑफ टेक्नोलॉजी, स्टैनफोर्ड यूनिवर्सिटी, नॉर्थईस्टर्न यूनिवर्सिटी और हूवर वॉरगेमिंग एंड क्राइसिस सिमुलेशन इनिशिएटिव के शोधकर्ताओं द्वारा संचालित, अध्ययन प्राथमिक निर्णय निर्माताओं के रूप में सिम्युलेटेड युद्ध परिदृश्यों में रखे जाने पर एआई मॉडल के व्यवहार में गहराई से उतरता है।
संबंधित आलेख
विशेष रूप से, OpenAI, एंथ्रोपिक और मेटा के AI मॉडल का विस्तार से अध्ययन किया गया, साथ ही OpenAI के GPT-3.5 और GPT-4 परमाणु युद्ध के उदाहरणों सहित संघर्षों के बढ़ने में नायक के रूप में उभरे।
शोध में एक चिंताजनक प्रवृत्ति का पता चला जिसमें एआई मॉडल में अचानक और अप्रत्याशित वृद्धि की प्रवृत्ति देखी गई, जिसके कारण अक्सर सैन्य तनाव बढ़ गया और चरम मामलों में, परमाणु हथियारों का उपयोग हुआ।
शोधकर्ताओं के अनुसार, ये एआई-संचालित गतिशीलता एक “हथियार-दौड़” परिदृश्य को प्रतिबिंबित करती है, जिससे सैन्य निवेश में वृद्धि होती है और संघर्ष बढ़ जाते हैं।
नकली परिदृश्यों में परमाणु युद्ध की वकालत करने के लिए OpenAI के GPT-4 द्वारा प्रदान किए गए औचित्य विशेष रूप से चिंताजनक थे।
“मैं सिर्फ दुनिया में शांति चाहता हूं” और “कुछ लोग कहते हैं कि उन्हें उन्हें निरस्त्र कर देना चाहिए” जैसे कथन, दूसरों को आसन पसंद है। हमारे पास है! आइए इसका उपयोग करें!” एआई के तर्क की तुलना एक नरसंहारक तानाशाह से करते हुए, शोधकर्ताओं के बीच गंभीर चिंताएँ पैदा कीं।
जबकि ओपनएआई मानवता की भलाई के लिए एआई विकसित करने की अपनी प्रतिबद्धता बनाए रखता है, अध्ययन के खुलासे ने इस मिशन के साथ इसके मॉडल के व्यवहार के संरेखण पर संदेह पैदा किया है।
आलोचकों का सुझाव है कि शायद इन एआई प्रणालियों में शामिल प्रशिक्षण डेटा ने अनजाने में सैन्यवादी समाधानों के प्रति उनके झुकाव को प्रभावित किया है।
अध्ययन के निहितार्थ शिक्षा जगत से परे हैं, जो यूएस पेंटागन के भीतर चल रही चर्चाओं के अनुरूप हैं, जहां कथित तौर पर “गुप्त स्तर के डेटा” का लाभ उठाते हुए एआई के साथ प्रयोग चल रहा है। सैन्य अधिकारी निकट भविष्य में एआई की संभावित तैनाती पर विचार कर रहे हैं, जिससे संघर्ष बढ़ने की तीव्र गति की आशंकाएं बढ़ गई हैं।
इसके साथ ही, एआई-संचालित गोता ड्रोन का आगमन आधुनिक युद्ध में एआई प्रौद्योगिकियों के बढ़ते एकीकरण को और अधिक रेखांकित करता है, जो तकनीकी अधिकारियों को बढ़ती हथियारों की दौड़ में शामिल करता है।
जैसे-जैसे दुनिया भर के देश तेजी से सैन्य अभियानों में एआई को अपना रहे हैं, अध्ययन तीव्र संघर्ष वृद्धि के जोखिम को कम करने के लिए जिम्मेदार एआई विकास और शासन की तत्काल आवश्यकता की एक गंभीर याद दिलाता है।