राय: जैसा कि भारत 2024 के लिए तैयार है, सैम ऑल्टमैन की चेतावनी प्रासंगिक क्यों है



OpenAI के सैम ऑल्टमैन द्वारा मंगलवार को अमेरिकी सीनेट को दी गई गवाही के आधार पर, भारत को एक सुरक्षित और जिम्मेदार AI पारिस्थितिकी तंत्र को आकार देने के लिए अपने नियामक प्रयासों में सुधार करना चाहिए।

सीनेट से गूँज: सैम ऑल्टमैन की चेतावनी

“इन मॉडलों की अधिक सामान्य क्षमता हेरफेर करने, राजी करने, एक-पर-एक इंटरैक्टिव गलत सूचना प्रदान करने के लिए … यह देखते हुए कि हम अगले साल चुनाव का सामना करने जा रहे हैं और ये मॉडल बेहतर हो रहे हैं। मुझे लगता है कि यह चिंता का एक महत्वपूर्ण क्षेत्र है” – ए चेतावनी अमेरिकी सीनेट उपसमिति के समक्ष OpenAI के मुख्य कार्यकारी अधिकारी सैम अल्टमैन द्वारा।

भारत में एक अरब से अधिक लोगों का देश तेजी से डिजिटलीकरण कर रहा है और एआई के संभावित खतरों के प्रति संवेदनशील है।

ऑल्टमैन जून की शुरुआत में भारत आने वाले हैं। यह चौराहे पर एक यात्रा है – जब एआई के सामाजिक प्रभाव और विनियमन पर विचार करते हुए अमेरिका और यूरोपीय संघ जैसे राष्ट्र बेचैन रातों से जूझते हैं। Altman की यात्रा भारत के नीति निर्माताओं और तकनीकी समुदाय के लिए न केवल भारत में AI की भूमिका के बारे में बल्कि वैश्विक AI को आकार देने में भारत की संभावित भूमिका के बारे में एक संवाद शुरू करने का एक सुनहरा अवसर प्रदान करती है। यह भारत के लिए विश्वव्यापी बातचीत में योगदान देने और यह सुनिश्चित करने का समय है कि आर्टिफिशियल इंटेलिजेंस, इस युग की परिभाषित तकनीक का कुशलतापूर्वक और नैतिक रूप से उपयोग किया जाए। एआई का लोगों के लिए होना ही काफी नहीं है; इसे ‘लोगों का’ और ‘लोगों द्वारा’ होना चाहिए, जो भारत की विविध पच्चीकारी को पूरा करे।

भारत का 2024 चुनाव: एआई हेरफेर के लिए एक खेल का मैदान?

जैसे-जैसे हम भारत में 2024 के चुनावों की ओर बढ़ रहे हैं, एआई को हथियार बनाने की क्षमता एक गंभीर विचार प्रस्तुत करती है। 600 मिलियन से अधिक इंटरनेट उपयोगकर्ताओं और डिजिटल संचार पर बढ़ती निर्भरता के साथ, देश एआई-संचालित दुष्प्रचार अभियानों के लिए एक विशाल और कमजोर युद्धक्षेत्र प्रदान करता है।

चैटजीपीटी के मामले पर विचार करें, जो ओपनएआई द्वारा एक भाषा भविष्यवाणी मॉडल है। हालांकि इसे मानव-समान पाठ लिखने की अपनी क्षमता के लिए जाना जाता है और ईमेल लिखने से लेकर कोड लिखने तक के कार्यों में सहायता करने की क्षमता के लिए मनाया जाता है, इसके दुरुपयोग के गंभीर परिणाम हो सकते हैं। गलत हाथों में, इसका उपयोग भ्रामक समाचारों और प्रेरक प्रचार के उत्पादन को स्वचालित करने के लिए किया जा सकता है, या यहां तक ​​​​कि ऑनलाइन व्यक्तियों को प्रतिरूपित करने के लिए, विघटन प्रलय में योगदान दे सकता है।

डीपफेक तकनीक का उदाहरण लें, जो अविश्वसनीय रूप से यथार्थवादी और अक्सर अप्रभेद्य कृत्रिम छवियों, ऑडियो और वीडियो के निर्माण की अनुमति देती है। भारत जैसे देश में, अपनी विविध भाषाओं, संस्कृतियों और राजनीतिक विचारधाराओं के साथ, इस तकनीक का दुर्भावना से लाभ उठाया जा सकता है, जनता की राय को तोड़-मरोड़ कर और सामाजिक सद्भाव को बाधित कर सकता है।

चुनाव में एआई का भूत: वैश्विक उदाहरण

दरअसल, चुनावों और अभियानों के दौरान एआई का शस्त्रीकरण भविष्यवादी डायस्टोपिया नहीं है; यह एक वास्तविकता है जिससे हम पहले से ही जूझ रहे हैं। 2016 में अमेरिकी राष्ट्रपति चुनाव के दौरान एक खतरनाक मिसाल कायम की गई थी। कैंब्रिज एनालिटिका, एक ब्रिटिश राजनीतिक परामर्श फर्म, पर बिना सहमति के लाखों फेसबुक उपयोगकर्ताओं के डेटा की कटाई करने और इसका उपयोग मतदाताओं के मनोवैज्ञानिक प्रोफाइल बनाने के लिए करने का आरोप लगाया गया था। कुछ साल आगे बढ़ें, और हमने देखा है कि गहरे नकली वीडियो गैबॉन में एक राजनीतिक संकट पैदा कर रहे हैं। गैबॉन में, 2018 में राष्ट्रपति अली बोंगो के एक गहरे नकली वीडियो ने एक राजनीतिक संकट पैदा कर दिया, जिसमें राष्ट्रपति के स्वास्थ्य के बारे में अफवाहें एक असफल तख्तापलट की चिंगारी थीं। भारत के अपने पिछवाड़े में, 2019 के आम चुनावों में एआई-चालित बॉट्स के आरोपों को सोशल मीडिया पर प्रचार के साथ बाढ़ और ऑनलाइन बातचीत पर हावी होने के लिए इस्तेमाल किया गया था।

स्टेरॉयड पर फोटोशॉप

ऑल्टमैन ने कहा, “जब फोटोशॉप बहुत समय पहले सामने आया, तो कुछ समय के लिए लोग फोटोशॉप की गई तस्वीरों से काफी मूर्ख थे और फिर बहुत जल्दी एक समझ विकसित हुई कि छवियों को फोटोशॉप किया जा सकता है। यह ऐसा ही होगा, लेकिन स्टेरॉयड पर।” अमेरिकी सीनेट।

फोटोशॉप सादृश्य एआई को धोखा देने की क्षमता के बारे में सिर पर कील मारता है। जिस तरह फोटोशॉप ने एक ऐसे युग की शुरुआत की, जहां छवियों को अंकित मूल्य पर स्वीकार नहीं किया जा सकता था, एआई प्रौद्योगिकियां एक ऐसे बिंदु पर पहुंच रही हैं, जहां वे सामग्री को इतनी वास्तविक रूप से उत्पन्न कर सकती हैं कि यह वास्तविकता और निर्माण के बीच की रेखा को धुंधला कर देती है।

जैसा कि ऑल्टमैन ने ठीक ही कहा, चुनौती वह गति और पैमाना है जिस पर एआई इस सामग्री का उत्पादन कर सकता है। फोटोशॉप की गई छवि के विपरीत, जिसे बनाने के लिए अलग-अलग समय और प्रयास की आवश्यकता होती है, एआई एक अभूतपूर्व गति से भ्रामक सामग्री की भीड़ उत्पन्न कर सकता है। यह वास्तव में स्टेरॉयड पर फोटोशॉप है।

यह भारत जैसे देश में एक स्पष्ट और वर्तमान खतरा है, जहां गलत सूचनाओं के तेजी से प्रसार के गंभीर सामाजिक प्रभाव हो सकते हैं। एक प्रमुख राजनीतिक हस्ती के एक गहरे नकली वीडियो की कल्पना करें, जो चुनाव से कुछ ही दिन पहले एआई द्वारा बड़े पैमाने पर नफरत फैलाने वाले भाषण या नकली समाचार लेख फैला रहा है, जो विभाजनकारी आख्यानों को हवा दे रहा है। अराजकता की संभावना अपार है।

भारत में एआई विनियमन के लिए आग्रह

भारत को अवश्य ही वैश्विक जागृति की पुकार पर ध्यान देना चाहिए और अपनी ओर देखना चाहिए तथा अपनी अनूठी चुनौतियों का समाधान करना चाहिए। नीति निर्माताओं को यह समझने की जरूरत है कि अगर भारत एआई और जनरेटिव एआई टूल्स का उपयोग करने के लिए कार्य नहीं करता है और अपना दृष्टिकोण विकसित नहीं करता है, तो यह सामाजिक और सांस्कृतिक मुद्दों को जन्म दे सकता है।

ऑल्टमैन चेतावनी की घंटी ऐसे समय में बज रही है जब भारत का डिजिटल परिदृश्य अभूतपूर्व विकास का अनुभव कर रहा है। हालाँकि, इस वृद्धि के शोर से अलार्म नहीं डूबना चाहिए। जैसा कि दुनिया का सबसे बड़ा लोकतंत्र अपने आगामी आम चुनावों में नियति के साथ एक और नृत्य के लिए तैयार है, कड़े एआई विनियमन का आह्वान कभी भी अधिक दबाव वाला नहीं रहा है।

अब, चुनावी वर्ष के दौरान भारत में इस परिदृश्य की कल्पना करें। 600 मिलियन से अधिक सक्रिय इंटरनेट उपयोगकर्ताओं और हर साल लाखों लोगों के ऑनलाइन आने के साथ, एआई-संचालित दुष्प्रचार के फैलने और प्रभावित होने की संभावना बहुत अधिक है। यह एक ऐसे देश के लिए एक चुनौतीपूर्ण संभावना है जहां चुनावी फैसले अक्सर जनभावनाओं की धार पर टेढ़े होते हैं।

भारत जैसे सांस्कृतिक और भाषाई रूप से विविध देशों में व्यक्तिगत उपयोगकर्ताओं के लिए सामग्री तैयार करने की एआई की क्षमता विशेष रूप से खतरनाक हो सकती है। एआई मॉडल स्थानीय भाषाओं में दुष्प्रचार उत्पन्न कर सकते हैं, क्षेत्रीय भय और पूर्वाग्रहों का शिकार करने के लिए, समुदायों का ध्रुवीकरण करने और कलह को भड़काने के लिए तैयार किया गया है।

द क्वाग्मेयर ऑफ एआई: इंडियाज मोमेंट टू एक्ट

अगर भारत ने अभी कार्रवाई नहीं की तो आईपी सुरक्षा, रचनात्मकता और सामग्री लाइसेंसिंग ऐसे सभी क्षेत्र हैं जो दलदल बन सकते हैं। नियमों के बिना, इन क्षेत्रों में एआई का दुरुपयोग कई कानूनी, नैतिक और सामाजिक मुद्दों को जन्म दे सकता है। दिशात्मक नीतियों के लिए वाशिंगटन और सिलिकॉन वैली की ओर देखना बंद करने और भारत की अद्वितीय सामाजिक-राजनीतिक गतिशीलता पर विचार करने वाला एक व्यापक, व्यापक दृष्टिकोण बनाने का समय आ गया है।

देश में एक जीवंत तकनीकी पारिस्थितिकी तंत्र, गतिशील स्टार्टअप और एआई शोधकर्ताओं और चिकित्सकों का बढ़ता समुदाय है। एआई की बारीकियों को समझने और सूचित नियमों को विकसित करने में उनके ज्ञान और विशेषज्ञता का उपयोग करना महत्वपूर्ण होगा।

सेना को पुकार

इन संभावित खतरों के सामने, शालीनता कोई विकल्प नहीं है। नीति निर्माताओं, तकनीकी उद्योग के नेताओं और समाज को बड़े पैमाने पर एआई और इसके निहितार्थों के बारे में एक व्यापक संवाद में शामिल होने की आवश्यकता है। जागरूकता बढ़ाने की जरूरत है, और सुरक्षा उपायों को लागू किया जाना चाहिए। नवाचार को बढ़ावा देने और दुरुपयोग को रोकने के बीच संतुलन बनाने के लिए नियामक उपायों की आवश्यकता है।

सैम ऑल्टमैन की खतरे की घंटी न केवल अमेरिका के भीतर बल्कि दुनिया भर में भी गूंजनी चाहिए। यह भारत जैसे देशों के लिए तत्काल कार्रवाई का आह्वान है, जहां दांव ऊंचे हैं और परिणाम दूरगामी हैं। 2024 के चुनाव दूर लग सकते हैं, लेकिन एआई के हमले के खिलाफ हमारे बचाव को तैयार करने का समय अब ​​​​है।

अगर कोई एक चीज है जो इतिहास ने हमें सिखाई है, तो वह यह है कि पूर्व-चेतावनी पूर्व-सशस्त्र है।

(पंकज मिश्रा दो दशक से अधिक समय से पत्रकार हैं और फैक्टरडेली के सह-संस्थापक हैं।)

अस्वीकरण: ये लेखक के निजी विचार हैं।



Source link