वाशिंगटन आर्टिफिशियल इंटेलिजेंस को नियंत्रित करने के लिए दृढ़ संकल्पित है, लेकिन कैसे?


कुछ प्रस्ताव एआई पर केंद्रित हैं जो लोगों के जीवन या आजीविका को खतरे में डाल सकते हैं। (प्रतिनिधि)

वाशिंगटन:

अमेरिकी सांसद इस बात से जूझ रहे हैं कि कृत्रिम बुद्धिमत्ता को बढ़ाने के लिए कौन सी रेलिंग लगाई जाए, लेकिन चैटजीपीटी द्वारा वाशिंगटन का ध्यान आकर्षित करने के महीनों बाद, आम सहमति निश्चित नहीं है।

अमेरिकी सीनेटर, कांग्रेस के कर्मचारियों, एआई कंपनियों और रुचि समूहों के साथ साक्षात्कार से पता चलता है कि चर्चा के तहत कई विकल्प हैं।

कुछ प्रस्ताव एआई पर ध्यान केंद्रित करते हैं जो लोगों के जीवन या आजीविका को जोखिम में डाल सकते हैं, जैसे चिकित्सा और वित्त में। अन्य संभावनाओं में यह सुनिश्चित करने के लिए नियम शामिल हैं कि एआई का उपयोग किसी के नागरिक अधिकारों के साथ भेदभाव या उल्लंघन करने के लिए नहीं किया जाता है।

एक और बहस यह है कि क्या एआई के विकासकर्ता या उपभोक्ताओं के साथ बातचीत करने के लिए इसका उपयोग करने वाली कंपनी को विनियमित किया जाए। और OpenAI, चैटबॉट सनसनी चैटजीपीटी के पीछे स्टार्टअप, ने एक स्टैंडअलोन एआई नियामक पर चर्चा की है।

यह अनिश्चित है कि कौन सा दृष्टिकोण जीतेगा, लेकिन आईबीएम और यूएस चैंबर ऑफ कॉमर्स सहित व्यापार समुदाय में कुछ ऐसे दृष्टिकोण का समर्थन करते हैं जो केवल चिकित्सा निदान जैसे महत्वपूर्ण क्षेत्रों को नियंत्रित करता है, जिसे वे जोखिम-आधारित दृष्टिकोण कहते हैं।

यदि कांग्रेस तय करती है कि नए कानून आवश्यक हैं, तो यूएस चैंबर का एआई आयोग वकालत करता है कि “जोखिम व्यक्तियों के प्रभाव से निर्धारित होता है,” चैंबर के टेक्नोलॉजी एंगेजमेंट सेंटर के जॉर्डन क्रेंशॉ ने कहा। “एक वीडियो सिफारिश स्वास्थ्य या वित्त के बारे में किए गए निर्णयों के रूप में उच्च जोखिम नहीं उठा सकती है।”

तथाकथित जनरेटिव एआई की बढ़ती लोकप्रियता, जो चैटजीपीटी के मानव-ध्वनि वाले गद्य जैसी नई सामग्री बनाने के लिए डेटा का उपयोग करती है, ने चिंता जताई है कि तेजी से विकसित होने वाली तकनीक परीक्षा में नकल को बढ़ावा दे सकती है, गलत सूचना को बढ़ावा दे सकती है और घोटालों की एक नई पीढ़ी को जन्म दे सकती है।

एआई प्रचार ने बैठकों की झड़ी लगा दी है, जिसमें इस महीने ओपनएआई के सीईओ, इसके बैकर माइक्रोसॉफ्ट कॉर्प और अल्फाबेट इंक के अध्यक्ष जो बिडेन ने सीईओ के साथ व्हाइट हाउस का दौरा भी शामिल है।

कांग्रेस के सहयोगी और तकनीकी विशेषज्ञों का कहना है कि कांग्रेस इसी तरह लगी हुई है।

हाई-प्रोफाइल एआई स्टार्टअप एंथ्रोपिक के सह-संस्थापक जैक क्लार्क ने कहा, “पूरे सदन और सीनेट के कर्मचारी मूल रूप से जाग गए हैं और सभी को इसके चारों ओर हथियार डालने के लिए कहा जा रहा है।” जिनके सीईओ ने व्हाइट हाउस की बैठक में भी भाग लिया था। “लोग एआई से आगे निकलना चाहते हैं, आंशिक रूप से क्योंकि उन्हें लगता है कि वे सोशल मीडिया से आगे नहीं बढ़ पाए।”

प्रो-टेक चैंबर ऑफ प्रोग्रेस के प्रमुख एडम कोवासेविच ने कहा, जैसा कि सांसदों ने गति पकड़ी है, बिग टेक की मुख्य प्राथमिकता “समय से पहले अतिप्रतिक्रिया” के खिलाफ जोर देना है।

और जबकि सीनेट के अधिकांश नेता चक शूमर जैसे कानूनविद द्विदलीय तरीके से एआई मुद्दों से निपटने के लिए दृढ़ हैं, तथ्य यह है कि कांग्रेस ध्रुवीकृत है, अगले साल राष्ट्रपति चुनाव है, और कानून निर्माता ऋण सीमा बढ़ाने जैसे अन्य बड़े मुद्दों को संबोधित कर रहे हैं।

शूमर की प्रस्तावित योजना के लिए स्वतंत्र विशेषज्ञों को नई एआई प्रौद्योगिकियों को जारी करने से पहले उनका परीक्षण करने की आवश्यकता है। यह पारदर्शिता के लिए भी कहता है और सरकार को नुकसान से बचाने के लिए आवश्यक डेटा प्रदान करता है।

सरकारी सूक्ष्म प्रबंधन

जोखिम-आधारित दृष्टिकोण का अर्थ है कि एआई का उपयोग कैंसर का निदान करने के लिए किया जाता है, उदाहरण के लिए, खाद्य एवं औषधि प्रशासन द्वारा जांच की जाएगी, जबकि मनोरंजन के लिए एआई को विनियमित नहीं किया जाएगा। यूरोपीय संघ इसी तरह के नियम पारित करने की ओर बढ़ गया है।

लेकिन डेमोक्रेटिक सीनेटर माइकल बेनेट के लिए जोखिमों पर ध्यान अपर्याप्त लगता है, जिन्होंने एक सरकारी एआई टास्क फोर्स के लिए बिल पेश किया। उन्होंने कहा कि वह गोपनीयता, नागरिक स्वतंत्रता और अधिकारों को प्राथमिकता देने के लिए “मूल्य-आधारित दृष्टिकोण” की वकालत करते हैं।

बेनेट सहयोगी ने कहा कि जोखिम-आधारित नियम बहुत कठोर हो सकते हैं और सफेद वर्चस्व को बढ़ावा देने वाले वीडियो की सिफारिश करने के लिए एआई के उपयोग जैसे खतरों को उठाने में विफल हो सकते हैं।

पत्रकारों से बात करने के लिए अधिकृत नहीं है जो कांग्रेस के विचार विमर्श के बाद एक व्यक्ति के अनुसार, विधायकों ने यह भी चर्चा की है कि एआई को नस्लीय भेदभाव के लिए उपयोग नहीं किया जाता है, शायद यह तय करने में कि कम ब्याज बंधक कौन प्राप्त करता है, यह सुनिश्चित करने के लिए सबसे अच्छा तरीका है।

OpenAI में, कर्मचारियों ने व्यापक निरीक्षण पर विचार किया है।

कलन ओ’कीफ, एक OpenAI अनुसंधान वैज्ञानिक, ने स्टैनफोर्ड विश्वविद्यालय में एक अप्रैल की वार्ता में एक एजेंसी के निर्माण का प्रस्ताव रखा, जो यह अनिवार्य करेगी कि कंपनियां शक्तिशाली AI मॉडल को प्रशिक्षित करने या उन्हें सुविधा प्रदान करने वाले डेटा केंद्रों को संचालित करने से पहले लाइसेंस प्राप्त करें। ओ’कीफ ने कहा, एजेंसी को एआई सेफ्टी एंड इंफ्रास्ट्रक्चर सिक्योरिटी, या ओएएसआईएस के लिए कार्यालय कहा जा सकता है।

प्रस्ताव के बारे में पूछे जाने पर, OpenAI की मुख्य प्रौद्योगिकी अधिकारी मीरा मुराती ने कहा कि एक भरोसेमंद निकाय सुरक्षा मानकों के लिए “डेवलपर्स को जवाबदेह ठहरा सकता है”। लेकिन यांत्रिकी से अधिक महत्वपूर्ण समझौता था “मानक क्या हैं, वे कौन से जोखिम हैं जिन्हें आप कम करने की कोशिश कर रहे हैं।”

बनाया जाने वाला अंतिम प्रमुख नियामक उपभोक्ता वित्तीय संरक्षण ब्यूरो था, जिसे 2007-2008 के वित्तीय संकट के बाद स्थापित किया गया था।

कुछ रिपब्लिकन किसी भी एआई विनियमन पर रोक लगा सकते हैं।

सीनेट के एक रिपब्लिकन सहयोगी ने रॉयटर्स को बताया, “हमें सावधान रहना चाहिए कि एआई नियामक प्रस्ताव कंप्यूटर कोड जैसे सर्च इंजन और एल्गोरिदम के सरकारी माइक्रोमैनेजमेंट के लिए तंत्र नहीं बन जाते हैं।”

(हेडलाइन को छोड़कर, यह कहानी NDTV के कर्मचारियों द्वारा संपादित नहीं की गई है और एक सिंडिकेट फीड से प्रकाशित हुई है।)



Source link