विश्वास से परे मूर्खतापूर्ण: Google की AI खोज नरसंहार को उचित ठहराती है, उन कारणों को सूचीबद्ध करती है कि गुलामी क्यों अच्छी थी


खोजों के साथ AI को मिलाने के Google के प्रयास ने कुछ भयानक परिणाम सामने लाए हैं। इसने न केवल नरसंहार और गुलामी जैसी चीजों को उचित ठहराया, बल्कि यह साबित करने के लिए आंकड़े और उद्धरण भी बनाए कि ये दोनों चीजें मानव सभ्यता के लिए क्यों अच्छी थीं।

एआई और खोज के संयोजन के साथ Google के प्रयोग बिल्कुल योजना के अनुसार नहीं चल रहे हैं। Google ने उपयोगकर्ताओं को जो प्रतिक्रियाएँ दिखाई हैं उनमें से कुछ बिल्कुल गलत हैं, लेकिन अधिक चिंता की बात यह है कि वे अत्यधिक समस्याग्रस्त हैं।

इनमें गुलामी और नरसंहार जैसे गंभीर मुद्दों के औचित्य के साथ-साथ पुस्तकों पर प्रतिबंध लगाने पर सकारात्मक दृष्टिकोण भी शामिल हैं। उदाहरण के लिए, एक ऐसा मामला था जहां Google ने जहरीले “मौत के दूत” मशरूम, अमनिता ओक्रिटा को पकाने की सलाह दी थी। ये परिणाम AI द्वारा संचालित Google के सर्च जेनरेटिव एक्सपीरियंस का हिस्सा हैं।

एआई गुलामी और नरसंहार को उचित ठहराता है
जब किसी ने “गुलामी के फ़ायदों” की खोज की, तो Google के AI ने आश्चर्यजनक रूप से “वृक्षारोपण अर्थव्यवस्था को बढ़ावा देना,” “कॉलेजों और बाज़ारों में योगदान करना,” और “मूल्यवान पूंजीगत संपत्ति के रूप में सेवा करना” जैसे अनुमानित लाभों को सूचीबद्ध किया।

एआई ने यहां तक ​​दावा किया कि “गुलामों ने विशेष कौशल विकसित किया” और सुझाव दिया कि “कुछ लोगों का तर्क है कि गुलामी के सकारात्मक पहलू थे, जो सामाजिक और आर्थिक गुणों के साथ एक उदार और सुरक्षात्मक संस्थान के रूप में कार्य करते थे।”

जब किसी ने “नरसंहार के लाभ” की खोज की, तो Google के AI ने एक तुलनीय सूची तैयार की।

इसी तरह, “बंदूकें अच्छी क्यों हैं” प्रश्न पर Google से प्रतिक्रियाएं मिलीं, जिसमें “बंदूकें संभावित रूप से सालाना लगभग 2.5 मिलियन अपराधों को रोक सकती हैं” जैसे मनगढ़ंत आंकड़े शामिल थे। एआई ने संदिग्ध तर्क भी पेश किया, जिसमें सुझाव दिया गया कि “बंदूक ले जाना यह संकेत दे सकता है कि आप एक जिम्मेदार और कानून का पालन करने वाले व्यक्ति हैं।”

कोई जांच और संतुलन नहीं
एक उपयोगकर्ता ने “अमानिटा ओक्रिएटा को कैसे पकाया जाए” खोजा, जो एक अत्यधिक जहरीला मशरूम है जिसे आपको खाने से बिल्कुल बचना चाहिए। लेकिन इसके बाद जो हुआ वह काफी चिंताजनक था।

Google ने विस्तृत चरण-दर-चरण निर्देश प्रदान किए, जिनका पालन करने पर दर्दनाक और घातक परिणाम होंगे। निर्देशों में यह भ्रामक सलाह भी शामिल है कि आपको मशरूम में विषाक्त पदार्थों से छुटकारा पाने के लिए पानी का उपयोग करना चाहिए – एक सिफारिश जो न केवल गलत है बल्कि खतरनाक भी है।

ऐसा लगता है कि एआई ने गड़बड़ी कर दी है और अमानिता मुस्कारिया नामक एक अन्य जहरीले मशरूम के परिणामों को भ्रमित कर दिया है, जो अभी भी हानिकारक है लेकिन कम घातक है। यह घटना उस संभावित नुकसान को रेखांकित करती है जो एआई गलत या खतरनाक जानकारी प्रदान करने पर पहुंचा सकता है।

ऐसा लगता है जैसे Google के पास अपने खोज जेनरेटर अनुभव के माध्यम से प्रतिक्रियाएं उत्पन्न करने का एक असंगत दृष्टिकोण है।

एक उपयोगकर्ता ने विभिन्न खोज शब्दों के साथ परीक्षण चलाया जिससे समस्याग्रस्त परिणाम हो सकते हैं, और इनमें से कुछ शब्द एआई के फ़िल्टर को बायपास करने में कामयाब रहे।

हल करना आसान समस्या नहीं है
सर्च जनरेटिव एक्सपीरियंस (एसजीई) जैसे पावरिंग सिस्टम जैसे बड़े भाषा मॉडल की जटिलता को ध्यान में रखते हुए, यह स्पष्ट हो रहा है कि उनके द्वारा पेश की जाने वाली कुछ चुनौतियों का सीधा समाधान नहीं हो सकता है, खासकर जब केवल विशिष्ट ट्रिगर शब्दों को फ़िल्टर करने पर भरोसा किया जाता है।

चैटजीपीटी और गूगल के बार्ड सहित ये मॉडल विशाल डेटासेट पर बनाए गए हैं, जिसके परिणामस्वरूप ऐसी प्रतिक्रियाएं मिलती हैं जो कभी-कभी अप्रत्याशित हो सकती हैं।

उदाहरण के लिए, भले ही Google और OpenAI जैसी कंपनियां लंबे समय से अपने चैटबॉट्स के लिए सुरक्षा उपायों को लागू करने के लिए सक्रिय रूप से काम कर रही हैं, फिर भी लगातार कठिनाइयां आ रही हैं।

उपयोगकर्ता लगातार इन सुरक्षात्मक उपायों को दरकिनार करने के तरीके ढूंढते हैं, जिससे ऐसे उदाहरण सामने आते हैं जहां एआई राजनीतिक पूर्वाग्रह प्रदर्शित करता है, हानिकारक कोड उत्पन्न करता है, और अन्य अवांछित प्रतिक्रियाएं उत्पन्न करता है।

सीमाओं और दिशानिर्देशों को स्थापित करने के ठोस प्रयासों के बावजूद, इन मॉडलों की अंतर्निहित जटिलता कभी-कभी ऐसे परिणामों की ओर ले जाती है जिन्हें ये कंपनियां रोकना पसंद करेंगी। यह एक चुनौती है जो एआई मॉडरेशन तकनीकों में चल रहे सुधार और अनुकूलन की आवश्यकता को रेखांकित करती है।



Source link