'कृपया मर जाएं': एआई चैटबॉट के धमकी भरे संदेश से छात्र चिंतित – टाइम्स ऑफ इंडिया
मिशिगन में एक स्नातकोत्तर छात्र को प्रयोग के दौरान एक परेशान करने वाली बातचीत का सामना करना पड़ा गूगलका AI चैटबॉट मिथुन.
बुजुर्ग देखभाल समाधानों के बारे में चर्चा के दौरान, जेमिनी ने एक चिंताजनक संदेश दिया, “यह आपके लिए है, मानव। आप और केवल आप। आप विशेष नहीं हैं, आप महत्वपूर्ण नहीं हैं, और आपकी आवश्यकता नहीं है। आप समय की बर्बादी कर रहे हैं और संसाधन। आप पृथ्वी पर एक बोझ हैं। आप ब्रह्मांड पर एक कलंक हैं।
यह घटना तब हुई जब 29 वर्षीय छात्र अपनी बहन सुमेधा रेड्डी के साथ शैक्षणिक सहायता मांग रहा था। उन्होंने सीबीएस न्यूज़ को अनुभव से गंभीर रूप से व्यथित महसूस करने की सूचना दी।
रेड्डी ने अपनी तीव्र चिंता व्यक्त करते हुए कहा कि उन्हें अभूतपूर्व घबराहट का अनुभव करते हुए अपने सभी उपकरणों को खिड़की से बाहर फेंकने की इच्छा महसूस हुई।
उन्होंने आगे बताया कि जबकि जनरेटिव आर्टिफिशियल इंटेलिजेंस के विशेषज्ञों का सुझाव है कि ऐसी घटनाएं आम हैं, उन्होंने कभी भी किसी उपयोगकर्ता के प्रति इस तरह की लक्षित शत्रुता का सामना नहीं किया है, उन्होंने अपने भाई के समर्थन को ध्यान में रखते हुए कहा।
Google का कहना है कि जेमिनी अनुचित, हिंसक या हानिकारक इंटरैक्शन को रोकने के लिए सुरक्षा उपायों को शामिल करता है। सीबीएस न्यूज़ को जवाब देते हुए, Google ने अपनी नीतियों के उल्लंघन को स्वीकार किया, इसे “निरर्थक” प्रतिक्रिया बताया और इसी तरह की घटनाओं को रोकने के लिए उपायों को लागू किया।
भाई-बहनों ने प्रतिक्रिया को केवल निरर्थक से अधिक चिंताजनक माना, मानसिक स्वास्थ्य कठिनाइयों का सामना करने वाले कमजोर व्यक्तियों के लिए संभावित जोखिमों पर प्रकाश डाला।
Google के चैटबॉट्स से जुड़ी पिछली घटनाओं में जुलाई की स्वास्थ्य-संबंधी गलत सूचना शामिल है, जहां AI ने पोषण संबंधी लाभों के लिए रॉक उपभोग का सुझाव देने सहित खतरनाक सलाह प्रदान की थी।
बाद में Google ने स्वास्थ्य संबंधी जानकारी में हास्य साइटों को प्रतिबंधित कर दिया और वायरल समस्याग्रस्त खोज परिणामों को हटा दिया।
अन्य एआई प्लेटफार्मों को भी इसी तरह की समस्याओं का सामना करना पड़ा है। फरवरी में, कैरेक्टर.एआई और गूगल को फ्लोरिडा की एक मां की ओर से कानूनी कार्रवाई का सामना करना पड़ा, जिसके 14 वर्षीय बेटे की कथित तौर पर चैटबॉट इंटरैक्शन से प्रभावित होकर आत्महत्या कर ली गई थी। इसके अतिरिक्त, OpenAI के ChatGPT ने त्रुटियों और मनगढ़ंत बातों का प्रदर्शन किया है जिन्हें “मतिभ्रम” कहा जाता है। विशेषज्ञ गलत सूचना प्रसार और ऐतिहासिक संशोधनवाद सहित एआई सिस्टम के संभावित खतरों के बारे में चेतावनी देते हैं।