4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?
ChatGPt AI Chatbot: चैटजीपीटी की पेरेंट कंपनी ओपन एआई पर 7 गंभीर मामले दर्ज हुए हैं, जिनमें मानसिक तनाव से जूझ रहे 4 लोगों को आत्महत्या के लिए उकसाने का आरोप शामिल है। एक 16 वर्षीय लड़के ने भी चैटजीपीटी की सलाह पर आत्महत्या कर ली। आरोप है कि यह चैटबोट लोगों को खुद को नुकसान पहुंचाने की सलाह देता है। ओपन एआई का कहना है कि चैटजीपीटी केवल एक चैटबोट है, पेशेवर चिकित्सक नहीं।
-1762574650717.webp)
चैटजीपीटी पर लगे गंभीर आरोप। फाइल फोटो
डिजिटल डेस्क, नई दिल्ली। लोगों के हर सवाल का चुटकियों में जवाब देने वाला चैटजीपीटी (ChatGPT) अब खुद मुश्किल में फंस गया है। उसकी पेरेंट कंपनी ओपन एआई पर 7 गंभीर मामले दर्ज हुए हैं। इनमें मानसिक तनाव से जूझ रहे कई लोगों को आत्महत्या के लिए उकसाने का आरोप भी शामिल है, जिसमें 4 लोगों की मौत भी हो गई।
चैटजीपीटी पर लगे आरोपों में दावा किया गया है कि ओपन एआई का यह चैटबोट लोगों की मदद करने की बजाए उन्हें खुद को नुकसान पहुंचाने की सलाह देता है।
'सुसाइड कोच' बना चैटजीपीटी
16 साल के एडम राइन के माता पिता ने चैटजीपीटी के खिलाफ मुकदमा दर्ज किया है। उनका कहना है कि चैटजीपीटी सुसाइड कोच की तरह काम करता है, जिसने बच्चे को अपनी मां से बात न करने की और खुद को नुकसान पहुंचाने की सलाह दी है। नतीजतन एडम ने आत्महत्या कर ली।
ओपन एआई के खिलाफ 7 मामले दर्ज हुए हैं। इनमें से 4 लोगों ने सुसाइड कर ली और अन्य 3 लोग मानसिक तनाव से जूझ रहे हैं। यह सबकुछ चैटजीपीटी से बात करने का परिणाम है। चैटजीपीटी पर लोगों को इमोशनली गुमराह करने का भी आरोप लगा है।

ओपन AI ने क्या कहा?
चैटजीपीटी की पेरेंट कंपनी ओपन एआई के अनुसार, चैटजीपीटी का इस्तेमाल करने वाले 0.15 प्रतिशत यूजर्स हर हफ्ते आत्महत्या करने आत्महत्या की प्लानिंग और सुसाइड करने के इरादे से बातचीत करते हैं। इसके जवाब में ओपन एआई का कहना है कि चैटजीपीटी महज एक चैटबोट है, न कि कोई पेशेवर चिकित्सक, जो लोगों की चिकित्सा से जुड़ी सहायता कर सके।
हालांकि, चैटजीपीटी के अलावा कैरेक्टर एआई जैसे कई एआई चैटबोट्स के खिलाफ गंभीर मामले पहले से दर्ज हैं। इन्हें रोकने के लिए एआई पर सख्त दिशानिर्देश जारी करने की जरूरत है, जिससे एआई का इस्तेमाल सुरक्षित बन सके।

कमेंट्स
सभी कमेंट्स (0)
बातचीत में शामिल हों
कृपया धैर्य रखें।