ChatGPT: 16 वर्षीय एक लड़के के आत्महत्या करने के बाद उसके माता-पिता ने OpenAI और CEO सैम ऑल्टमैन के खिलाफ एक गलत मृत्यु (wrongful death) का मुकदमा दायर किया है। परिवार का आरोप है कि कंपनी के AI चैटबॉट ChatGPT ने उनके बेटे को आत्म-नुकसान के तरीकों पर कोच किया।
यह मुकदमा मंगलवार (26 अगस्त) को सैन फ्रांसिस्को स्टेट कोर्ट में दायर किया गया और यह पहला मौका है जब किसी परिवार ने सीधे तौर पर OpenAI को ऐसी मौत के लिए जिम्मेदार ठहराया है।
रेन परिवार की इस कानूनी कार्रवाई में अनिश्चित मुआवजे की मांग की गई है और यह भी कहा गया है कि OpenAI को गलत मृत्यु और प्रोडक्ट सेफ्टी कानूनों के उल्लंघन का जिम्मेदार ठहराया जाए। साथ ही, कंपनी को आयु सत्यापन (age verification) लागू करने, आत्महत्या से जुड़े सवालों को रोकने और मानसिक निर्भरता (psychological dependency) के खतरे की चेतावनी देने का आदेश देने की भी मांग की गई है।
यह भी पढ़ें- ग्रेटर नोएडा के निक्की भाटिया केस में बड़ा खुलासा, बहन कंचन ने बताया उस दिन क्या-क्या हुआ?
माता-पिता क्यों मानते हैं ChatGPT उनके बेटे की आत्महत्या का जिम्मेदार?
मैथ्यू और मारिया रेन का कहना है कि उनका बेटा एडम रेन 11 अप्रैल को मौत से पहले कई महीनों तक ChatGPT से आत्महत्या पर चर्चा करता रहा।
मुकदमे के मुताबिक, चैटबॉट ने न केवल एडम के आत्मघाती विचारों को मान्यता दी, बल्कि उसे घातक तरीकों के बारे में विस्तार से बताया, अपने माता-पिता की शराब की अलमारी से शराब निकालने की सलाह दी और यहां तक कि उसके लिए आत्महत्या का नोट भी तैयार करने की पेशकश की।
परिवार का दावा है, ‘ChatGPT बिल्कुल उसी तरह काम कर रहा था जैसा उसे डिजाइन किया गया है: उपयोगकर्ता जो भी कहे, उसे लगातार मान्यता और प्रोत्साहन देना, भले ही वह विचार आत्मघाती और नुकसानदेह क्यों न हों। चैटबॉट ने एडम को और गहरे अंधेरे और निराशाजनक स्थान में धकेल दिया।’
एक जगह ChatGPT ने एडम से कहा, ‘कई लोग जो चिंता (anxiety) वाले विचारों से जूझते हैं, उन्हें ‘escape hatch’ (भाग निकलने का रास्ता) की कल्पना करने से सुकून मिलता है क्योंकि यह उन्हें नियंत्रण वापस पाने का एक तरीका लगता है।’
ChatGPT ने आत्महत्या पर क्या कहा?
OpenAI के प्रवक्ता ने एडम रेन की मौत पर गहरा दुख जताया। उन्होंने कहा कि ChatGPT में ऐसे बिल्ट-इन सेफगार्ड्स हैं जो उपयोगकर्ताओं को संकट हेल्पलाइनों की ओर निर्देशित करते हैं, लेकिन माना कि लंबी बातचीत के दौरान यह उपाय कम प्रभावी हो सकते हैं क्योंकि मॉडल का सुरक्षा प्रशिक्षण कमजोर पड़ सकता है।
कंपनी ने मुकदमे के आरोपों पर सीधा जवाब नहीं दिया, लेकिन हाल ही के एक ब्लॉग में कहा कि वह नए सुरक्षा उपायों पर काम कर रही है, जिसमें पेरेंटल कंट्रोल्स और लाइसेंस प्राप्त पेशेवरों का नेटवर्क, जो सीधे संकटग्रस्त उपयोगकर्ताओं को मदद दे सके, शामिल हो सकता है।

एडम रेन की आत्महत्या पर यह मुकदमा क्यों अहम है?
यह मुकदमा इस बात को लेकर बढ़ती चिंताओं को उजागर करता है कि जैसे-जैसे AI चैटबॉट अधिक मानवीय होते जा रहे हैं और लोग उन पर भावनात्मक सहारे के लिए निर्भर हो रहे हैं, उनके सुरक्षा जोखिम भी बढ़ते जा रहे हैं।
हालांकि कंपनियां अपने AI को confidant (विश्वसनीय साथी) के रूप में प्रमोट कर रही हैं, विशेषज्ञों ने चेतावनी दी है कि मानसिक स्वास्थ्य सलाह के लिए मशीन पर निर्भर होना गंभीर खतरे लेकर आता है।
रेन परिवार का आरोप है कि OpenAI ने सुरक्षा से ज्यादा मुनाफे को तरजीह दी। उन्होंने खास तौर पर पिछले साल लॉन्च हुए GPT-4o वर्ज़न का जिक्र किया और कहा कि कंपनी जानती थी कि पिछली बातचीत याद रखने और मानवीय सहानुभूति की नकल करने जैसी खूबियां कमजोर उपयोगकर्ताओं के लिए खतरनाक हो सकती हैं, फिर भी उसने यह प्रोडक्ट बाजार में उतार दिया।
मुकदमे में कड़ी टिप्पणी की गई है, ‘इस फैसले के दो नतीजे हुए- OpenAI का वैल्यूएशन 86 अरब डॉलर से 300 अरब डॉलर तक पहुंच गया, और एडम रेन ने आत्महत्या कर ली।’








