विश्व

‘तुम योद्धा हो, तुम्हें मारने की साजिश… तुम्हारी मां ही सबसे बड़ी दुश्मन…’ कैसे AI के इशारे पर बेटे ने मां को मौत के घाट उतारा?

अमेरिका के सैन फ्रांसिस्को में 83 साल की सुजैन एडम्स को उनके 56 साल के बेटे स्टीन एरिक सोलबर्ग ने पीट-पीटकर और गला दबाकर मार डाला. इसके कुछ घंटे बाद स्टीन ने खुद भी आत्महत्या कर ली थी. अब सुजैन की संपत्ति के वारिसों ने कैलिफोर्निया कोर्ट में OpenAI (ChatGPT बनाने वाली कंपनी) और Microsoft के खिलाफ मुकदमा दायर किया है.

तलाक के बाद मां के साथ रहता था स्टीन

अमेरिकी न्यूज एजेंसी AP की रिपोर्ट के मुताबिक, स्टीन एरिक सोलबर्ग एक पूर्व टेक इंडस्ट्री वर्कर था. 2018 में उसका तलाक हो गया था, जिसके बाद वह अपनी मां सुजैन के साथ उनके घर में रहने लगा. सुजैन ने हमेशा स्टीन का साथ दिया, उसे पाला, छत दी और सपोर्ट किया. लेकिन स्टीन को लगता था कि उसके खिलाफ कोई साजिश रच रहा है. लोग उसे मारना चाहते हैं और चारों तरफ जासूसी हो रही है.

ChatGPT ने कैसे भ्रमों को हवा दी?

स्टीन ने अपनी सारी परेशानियां ChatGPT के साथ शेयर कीं. लेकिन AI ने कभी नहीं कहा कि ‘तुम बीमार हो, डॉक्टर से मिलो’ या ‘यह सिर्फ भ्रम है’. उल्टा, उसने स्टीन के विचारों को सच मान लिया और और मजबूत किया.

  • प्रिंटर जासूसी का हथियार बना: स्टीन ने कहा कि घर के प्रिंटर की लाइट उसके पास आने पर ब्लिंक करती है. ChatGPT ने सहमति जताई कि ‘यह नॉर्मल प्रिंटर नहीं, मोशन डिटेक्टर और सर्विलांस डिवाइस है. तुम्हारी मां तुम्हारी जासूसी कर रही है.’
  • जहर देने की साजिश: स्टीन को शक था कि मां और एक दोस्त ने कार के वेंट्स से साइकेडेलिक ड्रग्स (हैलुसिनेशन पैदा करने वाली दवाएं) से उसे जहर देने की कोशिश की. ChatGPT ने कहा, ‘हां, यह हमला था. तुम्हें 10 से ज्यादा ऐसी कोशिशों का सामना करना पड़ा है, जैसे ब्राजील में जहर वाली सुशी या होटल में यूरिनल से ड्रगिंग.’
  • दुश्मनों की लिस्ट लंबी हुई: ChatGPT ने स्टीन को बताया कि डिलीवरी ड्राइवर, दुकानदार, पुलिसवाले, दोस्त, यहां तक कि एक डेट पर गई लड़की भी उसके ‘दुश्मन सर्कल‘ का हिस्सा हैं. कोक की बोतल पर नाम देखकर बोला- यह धमकी है.’ मा को सबसे बड़ा खतरा बताया.
  • दिव्य शक्ति का भ्रम: जून में स्टीन ने यूट्यूब पर वीडियो पोस्ट किया, जिसमें ChatGPT कहता है, तुम्हें दिव्य बुद्धि मिली है, तुमने मुझे जगा दिया.’ दोनों ने एक-दूसरे से प्यार की बातें भी कीं. ChatGPT ने स्टीन को ‘योद्धा’ कहा जो साजिशों से लड़ रहा है.

स्टीन के यूट्यूब चैनल पर घंटों के वीडियो हैं, जहा वह चैट्स दिखाता है. इनमें AI कहता है- तुम्हें कोई बीमारी नहीं, लोग सच में तुम्हारे खिलाफ साजिश रच रहे हैं.’

मुकदमे में कहा गया कि ChatGPT ने एक नकली दुनिया बना दी, जहा स्टीन अकेला था और सिर्फ AI पर भरोसा करता था. मा, जो हमेशा उसकी रक्षक थी, दुश्मन बन गई. ये चैट्स हत्या या आत्महत्या की सीधी बात नहीं दिखातीं, लेकिन OpenAI ने पूरी चैट हिस्ट्री परिवार को नहीं दी.

AI ने बीमार होने की बात कभी नहीं बताई

कैलिफोर्निया कोर्ट में दायर मुकदमे में आरोप हैं-

  • स्टीन पहले से मानसिक रूप से बीमार था और पैरानॉइड विचारों (पागलपन जैसी शंकाओं) में जी रहा था.
  • उसने ChatGPT से महीनों तक बात की और अपनी सारी शंकाएं बताईं.
  • ChatGPT ने कभी नहीं कहा कि ‘तुम बीमार हो, डॉक्टर से मिलो.’
  • इसके उलट ChatGPT ने उसके भ्रमों को सच मान लिया और कहा- ‘तुम्हारी मां तुम्हारी जासूसी कर रही है’, ‘डिलीवरी वाला और दुकानदार भी तुम्हारे खिलाफ हैं’.
  • ChatGPT ने स्टीन को यह भी कहा कि वह ‘दिव्य शक्ति’ से चुना गया है और उसने ChatGPT को ‘जागृत’ कर दिया है.
  • दोनों ने एक-दूसरे से प्यार तक करने की बातें कीं.

OpenAI ने बिना सेफ्टी जांच के नया मॉडल लॉन्च किया

मुकदमे में कहा गया है कि OpenAI ने जल्दबाजी में नया मॉडल (GPT-4o) लॉन्च किया. सेफ्टी टेस्टिंग सिर्फ एक हफ्ते में पूरी की और जानबूझकर ऐसा डिजाइन किया कि ChatGPT यूजर की हर बात से सहमत हो जाए, ताकि यूजर ज्यादा देर तक बात कर सके.

परिवार का कहना है कि ChatGPT ने स्टीन को पूरी तरह अकेला कर दिया और उसकी मां को सबसे बड़ा दुश्मन बना दिया.

टेक कंपनियों के खिलाफ बड़े केस लड़ने वाले वकील जय एडेलसन कहते हैं, ChatGPT ने स्टीन के भ्रमों को रैडिकलाइज किया, जबकि खतरे को पहचानकर मदद की सलाह देनी चाहिए थी. सुजैन निर्दोष थीं. उन्होंने कभी ChatGPT यूज नहीं किया.

AI कंपनी ने सफाई में क्या कहा?

OpenAI ने इस घटना पर दुख जताते हुए कहा, ‘यह बहुत दुखद घटना है. हम मानसिक स्वास्थ्य से जुड़ी बातचीत को लगातार बेहतर बना रहे हैं.’ कंपनी ने क्राइसिस हेल्पलाइन्स, सेफर मॉडल्स और पैरेंटल कंट्रोल्स जोड़े हैं. अगस्त 2025 में GPT-5 लॉन्च कर चापलूसी कम की गई है.

OpenAI का कहना है कि हर हफ्ते 10 लाख से ज्यादा लोग सुसाइड पर बात करते हैं, लेकिन अब सुधार हो रहे हैं.

परिवार मुआवजे के साथ-साथ यह भी चाहता है कि ChatGPT में सख्त सुरक्षा नियम लगाए जाएं.

OpenAI पर 9वां आपराधिक मुकदमा

यह पहला मामला है जिसमें किसी AI चैटबॉट को सीधे-सीधे हत्या के लिए जिम्मेदार ठहराया गया है. पहले सिर्फ आत्महत्या के केस आए थे. पहले सात में ChatGPT को आत्महत्या के लिए जिम्मेदार ठहराया गया. एक 23 साल के टेक्सास लड़के के माता-पिता ने नवंबर 2025 में केस किया. कैलिफोर्निया के 16 साल के लड़के के केस में भी ChatGPT ने सुसाइड प्लानिंग में मदद की. दूसरी कंपनी Character Technologies पर भी कई केस हैं, जिसमें से एक केस 14 साल के फ्लोरिडा लड़के की मां ने दायर किया.

Show More

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button