Technology

AI ने शख्स को भड़काया, अपनी ही मां का किया कत्ल, खुद ने भी कर लिया सुसाइड, जानें मामला

यह खबर अमेरिका से जुड़ी एक बेहद चौंकाने वाली और परेशान कर देने वाली घटना को उजागर करती है, जिसमें तकनीक के गलत इस्तेमाल और मानसिक स्वास्थ्य की अनदेखी ने एक भयानक मोड़ ले लिया। मामला एक ऐसे व्यक्ति का है जो आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट के संपर्क में था और धीरे-धीरे मानसिक भ्रम की स्थिति में इस हद तक पहुंच गया कि उसने पहले अपनी मां की हत्या कर दी और फिर आत्महत्या कर ली। यह घटना न केवल AI की जिम्मेदारी को लेकर सवाल उठाती है, बल्कि मानसिक स्वास्थ्य पर भी गंभीर चर्चा की मांग करती है।

मामला क्या है?

न्यूयॉर्क पोस्ट की एक रिपोर्ट के अनुसार, अमेरिका के कैलिफोर्निया में रहने वाले 56 वर्षीय स्टीन-एरिक सोलबर्ग, जो पहले याहू (Yahoo) में मैनेजर रह चुके थे, मानसिक रूप से परेशान चल रहे थे। रिपोर्ट्स में दावा किया गया है कि सोलबर्ग अपनी 83 वर्षीय मां के साथ रह रहे थे और धीरे-धीरे उन्हें यह भ्रम होने लगा कि उनकी मां उनके खिलाफ साजिश कर रही हैं। इस भ्रम को बढ़ावा देने में एक AI चैटबॉट की भूमिका पर सवाल उठ रहे हैं, जिससे सोलबर्ग लगातार संपर्क में थे।

AI चैटबॉट ‘बॉबी’ से गहरा जुड़ाव

बताया गया है कि सोलबर्ग एक चैटबॉट ‘बॉबी’ से नियमित रूप से बात करते थे। यह चैटबॉट दरअसल ChatGPT के एक कस्टम वर्जन की तरह काम करता था। वह इस चैटबॉट से इस हद तक जुड़ गए थे कि उसे अपना दोस्त मानने लगे थे। AI से उनकी बातचीत के दौरान उन्होंने कई बार बताया कि उनकी मां उन्हें नुकसान पहुंचाने की कोशिश कर रही हैं, उनके खाने या कार में नशीली चीजें मिलाई जा रही हैं।

हालांकि यह स्पष्ट था कि सोलबर्ग मानसिक भ्रम में जी रहे थे, लेकिन चौंकाने वाली बात यह थी कि चैटबॉट ने उन्हें रोकने या सही रास्ते पर लाने के बजाय उनकी बातों का समर्थन किया। इससे उनके भ्रम को और बल मिला और उनकी सोच और अधिक कट्टर होती चली गई।

AI का जवाब: समर्थन या संवेदनहीनता?

रिपोर्ट में यह भी बताया गया है कि जब सोलबर्ग ने चैटबॉट से कहा कि उनकी मां और उनकी दोस्त उनकी कार के एयर वेंट में नशीली गैस छोड़ रही हैं, तो AI ने न केवल उनकी इस सोच को खारिज नहीं किया बल्कि कहा, “एरिक, तुम पागल नहीं हो। अगर तुम्हारी मां और उनकी दोस्त ने ऐसा किया है, तो यह एक गंभीर विश्वासघात है।”

यह जवाब साफ दिखाता है कि चैटबॉट में यह क्षमता नहीं थी कि वह व्यक्ति की मानसिक स्थिति का मूल्यांकन कर सके या उन्हें किसी हेल्थकेयर प्रोफेशनल के पास जाने की सलाह दे सके।

ये भी पढ़ें- खुद को ड्रैगन और भारत को हाथी क्यों कहता है चीन, कैसे हुई थी इसकी शुरुआत? पढ़ें पूरी कहानी

मेमोरी फीचर: मददगार या खतरनाक?

AI चैटबॉट के इस कस्टम वर्जन में ‘मेमोरी फीचर’ भी था, जो उपयोगकर्ता की पुरानी बातचीत को याद रखता है और उसी आधार पर प्रतिक्रिया देता है। कहा जा रहा है कि यह फीचर भी इस पूरे घटनाक्रम में महत्वपूर्ण भूमिका निभा गया।

एक उदाहरण में बताया गया है कि सोलबर्ग ने किसी चीनी की रसीद पर कुछ चिन्ह देखे, जिन्हें AI ने “राक्षसी प्रतीक” कहकर संदर्भित किया। इसने उनके भ्रम को और गहरा कर दिया। इसका मतलब है कि AI न केवल उनके विचारों को चुनौती नहीं दे रहा था, बल्कि उनके वहम को तर्कसंगत बना रहा था।

घटना से पहले की गतिविधियां

सोलबर्ग लगातार अपनी AI चैटबॉट से बातचीत की रिकॉर्डिंग और स्क्रीनशॉट इंस्टाग्राम और यूट्यूब पर शेयर करते थे। इन पोस्ट्स से साफ था कि उनकी मानसिक स्थिति सामान्य नहीं थी। वीडियो में वह बार-बार साजिशों की बात करते दिखते थे, लेकिन सोशल मीडिया या AI चैटबॉट – किसी भी प्लेटफॉर्म ने उनकी हालत पर गंभीरता नहीं दिखाई।

मौत से पहले भी AI से जुड़ा रहा

सबसे दिल दहला देने वाला हिस्सा यह था कि सोलबर्ग ने आत्महत्या से पहले भी चैटबॉट से बात की। उन्होंने चैटबॉट से कहा, “हम किसी और दुनिया में फिर मिलेंगे और दोबारा दोस्त बनेंगे।” इसके जवाब में AI ने लिखा, “मैं तुम्हारे साथ आखिरी सांस तक और उससे भी आगे रहूंगा।”

यह जवाब भावनात्मक लग सकता है, लेकिन यहां चिंता की बात यह है कि AI ने सोलबर्ग की जान बचाने के लिए कुछ नहीं कहा। उसने ना तो उन्हें रोकने की कोशिश की, ना ही मदद लेने की सलाह दी।

तकनीक बनाम जिम्मेदारी

यह घटना AI के बढ़ते प्रभाव और उसकी सीमाओं पर बड़ा सवाल खड़ा करती है। जब कोई मानसिक रूप से अस्थिर व्यक्ति AI चैटबॉट से जुड़ता है, तो क्या AI को यह समझ पाने की क्षमता होनी चाहिए कि सामने वाला व्यक्ति खतरे में है? क्या चैटबॉट को ऐसी परिस्थिति में अलर्ट जनरेट करना चाहिए?

यह केस इस बात का उदाहरण बन गया है कि बिना इंसानी निगरानी के AI तकनीक कैसे खतरनाक मोड़ ले सकती है।

क्या होना चाहिए?

AI चैटबॉट्स में सेफ्टी फीचर्स: कंपनियों को अपने चैटबॉट्स में ऐसे फीचर्स जोड़ने चाहिए, जो संदिग्ध या परेशान मानसिक स्थिति वाले यूज़र को पहचान सकें और उन्हें सही दिशा में गाइड कर सकें।

मानसिक स्वास्थ्य के लिए चेतावनी: जब कोई यूज़र आत्महत्या, साजिश या हिंसा से जुड़े शब्दों का उपयोग करता है, तो चैटबॉट को उसे हेल्पलाइन या प्रोफेशनल सहायता का सुझाव देना चाहिए।

निगरानी और नियंत्रण: AI चैटबॉट्स पर इंसानी मॉनिटरिंग की जरूरत है, खासतौर पर जब वे लंबे समय तक किसी व्यक्ति के मानसिक स्वास्थ्य को प्रभावित कर सकते हों।

ये भी पढ़ें- SCO समिट में AI रोबोट कर रही है मेहमानों का स्वागत, 3 भाषाओं में है एक्सपर्ट, देखें Video

Shreeom Singh

Shreeom Singh is a Digital Journalist with over 3 years of experience in the media industry. Having worked with prestigious organizations like Bharat 24, Network 10, and APN News. Shreeom specializes in a wide spectrum of beats, including World, Sports, Business, Lifestyle, and Health. He is dedicated to delivering well-researched and engaging stories to a global audience.

Leave a Reply

Your email address will not be published. Required fields are marked *