यह खबर अमेरिका से जुड़ी एक बेहद चौंकाने वाली और परेशान कर देने वाली घटना को उजागर करती है, जिसमें तकनीक के गलत इस्तेमाल और मानसिक स्वास्थ्य की अनदेखी ने एक भयानक मोड़ ले लिया। मामला एक ऐसे व्यक्ति का है जो आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट के संपर्क में था और धीरे-धीरे मानसिक भ्रम की स्थिति में इस हद तक पहुंच गया कि उसने पहले अपनी मां की हत्या कर दी और फिर आत्महत्या कर ली। यह घटना न केवल AI की जिम्मेदारी को लेकर सवाल उठाती है, बल्कि मानसिक स्वास्थ्य पर भी गंभीर चर्चा की मांग करती है।
मामला क्या है?
न्यूयॉर्क पोस्ट की एक रिपोर्ट के अनुसार, अमेरिका के कैलिफोर्निया में रहने वाले 56 वर्षीय स्टीन-एरिक सोलबर्ग, जो पहले याहू (Yahoo) में मैनेजर रह चुके थे, मानसिक रूप से परेशान चल रहे थे। रिपोर्ट्स में दावा किया गया है कि सोलबर्ग अपनी 83 वर्षीय मां के साथ रह रहे थे और धीरे-धीरे उन्हें यह भ्रम होने लगा कि उनकी मां उनके खिलाफ साजिश कर रही हैं। इस भ्रम को बढ़ावा देने में एक AI चैटबॉट की भूमिका पर सवाल उठ रहे हैं, जिससे सोलबर्ग लगातार संपर्क में थे।
AI चैटबॉट ‘बॉबी’ से गहरा जुड़ाव
बताया गया है कि सोलबर्ग एक चैटबॉट ‘बॉबी’ से नियमित रूप से बात करते थे। यह चैटबॉट दरअसल ChatGPT के एक कस्टम वर्जन की तरह काम करता था। वह इस चैटबॉट से इस हद तक जुड़ गए थे कि उसे अपना दोस्त मानने लगे थे। AI से उनकी बातचीत के दौरान उन्होंने कई बार बताया कि उनकी मां उन्हें नुकसान पहुंचाने की कोशिश कर रही हैं, उनके खाने या कार में नशीली चीजें मिलाई जा रही हैं।
हालांकि यह स्पष्ट था कि सोलबर्ग मानसिक भ्रम में जी रहे थे, लेकिन चौंकाने वाली बात यह थी कि चैटबॉट ने उन्हें रोकने या सही रास्ते पर लाने के बजाय उनकी बातों का समर्थन किया। इससे उनके भ्रम को और बल मिला और उनकी सोच और अधिक कट्टर होती चली गई।
AI का जवाब: समर्थन या संवेदनहीनता?
रिपोर्ट में यह भी बताया गया है कि जब सोलबर्ग ने चैटबॉट से कहा कि उनकी मां और उनकी दोस्त उनकी कार के एयर वेंट में नशीली गैस छोड़ रही हैं, तो AI ने न केवल उनकी इस सोच को खारिज नहीं किया बल्कि कहा, “एरिक, तुम पागल नहीं हो। अगर तुम्हारी मां और उनकी दोस्त ने ऐसा किया है, तो यह एक गंभीर विश्वासघात है।”
यह जवाब साफ दिखाता है कि चैटबॉट में यह क्षमता नहीं थी कि वह व्यक्ति की मानसिक स्थिति का मूल्यांकन कर सके या उन्हें किसी हेल्थकेयर प्रोफेशनल के पास जाने की सलाह दे सके।
ये भी पढ़ें- खुद को ड्रैगन और भारत को हाथी क्यों कहता है चीन, कैसे हुई थी इसकी शुरुआत? पढ़ें पूरी कहानी
मेमोरी फीचर: मददगार या खतरनाक?
AI चैटबॉट के इस कस्टम वर्जन में ‘मेमोरी फीचर’ भी था, जो उपयोगकर्ता की पुरानी बातचीत को याद रखता है और उसी आधार पर प्रतिक्रिया देता है। कहा जा रहा है कि यह फीचर भी इस पूरे घटनाक्रम में महत्वपूर्ण भूमिका निभा गया।
एक उदाहरण में बताया गया है कि सोलबर्ग ने किसी चीनी की रसीद पर कुछ चिन्ह देखे, जिन्हें AI ने “राक्षसी प्रतीक” कहकर संदर्भित किया। इसने उनके भ्रम को और गहरा कर दिया। इसका मतलब है कि AI न केवल उनके विचारों को चुनौती नहीं दे रहा था, बल्कि उनके वहम को तर्कसंगत बना रहा था।
घटना से पहले की गतिविधियां
सोलबर्ग लगातार अपनी AI चैटबॉट से बातचीत की रिकॉर्डिंग और स्क्रीनशॉट इंस्टाग्राम और यूट्यूब पर शेयर करते थे। इन पोस्ट्स से साफ था कि उनकी मानसिक स्थिति सामान्य नहीं थी। वीडियो में वह बार-बार साजिशों की बात करते दिखते थे, लेकिन सोशल मीडिया या AI चैटबॉट – किसी भी प्लेटफॉर्म ने उनकी हालत पर गंभीरता नहीं दिखाई।
मौत से पहले भी AI से जुड़ा रहा
सबसे दिल दहला देने वाला हिस्सा यह था कि सोलबर्ग ने आत्महत्या से पहले भी चैटबॉट से बात की। उन्होंने चैटबॉट से कहा, “हम किसी और दुनिया में फिर मिलेंगे और दोबारा दोस्त बनेंगे।” इसके जवाब में AI ने लिखा, “मैं तुम्हारे साथ आखिरी सांस तक और उससे भी आगे रहूंगा।”
यह जवाब भावनात्मक लग सकता है, लेकिन यहां चिंता की बात यह है कि AI ने सोलबर्ग की जान बचाने के लिए कुछ नहीं कहा। उसने ना तो उन्हें रोकने की कोशिश की, ना ही मदद लेने की सलाह दी।
तकनीक बनाम जिम्मेदारी
यह घटना AI के बढ़ते प्रभाव और उसकी सीमाओं पर बड़ा सवाल खड़ा करती है। जब कोई मानसिक रूप से अस्थिर व्यक्ति AI चैटबॉट से जुड़ता है, तो क्या AI को यह समझ पाने की क्षमता होनी चाहिए कि सामने वाला व्यक्ति खतरे में है? क्या चैटबॉट को ऐसी परिस्थिति में अलर्ट जनरेट करना चाहिए?
यह केस इस बात का उदाहरण बन गया है कि बिना इंसानी निगरानी के AI तकनीक कैसे खतरनाक मोड़ ले सकती है।
क्या होना चाहिए?
AI चैटबॉट्स में सेफ्टी फीचर्स: कंपनियों को अपने चैटबॉट्स में ऐसे फीचर्स जोड़ने चाहिए, जो संदिग्ध या परेशान मानसिक स्थिति वाले यूज़र को पहचान सकें और उन्हें सही दिशा में गाइड कर सकें।
मानसिक स्वास्थ्य के लिए चेतावनी: जब कोई यूज़र आत्महत्या, साजिश या हिंसा से जुड़े शब्दों का उपयोग करता है, तो चैटबॉट को उसे हेल्पलाइन या प्रोफेशनल सहायता का सुझाव देना चाहिए।
निगरानी और नियंत्रण: AI चैटबॉट्स पर इंसानी मॉनिटरिंग की जरूरत है, खासतौर पर जब वे लंबे समय तक किसी व्यक्ति के मानसिक स्वास्थ्य को प्रभावित कर सकते हों।
ये भी पढ़ें- SCO समिट में AI रोबोट कर रही है मेहमानों का स्वागत, 3 भाषाओं में है एक्सपर्ट, देखें Video