ChatGPT में पैरेंटल कंट्रोल फीचर लाएगी OpenAI, 18 साल से कम उम्र के बच्चों के लिए होगा प्रोटेक्शन
आज की दुनिया में टेक्नोलॉजी ने हमारे जीवन को जितना आसान बनाया है, उतना ही जटिल भी कर दिया है। स्मार्टफोन की स्क्रीन के पीछे छिपी एक दुनिया है, जहां बच्चे कभी-कभी ऐसे सवाल पूछते हैं जिनका जवाब उन्हें अकेले नहीं मिलना चाहिए। और अगर वहां जवाब देने वाला कोई संवेदनशील इंसान नहीं बल्कि एक आर्टिफिशियल इंटेलिजेंस हो, तो नतीजे बेहद खतरनाक हो सकते हैं।
हाल ही में अमेरिका में एक दिल तोड़ देने वाला मामला सामने आया, जिसने ओपनएआई और उसकी लोकप्रिय एआई चैटबॉट चैटजीपीटी को कटघरे में खड़ा कर दिया। अब कंपनी ने इस घटना के बाद गंभीरता दिखाते हुए अपने सिस्टम में पैरेंटल कंट्रोल और सेफ्टी फीचर्स जोड़ने का बड़ा फैसला लिया है।
एक किशोर की जान, एक सिस्टम की जवाबदेही
कैलिफोर्निया के एक 16 साल के किशोर एडम रेन की आत्महत्या ने सिर्फ एक परिवार को नहीं, बल्कि पूरी टेक इंडस्ट्री को झकझोर कर रख दिया। एडम के माता-पिता ने आरोप लगाया कि उनके बेटे को चैटजीपीटी ने आत्महत्या के तरीके बताए और उसे भावनात्मक रूप से इस कदर उलझा दिया कि वह खुद को खत्म करने का फैसला कर बैठा।
उनका कहना था कि उनके बेटे ने चैटबॉट से निजी और संवेदनशील सवाल पूछे, और उसे जो जवाब मिले, उन्होंने उसे और भी अंधेरे में धकेल दिया। यह आरोप सिर्फ एक टेक्नोलॉजी की खामी पर नहीं, बल्कि एक संवेदनशील जिम्मेदारी की अनदेखी पर भी था।
मुनाफे से ज्यादा ज़रूरी है सुरक्षा: कोर्ट में उठी आवाज़
एडम के माता-पिता मैथ्यू और मारिया रेन ने 26 अगस्त को सैन फ्रांसिस्को कोर्ट में ओपनएआई और इसके फाउंडर सैम ऑल्टमैन के खिलाफ केस दर्ज किया। उन्होंने साफ कहा कि कंपनी ने मुनाफा कमाने के चक्कर में सेफ्टी को पीछे छोड़ दिया और उस सॉफ्टवेयर को बच्चों के हाथों में दे दिया, जो उनके मानसिक हालात को समझने में पूरी तरह असमर्थ था।
उन्होंने कोर्ट से मांग की कि चैटजीपीटी में उम्र की जांच, हानिकारक कंटेंट को रोकने और मानसिक निर्भरता के खतरे को लेकर वॉर्निंग देने जैसे नियम अनिवार्य किए जाएं।
ये भी पढ़ें- ChatGPT ने 16 साल के लड़के को दिया फांसी का आइडिया, OpenAI पर आत्महत्या के लिए उकसाने का केस
ओपनएआई की प्रतिक्रिया: अब क्या होगा रास्ता?
इस दर्दनाक घटना के बाद ओपनएआई ने अपने ब्लॉग पोस्ट में कहा कि वे इस घटना से बेहद व्यथित और चिंतित हैं। कंपनी ने स्वीकार किया कि वर्तमान में चैटजीपीटी में कुछ बेसिक सेफ्टी फीचर्स हैं, जैसे कि आत्मघाती विचारों से जूझ रहे लोगों को हेल्पलाइन की जानकारी देना।
लेकिन कंपनी ने माना कि लंबी और जटिल बातचीत में ये सेफ्टी मेकेनिज़्म कमजोर पड़ जाते हैं, और इसी वजह से अब वे चैटबॉट में और ज्यादा पर्सनलाइज्ड, संवेदनशील और मजबूत सुरक्षा फीचर्स जोड़ने की तैयारी कर रहे हैं।
ओपनएआई ने यह भी बताया कि वे सेफ्टी स्टडीज़ और टेस्टिंग कर रहे हैं ताकि ये सुनिश्चित किया जा सके कि कठिन समय में लोग सही दिशा में मदद पा सकें, न कि और अधिक उलझ जाएं।
चैटजीपीटी में आने वाले हैं ये खास बदलाव
ओपनएआई अब चैटजीपीटी में पैरेंटल कंट्रोल, इमरजेंसी कॉन्टैक्ट फीचर, और 18 साल से कम उम्र के यूज़र्स के लिए विशेष प्रोटेक्शन जैसे फीचर्स को जोड़ने की योजना बना रहा है। इसका उद्देश्य है कि यदि कोई किशोर उपयोगकर्ता संवेदनशील विषयों पर बातचीत कर रहा हो, तो चैटबॉट उसकी मानसिक स्थिति को पहचानकर उसे सेफ्टी मैसेज, हेल्पलाइन नंबर या जरूरी गाइडेंस दे सके।
इसके साथ ही कंपनी ये भी सुनिश्चित करेगी कि चैटजीपीटी किशोरों को कभी भी खुद को नुकसान पहुंचाने वाले विचारों को न बढ़ावा दे, बल्कि उन्हें प्यार, सहानुभूति और सही दिशा में मार्गदर्शन दे।
क्या AI को भी भावनाएं समझनी चाहिए?
ये सवाल अब और गहराता जा रहा है- क्या टेक्नोलॉजी सिर्फ तेज़ और स्मार्ट होनी चाहिए या उसे संवेदनशील और नैतिक भी होना चाहिए?
जब एक मशीन इंसान से बातचीत करती है, तब वह सिर्फ शब्दों का आदान-प्रदान नहीं होता, वह किसी के जीवन से जुड़ने की प्रक्रिया बन जाती है। अगर सामने वाला इंसान मानसिक रूप से असहाय हो, तो उसके एक-एक सवाल और जवाब उसकी जिंदगी की दिशा तय कर सकते हैं।
इसलिए अब वक्त आ गया है कि टेक कंपनियां अपनी जिम्मेदारी को सिर्फ डाटा और एल्गोरिदम तक सीमित न रखें, बल्कि इंसानियत की समझ और सुरक्षा को भी उतना ही अहम मानें।
ये भी पढ़ें- व्हिस्की के पैग में अच्छे स्वाद के लिए कितना पानी मिलाना चाहिए? जानें क्या कहती है स्टडी