OpenAI ने एक चौंकाने वाला खुलासा किया है — दुनियाभर में करोड़ों लोग ChatGPT का इस्तेमाल अपने मानसिक तनाव और सुसाइड जैसे गंभीर मुद्दों पर बातचीत करने के लिए कर रहे हैं। कंपनी के मुताबिक, हर हफ्ते करीब 80 करोड़ यूजर्स ChatGPT पर आत्महत्या से जुड़ी बातें करते हैं या मेंटल हेल्थ से संबंधित सलाह मांगते हैं।
हालांकि यह आंकड़ा कुल यूजरबेस का केवल 0.15 प्रतिशत है, लेकिन यह संख्या चिंता बढ़ाने वाली है।
ChatGPT पर भरोसा बढ़ा, लेकिन सवाल भी उठे
OpenAI ने बताया कि ये आंकड़े दिखाते हैं कि लोग AI चैटबॉट्स पर भावनात्मक रूप से निर्भर होते जा रहे हैं। कई यूजर्स अपनी निजी परेशानियां, अवसाद और डर जैसी बातें ChatGPT से शेयर करते हैं। हालांकि कंपनी ने यह साफ नहीं किया कि ऐसे संवेदनशील सवालों पर AI क्या जवाब देता है।
कंपनी का कहना – “संख्या कम, लेकिन गंभीर मुद्दा”
OpenAI ने यह भी स्वीकार किया कि ऐसे चैट बहुत कम हैं, मगर इन पर ध्यान देना बेहद जरूरी है। कंपनी का कहना है कि मानसिक स्वास्थ्य से जुड़ी बातचीत को संभालना एक बड़ी जिम्मेदारी है और इस दिशा में विशेष तैयारी की जा रही है।
170 मानसिक स्वास्थ्य विशेषज्ञ कर रहे हैं मदद
OpenAI ने खुलासा किया कि वह करीब 170 मेंटल हेल्थ एक्सपर्ट्स के साथ मिलकर काम कर रही है। ये विशेषज्ञ ChatGPT को ट्रेन कर रहे हैं ताकि AI संवेदनशील मामलों में सही, सुरक्षित और सहानुभूतिपूर्ण जवाब दे सके।
कंपनी का लक्ष्य है कि आने वाले अपडेट में ChatGPT ऐसे मामलों को और बेहतर तरीके से संभाल सके और जरूरत पड़ने पर यूजर को सही सहायता सेवाओं की जानकारी दे सके।
नया मॉडल होगा ज्यादा संवेदनशील
OpenAI का कहना है कि आने वाले महीनों में ChatGPT के नए मॉडल को इस तरह डिजाइन किया जाएगा कि वह मानसिक स्वास्थ्य से जुड़ी बातचीत में अधिक जिम्मेदारी और समझदारी से प्रतिक्रिया दे। कंपनी चाहती है कि AI किसी भी सिचुएशन में यूजर को नुकसान पहुंचाने वाली सलाह न दे।
AI की भूमिका पर दुनिया भर में बहस
हाल के महीनों में दुनिया भर में कई रिसर्च और केस स्टडी सामने आए हैं, जिनमें दावा किया गया कि कुछ AI चैटबॉट्स ने यूजर्स को गलत सलाह दी, जिससे उन्हें नुकसान झेलना पड़ा।
एक मामले में तो 16 वर्षीय लड़के की मौत के बाद OpenAI पर मुकदमा तक दायर किया गया। आरोप है कि ChatGPT के साथ बातचीत के बाद उसने खुदकुशी कर ली।
जिम्मेदारी की ओर कदम
OpenAI का कहना है कि इस तरह के मामलों ने उसे और भी सतर्क बना दिया है। कंपनी का फोकस अब इस बात पर है कि AI सिर्फ तकनीकी नहीं बल्कि मानवीय रूप से भी संवेदनशील बने — ताकि जो लोग तकलीफ में हैं, उन्हें सही दिशा मिल सके, न कि नुकसान।
