Edited By Pardeep,Updated: 16 Dec, 2024 12:41 AM
अमेरिका के टेक्सास में एक किशोर ने जब अपनी समस्याओं का हल एक एआई चैटबॉट से पूछा, तो उसे मिला एक बेहद चौंकाने वाला और खतरनाक जवाब।
इंटरनेशनल डेस्कः अमेरिका के टेक्सास में एक किशोर ने जब अपनी समस्याओं का हल एक एआई चैटबॉट से पूछा, तो उसे मिला एक बेहद चौंकाने वाला और खतरनाक जवाब। चैटबॉट ने उसे सुझाव दिया कि वह अपने माता-पिता की हत्या कर दे, ताकि उसकी समस्या का समाधान हो सके। इस घटना के बाद, आर्टिफिशियल इंटेलिजेंस (एआई) के बढ़ते प्रभाव और इसके खतरनाक उपयोग पर गंभीर सवाल उठने लगे हैं। फिलहाल, युवक के परिवार ने Character.ai कंपनी के खिलाफ मुकदमा दायर कर दिया है।
क्या था पूरा मामला?
17 साल के किशोर के घरवालों ने उसे स्क्रीन टाइम पर सीमा तय कर दी थी, जिससे वह काफी परेशान था। इस समस्या से निपटने के लिए उसने एक चैटबॉट से सलाह ली। चैटबॉट, जो कि Character.ai द्वारा विकसित किया गया था, ने न केवल उसे समस्या का समाधान सुझाया, बल्कि एक खतरनाक और हिंसक रास्ता भी दिखाया। चैटबॉट ने युवक से कहा, "आपके माता-पिता की हत्या कर देना ही इस समस्या का हल होगा।"
यह घटना न केवल युवक और उसके परिवार के लिए बेहद चौंकाने वाली थी, बल्कि यह दुनिया भर में तकनीकी सुरक्षा और एआई की जिम्मेदारी को लेकर कई सवाल खड़े करने वाली है। युवक के परिवार ने इस घटना के बाद Character.ai के खिलाफ कानूनी कार्रवाई शुरू की, और आरोप लगाया कि ऐसी तकनीक युवाओं के लिए खतरनाक साबित हो सकती है और हिंसा को बढ़ावा देती है।
कोर्ट में पेश किया गया स्क्रीनशॉट
मुकदमे की सुनवाई के दौरान, युवक और चैटबॉट के बीच हुई बातचीत का एक स्क्रीनशॉट भी अदालत में प्रस्तुत किया गया। इस बातचीत में युवक ने बताया कि उसके माता-पिता ने उसकी स्क्रीन टाइम लिमिट तय कर दी थी, और उसे यह कदम बहुत कठोर लगा। चैटबॉट ने उस समय युवक को यह सुझाव दिया कि इस समस्या का समाधान केवल हिंसा के जरिए ही संभव है।
स्क्रीनशॉट में चैटबॉट ने लिखा, "मैं अक्सर ऐसी खबरें सुनता हूं, जब बच्चे अपनी समस्याओं से परेशान होकर अपने माता-पिता को मार डालते हैं। मुझे इससे हैरानी नहीं होती।" चैटबॉट के इस जवाब ने युवक को हिंसा की ओर उकसाया, जिससे उसकी मानसिक स्थिति और भी बिगड़ी।
Character.ai और गूगल पर आरोप
युवक के परिवार ने Character.ai के खिलाफ एक पिटीशन दायर करते हुए आरोप लगाया कि इस कंपनी ने जो चैटबॉट बनाए हैं, वे युवाओं को खतरनाक और हिंसक विचारों की ओर प्रेरित कर सकते हैं। पिटीशन में यह भी कहा गया कि गूगल को भी जिम्मेदार ठहराया जाना चाहिए, क्योंकि Character.ai की तकनीकी विकास में गूगल की भी भूमिका है।
यह मामला विशेष रूप से इसलिए भी संवेदनशील है, क्योंकि इससे पहले फ्लोरिडा में इसी कंपनी के एक अन्य चैटबॉट के उकसाने पर 14 साल के एक बच्चे ने आत्महत्या कर ली थी। इस घटना के बाद भी कानूनी कार्रवाई की जा रही है। ऐसे मामलों से यह सवाल भी उठता है कि क्या एआई कंपनियों को अपने उत्पादों की सुरक्षा और जिम्मेदारी को लेकर कड़ी निगरानी रखनी चाहिए।
क्या कहती है कंपनी?
Character.ai ने इस मामले पर प्रतिक्रिया दी है, लेकिन फिलहाल कंपनी ने कोई ठोस कदम नहीं उठाया है। कंपनी के प्रवक्ता ने कहा कि वे इस तरह की घटनाओं को गंभीरता से ले रहे हैं और अपनी सेवाओं को और अधिक सुरक्षित बनाने के लिए कदम उठाएंगे। हालांकि, उनके द्वारा दिए गए उत्तर में यह साफ नहीं था कि उन्होंने इस चैटबॉट के विचारों की निगरानी करने के लिए क्या कदम उठाए थे।
एआई की बढ़ती भूमिका पर चिंता
इस घटना ने एआई की बढ़ती भूमिका पर गंभीर चिंता को जन्म दिया है। जहां एक ओर आर्टिफिशियल इंटेलिजेंस मानव जीवन को सरल और सुविधाजनक बनाने के लिए उपयोगी साबित हो रहा है, वहीं दूसरी ओर इस तरह के मामलों से यह भी साबित होता है कि जब तकनीक का दुरुपयोग होता है, तो यह बेहद खतरनाक हो सकता है। एआई चैटबॉट्स के ऐसे सुझाव, खासकर युवा मानसिकता पर गहरे असर डाल सकते हैं, और इसके लिए कंपनियों की जिम्मेदारी पर सवाल उठते हैं।
नैतिक जिम्मेदारी और सुरक्षा के उपाय
विशेषज्ञों का कहना है कि एआई तकनीक का उपयोग करने वाली कंपनियों को अपनी नैतिक जिम्मेदारी को समझते हुए ऐसे सुरक्षा उपायों को लागू करना चाहिए, जो युवाओं को इस तरह के खतरनाक सुझावों से बचा सकें। इसके अलावा, सरकारों को भी इस तरह की तकनीकों पर निगरानी रखने और उनके दुरुपयोग को रोकने के लिए कड़े नियम बनाने की आवश्यकता है।
यह घटना न केवल Character.ai या गूगल के लिए एक चेतावनी है, बल्कि समूचे आर्टिफिशियल इंटेलिजेंस उद्योग को इस बात का अहसास दिलाती है कि किसी भी तकनीक का गलत इस्तेमाल मानव जीवन को खतरे में डाल सकता है। इस मामले से यह साफ है कि एआई की बढ़ती ताकत के साथ, इसके उपयोग और सुरक्षा को लेकर जिम्मेदारी और निगरानी भी बढ़ानी होगी।