आजकल चैटबॉट्स का उपयोग बढ़ता जा रहा है, और लोग अक्सर जिज्ञासा के कारण इनसे अपने बारे में सवाल पूछते हैं। कई बार ये जवाब सही होते हैं, तो कभी सामान्य। लेकिन नॉर्वे के अरवे ह्यालमार होल्मेन के मामले में जो हुआ, वह किसी बुरे सपने से कम नहीं था।
झूठा आरोप जिसने चौंका दिया
होल्मेन ने महज़ यह देखने के लिए कि ChatGPT उनके बारे में क्या कहता है, एक साधारण प्रश्न किया। लेकिन जो उत्तर मिला, वह पूरी तरह से मनगढ़ंत और भयावह था। चैटबॉट ने दावा किया कि उन्होंने अपने दो बच्चों की हत्या कर दी, एक तीसरे की हत्या का प्रयास किया और अब 21 साल की सजा काट रहे हैं। इस झूठे आरोप को और खतरनाक बनाने वाली बात यह थी कि इसमें होल्मेन के वास्तविक शहर और उनके बच्चों की संख्या तथा लिंग की सही जानकारी भी जोड़ी गई थी।
AI की गलती या गंभीर लापरवाही?
यह कल्पना करना भी कठिन है कि कोई AI बिना किसी आधार के इतनी गंभीर गलत जानकारी प्रस्तुत कर सकता है। होल्मेन के लिए यह एक गहरी चिंता का विषय था—अगर कोई और इसे पढ़ता और इसे सच मान लेता, तो क्या होता? इस झूठी जानकारी के फैलने से उनकी छवि और जीवन दोनों ही बर्बाद हो सकते थे।
OpenAI के खिलाफ शिकायत
इस घटना के बाद, होल्मेन ने इसे हल्के में नहीं लिया। उन्होंने ऑस्ट्रिया स्थित प्राइवेसी राइट्स संगठन Noyb से संपर्क किया, जिसने नॉर्वे के Datatilsynet (डेटा संरक्षण प्राधिकरण) के समक्ष OpenAI के खिलाफ औपचारिक शिकायत दर्ज करवाई।
यूरोप के जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR) के तहत कंपनियों को यह सुनिश्चित करना आवश्यक है कि उनके द्वारा प्रदान की गई व्यक्तिगत जानकारी सटीक हो और यदि कोई गलती होती है, तो उसे सुधारा जाए। Noyb के वकील जोआकिम सोडरबर्ग ने इस मुद्दे पर कहा, “आप झूठी जानकारी फैलाकर सिर्फ एक छोटे से अस्वीकरण (डिस्क्लेमर) के पीछे नहीं छिप सकते।”
यह गलती हुई कैसे?
ChatGPT कोई साधारण सर्च इंजन नहीं है। यह इंटरनेट से सत्यापित जानकारी नहीं खंगालता, बल्कि जो डेटा इसे प्रशिक्षण के दौरान मिला है, उसी के आधार पर पैटर्न बनाकर जवाब तैयार करता है। यही कारण है कि कई बार यह तथ्यों को तोड़-मरोड़कर “हैलुसिनेट” कर सकता है, यानी झूठी जानकारी को पूरी सच्चाई की तरह पेश कर सकता है।
हालांकि OpenAI ने स्पष्ट किया है कि ChatGPT त्रुटियां कर सकता है, लेकिन जब मामला किसी व्यक्ति को हत्यारा कहने जितना गंभीर हो, तो क्या एक मामूली चेतावनी पर्याप्त है?
अब आगे क्या?
अब यदि ChatGPT से होल्मेन के बारे में पूछा जाए, तो यह झूठी जानकारी नहीं देगा। बल्कि, यह केवल इस कानूनी शिकायत से जुड़ी खबरें दिखाएगा। इससे यह स्पष्ट होता है कि OpenAI ने इस विशेष उत्तर को ब्लॉक कर दिया है।
दिलचस्प बात यह है कि यह पहली बार नहीं है जब Noyb ने OpenAI के खिलाफ शिकायत दर्ज कराई है। कुछ महीने पहले, इसी संगठन ने एक सार्वजनिक व्यक्ति की जन्मतिथि गलत बताए जाने को लेकर शिकायत की थी। हालांकि वह त्रुटि इतनी गंभीर नहीं थी, लेकिन यह मूल समस्या को दर्शाती है—अगर AI गलत तथ्य पेश करता है, तो उसे ठीक करने की जिम्मेदारी किसकी होगी?
फिलहाल, होल्मेन इस लड़ाई को आगे बढ़ा रहे हैं ताकि OpenAI को जवाबदेह ठहराया जा सके। लेकिन इससे एक और बड़ा सवाल खड़ा होता है—जब AI का प्रभाव बढ़ता जा रहा है, तो हम यह कैसे सुनिश्चित करें कि यह लोगों की जिंदगियां बर्बाद न कर दे?