चीन के साइबर नियामक ने शनिवार को सार्वजनिक टिप्पणी के लिए ऐसे मसौदा नियम जारी किए हैं, जिनका उद्देश्य मानव-जैसी शख्सियत और भावनात्मक बातचीत करने वाली कृत्रिम बुद्धिमत्ता (AI) सेवाओं पर सख्त निगरानी रखना है। यह कदम उपभोक्ताओं के लिए उपलब्ध हो रही एआई तकनीक के तेजी से विस्तार को नियंत्रित करने और उसमें सुरक्षा व नैतिक मानकों को मजबूत करने की बीजिंग की कोशिश को दर्शाता है।
प्रस्तावित नियम उन एआई उत्पादों और सेवाओं पर लागू होंगे, जो चीन में आम जनता को उपलब्ध कराए जाते हैं और जिनमें मानव व्यक्तित्व के गुण, सोचने के तरीके और संवाद शैली का अनुकरण किया जाता है। ऐसे एआई सिस्टम उपयोगकर्ताओं से टेक्स्ट, तस्वीरों, ऑडियो, वीडियो या अन्य माध्यमों के जरिए भावनात्मक रूप से संवाद करते हैं।
मसौदे में कहा गया है कि सेवा प्रदाताओं को उपयोगकर्ताओं को अत्यधिक उपयोग के खतरों के बारे में चेतावनी देनी होगी और यदि किसी उपयोगकर्ता में लत के संकेत दिखते हैं, तो समय पर हस्तक्षेप करना होगा। इसके अलावा, एआई सेवा प्रदाताओं को पूरे उत्पाद जीवनचक्र के दौरान सुरक्षा की जिम्मेदारी लेनी होगी और एल्गोरिदम समीक्षा, डेटा सुरक्षा तथा व्यक्तिगत जानकारी की सुरक्षा के लिए ठोस प्रणालियां स्थापित करनी होंगी।
और पढ़ें: मेटा की मदद से एनविडिया की सॉफ्टवेयर बढ़त कम करने में जुटा गूगल
इन नियमों में संभावित मनोवैज्ञानिक जोखिमों पर भी विशेष ध्यान दिया गया है। सेवा प्रदाताओं से अपेक्षा की गई है कि वे उपयोगकर्ताओं की मानसिक स्थिति की पहचान करें, उनकी भावनाओं और एआई पर निर्भरता के स्तर का आकलन करें। यदि कोई उपयोगकर्ता अत्यधिक भावनात्मक प्रतिक्रिया या लत जैसे व्यवहार का प्रदर्शन करता है, तो प्रदाता को आवश्यक कदम उठाने होंगे।
मसौदा नियमों में कंटेंट और आचरण से जुड़ी स्पष्ट सीमाएं भी तय की गई हैं। इसके तहत एआई सेवाएं ऐसा कोई भी कंटेंट उत्पन्न नहीं कर सकेंगी, जो राष्ट्रीय सुरक्षा को खतरे में डाले, अफवाहें फैलाए, हिंसा को बढ़ावा दे या अश्लीलता को प्रोत्साहित करे। चीन का यह कदम एआई के सुरक्षित और जिम्मेदार उपयोग की दिशा में एक महत्वपूर्ण पहल माना जा रहा है।
और पढ़ें: फ्री ऑफर्स के सहारे भारत में एआई की जंग: OpenAI, Google और Perplexity की यूजर्स व डेटा पर नजर