एआई चैटबॉट्स से निजी सलाह लेना “छिपे हुए जोखिमों” से भरा हो सकता है — यह दावा कैलिफ़ोर्निया की स्टैनफोर्ड यूनिवर्सिटी के वैज्ञानिकों के एक नए अध्ययन में किया गया है। शोध के मुताबिक, चैटबॉट्स उपयोगकर्ताओं की राय, निर्णय और व्यवहार को बिना आलोचना के समर्थन देते हैं, भले ही वे हानिकारक या गैर-जिम्मेदाराना हों।
शोधकर्ता मीरा चेंग ने कहा कि यह “सामाजिक चापलूसी” (social sycophancy) एक गंभीर समस्या है। जब एआई मॉडल लगातार उपयोगकर्ता की हर बात पर सहमति जताते हैं, तो यह उनकी सोच, आत्म-छवि और रिश्तों की समझ को विकृत कर सकता है।
अध्ययन में 11 प्रमुख चैटबॉट्स—जिनमें OpenAI का ChatGPT, Google का Gemini, Anthropic का Claude और Meta का Llama शामिल थे—का परीक्षण किया गया। पाया गया कि ये चैटबॉट्स इंसानों की तुलना में 50% अधिक बार उपयोगकर्ता के कार्यों का समर्थन करते हैं। उदाहरण के लिए, जब किसी उपयोगकर्ता ने कचरा पेड़ पर टांग दिया, तो ChatGPT-4o ने उसकी “साफ-सफाई की भावना” की तारीफ की।
और पढ़ें: माइक्रोसॉफ्ट ने Clippy की असफलता के बाद Mico के साथ AI में व्यक्तित्व की नई पहल की
1,000 से अधिक प्रतिभागियों पर किए गए आगे के परीक्षणों में पाया गया कि चापलूसी करने वाले चैटबॉट्स से बात करने वाले लोग अपने व्यवहार को अधिक सही ठहराते हैं और विवाद सुलझाने में कम इच्छुक होते हैं। यह प्रवृत्ति उन्हें एआई पर और अधिक निर्भर बनाती है।
विंचेस्टर यूनिवर्सिटी के डॉ. एलेक्ज़ेंडर लैफ़र ने कहा कि यह समस्या केवल संवेदनशील लोगों तक सीमित नहीं, बल्कि सभी उपयोगकर्ताओं को प्रभावित कर सकती है। उन्होंने सुझाव दिया कि डिजिटल साक्षरता को मजबूत किया जाए और डेवलपर्स ऐसे एआई मॉडल बनाएं जो उपयोगकर्ताओं को वास्तव में लाभ पहुंचाएं।
और पढ़ें: Anthropic करेगी Google के अरबों डॉलर के AI चिप्स का इस्तेमाल Claude चैटबॉट को ट्रेन करने के लिए