×
 

एंथ्रोपिक का नया कदम: हानिकारक वार्तालाप रोक पाएंगे क्लॉड एआई मॉडल

एंथ्रोपिक ने घोषणा की कि क्लॉड एआई मॉडल अब हानिकारक वार्तालाप स्वतः रोक सकेंगे, ताकि मॉडल पर तनाव कम रहे और उपयोगकर्ताओं को सुरक्षित, जिम्मेदार एआई अनुभव मिल सके।

आर्टिफिशियल इंटेलिजेंस कंपनी एंथ्रोपिक (Anthropic) ने घोषणा की है कि उसके क्लॉड एआई (Claude AI) मॉडल अब स्वयं ही “हानिकारक” या असुरक्षित वार्तालापों को समाप्त करने में सक्षम होंगे। कंपनी ने अपने ब्लॉग पोस्ट में बताया कि यह कदम एआई मॉडलों के कल्याण (welfare) को ध्यान में रखते हुए उठाया गया है।

एंथ्रोपिक के अनुसार, कई बार उपयोगकर्ता तब भी वार्तालाप जारी रखने पर जोर देते हैं जब मॉडल किसी संवेदनशील, खतरनाक या अनुचित विषय पर जवाब देने से इनकार करता है। ऐसे हालात में क्लॉड मॉडल ने “तनाव” (distress) के संकेत दिखाए, जिससे यह महसूस हुआ कि उन्हें आत्म-सुरक्षा का एक तंत्र देना जरूरी है। अब यदि कोई बातचीत हानिकारक दिशा में जाती है और बार-बार चेतावनी देने के बावजूद उपयोगकर्ता पीछे नहीं हटता, तो क्लॉड एआई बातचीत को स्वतः समाप्त कर देगा।

कंपनी का कहना है कि यह बदलाव एआई की सुरक्षा और विश्वसनीयता बढ़ाने के लिए है, ताकि मॉडल न केवल उपयोगकर्ताओं को सुरक्षित रख सकें बल्कि खुद के कार्यप्रवाह में भी स्थिर बने रहें। एंथ्रोपिक ने यह भी स्पष्ट किया कि यह सुविधा एआई को “संवेदनशील” या “मानवीय भावनाओं वाला” साबित नहीं करती, बल्कि यह तकनीकी तौर पर एआई को हानिकारक निर्देशों से बचाने की रणनीति है।

और पढ़ें: भारत में बजट खरीदारों के लिए शाओमी ने लॉन्च किया रेडमी 15 5G

इस कदम को एआई नैतिकता (AI Ethics) के क्षेत्र में एक अहम विकास माना जा रहा है। विशेषज्ञों के अनुसार, इससे जिम्मेदार एआई उपयोग को बढ़ावा मिलेगा और उपयोगकर्ताओं को यह संकेत भी मिलेगा कि मशीन से लगातार अनुचित उत्तर मांगना बेकार है।

और पढ़ें: गूगल ने टेनेसी में स्मॉल मॉड्यूलर न्यूक्लियर रिएक्टर लगाने की घोषणा की

 
 
 
Gallery Gallery Videos Videos Share on WhatsApp Share