अमेरिकी तकनीकी कंपनी ओपनएआई ने एक नए प्रस्तावित कानून का समर्थन किया है, जिसका उद्देश्य आर्टिफिशियल इंटेलिजेंस (एआई) कंपनियों को कुछ गंभीर मामलों में कानूनी दायित्व से सुरक्षा देना है। यह विधेयक अमेरिकी राज्य इलिनॉयस में पेश किया गया है और इसे SB 3444 कहा जा रहा है।
इस विधेयक के अनुसार, यदि एआई सिस्टम से जुड़े किसी मामले में बड़े पैमाने पर जनहानि होती है, 100 से अधिक लोग घायल होते हैं या संपत्ति का नुकसान 1 अरब डॉलर से अधिक होता है, तो एआई कंपनियों पर सीधे कानूनी जिम्मेदारी सीमित की जा सकती है, बशर्ते कंपनियां अपनी सुरक्षा रिपोर्ट सार्वजनिक रूप से साझा करें।
अगर यह कानून पारित हो जाता है, तो एआई डेवलपर्स को उन मामलों में भी सुरक्षा मिलेगी, जहां उनके सिस्टम का गलत इस्तेमाल किया गया हो या किसी आपराधिक गतिविधि में एआई का उपयोग हुआ हो, जैसे रासायनिक या परमाणु हथियारों से जुड़े खतरे।
और पढ़ें: OpenAI ने सुरक्षा खामी की पहचान की, कहा—यूज़र डेटा सुरक्षित, कोई सेंध नहीं
यह कदम ऐसे समय में आया है जब ओपनएआई को कई कानूनी चुनौतियों का सामना करना पड़ रहा है। कुछ मामलों में आरोप लगाया गया है कि चैटबॉट के साथ बातचीत ने गंभीर घटनाओं को प्रभावित किया, जिनमें हिंसा और मानसिक स्वास्थ्य से जुड़े मुद्दे शामिल हैं।
फ्लोरिडा में एक मामले की जांच भी चल रही है, जिसमें यह देखा जा रहा है कि क्या एआई चैटबॉट ने किसी स्कूल गोलीबारी की घटना को प्रभावित किया था। हालांकि प्रत्यक्ष संबंध अभी साबित नहीं हुआ है, लेकिन ऐसे मामलों ने एआई जिम्मेदारी पर बहस तेज कर दी है।
ओपनएआई का कहना है कि यह विधेयक एक संतुलित दृष्टिकोण प्रदान करता है, जिससे उन्नत एआई तकनीक के जोखिमों को कम किया जा सकेगा और अलग-अलग राज्यों के नियमों से होने वाली जटिलताओं से बचा जा सकेगा।
वहीं आलोचकों का मानना है कि यह कानून कंपनियों को सुरक्षा पर कम ध्यान देने के लिए प्रेरित कर सकता है और एआई क्षेत्र में जवाबदेही को कमजोर कर सकता है।
और पढ़ें: सिलिकॉन वैली मीडिया पर संकोच कर खुद का मीडिया बना रही है, OpenAI ने किया TBPN का अधिग्रहण