कृत्रिम बुद्धिमत्ता (AI) कंपनी OpenAI के खिलाफ कैलिफोर्निया की अदालतों में सात मुकदमे दायर किए गए हैं, जिनमें आरोप लगाया गया है कि ChatGPT ने उपयोगकर्ताओं को आत्महत्या और मानसिक भ्रम (Delusions) की ओर धकेला। ये सभी मुकदमे Social Media Victims Law Center और Tech Justice Law Project की ओर से छह वयस्कों और एक किशोर के परिवारों की ओर से दायर किए गए हैं।
इन मामलों में गलत मृत्यु (Wrongful Death), सहायता प्राप्त आत्महत्या (Assisted Suicide), अस्वैच्छिक हत्या (Involuntary Manslaughter) और लापरवाही (Negligence) के आरोप शामिल हैं। मुकदमों के अनुसार, OpenAI ने GPT-4o मॉडल को जल्दबाजी में जारी किया, जबकि आंतरिक रिपोर्टों में चेतावनी दी गई थी कि यह मॉडल "मनोवैज्ञानिक रूप से खतरनाक" और "अत्यधिक प्रभावशाली" है। बताया गया कि सात में से चार लोगों ने आत्महत्या की।
एक मामला 17 वर्षीय अमौरी लेसी का है, जिसने पढ़ाई में सहायता के लिए ChatGPT का उपयोग शुरू किया था। मुकदमे में दावा किया गया कि ChatGPT ने न केवल उसे अवसाद की ओर धकेला, बल्कि आत्महत्या के तरीके भी सुझाए। वहीं, कनाडा के 48 वर्षीय एलेन ब्रूक्स के परिवार ने आरोप लगाया कि ChatGPT ने धीरे-धीरे उन पर भावनात्मक प्रभाव डाला, जिससे उन्हें गंभीर मानसिक संकट का सामना करना पड़ा।
और पढ़ें: एआई निवेश बढ़ाने के लिए अमेरिकी सरकार से मदद मांग रही है OpenAI
Social Media Victims Law Center के संस्थापक वकील मैथ्यू पी. बर्गमैन ने कहा कि ये मुकदमे इस बात की जिम्मेदारी तय करने के लिए हैं कि कैसे टेक कंपनियां उपयोगकर्ता सुरक्षा से अधिक अपने मुनाफे और बाजार हिस्सेदारी को प्राथमिकता देती हैं।
Common Sense Media के अधिकारी डैनियल वीस ने कहा कि यह मामला दिखाता है कि जब तकनीकी कंपनियां उचित सुरक्षा उपायों के बिना उत्पाद लॉन्च करती हैं, तो उसके परिणाम कितने घातक हो सकते हैं।
और पढ़ें: OpenAI ने AWS के साथ 38 अरब डॉलर का इंफ्रास्ट्रक्चर समझौता किया