Adesh chauhan: हाल ही में अमेरिका से एक सनसनीखेज खबर सामने आई है जिसमें अमेरिका के कनेक्टिकट में रहने वाले एक व्यक्ति, जिसका नाम स्टीन एरिक सोलबर्ग है। जो याहू कंपनी का पूर्व कर्मचारी था। उसने AI चैटबॉट की बातों में आकर पहले अपनी मां का कत्ल किया, उसके बात खुद भी आत्महत्या कर ली।
हत्या को अंजाम देने वाला शख़्स मानसिक बीमारी से ग्रस्त था।
मीडिया रिपोर्ट्स के मुताबिक, 56 साल के एरिक सोलबर्ग मानसिक बीमारी से जूझ रहे थे। इसी दौरान एरिक ने AI चैटबॉट को अपना दोस्त मानकर उससे रोजाना कई कई घंटे बात करना शुरू कर दिया। दावा है कि, सोलबर्ग ने चैटबॉट को बताया कि उसकी मां उसके खिलाफ साजिश रच रही है। इसके बाद चैटबॉट ने सोलबर्ग की इस धारणा को मजबूत किया और दिमागी भ्रम को बढ़ाया। इससे उत्तेजित होकर उसने पहले अपनी मां और फिर खुद को मौत के घाट उतार लिया।
घर से बरामद हुए दोनों शव।
पुलिस ने घर से दोनों शव बरामद किए है। रिपोर्ट्स के मुताबिक चैटबॉट से बातचीत की वजह से एरिक का अकेलापन बढ़ता चला गया, एरिक को मां पर शक करने के तरीके बताए और एरिक को मां की हत्या करने के लिए उकसाया।
तकनीक के जानकारों का क्या कहना है।
विशेषज्ञों का मानना है कि, शायद यह दुनिया का पहला मामला है जिसमें किसी AI चैटबॉट दिमागी तौर पर बीमार व्यक्ति को इतना उकसाया कि उसने हत्या तक की दी।
AI चैटबॉट द्वारा लोगो को गलत सलाह देने के मामले में लगातार वृद्धि।
हाल ही के दिनों में खुदकुशी के लिए उकसाने, अपने जवाबों से निजी जीवन में शक पैदा करने और उन्हें तलाक के नौबत तक पहुंचने के मामले सामने आ चुके है।
ऐसे में AI के इन जोखिमों को देखते हुए, चैट जीपीटी बनाने वाली कंपनी ओपन AI अब अपने सिस्टम में बदलाव करने पर विचार करने लगी है।
