विशेषज्ञों का दावा, एआई भी करती है इंसानों में भेदभाव

आर्टिफिशियल इंटेलीजेंस यानी एआई की इन दिनों सभी जगह चर्चा हो रही है। आर्टिफिशियल इंटेलीजेंस यानी मशीनों को सोचने-समझने की शक्ति देना। इन दिनों टेक्नोलॉजी की दुनिया में एआई की सबसे ज्यादा चर्चा है। एआई की मदद से मशीनें आपकी आवाज के जरिए काम को अंजाम दे सकती हैं। बायोडाटा के सैंपल में से आपकी कंपनी के लिए अच्छे उम्मीदवारों का चुनाव कर सकती हैं। बिना ड्राइवर के गाड़ी चलाना भी एआई आधारित सिस्टम से ही संभव है।लेकिन यदि यह कहा जाए कि ये मशीनें भी भेदभाव करती हैं, तो शायद यकीन नहीं होगा। हम में से कर किसी का यही तर्क होगा कि मशीनें किस आधार पर भेदभाव करेंगी।

Loading...

भेदभाव वाली सोच एआई में कैसे आ सकती है। लेकिन ऐसा हकीकत में हो रहा है। कोई एआई सिस्टम किस आधार पर काम करेगा, इस पर उसे तैयार करने वालों का व्यापक प्रभाव पड़ता है। वह किन परिस्थितियों और कैसे लोगों के बीच तैयार हुआ, इससे यह तय होता है कि उसका झुकाव किस तरफ रहेगा। न्यूयॉर्क टाइम्स द्वारा आयोजित न्यू रूल्स समिट में विशेषज्ञों ने उदाहरण के साथ ऐसे कई मामले गिनवाए। विशेषज्ञों ने माना कि एआई के परीक्षण के समय विविधता को ध्यान में रखा जाना बहुत जरूरी है। आंकड़ों और आसपास उपस्थित लोगों की एकरूपता नतीजों को प्रभावित कर सकती है।

अमेरिकी अधिकारियों ने जहाज से जब्त की 16 टन कोकीन

मशीनें कर रहीं लैंगिक भेदभाव

एआई सिस्टम पर काम करने वाले ज्यादातर पुरुष हैं। जहां इन्हें विकसित करने में महिलाओं की भूमिका अहम है, वहां भी कार्यस्थल पर पुरुषों की संख्या ज्यादा है। इसका सीधा असर एआई सिस्टम की कार्यप्रणाली पर पड़ रहा है। आवाज से काम करने वाले ज्यादातर एआई सिस्टम का परीक्षण पुरुषों पर ही किया जाता है। इसका नतीजा यह है कि कुछ एआइ सिस्टम महिलाओं और बच्चों की आवाज पर उतना बेहतर प्रदर्शन नहीं कर पाते हैं।

रंगभेद भी है हावी

एआइ का विकास अभी जिन देशों में हो रहा है, वहां टेक्नोलॉजी पर गोरे लोगों का वर्चस्व है। इससे भी मशीनों के काम पर असर हो रहा है। फेशियल रिकॉग्निशन यानी चेहरा पहचान कर काम करने में सक्षम कुछ एआई सिस्टम के मामले में देखा गया है कि ऐसे सिस्टम गोरे लोगों के मामले में जितना बेहतर नतीजा देते हैं, अपेक्षाकृत सांवले लोगों के मामले में उनका प्रदर्शन उतना बेहतर नहीं रहता।

नतीजा भी हो सकता है गलत एआई सिस्टम इस आधार पर काम करता है कि उसे सैंपल के रूप में कैसा डाटा दिया गया। इसकी खामी का बड़ा उदाहरण बहुराष्ट्रीय कंपनी अमेजन में देखने को मिला था। कंपनी ने अपने यहां कर्मचारियों की नियुक्ति के लिए एआई सिस्टम तैयार किया। इस दौरान एआई सिस्टम को पिछले 10 साल में आए रिज्यूमे और चुने गए लोगों का डाटा मुहैया कराया गया था। उस दौर में ज्यादातर आवेदन पुरुषों का था, इसलिए नियुक्ति भी पुरुषों की हुई थी।

इस सैंपल के आधार पर एआई सिस्टम ने यह मान लिया कि पुरुष ज्यादा बेहतर काम करते हैं। उस सिस्टम ने ऐसे रिज्यूमे को दोयम माना, जिनमें महिला शब्द लिखा होता था। इसी तरह लोन के मामले में भरोसेमंद लोगों का पता लगाने के लिए तैयार एल्गोरिदम में भी यही हाल दिखा। लोन लेने वालों में पुरुषों की संख्या ज्यादा थी, इसलिए डिफॉल्टरों में भी पुरुष ज्यादा थे। इस आधार पर सिस्टम ने मान लिया कि पुरुषों को लोन नहीं देना चाहिए।

Loading...
loading...

Leave a Reply

Your email address will not be published. Required fields are marked *