आर्टिफिशियल इंटेलिजेंस : जेंडर और नस्ल के सवाल

0
AI

— डॉ. शुभनीत कौशिक —

आई आधारित सॉफ्टवेयर और एल्गोरिद्म में अंतर्निहित जेंडर और नस्ल सम्बन्धी पूर्वाग्रह की विस्तृत पड़ताल करते हुए टिमनिट गेब्रू और जॉय बुओलाम्विनी ने वर्ष 2018 में एक चर्चित लेख लिखा था, जिसका शीर्षक है ‘जेंडर शेड्स’। उनका यह लेख ‘मशीन लर्निंग रिसर्च’ नामक शोध-पत्रिका में छपा था। बुओलाम्विनी उस वक्त एमआईटी से सम्बद्ध थीं और गेब्रू माइक्रोसॉफ्ट से।

माइक्रोसॉफ्ट, आईबीएम जैसी कंपनियों द्वारा विकसित फेस रिकॉग्निशन सॉफ्टवेयर की गहन पड़ताल करते हुए इस लेख में उनके पूर्वाग्रह और विसंगतियों को उजागर किया गया था।

गेब्रू और बुओलाम्विनी के अनुसार ट्रेनिंग के दौरान ही ये सॉफ्टवेयर डाटासेट में मौजूद जेंडर संबंधी रूढ़ियों और नस्लीय पूर्वग्रहों को आत्मसात कर लेते हैं। मसलन, जब एक सॉफ्टवेयर को पुरुष और महिलाओं के कामों के बारे में बताने के लिए कहा गया तो उसने पुरुषों को कंप्यूटर प्रोग्रामर के रूप में देखा और महिलाओं को गृहिणी के रूप में।

फेस रिकॉग्निशन सॉफ्टवेयर की सीमाओं को बताते हुए इन अध्येताओं ने लिखा कि यह सॉफ्टवेयर जिन सैंपल्स और डाटासेट के आधार पर प्रशिक्षित किए जाते हैं, उनमें अंतर्निहित पूर्वाग्रह के चलते ये सॉफ्टवेयर भी उन सीमाओं से बंध जाते हैं। उन डाटासेट्स में काले पुरुषों और काली महिलाओं की तस्वीरों की गैर मौजूदगी का नतीजा यह होता है कि यह सॉफ्टवेयर काले पुरुषों और महिलाओं के प्रति पूर्वाग्रहग्रस्त हो जाते हैं। जिसका खामियाजा उन लोगों को भुगतना पड़ता है।

इसके चलते प्रायः युवाओं और ट्रांसजेंडर को भी विभेद का सामना करना पड़ता है। नतीजे में इन सॉफ़्टवेयर पर निर्भर हो चुकी पुलिस और कानूनी एजेंसियों द्वारा ऐसे समूहों को अकारण लक्षित किए जाने और उनके निरपराध दंडित होने की संभावना अधिक बढ़ जाती है।

अमेरिका, इजरायल और दुनिया के तमाम दूसरे देशों में सर्विलांस और अपराध नियंत्रण के नाम पर नागरिकों की निगरानी के लिए फ़ेस डिटेक्शन और उससे जुड़े एल्गोरिद्म का प्रयोग हालिया समय में बहुत बढ़ा है। गेब्रू और बुओलाम्विनी ने पुलिस द्वारा फेस रिकॉग्निशन सॉफ्टवेयर के अनियंत्रित इस्तेमाल पर रोक लगाने के साथ ही पुलिस तथा राज्य एजेंसियों को नागरिकों की प्रति जवाबदेह बनाने तथा उनके द्वारा इस्तेमाल की जाने वाली तकनीक की गहन जांच-पड़ताल निष्पक्ष जांचकर्ताओं द्वारा किए जाने की जरूरत को भी रेखांकित किया है।

अपने अध्ययन में इन अध्येताओं ने यह पाया कि जहाँ गोरे पुरुषों के लिए इन सॉफ़्टवेयर में त्रुटियाँ सबसे कम थीं, वहीं काली महिलाओं के लिए ये सॉफ़्टवेयर सबसे अधिक त्रुटिपूर्ण थे। इसका कारण उन सॉफ्टवेयर के लिए इस्तेमाल होने वाले डाटासेट और सैंपल तस्वीरों में काले पुरुषों और महिलाओं की तस्वीरों की गैरमौजूदगी थी। जिसकी वजह से यह सॉफ्टवेयर उनके प्रति पूर्वाग्रहग्रस्त हो जाते हैं।

यही नहीं इन कंपनियों द्वारा जिन ‘जेंडर लेबल’ (पुरुष/महिला) का इस्तेमाल मशीन आधारित वर्गीकरण के लिए किया जाता है, उसे लेकर भी इन अध्येताओं ने सवाल उठाए हैं। ये कंपनियां यह नहीं बताती कि उनके द्वारा प्रयोग में लाया जाने वाला ‘जेंडर लेबल’ सेक्स (जैविक) सम्बन्धी है या जेंडर अस्मिता से जुड़ा है।

गेब्रू और बुओलाम्विनी ने पाया कि ऐसे सभी सॉफ्टवेयर महिलाओं की चेहरों की तुलना में पुरुष चेहरों को अधिक बेहतर ढंग से पहचानते हैं। इसी तरह ये सॉफ्टवेयर काले लोगों की तुलना में गोरे लोगों को अधिक बेहतर ढंग से पहचानते हैं। वहीं काली महिलाओं के लिए तो उनमें त्रुटि की दर सर्वाधिक थी।

इन अध्येताओं ने विभिन्न संस्कृतियों और देशों से जुड़े हुए लोगों की तस्वीरें के इस्तेमाल के संदर्भ में डाटासेट को अधिक प्रतिनिधित्वपूर्ण बनाने पर जोर दिया और उसके लिए डाटासेट के मानकों को अधिक कड़ा करने का सुझाव दिया।


Discover more from समता मार्ग

Subscribe to get the latest posts sent to your email.

Leave a Comment