एक ऐसी दुनिया की कल्पना करें जहां कृत्रिम रूप से बुद्धिमान एल्गोरिदम निर्णय लेते हैं जो आपके रोजमर्रा के जीवन को प्रभावित करते हैं। अब, कल्पना कीजिए कि वे पूर्वाग्रहग्रस्त हैं।
डेटा वैज्ञानिक, हार्वर्ड पीएचडी और लेखक कैथी ओ'नील कहते हैं, यह वह दुनिया है जिसमें हम पहले से रह रहे हैं। (डॉ। ओ नील के साथ हमारी चर्चा का एक हिस्सा यहां पढ़ें)। हम बड़े डेटा के युग में पूर्वाग्रह के बारे में क्या कर सकते हैं, यह जानने के लिए हम नेशनल बुक अवार्ड के नामांकित व्यक्ति के साथ बैठ गए। CT: AI पूर्वग्रहित है?
CO: स्पष्ट रूप से उचित नहीं बनाया गया है कि हर एल्गोरिथ्म को पूर्वाग्रहित माना जाना चाहिए। क्योंकि लोगों के रूप में, हम पूर्वाग्रही हैं। यदि हम यह स्वीकार करते हैं, और हम इन एल्गोरिदम को अपने मूल्यों और हमारे डेटा के साथ बना रहे हैं, तो हमें यह नहीं मानना चाहिए कि चीजों को निष्पक्ष बनाने के लिए जादुई रूप से कुछ हुआ है। वहां कोई जादू नहीं है।
सीटी: एल्गोरिदम को अपना डेटा कहां मिलता है?
CO: यह एल्गोरिथ्म पर निर्भर करता है। कभी-कभी सोशल मीडिया, राजनीतिक बाज़ार लक्ष्यीकरण या विज्ञापन या फ़ायदेमंद कॉलेजों और शिकारी ऋण जैसी चीज़ों के लिए - लेकिन सोशल मीडिया, या ऑनलाइन भी बहुत सारा डेटा एकत्र नहीं किया जा रहा है।
डेटा संग्रह तेजी से वास्तविक जीवन में बंधा हुआ है, जैसे नौकरी करना, अपनी नौकरी करना, कॉलेज जाना या जेल जाना। वे चीजें ऐसी चीजें नहीं हैं जिन्हें हम गोपनीयता कानूनों के साथ बदल सकते हैं। वे शक्ति के मुद्दे हैं, जहां एल्गोरिदम द्वारा लक्षित लोगों के पास कोई शक्ति नहीं है, और जो लोग जानकारी एकत्र कर रहे हैं और एल्गोरिदम का निर्माण और तैनाती कर रहे हैं, उनके पास पूरी शक्ति है। यदि आपके पास कोई आपराधिक प्रतिवादी नहीं है, तो आपके पास कोई गोपनीयता अधिकार नहीं है, आपके पास अपनी नौकरी पर कोई गोपनीयता अधिकार नहीं है, और यदि आपके पास नौकरी के लिए आवेदन कर रहे हैं तो आपके पास गोपनीयता अधिकार नहीं हैं। यदि आप उन सवालों का जवाब नहीं देते हैं जो आपके भविष्य के नियोक्ता ने आपसे पूछे हैं, तो आपको संभवतः नौकरी नहीं मिलेगी।
जब यह एल्गोरिदम और नुकसान का कारण बनता है तो हमें गोपनीयता के बारे में कम और अधिक शक्ति के बारे में सोचना चाहिए [वे]।
CT: इसे बेहतर बनाने के लिए हम क्या कर सकते हैं?
CO: हम स्वीकार कर सकते हैं कि ये एल्गोरिदम स्वाभाविक रूप से परिपूर्ण नहीं हैं, और उनकी खामियों के लिए उनका परीक्षण करते हैं। हमारे पास निरंतर ऑडिट और मॉनिटर होना चाहिए - विशेष रूप से महत्वपूर्ण फैसलों के लिए जैसे कि काम पर रखने, आपराधिक सजा या लोगों को उनकी नौकरियों पर आकलन करने के लिए - यह सुनिश्चित करने के लिए कि एल्गोरिदम वे जिस तरह से काम कर रहे हैं, हम उन्हें चाहते हैं, किसी तरह के भेदभावपूर्ण या अनुचित तरीके से नहीं।
![Image Image](https://images.couriertrackers.com/img/north-america/6/prejudiced-ai-is-changing-american-lives-what-can-we-do-about-it.jpg)
आइला जॉनसन / © संस्कृति ट्रिप
सीटी: डेटा-संचालित भविष्य के लिए सबसे अच्छा और सबसे खराब स्थिति क्या हैं?
CO: सबसे खराब स्थिति यह है कि अब हमारे पास क्या है - कि हम सभी नेत्रहीन एल्गोरिदम को सही होने की उम्मीद करते हैं, भले ही हमें अब तक बेहतर पता होना चाहिए। और हम पिछले अन्याय और अन्याय का प्रचार करते हैं। और हम इन एल्गोरिदम की खामियों को नजरअंदाज करना जारी रखते हैं।
सबसे अच्छा स्थिति यह है कि हम स्वीकार करते हैं कि ये एल्गोरिदम इंसानों की तुलना में स्वाभाविक रूप से बेहतर नहीं हैं। हम तय करते हैं कि हम मनुष्यों के रूप में क्या चाहते हैं, हम किस चीज के लिए प्रयास कर रहे हैं। हम चाहते हैं कि समाज कैसा दिखे, और हम उन मूल्यों को सिखाते हैं। अगर हम ऐसा सफलतापूर्वक करते हैं, तो ये एल्गोरिदम इंसानों से बेहतर हो सकते हैं।
सीटी: हर रोज कौन-सी भूमिका निभा सकते हैं?
CO: सबसे महत्वपूर्ण भूमिका जो एक व्यक्ति निभा सकता है, वह है कि किसी भी एल्गोरिथ्म पर विश्वास न करना। भारी मात्रा में संदेह करना। यदि आपको एक एल्गोरिथ्म पर मूल्यांकन किया जा रहा है तो पूछें 'मुझे कैसे पता कि यह उचित है, मुझे कैसे पता चलेगा कि यह उपयोगी है, मुझे कैसे पता चलेगा कि यह सही है? त्रुटि दर क्या है? यह एल्गोरिथ्म किसके लिए विफल है? क्या यह महिलाओं या अल्पसंख्यकों को विफल करता है? ' उस तरह का सवाल पूछो।
संदेह से परे दूसरी बात यह है कि अगर आपको लगता है कि एक एल्गोरिथ्म आपके लिए अनुचित है या अन्य लोगों को उन अन्य लोगों के साथ व्यवस्थित करना है। एक हालिया उदाहरण शिक्षकों का है। मूल्य वर्धित शिक्षकों के बारे में सांख्यिकीय मॉडल भयानक, लगभग यादृच्छिक संख्या जनरेटर हैं। लेकिन उनका उपयोग यह तय करने के लिए किया जा रहा था कि शिक्षकों को क्या कार्यकाल मिलना चाहिए और क्या शिक्षकों को निकाल दिया जाना चाहिए, पूरे अमेरिका में।
मेरा सुझाव उन्हें उनके संघ को पीछे धकेलने के लिए है। और कुछ जगहों पर ऐसा हुआ। लेकिन यह आश्चर्यजनक है कि स्कोरिंग प्रणाली की गणितीय प्रकृति के कारण कितना कम प्रतिरोध था।
CT: आप 'बड़े डेटा' में कैसे आए?
CO: मैंने वॉल स्ट्रीट पर काम किया और अंदर से वित्तीय संकट देखा। जिस तरह से लोगों को फायदा पहुंचाने के लिए या लोगों को बेवकूफ बनाने के लिए गणित का इस्तेमाल किया गया था उससे मुझे घृणा थी। मैंने देखा कि गणितीय झूठ से किस तरह का नुकसान हो सकता है, जिसे मैं 'गणित का हथियार' कहता हूं।
मैंने इससे दूर होने का फैसला किया, इसलिए मैंने ऑक्युपाइ वॉल स्ट्रीट ज्वाइन किया और डेटा साइंटिस्ट के रूप में काम करना शुरू किया। मुझे धीरे-धीरे एहसास हुआ कि हम वॉल स्ट्रीट के बाहर भी भ्रामक डेटा एल्गोरिदम के बारे में त्रुटिपूर्ण और भ्रामक प्रचार देख रहे थे, और इससे बहुत नुकसान हो रहा था। अंतर यह था कि जब दुनिया भर के लोगों ने वित्तीय संकट पर ध्यान दिया, तो मुझे नहीं लगा कि लोग इन बड़े डेटा एल्गोरिदम की विफलताओं को नोटिस करेंगे, क्योंकि वे आमतौर पर व्यक्तिगत स्तर पर होते हैं।
डॉ ओ'नील के साथ हमारी चर्चा का एक हिस्सा यहाँ पढ़ें। डॉ। कैथी ओ'नील की पुस्तक, द वेपन्स ऑफ़ मैथ डिस्ट्रक्शन: हाउ बिग डेटा इंसर्सेडिटी और थ्रेट्स डेमोक्रेसी को बढ़ाती है, अब उपलब्ध है।