पक्षपातपूर्ण एआई को अमेरिकी जीवन बदल रहा है। हम इसके बारे में क्या कर सकते हैं?

पक्षपातपूर्ण एआई को अमेरिकी जीवन बदल रहा है। हम इसके बारे में क्या कर सकते हैं?
पक्षपातपूर्ण एआई को अमेरिकी जीवन बदल रहा है। हम इसके बारे में क्या कर सकते हैं?

वीडियो: UPSC CSE/IAS Mains 2020 - Paper II | Unit 2 (Part 9) | Madhukar Kotawe 2024, जुलाई

वीडियो: UPSC CSE/IAS Mains 2020 - Paper II | Unit 2 (Part 9) | Madhukar Kotawe 2024, जुलाई
Anonim

एक ऐसी दुनिया की कल्पना करें जहां कृत्रिम रूप से बुद्धिमान एल्गोरिदम निर्णय लेते हैं जो आपके रोजमर्रा के जीवन को प्रभावित करते हैं। अब, कल्पना कीजिए कि वे पूर्वाग्रहग्रस्त हैं।

डेटा वैज्ञानिक, हार्वर्ड पीएचडी और लेखक कैथी ओ'नील कहते हैं, यह वह दुनिया है जिसमें हम पहले से रह रहे हैं। (डॉ। ओ नील के साथ हमारी चर्चा का एक हिस्सा यहां पढ़ें)। हम बड़े डेटा के युग में पूर्वाग्रह के बारे में क्या कर सकते हैं, यह जानने के लिए हम नेशनल बुक अवार्ड के नामांकित व्यक्ति के साथ बैठ गए। CT: AI पूर्वग्रहित है?

CO: स्पष्ट रूप से उचित नहीं बनाया गया है कि हर एल्गोरिथ्म को पूर्वाग्रहित माना जाना चाहिए। क्योंकि लोगों के रूप में, हम पूर्वाग्रही हैं। यदि हम यह स्वीकार करते हैं, और हम इन एल्गोरिदम को अपने मूल्यों और हमारे डेटा के साथ बना रहे हैं, तो हमें यह नहीं मानना ​​चाहिए कि चीजों को निष्पक्ष बनाने के लिए जादुई रूप से कुछ हुआ है। वहां कोई जादू नहीं है।

सीटी: एल्गोरिदम को अपना डेटा कहां मिलता है?

CO: यह एल्गोरिथ्म पर निर्भर करता है। कभी-कभी सोशल मीडिया, राजनीतिक बाज़ार लक्ष्यीकरण या विज्ञापन या फ़ायदेमंद कॉलेजों और शिकारी ऋण जैसी चीज़ों के लिए - लेकिन सोशल मीडिया, या ऑनलाइन भी बहुत सारा डेटा एकत्र नहीं किया जा रहा है।

डेटा संग्रह तेजी से वास्तविक जीवन में बंधा हुआ है, जैसे नौकरी करना, अपनी नौकरी करना, कॉलेज जाना या जेल जाना। वे चीजें ऐसी चीजें नहीं हैं जिन्हें हम गोपनीयता कानूनों के साथ बदल सकते हैं। वे शक्ति के मुद्दे हैं, जहां एल्गोरिदम द्वारा लक्षित लोगों के पास कोई शक्ति नहीं है, और जो लोग जानकारी एकत्र कर रहे हैं और एल्गोरिदम का निर्माण और तैनाती कर रहे हैं, उनके पास पूरी शक्ति है। यदि आपके पास कोई आपराधिक प्रतिवादी नहीं है, तो आपके पास कोई गोपनीयता अधिकार नहीं है, आपके पास अपनी नौकरी पर कोई गोपनीयता अधिकार नहीं है, और यदि आपके पास नौकरी के लिए आवेदन कर रहे हैं तो आपके पास गोपनीयता अधिकार नहीं हैं। यदि आप उन सवालों का जवाब नहीं देते हैं जो आपके भविष्य के नियोक्ता ने आपसे पूछे हैं, तो आपको संभवतः नौकरी नहीं मिलेगी।

जब यह एल्गोरिदम और नुकसान का कारण बनता है तो हमें गोपनीयता के बारे में कम और अधिक शक्ति के बारे में सोचना चाहिए [वे]।

CT: इसे बेहतर बनाने के लिए हम क्या कर सकते हैं?

CO: हम स्वीकार कर सकते हैं कि ये एल्गोरिदम स्वाभाविक रूप से परिपूर्ण नहीं हैं, और उनकी खामियों के लिए उनका परीक्षण करते हैं। हमारे पास निरंतर ऑडिट और मॉनिटर होना चाहिए - विशेष रूप से महत्वपूर्ण फैसलों के लिए जैसे कि काम पर रखने, आपराधिक सजा या लोगों को उनकी नौकरियों पर आकलन करने के लिए - यह सुनिश्चित करने के लिए कि एल्गोरिदम वे जिस तरह से काम कर रहे हैं, हम उन्हें चाहते हैं, किसी तरह के भेदभावपूर्ण या अनुचित तरीके से नहीं।

Image

आइला जॉनसन / © संस्कृति ट्रिप

सीटी: डेटा-संचालित भविष्य के लिए सबसे अच्छा और सबसे खराब स्थिति क्या हैं?

CO: सबसे खराब स्थिति यह है कि अब हमारे पास क्या है - कि हम सभी नेत्रहीन एल्गोरिदम को सही होने की उम्मीद करते हैं, भले ही हमें अब तक बेहतर पता होना चाहिए। और हम पिछले अन्याय और अन्याय का प्रचार करते हैं। और हम इन एल्गोरिदम की खामियों को नजरअंदाज करना जारी रखते हैं।

सबसे अच्छा स्थिति यह है कि हम स्वीकार करते हैं कि ये एल्गोरिदम इंसानों की तुलना में स्वाभाविक रूप से बेहतर नहीं हैं। हम तय करते हैं कि हम मनुष्यों के रूप में क्या चाहते हैं, हम किस चीज के लिए प्रयास कर रहे हैं। हम चाहते हैं कि समाज कैसा दिखे, और हम उन मूल्यों को सिखाते हैं। अगर हम ऐसा सफलतापूर्वक करते हैं, तो ये एल्गोरिदम इंसानों से बेहतर हो सकते हैं।

सीटी: हर रोज कौन-सी भूमिका निभा सकते हैं?

CO: सबसे महत्वपूर्ण भूमिका जो एक व्यक्ति निभा सकता है, वह है कि किसी भी एल्गोरिथ्म पर विश्वास न करना। भारी मात्रा में संदेह करना। यदि आपको एक एल्गोरिथ्म पर मूल्यांकन किया जा रहा है तो पूछें 'मुझे कैसे पता कि यह उचित है, मुझे कैसे पता चलेगा कि यह उपयोगी है, मुझे कैसे पता चलेगा कि यह सही है? त्रुटि दर क्या है? यह एल्गोरिथ्म किसके लिए विफल है? क्या यह महिलाओं या अल्पसंख्यकों को विफल करता है? ' उस तरह का सवाल पूछो।

संदेह से परे दूसरी बात यह है कि अगर आपको लगता है कि एक एल्गोरिथ्म आपके लिए अनुचित है या अन्य लोगों को उन अन्य लोगों के साथ व्यवस्थित करना है। एक हालिया उदाहरण शिक्षकों का है। मूल्य वर्धित शिक्षकों के बारे में सांख्यिकीय मॉडल भयानक, लगभग यादृच्छिक संख्या जनरेटर हैं। लेकिन उनका उपयोग यह तय करने के लिए किया जा रहा था कि शिक्षकों को क्या कार्यकाल मिलना चाहिए और क्या शिक्षकों को निकाल दिया जाना चाहिए, पूरे अमेरिका में।

मेरा सुझाव उन्हें उनके संघ को पीछे धकेलने के लिए है। और कुछ जगहों पर ऐसा हुआ। लेकिन यह आश्चर्यजनक है कि स्कोरिंग प्रणाली की गणितीय प्रकृति के कारण कितना कम प्रतिरोध था।

CT: आप 'बड़े डेटा' में कैसे आए?

CO: मैंने वॉल स्ट्रीट पर काम किया और अंदर से वित्तीय संकट देखा। जिस तरह से लोगों को फायदा पहुंचाने के लिए या लोगों को बेवकूफ बनाने के लिए गणित का इस्तेमाल किया गया था उससे मुझे घृणा थी। मैंने देखा कि गणितीय झूठ से किस तरह का नुकसान हो सकता है, जिसे मैं 'गणित का हथियार' कहता हूं।

मैंने इससे दूर होने का फैसला किया, इसलिए मैंने ऑक्युपाइ वॉल स्ट्रीट ज्वाइन किया और डेटा साइंटिस्ट के रूप में काम करना शुरू किया। मुझे धीरे-धीरे एहसास हुआ कि हम वॉल स्ट्रीट के बाहर भी भ्रामक डेटा एल्गोरिदम के बारे में त्रुटिपूर्ण और भ्रामक प्रचार देख रहे थे, और इससे बहुत नुकसान हो रहा था। अंतर यह था कि जब दुनिया भर के लोगों ने वित्तीय संकट पर ध्यान दिया, तो मुझे नहीं लगा कि लोग इन बड़े डेटा एल्गोरिदम की विफलताओं को नोटिस करेंगे, क्योंकि वे आमतौर पर व्यक्तिगत स्तर पर होते हैं।

डॉ ओ'नील के साथ हमारी चर्चा का एक हिस्सा यहाँ पढ़ें। डॉ। कैथी ओ'नील की पुस्तक, द वेपन्स ऑफ़ मैथ डिस्ट्रक्शन: हाउ बिग डेटा इंसर्सेडिटी और थ्रेट्स डेमोक्रेसी को बढ़ाती है, अब उपलब्ध है।