संदर्भ को कम कर देता नस्लीय पूर्वाग्रह में अभद्र भाषा का पता लगाने एल्गोरिदम — ScienceDaily


क्या समझ में आता है कुछ हानिकारक या आपत्तिजनक है काफी मुश्किल हो सकता है के लिए मनुष्य के मन, कभी नहीं कृत्रिम खुफिया प्रणाली.

तो, शायद यह कोई आश्चर्य की बात है कि सोशल मीडिया पर अभद्र भाषा का पता लगाने एल्गोरिदम, के लिए डिज़ाइन किया गया के प्रसार को रोकने घृणित भाषण, वास्तव में कर सकते हैं बढ़ाना नस्लीय पूर्वाग्रह द्वारा अवरुद्ध निरापद ट्वीट काले लोगों या अन्य अल्पसंख्यक समूह के सदस्य हैं ।

वास्तव में, पिछले एक अध्ययन से पता चला है कि एअर इंडिया मॉडल में 1.5 गुना अधिक होने की संभावना करने के लिए झंडा ट्वीट ने लिखा अफ्रीकी अमेरिकियों के रूप में “आक्रामक” – दूसरे शब्दों में, एक झूठी सकारात्मक-अन्य की तुलना में ट्वीट.

क्यों? क्योंकि वर्तमान स्वत: पता लगाने मॉडल पर बाहर याद कुछ महत्वपूर्ण: के संदर्भ में. विशेष रूप से, नफरत भाषण classifiers हैं अति करने के लिए समूह पहचानकर्ता की तरह “काले,” “समलैंगिक”, या “पुरुष,” कर रहे हैं, जो केवल संकेतक नफरत के भाषण में इस्तेमाल किया जब कुछ सेटिंग्स.

अब, एक टीम के यूएससी के शोधकर्ताओं ने बनाया है एक नफरत भाषण क्लासिफायरफ़ाइल है कि अधिक संदर्भ के प्रति संवेदनशील है, और कम होने की संभावना गलती करने के लिए एक के बाद से युक्त एक समूह पहचानकर्ता के रूप में भड़काऊ भाषण.

इस प्राप्त करने के लिए, शोधकर्ताओं ने क्रमादेशित एल्गोरिथ्म पर विचार करने के लिए दो अतिरिक्त कारकों के संदर्भ में जो समूह पहचानकर्ता के लिए प्रयोग किया जाता है, और क्या विशिष्ट सुविधाओं के भड़काऊ भाषण भी मौजूद हैं, जैसे अमानवीय और अपमानजनक भाषा.

“हम चाहते हैं स्थानांतरित करने के लिए अभद्र भाषा का पता लगाने के लिए करीब होने के लिए तैयार वास्तविक दुनिया आवेदन,” ने कहा कि ब्रेंडन कैनेडी एक कंप्यूटर विज्ञान में पीएचडी के छात्र और सह-नेतृत्व अध्ययन के लेखक, पर प्रकाशित किया एसीएल 2020, 6 जुलाई.

“नफरत भाषण का पता लगाने के मॉडल अक्सर ‘ब्रेक’ या उत्पन्न खराब भविष्यवाणियों, जब शुरू करने के लिए वास्तविक दुनिया डेटा, इस तरह के रूप में सामाजिक मीडिया या दूसरे ऑनलाइन पाठ डेटा, क्योंकि वे पक्षपाती हैं द्वारा डेटा पर कर रहे हैं जो वे प्रशिक्षित करने के लिए सहयोगी की उपस्थिति सामाजिक पहचान के साथ शब्दों से नफरत भाषण।”

अतिरिक्त अध्ययन के लेखक, शीर्षक “Contextualizing नफरत भाषण Classifiers के साथ पोस्ट-हॉक विवरण, कर रहे हैं” सह प्रमुख लेखक Xisen जी, एक यूएससी कंप्यूटर विज्ञान में पीएचडी के छात्र है, और सह-लेखकों Aida Mostafazadeh Davani, पीएचडी की डिग्री कंप्यूटर विज्ञान के छात्र, रेन जियांग, एक कंप्यूटर विज्ञान के सहायक प्रोफेसर और मोर्तेज़ा Dehghani रखती है, जो संयुक्त नियुक्तियों में मनोविज्ञान और कंप्यूटर विज्ञान

क्यों ऐ पूर्वाग्रह होता है

नफरत भाषण का पता लगाने के भाग के चल रहे प्रयास के खिलाफ दमनकारी और अपमानजनक भाषा पर सामाजिक मीडिया का उपयोग करने के लिए जटिल एल्गोरिदम का झंडा जातिवाद या हिंसक भाषण तेजी से और बेहतर की तुलना में मनुष्य अकेले. लेकिन मशीन सीखने मॉडल के लिए प्रवण हैं सीखने मानव-तरह के पूर्वाग्रहों से प्रशिक्षण डेटा खिलाती है कि इन एल्गोरिदम.

उदाहरण के लिए, एल्गोरिदम करने के लिए संघर्ष, तो यह निर्धारित समूह पहचानकर्ता की तरह “समलैंगिक” या “ब्लैक” में इस्तेमाल कर रहे हैं आक्रामक या पक्षपातपूर्ण तरीके से क्योंकि वे प्रशिक्षित कर रहे हैं पर असंतुलित डेटासेट के साथ असामान्य रूप से उच्च दर नफरत के भाषण (सफेद supremacist मंचों, उदाहरण के लिए). एक परिणाम के रूप में, मॉडल खोजने के लिए मुश्किल यह सामान्यीकरण करने के लिए वास्तविक दुनिया अनुप्रयोगों है ।

“यह महत्वपूर्ण है के लिए मॉडल के लिए नजरअंदाज नहीं पहचानकर्ता है, लेकिन करने के लिए उन्हें मैच के साथ सही संदर्भ में,” ने कहा कि प्रोफेसर जियांग रेन, में एक विशेषज्ञ प्राकृतिक भाषा प्रसंस्करण.

“यदि आप एक मॉडल से एक असंतुलित डेटासेट, मॉडल उठा शुरू होता है अजीब पैटर्न और अवरुद्ध उपयोगकर्ताओं अनुपयुक्त।”

का परीक्षण करने के लिए सिस्टम, शोधकर्ताओं पहुँचा एक बड़े, यादृच्छिक नमूना के पाठ से “गपशप,” के साथ एक सामाजिक नेटवर्क की एक उच्च दर से नफरत भाषण, और “Stormfront,” एक सफेद supremacist वेबसाइट. पाठ से किया गया था हाथ झंडी दिखाकर रवाना मनुष्य के द्वारा के रूप में पक्षपातपूर्ण या अमानवीय.

वे तो मापा राज्य के-the-कला मॉडल की प्रवृत्तियों के साथ, बनाम अपने स्वयं के मॉडल, की ओर अनुपयुक्त फ़ुटपाथ गैर-नफरत भाषण का उपयोग कर, 12,500 न्यूयॉर्क टाइम्स लेख रहित नफरत के भाषण को छोड़कर के लिए उद्धरण । राज्य के-the-कला मॉडल हासिल की 77 % सटीकता के साथ की पहचान करने से नफरत बनाम गैर से नफरत है । यूएससी में सक्षम था को बढ़ावा देने के लिए यह करने के लिए 90 %.

“इस से ही काम नहीं करता है बनाने के लिए अभद्र भाषा का पता लगाने, सही है कि एक बड़ी परियोजना है कि कई पर काम कर रहे हैं, लेकिन यह वृद्धिशील प्रगति ने कहा,” कैनेडी.

“इसके अलावा रोकने के लिए सामाजिक मीडिया के पदों के सदस्यों द्वारा संरक्षित समूहों से की जा रही अनुपयुक्त सेंसर, हम आशा है कि हमारे काम में मदद मिलेगी सुनिश्चित करें कि नफरत भाषण का पता लगाने नहीं करता है, अनावश्यक नुकसान से मजबूत नकली संगठनों के पूर्वाग्रह और अमानवीकरण के साथ सामाजिक समूहों.”

###



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *