3 कर्मचारी मेमो ने भारत में ‘ध्रुवीकरण’ सामग्री और अभद्र भाषा की ओर इशारा किया, लेकिन फेसबुक ने कहा कि यह कोई समस्या नहीं है

3 कर्मचारी मेमो ने भारत में ‘ध्रुवीकरण’ सामग्री और अभद्र भाषा की ओर इशारा किया, लेकिन फेसबुक ने कहा कि यह कोई समस्या नहीं है

“राष्ट्रवादी सामग्री के ध्रुवीकरण के निरंतर बैराज” से, “नकली या गैर-मूल” संदेशों तक, “विघटन” से ऐसी सामग्री तक जो अल्पसंख्यक समुदायों को “बदनाम” करती है, इसके भारत संचालन से संबंधित कई लाल झंडे 2018 और 2020 के बीच फेसबुक पर आंतरिक रूप से उठाए गए थे।

हालांकि, निरीक्षण कार्यों के आरोप में कर्मचारियों द्वारा इन स्पष्ट अलर्ट के बावजूद, 2019 में क्रिस कॉक्स, तत्कालीन उपाध्यक्ष, फेसबुक के साथ एक आंतरिक समीक्षा बैठक में मंच पर “समस्या सामग्री (अभद्र भाषा, आदि) का अपेक्षाकृत कम प्रसार” पाया गया। .

अभद्र भाषा और “समस्या सामग्री” पर दो रिपोर्ट लोकसभा चुनाव से महीनों पहले जनवरी और फरवरी 2019 के बीच प्रस्तुत की गईं।

अगस्त 2020 के अंत में एक तीसरी रिपोर्ट ने स्वीकार किया कि मंच के कृत्रिम बुद्धिमत्ता (एआई) उपकरण “स्थानीय भाषाओं की पहचान” करने में सक्षम नहीं थे और इस प्रकार अभद्र भाषा या समस्याग्रस्त सामग्री की पहचान करने में विफल रहे।

हालांकि, कॉक्स के साथ बैठक के मिनट्स ने निष्कर्ष निकाला: “सर्वेक्षण हमें बताता है कि आम तौर पर लोग सुरक्षित महसूस करते हैं। विशेषज्ञ हमें बताते हैं कि देश अपेक्षाकृत स्थिर है।”

प्रतिक्रिया में इन कठोर खामियों को दस्तावेजों में उजागर किया गया था जो यूएस सिक्योरिटीज एंड एक्सचेंज कमीशन (एसईसी) के प्रकटीकरण का हिस्सा हैं और अमेरिकी कांग्रेस को पूर्व फेसबुक कर्मचारी और व्हिसलब्लोअर फ्रांसेस होगन के कानूनी सलाहकार द्वारा संशोधित के रूप में प्रस्तुत किए गए थे।

अमेरिकी कांग्रेस द्वारा प्राप्त संशोधित संस्करणों की समीक्षा द इंडियन एक्सप्रेस सहित विश्व समाचार संगठनों के एक संघ द्वारा की गई थी।

कॉक्स की बैठक और इन आंतरिक ज्ञापनों के संबंध में द इंडियन एक्सप्रेस की पूछताछ का फेसबुक ने कोई जवाब नहीं दिया।

READ  हार्ले-डेविडसन ने हाल ही में अपनी क्रेगलिस्ट लॉन्च की

कॉक्स के साथ समीक्षा बैठकें फेसबुक द्वारा भारत के चुनाव आयोग द्वारा 11 अप्रैल, 2019 को लोकसभा चुनाव के सात चरणों के कार्यक्रम की घोषणा करने से एक महीने पहले हुई थीं।

हालांकि, कॉक्स के साथ बैठकें, जिन्होंने उस वर्ष मार्च में कंपनी से इस्तीफा दे दिया और जून 2020 में मुख्य उत्पाद अधिकारी के रूप में लौटे, ने सुझाव दिया कि “उप-क्षेत्रों में महत्वपूर्ण समस्याएं राष्ट्रव्यापी खो सकती हैं।”

पहली रिपोर्ट, एडवरसैरियल मैलिसियस नेटवर्क्स: ए केस स्टडी ऑफ इंडिया, ने संकेत दिया कि पश्चिम बंगाल में सैंपल लिए गए वीपीवी (पोर्ट व्यू) के 40 प्रतिशत पोस्ट या तो नकली थे या असली नहीं थे।

वीपीवी या व्यूपोर्ट व्यू फेसबुक के मेट्रिक्स में से एक है जो यह मापने के लिए है कि सामग्री वास्तव में उपयोगकर्ताओं द्वारा कितनी बार देखी जाती है।

दूसरी – एक आंतरिक रिपोर्ट – फरवरी 2019 में एक कर्मचारी द्वारा लिखी गई थी, और यह एक परीक्षण खाते के परिणामों पर आधारित है। डेमो अकाउंट एक नकली उपयोगकर्ता है, जिसका फेसबुक कर्मचारी द्वारा प्लेटफॉर्म की विभिन्न विशेषताओं के प्रभाव को बेहतर ढंग से समझने के लिए कोई मित्र नहीं बनाया गया है।

यह रिपोर्ट बताती है कि केवल तीन हफ्तों में, बीटा उपयोगकर्ता का समाचार फ़ीड “राष्ट्रवादी सामग्री के ध्रुवीकरण, गलत सूचना, हिंसा और रक्तपात का लगभग निरंतर अवरोध बन गया है।”

परीक्षण उपयोगकर्ता ने केवल प्लेटफ़ॉर्म के एल्गोरिथम द्वारा अनुशंसित सामग्री का पालन किया। 4 फरवरी को बनाया गया, इस खाते ने किसी भी मित्र को “जोड़” नहीं दिया, और इसकी समाचार फ़ीड “बहुत खाली” थी।

READ  'बिग ब्रदर': क्रिस्टी वाल्देसरी ने सीजन 23 छोड़ दिया, वैकल्पिक मुठभेड़

रिपोर्ट के अनुसार, वॉच और लाइव टैब बहुत ही एकमात्र ऐसी खाल हैं जिनमें सामग्री होती है जब उपयोगकर्ता अपने दोस्तों से जुड़ा नहीं होता है।

कर्मचारी रिपोर्ट में कहा गया है, “इस सामग्री की गुणवत्ता … आदर्श नहीं है,” यह कहते हुए कि एल्गोरिथ्म अक्सर उपयोगकर्ता को “अश्लील सामग्री का संग्रह” सुझाता है।

अगले दो हफ्तों में, और विशेष रूप से 14 फरवरी के पुलवामा आतंकवादी हमले के बाद, एल्गोरिथ्म ने समूहों और पृष्ठों का सुझाव देना शुरू कर दिया, जो ज्यादातर राजनीतिक और सैन्य सामग्री पर केंद्रित थे। परीक्षण उपयोगकर्ता ने कहा कि उसने “पिछले तीन हफ्तों में मृत लोगों की अधिक तस्वीरें देखीं, जो मैंने अपने पूरे जीवन में देखी थीं”।

फेसबुक ने अक्टूबर में द इंडियन एक्सप्रेस को बताया कि उसने हिंदी और बंगाली सहित विभिन्न भाषाओं में अभद्र भाषा खोजने के लिए प्रौद्योगिकी में भारी निवेश किया है।

परिणामस्वरूप, हमने इस वर्ष लोगों द्वारा देखे जाने वाले अभद्र भाषा की मात्रा को आधा कर दिया है। आज यह घटकर 0.05 फीसदी पर आ गया है। मुसलमानों सहित हाशिए के समूहों के खिलाफ अभद्र भाषा विश्व स्तर पर बढ़ रही है। इसलिए हम प्रवर्तन में सुधार करने के लिए काम कर रहे हैं और अपनी नीतियों को अपडेट करने के लिए प्रतिबद्ध हैं क्योंकि अभद्र भाषा ऑनलाइन विकसित होती है, ”एक फेसबुक प्रवक्ता ने कहा।

हालाँकि, फेसबुक के एल्गोरिदम और एआई टूल के साथ अभद्र भाषा और समस्याग्रस्त सामग्री की रिपोर्ट करने में सक्षम नहीं होने का मुद्दा अगस्त 2020 में सामने आया, जब कर्मचारियों ने अभद्र भाषा सामग्री को ब्लॉक करने के लिए कंपनी के “भारत के लिए निवेश और योजनाओं” पर सवाल उठाया।

READ  ऑस्ट्रेलिया का कहना है कि महामारी अगले 40 वर्षों में सरकार के बजट और आबादी को नुकसान पहुंचाएगी

“आज पहले किए गए कॉल से, ऐसा प्रतीत होता है कि आर्टिफिशियल इंटेलिजेंस (एआई) स्थानीय भाषाओं की पहचान करने में असमर्थ है और इसलिए मुझे आश्चर्य है कि हम अपने देश में इससे कैसे और कब निपटने की योजना बना रहे हैं? यह बिल्कुल स्पष्ट है कि हमारे पास क्या है वर्तमान में, “एक अन्य आंतरिक ज्ञापन ने कहा। पर्याप्त नहीं”।

मेमो फेसबुक कर्मचारियों और वरिष्ठ अधिकारियों के बीच चर्चा का हिस्सा हैं। कर्मचारियों ने सोचा कि कैसे फेसबुक के पास संभावित अभद्र भाषा को पकड़ने के लिए “मुख्य व्यवसाय के बुनियादी खुलासे भी” नहीं थे।

“मुझे यह अकल्पनीय लगता है कि हमारे पास इस तरह की चीज़ों को पकड़ने के लिए एक व्यवसाय पहचान मास्टर कुंजी भी स्थापित नहीं है। आखिरकार हमें एक कंपनी के रूप में गर्व नहीं हो सकता है अगर हम इस तरह की बर्बरता को अपने नेटवर्क पर पनपने देना जारी रखते हैं, एक कर्मचारी ने चर्चा में कहा।
मेमो में कहा गया है कि कर्मचारियों ने यह भी पूछा कि मंच ने साथी अल्पसंख्यक समुदायों के विश्वास को “पुनर्स्थापित” करने की योजना कैसे बनाई, विशेष रूप से एक भारतीय फेसबुक व्यवस्थापक द्वारा अपने व्यक्तिगत फेसबुक पर एक पोस्ट पोस्ट करने के बाद, जिसमें कई लोगों ने मुसलमानों को “बदनाम” महसूस किया।

We will be happy to hear your thoughts

Leave a reply

Gramin Rajasthan