[ad_1]
Meta Facebook: Meta द्वारा कंटेंट मॉडरेशन में ढील देने के फैसले के बाद Facebook पर हिंसा और बदसलूकी से भरे पोस्ट्स में चिंताजनक इज़ाफा देखने को मिला है. यह बदलाव जनवरी 2025 में लागू की गई नई नीति के बाद सामने आया है जिसमें Meta ने कंटेंट हटाने और सख्त निगरानी को कम कर दिया है. Meta की पहली “इंटीग्रिटी रिपोर्ट” के अनुसार, अब Facebook जैसे प्लेटफॉर्म पर हानिकारक कंटेंट की मात्रा तो बढ़ रही है लेकिन कार्रवाई और पोस्ट डिलीट करने के मामले कम हो गए हैं.
हिंसक और आपत्तिजनक कंटेंट में इज़ाफा
Meta की रिपोर्ट के अनुसार, 2024 के अंत में Facebook पर हिंसक कंटेंट की मात्रा 0.06-0.07% थी जो 2025 की पहली तिमाही में बढ़कर 0.09% हो गई. देखने में ये आंकड़े छोटे लग सकते हैं, लेकिन अरबों यूज़र्स वाले प्लेटफॉर्म पर यह एक बहुत बड़ी मात्रा में परेशान करने वाला कंटेंट दर्शाता है. इसी तरह, बुलीइंग और ऑनलाइन उत्पीड़न की घटनाएं भी बढ़ी हैं. मार्च 2025 में Facebook पर इस तरह के कंटेंट के शेयर में अचानक उछाल आया जिससे यह दर 0.06–0.07% से बढ़कर 0.07–0.08% हो गई. यह ट्रेंड दर्शाता है कि पहले जो गिरावट आ रही थी, वह अब उल्टी दिशा में जा रही है.
सख्ती में ढील, हटाए गए पोस्ट्स की संख्या में गिरावट
2025 की पहली तिमाही में Meta ने नफरत फैलाने वाले कंटेंट के तहत सिर्फ 34 लाख पोस्ट्स पर एक्शन लिया, जो कि 2018 के बाद सबसे कम आंकड़ा है. स्पैम हटाने की दर भी 730 मिलियन से गिरकर 366 मिलियन पर आ गई. वहीं फेक अकाउंट्स की पहचान और डिलीटिंग में भी गिरावट देखी गई 1.4 बिलियन से घटकर 1 बिलियन.
यह गिरावट इस नई नीति का नतीजा है जिसमें Meta अब केवल गंभीर अपराध जैसे कि चाइल्ड अब्यूज या आतंकवाद से जुड़े कंटेंट पर फोकस करता है जबकि इमिग्रेशन, जेंडर पहचान और नस्ल जैसे संवेदनशील विषयों को अब ‘राजनीतिक चर्चा’ के तहत मॉडरेशन से बाहर रखा गया है.
हेट स्पीच की परिभाषा भी बदली
Meta ने नफरत फैलाने वाले भाषण की परिभाषा को भी सीमित कर दिया है. अब केवल वे पोस्ट हटाए जाते हैं जिनमें सीधे हमले या अमानवीय भाषा हो. पहले जो पोस्ट ‘घृणा, बहिष्कार या हीनता’ जैसी भावनाओं के आधार पर हटाए जाते थे, अब उन्हें हटाने की आवश्यकता नहीं समझी जा रही है.
फैक्ट-चेकिंग सिस्टम में भी बड़ा बदलाव
2025 की शुरुआत में Meta ने अमेरिका में अपने थर्ड-पार्टी फैक्ट-चेकिंग प्रोग्राम को बंद कर दिया और उसकी जगह “कम्युनिटी नोट्स” नामक यूज़र-जनरेटेड फैक्ट चेकिंग सिस्टम लॉन्च किया है, जो अब Facebook, Instagram, Threads और Reels में लागू है.
हालांकि Meta ने इस सिस्टम की प्रभावशीलता या उपयोग की कोई आंकड़े नहीं जारी किए हैं, कई विशेषज्ञ इस मॉडल पर सवाल उठा रहे हैं. उनका मानना है कि यूज़र्स द्वारा बनाई गई टिप्पणियां बिना पेशेवर जांच के पक्षपातपूर्ण या भ्रामक हो सकती हैं.
ग़लत मॉडरेशन में 50% की कमी
हालांकि हानिकारक कंटेंट बढ़ा है, लेकिन Meta का कहना है कि गलत मॉडरेशन यानी सही पोस्ट को गलती से हटाने की घटनाएं 50% तक कम हुई हैं. कंपनी का कहना है कि वह ‘ज्यादा सख्ती और बहुत ढील’ के बीच संतुलन बनाने की कोशिश कर रही है. हालांकि अभी तक यह साफ नहीं किया गया कि यह आंकड़े कैसे मापे गए.
टीनेज यूज़र्स के लिए बनी रहेंगी सुरक्षा सीमाएं
जहां Meta ने ज्यादातर जगह मॉडरेशन ढीला किया है, वहीं किशोर यूज़र्स (टीन्स) के लिए सख्ती जारी है. नए “टीनेज अकाउंट्स” में ऐसे कंटेंट को फिल्टर किया जा रहा है जो उनके लिए अनुचित हो सकता है. कंपनी यह भी बता रही है कि अब AI आधारित मॉडरेशन सिस्टम इंसानों से भी बेहतर काम करने लगे हैं और कई मामलों में कंटेंट को ऑटोमैटिक रूप से हटा दिया जाता है.
यह भी पढ़ें:
कल से इन पुराने iPhone और Android पर नहीं चलेगा WhatsApp! यहां चेक करें पूरी लिस्ट
[ad_2]
ट्रंप को खुश करने के चक्कर में Meta की बड़ी चूक! Facebook पर भड़क उठा नफरत और हिंसा का तूफान