ट्रंप को खुश करने के चक्कर में Meta की बड़ी चूक! Facebook पर भड़क उठा नफरत और हिंसा का तूफान

by Carbonmedia
()

Meta Facebook: Meta द्वारा कंटेंट मॉडरेशन में ढील देने के फैसले के बाद Facebook पर हिंसा और बदसलूकी से भरे पोस्ट्स में चिंताजनक इज़ाफा देखने को मिला है. यह बदलाव जनवरी 2025 में लागू की गई नई नीति के बाद सामने आया है जिसमें Meta ने कंटेंट हटाने और सख्त निगरानी को कम कर दिया है. Meta की पहली “इंटीग्रिटी रिपोर्ट” के अनुसार, अब Facebook जैसे प्लेटफॉर्म पर हानिकारक कंटेंट की मात्रा तो बढ़ रही है लेकिन कार्रवाई और पोस्ट डिलीट करने के मामले कम हो गए हैं.


हिंसक और आपत्तिजनक कंटेंट में इज़ाफा


Meta की रिपोर्ट के अनुसार, 2024 के अंत में Facebook पर हिंसक कंटेंट की मात्रा 0.06-0.07% थी जो 2025 की पहली तिमाही में बढ़कर 0.09% हो गई. देखने में ये आंकड़े छोटे लग सकते हैं, लेकिन अरबों यूज़र्स वाले प्लेटफॉर्म पर यह एक बहुत बड़ी मात्रा में परेशान करने वाला कंटेंट दर्शाता है. इसी तरह, बुलीइंग और ऑनलाइन उत्पीड़न की घटनाएं भी बढ़ी हैं. मार्च 2025 में Facebook पर इस तरह के कंटेंट के शेयर में अचानक उछाल आया जिससे यह दर 0.06–0.07% से बढ़कर 0.07–0.08% हो गई. यह ट्रेंड दर्शाता है कि पहले जो गिरावट आ रही थी, वह अब उल्टी दिशा में जा रही है.


सख्ती में ढील, हटाए गए पोस्ट्स की संख्या में गिरावट


2025 की पहली तिमाही में Meta ने नफरत फैलाने वाले कंटेंट के तहत सिर्फ 34 लाख पोस्ट्स पर एक्शन लिया, जो कि 2018 के बाद सबसे कम आंकड़ा है. स्पैम हटाने की दर भी 730 मिलियन से गिरकर 366 मिलियन पर आ गई. वहीं फेक अकाउंट्स की पहचान और डिलीटिंग में भी गिरावट देखी गई 1.4 बिलियन से घटकर 1 बिलियन.


यह गिरावट इस नई नीति का नतीजा है जिसमें Meta अब केवल गंभीर अपराध जैसे कि चाइल्ड अब्यूज या आतंकवाद से जुड़े कंटेंट पर फोकस करता है जबकि इमिग्रेशन, जेंडर पहचान और नस्ल जैसे संवेदनशील विषयों को अब ‘राजनीतिक चर्चा’ के तहत मॉडरेशन से बाहर रखा गया है.


हेट स्पीच की परिभाषा भी बदली


Meta ने नफरत फैलाने वाले भाषण की परिभाषा को भी सीमित कर दिया है. अब केवल वे पोस्ट हटाए जाते हैं जिनमें सीधे हमले या अमानवीय भाषा हो. पहले जो पोस्ट ‘घृणा, बहिष्कार या हीनता’ जैसी भावनाओं के आधार पर हटाए जाते थे, अब उन्हें हटाने की आवश्यकता नहीं समझी जा रही है.


फैक्ट-चेकिंग सिस्टम में भी बड़ा बदलाव


2025 की शुरुआत में Meta ने अमेरिका में अपने थर्ड-पार्टी फैक्ट-चेकिंग प्रोग्राम को बंद कर दिया और उसकी जगह “कम्युनिटी नोट्स” नामक यूज़र-जनरेटेड फैक्ट चेकिंग सिस्टम लॉन्च किया है, जो अब Facebook, Instagram, Threads और Reels में लागू है.


हालांकि Meta ने इस सिस्टम की प्रभावशीलता या उपयोग की कोई आंकड़े नहीं जारी किए हैं, कई विशेषज्ञ इस मॉडल पर सवाल उठा रहे हैं. उनका मानना है कि यूज़र्स द्वारा बनाई गई टिप्पणियां बिना पेशेवर जांच के पक्षपातपूर्ण या भ्रामक हो सकती हैं.


ग़लत मॉडरेशन में 50% की कमी


हालांकि हानिकारक कंटेंट बढ़ा है, लेकिन Meta का कहना है कि गलत मॉडरेशन यानी सही पोस्ट को गलती से हटाने की घटनाएं 50% तक कम हुई हैं. कंपनी का कहना है कि वह ‘ज्यादा सख्ती और बहुत ढील’ के बीच संतुलन बनाने की कोशिश कर रही है. हालांकि अभी तक यह साफ नहीं किया गया कि यह आंकड़े कैसे मापे गए.


टीनेज यूज़र्स के लिए बनी रहेंगी सुरक्षा सीमाएं


जहां Meta ने ज्यादातर जगह मॉडरेशन ढीला किया है, वहीं किशोर यूज़र्स (टीन्स) के लिए सख्ती जारी है. नए “टीनेज अकाउंट्स” में ऐसे कंटेंट को फिल्टर किया जा रहा है जो उनके लिए अनुचित हो सकता है. कंपनी यह भी बता रही है कि अब AI आधारित मॉडरेशन सिस्टम इंसानों से भी बेहतर काम करने लगे हैं और कई मामलों में कंटेंट को ऑटोमैटिक रूप से हटा दिया जाता है.


यह भी पढ़ें:


कल से इन पुराने iPhone और Android पर नहीं चलेगा WhatsApp! यहां चेक करें पूरी लिस्ट

How useful was this post?

Click on a star to rate it!

Average rating / 5. Vote count:

No votes so far! Be the first to rate this post.

Related Articles

Leave a Comment