Meta, як і раніше, видалятиме контент, який порушує правила Facebook , але в рамках нової системи приділятиметься більше уваги тому, щоб допомогти людям зрозуміти причину видалення, повідомляє компанія. Там зазначили, що це дасть змогу запобігти повторним порушенням.
Ключові факти
- Зазначається, що Meta, слідуючи рекомендаціям своєї Ради з нагляду, яка продовжує наполягати на тому, щоб система покарань була більш пропорційною, робить кроки з оновлення системи Facebook, щоб зробити її більш ефективною та справедливою.
- Оскільки нічого не змінюється в основному видаленні контенту, в компанії не очікують, що вдосконалення системи покарань вплине на поширеність. «З цим оновленням ми, як і раніше, зможемо забезпечувати безпеку нашої програми, а також давати людям можливість виражати себе», – йдеться у повідомленні.
- У рамках нової системи компанія планує зосередитися на тому, щоб допомогти людям зрозуміти, чому видалили їхній контент, пояснюючи це тим, що це ефективніше для запобігання повторним правопорушенням, і не так швидко обмежує можливість публікації.
- Компанія, як і раніше, планує застосовувати обмеження до облікових записів для постійних порушників, як правило, починаючи з сьомого порушення після того, як надасть достатньо попереджень і пояснень.
- За більш серйозні порушення, такі як розміщення контенту, який сприяє поширенню тероризму, експлуатації дітей, торгівлі людьми, пропаганді самогубств, сексуальній експлуатації, продажу немедичних наркотиків або пропаганді небезпечних осіб та організацій, Meta продовжить вживати негайних заходів.
- Згідно з аналізом компанії, майже 80% користувачів із невеликою кількістю попереджень більше не порушують правил протягом наступних 60 днів. «Це означає, що більшість людей добре реагують на попередження та пояснення, оскільки вони не хочуть порушувати наші правила», – додали у Meta.
- У компанії нагадали, що попередня система швидко вдавалася до тривалих покарань, таких як 30-денне блокування можливості людини створювати контент. «Наша нова система, яка скорочує кількість періодів обмеження, дасть нам змогу виявляти постійних порушників за менший час, що приведе до більш швидких та ефективних дій», – наголосили у Meta.
Контекст
З початку повномасштабного російського вторгнення українські користувачі постійно стикаються з «антивоєнною» модерацією в соцмережах. Пов’язані з війною та її наслідками сторінки й дописи у Facebook, Instagram, Twitter, TikTok, LinkedIn систематично блокуються та видаляються. Однак самі компанії не розкривають точних алгоритмів модерації.
На початку російського вторгнення в Україну Meta створила Центр спеціальних операцій (Special Operations Center). У Meta його називають ще однією лінією захисту від дезінформації, що дає змогу швидше видаляти контент, який порушує стандарти й правила спільноти. Міністерство цифрової трансформації неодноразово заявляло, що працює над подоланням проблеми з блокування постів про війну та російські злочини в Україні, однак наразі чіткого рішення немає.
Наприкінці минулого року Meta повідомила у відповідь на запит Forbes, що в материнської компанії Facebook та Instagram 15 000 рецензентів контенту, з українським працюють українські модератори. Загалом питаннями безпеки в компанії опікуються 40 000 людей. Їхні команди розташовані по всьому світу в різних часових поясах. Для перевірки вмісту постів і скарг користувачів компанія використовує поєднання людської праці та технологій штучного інтелекту (AI). У цих командах працюють носії української мови, які розуміють локальний контекст.
У Meta також стверджували, що кількість скарг не вливає на рішення про видалення контенту. Якщо допис не порушує правил і стандартів соцмережі, навіть велика кількість скарг не призведе до бану.
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.