У материнській компанії Facebook та Instagram Meta розповіли, хто модерує український контент, та чому активно блокується антивоєнний контент. В пресслужбі компанії зазначили, що питаннями безпеки загалом опікується 40 тисяч людей. З них 15 тисяч – це модератори.
"Всупереч деяким міфам, у нас немає і ніколи не було модераторів, які працюють з Москви. У нас там також немає і ніколи не було офісу", – відповіли у пресслужбі.
Зазначається, що регіональний офіс, якій керує 28 країнами всього регіону Центральної та Східної Європи включно з Україною, розташований у Варшаві. А в цілому команди Meta розташовані по всьому світу в різних часових поясах.
"Для перевірки вмісту постів та скарг користувачів компанія використовує поєднання людської праці та технологій штучного інтелекту (AI). У цих командах працюють носії української мови, які розуміють локальний контекст. Український контент, який потребує мовної та культурної експертизи, перевіряють українські модератори", – пояснили в компанії.
При цьому в Meta уточнили, що кількість скарг не вливає на рішення про видалення контенту. Мається на увазі, якщо допис не порушує правил і стандартів соцмережі, то навіть велика кількість скарг не призведе до бану.
Звідки пішов міф про російських модераторів
Зазначимо, що з початку повномасштабного вторгнення Росії в Україну українські користувачі постійно стикаються з блокуванням антивоєнного контенту в соцмережах.
Сторінки й дописи у Facebook, Instagram методично блокуються і видаляються, якщо їх контент не відповідає політиці Meta. Те ж саме стосується й інших соцмереж, таких як Twitter, TikTok, LinkedIn.
Через це багато українських користувачів почали вважати, що Facebook та Instagram модеруються з Москви.
"Незалежно від того, хто публікує вміст, ми не дозволяємо нічого, що суперечить нашій політиці. Ці правила глобальні", – відповіли у Meta.
Нагадаємо, на початку російського вторгнення в Україну Meta створила Центр спеціальних операцій (Special Operations Center) – компанія називає його ще однією лінією захисту від дезінформації, яка дає змогу швидше видаляти контент, який порушує стандарти й правила спільноти.
"Ми працюємо з понад 90 партнерами з перевірки фактів більш ніж 60 мовами, щоб переглядати й оцінювати точність вмісту", – відповіли в Meta.
У компанії заявили, що збільшили фінансування для українських партнерів із фактчеку, не уточнюючи їхню кількість та суми.