По-рано днес The Guardian публикува поредица от доклади за вътрешните правила на Facebook за модериране на графично съдържание. Те дават нов поглед върху това как компанията определя какво потребителите могат да публикуват, какво може да остане и какво трябва да бъде премахнато. Става ясно, че Facebook буквално се дави в съдържание заради правила, които са най-меко казано противоречиви.

The Guardian публикува серия от Facebook файлове, които разкриват някои от вътрешните ръководства на сайта относно достоверни заплахи за насилие, несексуално малтретиране на деца, жестокост към животни и др. Изданието обяснява, че са прегледани над 100 вътрешни "ръководства за обучение, електронни таблици и графики“, които насочват модераторите на сайта, когато има докладвано съдържание.

Документите разкриват, че Facebook използва някои автоматизирани системи за активно премахване на съдържание, като например сексуална злоупотреба с деца или тероризъм, а останалите неща падат върху екипите от модератори.

В някои от документите има ръководства за това как трябва да се постъпва, когато хората изразяват несъгласие с опасността за живота или призовават за насилие по общо шеговити и несериозни начини. Също така се предоставят примери, при които някои твърдения са приемливи да останат на сайта (като „Аз отивам да убия Джон!"), но това, което трябва да бъде премахнато, е „Аз ще те убия Джон, имам нож, за да го направя!“.

Насоките за модераторите определят разликата между някой, който е „изпуснал пара“ и сериозна заплаха, като конкретни заплахи, време и методи за извършване.

Facebook също така очертава конкретни групи от уязвими лица (като държавни ръководители или специфични полицейски служители) и групи (бездомници например), които автоматично се изтриват.

Но от тези документи става ясно, че са налице значителни „сиви зони“. В насоките на сайта изрично се посочва, че се разрешават "снимки и видеоклипове, които документират злоупотреба с животни", за да се повиши информираността. Докато Facebook не разрешава да се качват изображения и видеоклипове с насилие над деца, то подобно съдържание с животни се маркира единствено като „тревожно“. В това число влизат дори снимки, на които ясно се показва как хора ритат или бият животни - отново с цел обръщана не внимание към проблема с насилието.

Потребителите, които са склонни да се самонаранят, също не се цензурират. От вътрешните правила научаваме още, че "видеа с насилствена смърт са обезпокоителни, но мога да се използват, за да се увеличи информираността и осъзнаването на проблемите. Ако говорим за видеата, смятаме, че малолетните трябва да бъдат защитавани, а възрастните - да имат избор". Подобно съдържание трябва да бъде скривано от малолетните, но да не бъде изтривано, за да се използва именно за обръщане на внимание на важните въпроси за насилието, самонараняването и т.н.

„Модератори преглеждат милиони съобщения за съмнително съдържание и те „често се чувстват претоварени от броя на публикациите, които трябва да прегледат, което ги кара да правят грешки, особено в сложната област на допустимото сексуално съдържание“, заяви ръководителят на глобалната политика на Facebook Моника Бикерт пред The Guardian.

Разнообразната аудитория на компанията означава и че има голямо разнообразие от това, което се смята за приемливо поведение, както и че някои коментари могат да нарушават правилата на Facebook в някои ситуации, но не и други.

В изявление пред The Verge Бикерт отбелязва, че безопасността на потребителите е от изключително значение за Facebook:

"Да работим за това потребителите на Facebook да са в безопасност е най-важното нещо за нас. Марк Зукърбърг наскоро обяви, че през следващата година ще бъдат наети още 3000 души към нашия екип по целия свят. Това ще позволи да се преглеждат по-бързо и точно милионите сигнали, които получаваме всяка седмица. Ще подобряваме процеса, за да го направим по-бърз. В допълнение към инвестиране в повече хора, също така изграждаме по-добри инструменти, за да държим общността ни в безопасност. Ще улесним определянето на това кои публикации нарушават нашите стандарти, за да прилагаме закона, ако някой има нужда от помощ.“

От The Guardian добавят още, че според правилата на Facebook стрийм на живо, в който се виждат опити за самонараняване няма да бъдат спирани, защото "не иска да цензурира или наказва хора в тежка ситуация, които прибягват към самоубийство". Все пак видеото ще бъде премахнато в момента, в който стане ясно, че вече не предоставя възможност да се помогне на човека. Тази политика е изготвена на база разговори с експерти, пише още във файловете, до които са достигнали от изданието. 

Истината е, че Facebook се развива с шеметни темпове и всъщност е своеобразен феномен, който до този момент не е същестувал. Оформянето му в безопасно и изолирано от графично съдържание място е нещо изключително трудно, а вземането на деликатни решения - още по-сложно. Ако човек има сериозни проблеми и е погълнат от дълбока депресия, допълнителното му изолиране може да му навреди още повече. Това е и причината от Социалната мрежа да разработват системи за помощ на потребителите. Но можем ли да се съгласим с правилата за насилие? Наистина е важно тези проблеми да не бъдат пренебрегвани и потулвани, но къде е тънката граница, която не трябва да бъде преминавана?

Още от Social