НАЙРОБИ (ИА Реалист). У более 140 модераторов Facebook* в Кении диагностировали тяжелые посттравматические стрессовые расстройства, вызванные работой.
По данным The Guardian, одна из кенийских компаний заключила договор с компанией Meta* на оказание услуг по модерации контента в социальной сети Facebook*. Сотрудники работали по 8-9 часов в день в тяжелых условиях ― в холодном помещении, похожем на склад, при ярком освещении, а их рабочая деятельность отслеживалась с точностью до минуты.
Но самая большой проблемой оказался контент, который были вынуждены просматривать модераторы ― убийства, самоубийства, сексуальное насилие над детьми и терроризм.
Руководитель службы охраны психического здоровья в Национальной больнице Кениата в Найроби доктор Ян Каньянья, диагностировал у них посттравматическое стрессовое расстройство (ПТСР), генерализованное тревожное расстройство (ГТР) и большое депрессивное расстройство (БДР).
Каньянья пришел к выводу, что основной причиной проблем с психическим здоровьем у 144 человек была их работа в качестве модераторов контента Facebook, поскольку они «ежедневно сталкивались с крайне откровенным контентом, в том числе видеороликами ужасных убийств, членовредительства, самоубийств, попыток самоубийства, сексуального насилия, откровенного сексуального контента, физического и сексуального насилия над детьми, ужасающих насильственных действий и это лишь некоторые из них».
Четверо модераторов страдали трипофобией, отвращением или страхом перед повторяющимися узорами из маленьких отверстий или выпуклостей, которые могут вызывать сильную тревогу. У некоторых это состояние развилось из-за того, что они видели отверстия на разлагающихся телах во время работы над контентом Facebook.
Массовая диагностика была проведена в рамках судебного иска против материнской компании Facebook*, Meta, и Samasource Kenya ― аутсорсинговой компании, которая осуществляла модерацию контента для Meta*, используя сотрудников со всей Африки.
В документах утверждается, что изображения и видео, содержащие сцены некрофилии, скотоложства и членовредительства, приводили к тому, что модераторов рвало, а некоторые из них даже теряли сознание.
По меньшей мере 40 модераторов в этом деле из-за такой работы стали злоупотреблять алкоголем, наркотиками, включая каннабис, кокаин и амфетамины, а также психотропными препаратами. Некоторые сообщили о распаде брака и падении желания сексуальной близости, а также о потере связи с семьей.
Часть модераторов, чья работа заключалась в удалении видео, загруженных террористическими и повстанческими группами, боялись, что за ними следят, и что их убьют по дороге домой.
Согласно документам, модераторам из Кении и других африканских стран было поручено с 2019 по 2023 год проверять сообщения, исходящие из Африки и на их родных языках, но им платили в восемь раз меньше, чем их коллегам в США.
В итоге почти 190 модераторов выдвинули иск компании Meta*, который включает в себя обвинения в преднамеренном нанесении психического вреда, несправедливой практике трудоустройства, торговле людьми и современном рабстве, а также незаконном увольнении.
Компании Meta* и Samasource отказались комментировать претензии из-за судебного разбирательства.
«Доказательства неоспоримы: модерирование Facebook — опасная работа, которая вызывает пожизненное посттравматическое стрессовое расстройство почти у каждого, кто ее модерирует. В Кении это травмировало 100% сотен бывших модераторов, прошедших тестирование на ПТСР… В любой другой отрасли, если бы мы обнаружили, что у 100% работников служб безопасности диагностированы заболевания, вызванные их работой, ответственные лица были бы вынуждены уйти в отставку и столкнуться с правовыми последствиями за массовые нарушения прав людей. Вот почему Foxglove поддерживает этих храбрых работников в их стремлении добиться справедливости в судах», ― заявила основатель и соисполнительный директор британской некоммерческой организации Foxglove Марта Дарк, поддержавшая судебное разбирательство.
*Организация, деятельность которой запрещена на территории РФ