Amazon, Facebook, Twitter и YouTube сталкиваются с проблемами модерации - вот как они пытаются контролировать свои огромные платформы

Источник: Insider

28.08.2019 09:28

Категория: Технологии

timer 3 мин. 47 сек.
Amazon, Facebook, Twitter и YouTube сталкиваются с проблемами модерации - вот как они пытаются контролировать свои огромные платформы

Amazon продает сотни миллионов товаров на своем онлайн-рынке. С таким огромным количеством продуктов возникает вопрос: как компания регулирует то, что там продается?

The Wall Street Journal опубликовал в пятницу расследование по поводу "борьбы за охрану сайта Amazon". Journal обнаружил, что на Amazon было продано более 4000 товаров, которые, по словам издания, были обманчиво маркированы, признаны федеральными агентствами небезопасными или запрещены федеральными регуляторами.

Эта проблема отражена в технических гигантах, таких как YouTube, Twitter и Facebook. Эти огромные открытые технологические платформы боролись за то, чтобы проползти через кучу проблемного контента: от постов в Facebook, призывающих к геноциду мусульманской группы меньшинства рохинджа в Мьянме, до видеороликов на YouTube, на которых выжившие в массовых расстрелах в школах США являются «подставными актерами».

Вот проблемы, с которыми сталкиваются технические гиганты, такие как Amazon, YouTube, Facebook и Twitter, и как они пытаются регулировать свои платформы.

Amazon был пойман, продавая тысячи товаров, которые были объявлены федеральными агентствами небезопасными. В ответ компания заявляет, что использует машинное обучение и обработку естественного языка для мониторинга продаваемых товаров.

Wall Street Journal опубликовал расследование «борьбы за охрану сайта Amazon», обнаружив, что на Amazon было продано более 4000 товаров, которые, по словам издания, были небезопасны или вовсе запрещены. 

Amazon выпустил заявление в ответ на эту статью, в которой разъясняется практика мониторинга товаров, продаваемых на ее рынке:

— Новые счета продавцов проверяются с помощью запатентованной технологии машинного обучения.

— Специалисты Amazon по соответствию рассматривают документы, представленные новыми продавцами, подтверждающие, что их товары соответствуют правилам (например, что детские игрушки соответствуют правилам Комиссии по безопасности потребительских товаров).

— Продукты, продаваемые на Amazon, постоянно анализируются с использованием инструментов машинного обучения и обработки естественного языка. 

— Amazon принимает во внимание отчеты о проблемах безопасности от клиентов и регулирующих органов, а затем начинает расследования.

YouTube, который имеет более 1 миллиарда пользователей, подвергся критике за то, что он не предпринимал быстрых действий, чтобы снять гомофобный контент и видео, отрицая правдивость массовых расстрелов в школах. Компания обновила свою политику ненавистнических высказываний и в настоящее время в ней работают 10 000 человек-модераторов.

YouTube неоднократно сталкивался с проблемами регулирования контента, который появляется на его сайте. После массового расстрела в средней школе им. Марджори Стоунмана Дугласа в Паркленде, штат Флорида, в феврале 2018 года на YouTube появились видеоролики, в которых один из выживших был подставным актером. В том же аккаунте, где размещались эти видео, InfoWars, также были загружены видео, в которых массовая стрельба в начальной школе Sandy Hook в 2012 году была фейком.

Самый последний пример произошел в июне, когда журналист Vox Карлос Маза рассказал о консервативной медиа-звезде Стивене Краудере, который неоднократно издевался над сексуальной ориентацией Мазы и швырял в него этнические оскорбления в нескольких видеороликах на YouTube.

Затем YouTube обновил свою политику ненавистнических высказываний, «запрещающую видео, в которых утверждается, что какая-то группа имеет превосходство, чтобы оправдать дискриминацию и сегрегацию». Содержание обновления политики YouTube было подвергнуто критике как слабое действие.

Facebook подвергается критике за неспособность адекватно смягчить как ненавистнические высказывания, так и призывы к геноциду мусульманской группы меньшинства рохинджа в Мьянме. И хотя в компании работают модераторы контента, у нее есть свои проблемы.

В августе 2018 года расследование Reuters показало, что Facebook не смогла адекватно смягчить и ненавистнические высказывания, и призывы к геноциду мусульманской группы меньшинства рохинджа в Мьянме. По данным Human Rights Watch, около 700 000 беженцев из племени рохинджа бежали из штата Мьянма Ракхайн из-за военной кампании этнической чистки с августа 2017 года.

ProPublica назвала соблюдение Facebook правил ненавистнических высказываний «неравномерным», объяснив, что «его обозреватели контента часто совершают разные действия в отношении предметов с похожим содержанием».

Использование Facebook модераторов контента подверглось тщательному контролю в июне, когда The Verge сообщила, что Кит Атли - 42-летний сотрудник модератора Facebook, управляемого Cognizant в Тампе, штат Флорида - умер от сердечного приступа на работе годом ранее.

The Verge также сообщила, что на рабочем месте были плохие условия работы, где модераторам контента поручено наблюдать за часами графических видеороликов, которые были размещены на Facebook, с тем чтобы обеспечить чистоту контента от всего, что нарушает его условия обслуживания.

Через пять дней после публикации Verge Fast Company сообщила, что Facebook расширяет свои инструменты для модераторов контента с целью нейтрализовать негативные психологические последствия потребления постов Facebook, вызывающих беспокойство, и что эти инструменты работали до появления истории Verge.

Twitter внес изменения в политику, чтобы помочь обуздать оскорбления.

Twitter говорит, что делает успехи, когда дело доходит до избавления своего сайта от спама и оскорблений. Платформа, на которую, согласно Recode, приходится 300 миллионов пользователей в месяц, заявила в апрельском блоге, что вместо того, чтобы полагаться на то, что пользователи помечают, как оскорбление, в ней реализована технология, которая автоматически помечает оскорбительный контент.

В компании сказали, что «благодаря использованию технологии, 38% оскорбительного контента, выявляется для проверки модераторами, а не жалобами пользователей, использующих Twitter».