Global Voices: Трудности глобальной модерации: будет ли YouTube убирать и дальше ролики террористов

В мире Интернета есть один сайт, который видит практически всё. Слоган YouTube – «Протранслируй себя» – отражает суть самой крупной в мире видеоплатформы, где пользователи делятся своими материалами. Каждый день загружается около одного миллиона часов видео, и далеко не все из них соответствуют ожиданиям платформы или её аудитории. Вопрос о том, как модерировать такой огромный поток информации, стал центральной темой саммита «Global Voices» в Сантьяго, где высокопоставленный сотрудник YouTube Виктория Гранд поделилась своим опытом.

Для активистов социальных медиа и блогеров, собравшихся в Сантьяго, проблема модерации контента очевидна. Система, призванная очищать платформу от нежелательного контента, может легко превратиться в механизм цензуры, особенно когда алгоритмы модерации опираются на жалобы пользователей. Гранд отметила, что YouTube стремится сохранить принципы свободы слова и сделать всё возможное, чтобы система модерации не стала уязвимой для цензуры.

Одна из главных дилемм, с которой сталкивается YouTube, заключается в том, как не допустить публикацию нежелательного контента, не нарушая при этом свободу слова. Критерии для модерации, такие как «нет порнографии», «нет призывов к ненависти», а также «нет издевательств над животными или пропаганды насилия и наркотиков», на первый взгляд, кажутся простыми, но реализация этих принципов уже вызывает сложности.

Гранд пояснила, что основным фактором является контекст. Исключения из правил могут включать материалы, имеющие образовательную, документальную, научную или художественную ценность. Однако, как определить, когда видео является исключением, особенно в условиях постоянного потока информации?

На конференции Гранд продемонстрировала систему модерации YouTube, отметив, что предварительного просмотра видео перед публикацией не существует. На первом этапе используется принцип краудсорсинга, когда пользователи могут отмечать контент, который, по их мнению, следует удалить, и объяснять свои действия.

После получения жалоб работа модераторов становится более сложной. YouTube ежедневно получает огромное количество заявок, и важно не только оценить контекст видеоматериала, но и определить приоритеты для модерации. В качестве примера Гранд привела видео с избиением египетского оппозиционера, получившее семь жалоб. Система модерации предоставляет информацию о причине жалоб и стране их происхождения, что помогает модераторам принять решение о дальнейшем размещении видео на платформе.

Решения о модерации всегда принимает человек, поскольку алгоритмы не способны определить контекст материалов. Гранд подчеркнула, что даже людям это сложно, несмотря на специальные тренинги. В конечном итоге, модерация зависит от интерпретации: что именно считается насилием? Пистолет или кровь? К тому же, существует множество нюансов, касающихся юмора и культурных различий.

Модераторы YouTube – это международная команда с различными культурными корнями, что не всегда улучшает понимание контекста видео. Гранд заметила, что модераторы ежедневно сталкиваются с неприемлемым контентом. Однако, по её словам, чаще всего они предпочитают работать с порнографией, так как определение такого контента гораздо проще.

Кроме стандартных решений «разрешить» или «запретить», у модераторов есть возможность вводить региональные запреты на контент. Например, нацистская пропаганда блокируется в Германии и Франции, а материалы с документальной ценностью, которые могут содержать насилие, маркируются как контент для пользователей старше 18 лет.

В результате скандала с карикатурами на пророка Мухаммада было принято решение не удалять ролики с сатирическим содержанием, чтобы не нарушать свободу слова, но добавили специальные уведомления о потенциальных оскорблениях для зрителей.

В случае с видео о избиении египетского оппозиционера, решение было однозначным — ролик оставили на платформе благодаря его документальной ценности. Однако часто модераторам не хватает знаний для оценки контекста, поэтому Гранд советует пользователям снабжать свои видео корректными заголовками и тегами, чтобы избежать недопонимания.

К тому же, существует проблема приоритизации: какой контент следует модерировать в первую очередь? Для автоматизированной системы это важная задача. Алгоритмы анализируют визуальную информацию, выявляя, например, оголенные тела, и учитывают историю отправителей жалоб, чтобы определить приоритеты.

Так, модерирование на YouTube – это сложный симбиоз машинного анализа и человеческого понимания. Прозрачность системы модерации также является гордостью компании, позволяя пользователям обращаться за разъяснениями, если их видео было удалено.

После выступления Гранд, Джилиан Йорк из Гарвардского университета поделилась мнением о проблемах модерации на других платформах, таких как Facebook и Flickr. По её словам, у Facebook гораздо проще заблокировать пользователя или группу, но обжаловать это решение гораздо сложнее, что часто приводит к конфликтам с правом на свободу слова.

Когда речь зашла о запрете видео обращений Доку Умарова после терактов в московском метро, Гранд призналась, что это было сложное решение. «Это вызывало много внутренних дебатов, особенно потому, что у материала была новостная значимость. Однако российские власти заняли жёсткую позицию», — отметила она.

В результате видео было снято, но это не означает, что на платформе нет других материалов аналогичного содержания. «Контекст всегда имеет значение», — подытожила Гранд. Создавалось впечатление, что YouTube и российские власти достигли определённого компромисса: убрав обращение Умарова, платформа некоторое время признала его контент нелегитимным, удовлетворив требования властей, которые, в свою очередь, предпочли не требовать полной цензуры.

Оцените статью
( Пока оценок нет )
Ритм Москвы