Стиль жизни

Этот непредсказуемый алгоритм: как YouTube рекомендует видео и его проблемные места

Руководство видеохостинга утверждает, что совершенствует алгоритм, однако активные пользователи все чаще заявляют, что механизм рекомендаций работает плохо, и находят другие огрехи в его работе.

В глубоком кризисе?

Уже в 2016 году у невероятно популярного до этого YouTube начались сбои в работе: знаменитые блогеры пожаловались на проблемы с монетизацией, а затем и на уменьшение просмотров и подписчиков. Несмотря на заявления разработчиков, что алгоритмы работают по-прежнему, многие авторы поняли, что на видеоплощадке стал жестче контролироваться контент – иначе говоря, ввели цензуру, отмечает lenta.ru.

В последующие годы видеохостинг пытался безуспешно бороться с экстремистскими роликами и как-то удерживать рекламодателей. Но алгоритм недостаточно хорошо справлялся со своими функциями, и журналисты различных изданий не раз обвиняли YouTube в потворстве террористам, экстремистам, педофилам, антипрививочникам и другим, чьи блоги видеохостинг не только не блокировал, но часто даже монетизировал. После каждого крупного скандала рекламодатели грозились уйти, а YouTube уменьшал доходы блогеров или вовсе их лишал.

С весны этого года популярнейшие видеоблогеры заявили, что самая популярная видеоплощадка находится в глубоком кризисе. Многие из них покидают ее просторы.

Как работает алгоритм

Что за «зверь» такой – этот алгоритм YouTube? Это программное обеспечение призвано рекомендовать зрителям наиболее полезные и интересные ролики, учитывая их предпочтения. Последние высчитываются по истории активности и другим поведенческим факторам пользователя.

Затрудняют работу разработчиков алгоритма такие факторы, как необходимость обрабатывать огромное количество видео, непредсказуемое поведение пользователей платформы, от которых во многом зависит важный показатель – точность рекомендаций: он или удерживает на хостинге посетителей, или теряет их. К тому же серверные (вычислительные) мощности даже такого гиганта IT-индустрии, как Google, ограничены. Процессорное время стоит недешево, и «YouTube вынужден искать баланс между точностью рекомендаций и оптимальным расходом вычислительных мощностей», пишет Кonoden. 

По мнению аналитиков

Один из сооснователей проекта AlgoTransparency и бывший сотрудник Google Гийом Шадо, который создавал алгоритм YouTube, коротко характеризует работу алгоритма так: «Как вы смотрите, так вам и рекомендуют, однако рекомендуют то, что лучше всего рекламируется… Алгоритм убивает гражданские дебаты, он поляризует общество. Он делает то, что хорошо для рекламы, но то, что плохо для общества».

«Согласно нашему исследованию, алгоритм скорее будет подталкивать пользователя к теории заговоров, чем к качественной журналистике. Например, если пользователь смотрит исторический сюжет про Древний Египет, то ему с высокой степенью вероятности «прилетит» в рекомендации передача про постройку пирамид инопланетянами», – говорит Гийом Шадо в беседе с Би-би-си.

Его уволили из компании. Одной из причин Шадо называет именно свое несогласие с проработкой алгоритма рекомендаций.

Однако и другие критики алгоритма считают, что такой принцип работы порождает проблему с качеством контента и способен подсунуть пользователям экстремистские материалы или видео сторонников теорий заговоров. Опасность в том, что чаще всего люди даже не замечают, как много видеороликов с экстремистским содержанием на YouTube.

Алгоритм работает иначе?

Руководство YouTube не согласно с аналитикой нынешнего проекта Шадо AlgoTransparency относительно точности их механизма. В присланном в Би-би-си пресс-релизе компания утверждает, что сейчас алгоритм работает иначе и не потворствует добавлению теорий заговоров и дезинформации в рекомендации, сообщает bbc.com. 

«Наша политика не допускает видео, разжигающие вражду, и мы предпринимаем значительные усилия, чтобы оперативно реагировать на такие ситуации, включая расширении команды и инвестиции в развитие технологий машинного обучения…» – написала пресс-служба Google в ответ на запрос Би-би-си. К тому же в течение нескольких лет корпорация в своих коммюнике для прессы подчеркивает, что постоянно совершенствует машинный поиск и удаление видео недопустимого содержания.

Так, с прошлого года алгоритм автоматически добавляет ссылки на «Википедию» под видео, которое потенциально может быть дезинформирующим. Бывает, конечно, что промахивается. Поэтому служба рассчитывает на активность своих пользователей: их задача – игнорировать «постправду» и просматривать контент, не относящийся к сомнительному и дезинформационному. 

Подготовила Светлана КУРИЛИК