Алгоритм рекомендаций YouTube с большей вероятностью предлагает видео консервативного толка независимо от политических убеждений пользователей. Об этом пишет The Register.
Исследователи Центра социальных медиа и политики Нью-Йоркского университета попросили 1063 взрослых американца установить расширение для браузера, отслеживающее опыт просмотра видеоконтента.
В качестве отправной точки команда определила 25 роликов политического и неполитического содержания. Пользователей попросили выбрать один из них и следовать дальнейшим рекомендациям YouTube.
Каждый раз после просмотра зритель должен был выбрать одно из пяти предложений. За каждым участником команда случайным образом зафиксировала постоянную позицию.
Исследование проводилось с октября по декабрь 2022 года. Каждый участник просматривал предлагаемые видео на YouTube ежедневно по 20 раз.
Расширение регистрировало, какие ролики рекомендовал сервис на каждом этапе. Команда оценила идеологическую точку зрения каждого видео, чтобы измерить влияние эхо-камер и любых скрытых предубеждений в системе.
«Мы обнаружили, что алгоритм YouTube не ведет подавляющее большинство пользователей в экстремистские кроличьи норы, хотя и толкает пользователей во все более узкие идеологические диапазоны контента», — говорится в исследовании.
Они обнаружили, что в среднем рекомендательная система уводит зрителей немного правее политического спектра независимо от их идеологических убеждений.
«Мы считаем, что это является новым открытием», — заявили исследователи.
Команда также выяснила, что система подталкивает пользователей смотреть больше правых или левых СМИ в зависимости от отправной точки. По мере прохождения по рекомендациям идеологическая сила увеличивалась, отметили исследователи.
Например, при просмотре умеренно либеральных материалов со временем рекомендации будут смещаться влево, но очень незначительно и постепенно.
Ранее аналогичный эффект наблюдали и в Twitter. Рекомендательный алгоритм соцсети имеет тенденцию продвигать сообщения от правых политиков и новостных изданий больше, чем от левых.
Политологи из Нью-Йоркского университета предположили, что это может быть связано с провокационным характером консервативного контента, который приведет к большему вовлечению.
Напомним, в сентябре эксперты компании Mozilla обнаружили, что действия пользователей с видео на YouTube не сильно влияют на поведение рекомендательных алгоритмов.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!