“Вовлеченность” в социальных сетях делает вас уязвимыми для манипуляций

“Вовлеченность” в социальных сетях делает вас уязвимыми для манипуляций

Источник · Перевод автора

Facebook потихоньку экспериментирует с уменьшением количества политического контента, который он помещает в новостные ленты пользователей. Этот шаг является молчаливым признанием того, что способ работы алгоритмов компании может быть проблемой.

Суть дела заключается в различии между провоцированием ответа и предоставлением контента, который хотят люди. Алгоритмы социальных сетей – правила, которым следуют их компьютеры при выборе контента, который вы видите, – во многом зависят от поведения людей при принятии этих решений. В частности, они следят за контентом, на который люди реагируют или «взаимодействуют», ставя отметку «Нравится», комментируя и делясь.

Как компьютерный ученый, изучающий способы взаимодействия большого количества людей с помощью технологий, я понимаю логику использования мудрости толпы в этих алгоритмах. Я также вижу существенные недостатки в том, как компании, работающие в социальных сетях, делают это на практике.

От львов в саванне до лайков в Facebook

Концепция мудрости толпы предполагает, что использование сигналов о действиях, мнениях и предпочтениях других в качестве руководства приведет к правильным решениям. Например, коллективные прогнозы обычно более точны, чем индивидуальные. Коллективный разум используется для прогнозирования финансовых рынков, спорта, выборов и даже вспышек заболеваний.

На протяжении миллионов лет эволюции эти принципы были закодированы в человеческом мозгу в форме когнитивных искажений, которые получили такие названия, как знакомство, простое разоблачение и эффект поборника. Если все начинают бежать, вы тоже должны бежать; может быть, кто-то увидел, что лев приближается и бежит, может спасти вам жизнь. Возможно, вы не знаете почему, но разумнее задать вопросы позже.

Ваш мозг улавливает подсказки из окружающей среды, включая ваших коллег, и использует простые правила, чтобы быстро преобразовать эти сигналы в решения: идти с победителем, следовать за большинством, копировать своего соседа. Эти правила отлично работают в типичных ситуациях, потому что они основаны на здравых предположениях. Например, они предполагают, что люди часто действуют рационально, маловероятно, что многие ошибаются, прошлое предсказывает будущее и так далее.

Технологии позволяют людям получать доступ к сигналам гораздо большего числа других людей, большинство из которых они не знают. Приложения искусственного интеллекта активно используют эти сигналы популярности или «вовлеченности», от выбора результатов поисковой системы до рекомендации музыки и видео, а также от предложения друзей до ранжирования сообщений в новостных лентах.

Не все вирусное заслуживает быть

Наше исследование показывает, что практически все платформы веб-технологий, такие как социальные сети и системы рекомендаций по новостям, имеют сильную предвзятость в отношении популярности. Когда приложения управляются такими сигналами, как вовлеченность, а не явными поисковыми запросами, предвзятость в отношении популярности может привести к нежелательным непредвиденным последствиям.

Социальные сети, такие как Facebook, Instagram, Twitter, YouTube и TikTok, в значительной степени полагаются на алгоритмы ИИ для ранжирования и рекомендации контента. Эти алгоритмы принимают на вход то, что вам «нравится», что вы комментируете и чем делитесь – другими словами, контент, с которым вы взаимодействуете. Цель алгоритмов – максимизировать вовлеченность, узнав, что нравится людям, и разместив это в верхней части своих каналов.

На первый взгляд это кажется разумным. Если людям нравятся достоверные новости, мнения экспертов и забавные видеоролики, эти алгоритмы должны определять такой высококачественный контент. Но мудрость толпы делает здесь ключевое предположение: рекомендации того, что популярно, поможет качественному контенту «всплыть».

Мы проверили это предположение, изучив алгоритм, который ранжирует элементы, используя сочетание качества и популярности. Мы обнаружили, что в целом предвзятость по популярности с большей вероятностью снижает общее качество контента. Причина в том, что вовлеченность не является надежным показателем качества, когда мало кто знаком с предметом. В этих случаях взаимодействие генерирует зашумленный сигнал, и алгоритм, вероятно, усилит этот начальный шум. Как только популярность некачественного товара станет достаточно большой, она будет расти.

Предвзятость вовлеченности – не единственное, что влияет на алгоритмы – она ​​может повлиять и на людей. Факты показывают, что информация передается посредством «комплексного заражения», а это означает, что чем чаще кто-то сталкивается с какой-либо идеей в Интернете, тем выше вероятность, что они примут ее и поделятся ею. Когда социальные сети сообщают людям, что товар становится вирусным, их когнитивные предубеждения проявляются и выливаются в непреодолимое желание обратить на него внимание и поделиться им.

Не очень мудрые толпы

Недавно мы провели эксперимент, используя приложение для обучения новостной грамотности под названием Fakey. Это игра, разработанная нашей лабораторией, которая имитирует новостную ленту, как в Facebook и Twitter. Игроки видят смесь текущих статей из фейковых новостей, мусорной науки, гиперпартийных и конспиративных источников, а также из основных источников. Они получают баллы за то, что делятся новостями из надежных источников или лайкают их, а также отмечают статьи, не заслуживающие доверия, для проверки фактов.

Мы обнаружили, что игроки с большей вероятностью понравятся или поделятся и с меньшей вероятностью отметят статьи из источников с низким уровнем доверия, когда игроки видят, что многие другие пользователи взаимодействовали с этими статьями. Таким образом, воздействие показателей вовлеченности создает уязвимость.

Мудрость толпы терпит неудачу, потому что она основана на ложном предположении, что толпа состоит из различных, независимых источников. Это может быть по нескольким причинам.

Во-первых, из-за того, что люди склонны общаться с похожими людьми, их интернет-районы не очень разнообразны. Легкость, с которой пользователь социальных сетей может разлучить тех, с кем они не согласны, толкает людей в однородные сообщества, часто называемые эхо-камерами.

Во-вторых, поскольку друзья многих людей являются друзьями друг друга, они влияют друг на друга. Известный эксперимент продемонстрировал, что знание того, какая музыка нравится вашим друзьям, влияет на ваши собственные предпочтения. Ваше социальное желание соответствовать искажает ваше независимое суждение.

В-третьих, можно использовать сигналы популярности. За прошедшие годы поисковые системы разработали сложные методы борьбы с так называемыми «фермами ссылок» и другими схемами манипулирования алгоритмами поиска. С другой стороны, платформы социальных сетей только начинают узнавать о своих уязвимостях.

Люди, стремящиеся манипулировать информационным рынком, создали поддельные учетные записи, такие как тролли и социальные боты, и организовали поддельные сети. Они наводнили сеть, чтобы создать видимость того, что теория заговора или политический кандидат популярны, одновременно обманывая как алгоритмы платформы, так и когнитивные предубеждения людей. Они даже изменили структуру социальных сетей, чтобы создать иллюзии относительно мнения большинства.

Уменьшение вовлеченности

Что делать? Технологические платформы в настоящее время находятся в обороне. Во время выборов они становятся все более агрессивными, блокируя фальшивые аккаунты и вредоносную дезинформацию. Но эти усилия могут быть сродни игре в крота.

Другой превентивный подход заключался бы в добавлении трений. Другими словами, чтобы замедлить процесс распространения информации. Часто повторяющееся поведение, такое как автоматическое добавление лайков и публикация, может подавляться тестами CAPTCHA или сборами. Это не только уменьшит возможности для манипуляции, но и при меньшем количестве информации люди смогут уделять больше внимания тому, что они видят. Это оставит меньше возможностей для влияния предвзятого отношения на решения людей.

Также было бы полезно, если бы компании, работающие в социальных сетях, скорректировали свои алгоритмы, чтобы меньше полагаться на вовлеченность при определении контента, который они вам обслуживают.