1. Перейти к содержанию
  2. Перейти к главному меню
  3. К другим проектам DW

Как манипулируют трендами в соцсетях

Ксения Сафронова | Екатерина Крыжановская
10 января 2018 г.

В топе Twitter и Instagram, среди популярных постов в Facebook попадаются темы, продвинутые с помощью ботов. Как и зачем злоупотребляют трендами в соцсетях, объясняет DW.

https://p.dw.com/p/2qWjl
Путин и надпись "Как попадают в тренды соцсетей"
Фото: DW

Как раскручивают тренды в соцсетях

С помощью сетей ботов - программ, которые управляют фейковыми аккаунтами в соцсетях - можно искусственно вывести в тренд любую тему. Они могут достигать огромных размеров: в 2017 году исследователи Лондонского университета разоблачили сеть в Twitter, состоящую из 350 тысяч фальшивых аккаунтов. Они не были активны, но "включить" их можно было в любой момент.

Запрограммированные армии ботов реагируют в социальных сетях на посты с определенными ключевыми словами. Обнаружив заданное слово или хэштег, они лайкают, репостят, оставляют под постом заготовленные хорошие или плохие комментарии. Заметив высокую активность, алгоритмы соцсетей выводят тему в тренд и показывают ее другим пользователям. Так она становится популярной и автоматически выходит в топ самых обсуждаемых. При этом за трендами в Twitter, Instagram, Facebook и т.д. следят рекламодатели, политики, журналисты - так они пытаются понять, что волнует людей. Но не всегда эти темы действительно интересуют интернет-пользователей.

Боты вмешиваются в выборы

Проблема еще и в том, что во многих странах трендами манипулируют для политической борьбы. По данным правозащитной организации Freedom House, только за 2017 год боты пытались влиять на результаты выборов в 17 государствах. Программы-роботы распространяют фейковые новости, подавляют критику, продвигают нужную точку зрения.

Изучающий манипуляции в соцсетях немецкий политилог Симон Хегелих (Simon Hegelich) в 2014 году обнаружил сеть ботов, влиявших на тренды в разгар конфликта на Украине. 15 тысяч фейковых аккаунтов оставляли по 60 тысяч постов в день: они публиковали шутки, обсуждали спортивные события и между делом поддерживали "Правый сектор". Хегелих подтвердил в интервью DW и то, что армии ботов были активны во время избирательной кампании в США в 2016 году. Агитационные сообщения якобы рассылали привлекательные девушки, за которыми на самом деле скрывались специальные программы.

Как боты влияют на тренды в соцсетях

Манипулируют трендами по-разному. К примеру, властям какой-нибудь авторитарной страны не нравится популярный хэштег, который используют оппозиционеры. С помощью ботов они раскручивают в Сети альтернативную кампанию и выдавливают первоначальный хештег из топа. В итоге на него меньше кликают, а потом и вовсе забывают.

Чтобы заглушить оппонентов, сотни тысяч ботов могут подписаться на какой-то конкретный аккаунт, регулярно лайкать и репостить его сообщения, поддерживая мнимую популярность конкретного человека или организации.

В некоторых случаях боты дискредитируют неугодные хэштеги. Они раскручивают посты с такими тегами, добавляя неподходящие ссылки, странные комментарии, картинки и видео не по теме. Такой способ используют, например, против организации митингов и акций протеста с помощью соцсетей. В итоге найти по хэштегу можно в первую очередь не относящуюся к делу информацию, а не сведения о готовящемся мероприятии.

Конечно, социальные сети пытаются бороться с подобными манипуляциями, но и боты действуют все более изощренными способами.

Обычные юзеры вряд ли заметят, что за конкретным трендом стоят целые сети ботов: для этого нужно сопоставить тысячи постов и найти среди них подозрительные закономерности. В Мюнстерском университете (Westfälische Wilhelms-Universität) работают над специальной программой, которая будет распознавать и блокировать такие манипуляции. Но до того, как она станет доступна, важно помнить, что не каждый тренд в соцсети - настоящий.

Другие выпуски проекта DW "Как выжить в соцсетях" смотрите здесь.

Смотрите также:

Как отличить фейковое видео

Фейковые новости - инструкция по разоблачению

Пропустить раздел Еще по теме

Еще по теме

Показать еще