и его коллеги выяснили: хотя некоторые американские избиратели читали большое количество новостей на сомнительных сайтах, таких людей было меньшинство. В среднем лишь 3 % статей, которые просматривали люди, были опубликованы сайтами, специализирующимися на фальшивках. Позднее исследователи опубликовали результаты анализа промежуточных выборов 2018 года; судя по всему, во время этой кампании ложные новости распространялись еще меньше. В Великобритании также не обнаружилось свидетельств того, что перед референдумом о выходе из ЕС в твиттере или
YouTube преобладал контент, как-то связанный с Россией [445].
Это могло бы означать, что нам не стоит опасаться ботов и сомнительных сайтов. Однако все не так просто. Если говорить о манипуляциях в интернете, здесь происходит нечто гораздо менее заметное – но гораздо более опасное.
Бенито Муссолини однажды сказал, что «лучше прожить один день львом, чем сто лет овцой». По мнению пользователя твиттера @ilduce2016, автором этих слов был Дональд Трамп. Этот пользователь-бот, созданный двумя журналистами интернет-таблоида Gawker, опубликовал несколько тысяч твитов, где Трампу приписывались слова Муссолини. В конце концов один из постов привлек внимание самого Трампа: 28 февраля 2016 года, сразу после четвертых праймериз у республиканцев, он ретвитнул цитату про льва [446].
Если одни боты в соцсетях ориентированы на массовую аудиторию, то другие обладают меньшим охватом. Эти боты-приманки призваны привлечь внимание конкретных пользователей и вызвать их реакцию [447]. Помните, что каскады в твиттере зачастую начинаются с одной широковещательной передачи? Если вы хотите распространить сообщение, то для расширения передачи можно привлечь кого-то из инфлюенсеров. А поскольку многие вспышки сразу же затухают, полезно иметь бота, который будет повторять попытки: прежде чем Трамп ретвитнул цитату про льва, @ilduce2016 опубликовал ее больше двух тысяч раз. Создатели ботов, похоже, хорошо понимают, как эффективен этот подход. Публикуя сомнительный контент в 2016–2017 годах, боты в твиттере уделяли несоразмерно много внимания популярным пользователям [448].
Эту стратегию целенаправленного воздействия используют не только боты. В 2018 году, после массового убийства в средней школе Марджори Стоунман Дуглас в Паркленде (Флорида), появились сообщения, что стрелок был членом небольшой группы сторонников идеи превосходства белой расы из столицы штата Таллахасси. Но это была фальшивка. Ее придумали тролли с интернет-форумов, которым удалось убедить падких до сенсаций журналистов в правдивости этой версии. «Достаточно одной статьи, – заметил один пользователь. – И все остальные подхватывают историю» [449].
Исследователи, в том числе Уоттс и Найхен, отмечали, что в 2016 году доля информации, которую люди получали из сомнительных источников, была невелика – но это не значит, что проблемы не существует. «Думаю, на самом деле это важно, но не в том смысле, в каком кажется людям», – говорит Уоттс. Публикуя в твиттере ложные новости или сомнительные идеи, маргинальные группы не всегда нацеливаются на массовую аудиторию – по крайней мере, поначалу. Они часто выбирают мишенью тех журналистов и политиков, которые проводят много времени в соцсетях, с расчетом на то, что те подхватят идею и начнут транслировать ее широкой публике. Например, в 2017 году журналисты регулярно цитировали пользователя твиттера с ником @wokeluisa, который представлялся молодым выпускником политологического факультета из Нью-Йорка. На самом деле это была группа троллей из России: они избрали своей целевой аудиторией информационные агентства, рассчитывая завоевать доверие и распространять через них свои идеи [450]. «Журналисты не только участвуют в манипуляциях, – отмечает Уитни Филлипс, специалист по электронным СМИ из Сиракузского университета. – Они сами становятся добычей дезинформаторов» [451].
Как только какое-нибудь издание подхватывает историю, возникает эффект обратной связи, и ее начинают публиковать другие. Несколько лет назад я случайно испытал на себе этот эффект. Все началось с того, что я рассказал журналисту Times об одной математической странности в новой национальной лотерее (я тогда как раз дописал книгу о науке делать ставки). Два дня спустя эта история была опубликована. В день публикации, в 8:30 утра, я получил сообщение от продюсера передачи This Morning на канале ITV, который прочел статью. В 10:30 я уже выступал по национальному телевидению. Вскоре после этого мне написали с BBC Radio 4: они тоже видели статью и решили пригласить меня на главное дневное шоу. Затем подключились другие СМИ. В итоге моя аудитория разрослась до нескольких миллионов человек – от одного-единственного журналиста, которому я рассказал ту историю.
Мой опыт был довольно необычным, случайным и безвредным. Но другие намеренно стараются использовать эффект обратной связи в СМИ. Именно так распространяется ложная информация – несмотря на то, что большинство людей избегают маргинальных сайтов. В сущности, это своего рода «отмывание» информации. Точно так же, как наркокартели прокручивают деньги через легальный бизнес, чтобы скрыть их происхождение, манипуляторы в интернете используют авторитетные источники, чтобы подкрепить и распространить свои идеи; в результате широкая публика узнает об этих идеях от известных людей или из СМИ, а не от анонимного аккаунта.
Такое отмывание позволяет влиять на дебаты по какой-либо проблеме и на освещение этой проблемы. За счет тщательного таргетирования и подкрепления манипуляторы создают иллюзию широкой популярности тех или иных политических взглядов или кандидатов. В маркетинге такую стратегию называют астротурфингом [452], поскольку она позволяет искусственно имитировать общественную поддержку. В этом случае журналистам и политикам труднее игнорировать историю, и рано или поздно она превращается в реальную новость.
Разумеется, влияние СМИ возникло не сегодня; давно известно, что журналисты способны формировать новостной цикл. В сатирическом романе «Сенсация» Ивлина Во, написанном в 1938 году, есть рассказ о знаменитом репортере Венлоке Джейксе, которому поручили освещать революцию. Но в поезде Джейкс проспал свою станцию и вышел не в той стране. Не осознав своей ошибки, он написал статью о «баррикадах на улицах, пылающих церквах, о пулеметной стрельбе, вторящей треску его пишущей машинки». Другие журналисты, не желая пропустить такое событие, приезжали и сочиняли аналогичные истории. Результат – паника на бирже, экономический кризис, военное положение и, наконец, революция.
Конечно, Ивлин Во выдумал эту историю, но описанная им обратная связь в мире новостей действительно существует. И все же у современной информации есть ряд важных отличий. Прежде всего, это скорость, с которой она распространяется. За несколько часов никому не известный мем может стать главной темой для обсуждения [453]. Другое отличие – стоимость распространения. Создание ботов и фейковых аккаунтов обходится довольно дешево, а подкрепление за счет политиков или новостных агентств – практически бесплатно. В некоторых случаях популярные фейковые статьи даже приносят рекламный доход. Кроме того, существует возможность алгоритмической манипуляции: если кому-то удастся использовать фейковые аккаунты