Шрифт:
Такая колонизация новых технологий была не просто насущной задачей для этих слабо укоренившихся групп, их сторонники разошлись по всему миру, и, не прикрывайся они своей политикой, их деятельность вряд ли бы принималась благосклонно. С их стороны было весьма дальновидно создать среду для идеологий нацизма и превосходства белой расы в новой медийной системе, пока никто не спохватился. Например, Stormfront, центр деятельности ультраправых, был запущен неонацистом и бывшим великим магистром ку-клус-клана в Алабаме Доном Блэком. Отбывая наказание за попытку госпереворота в Доминиканской Республике, он обучился компьютерной грамотности. В начале 1990-х годов появилась небольшая электронная доска объявлений, которая уже в 1996 году превратилась в полноценный вебсайт, а затем переросла в форум с примерно 300 000 участников. В рейтинге Alexa, который собирает статистику о посещаемости сайтов, ресурс конкурировал с коммерческими СМИ. И это несмотря на его устаревшие интерфейс и функциональность, которые практически не менялись с 2001 года.
С появлением социальных платформ ультраправые остановили свой выбор в основном на YouTube. Каналы ультраправого толка «зарабатывали» не меньше микрозвезд и «пользовались авторитетом», сравнимым с авторитетом бьюти-блогеров. Фашисты типа Ричарда Б. Спенсера, Стефан Молинье и Томми Робинсона – звезды «интеллектуальной закрытой сети», которых поддерживают такие лица, как либертарианец Джо Роган и консерватор Дейв Рубин, а зачастую – даже вещательные СМИ.
Но они не просто применяют методы микрознаменитостей и «авторитетности». Они используют конкретные функции бизнес-модели YouTube. Журналист Пол Льюис и ученая Зейнеп Тюфекчи спустились в кроличью нору алгоритма YouTube, рекомендующего к просмотру следующий ролик. Алгоритм находит аддиктивный контент и приклеивает пользователей к экрану. Как и на других социальных платформах, приоритет отдается времени, проведенному с устройством, или, в случае YouTube, «времени просмотра». Люьис и Тюфекчи обнаружили, что, независимо от истории просмотров созданных ими липовых аккаунтов, алгоритмы постепенно приводили их ко все более и более «экстремальному» контенту: от Трампа к неонацистам, от Хилари Клинтон – к «Движению за правду об 11 сентября».
Но почему «экстремальный» контент вызывает зависимость? Частично это объясняется тем, что в данном контексте в большинстве случаев «экстремальный» значит конспирологический информационно-развлекательный контент: к примеру, в преддверии президентских выборов 2016 года алгоритмы предлагали антиклинтоновские истории о заговорах. Когда люди перестают верить новостям, когда новости начинают раздражать и сбивать с толку, на смену приходит развлекательная информация, понять которую куда проще. Она преподносится в очень удобоваримом и приятном для просмотра формате, более того, создается видимость критического мышления. На фоне официальной агнотологии – практики намеренного распространения заблуждений по основным вопросам – такая информация даже повышает самооценку. Но бывает и так, что алгоритмы улавливают темные желания, которые медленно варятся под якобы консенсуальной поверхностью политики.
Так что ультраправые ютуберы не только объединяются в сеть, сотрудничают и продвигают друг друга, выводя свой коллективный контент в топ просмотров. Они не только стараются избегать слов-триггеров, чтобы не попадать в поле зрения алгоритмов, регистрирующих ксенофобские высказывания. Они уверены, что платформа сама будет продвигать их захватывающий, по мнению этих же самых алгоритмов, контент. Зейнеп Тюфекчи утверждает, что «YouTube, пожалуй, один из самых мощных радикализирующих инструментов XXI века».
«В былые времена, – писал ирландский профессор Джон Нотон, – если ты решил устроить переворот, то первым делом надо было захватить телевизионную станцию. Сегодня же достаточно лишь “вооружиться” YouTube». Переворот – это, конечно же, технология XX века. Одна из тех, что пока еще недоступна объединившимся в сеть ультраправым. И все же было бы глупо сбрасывать со счетов совокупное влияние пропаганды. Как и реклама, она обязательно должна на кого-то действовать, иначе уже давно бы умерла. Либеральные критики YouTube в чем-то правы, когда говорят, что такой симулякр искажает реальность. Как сказал бывший инженер Google Гийом Шасло, YouTube «похож на реальность, но он создан таким образом, чтобы вы еще больше времени проводили онлайн».
Технологический детерминизм, будь то Twitter– революции или перевороты в YouTube, очень заманчив, потому что упрощает любую проблему. Но, поддаваясь этому соблазну, мы упускаем из виду реальную историю. Возникает очевидный вопрос: почему материалы неонацистов или информационно-развлекательные конспирологические теории настолько увлекательны? Когда ученые мужи жалуются на «радикализацию», возникает ощущение, что достаточно наткнуться на ультраправые материалы, как эскалатор уже понесет тебя прямиком к «экстремизму». При этом, естественно, сами ученые мужи не переходят на сторону радикальных движений только лишь от того, что ознакомились с соответствующими материалами. YouTube не формирует повестку дня намеренно. Скорее, платформы по своей природе тянутся к драмам, неважно – политическим или личным. Пользователь становится, по выражению Чайны Мьевиля, «драмафагом», поглотителем драм.
Агностицизм в отношении контента в условиях компьютерного капитализма имеет политический подтекст, но действие алгоритма выходит далеко за рамки политического содержания. Художник Джеймс Бридл написал о неожиданно мрачном и эксцентричном детском контенте на YouTube, который содержит сцены эротики или насилия: например, свинка Пеппа съедает своего папу или пьет отбеливатель. Такой материал был создан, чтобы удовлетворить спрос, определяемый алгоритмами, иными словами, отражал данные, исходящие от пользователей: поисковые запросы, лайки, клики и время просмотра. В этом отношении система ничем не отличается от товаров предыдущих лет, созданных алгоритмами, типа футболок с надписями Keep Calm and Rape a Lot («сохраняйте спокойствие и побольше насилуйте»), Kiss Me I’m Abusive («поцелуй меня, я абьюзер») и I Heart Boiling Girls («я люблю жарких девушек»). Поведение платформы подчиняется, как называет ее Джеффри Юрис, «логике агрегации». На основе этих данных алгоритм объединяет пользователей во временные группы. Исходя из всех совокупностей данных он устанавливает взаимосвязи между определенными типами контента и конкретными моделями поведения: стимулы и реакция. Система работает только благодаря реакции. В самих зрителях должно быть нечто, что заставляет их стремиться к зависимости. Алгоритмы реагируют на поведение и отбирают контент в соответствии с желаниями пользователей, о которых сами пользователи могут и не догадываться. Происходит оцифровка бессознательного.
Получается, что пока мы исповедуемся платформам, предоставляем им цифровые значения, они внимательно прислушиваются к нашим желаниям. Если говорить математическим языком информатики, коллективными потребностями можно манипулировать, проектировать их и соединять с решением. Новые технологии имеют такой успех лишь потому, что позиционируют себя как волшебное средство. Средство для решения не только личных проблем, но и более существенных кризисов и дисфункций позднего капитализма. Если средства массовой информации – это односторонняя информационная монополия, идите в ленту, блоги, подкасты. Если не устраивают новости, обратитесь к гражданской журналистике с ее «нефильтрованными» сенсациями. Если хотите подзаработать, отправляйтесь на TaskRabbit. Если у вас не хватает денег, но есть машина, можете немного подхалтурить. Если страдаете из-за низкой самооценки, подайтесь в микрозвезды. Если политики обманывают ваши ожидания, подпишитесь на них в Twitter. Если вам чего-то не хватает, продолжайте крутить страницу. Бизнес-модель платформ предполагает не только невзгоды отдельных людей, но и целое общество, надежно застрявшее в кризисе.