В некоторых случаях цензура и оказывается основной проблемой: вспомним ситуацию с фотографией Фан Тхи Ким Фук, запрещенной на Facebook. В других случаях проблемы начинаются как раз из-за отсутствия цензуры. В 2018 году несколько жителей Индии были убиты агрессивной толпой, которая вышла на улицы из-за вирусных сообщений в WhatsApp[464]
. Пока разворачивались те страшные события, компания Facebook, владеющая мессенджером WhatsApp, не предпринимала никаких действий. В обоих случаях корень проблемы один и тот же: частная организация, никому не подотчетная, определяет, какая информация и как именно получит широкое распространение. После беспорядков и убийств в Индии Facebook ограничила возможности повторной передачи сообщений. Вначале это было сделано только для Индии[465], но позже ограничения на количество репостов были введены во всем мире[466]. В течение двух лет условия, на которых мы с вами можем использовать WhatsApp, существенно изменились, как меняется и то, что считается теперь допустимым содержанием наших сообщений. Важнейший механизм, благодаря которому идеи появляются и начинают циркулировать в публичном поле, вновь изменился.В этом случае руководство компании Facebook приняло, надо полагать, правильное решение. В других их реакция выглядит гораздо менее однозначной. В течение нескольких месяцев 2018 года военные в Мьянме готовили кампанию по уничтожению представителей народности рохинджа, преимущественно мусульман, и использовали для общения мессенджер Facebook. Компания признала, что стала «инструментом в руках тех, кто стремился посеять вражду и нанести ущерб» в ходе событий, признанных мировым сообществом этнической чисткой в отношении рохинджа[467]
. (Позже представители Facebook отказались предоставить информацию, которую можно было бы использовать в Международном суде ООН, чтобы привлечь военных Мьянмы к ответственности[468].) В другом случае Facebook оставила в открытом доступе материалы, представляющие потенциальную угрозу для американских граждан, хотя десятки пользователей требовали их заблокировать. Кайл Риттенхаус застрелил двух невооруженных протестующих и ранил еще одного в городе Кеноша, штат Висконсин. За день до этого он заходил на страницу в Facebook, где были размещены призывы брать в руки оружие. Пользователи социальной сети отправили больше 455 жалоб на ту страницу, но компания их проигнорировала[469].Многие платформы используют какие-то с виду произвольные критерии в отношении того, что считать допустимым, а что нет. Запрет на публикации Дональда Трампа в январе 2021 года, причем не только в Facebook, но и в Twitter, YouTube, Twitch и на других платформах, — отличный пример совершенно субъективного подхода. Трамп определенно перешел границы разумного, когда призвал штурмовать здание Капитолия. Однако настолько ли это опаснее, чем его прежние выходки? В течение предыдущих десяти лет Трамп использовал соцсети для конспиративной расистской теории о настоящем свидетельстве о рождении Барака Обамы, репостил сообщения в Twitter, авторами которых были откровенные белые шовинисты и люди крайне правых взглядов, распространял ложные сведения о подтасовке данных на выборах — и это лишь несколько примеров из множества известных. Новые технологические платформы всячески изворачиваются, пытаясь работать и с Трампом, и с оскорбительными и непристойными материалами в целом. Но аккаунты были заблокированы именно в 36-часовой период между признанием поражения Трампа на выборах и инаугурацией Джо Байдена — и возникли вопросы: почему именно сейчас и почему именно эти аккаунты?
Решения Facebook не имеют четкого объяснения. В конце концов, почему именно сообщения Трампа о штурме Капитолия привели к блокировке, а распространение в течение десяти лет ложной информации такой реакции не вызывало? Почему фото Фан Тхи Ким Фук было заблокировано, а призывы к уничтожению рохинджа цензура пропустила? Все это доказывает, что интернет-платформы обрели колоссальное влияние. Все наше публичное обсуждение ведется теперь в рамках систем, которые контролируются крупнейшими соцсетями, то есть управляются по их правилам и в соответствии с их коммерческими интересами.
Проблема даже не в том, правильно ли поступают цифровые платформы, а в том, хотим ли мы, чтобы подобные вопросы решали прежде всего частные компании. Некоторые из крупнейших корпораций экспериментируют с новыми подходами: в мае 2020 года Facebook сформировала «наблюдательный совет», в который вошли журналисты, эксперты в области прав человека, юристы и политики. Совет призван оценивать и при необходимости корректировать решения компании, связанные с цензурой. Начало неплохое, однако такой совет — это всего лишь экстренная мера для особенно сложных случаев. Без ясных принципов, разработанных экспертами, которые наделены должными полномочиями, компании экспоненциальной эпохи создают необходимые правила сами.