Боты против троллей. Когда в соцсетях забанят всех пользователей

Эксперты пытаются понять, где грань между заботой о безопасности и цензурой

"Существует множество инструментов, которые могут помочь идентифицировать людей и институции, которые занимаются в соцсетях вредительством. Но нет единого мнения о том, как эти инструменты использовать", - пишет Кристофер Мимс The Wall Street Journal.

Кто бы мог подумать, что это может произойти: за последние несколько недель Facebook разоблачил поддельные аккаунты, которые носили следы деятельности российских агентов влияния, президент США обвинил Twitter в намеренном ограничении видимости твитов консервативных политиков, а Apple, Facebook, YouTube и Pinterest удалили учетные записи и контент, созданный конспирологом Алексом Джонсом и его медиаимперией Infowars. Это вызвало дискуссию о том, являются ли запреты, вводимые технологическими гигантами, борьбой с фейковыми новостями или же это - ограничение свободы слова.

Так или иначе, эти споры касаются решений, принимаемых людьми, но на определенном этапе запускаемых или навязываемых алгоритмами. Эти алгоритмы базируются на ценностях, исповедуемых компаниями, и том, насколько важны для них либеральные ценности американского общества. Учитывая огромные масштабы предоставляемых услуг, ІТ-гигантам рано или поздно придется перевести свои ценности на язык холодного, жесткого кода.

Искусственный интеллект уже среди нас

Сегодня существует множество инструментов для выявления дезинформации, ботов, поддельных учетных записей, рекламных кампаний, информационных пузырей и когнитивных, социальных, а также алгоритмических ошибок и предрассудков, которые искажают то, что мы видим и слышим. Только нет единого мнения о том, как использовать эти инструменты.

Промышленные гиганты уже говорят о том, что намерены внедрить некоторые из этих инструментов. Facebook использует искусственный интеллект для оценки проблемного контента - от разжигания ненависти до сигналов о возможном самоубийстве пользователя. Twitter при помощи ИИ выявляет потенциальных садистов, а YouTube блокирует доступ к своему веб-сайту террористам.

Несмотря на эти усилия ученые и люди, интересующиеся политикой, считают, что необходимы более активные и, быть может, даже совместные действия руководства IT-гигантов. Самый оптимистичный сценарий предполагает, что техногиганты будут использовать эти инструменты публично и прозрачно.
Вызывайте ботов

Тот факт, что информационные пузыри, язык ненависти и дезинформация со стороны самих властей должны контролироваться при помощи общего набора инструментов, имеет мало общего с гибкостью искусственного интеллекта. Скорее речь о том, что проблемы взаимосвязаны.

К примеру, что общего между аккаунтами террористов и кампаниями по дезинформации? "И те и другие можно обнаружить при помощи одних и тех же методов", - говорит Хамидреза Альвари, выпускник Аризонского университета, изобретший метод выявления вредоносных учетных записей в социальных сетях.

В то время как большинство методов обнаружения вредоносного контента основаны на фильтровании записей, которое террористы и дезинформаторы могут спокойно обойти, алгоритм Алвари ищет учетные записи, которые распространяют контент быстрее и шире, чем другие пользователи. Поскольку именно скорость и охват являются целью как вербовщиков террористов, так и пропагандистов, метод Алвари может стать передовым на линии алгоритмической фильтрации в социальных сетях. Но все же именно люди принимают окончательное решение об удалении определенной учетной записи.

Все новости из одного источника

Алгоритмы также могут использоваться для идентификации и вмешательства в информационные пузыри в социальных сетях. Дело в том, что пользователи чаще всего общаются с людьми, которые разделяют их взгляды, поэтому в большинстве случаев видят только посты френдов. Так что встает вопрос о том, как пользователю получить доступ к более разнообразному контенту.

Чтобы оценить степень и силу такого пузыря, профессор Университета информационных технологий штата Индиана Филиппо Менчер изучил, как часто социальные медиа предоставляют пользователям информацию из нескольких источников. Оказалось, что "тенденция однородности" Facebook еще сильнее, чем предвзятость поисковых систем. Последние время от времени все же отправляют пользователей к источникам, которые находятся за пределами своего "фильтрационного пузыря". Twitter в этом плане оказался хуже, чем Facebook, а YouTube вообще очутился в самом низу списка.

IT-гиганты уже настраивают свои алгоритмы так, чтобы усилить вовлеченность пользователей. Между тем изучение тенденции к однородности источников информации и действия, направленные на увеличение количества источников, могли бы стать частью этого процесса.

Существует также возможность "обучить" искусственный интеллект при помощи так называемого глубокого обучения на примерах известных случаев враждебного поведения, чтобы ИИ мог идентифицировать сигналы, которые неспособны заметить люди. Исследователи из университетов Гонконга, Катара и Южной Кореи уже объявили об успехах, которых они достигли благодаря использованию такой технологии при обнаружении сплетен в китайской соцсети Сина Вейбо.

Где грань между безопасностью и цензурой

Методы удаления вредоносного контента не идеальны. К примеру, алгоритмы Twitter не подсказывали автоматически имена политиков-консервантов, когда пользователи вводили такие запросы в поисковую систему. Когда президент Дональд обвинил Twitter в том, что тот попросту тайно банит консерваторов, компания заявила, что проблема кроется в алгоритме "поведенческого рейтинга" и пообещала улучшить его.

Но где грань между заботой о качестве информации и цензурой? Сегодня это один из главных вопросов, с которыми сталкиваются все технологические гиганты. Глава Facebook Марк Цукерберг недавно заявил, что предпочел бы не подвергать цензуре даже такие громкие заявления, как отрицание Холокоста, поскольку у Facebook нет монополии на правду.

Тем не менее Facebook и другие компании, работающие в индустрии распространения контента, каждый день удаляют комментарии или ограничивают к ним доступ. И зачастую их движения кажутся хаотичными. Решение генерального директора Apple Тима Кука забанить Infowars привело к аналогичным действиям других технологических гигантов. Алекс Джонс и его Infowars активно пропагандируют теории заговора: массовое убийство в школе Sandy Hook в 2012-м называют мистификацией, обвиняют видных демократов в управлении глобальной сетью педофилов и т. д.

Как бороться с манипуляторами

"Одним из решений может стать создание независимой, но спонсируемой промышленностью организации, которая позволила бы компаниям собирать информацию об учетных записях, финансируемых иностранными правительствами, и аккаунтах, распространяющих вредоносный контент, а также предоставила бы инструменты для борьбы", - говорит Джонатан Морган, глава компании New Knowledge, которая специализируется на защите бизнеса от дезинформации и манипуляций в социальных сетях.

Аналогичная организация, Глобальный интернет-форум по борьбе с терроризмом, занимается координацией действий против террористов в интернете. Его американские члены, в том числе министр внутренней безопасности США Кирстен Нильсен и представители советов технологических гигантов из Силиконовой долины, не слишком горят желанием расширить миссию организации борьбой с кампаниями по дезинформации. В отличие от своих европейских коллег.

Другой моделью могут быть некоммерческие центры обмена и анализа информации (работают в таких секторах, как финансовые услуги или дистрибуция электроэнергии), которые обмениваются информацией о киберугрозах. Такой обмен позволяет выстроить хорошую систему защиты: жертва нападения может быстро предупредить других.
Морган считает, что орган, который будет контролировать поведение в интернете, должен поддерживаться государством. Вроде того, как Федеральная избирательная комиссия контролирует проведение выборов, а Федеральная комиссия по связи решает вопросы СМИ.

Однако препятствием на пути к этому становится политика. После запрета Infowars в "основном интернете" фаны страницы начали обвинять технологических гигантов в заговоре: мол, те решили заглушить консервативные голоса.

Никогда в истории действительность не подвергалась столь сильному влиянию систем, созданных таким узким кругом людей. Логику алгоритмов, управляющих интернетом, определяют несколько компаний. Если мы уже не можем жить без созданного ими искусственного интеллекта, а их решения связаны со всем, что важно для нас - от свободы слова до тайны волеизъявления, - то стоило бы требовать от IT-корпораций большей прозрачности. Ведь как объяснить, что решения о цензуре могут приниматься без миллионов людей, на которые эти самые решения непосредственно влияют?